Hvordan fungerer AI-opskalering

Hvordan fungerer AI-opskalering?

Kort svar: AI-opskalering fungerer ved at træne en model på parrede billeder i lav og høj opløsning og derefter bruge det til at forudsige troværdige ekstra pixels under opskalering. Hvis modellen har set lignende teksturer eller ansigter under træning, kan den tilføje overbevisende detaljer; hvis ikke, kan den "hallucinere" artefakter såsom glorier, voksagtig hud eller flimmer i video.

Vigtige konklusioner:

Forudsigelse : Modellen genererer plausible detaljer, ikke en garanteret rekonstruktion af virkeligheden.

Modelvalg : CNN'er har en tendens til at være mere stabile; GAN'er kan se skarpere ud, men risikerer at opfinde funktioner.

Artefakttjek : Hold øje med glorier, gentagne teksturer, "næsten bogstaver" og plastikagtige ansigter.

Videostabilitet : Brug tidsmæssige metoder, ellers vil du se flimren og drift fra billede til billede.

Brug med høj risiko : Hvis nøjagtighed er vigtig, skal behandlingen oplyses, og resultaterne skal behandles som illustrative.

Hvordan fungerer AI-opskalering? Infografik.

Du har sikkert set det: et lille, knasende billede bliver til noget skarpt nok til at udskrive, streame eller lægge i en præsentation uden at krympe sig. Det føles som at snyde. Og - på den bedste måde - det er det på en måde 😅

Så, hvordan AI-opskalering fungerer, handler om noget mere specifikt end "computeren forbedrer detaljer" (håndbølget) og tættere på "en model forudsiger en plausibel struktur i høj opløsning baseret på mønstre, den har lært fra mange eksempler" ( Deep Learning for Image Super-resolution: A Survey ). Dette forudsigelsestrin er hele spillet - og det er derfor, AI-opskalering kan se fantastisk ud ... eller lidt plastikagtigt ... eller som om din kat har fået bonus-knurhår.

Artikler du måske har lyst til at læse efter denne:

🔗 Sådan fungerer kunstig intelligens
Lær det grundlæggende om modeller, data og inferens i AI.

🔗 Hvordan AI lærer
Se, hvordan træningsdata og feedback forbedrer modellens ydeevne over tid.

🔗 Hvordan AI registrerer anomalier
Forstå mønstergrundlinjer og hvordan AI hurtigt markerer usædvanlig adfærd.

🔗 Hvordan AI forudsiger tendenser
Udforsk prognosemetoder, der registrerer signaler og forudser fremtidig efterspørgsel.


Sådan fungerer AI-opskalering: kerneideen, med almindelige ord 🧩

Opskalering betyder øget opløsning: flere pixels, større billede. Traditionel opskalering (som bikubisk) strækker grundlæggende pixels og udjævner overgange ( bikubisk interpolation ). Det er fint, men det kan ikke opfinde nye detaljer - det interpolerer bare.

AI-opskalering prøver noget mere dristigt (også kendt som "superopløsning" i forskningsverdenen) ( Deep Learning for Image Super-resolution: A Survey ):

  • Den ser på lavopløsningsindgangen

  • Genkender mønstre (kanter, teksturer, ansigtstræk, tekststrøg, stofvævning…)

  • Forudsiger, hvordan en version med højere opløsning skal se ud

  • Genererer ekstra pixeldata, der passer til disse mønstre

Ikke "genskabe virkeligheden perfekt", mere som "lav et meget troværdigt gæt" ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ). Hvis det lyder en smule mistænkeligt, tager du ikke fejl - men det er også derfor, det fungerer så godt 😄

Og ja, det betyder, at AI-opskalering dybest set er kontrolleret hallucination ... men på en produktiv, pixelrespekterende måde.


Hvad gør en god version af AI-opskalering? ✅🛠️

Hvis du bedømmer en AI-opskalering (eller en forudindstillet indstilling), er her det, der har størst betydning:

  • Detaljeregendannelse uden overtilberedning.
    God opskalering tilføjer sprødhed og struktur, ikke knasende støj eller falske porer.

  • Kantdisciplin
    Rene linjer forbliver rene. Dårlige modeller får kanterne til at vakle eller spire glorier.

  • Teksturrealisme.
    Hår bør ikke blive til et penselstrøg. Mursten bør ikke blive til et gentagende mønsterstempel.

  • Støj- og kompressionshåndtering
    Mange hverdagsbilleder bliver JPEG-konverteret til døde. En god opskalering forstærker ikke den skade ( Real-ESRGAN ).

  • Ansigts- og tekstbevidsthed
    Ansigter og tekst er de nemmeste steder at få øje på fejl. Gode modeller behandler dem forsigtigt (eller har specialiserede tilstande).

  • Konsistens på tværs af billeder (for video)
    Hvis detaljer flimrer fra billede til billede, vil dine øjne skrige. Videoopskalering lever eller dør af tidsmæssig stabilitet ( BasicVSR (CVPR 2021) ).

  • Kontrolelementer, der giver mening.
    Du ønsker skydeknapper, der er relateret til reelle resultater: støjreduktion, sløring, fjernelse af artefakter, kornethed, skarphed ... de praktiske ting.

En stille regel, der holder: den "bedste" opskalering er ofte den, man knap nok bemærker. Det ser bare ud som om, du havde et bedre kamera til at starte med 📷✨


Sammenligningstabel: populære AI-opskaleringsmuligheder (og hvad de er gode til) 📊🙂

Nedenfor er en praktisk sammenligning. Priserne er bevidst uklare, fordi værktøjerne varierer afhængigt af licens, pakker, beregningsomkostninger og alt det sjove.

Værktøj / Tilgang Bedst til Prisstemning Hvorfor det virker (omtrent)
Topaz-stil desktop-opskaleringssystemer ( Topaz Photo , Topaz Video ) Fotos, video, nem arbejdsgang Betalt-agtig Stærke generelle modeller + masser af tuning, har en tendens til at "bare virke" ... for det meste
Adobes funktioner af typen "Superopløsning" ( Adobe Enhance > Superopløsning ) Fotografer, der allerede er i det økosystem Abonnement-y Solid detaljerekonstruktion, normalt konservativ (mindre drama)
Real-ESRGAN / ESRGAN-varianter ( Real-ESRGAN , ESRGAN ) Gør-det-selv, udviklere, batchjob Gratis (men tidskrævende) God til teksturdetaljer, kan være stærk i ansigterne, hvis man ikke er forsigtig
Diffusionsbaserede opskaleringstilstande ( SR3 ) Kreativt arbejde, stiliserede resultater Blandet Kan skabe smukke detaljer - kan også opfinde vrøvl, så ... jep
Spilopskalere (DLSS/FSR-stil) ( NVIDIA DLSS , AMD FSR 2 ) Spil og rendering i realtid Bundtet Bruger bevægelsesdata og lærte forudgående data - problemfri ydeevne og sejr 🕹️
Cloud-opskaleringstjenester Bekvemmelighed, hurtige gevinster Betal pr. brug Hurtig + skalerbar, men du bytter kontrol og nogle gange subtilitet
Videofokuserede AI-opskaleringsværktøjer ( BasicVSR , Topaz Video ) Gamle optagelser, anime, arkiver Betalt-agtig Temporale tricks til at reducere flimmer + specialiserede videomodeller
Opskalering af "smart" telefon/galleri Tilfældig brug Inkluderet Letvægtsmodeller indstillet til behageligt output, ikke perfektion (stadig praktiske)

Formateringssærkelse: "Paid-ish" laver en masse arbejde i den tabel. Men du forstår ideen 😅


Den store hemmelighed: Modeller lærer en kortlægning fra lav opløsning til høj opløsning 🧠➡️🖼️

Kernen i det meste AI-opskalering er en overvåget læringsopsætning ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ):

  1. Start med billeder i høj opløsning ("sandheden")

  2. Nedsampling af dem til versioner med lav opløsning ("input")

  3. Træn en model til at rekonstruere den oprindelige højopløsning fra den lave opløsning

Over tid lærer modellen korrelationer som:

  • "Denne slags sløring omkring et øje hører normalt til øjenvipperne"

  • "Denne pixelklynge indikerer ofte serif-tekst"

  • "Denne kantgradient ligner en taglinje, ikke tilfældig støj"

Det handler ikke om at huske specifikke billeder (i den simple forstand), det handler om at lære statistisk struktur ( Deep Learning for Image Super-resolution: A Survey ). Tænk på det som at lære grammatikken i teksturer og kanter. Ikke poesigrammatik, mere som ... IKEA manualgrammatik 🪑📦 (en klodset metafor, men tæt nok på).


Detaljerne: hvad sker der under inferens (når du opskalerer) ⚙️✨

Når du indlæser et billede i en AI-opskalering, er der typisk en pipeline som denne:

  • Forbehandling

    • Konverter farverum (nogle gange)

    • Normaliser pixelværdier

    • Del billedet op i bidder, hvis det er stort (VRAM reality check 😭) ( Real-ESRGAN repo (tile options) )

  • Funktionsudtrækning

    • Tidlige lag registrerer kanter, hjørner og gradienter

    • Dybere lag registrerer mønstre: teksturer, former, ansigtskomponenter

  • Rekonstruktion

    • Modellen genererer et objektkort med højere opløsning

    • Derefter konverteres det til det faktiske pixeloutput

  • Efterbehandling

    • Valgfri slibning

    • Valgfri støjreduktion

    • Valgfri artefaktundertrykkelse (ringninger, haloer, blokeringer)

En subtil detalje: mange værktøjer opskalerer fliser og blander derefter samlingerne. Fantastiske værktøjer skjuler flisegrænser. Meh-værktøjer efterlader svage gittermærker, hvis du kniber øjnene sammen. Og ja, du vil knibe øjnene sammen, fordi mennesker elsker at inspicere små ufuldkommenheder ved 300% zoom som små gremliner 🧌


De primære modelfamilier, der bruges til AI-opskalering (og hvorfor de føles anderledes) 🤖📚

1) CNN-baseret superopløsning (den klassiske arbejdshest)

Konvolutionelle neurale netværk er fantastiske til lokale mønstre: kanter, teksturer, små strukturer ( Image Super-Resolution Using Deep Convolutional Networks (SRCNN) ).

  • Fordele: hurtig, stabil, færre overraskelser

  • Ulemper: Kan se lidt "forarbejdet" ud, hvis man presser hårdt på

2) GAN-baseret opskalering (ESRGAN-stil) 🎭

GAN'er (Generative Adversarial Networks) træner en generator til at producere billeder i høj opløsning, som en diskriminator ikke kan skelne fra virkelige billeder ( Generative Adversarial Networks ).

  • Fordele: kraftfulde detaljer, imponerende tekstur

  • Ulemper: kan opfinde detaljer, der ikke var der - nogle gange forkerte, nogle gange uhyggelige ( SRGAN , ESRGAN )

Et GAN kan give dig den skarphed, du kan gispe efter. Det kan også give dit portrætmotiv et ekstra øjenbryn. Så ... vælg dine kampe 😬

3) Diffusionsbaseret opskalering (det kreative jokertegn) 🌫️➡️🖼️

Diffusionsmodeller fjerner støj trin for trin og kan styres til at producere detaljer i høj opløsning ( SR3 ).

  • Fordele: kan være utrolig god til plausible detaljer, især til kreativt arbejde

  • Ulemper: kan afvige fra den oprindelige identitet/struktur, hvis indstillingerne er aggressive ( SR3 )

Det er her, at "opskalering" begynder at blandes med "gentænkning". Nogle gange er det præcis, hvad man ønsker. Nogle gange er det ikke.

4) Videoopskalering med tidsmæssig konsistens 🎞️

Videoopskalering tilføjer ofte bevægelsesbevidst logik:

  • Bruger tilstødende billeder til at stabilisere detaljer ( BasicVSR (CVPR 2021) )

  • Forsøger at undgå flimmer og krybende artefakter

  • Kombinerer ofte superopløsning med støjreduktion og deinterlacing ( Topaz Video )

Hvis billedopskalering er som at restaurere ét maleri, er videoopskalering som at restaurere en flipbog uden at få karakterens næse til at ændre form for hver side. Hvilket er ... sværere end det lyder.


Hvorfor AI-opskalering nogle gange ser falsk ud (og hvordan man spotter det) 👀🚩

AI-opskalering mislykkes på genkendelige måder. Når du først har lært mønstrene at kende, vil du se dem overalt, som at købe en ny bil og pludselig bemærke den model på hver gade 😵💫

Almindelige fortæller:

  • Voksning af hud i ansigter (for meget støjreduktion + udglatning)

  • Overskærpede glorier omkring kanterne (klassisk "overshoot"-territorium) ( bikubisk interpolation )

  • Gentagne teksturer (murvægge bliver til kopi-indsæt-mønstre)

  • Sprød mikrokontrast , der skriger "algoritme"

  • Tekstforvrængning, hvor bogstaver bliver næsten-bogstaver (den værste slags)

  • Detaljeforskydning , hvor små funktioner ændrer sig subtilt, især i diffusionsarbejdsgange ( SR3 )

Den vanskelige del: Nogle gange ser disse artefakter "bedre" ud ved første øjekast. Din hjerne kan lide skarphed. Men efter et øjeblik føles den ... forkert.

En god taktik er at zoome ud og tjekke, om det ser naturligt ud ved normal synsafstand. Hvis det kun ser godt ud ved 400% zoom, er det ikke en sejr, det er en hobby 😅


Sådan fungerer AI-opskalering: træningssiden, uden matematikhovedpine 📉🙂

Træning af superopløsningsmodeller involverer normalt:

Typiske tabstyper:

Der er en konstant tovtrækkeri:

  • Gør det tro mod originalen
    vs.

  • Gør det visuelt tiltalende

Forskellige værktøjer lander på forskellige steder i det spektrum. Og du foretrækker måske ét afhængigt af, om du restaurerer familiebilleder eller forbereder en plakat, hvor "flot udseende" betyder mere end retsmedicinsk nøjagtighed.


Praktiske arbejdsgange: fotos, gamle scanninger, anime og video 📸🧾🎥

Fotos (portrætter, landskaber, produktbilleder)

Bedste praksis er normalt:

  • Mild støjreduktion først (hvis nødvendigt)

  • Opskaler med konservative indstillinger

  • Tilføj korn igen, hvis det føles for glat (ja, virkelig)

Korn er som salt. For meget ødelægger aftensmaden, men slet ingen af ​​dem kan smage lidt fladt 🍟

Gamle scanninger og stærkt komprimerede billeder

Disse er sværere, fordi modellen muligvis behandler kompressionsblokke som "tekstur".
Prøv:

  • Fjernelse eller afblokering af artefakter

  • Så opskaler

  • Så let slibning (ikke for meget ... jeg ved det, alle siger det, men alligevel)

Anime og stregtegninger

Stregtegninger drager fordel af:

  • Modeller, der bevarer rene kanter

  • Reduceret teksturhallucination.
    Anime-opskalering ser ofte godt ud, fordi formerne er enklere og ensartede. (Heldigvis.)

Video

Videoen tilføjer ekstra trin:

  • Denoise

  • Deinterlace (for visse kilder)

  • Eksklusiv

  • Temporal udjævning eller stabilisering ( BasicVSR (CVPR 2021) )

  • Valgfri genindføring af korn for kohæsion

Hvis du springer tidsmæssig konsistens over, får du den der glitrende detaljeflimmer. Når du først bemærker det, kan du ikke glemme det. Som en knirkende stol i et stille rum 😖


Valg af indstillinger uden at gætte vildt (en lille snydeliste) 🎛️😵💫

Her er en fornuftig startmentalitet:

  • Hvis ansigter ser plastiske ud,
    Reducer støjreduktion, reducer skarphed, prøv en ansigtsbevarende model eller tilstand.

  • Hvis teksturerne ser for intense ud,
    skal du sænke skyderne for "detaljeforbedring" eller "gendan detaljer", og tilføje en diskret korneffekt bagefter.

  • Hvis kanterne lyser.
    Skru ned for skarphed, og kontroller mulighederne for at undertrykke halo.

  • Hvis billedet ser for "AI" ud,
    så vær mere konservativ. Nogle gange er det bedste træk simpelthen ... mindre.

Og: opskaler ikke 8x bare fordi du kan. En ren 2x eller 4x er ofte det optimale. Ud over det beder du modellen om at skrive fanfiction om dine pixels 📖😂


Etik, autenticitet og det akavede spørgsmål om "sandhed" 🧭😬

AI-opskalering udvisker en linje:

  • Restaurering indebærer at genvinde det, der var der

  • Forbedring indebærer at tilføje det, der ikke var

Med personlige fotos er det normalt fint (og dejligt). Med journalistik, juridisk bevismateriale, medicinsk billeddannelse eller hvad som helst, hvor troskab betyder noget ... skal du være forsigtig ( OSAC/NIST: Standardvejledning til retsmedicinsk digital billedhåndtering , SWGDE-retningslinjer for retsmedicinsk billedanalyse ).

En simpel regel:

  • Hvis indsatsen er høj, så betragt AI-opskalering som illustrativt , ikke endeligt.

Også i professionelle sammenhænge er åbenhed vigtig. Ikke fordi AI er ondt, men fordi publikum fortjener at vide, om detaljerne blev rekonstrueret eller indfanget. Det er bare ... respektfuldt.


Afsluttende noter og en hurtig opsummering 🧡✅

Så, sådan fungerer AI-opskalering : modeller lærer, hvordan detaljer i høj opløsning har tendens til at relatere sig til mønstre i lav opløsning, og forudsiger derefter troværdige ekstra pixels under opskalering ( Deep Learning for Image Super-resolution: A Survey ). Afhængigt af modelfamilien (CNN, GAN, diffusion, video-temporal) kan denne forudsigelse være konservativ og troværdig ... eller dristig og til tider ustabil 😅

Hurtig opsummering

Hvis du vil, så fortæl mig, hvad du opskalerer (ansigter, gamle fotos, video, anime, tekstscanninger), så foreslår jeg en indstillingsstrategi, der har tendens til at undgå de almindelige faldgruber med "AI-look" 🎯🙂


Ofte stillede spørgsmål

AI-opskalering og hvordan det fungerer

AI-opskalering (ofte kaldet "superopløsning") øger et billedes opløsning ved at forudsige manglende detaljer i høj opløsning fra mønstre, der læres under træning. I stedet for blot at strække pixels som bikubisk interpolation, studerer en model kanter, teksturer, flader og tekstlignende streger og genererer derefter nye pixeldata, der stemmer overens med disse lærte mønstre. Det handler mindre om at "gendanne virkeligheden" og mere om at "lave et troværdigt gæt", der lyder naturligt.

AI-opskalering versus bikubisk eller traditionel størrelsesændring

Traditionelle opskaleringsmetoder (som f.eks. bicubic) interpolerer primært mellem eksisterende pixels og udjævner overgange uden at skabe ægte nye detaljer. AI-opskalering sigter mod at rekonstruere plausible strukturer ved at genkende visuelle signaler og forudsige, hvordan højopløsningsversioner af disse signaler har tendens til at se ud. Derfor kan AI-resultater føles dramatisk skarpere, og også hvorfor de kan introducere artefakter eller "opfinde" detaljer, der ikke var til stede i kilden.

Hvorfor ansigter kan se voksagtige eller for glatte ud

Voksede ansigter kommer normalt fra aggressiv støjreduktion og udglatning kombineret med skarphed, der fjerner den naturlige hudtekstur. Mange værktøjer behandler støj og fin tekstur på samme måde, så "rensning" af et billede kan slette porer og subtile detaljer. En almindelig tilgang er at reducere støjreduktion og skarphed, bruge en ansigtsbevarende tilstand, hvis tilgængelig, og derefter genindføre et strejf af korn, så resultatet føles mindre plastisk og mere fotografisk.

Almindelige AI-opskaleringsartefakter at holde øje med

Typiske tegn på signaler inkluderer glorier omkring kanter, gentagne teksturmønstre (som kopier-indsæt-klodser), sprød mikrokontrast og tekst, der bliver til "næsten bogstaver". I diffusionsbaserede arbejdsgange kan man også se detaljeforskydning, hvor små elementer subtilt ændrer sig. For video er flimmer og kravlende detaljer på tværs af billeder store røde flag. Hvis det kun ser godt ud ved ekstrem zoom, er indstillingerne sandsynligvis for aggressive.

Hvordan GAN-, CNN- og diffusionsopskalere har tendens til at variere i resultater

CNN-baseret superopløsning har en tendens til at være mere stabil og forudsigelig, men den kan se "forarbejdet" ud, hvis den presses hårdt. GAN-baserede muligheder (ESRGAN-stil) producerer ofte en mere slagkraftig tekstur og opfattet skarphed, men de kan hallucinere forkerte detaljer, især på ansigter. Diffusionsbaseret opskalering kan generere smukke, plausible detaljer, men de kan afvige fra den oprindelige struktur, hvis vejledningen eller styrkeindstillingerne er for stærke.

En praktisk indstillingsstrategi for at undgå et "for AI"-look

Start konservativt: skaler 2× eller 4×, før du går efter ekstreme faktorer. Hvis ansigterne ser plastiske ud, så skru ned for støjreduktion og skarphed, og prøv en ansigtsbevidst tilstand. Hvis teksturerne bliver for intense, så sænk detaljeforbedring og overvej at tilføje subtil korndannelse bagefter. Hvis kanterne lyser, så reducer skarphed og tjek halo- eller artefaktundertrykkelse. I mange pipelines vinder "mindre", fordi det bevarer en troværdig realisme.

Håndtering af gamle scanninger eller stærkt JPEG-komprimerede billeder før opskalering

Komprimerede billeder er vanskelige, fordi modeller kan behandle blokartefakter som ægte tekstur og forstærke dem. En almindelig arbejdsgang er først fjernelse eller debloking af artefakter, derefter opskalering og derefter let skarphed, hvis det er nødvendigt. Ved scanninger kan en skånsom oprydning hjælpe modellen med at fokusere på den faktiske struktur snarere end skader. Målet er at reducere "falske tekstursignaler", så opskalereren ikke er tvunget til at lave sikre gæt ud fra støjende input.

Hvorfor videoopskalering er sværere end fotoopskalering

Videoopskalering skal være ensartet på tværs af billeder, ikke kun godt på ét stillbillede. Hvis detaljer flimrer fra billede til billede, bliver resultatet hurtigt distraherende. Videofokuserede tilgange bruger tidsmæssig information fra tilstødende billeder til at stabilisere rekonstruktionen og undgå glitrende artefakter. Mange arbejdsgange inkluderer også støjreduktion, deinterlacing for bestemte kilder og valgfri kornreintroduktion, så hele sekvensen føles sammenhængende snarere end kunstigt skarp.

Når AI-opskalering ikke er passende eller risikabelt at stole på

AI-opskalering behandles bedst som forbedring, ikke bevis. I vigtige sammenhænge som journalistik, juridisk bevismateriale, medicinsk billeddannelse eller retsmedicinsk arbejde kan generering af "troværdige" pixels være vildledende, fordi det kan tilføje detaljer, der ikke blev indfanget. En mere sikker indramning er at bruge den illustrativt og afsløre, at en AI-proces rekonstruerede detaljer. Hvis nøjagtighed er afgørende, skal originalerne bevares, og hvert behandlingstrin og hver indstilling skal dokumenteres.

Referencer

  1. arXiv - Dyb læring til billedsuperopløsning: En undersøgelse - arxiv.org

  2. arXiv - Billedsuperopløsning ved hjælp af dybe konvolutionelle netværk (SRCNN) - arxiv.org

  3. arXiv - Real-ESRGAN - arxiv.org

  4. arXiv - ESRGAN - arxiv.org

  5. arXiv - SR3 - arxiv.org

  6. NVIDIA-udvikler - NVIDIA DLSS - developer.nvidia.com

  7. AMD GPUOpen - FidelityFX Super Resolution 2 - gpuopen.com

  8. Computer Vision Foundation (CVF) Open Access - BasicVSR: Søgen efter essentielle komponenter i videosuperopløsning (CVPR 2021) - openaccess.thecvf.com

  9. arXiv - Generative Adversarielle Netværk - arxiv.org

  10. arXiv - SRGAN - arxiv.org

  11. arXiv - Perceptuelle tab (Johnson et al., 2016) - arxiv.org

  12. GitHub - Real-ESRGAN-lager (feltindstillinger) - github.com

  13. Wikipedia - Bikubisk interpolation - wikipedia.org

  14. Topaz Labs - Topaz Foto - topazlabs.com

  15. Topaz Labs - Topaz Video - topazlabs.com

  16. Adobe Hjælpecenter - Adobe Enhance > Superopløsning - helpx.adobe.com

  17. NIST / OSAC - Standardvejledning til håndtering af retsmedicinsk digital billedbehandling (version 1.0) - nist.gov

  18. SWGDE - Retningslinjer for retsmedicinsk billedanalyse - swgde.org

Find den nyeste AI i den officielle AI-assistentbutik

Om os

Tilbage til bloggen