Er AI gået for langt?

Er AI gået for langt?

Kort svar: AI er gået for langt, når den anvendes i vigtige beslutninger, overvågning eller overtalelse uden faste grænser, informeret samtykke og en reel ret til at klage. Den overskrider grænsen igen, når deepfakes og skalerbare svindelnumre får tillid til at føles som et sats. Hvis folk ikke kan se, at AI spillede en rolle, ikke kan forstå, hvorfor en beslutning blev truffet, som den gjorde, eller ikke kan fravælge den, er det allerede gået for langt.

Vigtige konklusioner:

Grænser: Definer hvad systemet ikke kan gøre, især når usikkerheden er høj.

Ansvarlighed: Sørg for, at mennesker kan tilsidesætte resultater uden straf eller tidspresfælder.

Gennemsigtighed: Fortæl folk, hvornår AI er involveret, og hvorfor den traf sine beslutninger.

Anfægtelighed: Sørg for hurtige, brugbare appelmuligheder og klare måder at rette op på forkerte data.

Modstand mod misbrug: Tilføj oprindelse, hastighedsgrænser og kontroller for at begrænse svindel og misbrug.

"Er AI gået for langt?"

Det mærkelige er, at linjeoverskridelsen ikke altid er tydelig. Nogle gange er det højlydt og prangende, som et deepfake-svindelnummer. ( FTC , FBI ). Andre gange er det stille - en automatiseret beslutning, der skubbes til dit liv uden nogen forklaring, og du er ikke engang klar over, at du er blevet "scoret". ( UK ICO , GDPR Art. 22 )

Så ... er AI gået for langt? Nogle steder, ja. Andre steder er det ikke gået langt nok - fordi det bruges uden de usexede, men essentielle sikkerhedsgelændere, der får værktøj til at opføre sig som værktøj i stedet for roulettehjul med en brugervenlig brugergrænseflade. 🎰🙂 ( NIST AI RMF 1.0 , EU AI Act )

Artikler du måske har lyst til at læse efter denne:

🔗 Hvorfor AI kan være skadelig for samfundet
Vigtigste sociale risici: bias, job, privatliv og magtkoncentration.

🔗 Er AI dårligt for miljøet? Skjulte virkninger
Hvordan træning, datacentre og energiforbrug øger emissioner.

🔗 Er AI god eller dårlig? Fordele og ulemper
Balanceret overblik over fordele, risici og afvejninger i den virkelige verden.

🔗 Hvorfor AI betragtes som dårlig: den mørke side
Udforsker misbrug, manipulation, sikkerhedstrusler og etiske bekymringer.


Hvad folk mener, når de siger "Er AI gået for langt?" 😬

De fleste mennesker spørger ikke, om AI er "bevidst" eller "overtager". De peger på en af ​​disse:

  • AI bruges, hvor det ikke burde bruges. (Især beslutninger med høj indsats.) ( EU's AI-lovgivning bilag III , GDPR artikel 22 )

  • AI bruges uden samtykke. (Dine data, din stemme, dit ansigt ... overraskelse.) ( UK ICO , GDPR Art. 5 )

  • AI bliver for god til at manipulere opmærksomhed. (Feeds + personalisering + automatisering = sticky.) ( OECD AI-principper )

  • AI får sandheden til at føles valgfri. (Deepfakes, falske anmeldelser, syntetiske "eksperter") ( Europa-Kommissionen , FTC , C2PA )

  • AI koncentrerer magt. (Et par systemer former, hvad alle ser og kan gøre.) ( UK CMA )

Det er kernen i "Er AI gået for langt?". Det er ikke et enkelt øjeblik. Det er en bunke af incitamenter, genveje og "vi fikser det senere"-tankegang - hvilket, lad os være ærlige, har en tendens til at oversættes til "vi fikser det, når nogen er kommet til skade." 😑

Er AI gået for langt infografik

Den ikke så hemmelige sandhed: AI er en multiplikator, ikke en moralsk aktør 🔧✨

AI vågner ikke op og beslutter sig for at være skadelig. Mennesker og organisationer sigter mod det. Men det formerer det, du fodrer det med:

  • Hjælpsom hensigt bliver massivt nyttig (oversættelse, tilgængelighed, opsummering, medicinsk mønstergenkendelse).

  • Sjusket hensigt bliver massivt sjusket (bias i stor skala, automatisering af fejl).

  • Ond hensigt bliver massivt ond (bedrageri, chikane, propaganda, efterligning).

Det er ligesom at give en megafon til et lille barn. Nogle gange synger det lille barn ... nogle gange skriger det lille barn direkte ind i din sjæl. Ikke en perfekt metafor - lidt fjollet - men pointen rammer 😅📢.


Hvad gør en god version af AI til en god version i hverdagen? ✅🤝

En "god version" af AI defineres ikke af, hvor smart den er. Den defineres af, hvor godt den opfører sig under pres, usikkerhed og fristelse (og mennesker er meget fristet af billig automatisering). ( NIST AI RMF 1.0 , OECD )

Her er hvad jeg kigger efter, når nogen hævder, at deres brug af AI er ansvarlig:

1) Klare grænser

  • Hvad har systemet lov til at gøre?

  • Hvad er det udtrykkeligt forbudt at gøre?

  • Hvad sker der, når man er usikker?

2) Menneskelig ansvarlighed, der er reel, ikke dekorativ

En menneskelig "gennemgang" af resultater betyder kun noget, hvis:

  • de forstår, hvad de anmelder, og

  • de kan tilsidesætte det uden at blive straffet for at bremse tingene.

3) Forklarbarhed på det rette niveau

Ikke alle har brug for matematikken. Folk har brug for:

  • de vigtigste årsager bag en beslutning,

  • hvilke data der blev brugt,

  • hvordan man appellerer, retter eller framelder sig. ( UK ICO )

4) Målbar ydeevne - inklusive fejltilstande

Ikke bare "nøjagtighed", men:

  • hvem det mislykkes på,

  • hvor ofte det fejler lydløst,

  • Hvad sker der, når verden forandrer sig? ( NIST AI RMF 1.0 )

5) Privatliv og samtykke, der ikke er "begravet i indstillinger"

Hvis samtykke kræver en skattejagt gennem menuer ... er det ikke samtykke. Det er et smuthul med ekstra trin 😐🧾. ( GDPR Art. 5 , UK ICO )


Sammenligningstabel: Praktiske måder at forhindre AI i at gå for langt 🧰📊

Nedenfor er "topmuligheder" i den forstand, at de er almindelige rækværk eller operationelle værktøjer, der ændrer resultater (ikke kun vibrationer).

Værktøj / mulighed Målgruppe Pris Hvorfor det virker
Human-in-the-loop-gennemgang ( EU's AI-lovgivning ) Hold, der træffer beslutninger med høje indsatser ££ (tidsomkostninger) Forsinker dårlig automatisering. Mennesker kan også bemærke mærkelige edge-cases, nogle gange ..
Klageproces over afgørelser ( GDPR artikel 22 ) Brugere påvirket af AI-beslutninger Gratis-agtig Tilføjer retfærdig proces. Folk kan rette forkerte data - lyder grundlæggende, fordi det er grundlæggende
Revisionslogfiler + sporbarhed ( NIST SP 800-53 ) Overholdelse, drift, sikkerhed £-££ Lader dig svare på "hvad skete der?" efter en fiasko, i stedet for at trække på skuldrene
Modelevaluering + bias-testning ( NIST AI RMF 1.0 ) Produkt- + risikoteams varierer meget Opfanger forudsigelig skade tidligt. Ikke perfekt, men bedre end at gætte
Red-team-testning ( NIST GenAI-profil ) Sikkerhed + tryghed, folkens £££ Simulerer misbrug før rigtige angribere gør det. Ubehageligt, men det værd 😬
Dataminimering ( UK ICO ) Alle, ærligt talt £ Mindre data = mindre rod. Også færre brud på datasikkerheden, færre akavede samtaler
Indholdsoprindelsessignaler ( C2PA ) Platforme, medier, brugere £-££ Hjælper med at bekræfte, "har et menneske lavet dette?" - ikke idiotsikkert, men reducerer kaos
Hastighedsgrænser + adgangskontrol ( OWASP ) AI-udbydere + virksomheder £ Stopper misbrug i at skalere øjeblikkeligt. Som en fartbump for dårlige aktører

Jep, bordet er lidt ujævnt. Sådan er livet. 🙂


AI i beslutninger med høj indsats: når det går for vidt 🏥🏦⚖️

Det er her, tingene hurtigt bliver alvorlige.

AI inden for sundhedspleje , finans , bolig , beskæftigelse , uddannelse , immigration , strafferet - dette er systemer, hvor: ( EU's AI-lovgivning, bilag III , FDA )

  • en fejl kan koste nogen penge, frihed, værdighed eller sikkerhed,

  • og den berørte person har ofte begrænset magt til at kæmpe imod.

Den store risiko er ikke "AI laver fejl". Den store risiko er, at AI-fejl bliver til politik . ( NIST AI RMF 1.0 )

Sådan ser "for langt" ud her

  • Automatiserede beslutninger uden forklaring: "computer siger nej." ( UK ICO )

  • "Risikoscorer" behandlet som fakta i stedet for gæt.

  • Mennesker, der ikke kan tilsidesætte resultater, fordi ledelsen ønsker hastighed.

  • Data, der er rodede, forudindtagede, forældede eller bare direkte forkerte.

Hvad der ikke bør være til forhandling

  • Ret til at klage (hurtig, forståelig, ikke en labyrint). ( GDPR Art. 22 , UK ICO )

  • Ret til at vide , at kunstig intelligens var involveret. ( Europa-Kommissionen )

  • Menneskelig gennemgang for følgevirkninger. ( NIST AI RMF 1.0 )

  • Kvalitetskontrol af data - fordi "garbage in, garbage out" stadig er smerteligt sandt.

Hvis du prøver at trække en ren linje, er her en:
Hvis et AI-system kan ændre en persons liv væsentligt, kræver det den samme seriøsitet, som vi forventer af andre former for autoritet. Ingen "betatestning" på folk, der ikke tilmeldte sig. 🚫


Deepfakes, svindelnumre og den langsomme død af "Jeg stoler på mine øjne" 👀🧨

Det er den del, der får hverdagen til at føles ... glat.

Når AI kan generere:

  • en talebesked, der lyder som et familiemedlem ( FTC , FBI )

  • en video af en offentlig person, der "siger" noget,

  • en strøm af falske anmeldelser, der ser autentiske nok ud ( FTC )

  • en falsk LinkedIn-profil med en falsk jobhistorik og falske venner…

...det muliggør ikke bare svindel. Det svækker den sociale lim, der lader fremmede koordinere. Og samfundet kører på fremmede, der koordinerer. 😵💫

"For langt væk" er ikke bare falsk indhold

Det er asymmetrien :

  • Det er billigt at producere løgne.

  • Det er dyrt og langsomt at verificere sandheden.

  • Og de fleste mennesker er travle, trætte og scroller.

Hvad hjælper (lidt)

  • Proveniensmarkører for medier. ( C2PA )

  • Friktion for viralitet - en sænkning af øjeblikkelig massedeling.

  • Bedre identitetsbekræftelse, hvor det er relevant (finans, offentlige tjenester).

  • Grundlæggende "verificer out-of-band"-vaner for enkeltpersoner (ring tilbage, brug et kodeord, bekræft via en anden kanal). ( FTC )

Ikke glamourøst. Men det er sikkerhedsseler heller ikke, og jeg er personligt ret knyttet til dem. 🚗


Overvågningscreep: Når AI stille og roligt forvandler alt til en sensor 📷🫥

Denne eksploderer ikke som en deepfake. Den spreder sig bare.

AI gør det nemt at:

  • identificer ansigter i folkemængder ( EU's AI-lov , NIST FRVT )

  • spore bevægelsesmønstre,

  • udlede følelser fra video (ofte dårligt, men sikkert) ( Barrett et al., 2019 , EU AI Act )

  • forudsig "risiko" baseret på adfærd ... eller stemningen i dit nabolag.

Og selv når den er unøjagtig, kan den stadig være skadelig, fordi den kan retfærdiggøre intervention. En forkert forudsigelse kan stadig udløse reelle konsekvenser.

Den ubehagelige del

AI-drevet overvågning ankommer ofte indhyllet i en sikkerhedshistorie:

  • "Det er for at forebygge svindel."

  • "Det er af sikkerhedsmæssige årsager."

  • "Det er for brugeroplevelsens skyld."

Nogle gange er det sandt. Nogle gange er det også en bekvem undskyldning for at bygge systemer, der er meget svære at afmontere senere. Som at installere en envejsdør i dit eget hus, fordi det virkede effektivt på det tidspunkt. Igen, ikke en perfekt metafor - lidt latterligt - men man kan mærke det. 🚪😅

Sådan ser "godt" ud her

  • Strenge begrænsninger på opbevaring og deling.

  • Ryd fravalg.

  • Smalle anvendelsesscenarier.

  • Uafhængigt tilsyn.

  • Ingen "følelsesdetektion" brugt til straf eller gatekeeping. Tak. 🙃 ( EU AI Act )


Arbejde, kreativitet og det stille afkvalificeringsproblem 🧑💻🎨

Det er her, debatten bliver personlig, fordi den berører identitet.

AI kan gøre folk mere produktive. Det kan også få folk til at føle sig erstattelige. Begge dele kan være sandt, på samme tid, i samme uge. ( OECD , WEF )

Hvor det virkelig er nyttigt

  • Udarbejdelse af rutinetekster, så folk kan fokusere på at tænke.

  • Kodningshjælp til gentagne mønstre.

  • Tilgængelighedsværktøjer (tekstning, opsummering, oversættelse).

  • Brainstorming når man sidder fast.

Hvor det går for vidt

  • Udskiftning af roller uden overgangsplaner.

  • Brug af kunstig intelligens til at presse produktionen ned, samtidig med at lønningerne flades ud.

  • At behandle kreativt arbejde som uendelig gratis træningsdata og så trække på skuldrene. ( US Copyright Office , UK GOV.UK )

  • At få juniorroller til at forsvinde – hvilket lyder effektivt, indtil du indser, at du lige har brændt den stige, som fremtidens eksperter skal bestige.

Nedsættelse af færdigheder er subtilt. Du bemærker det ikke i hverdagen. Så en dag indser du, at ingen på holdet husker, hvordan det fungerer uden assistenten. Og hvis assistenten tager fejl, tager I alle sammen bare fejl ... hvilket er lidt af et mareridt. 😬


Magtkoncentration: hvem får lov til at indstille standardindstillingerne? 🏢⚡

Selv hvis AI er "neutral" (det er den ikke), kan den, der kontrollerer den, forme:

  • hvilke oplysninger der er lette at få adgang til,

  • hvad der bliver promoveret eller begravet,

  • hvilket sprog er tilladt,

  • hvilke adfærdsmønstre der opmuntres.

Og fordi AI-systemer kan være dyre at bygge og drive, har magten en tendens til at koncentrere sig. Det er ikke konspiration. Det er økonomi med en teknologisk hættetrøje. ( UK CMA )

"For langt væk"-øjeblikket her

Når standardværdierne bliver til usynlig lov:

  • du ved ikke, hvad der filtreres,

  • du kan ikke undersøge logikken,

  • og du kan realistisk set ikke fravælge det uden at miste adgangen til arbejde, lokalsamfundet eller basale tjenester.

Et sundt økosystem har brug for konkurrence, gennemsigtighed og reelle brugervalg. Ellers lejer man dybest set virkeligheden. 😵♂️


En praktisk tjekliste: Sådan kan du se, om AI går for langt i din verden 🧾🔍

Her er en mave-tjekliste, jeg bruger (og ja, den er ufuldkommen):

Hvis du er en person

  • Jeg kan mærke det, når jeg interagerer med AI. ( Europa-Kommissionen )

  • Dette system presser mig til at dele for meget.

  • Jeg ville være okay med at håndtere outputtet, hvis det er forkert, på en troværdig måde.

  • Hvis jeg blev snydt med dette, ville platformen enten hjælpe mig ... eller også ville den trække på skuldrene.

Hvis du er en virksomhed eller et team

  • Vi bruger AI, fordi det er værdifuldt, eller fordi det er trendy, og ledelsen er urolig.

  • Vi ved, hvilke data systemet berører.

  • En berørt bruger kan appellere resultaterne. ( UK ICO )

  • Mennesker har beføjelse til at tilsidesætte modellen.

  • Vi har beredskabsplaner for AI-fejl.

  • Vi overvåger for afdrift, misbrug og usædvanlige tilfælde af kantproblemer.

Hvis du har svaret "nej" til en masse af disse ting, betyder det ikke, at du er ond. Det betyder, at du er i den normale menneskelige tilstand af "vi sendte det afsted og håbede". Men håb er desværre ikke en strategi. 😅


Afsluttende noter 🧠✅

Så ... Er AI gået for langt?
Den er gået for langt, hvor den anvendes uden ansvarlighed , især i beslutninger med høj indsats, masseovertalelse og overvågning. Den er også gået for langt, hvor den undergraver tilliden - for når tilliden først brydes, bliver alt dyrere og mere fjendtligt, socialt set. ( NIST AI RMF 1.0 , EU AI Act )

Men AI er ikke i sagens natur dømt til at mislykkes eller i sagens natur perfekt. Det er en stærk multiplikator. Spørgsmålet er, om vi bygger rækværket lige så aggressivt, som vi bygger kapaciteterne.

Hurtig opsummering:

  • AI er fint som værktøj.

  • Det er farligt som en uansvarlig myndighed.

  • Hvis nogen ikke kan appellere, forstå eller fravælge - så er det dér, hvor "for langt" starter. 🚦 ( GDPR Art. 22 , UK ICO )


Ofte stillede spørgsmål

Er AI gået for langt i hverdagen?

Mange steder er AI gået for vidt, fordi det er begyndt at glide ind i beslutninger og interaktioner uden klare grænser eller ansvarlighed. Problemet er sjældent, at "AI eksisterer"; det er AI, der stille og roligt bliver integreret i ansættelser, sundhedspleje, kundeservice og feeds med sparsomt tilsyn. Når folk ikke kan se, at det er AI, ikke kan anfægte resultater eller ikke kan fravælge det, holder det op med at føles som et værktøj og begynder at føles som et system.

Hvordan ser det ud, at "AI går for langt" i beslutninger med høje indsatser?

Det ser ud til, at AI bliver brugt inden for sundhedspleje, finans, bolig, beskæftigelse, uddannelse, immigration eller strafferet uden stærke rækværk. Det centrale problem er ikke, at modeller laver fejl; det er, at disse fejl hærder til politik og bliver svære at udfordre. "Computer siger nej"-beslutninger med tynde forklaringer og ingen meningsfulde appeller er der, hvor skaden hurtigt skaleres.

Hvordan kan jeg vide, om en automatiseret beslutning påvirker mig, og hvad kan jeg gøre?

Et almindeligt tegn er et pludseligt udfald, du ikke kan forklare: en afvisning, begrænsning eller en "risikoscore"-vibe uden nogen klar årsag. Mange systemer bør oplyse, hvornår AI spillede en væsentlig rolle, og du bør kunne anmode om hovedårsagerne bag beslutningen og trinene for at appellere den. I praksis kan du bede om en menneskelig gennemgang, rette eventuelle forkerte data og presse på for en ligetil frameldingsmulighed.

Er AI gået for langt med privatliv, samtykke og databrug?

Det sker ofte, når samtykke bliver en skattejagt, og dataindsamling udvides "bare for en sikkerheds skyld". Artiklens kernepointe er, at privatliv og samtykke ikke har megen vægt, hvis de begraves i sammenhænge eller tvinges igennem vage termer. En sundere tilgang er dataminimering: indsaml mindre, behold mindre, og gør valg utvivlsomme, så folk ikke bliver overraskede senere.

Hvordan ændrer deepfakes og AI-svindel, hvad "tillid" betyder online?

De får sandheden til at føles valgfri ved at sænke omkostningerne ved at producere overbevisende falske stemmer, videoer, anmeldelser og identiteter. Asymmetrien er problemet: det er billigt at generere løgne, mens det er langsomt og trættende at verificere sandheden. Praktiske forsvar omfatter provenienssignaler for medier, at bremse viral deling, stærkere identitetstjek, hvor det er relevant, og "verificere out-of-band"-vaner som at ringe tilbage eller bruge et delt kodeord.

Hvad er de mest praktiske rækværk til at forhindre AI i at gå for langt?

Guardrails, der ændrer resultater, omfatter ægte human-in-the-loop-gennemgang af vigtige opkald, klare appelprocesser og revisionslogfiler, der kan svare på "hvad skete der?" efter fejl. Modelevaluering og bias-testning kan opdage forudsigelige skader tidligere, mens red-team-testning simulerer misbrug, før angribere gør det. Hastighedsgrænser og adgangskontroller hjælper med at forhindre misbrug i at skaleres øjeblikkeligt, og dataminimering sænker risikoen på tværs af linjen.

Hvornår går AI-drevet overvågning over grænsen?

Det går over grænsen, når alting som standard bliver til en sensor: ansigtsgenkendelse i folkemængder, sporing af bevægelsesmønstre eller sikker "følelsesdetektion", der bruges til straf eller gatekeeping. Selv unøjagtige systemer kan forårsage alvorlig skade, hvis de retfærdiggør interventioner eller afslag på tjenester. God praksis kan forestille sig snævre anvendelsesscenarier, strenge opbevaringsgrænser, meningsfulde fravalg, uafhængigt tilsyn og et klart "nej" til vaklende følelsesbaserede vurderinger.

Gør AI folk mere produktive - eller afkvalificerer det stille og roligt arbejdet?

Begge dele kan være sandt på samme tid, og den spænding er pointen. AI kan hjælpe med rutinemæssig udarbejdelse, gentagne kodningsmønstre og tilgængelighed, hvilket frigør mennesker til at fokusere på tænkning på et højere niveau. Det går for vidt, når det erstatter roller uden overgangsplaner, presser lønninger, behandler kreativt arbejde som gratis træningsdata eller fjerner juniorroller, der opbygger fremtidig ekspertise. Nedskæringer i færdigheder forbliver subtile, indtil teams ikke kan fungere uden assistenten.

Referencer

  1. National Institute of Standards and Technology (NIST) - AI Risk Management Framework (AI RMF 1.0) - nist.gov

  2. Den Europæiske Union - EU's lov om kunstig intelligens (forordning (EU) 2024/1689) - Den Europæiske Unions Tidende (engelsk) - europa.eu

  3. Europa-Kommissionen - Reguleringsramme for AI (EU's AI-lovgivningspolitikside) - europa.eu

  4. EU's AI-lovgivnings servicedesk - Bilag III (Højrisiko-AI-systemer) - europa.eu

  5. Den Europæiske Union - Regler for pålidelig kunstig intelligens i EU (resumé af EU's AI-lovgivning) - europa.eu

  6. Det britiske informationskommissærkontor (ICO) - Hvad er automatiseret individuel beslutningstagning og profilering? - ico.org.uk

  7. Det britiske informationskommissærkontor (ICO) - Hvad siger den britiske GDPR om automatiseret beslutningstagning og profilering? - ico.org.uk

  8. UK Information Commissioner's Office (ICO) - Automatiseret beslutningstagning og profilering (vejledningshub) - ico.org.uk

  9. UK Information Commissioner's Office (ICO) - Dataminimering (vejledning om britiske GDPR-principper) - ico.org.uk

  10. GDPR-info.eu - Artikel 22 GDPR - gdpr-info.eu

  11. GDPR-info.eu - Artikel 5 GDPR - gdpr-info.eu

  12. Den amerikanske føderale handelskommission (FTC) - Svindlere bruger kunstig intelligens til at forbedre deres familieberedskabsordninger - ftc.gov

  13. Den amerikanske føderale handelskommission (FTC) - Svindlere bruger falske nødsituationer til at stjæle dine penge - ftc.gov

  14. Den amerikanske føderale handelskommission (FTC) - Endelig regel om forbud mod falske anmeldelser og udtalelser (pressemeddelelse) - ftc.gov

  15. Federal Bureau of Investigation (FBI) - FBI advarer om stigende trussel fra cyberkriminelle, der bruger kunstig intelligens - fbi.gov

  16. Organisationen for Økonomisk Samarbejde og Udvikling (OECD) - OECD's principper for kunstig intelligens - oecd.ai

  17. OECD - Anbefaling fra Rådet for Kunstig Intelligens (OECD/LEGAL/0449) - oecd.org

  18. Europa-Kommissionen - Retningslinjer og praksiskodeks for transparente AI-systemer (FAQ) - europa.eu

  19. Koalitionen for indholdsproveniens og -ægthed (C2PA) - Specifikationer v2.3 - c2pa.org

  20. Den britiske konkurrence- og markedsmyndighed (CMA) - AI-grundmodeller: indledende rapport - gov.uk

  21. Den amerikanske fødevare- og lægemiddelstyrelse (FDA) - Medicinsk udstyr baseret på kunstig intelligens - fda.gov

  22. NIST - Sikkerheds- og privatlivskontroller for informationssystemer og organisationer (SP 800-53 Rev. 5) - nist.gov

  23. NIST - Generativ AI-profil (NIST.AI.600-1, ipd) - nist.gov

  24. Open Worldwide Application Security Project (OWASP) - Ubegrænset ressourceforbrug (API-sikkerhed Top 10, 2023) - owasp.org

  25. NIST - Demografi for ansigtsgenkendelsesleverandørtest (FRVT) - nist.gov

  26. Barrett et al. (2019) - Artikel (PMC) - nih.gov

  27. OECD - Brug af kunstig intelligens på arbejdspladsen (PDF) - oecd.org

  28. Verdensøkonomisk Forum (WEF) - Rapport om fremtidens job 2025 - Digest - weforum.org

  29. US Copyright Office - Ophavsret og kunstig intelligens, del 3: Generativ AI-træningsrapport (version før udgivelse) (PDF) - copyright.gov

  30. Den britiske regering (GOV.UK) - Ophavsret og kunstig intelligens (høring) - gov.uk

Find den nyeste AI i den officielle AI-assistentbutik

Om os

Tilbage til bloggen