🕵️ Storbritannien samarbejder med Microsoft om at bygge et system til deepfake-detektion ↗
Storbritannien siger, at de samarbejder med Microsoft, akademikere og andre eksperter for at opbygge et system, der kan opdage deepfakes online - plus en ordentlig måde at teste om detektionsværktøjer holder i virkeligheden.
Der lægges vægt på de skader, der rammer hårdest: efterligning, bedrageri og seksuelt indhold uden samtykke. Ikke glamourøst, men det er der, skaden koncentrerer sig.
🧠 Anthropic udgiver AI-opgradering, da markedet straffer softwareaktier ↗
Anthropic udrullede en opgraderet Claude-model (Opus 4.6), der præsenterede bedre ydeevne inden for kodning og finans, plus muligheden for at tygge på op til 1 million tokens på én gang. Det er en masse kontekst - som at give modellen et helt bibliotekskort.
De satser også på "agenter" via Claude Code, hvor opgaver kan opdeles på tværs af autonome hjælpere. Praktisk, mere end man ville forvente - og også den slags skift, der gør gammeldags softwareinvestorer lidt nervøse.
🧑💼 OpenAI afslører AI-agenttjeneste som en del af et forsøg på at tiltrække virksomheder ↗
OpenAI annoncerede "Frontier", en virksomhedsfokuseret tjeneste til at bygge og administrere AI-agenter - bots, der udfører specifikke opgaver som fejlfinding af software, håndtering af arbejdsgange og den slags.
Forskellen er, at det er meningen, at det skal integreres i virksomhedens eksisterende infrastruktur og endda understøtte tredjepartsagenter, hvilket kan lyde som OpenAI, der forsøger at blive kontrolrummet - ikke bare modeludbyderen. Ambitiøst ... eller en smule besidderisk, afhængigt af hvordan man ser på det.
🪖 USA og Kina fravælger fælles erklæring om brug af kunstig intelligens i militæret ↗
En række lande underskrev en ikke-bindende erklæring, der fastlægger principper for brug af kunstig intelligens i krigsførelse - ting som menneskeligt ansvar, klare kommandostrukturer og seriøs testning og risikovurdering.
Men USA og Kina underskrev ikke. Hvilket er hele historien i ét akavet greb - regelbogen findes, og de største aktører ... holder ikke pennen.
🎭 New York-lovgivning kræver offentliggørelse af AI-genererede kunstnere i reklamer og styrker rettighederne til offentliggørelse efter døden ↗
New York har underskrevet love, der kræver, at annoncer, der bruger AI-genererede "syntetiske kunstnere", tydeligt skal oplyse dette til publikum i staten - selvom annoncøren er baseret et andet sted. Det handler dybest set om: Lad være med at lade et falsk menneske glide forbi folk og kalde det markedsføring.
Separat styrkede staten reglerne omkring kommerciel brug af afdøde personers afbildninger, herunder digitale replikaer. Det er ærligt talt lidt dystert, men også meget "velkommen til den æra, hvor identitet kræver sikkerhedssele"
Ofte stillede spørgsmål
Hvad er Storbritannien ved at bygge sammen med Microsoft for at opdage deepfakes online?
Storbritannien siger, at de vil samarbejde med Microsoft, akademikere og andre eksperter om at opbygge et system, der kan opdage deepfakes online. Planen omfatter også at skabe en pålidelig måde at teste, om detektionsværktøjer holder uden for laboratoriet. Fokus forbliver på de skader, der rammer hårdest: personefterligning, bedrageri og seksuelt indhold uden samtykke.
Hvordan vil "in-the-wild" testning af deepfake-detektorer være anderledes end demoer?
Udover selve detektoren lægger Storbritannien vægt på en måde at teste deepfake-detektionsværktøjer under realistiske forhold. I mange pipelines ser modellerne stærke ud på kuraterede datasæt, men svækkes, når indholdsformater, komprimering eller fjendtlige taktikker ændrer sig. En struktureret evalueringstilgang hjælper med at sammenligne værktøjer konsekvent og afslører, hvor detektion fejler i live online-miljøer.
Hvad ændrede Anthropic i Claude Opus 4.6, og hvorfor er token-grænsen vigtig?
Anthropic siger, at Claude Opus 4.6 forbedrer ydeevnen inden for områder som kodning og finans, og kan håndtere op til 1 million konteksttokens. Det større kontekstvindue kan gøre det nemmere at arbejde på tværs af lange dokumenter eller komplekse kodebaser uden konstant at genindlæse information. De fremhævede også "agenter" via Claude Code, hvor opgaver kan opdeles på tværs af autonome hjælpere.
Hvad er OpenAI "Frontier", og hvordan passer det ind i virksomhedens arbejdsgange?
OpenAI annoncerede "Frontier" som en virksomhedsfokuseret tjeneste til at bygge og administrere AI-agenter, der udfører specifikke opgaver, såsom fejlfinding af software eller håndtering af arbejdsgange. Den er positioneret til at blive integreret i eksisterende virksomhedsinfrastruktur i stedet for at fungere som et selvstændigt model-slutpunkt. OpenAI sagde også, at den kan understøtte tredjepartsagenter, hvilket indebærer et kontrollag til koordinering af forskellige agentsystemer.
Hvad siger den militære AI-erklæring, og hvad betyder den for AI-styring?
Erklæringen beskrives som ikke-bindende og fastlægger principper for brugen af kunstig intelligens i krigsførelse, herunder menneskeligt ansvar, klare kommandostrukturer samt seriøs testning og risikovurdering. Reuters rapporterede, at mange lande havde underskrevet den, men ikke USA og Kina. For styring af kunstig intelligens er denne fravalgsmulighed vigtig, fordi den efterlader de største aktører uden for et fælles sæt af fastsatte normer.
Hvad kræver New Yorks nye regler for AI-genererede kunstnere i reklamer?
New York har underskrevet love, der kræver, at reklamer, der bruger AI-genererede "syntetiske kunstnere", tydeligt skal oplyse dette til publikum i staten, selvom annoncøren er baseret et andet sted. Separat styrkede staten rettighederne til offentliggørelse efter døden omkring kommerciel brug af afdøde personers afbildninger, herunder digitale kopier. I praksis skubber dette AI-styring mod klarere mærkning og strammere kontrol over brugen af identiteter.