🧬 DeepMind lancerer AlphaGenome for at finde genetiske årsager til sygdom ↗
DeepMind afslørede AlphaGenome, et AI-system, der har til formål at forudsige, hvordan DNA-mutationer ændrer genregulering - dybest set hvornår gener tændes, hvor og hvor højt. Det kan scanne enorme DNA-strækninger på én gang, inklusive de vidtstrakte ikke-kodende områder, der ofte føles som biologisk mørkt stof.
Pitchen er ret direkte: hurtigere identifikation af hvilke mutationer der virkelig betyder noget for ting som kræftrisiko og komplekse arvelige sygdomme. Hvis det virker som annonceret, bruger forskere mindre tid på at gætte og mere tid på at teste de rigtige ting - hvilket lyder indlysende, men det er sådan set hele spillet.
🧑💼 Kunstig intelligens vil koste job, indrømmer Liz Kendall ↗
Storbritanniens teknologiminister sagde åbent, at indførelsen af AI vil forårsage jobtab - ikke den sædvanlige "det skal nok gå, lover jeg"-stemning. Hun pegede på ængstelse omkring stillinger for kandidatuddannede inden for områder som jura og finans, og foregav ikke at være et præcist tal, nogen kan tilbyde.
Samtidig satser regeringen hårdt på tilpasning: et stort skub for at uddanne millioner af arbejdstagere i grundlæggende AI-færdigheder med det formål at gøre Storbritannien til en hurtigere bruger af AI. Det er den klassiske spænding - ja, job forsvinder, ja, job dukker op, nej, det vil ikke føles glat i midten.
🗞️ Storbritannien presser Google til at tillade websteder at fravælge AI-oversigter ↗
Britiske konkurrencemyndigheder har foreslået ændringer, der vil give udgivere mulighed for at fravælge at få deres indhold brugt til Googles AI-oversigter - eller til at træne enkeltstående AI-modeller - uden at blive straffet i normale søgerangeringer. Den "uden at blive straffet"-del gør et stort stykke arbejde her.
Ideen er at genbalancere magten, efterhånden som AI-opsummeringer omformer, hvordan folk klikker (eller ikke klikker). Googles svar var grundlæggende: Søgeadfærden ændrer sig, vi overvejer flere kontroller, men opdel ikke produktet i en akavet fragmenteret version af sig selv ... hvilket er fair nok, men også praktisk.
🛡️ Sikring af dine data, når en AI-agent klikker på et link ↗
OpenAI beskrev en specifik sikkerhedsrisiko for en agent: URL-baseret dataudvinding - hvor en angriber narrer en AI til at indlæse en URL, der i al hemmelighed integrerer private oplysninger i forespørgselsstrengen. Selv hvis modellen aldrig "siger" hemmeligheden, kan selve anmodningen lække den. Grimt og afvæbnende lavteknologisk.
Deres afhjælpning er en simpel regel med skarpe kanter: Agenter bør kun automatisk hente URL'er, der allerede er offentlige og vides at eksistere via et uafhængigt webindeks. Hvis et link ikke verificeres som offentligt, bør systemet blive langsommere og give brugeren kontrollen tilbage med advarsler - bevidst friktion, men den gode slags.
🇪🇺 Det næste kapitel for AI i EU ↗
OpenAI har offentliggjort en EU-fokuseret plan, der beskriver et problem med "kapacitetsoverhæng" - modeller kan gøre mere, end folk og virksomheder bruger dem til i øjeblikket, og den kløft risikerer ujævne gevinster på tværs af landene. Det er som at eje en racerbil og kun køre den til købmanden på hjørnet ... bortset fra at købmanden på hjørnet er hele din økonomi.
Udover retorikken er der konkrete elementer: et program, der sigter mod at uddanne tusindvis af europæiske SMV'er i AI-færdigheder, en bevilling knyttet til forskning i unges sikkerhed og trivsel og en udvidet holdning til "samarbejde med regeringer". Det er delvist et politisk notat, delvist en adoptionskampagne - og ja, de to elementer slører sig sammen.
🔐 AI-risiko møder cyberstyring: NIST's udkast til cyber-AI-profil ↗
Et nyt udkast til en profil fra NIST (via analyse fra en artikel i et advokatfirma) fokuserer på, hvordan organisationer bør integrere AI i cyberstyring - både med at sikre selve AI-systemerne og bruge AI til at forbedre cyberforsvaret. Frivilligt på papiret, men "frivillig" har en tendens til at blive forventet over tid.
Udkastgrupperne arbejder med temaer som sikring af AI-komponenter og implementering af AI-aktiveret forsvar - herunder overvejelser om forsyningskæden og agentlignende automatisering i responsarbejdsgange. Vibben er: Behandl AI som både en ny angrebsflade og et nyt sæt værktøjer, og lad være med at lade som om, at disse ophæver hinanden.
Ofte stillede spørgsmål
Hvad er DeepMinds AlphaGenome, og hvilket problem forsøger det at løse?
AlphaGenome er et AI-system, som DeepMind siger kan forudsige, hvordan DNA-mutationer påvirker genregulering - hvornår gener aktiveres, hvor det sker, og hvor kraftigt. Det er bygget til at scanne meget store DNA-strækninger på én gang, inklusive de ikke-kodende regioner, der er notorisk svære at fortolke. Målet er at hjælpe forskere med at finde ud af, hvilke mutationer der mest sandsynligt driver sygdom, så laboratorietestning kan koncentrere sig om de mest lovende spor.
Hvordan kan AlphaGenome hjælpe forskere med at finde genetiske årsager til sygdom hurtigere?
I mange genetiske arbejdsgange stammer flaskehalsen fra at krympe enorme lister over varianter ned til de få, der plausibelt ændrer genaktivitet. AlphaGenomes løfte er at reducere dette gætteri ved at forudsige, hvordan specifikke mutationer kan ændre reguleringen på tværs af lange DNA-sekvenser. Hvis disse forudsigelser holder stik, kan holdene prioritere eksperimenter omkring de varianter, der mest sandsynligt er knyttet til kræftrisiko eller komplekse arvelige sygdomme, og dermed bruge mindre tid på blindgyder.
Vil indførelsen af AI virkelig koste job i Storbritannien, og hvilke roller er mest i fare?
Storbritanniens teknologiminister, Liz Kendall, sagde, at indførelsen af AI vil forårsage jobtab og fremhævede bekymring omkring stillinger for nyuddannede. Hun pegede specifikt på områder som jura og finans, hvor opgaver tidligt i karrieren kan være mere automatiserbare. Samtidig lægger regeringen vægt på tilpasning gennem omfattende træning i grundlæggende AI-færdigheder og anerkender, at overgangen kan føles ujævn, selvom nye roller opstår.
Kan britiske udgivere fravælge Googles AI-oversigter uden at miste søgerangeringer?
Britiske konkurrencemyndigheder har foreslået ændringer, der vil give udgivere mulighed for at fravælge at få deres indhold brugt til Googles AI-oversigter - eller til at træne enkeltstående AI-modeller - uden at blive straffet i standard søgerangeringer. Målet er at genbalancere magten, efterhånden som AI-oversigter ændrer klikadfærd. Google har signaleret, at de overvejer flere kontroller, samtidig med at de advarer mod en fragmenteret søgeoplevelse.
Hvordan kan en AI-agent lække private data blot ved at klikke på et link?
OpenAI beskrev en URL-baseret dataeksfiltreringsrisiko, hvor en angriber beder en AI-agent om at hente et link, der i al hemmelighed integrerer følsomme oplysninger i forespørgselsstrengen. Selv hvis modellen aldrig gentager hemmeligheden i sit output, kan selve anmodningen overføre den. En almindelig afhjælpning er at tilføje "bevidst friktion", som advarsler og kræve brugerbekræftelse, når et link ikke uafhængigt verificeres som offentligt.
Hvad er NIST's udkast til cyber-AI-profil, og hvordan ændrer det cyberstyring?
Et udkast til NIST-profil (diskuteret via en juridisk analyse) beskriver AI som både noget, der skal sikres, og noget, der skal bruges i cyberforsvar. Den grupperer arbejdet i temaer som sikring af AI-komponenter, håndtering af risici i forsyningskæden og implementering af AI-aktiveret forsvar - herunder mere automatiserede, agentlignende responsworkflows. Selvom de er frivillige i navnet, bliver rammer som dette ofte de facto forventninger, hvilket presser organisationer til formelt at integrere AI i styring og kontrol.