🏫 På nogle skoler afhører chatbots eleverne om deres arbejde. Men AI-revolutionen bekymrer lærerne ↗
Nogle australske skoler afprøver et skarpere twist på "vis dine udregninger" - eleverne færdiggør en opgave, hvorefter en AI-chatbot udspørger dem frem og tilbage for at tjekke, om de forstår, hvad de har afleveret. Det er dybest set en mundtlig prøve, men med en maskine, der spørger "hvad mener du med det?", indtil man begynder at vride sig.
Den største bekymring er den ujævne udrulning: en brancheartikel advarer om, at de hurtige brugere kan blive hurtigere foran, mens andre halter bagefter, hvilket skaber et uddannelsessystem i to hastigheder. Lærerne bliver også ved med at påpege de velkendte - og stadig alvorlige - bekymringer: privatliv, velvære og hvordan man forhindrer, at "AI-hjælp" glider over i "AI gjorde det".
👮 Mødte politiet ved hjælp af AI-værktøjer leveret af Palantir for at rapportere betjentenes forseelser ↗
Londons Metropolitan Police bruger kunstig intelligens leveret af Palantir til at analysere interne arbejdsstyrkemønstre - sygdom, fravær, overarbejde - og leder efter signaler, der kan korrelere med problemer med professionelle standarder. Det præsenteres som et tidsbegrænset pilotprojekt, og afgørende er det, at Metropolitan Police siger, at mennesker stadig træffer de faktiske beslutninger ... men at det "stadig" gør en masse arbejde.
Politiforbundet er ikke begejstret og kalder det "automatiseret mistanke" og advarer om uigennemsigtige værktøjer, der misfortolker stress og arbejdsbyrde som forseelser. Det er et af de øjeblikke, hvor teknologien lyder pæn på et dias, og så forestiller man sig, hvordan den føles på jorden, og den bliver skarpt stikkende.
🛡️ Britisk privatlivsmyndighed advarer om AI-genererede billeder i fælles erklæring ↗
Den britiske ICO sluttede sig til andre tilsynsmyndigheder i en fælles advarsel om AI-genererede billeder, der viser identificerbare personer uden samtykke - dybest set: Behandl ikke "det er syntetisk" som en magisk undskyldning. Budskabet er at opbygge sikkerhedsforanstaltninger tidligt og engagere tilsynsmyndighederne i stedet for at udføre det klassiske teknologiske træk med at sende først og undskylde senere.
De fremhæver også øgede risici for børn, hvilket giver mening, for når disse ting først spreder sig, er det som at forsøge at øse glimmer tilbage i en krukke. Poenget er, at privatliv og værdighed er beregnet til at overleve modecyklussen, eller sådan ser det ud til.
🪖 Den amerikanske forsvarsminister Hegseth indkalder Anthropics administrerende direktør til hårde samtaler om militær brug af Claude, rapporterer Axios ↗
Reuters rapporterer, at den amerikanske forsvarsminister skal mødes med Anthropics administrerende direktør til, hvad der beskrives som en mere konfronterende samtale om militær brug af Claude. Pentagon ønsker angiveligt, at store AI-udbydere skal gøre modeller tilgængelige på klassificerede netværk med færre restriktioner - og Anthropic har modsat sig enhver lempelse af sikkerhedsforanstaltningerne.
Underteksten lyder som et klassisk "gå hurtigt, men ... med missiler involveret"-dilemma. Hvis parterne ikke kan blive enige om grænserne, kan forholdet blive anstrengt eller endda gå i stykker - men Anthropic signalerer også, at samtalerne med regeringen forbliver konstruktive, så det er anspændt, men ikke fuldstændige brud-sms'er (endnu).
🧠 ChatGPT - Udgivelsesnoter ↗
OpenAIs udgivelsesnoter peger på et udvidet kontekstvindue til "Tænke"-tilstand - hvilket betyder, at du kan give modellen mere tekst og holde længere tråde sammenhængende uden at den mister tidligere detaljer. Hvis du nogensinde har set en model "glemme" noget, du bogstaveligt talt lige har sagt (smerte), er dette rettet mod netop det.
Det er en meget nørdet opgradering, der stille og roligt ændrer det praktiske: længere dokumentationsopgaver, mere komplicerede projekter, mere vidtstrakte researchsessioner. Ikke glamourøst, men det er den slags VVS-ændring, der pludselig får hele huset til at føles større.
Ofte stillede spørgsmål
Hvad betyder det, når skoler bruger chatbots til at "forhøre" elever om opgaver?
På nogle australske skoler laver eleverne en opgave og går derefter igennem en frem-og-tilbage-samtale med en AI-chatbot, der undersøger deres argumentation. Det fungerer som en mundtlig session, hvor eleverne bliver tvunget til at forklare, hvad de har skrevet, og hvorfor. Formålet er at verificere forståelse, ikke blot output. Det kan også afsløre huller, når en elev ikke kan forsvare centrale påstande.
Hvordan kan AI-chatbots i skoler skabe et uddannelsessystem i "to hastigheder"?
En brancherapport advarer om, at hurtige skoler kan trække i forkøbet, mens langsommere skoler falder yderligere tilbage. Hvis nogle skoler anvender AI-værktøjer til at vurdere forståelse, understøtte læring eller afskrække misbrug, kan de forbedre resultaterne hurtigere. Andre kan mangle budget, personalekapacitet eller politisk klarhed til at implementere sammenlignelige systemer. Denne ujævne udbredelse kan øge de eksisterende ressource- og præstationskløfter.
Hvordan forsøger lærerne at forhindre, at "AI-hjælp" bliver til "AI gjorde det"?
En almindelig tilgang er at flytte vurderingen mod proces og forklaring, ikke kun det færdige produkt. Spørgsmål, udkast, refleksioner eller mundtlige kontrolmetoder i chatbot-stil kan gøre det sværere at aflevere arbejde, man ikke forstår. Lærere kan også sætte skarpere grænser for acceptabel assistance, såsom brainstorming versus fuld omskrivning. Vægten forbliver på at demonstrere forståelse, ikke at kontrollere alle værktøjer.
Hvilke problemer med privatliv og trivsel opstår, når kunstig intelligens bruges i klasseværelser?
Lærere bliver ved med at rejse bekymringer om, hvilke elevdata der indsamles, hvor de opbevares, og hvem der har adgang til dem. Der er også bekymringer om deres trivsel, hvis eleverne føler sig konstant overvåget eller presset af maskinstyret spørgsmålstagning. Børn er en særlig risikogruppe, fordi følsomme oplysninger kan spredes eller forblive i systemer på uventede måder. Mange skoler sigter mod at indføre sikkerhedsforanstaltninger tidligt i stedet for at forsøge at eftermontere dem senere.
Hvordan bruger Metropolitan Police Palantir-leveret kunstig intelligens til at markere potentiel embedsmandsforseelse?
Londons Metropolitan Police bruger kunstig intelligens leveret af Palantir til at analysere arbejdsstyrkens mønstre såsom sygdom, fravær og overarbejde. Målet er at finde signaler, der kan korrelere med problemer med professionelle standarder. Det beskrives som et tidsbegrænset pilotprojekt, og Metropolitan Police siger, at det stadig er mennesker, der træffer beslutningerne. Kritikere argumenterer for, at værktøjet kan føles som "automatiseret mistanke", hvis det opfatter stress som en forseelse.
Hvorfor er politifagforeninger bekymrede over "automatiseret mistanke" fra AI-tilsynsværktøjer?
Politiforbundets bekymring er, at uigennemsigtige modeller kan udlede forseelser ud fra mønstre, der har godartede forklaringer. Øgede arbejdsbyrder, helbredsproblemer og stress kan ændre fremmøde eller overarbejde uden at antyde forseelser. Hvis værktøjets logik ikke er gennemsigtig, bliver det sværere for betjente at udfordre flag eller for ledere at kalibrere retfærdige tærskler. Selv med menneskelige beslutninger kan automatiserede signaler stadig forme resultater.
Hvad advarer den britiske ICO om med AI-genererede billeder af identificerbare personer?
Den britiske privatlivsmyndighed advarer sammen med andre tilsynsmyndigheder om, at "syntetisk" ikke betyder uden konsekvenser. Hvis et AI-genereret billede viser en identificerbar person uden samtykke, gælder der stadig risici for privatlivets fred og værdighed. Tilsynsmyndighederne understreger tidlig opbygning af sikkerhedsforanstaltninger og engagement i tilsyn snarere end at foregribe det først. De markerer også øgede risici for børn, hvor skaden kan opskalere hurtigt, når indholdet spredes.
Hvad ligger der bag det rapporterede pres fra Pentagon på Anthropic om militær brug af Claude?
Reuters rapporterer, at den amerikanske forsvarsminister skal mødes med Anthropics administrerende direktør for at føre en skærpet samtale om militær brug af Claude. Pentagon ønsker angiveligt, at store AI-udbydere skal gøre modeller tilgængelige på klassificerede netværk med færre restriktioner. Anthropic har modsat sig løsere sikkerhedsforanstaltninger og peget på et sammenstød om autoværn. Forholdet lyder anspændt, selvom begge sider signalerer, at samtalerne fortsat er konstruktive.
Hvad er der blevet ændret i ChatGPT-udgivelsesnoterne vedrørende kontekstlængden i "Thinking"-tilstanden?
OpenAIs udgivelsesnoter peger på et udvidet kontekstvindue til "Tænke"-tilstand, hvilket giver mulighed for at gemme mere tekst i en enkelt tråd. I praksis kan det hjælpe med lange dokumenter, komplekse projekter og flertrinsforskning, hvor tidligere detaljer er vigtige. Det er en VVS-lignende opgradering snarere end en prangende funktion. Den største fordel er færre udeladte detaljer over længere sessioner.