AI-nyheder 15. februar 2026

AI Nyhedsopsummering: 15. februar 2026

🦞 OpenClaw-grundlægger Steinberger slutter sig til OpenAI, open source-bot bliver til fundament

Peter Steinberger går over til OpenAI for at fremme "personlige agenter", mens OpenClaw selv bliver parkeret i en fond, så det forbliver open source (og understøttet). Den opdeling er ... ret smart - hyr bygherren, hold projektet offentligt.

OpenClaws præsentation er forfriskende praktisk: e-mail-triage, forsikringspapirer, flycheck-ins, de irriterende administrative opgaver. Det er også blevet eksploderet på GitHub, og den popularitet har medført sikkerhedsbekymringer, især hvis folk bruger det uforsigtigt.

🪖 Pentagon er 'træt' af antropisk modstand mod militærets brug af Claude AI-model og kan afbryde forbindelserne, siger rapport

Kernestriden: Pentagon ønsker bred adgang "til alle lovlige formål", og Anthropic forsøger stadig at holde strenge grænser for fuldt autonome våben og masseovervågning. Det er den slags uenighed, der lyder filosofisk, indtil nogen siger: "Vi erstatter dig måske."

En undervurderet ulempe - embedsmændene ønsker ikke, at modellen pludselig blokerer arbejdsgange midt i processen, og de ønsker ikke at forhandle om edge-sager for evigt (fair nok ... men hold da op). Der er en reel "hvem har nøglerne"-spænding her, og den er ikke subtil.

🧠 Startup-bygger model til at forudsige menneskelig adfærd

Simile tiltrak en investeringsrunde på 100 millioner dollars for at bygge en "begrænset læringsmodel" med det formål at forudsige, hvad folk ville gøre - herunder, meget specifikt, at forudse sandsynlige spørgsmål i ting som f.eks. regnskabsopkald. Snævert mål, stor ambition, en lidt uhyggelig kombination.

Tilgangen læner sig op ad interviews med rigtige mennesker plus adfærdsforskningsdata og kører derefter simuleringer med AI-agenter, der er beregnet til at afspejle virkelige præferencer. Det er som at lave en vejrmodel for menneskelige beslutninger ... hvilket lyder umuligt, indtil det ikke er det.

🧑⚖️ Scoop: Det Hvide Hus presser lovgiver i Utah til at droppe lovforslag om gennemsigtighed i kunstig intelligens

Et fremstød for gennemsigtighed i AI på statsniveau i Utah får direkte kritik fra Det Hvide Hus, hvor embedsmænd opfordrer lovforslagets sponsor til ikke at fremme det. Lovforslagets udformning handler om gennemsigtighed og børns sikkerhed - hvilket er svært at argumentere imod rent optisk.

Men den større kamp er jurisdiktionsstridig: hvem skal sætte reglerne, staterne eller den føderale regering. Og ja, det er et knurren - som to personer, der griber fat i det samme rat og insisterer på, at de er de rolige.

🎬 ByteDance lover at forhindre uautoriseret IP-brug på AI-videoværktøj efter Disney-trussel

Disney har udstedt en våbenhvile-aftale vedrørende ByteDances AI-videogenerator, og ByteDance siger, at de styrker sikkerhedsforanstaltningerne for at forhindre uautoriseret brug af IP og ligheder. Klagen - angiveligt - går på, at værktøjet kan spytte velkendte franchisefigurer ud, som om de bare er ... klistermærker i det offentlige domæne.

Det er den kollision, alle forudså: virale AI-videoværktøjer udvikler sig hurtigt, studier bliver retssager, og "vi tilføjer sikkerhedsforanstaltninger" bliver standardsprog til undskyldninger. I et twist ligner teknologien magi - og den juridiske side ligner tyngdekraft.

Ofte stillede spørgsmål

Hvad betyder det, at OpenClaws grundlægger sluttede sig til OpenAI, mens OpenClaw flyttede til en fond?

Det signalerer en splittelse mellem den person, der bygger "personlige agenter", og projektet, der forbliver offentligt styret. Steinberger, der slutter sig til OpenAI, foreslår, at han vil koncentrere sig om at udvikle agentlignende produkter der. Placeringen af ​​OpenClaw i en fond har til formål at holde det open source og bæredygtigt understøttet. I praksis har til formål at bevare fællesskabets tillid, mens bygherren går derhen, hvor ressourcerne er.

Hvorfor fokuserer OpenClaw-lignende AI-agenter på pligter som e-mail og papirarbejde?

Fordi "livsadministrativt" arbejde er repetitivt, regelbaseret og tidskrævende, hvilket gør det til et praktisk mål for automatisering. Eksemplerne her - e-mail-triage, forsikringspapirer og flycheck-in - er snævre opgaver med klare succeskriterier. Dette fokus kan få agenter til at føle sig værdifulde hurtigere end assistenter med mere åbne opgaver. Det understreger også, hvorfor omhyggelig adgangskontrol er vigtig, når agenter rører ved personlige konti.

Hvordan kan man implementere en open source AI-agent som OpenClaw uden at skabe sikkerhedsproblemer?

Behandl det som software, der kan se følsomme data, ikke som et legetøjsscript. En almindelig tilgang er at låse legitimationsoplysninger, begrænse tilladelser til det nødvendige minimum og gemme logfiler og revisionsspor. Kør det i et begrænset miljø og adskil det fra systemer med høj værdi. Mange sikkerhedsbekymringer stammer fra uforsigtig implementering, især når folk eksponerer endpoints eller tokens uden stærke sikkerhedsforanstaltninger.

Hvorfor er Pentagon utilfreds med Anthropics restriktioner på Claude til militær brug?

Tvisten centrerer sig om omfang og kontrol: Pentagon ønsker bred adgang "til alle lovlige formål", mens Anthropic beskrives som et land, der holder strenge grænser for fuldt autonome våben og masseovervågning. Embedsmænd ønsker heller ikke, at modeller skal blokere arbejdsgange midtvejs eller kræve endeløse forhandlinger i marginale situationer. Den spænding er mindre abstrakt, end den lyder - det handler om, hvem der bestemmer, hvad modellen kan gøre i virkelige operationer.

Hvordan forsøger startups at forudsige menneskelig adfærd med AI, og hvorfor føles det kontroversielt?

Eksemplet her, Simile, forfølger en "begrænset læringsmodel" med det formål at forudsige, hvad folk vil gøre, herunder at forudse sandsynlige spørgsmål i sammenhænge som f.eks. indtjeningsopkald. Den beskrevne tilgang blander interviews med adfærdsforskningsdata og simuleringer ved hjælp af AI-agenter, der er beregnet til at afspejle reelle præferencer. Det føles uhyggeligt, fordi det flytter AI fra at reagere på folk til at forudsige dem. Udfordringen er at holde påstande begrænsede og undgå overdreven selvtillid.

Hvad sker der, når AI-videoværktøjer genererer ophavsretligt beskyttede figurer, som i ByteDance-Disney-sammenstødet?

Det rapporterede mønster er velkendt: et studie udsteder en ophørsaftale, og platformen reagerer ved at styrke sikkerhedsforanstaltninger for at forhindre uautoriseret brug af IP eller lignende. I mange værktøjer betyder sikkerhedsforanstaltninger strammere indholdsfiltre, forbedret detektion af genkendelige tegn og tydeligere håndhævelse af brugerpolitikker. Den underliggende konflikt er hastighed versus ansvar - viral generering bevæger sig hurtigt, og rettighedshåndhævelse fungerer som tyngdekraften. Forvent flere af disse kollisioner, efterhånden som videogeneratorer spredes.

Gårsdagens AI-nyheder: 13. februar 2026

Find den nyeste AI i den officielle AI-assistentbutik

Om os

Tilbage til bloggen