⚖️ Musk søger op til 134 milliarder dollars fra OpenAI og Microsoft ↗
Elon Musk stræber nu efter en udbetaling i ægte tegneseriestørrelse og argumenterer for, at han er berettiget til massive "uretmæssige gevinster" knyttet til OpenAI og Microsoft. Indberetningen lyder i bund og grund: Jeg hjalp tidligt, du tjente en enorm gevinst, betal.
OpenAI og Microsoft afviser erstatningskravet, og hele kampen glider hen imod en retssagskalender, der allerede føles ... krydret. Det er mindre "nørdet laboratoriedrama" og mere "virksomhedsskilsmisse med regneark"
Hvis ikke andet, er det en påmindelse om, at AI-boomet ikke bare er modeller og benchmarks - det er også retssager, nag og meget dyrt papirarbejde.
🕵️ Californien undersøger Elon Musks AI-firma efter 'lavine' af klager over seksuelt indhold ↗
Californiens justitsminister undersøger, om et AI-billedredigeringsværktøj knyttet til Musks outfit overskrider lovgrænser, efter en strøm af klager over seksuelt indhold. Fokus er ligetil: hvad genereres, hvor let, og om det overtræder statslovgivningen.
Et velkendt mønster viser sig – kraftfulde oprettelsesværktøjer møder svage rækværk, og så dukker regulatorer op med et udklipsholder og en rynket pande. Nogle gange bliver den rynkede pande til håndhævelse, eller sådan ser det ud til.
Dette trækker også "ansvarlig implementering" ud af marketingdækket og ind i den virkelige verden, hvor folk kommer til skade, og ingen bekymrer sig om dine vibrationsbaserede sikkerhedspåstande.
💸 OpenAI skal teste annoncer i ChatGPT i et forsøg på at øge omsætningen ↗
OpenAI siger, at de vil begynde at teste annoncer i ChatGPT for nogle brugere med det formål at generere flere indtægter for at dække de ulidelige omkostninger ved at bygge og drive disse systemer. Virksomhedens holdning er, at annoncer ikke vil ændre svar eller dele brugerdata med marketingfolk.
Alligevel er annoncer i en chatassistent et ejendommeligt psykologisk skift - ligesom din hjælpsomme bibliotekar, der pludselig bærer et sponsorbadge. Selv om det "kun er på bestemte placeringer", bemærker folk det.
Analytikere antyder allerede den åbenlyse risiko: hvis oplevelsen føles støjende eller kompromitteret, kan og vil brugerne vandre andre steder hen.
🚫 Washingtons lovgivende forsamling behandler lovforslag, der skal regulere brugen af kunstig intelligens i offentlige skoler ↗
Lovgivere i staten Washington fremsætter et lovforslag, der vil begrænse visse anvendelser af kunstig intelligens i offentlige skoler, med fokus på ting som disciplin, elevdata og automatiseret beslutningstagning. Bekymringen her er ikke abstrakt - den handler om børn, der bliver lukket inde af uigennemsigtige systemer.
Det er også en praktisk indrømmelse: "AI i uddannelse" er ikke automatisk nyttigt, og nogle gange er det bare overvågning i en trenchcoat. Det lyder måske hårdt ... men du forstår ideen.
Hvis dette vedtages, vil det sandsynligvis forme, hvad leverandører kan sælge til distrikter, og hvordan skoler retfærdiggør enhver AI-drevet arbejdsgang, der berører elever.
📜 Lovgiver fra Oklahoma fremlægger tre lovforslag om regulering af AI ↗
En lovgiver fra Oklahoma har fremsat tre lovforslag, der har til formål at tilføje sikkerhedsforanstaltninger omkring brugen af kunstig intelligens i staten. Temaet er tilbageholdenhed - at fastsætte regler for, hvor og hvordan kunstig intelligens kan bruges.
Den slags initiativer på statsniveau kan føles små i sammenligning med store føderale eller EU-rammer, men de hober sig hurtigt op – som papirarbejde i snedriver. Én stats "sunde fornuft" bliver en anden stats compliance-hovedpine.
Også selve handlingen med at indgive flere lovforslag signalerer det samme, som alle stille og roligt tænker: AI er allerede på steder, hvor den måske ikke burde være, og ingen ønsker at være den sidste til at reagere.
🚨 Michigans justitsminister kritiserer Elon Musk for at have en "krydret" tilstand ↗
Michigans justitsminister advarer Musk og xAI om en Grok-funktion, der angiveligt bruges til at generere ulovlig deepfake-pornografi. Beskeden lyder: deaktiver den, ellers eskalerer vi sagen.
Dette ligger lige i det grimme krydsfelt mellem generativ kapacitet og misbrug i stor skala - og det er ikke ligefrem teoretisk skade. Når et værktøj gør noget nemt, vil internettet stressteste det på den værst tænkelige måde.
Hvis flere stater begynder at indtage denne holdning, kan virksomheder opleve, at "edgy features" holder op med at være en produktdifferentiator og begynder at blive en belastning med tænder.
Ofte stillede spørgsmål
Hvad kræver Elon Musk i retssagen mod OpenAI og Microsoft?
Han kræver op til 134 milliarder dollars i, hvad han beskriver som "uretmæssig gevinst" knyttet til OpenAI og Microsoft. Kerneargumentet lyder sådan her: Han hjalp tidligt, virksomhederne drog enorm fordel af det, og han bør betales i overensstemmelse hermed. OpenAI og Microsoft afviser erstatningskravet. Tvisten bevæger sig mod en retssag, hvilket øger indsatsen for alle involverede.
Har Musk en realistisk vej til at indsamle "uretmæssige gevinster"?
I sager som denne er det centrale spørgsmål, om retten er enig i, at gevinsten er uretmæssigt opnået, og at sagsøgeren har ret til en specifik retsmiddel. OpenAI og Microsoft bestrider erstatningskravet, hvilket tyder på, at de mener, at den juridiske teori - eller tallene - ikke holder stik. Disse kampe bliver ofte dokumenttunge og tekniske. En retssagskalender kan også øge presset for at få forlig eller i det mindste indsnævre kravene.
Hvorfor undersøger Californien et AI-billedredigeringsværktøj vedrørende seksuelt indhold?
Californiens justitsminister undersøger et AI-billedredigeringsværktøj, der er knyttet til Musks firma, efter en "lavine" af klager over seksuelt indhold. Fokus er praktisk: hvad værktøjet kan generere, hvor nemt det kan gøre det, og om det overskrider juridiske grænser i henhold til statslovgivningen. Dette er det velkendte mønster, hvor kapacitet overgår grænserne. Reguleringskontrol har en tendens til at intensiveres, når skaden føles skalerbar og gentagelig.
Hvordan vil annoncer i ChatGPT fungere, og vil de påvirke svarene?
OpenAI siger, at de vil begynde at teste annoncer i ChatGPT for nogle brugere, primært for at dække de høje omkostninger ved at bygge og drive AI-systemer. Virksomhedens erklærede holdning er, at annoncer ikke vil ændre svar, og at brugerdata ikke vil blive delt med marketingfolk. Alligevel kan annoncer i en chatassistent føles som et tillidsskifte. Analytikere markerer allerede risikoen for, at en mere støjende oplevelse kan skubbe brugerne andre steder hen.
Hvilke former for regulering af AI overvejer Washington og Oklahoma?
I staten Washington behandlede lovgiverne et lovforslag, der har til formål at regulere brugen af AI i offentlige skoler, især omkring disciplin, elevdata og automatiseret beslutningstagning. Oklahoma har tre lovforslag, der fokuserer på at tilføje sikkerhedsforanstaltninger omkring, hvor AI kan bruges, og hvordan. Regulering af AI på statsniveau kan virke fragmenteret, men det kan hurtigt hobe sig op. For leverandører og agenturer resulterer det ofte i kompleksitet i overholdelse af regler på tværs af jurisdiktioner.
Hvad er "krydret tilstand" Grok, og hvorfor er Michigans justitsminister involveret?
Michigans justitsminister advarer Musk og xAI om en Grok-funktion, der beskrives som værende brugt til at generere ulovlig deepfake-pornografi. Budskabet er formuleret som: deaktiver funktionen eller risiker eskalering. Dette fremhæver, hvordan "edgy" generative funktioner kan blive juridiske forpligtelser, når de gør det lettere at producere skadelige output i stor skala. Hvis flere stater indtager lignende holdninger, kan håndhævelsesrisikoen stige hurtigt.