💰 SoftBank har gennemført sin investering på 40 milliarder dollars i OpenAI, siger kilde ↗
SoftBank har angiveligt afsluttet finansieringen af hele den 40 milliarder dollars store investering i OpenAI – et beløb med den tyngde, der får øjnene til at fokusere igen.
Historien præsenterer det som en fuldt finansieret forpligtelse, der pænt flettes ind i det bredere "skalér beregningen"-kapløb, der er blevet AI's centrale plot.
🧠 Nvidia i avancerede forhandlinger om at købe Israels AI21 Labs for op til 3 milliarder dollars, ifølge en rapport ↗
Nvidia er angiveligt i fremskredne diskussioner om at opkøbe AI21 Labs, med en pris nævnt på op til 3 milliarder dollars. Det lyder enten dristigt eller helt ikke overraskende, afhængigt af hvordan man ser på GPU-to-everything-pipelinen.
Det er indrammet som en del af Nvidias fortsatte bestræbelser på at bringe mere modeltalent og produktkapacitet tættere på sit kerneøkosystem.
🇪🇺 Polen opfordrer Bruxelles til at undersøge TikTok for AI-genereret indhold ↗
Polen opfordrer Europa-Kommissionen til at undersøge TikTok efter at AI-genererede videoer med anti-EU-budskaber spredte sig og senere blev fjernet. Episoden bærer præg af en livlig "dette er grunden til, at platformregler findes"-energi.
Det læner sig op ad ideen om, at store platforme bør reagere hurtigere og mere konsekvent på AI-forstærkede misinformationsrisici - især når den politiske temperatur stiger.
🏛️ Texas vil oprette et råd, der skal overvåge visse anvendelser af AI ↗
Texas er klar til at oprette et råd med fokus på at overvåge visse regeringers brug af AI. Det er styret af udvalg - bevidst, ja, og måske bevidst, når teknologien overgår sund fornuft.
Der lægges vægt på tilsyn, vejledning og at afdække risikable anvendelser - herunder bias og andre skadelige resultater, der kan snige sig ind under den varme glød af "automatisering"
🧯 Kontorblokken, hvor AI-'doomers' samles for at forudsige apokalypsen ↗
Et rapporteret kig på en klynge af AI-sikkerhedsgrupper, der bruger deres dage på at kortlægge katastrofale fejltilstande - bedrag, misbrug, cyberrisiko og modeller, der gør ting, vi ikke eksplicit har bedt om (hvilket ligger til grund for frygten).
Det, der skiller sig ud, er hvor tæt på mainstream det hele føles. Mindre foliehat, mere "risikolaboratorium" - som at køre brandøvelser, mens bygningen stadig samles.
🕵️♀️ De seneste AI-nyheder, som Google annoncerede i december ↗
Google fremhævede nye Gemini-relaterede opdateringer, herunder værktøjer til at identificere AI-genererede eller AI-redigerede medier ved hjælp af SynthID-signaler. Underteksten er tydelig: proveniens er ved at blive en produktegenskab.
Det lyder også som åbningen på en ny normal, hvor hvert klip bærer en stille stjerne, medmindre detektionen modnes nok til at berolige rummet. Der følger ingen garantier med.