Amazon i forhandlinger om at investere 10 milliarder dollars i udvikleren af ChatGPT
Amazon er angiveligt i forhandlinger om at investere mere end 10 milliarder dollars i OpenAI - og hvis det rent faktisk sker, vil det skubbe OpenAIs værdiansættelse op i "vent, seriøst?"-zonen over 500 milliarder dollars. Det positioneres som en blanding af finansiering og strategisk tilpasning ... plus den enkleste motivator af alle: computersult.
Rapporten antyder også, at OpenAI kunne læne sig mere op ad AWS-kapacitet og potentielt begynde at bruge Amazons Trainium-chips, hvilket i bund og grund ville gøre dette til en forsyningslinje til den næste bølge af modelskalering (eller sådan ser det ud til - disse samtaler kan vakle).
🔗 Læs mere
🧑💻 Udviklere kan nu indsende apps til ChatGPT
OpenAI har åbnet op for app-indsendelser til gennemgang og publicering i ChatGPT, sammen med en app-mappe i produktet, hvor folk kan gennemse udvalgte apps eller søge efter alt, der er publiceret. Apps kan aktiveres midt i en samtale via @mentions eller vælges fra værktøjsmenuen - meget "apps, men chat-native".
De lancerer også et Apps SDK (beta) plus en række udviklingsressourcer (eksempler, UI-bibliotek, quickstart). Monetisering er forsigtig for nu - primært links til fuldførte transaktioner - men det er ret tydeligt, at OpenAI ønsker, at dette skal vokse til et rigtigt økosystem.
🔗 Læs mere
🗞️ Introduktion af OpenAI Academy for nyhedsorganisationer
OpenAI lancerede et læringscenter rettet mod journalister, redaktører og udgivere, bygget i samarbejde med partnere som American Journalism Project og The Lenfest Institute. Præsentationen: praktisk træning og håndbøger, der hjælper redaktioner med at bruge AI uden stille og roligt at undergrave tilliden til processen.
Akademiets lanceringsplan inkluderer "AI Essentials for Journalists" plus use cases som undersøgende/baggrundsresearch, oversættelse, dataanalyse og produktionseffektivitet. Der er også en meget mærkbar vægt på ansvarlig brug og intern styring - fordi, ja, nogen skal skrive det politiske dokument, som ingen ønsker at skrive.
🔗 Læs mere
⚡ Gemini 3 Flash: Frontier Intelligence bygget til fart
Google udrullede Gemini 3 Flash som en hurtigere og mere omkostningseffektiv model - og gjorde den til standard i Gemini-appen og AI-tilstand i Søgning. Sloganet er dybest set "Professionel ræsonnement, Flash-niveau hastighed", hvilket lyder som et slogan ... men også beskriver hele kapløbet lige nu.
Det bliver også presset på tværs af udvikler- og virksomhedsplatforme (Gemini API, AI Studio, Vertex AI og flere). Den mærkeligt store undertekst: Google vil have denne model overalt, hvor folk allerede er, så omkostningerne ved at skifte begynder at føles som tyngdekraften.
🔗 Læs mere
🧩 OpenUSD og NVIDIA Halos accelererer sikkerheden for robotakser og fysiske AI-systemer
NVIDIA samler simuleringsstandarder og sikkerhedsarbejdsgange i en mere sammenhængende "fysisk AI"-stak - robotter og autonome køretøjer, der skal overleve kaos i den virkelige verden. En nøgleingrediens er OpenUSD Core Specification 1.0, der har til formål at gøre 3D/simuleringspipelines mere forudsigelige og interoperable på tværs af værktøjer.
På sikkerhedssiden fremhæver NVIDIA Halos AI Systems Inspection Lab (og certificeringsprogrammet) for robottaxi-flåder, AV-stakke, sensorer og platforme. Blandt de tidlige deltagere, der er nævnt, er Bosch, Nuro og Wayve, hvor Onsemi er blevet udråbt som de første til at bestå inspektionen - et hyggeligt lille "badge unlocked"-øjeblik.
🔗 Læs mere
🧪 UC San Diego Lab fremmer generativ AI-forskning med NVIDIA DGX B200-systemet
UC San Diegos Hao AI Lab modtog et NVIDIA DGX B200-system til at fremme forskning i LLM-inferens med lav latenstid - den uglamourøse konstruktion, der afgør, om "AI føles øjeblikkelig" eller "AI føles som at vente på en skål". NVIDIA bemærker også, at produktionsinferenssystemer som Dynamo trækker på koncepter fra laboratoriets arbejde, herunder DistServe.
Historien hælder kraftigt mod "goodput" vs. throughput - dybest set en throughput, der stadig rammer latenstidsmålene. De beskriver også opdeling af prefill og decode på tværs af forskellige GPU'er for at reducere ressourceinterferens, hvilket er nørdet, ja, men det er den slags nørdethed, der ændrer, hvordan et produkt føles.
🔗 Læs mere
🏗️ Hut 8 underskriver aftale om 245 MW kapacitet med Fluidstack som en del af et partnerskab på flere gigawatt med Anthropic
Hut 8 har underskrevet en langsigtet aftale om 245 MW kapacitet på sin River Bend-campus, hvor de udlejer en struktur til en værdi af 7 milliarder dollars (med optioner, der kan løfte den meget yderligere). Anthropic er tilknyttet som slutbruger via det bredere partnerskab - dette er krypto-mininginfrastruktur, der igen bliver til AI-muskler, bare ... større.
Der er også en fortrinsret på op til yderligere 1 GW ved River Bend, plus finansieringsinvolvering fra større banker og en Google-backstop. Helt ærligt, det hele lyder som "AI vil have strøm og ejendom - og den vil have dem i går."
🔗 Læs mere