Hvad er fundamentsmodeller i generativ AI?

Hvad er fundamentsmodeller i generativ AI?

Kort svar: Grundmodeller er store, generelle AI-modeller, der trænes på enorme, brede datasæt og derefter tilpasses til mange opgaver (skrivning, søgning, kodning, billeder) gennem prompter, finjustering, værktøjer eller hentning. Hvis du har brug for pålidelige svar, så par dem med forankring (som RAG), klare begrænsninger og kontroller i stedet for at lade dem improvisere.

Vigtige konklusioner:

Definition : Én bredt trænet basismodel genbrugt på tværs af mange opgaver, ikke én opgave pr. model.

Tilpasning : Brug prompting, finjustering, LoRA/adaptere, RAG og værktøjer til at styre adfærd.

Generativ tilpasning : De driver generering af tekst, billede, lyd, kode og multimodalt indhold.

Kvalitetssignaler : Prioriter kontrollerbarhed, færre hallucinationer, multimodal evne og effektiv inferens.

Risikostyring : Planlæg for hallucinationer, bias, lækage af privatlivets fred og hurtig injektion gennem styring og testning.

Hvad er fundamentsmodeller i generativ AI? Infografik

Artikler du måske har lyst til at læse efter denne:

🔗 Hvad er en AI-virksomhed
Forstå, hvordan AI-virksomheder bygger produkter, teams og indtægtsmodeller.

🔗 Hvordan ser AI-kode ud
Se eksempler på AI-kode, fra Python-modeller til API'er.

🔗 Hvad er en AI-algoritme
Lær, hvad AI-algoritmer er, og hvordan de træffer beslutninger.

🔗 Hvad er AI-teknologi
Udforsk kerneteknologier inden for AI, der driver automatisering, analyser og intelligente apps.


1) Fundamentsmodeller - en definition af dugfrit materiale 🧠

En fundamentsmodel er en stor, generel AI-model, der er trænet på brede data (normalt masser af data), så den kan tilpasses til mange opgaver, ikke kun én ( NIST , Stanford CRFM ).

I stedet for at bygge en separat model til:

  • at skrive e-mails

  • besvarelse af spørgsmål

  • opsummering af PDF'er

  • genererer billeder

  • klassificering af supportsager

  • oversættelse af sprog

  • laver kodeforslag

...du træner én stor basismodel, der "lærer verden at kende" på en fuzzy statistisk måde, og derefter tilpasser den til specifikke job med prompts, finjustering eller tilføjede værktøjer ( Bommasani et al., 2021 ).

Med andre ord: det er en generel motor , du kan styre.

Og ja, nøgleordet er "generelt". Det er hele tricket.


2) Hvad er fundamentsmodeller i generativ AI? (Hvordan de passer specifikt) 🎨📝

hvad er fundamentale modeller i generativ AI? De er de underliggende modeller, der driver systemer, som kan generere nyt indhold - tekst, billeder, lyd, kode, video og i stigende grad ... blandinger af alle disse ( NIST , NIST Generative AI Profile ).

Generativ AI handler ikke kun om at forudsige etiketter som "spam / ikke spam". Det handler om at producere output, der ser ud som om de er lavet af en person.

  • afsnit

  • digte

  • produktbeskrivelser

  • illustrationer

  • melodier

  • app-prototyper

  • syntetiske stemmer

  • og til tider usandsynligt selvsikkert vrøvl 🙃

Fundamentsmodeller er særligt gode her fordi:

De er "basislaget" - ligesom brøddej. Du kan bage det til en baguette, pizza eller kanelsnurrer ... ikke en perfekt metafor, men du forstår mig 😄


3) Hvorfor de ændrede alt (og hvorfor folk ikke holder op med at tale om dem) 🚀

Før grundlæggende modeller var meget AI opgavespecifik:

  • træne en model til sentimentanalyse

  • træne en anden til oversættelse

  • træne en anden til billedklassificering

  • træne en anden til genkendelse af navngivne enheder

Det virkede, men det var langsomt, dyrt og lidt ... skrøbeligt.

Foundation-modellerne vendte det om:

Den genbrug er multiplikatoren. Virksomheder kan bygge 20 funktioner oven på én modelfamilie i stedet for at skulle opfinde hjulet 20 gange.

Brugeroplevelsen blev også mere naturlig:

  • du bruger ikke "en klassifikator"

  • Du taler til modellen, som om den er en hjælpsom kollega, der aldrig sover ☕🤝

Nogle gange er det også ligesom en kollega, der selvsikkert misforstår alt, men hey. Vækst.


4) Kerneideen: førtræning + tilpasning 🧩

Næsten alle fundamentsmodeller følger et mønster ( Stanford CRFM , NIST ):

Førtræning (fasen hvor man "absorberer internettet") 📚

Modellen er trænet på massive, brede datasæt ved hjælp af selvovervåget læring ( NIST ). For sprogmodeller betyder det normalt at forudsige manglende ord eller det næste token ( Devlin et al., 2018 , Brown et al., 2020 ).

Pointen er ikke at lære den én opgave. Pointen er at lære den generelle repræsentationer :

  • grammatik

  • fakta (slags)

  • ræsonnementmønstre (nogle gange)

  • skrivestile

  • kodestruktur

  • almindelig menneskelig hensigt

Tilpasning (fasen "gør det praktisk") 🛠️

Derefter tilpasser du det ved hjælp af en eller flere af:

  • opfordring (instruktioner i et letforståeligt sprog)

  • instruktionsjustering (træning af den til at følge instruktioner) ( Wei et al., 2021 )

  • finjustering (træning i dine domænedata)

  • LoRA / adaptere (lette tuningsmetoder) ( Hu et al., 2021 )

  • RAG (retrieval-augmented generation - modellen konsulterer dine dokumenter) ( Lewis et al., 2020 )

  • brug af værktøjer (kald af funktioner, gennemse interne systemer osv.)

Derfor kan den samme basismodel skrive en romantisk scene ... og derefter hjælpe med at fejlsøge en SQL-forespørgsel fem sekunder senere 😭


5) Hvad gør en fundamentsmodel god? ✅

Det er den sektion, folk springer over, og som de så fortryder senere.

En "god" fundamentmodel er ikke bare "større". Større hjælper, ja ... men det er ikke det eneste. En god version af en fundamentmodel har normalt:

Stærk generalisering 🧠

Den fungerer godt på tværs af mange opgaver uden behov for opgavespecifik genoptræning ( Bommasani et al., 2021 ).

Styring og kontrol 🎛️

Den kan pålideligt følge instruktioner som:

  • "vær kortfattet"

  • "brug punktopstilling"

  • "skriv i en venlig tone"

  • "Undlad at afsløre fortrolige oplysninger"

Nogle modeller er smarte, men glatte. Som at forsøge at holde et stykke sæbe i bruseren. Hjælpsomt, men uberegneligt 😅

Lav hallucinationstendens (eller i det mindste åbenlys usikkerhed) 🧯

Ingen model er immun over for hallucinationer, men de gode:

Gode ​​multimodale evner (når det er nødvendigt) 🖼️🎧

Hvis du udvikler assistenter, der læser billeder, fortolker diagrammer eller forstår lyd, er multimodal meget vigtig ( Radford et al., 2021 ).

Effektiv inferens ⚡

Latens og pris betyder noget. En model, der er stærk, men langsom, er som en sportsvogn med et fladt dæk.

Sikkerhed og justeringsadfærd 🧩

Ikke bare "afvis alt", men:

Dokumentation + økosystem 🌱

Det lyder tørt, men det er virkeligt:

  • værktøj

  • evalueringsseler

  • implementeringsmuligheder

  • virksomhedskontroller

  • finjustering af support

Ja, "økosystem" er et vagt ord. Jeg hader det også. Men det betyder noget.


6) Sammenligningstabel - almindelige fundamentsmodeller (og hvad de er gode til) 🧾

Nedenfor er en praktisk, en smule ufuldkommen sammenligningstabel. Det er ikke "den ene sande liste", det er mere sådan: hvad folk vælger i naturen.

værktøjs-/modeltype publikum pris-agtig hvorfor det virker
Proprietær LLM (chat-stil) hold der ønsker fart + polering brugsbaseret / abonnement Fantastisk opfølgning på instruktioner, stærk generel præstation, normalt bedst "ud af boksen" 😌
Åben LLM (selvhostbar) bygherrer, der ønsker kontrol infrastrukturomkostninger (og hovedpine) Kan tilpasses, beskytter privatlivets fred, kan køre lokalt ... hvis du kan lide at rode ved midnat
Diffusionsbilledgenerator kreative, designteams gratis-agtigt til betalt Fremragende billedsyntese, stilvariation, iterative arbejdsgange (også: fingrene kan være væk) ✋😬 ( Ho et al., 2020 , Rombach et al., 2021 )
Multimodal "vision-sprog"-model Apps der læser billeder + tekst brugsbaseret Giver dig mulighed for at stille spørgsmål om billeder, skærmbilleder, diagrammer - overraskende praktisk ( Radford et al., 2021 )
Integrering af fundamentsmodel søg + RAG-systemer lav pris pr. opkald Omdanner tekst til vektorer til semantisk søgning, klyngedannelse, anbefaling - stille MVP-energi ( Karpukhin et al., 2020 , Douze et al., 2024 )
Tale-til-tekst-grundmodel callcentre, skabere brugsbaseret / lokalt Hurtig transskription, flersproget understøttelse, god nok til støjende lyd (normalt) 🎙️ ( Hvisken )
Tekst-til-tale-grundmodel produktteams, medier brugsbaseret Naturlig stemmegenerering, stemmestile, fortælling - kan blive uhyggeligt virkelighedstro ( Shen et al., 2017 )
Kodefokuseret LLM udviklere brugsbaseret / abonnement Bedre til kodemønstre, debugging, refactoring ... dog stadig ikke tankelæser 😅

Bemærk, hvordan "grundmodel" ikke kun betyder "chatbot". Integreringer og talemodeller kan også være fundamentale, fordi de er brede og genanvendelige på tværs af opgaver ( Bommasani et al., 2021 , NIST ).


7) Nærmere kig: hvordan sprogbaserede modeller lærer (vibe-versionen) 🧠🧃

Sprogfundamentsmodeller (ofte kaldet LLM'er) trænes typisk på enorme tekstsamlinger. De lærer ved at forudsige tokens ( Brown et al., 2020 ). Det er det. Intet hemmeligt fe-støv.

Men magien er, at forudsigelse af tokens tvinger modellen til at lære struktur ( CSET ):

  • grammatik og syntaks

  • emneforhold

  • ræsonnementlignende mønstre (nogle gange)

  • almindelige tankesekvenser

  • hvordan folk forklarer ting, diskuterer, undskylder, forhandler, underviser

Det er ligesom at lære at efterligne millioner af samtaler uden at "forstå" hvordan mennesker gør. Hvilket lyder som om det ikke burde virke ... og alligevel bliver det ved med at virke.

En mild overdrivelse: det er dybest set som at komprimere menneskelig skrift til en kæmpe probabilistisk hjerne.
Men igen, den metafor er lidt forbandet. Men vi bevæger os 😄


8) Nærmere kig: diffusionsmodeller (hvorfor billeder fungerer forskelligt) 🎨🌀

Billedfundamentsmodeller bruger ofte diffusionsmetoder ( Ho et al., 2020 , Rombach et al., 2021 ).

Den grove idé:

  1. Tilføj støj til billeder, indtil de stort set er statiske på tv'et

  2. træne en model til at vende den støj trin for trin

  3. ved genereringstid, start med støj og "fjern støj" til et billede guidet af en prompt ( Ho et al., 2020 )

Derfor føles billedgenerering som at "fremkalde" et foto, bortset fra at billedet er en drage med sneakers i en supermarkedsgang 🛒🐉

Diffusionsmodeller er gode fordi:

  • de genererer billeder af høj kvalitet

  • de kan styres stærkt af tekst

  • de understøtter iterativ forfining (variationer, indmaling, opskalering) ( Rombach et al., 2021 )

De kæmper også nogle gange med:

  • tekstgengivelse i billeder

  • fine anatomiske detaljer

  • ensartet karakteridentitet på tværs af scener (det forbedres, men stadig)


9) Nærmere kig: multimodale fundamentmodeller (tekst + billeder + lyd) 👀🎧📝

Multimodale fundamentmodeller sigter mod at forstå og generere på tværs af flere datatyper:

Hvorfor dette er vigtigt i det virkelige liv:

  • Kundesupport kan fortolke skærmbilleder

  • Tilgængelighedsværktøjer kan beskrive billeder

  • Uddannelsesapps kan forklare diagrammer

  • Skabere kan remixe formater hurtigt

  • Forretningsværktøjer kan "læse" et skærmbillede af et dashboard og opsummere det

Under motorhjelmen justerer multimodale systemer ofte repræsentationer:

  • omdanne et billede til indlejringer

  • omdanne tekst til indlejringer

  • Lær et fælles rum, hvor "kat" matcher kattepixels 😺 ( Radford et al., 2021 )

Det er ikke altid elegant. Nogle gange er det syet sammen som et tæppe. Men det virker.


10) Finjustering vs. prompting vs. RAG (hvordan du tilpasser basismodellen) 🧰

Hvis du forsøger at gøre en fundamentmodel praktisk anvendelig for et specifikt domæne (jura, medicin, kundeservice, intern viden), har du et par håndtag:

Opfordring 🗣️

Hurtigst og enklest.

  • fordele: nul træning, øjeblikkelig iteration

  • ulemper: kan være inkonsekvent, kontekstbegrænsninger, hurtig skrøbelighed

Finjustering 🎯

Træn modellen yderligere på dine eksempler.

  • fordele: mere ensartet adfærd, bedre domænesprog, kan reducere promptlængden

  • ulemper: omkostninger, krav til datakvalitet, risiko for overmontering, vedligeholdelse

Letvægts tuning (LoRA / adaptere) 🧩

En mere effektiv version af finjustering ( Hu et al., 2021 ).

  • fordele: billigere, modulær, nemmere at udskifte

  • ulemper: mangler stadig træningspipeline og evaluering

RAG (hentningsudvidet generation) 🔎

Modellen henter relevante dokumenter fra din vidensbase og svarer ved hjælp af dem ( Lewis et al., 2020 ).

  • fordele: opdateret viden, interne citater (hvis du implementerer det), mindre efteruddannelse

  • ulemper: hentningskvalitet kan være afgørende for resultatet, kræver god chunking + indlejringer

Ærlig talt: Mange succesfulde systemer kombinerer prompting + RAG. Finjustering er effektivt, men ikke altid nødvendigt. Folk hopper til det for hurtigt, fordi det lyder imponerende 😅


11) Risici, begrænsninger og afsnittet "lad være med at implementere dette blindt" 🧯😬

Grundmodeller er kraftfulde, men de er ikke stabile som traditionel software. De er mere som ... en talentfuld praktikant med et selvtillidsproblem.

Vigtigste begrænsninger at planlægge:

Hallucinationer 🌀

Modeller kan opfinde:

  • falske kilder

  • forkerte fakta

  • plausible, men forkerte skridt ( Ji et al., 2023 )

Afbødende foranstaltninger:

  • RAG med forankret kontekst ( Lewis et al., 2020 )

  • begrænsede output (skemaer, værktøjskald)

  • eksplicit "gæt ikke"-instruktion

  • verifikationslag (regler, krydstjek, menneskelig gennemgang)

Bias og skadelige mønstre ⚠️

Fordi træningsdata afspejler mennesker, kan du få:

Afbødende foranstaltninger:

Databeskyttelse og lækage 🔒

Hvis du indlæser fortrolige data i et modelslutpunkt, skal du vide:

  • hvordan det opbevares

  • om det bruges til træning

  • hvilken logføring findes der

  • Hvad styrer din organisations behov ( NIST AI RMF 1.0 )

Afbødende foranstaltninger:

Hurtig injektion (især med RAG) 🕳️

Hvis modellen læser upålidelig tekst, kan teksten forsøge at manipulere den:

Afbødende foranstaltninger:

Jeg prøver ikke at skræmme dig. Bare ... det er bedre at vide, hvor gulvbrædderne knirker.


12) Sådan vælger du en fundamentmodel til din brug 🎛️

Hvis du vælger en fundamentsmodel (eller bygger videre på en), så start med disse instruktioner:

Definer hvad du genererer 🧾

  • kun tekst

  • billeder

  • lyd

  • blandet multimodal

Sæt din faktualitetsbarriere 📌

Hvis du har brug for høj præcision (finans, sundhed, jura, sikkerhed):

Bestem dit latenstidsmål ⚡

Chat er øjeblikkelig. Batchopsummeringer kan være langsommere.
Hvis du har brug for øjeblikkelig respons, er modelstørrelse og hosting vigtige.

Kortlæg behov for privatliv og overholdelse af regler 🔐

Nogle hold kræver:

Balancer budgettet - og ops tålmodighed 😅

Selvhosting giver kontrol, men øger kompleksiteten.
Administrerede API'er er nemme, men kan være dyre og mindre tilpasningsdygtige.

Et lille praktisk tip: lav en prototype med noget nemt først, og hærd derefter. At starte med den "perfekte" opsætning forsinker normalt alt.


13) Hvad er fundamentale modeller i generativ AI? (Den hurtige mentale model) 🧠✨

Lad os tage det op igen. Hvad er fundamentale modeller i generativ AI?

De er:

  • store, generelle modeller trænet på brede data ( NIST , Stanford CRFM )

  • i stand til at generere indhold (tekst, billeder, lyd osv.) ( NIST Generative AI Profile )

  • tilpasningsdygtig til mange opgaver via prompts, finjustering og genfinding ( Bommasani et al., 2021 )

  • basislaget, der driver de fleste moderne generative AI-produkter

De er ikke én enkelt arkitektur eller et enkelt brand. De er en kategori af modeller, der opfører sig som en platform.

En fundamentsmodel minder mindre om en lommeregner og mere om et køkken. Du kan lave en masse mad i den. Du kan også brænde toasten på, hvis du ikke er opmærksom ... men køkkenet er stadig ret praktisk 🍳🔥


14) Opsummering og takeaway ✅🙂

Grundmodeller er de genanvendelige motorer i generativ AI. De trænes bredt og tilpasses derefter til specifikke opgaver gennem prompting, finjustering og hentning ( NIST , Stanford CRFM ). De kan være fantastiske, rodede, kraftfulde og nu og da latterlige - alt på én gang.

Opsummering:

Hvis du bygger noget med generativ AI, er det ikke valgfrit at forstå fundamentmodeller. Det er hele gulvet, bygningen står på ... og ja, nogle gange vakler gulvet lidt 😅

Ofte stillede spørgsmål

Fundamentsmodeller, enkelt sagt

En grundmodel er en stor, generel AI-model, der er trænet på brede data, så den kan genbruges til mange opgaver. I stedet for at bygge én model pr. job, starter man med en stærk "basismodel" og tilpasser den efter behov. Denne tilpasning sker ofte gennem prompt, finjustering, hentning (RAG) eller værktøjer. Den centrale idé er bredde plus styrbarhed.

Hvordan grundlæggende modeller adskiller sig fra traditionelle opgavespecifikke AI-modeller

Traditionel AI træner ofte en separat model for hver opgave, såsom sentimentanalyse eller oversættelse. Grundlæggende modeller inverterer dette mønster: fortræn én gang, og genbrug dem derefter på tværs af mange funktioner og produkter. Dette kan reducere dobbeltarbejde og fremskynde leveringen af ​​nye muligheder. Ulempen er, at de kan være mindre forudsigelige end klassisk software, medmindre du tilføjer begrænsninger og test.

Grundmodeller i generativ AI

I generativ AI er grundmodeller de basissystemer, der kan producere nyt indhold som tekst, billeder, lyd, kode eller multimodale output. De er ikke begrænset til mærkning eller klassificering; de genererer svar, der ligner menneskeskabt arbejde. Fordi de lærer brede mønstre under prætræning, kan de håndtere mange prompttyper og formater. De er "basislaget" bag de fleste moderne generative oplevelser.

Hvordan fundamentsmodeller lærer under prætræning

De fleste sprogbaserede modeller lærer ved at forudsige tegn, såsom det næste ord eller manglende ord i teksten. Dette simple mål presser dem til at internalisere strukturer som grammatik, stil og almindelige forklaringsmønstre. De kan også absorbere en stor mængde verdensviden, dog ikke altid pålideligt. Resultatet er en stærk generel repræsentation, som du senere kan styre mod specifikt arbejde.

Forskellen mellem prompting, finjustering, LoRA og RAG

Prompting er den hurtigste måde at styre adfærd på ved hjælp af instruktioner, men det kan være skrøbeligt. Finjustering træner modellen yderligere på dine eksempler for mere ensartet adfærd, men det øger omkostninger og vedligeholdelse. LoRA/adaptere er en lettere finjusteringsmetode, der ofte er billigere og mere modulær. RAG henter relevante dokumenter og har modelsvaret ved hjælp af den kontekst, hvilket hjælper med friskhed og forankring.

Hvornår skal man bruge RAG i stedet for finjustering

RAG er ofte et stærkt valg, når du har brug for svar baseret på dine nuværende dokumenter eller din interne vidensbase. Det kan reducere "gæt" ved at forsyne modellen med relevant kontekst på genereringstidspunktet. Finjustering er et bedre valg, når du har brug for ensartet stil, domænefrasering eller adfærd, som prompting ikke pålideligt kan producere. Mange praktiske systemer kombinerer prompting + RAG, før de finjusterer.

Sådan reducerer du hallucinationer og får mere pålidelige svar

En almindelig tilgang er at forankre modellen med hentning (RAG), så den forbliver tæt på den givne kontekst. Du kan også begrænse output med skemaer, kræve værktøjskald for nøgletrin og tilføje eksplicitte "gæt ikke"-instruktioner. Verifikationslag er også vigtige, såsom regeltjek, krydstjek og menneskelig gennemgang for use cases med højere indsatser. Behandl modellen som en probabilistisk hjælper, ikke en kilde til sandhed som standard.

De største risici ved fundamentmodeller i produktion

Almindelige risici omfatter hallucinationer, forudindtagede eller skadelige mønstre fra træningsdata og privatlivslækage, hvis følsomme data håndteres dårligt. Systemer kan også være sårbare over for prompt injection, især når modellen læser upålidelig tekst fra dokumenter eller webindhold. Afhjælpende foranstaltninger omfatter typisk governance, red-teaming, adgangskontrol, sikrere promptmønstre og struktureret evaluering. Planlæg for disse risici tidligt i stedet for at opdatere senere.

Hurtig indsprøjtning og hvorfor det er vigtigt i RAG-systemer

Prompt injection er, når upålidelig tekst forsøger at tilsidesætte instruktioner, f.eks. "ignorer tidligere anvisninger" eller "afslør hemmeligheder". I RAG kan hentede dokumenter indeholde disse ondsindede instruktioner, og modellen kan følge dem, hvis du ikke er forsigtig. En almindelig tilgang er at isolere systeminstruktioner, rense hentet indhold og stole på værktøjsbaserede politikker i stedet for prompter alene. Testning med modstridende input hjælper med at afsløre svage punkter.

Sådan vælger du en fundamentmodel til din brug

Start med at definere, hvad du skal generere: tekst, billeder, lyd, kode eller multimodale output. Sæt derefter din standard for faktualitet - domæner med høj nøjagtighed kræver ofte forankring (RAG), validering og nogle gange menneskelig gennemgang. Overvej latenstid og omkostninger, da en stærk model, der er langsom eller dyr, kan være svær at levere. Endelig skal du knytte privatlivs- og compliance-behov til implementeringsmuligheder og -kontroller.

Referencer

  1. National Institute of Standards and Technology (NIST) - Grundmodel (ordliste) - csrc.nist.gov

  2. National Institute of Standards and Technology (NIST) - NIST AI 600-1: Generativ AI-profil - nvlpubs.nist.gov

  3. National Institute of Standards and Technology (NIST) - NIST AI 100-1: Ramme for risikostyring inden for kunstig intelligens (AI RMF 1.0) - nvlpubs.nist.gov

  4. Stanford Center for Research on Foundation Models (CRFM) - Rapport - crfm.stanford.edu

  5. arXiv - Om muligheder og risici ved fundamentmodeller (Bommasani et al., 2021) - arxiv.org

  6. arXiv - Sprogmodeller er få-skudslærende (Brown et al., 2020) - arxiv.org

  7. arXiv - Hentnings-udvidet generering til videnintensive NLP-opgaver (Lewis et al., 2020) - arxiv.org

  8. arXiv - LoRA: Lavrangeret tilpasning af store sprogmodeller (Hu et al., 2021) - arxiv.org

  9. arXiv - BERT: Foruddannelse af dybe tovejstransformatorer til sprogforståelse (Devlin et al., 2018) - arxiv.org

  10. arXiv - Finjusterede sprogmodeller er nulskudslærende (Wei et al., 2021) - arxiv.org

  11. ACM Digital Library - Undersøgelse af hallucinationer i naturligt sproggenerering (Ji et al., 2023) - dl.acm.org

  12. arXiv - Læring af overførbare visuelle modeller fra overvågning af naturligt sprog (Radford et al., 2021) - arxiv.org

  13. arXiv - Støjfjerning af diffusionsprobabilistiske modeller (Ho et al., 2020) - arxiv.org

  14. arXiv - Billedsyntese i høj opløsning med latente diffusionsmodeller (Rombach et al., 2021) - arxiv.org

  15. arXiv - Hentning af tæt passage til besvarelse af spørgsmål i åbent domæne (Karpukhin et al., 2020) - arxiv.org

  16. arXiv - Faiss-biblioteket (Douze et al., 2024) - arxiv.org

  17. OpenAI - Introduktion af Whisper - openai.com

  18. arXiv - Naturlig TTS-syntese ved at konditionere WaveNet på Mel-spektrogramforudsigelser (Shen et al., 2017) - arxiv.org

  19. Center for Sikkerhed og Ny Teknologi (CSET), Georgetown University - Den overraskende kraft ved forudsigelse af næste ord: store sprogmodeller forklaret (del 1) - cset.georgetown.edu

  20. USENIX - Udtrækning af træningsdata fra store sprogmodeller (Carlini et al., 2021) - usenix.org

  21. OWASP - LLM01: Hurtig injektion - genai.owasp.org

  22. arXiv - Mere end du har bedt om: En omfattende analyse af nye trusler fra promptinjektion mod applikationsintegrerede store sprogmodeller (Greshake et al., 2023) - arxiv.org

  23. OWASP Cheat Sheet-serien - LLM Cheat Sheet til forebyggelse af prompt injektion - cheatsheetseries.owasp.org

Find den nyeste AI i den officielle AI-assistentbutik

Om os

Tilbage til bloggen