Hvordan tænker AI? (Teorien bag ChatGPT)

Hvordan tænker AI? (Teorien bag ChatGPT)

Hvordan er AI nået dertil, hvor den er i dag?

At skabe apps, generere indhold, løse problemer – opgaver der før var forbeholdt eksperter, kan nu håndteres med et par velvalgte spørgsmål. Skiftet er markant, og for at forstå, hvordan vi er nået hertil, må vi udforske udviklingen af kunstig intelligens.

Denne artikel følger AI’s udvikling gennem centrale faser:

  • Hvad er AI, og hvor kommer det fra?
    Et overblik over dens oprindelse og tidlige udvikling.

  • Deep Learning-revolutionen
    Hvordan øget regnekraft og data ændrede maskinlæringen.

  • Sprogsmodellernes fødsel
    Fremkomsten af systemer, der kan behandle og generere menneskesprog.

  • Hvad er egentlig en LLM?
    En gennemgang af store sprogsmodeller og deres funktion.

  • Hvad er Generativ AI?
    Udforskning af AI’s evne til at skabe nyt indhold i tekst, billeder og mere.

  • Digitale guider: Sådan leder chatbots os gennem AI
    Om samtalegrænsefladers rolle i at gøre AI tilgængelig.

Hver sektion bygger mod et klarere billede af de systemer, der former nutidens teknologilandskab.

Hvad er AI, og hvor kommer det fra?

Mennesker har altid undret sig over, om vi kunne bygge tænkende maskiner. Da computere først blev opfundet, tog denne tanke fart, og i 1950 stillede Alan Turing det samme spørgsmål og fulgte op med den berømte Turing-test, et tankeeksperiment hvor en maskine forsøger at narre et menneske til at tro, at den også er menneske. Dette tændte AI-gnisten. De definerede det som at udføre opgaver, der normalt kræver menneskelig intelligens, de kunne forstå sprog, genkende billeder, løse problemer og træffe egne beslutninger, og blev dermed en slags virtuel person, der kan besvare alle dine spørgsmål og løse alle dine problemer. Derfor var Turing-testen vigtig: Man satte kunstig intelligens direkte over for et menneske, der nu skulle afgøre, om det talte med et menneske eller en robot. AI efterligner i bund og grund menneskelig tænkning. Det var derfor, John McCarthy gav det navnet kunstig intelligens. De troede, det ville tage en sommer at nå et niveau, hvor AI ville bestå disse tests og fungere perfekt af sig selv, men i virkeligheden er udviklingen af AI stadig i gang.

Hvad er AI, og hvor kommer det fra?

Tidlig AI i 60’erne og 70’erne var regelbaseret. Hvis du ville have en computer til at “tænke”, skulle du fortælle den præcis, hvordan den skulle tænke. Dette var ekspertsystemer, hvor hver eneste regel skulle kodes af et menneske. Det virkede – indtil det ikke gjorde, for du kan ikke lære AI at træffe alle beslutninger i alle tænkelige scenarier, det er umuligt, eller i hvert fald ikke holdbart. De måtte finde ud af, hvordan computere kunne træffe nye beslutninger selv, beslutninger ingen før havde præsenteret dem for.

Her kom Maskinlæring ind i billedet. I 1980’erne og 1990’erne skiftede forskere til en ny idé: Hvad hvis vi kunne lære computere at lære af data i stedet for kun regler? Det er maskinlæring, hvor man træner en algoritme med en masse eksempler, så den kan genkende mønstre og forudsige udfald. Hvad betyder det? Forestil dig, at man tidligere skulle lære AI grammatik ved at skrive hver eneste grammatisk regel ned, men maskinlæring betød som koncept, at AI fik tusindvis af artikler, bøger og dokumenter at læse og selv finde ud af, hvordan engelsk fungerer, altså selvlæring.

Deep Learning-revolutionen

Maskinlæring var godt, men begrænset. Det krævede ofte, at mennesker fortalte, hvilke egenskaber algoritmen skulle kigge efter. Så kom Deep Learning, drevet af neurale netværk, en struktur løst inspireret af, hvordan den menneskelige hjerne fungerer, og som kunne se på store mængder data, men i trin, hvilket hjalp den til at finde flere og flere mønstre.

Det store gennembrud kom omkring 2012, da AlexNet, et dybt neuralt netværk, knuste en stor billedgenkendelseskonkurrence. Pludselig kunne deep learning slå mennesker i at genkende katte på internettet. Det var ikke bare bedre, det var skræmmende godt. Deep learning betød, at man kunne fodre rå data (tekst, billeder, lyd) ind i en model, og den ville selv finde de vigtige mønstre. Ikke mere holden i hånden. Bare mere data, flere lag, mere regnekraft. AI begyndte at lære eksponentielt.

Sprogsmodellernes fødsel

Da deep learning havde knækket billeder, spurgte forskerne: kan det også knække sprog? Svaret er ja, men det er ikke nemt. Sprog er fyldt med nuancer. Men med nok data og klog arkitektur hjalp deep learning-modeller som Recurrent Neural Networks (RNN) – der kunne forstå data i sekvenser, altså ikke bare kigge på et ord, men også hvordan ordene kommer efter hinanden og hvorfor – og senere Transformers, der ikke kun så på ordene enkeltvis i rækkefølge, men kunne betegne hele teksten på én gang, med til at begynde at forstå og generere tekst.

I 2017 introducerede Google Transformer-arkitekturen. Det ændrede spillet. Transformers kunne behandle sprog parallelt, hurtigere, og fokusere på forskellige dele af en sætning, ligesom menneskers opmærksomhed. Denne arkitektur driver store sprogsmodeller, eller LLMs, som GPT, Gemini, Mistral. Pludselig ville alle lave deres egen LLM, der var bedre end de andre.

Hvad er egentlig en LLM?

En stor sprogsmodel (LLM) er en type kunstig intelligens-system, der er designet til at generere og forstå menneskesprog. Den trænes på enormt store mængder tekstdata, såsom bøger, hjemmesider, artikler og kode, og er bygget ved hjælp af deep learning. I stedet for at forstå ord som et menneske, lærer den mønstre i vores måde at skrive og tale på.

Teknologien bag? Noget kaldet Transformer-arkitektur, der gør det muligt at behandle og generere sprog i stor skala. Det er her “GPT” i ChatGPT kommer fra:

  • Generativ – den skaber nyt indhold
  • Præ-trænet – den lærer først af generelle data
  • Transformer – modelstrukturen, der laver det tunge arbejde

Alt efter versionen af LLM kan chatbot’ens intelligens, nøjagtighed og samtaleevner variere markant. Nyere versioner forstår kontekst bedre, laver færre fejl og giver mere hjælpsomme svar.

Denne forskel handler om parametre – de milliarder af forbindelser, der bestemmer, hvordan modellen bearbejder information. Flere parametre betyder typisk bedre hukommelse og dybere forståelse.

Du har helt sikkert hørt om GPT-4, Claude, Gemini, LLaMA. Så nu er det vigtigt at forstå én ting: ingen af disse modeller “forstår” hvad de siger, de er bare utroligt gode til at forudsige det næste ord, baseret på konteksten.

Hvad er Generativ AI?

Generativ AI er et begreb, du ofte vil høre i forbindelse med AI. Det er en samlebetegnelse for al AI, der skaber noget nyt. Hvis den kan skrive, tegne, tale eller synge uden at kopiere eksisterende materiale, er den generativ – den genererer nyt. Den kan skabe ny tekst (tænk ChatGPT), billeder (såsom DALL·E eller Midjourney), videoer (som Sora) eller kode (som GitHub Copilot). Der findes mange forskellige typer understøttet af forskellige LLM’er.

Chatbots: Vores digitale guider

Chatbots er vores venlige indgang til hele verdens komplekse viden. I stedet for at skulle have teknisk viden, starter vi bare en samtale og udforsker AI på en naturlig måde. De oversætter skræmmende teknologi til vores sprog.

Chatbot bruger:

  • Deep learning: til at lære sprog-mønstre fra store tekstdata
  • Transformer-arkitektur: for skalerbar, effektiv forståelse af kontekst
  • Maskinlæring: til løbende at forbedre og tilpasse sig baseret på feedback
  • Generativ AI: til at skabe menneskelignende svar i realtid

Men lad os ikke glemme: den “forstår” ikke som mennesker gør. Den efterligner forståelse. Det er fint for nu. Vi er ikke helt ved AI singulariteten, men vi er bestemt på motorvejen. Og ChatGPT? Det er bare det seneste vejskilt på en meget længere rejse.

Lad os bygge dit eget AI-team

Vi hjælper virksomheder som din med at udvikle smarte chatbots, MCP-servere, AI-værktøjer eller andre typer AI-automatisering til at erstatte mennesker i gentagne opgaver i din organisation.

Lær mere

Fremkomst
Fremkomst

Fremkomst

Fremkomst i AI refererer til sofistikerede, systemdækkende mønstre og adfærd, der ikke er eksplicit programmeret, men opstår gennem interaktioner mellem systeme...

2 min læsning
AI Emergence +3
AI-teknologitendens
AI-teknologitendens

AI-teknologitendens

AI-teknologitendenser omfatter aktuelle og nye fremskridt inden for kunstig intelligens, herunder maskinlæring, store sprogmodeller, multimodale funktioner og g...

4 min læsning
AI Technology Trends +4