
Introduksjon til "AI Over Coffee" – Utforsking av de nyeste AI-utviklingene
Oppdag 'AI Over Coffee', en podkast som dykker ned i de nyeste AI-innovasjonene, inkludert test time training, no-code flows, skalerbar AI-innholdsproduksjon og...
Å lage apper, generere innhold, løse problemer – oppgaver som tidligere var forbeholdt eksperter, kan nå håndteres med noen få velformulerte spørsmål. Skiftet er betydelig, og for å forstå hvordan vi har kommet hit, må vi utforske utviklingen av kunstig intelligens.
Denne artikkelen følger AI-utviklingen gjennom nøkkelstadier:
Hva er AI og hvor kommer det fra?
En oversikt over opprinnelse og tidlig utvikling.
Fremveksten av Deep Learning
Hvordan økt datakraft og data endret maskinlæring.
Fødselsen av språkmodeller
Fremveksten av systemer som kan behandle og generere menneskelig språk.
Hva er egentlig en LLM?
En gjennomgang av store språkmodeller og hvordan de fungerer.
Hva er generativ AI?
Utforskning av AIs evne til å skape nytt innhold i tekst, bilder og mer.
Digitale veivisere: Slik leder chatboter oss gjennom AI
Rollen samtalegrensesnitt spiller for å gjøre AI tilgjengelig.
Hver seksjon bygger mot et tydeligere bilde av systemene som former dagens teknologilandskap.
Mennesker har alltid lurt på om vi kunne lage tenkende maskiner. Da datamaskiner først ble skapt ble dette akselerert, og i 1950 stilte Alan Turing det samme spørsmålet og fulgte opp med den berømte Turing-testen, et tankeeksperiment der en maskin prøver å lure et menneske til å tro at den også er et menneske. Dette var gnisten som tente AI-flammen. De definerte det som å utføre oppgaver som vanligvis krever menneskelig intelligens, de kunne forstå språk, gjenkjenne bilder, løse problemer og ta egne avgjørelser, og i bunn og grunn bli en virtuell person som kan svare på alle spørsmålene dine og løse alle problemene dine. Dette er grunnen til at Turing-testen var viktig, der du i praksis setter en kunstig intelligens ansikt til ansikt med et menneske som nå skal avgjøre om de snakker med en menneske eller en robot. AI etterligner i bunn og grunn menneskelig tenkning. Derfor ga John McCarthy det navnet kunstig intelligens. De trodde det ville ta en sommer å nå nivået der den kunne bestå disse testene og fungere perfekt på egenhånd, men i virkeligheten er utviklingen av AI fortsatt pågående.
Tidlig AI, på 60- og 70-tallet, var regelbasert. Hvis du ville at en datamaskin skulle “tenke”, måtte du fortelle den nøyaktig hvordan den skulle tenke. Dette var ekspertsystemer, der hver regel måtte kodes av et menneske. Dette fungerte til det ikke fungerte mer, for du kan ikke lære AI å gjøre hver eneste avgjørelse for alle mulige scenarioer, det er umulig, eller i det minste upraktisk, de måtte finne ut hvordan datamaskiner kunne ta nye avgjørelser selv, avgjørelser ingen hadde forberedt dem på tidligere.
Inn med maskinlæring. På 1980- og 1990-tallet skiftet forskerne mot en ny idé, hva om vi kunne lære datamaskiner å lære av data i stedet for bare regler? Det er maskinlæring, å trene en algoritme på mange eksempler, slik at den kan finne mønstre og lage prediksjoner, hva betyr det? La oss si at du før lærte AI grammatikk ved å skrive ned hver eneste grammatikkregel, det maskinlæring innebar som konsept var at AI fikk tusenvis av artikler, bøker og dokumenter å lese og finne ut hvordan engelsk fungerer på egenhånd, selvlæring.
Maskinlæring var flott, men begrenset. Det trengte ofte at mennesker fortalte den hvilke trekk den skulle se på. Så kom Deep Learning, drevet av nevrale nettverk, en struktur løst inspirert av hvordan den menneskelige hjernen fungerer, og ser på store mengder data, men i steg, noe som hjalp til å se flere og flere mønstre.
Det virkelige gjennombruddet kom rundt 2012, da AlexNet, et dypt nevralt nettverk, knuste en stor bildegjenkjenningskonkurranse. Plutselig kunne deep learning slå mennesker i å kjenne igjen katter på internett. Dette var ikke bare bedre, det var skummelt bra. Deep learning betydde at du kunne gi modellen rådata (tekst, bilder, lyd), og den ville finne de viktige mønstrene selv. Ikke mer holde i hånden. Bare mer data, flere lag, mer regnekraft. AI begynte å lære eksponentielt.
Da deep learning hadde knekt bilder, spurte forskere: kan det knekke språk også? Svaret, ja, men ikke lett. Språk er fullt av nyanser. Men med nok data, og avansert arkitektur, kom deep learning-modeller som Recurrent Neural Networks (RNN) som kunne forstå data i rekkefølge, altså ikke bare se på ett ord, men hvordan ordene kommer etter hverandre og hvorfor de gjør det på den måten, og senere Transformers som ikke bare så på ordene individuelt i rekkefølgen, men kunne se på hele teksten som en helhet samtidig, noe som også hjalp til å begynne å forstå og generere tekst.
I 2017 introduserte Google Transformer-arkitekturen. Det endret alt. Transformers kunne behandle språk parallelt, raskere, og legge merke til ulike deler av en setning, etterligne menneskelig fokus. Denne arkitekturen driver store språkmodeller eller LLMs, som GPT, Gemini, Mistral, plutselig ville alle lage sin egen LLM som er bedre enn de andre.
En stor språkmodell (LLM) er en type kunstig intelligens-system designet for å generere og forstå menneskelig språk. Den trenes på enorme mengder tekstdata, som bøker, nettsteder, artikler og kode, og bygges med deep learning. I stedet for å forstå ord som et menneske, lærer den mønstre i hvordan vi skriver og snakker.
Teknologien bak? Noe som kalles Transformer-arkitektur som lar den behandle og generere språk i stor skala. Det er der “GPT” i ChatGPT kommer fra:
Avhengig av versjonen av LLM, kan chatbotens intelligens, nøyaktighet og samtaleevner variere dramatisk. Nyere versjoner forstår kontekst bedre, gjør færre feil og gir mer nyttige svar.
Denne forskjellen handler om parametere – de milliarder av forbindelser som avgjør hvordan modellen behandler informasjon. Flere parametere betyr som regel bedre hukommelse og dypere forståelse.
Du har sikkert hørt om GPT-4, Claude, Gemini, LLaMA. Det er viktig å forstå én ting: ingen av disse modellene “forstår” hva de sier, de er bare veldig flinke til å forutsi neste ord, basert på kontekst.
Generativ AI er et konsept du ofte hører knyttet til AI-er. Det er en samlebetegnelse for all AI som lager nye ting. Hvis den kan skrive, tegne, snakke eller synge uten å kopiere eksisterende materiale, er det generativt – den genererer nye ting. Den kan lage ny tekst (tenk ChatGPT), bilder (som DALL·E eller Midjourney), video (som Sora), eller kode (som GitHub Copilot). Det finnes mange ulike typer støttet av mange forskjellige LLM-er.
Chatboter er vår vennlige inngangsport til verdens samlede kunnskap. I stedet for å trenge teknisk kunnskap, starter vi bare en samtale og utforsker AI på en naturlig måte. De oversetter skremmende teknologi til vårt språk.
Chatboten bruker:
Men ikke glem: den “forstår” ikke slik mennesker gjør. Den imiterer forståelse. Det holder foreløpig. Vi er ikke helt ved AI-singulariteten, men vi er definitivt på motorveien. Og ChatGPT? Det er bare det siste veikrysset på en mye lengre reise.
Vi hjelper bedrifter som din med å utvikle smarte chatboter, MCP-servere, AI-verktøy eller andre typer AI-automatisering for å erstatte mennesker i repeterende oppgaver i organisasjonen din.
Oppdag 'AI Over Coffee', en podkast som dykker ned i de nyeste AI-innovasjonene, inkludert test time training, no-code flows, skalerbar AI-innholdsproduksjon og...
Utforsk høydepunktene fra Microsoft Ignite 2024 keynote, der Satya Nadella avduker hvordan AI og Copilot forvandler produktivitet, forretningsvekst og sikkerhet...
Lær hvordan du kan forbedre lesbarheten på AI-generert innhold. Utforsk dagens trender, utfordringer og strategier for å lage innhold som er lett å lese.