
Stort sprogmodel (LLM)
En stor sprogmodel (LLM) er en type AI, der er trænet på enorme tekstmængder for at forstå, generere og manipulere menneskesprog. LLM'er bruger dyb læring og tr...
MIT-forskere afslører, hvordan menneskelige overbevisninger påvirker LLM-ydelse og introducerer nye rammer for anomali-detektion, hvilket baner vejen for mere pålidelige og bruger-tilpassede AI-systemer.
I de seneste udviklinger har MIT-forskere gjort betydelige fremskridt i forståelsen og anvendelsen af store sprogmodeller (LLM’er) til forskellige formål og har afdækket både deres potentiale og begrænsninger. Disse fremskridt er afgørende, efterhånden som LLM’er i stigende grad bliver integreret i forskellige sektorer, fra sundhedspleje til ingeniørarbejde.
En nylig undersøgelse fra MIT fremhæver den afgørende rolle, som menneskelige overbevisninger spiller for LLM’ers ydeevne. Forskningen, ledet af Ashesh Rambachan og hans team, opdagede, at effektiviteten af en LLM er stærkt påvirket af, hvor godt den stemmer overens med brugerens forventninger. Når der er uoverensstemmelse, kan selv meget dygtige modeller fejle uventet i virkelige situationer. Denne uoverensstemmelse fører ofte til enten overmod eller undervurdering af modellens evner, hvilket kan resultere i suboptimale beslutninger om implementering.
Undersøgelsen introducerede en “menneskelig generaliseringsfunktion” til at evaluere denne overensstemmelse. Denne funktion modellerer, hvordan folk danner og opdaterer overbevisninger om en LLM’s evner baseret på deres interaktioner med den. Forskerne fandt, at mens mennesker er gode til at generalisere en persons evner ud fra få interaktioner, har de svært ved at gøre det samme med LLM’er. Denne indsigt understreger behovet for at indarbejde menneskelig generalisering i udviklingen og træningen af LLM’er for at forbedre deres præstation i virkeligheden.
Et andet gennembrud fra MIT-forskere involverer anvendelsen af LLM’er til at opdage anomalier i komplekse systemer. Holdet udviklede en ramme kaldet SigLLM, der omdanner tidsseriedata til tekstbaserede input, som LLM’er kan behandle. Denne metode gør det muligt at anvende LLM’er som færdige løsninger til anomali-detektion uden behov for omfattende genoptræning.
Selvom LLM’er ikke overgik de mest avancerede deep learning-modeller på denne opgave, viste de lovende resultater på visse områder, hvilket indikerer potentiale for fremtidige forbedringer. Forskerne sigter mod at forbedre LLM’ers ydeevne til anomali-detektion og gøre dem til levedygtige værktøjer til at forudsige og afbøde problemer i udstyr som vindmøller og satellitter.
Disse resultater har vidtrækkende betydning for implementering og udvikling af LLM’er. Indsigterne fra undersøgelsen om menneskelig generalisering tyder på, at udviklere skal overveje, hvordan brugere danner overbevisninger om modellens evner, hvilket kan føre til bedre tilpassede og mere pålidelige LLM’er. Forskningen i anomali-detektion åbner nye muligheder for at bruge LLM’er i komplekse, kritiske miljøer og kan potentielt reducere omkostninger og behovet for ekspertise ved vedligeholdelse af deep learning-modeller.
Fremadrettet planlægger forskerne at gennemføre yderligere studier af, hvordan menneskelige interaktioner med LLM’er udvikler sig over tid, og hvordan disse interaktioner kan bruges til at forbedre modellens præstation. Derudover vil de undersøge anvendelsen af LLM’er til andre komplekse opgaver og dermed potentielt udvide deres anvendelighed på tværs af forskellige områder.
Disse fremskridt markerer et væsentligt skridt mod mere effektive og bruger-tilpassede LLM’er og baner vejen for deres udvidede anvendelse til at løse komplekse problemer og forbedre beslutningsprocesser i en lang række felter.
MIT-forskning viser, at sammenhængen mellem brugerforventninger og LLM-evner er afgørende. Manglende overensstemmelse kan føre til enten overmod eller undervurdering af modellen, hvilket påvirker beslutninger om implementering i virkelige situationer.
SigLLM er en ramme udviklet af MIT, der omdanner tidsseriedata til tekstinput for LLM'er, hvilket gør det muligt for dem at opdage anomalier i komplekse systemer uden omfattende genoptræning.
MIT-forskere planlægger at undersøge, hvordan menneskelige interaktioner med LLM'er udvikler sig over tid, og hvordan disse indsigter kan forbedre modellens ydeevne. De sigter også mod at udvide LLM-anvendelser til andre komplekse opgaver.
Viktor Zeman er medejer af QualityUnit. Selv efter 20 år som leder af virksomheden er han først og fremmest softwareingeniør med speciale i AI, programmatisk SEO og backend-udvikling. Han har bidraget til adskillige projekter, herunder LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab og mange flere.
Smarte Chatbots og AI-værktøjer samlet ét sted. Forbind intuitive blokke for at omdanne dine idéer til automatiserede Flows.
En stor sprogmodel (LLM) er en type AI, der er trænet på enorme tekstmængder for at forstå, generere og manipulere menneskesprog. LLM'er bruger dyb læring og tr...
Vi har testet og rangeret skriveevnerne hos 5 populære modeller, der er tilgængelige i FlowHunt, for at finde den bedste LLM til indholdsforfatning.
Opdag omkostningerne forbundet med at træne og implementere store sprogmodeller (LLM'er) som GPT-3 og GPT-4, herunder udgifter til computation, energi og hardwa...