Rekursiv Prompting
Rekursiv prompting er en AI-teknik, der bruges med store sprogmodeller som GPT-4, og gør det muligt for brugere at forfine output gennem dialog frem og tilbage ...
Recall måler en models evne til korrekt at identificere positive tilfælde, hvilket er afgørende i applikationer som bedrageridetektion, medicinsk diagnose og AI-automatisering.
Hvad er Recall i maskinlæring?
Inden for maskinlæring, især i klassifikationsproblemer, er evaluering af en models præstation altafgørende. En af de vigtigste måleenheder til at vurdere en models evne til korrekt at identificere positive tilfælde er recall. Denne metrik er central i situationer, hvor det at overse et positivt tilfælde (false negatives) kan have store konsekvenser. Denne omfattende guide vil forklare, hvad recall er, hvordan det bruges i maskinlæring, give detaljerede eksempler og anvendelser, samt forklare dens betydning i AI, AI-automatisering og chatbots.
Recall, også kendt som sensitivitet eller true positive rate, er en metrik, der kvantificerer andelen af faktiske positive tilfælde, som maskinlæringsmodellen korrekt identificerer. Den måler en models fuldstændighed i at hente alle relevante tilfælde fra datasættet.
Matematisk defineres recall som:
Recall = True Positives / (True Positives + False Negatives)
Hvor:
Recall er en af flere klassifikationsmetrikker, der bruges til at evaluere modeller, især i binære klassifikationsproblemer. Den fokuserer på modellens evne til at identificere alle positive tilfælde og er særlig vigtig, når det er dyrt at overse positive.
Recall er nært forbundet med andre klassifikationsmetrikker som præcision og nøjagtighed. At forstå, hvordan recall interagerer med disse metrikker, er afgørende for en grundig evaluering af modelpræstationen.
For fuldt ud at værdsætte recall, er det vigtigt at forstå confusion matrix, et værktøj der giver et detaljeret overblik over en models præstation.
Confusion matrix er en tabel, der opsummerer en klassifikationsmodels præstation ved at vise antallet af true positives, false positives, true negatives og false negatives. Den ser sådan ud:
Forudsagt positiv | Forudsagt negativ |
---|---|
Faktisk positiv | True Positive (TP) |
Faktisk negativ | False Positive (FP) |
Confusion matrix gør det muligt at se ikke bare hvor mange forudsigelser, der var korrekte, men også hvilke typer fejl, der blev begået, såsom false positives og false negatives.
Ud fra confusion matrix beregnes recall som:
Recall = TP / (TP + FN)
Denne formel repræsenterer andelen af faktiske positive, der blev korrekt identificeret.
Binær klassifikation indebærer at kategorisere tilfælde i én af to klasser: positiv eller negativ. Recall er især vigtig i sådanne problemer, særligt ved ubalancerede datasæt.
Et ubalanceret datasæt er et, hvor antallet af tilfælde i hver klasse ikke er omtrent lige stort. For eksempel, i bedrageridetektion er antallet af bedrageriske transaktioner (positiv klasse) langt mindre end legitime transaktioner (negativ klasse). I sådanne tilfælde kan modelnøjagtighed være vildledende, fordi en model kan opnå høj nøjagtighed ved blot at forudsige majoritetsklassen.
Overvej et datasæt med 10.000 finansielle transaktioner:
Antag at en maskinlæringsmodel forudsiger:
Beregning af recall:
Recall = TP / (TP + FN)
Recall = 70 / (70 + 30)
Recall = 70 / 100
Recall = 0,7
Recall er 70%, hvilket betyder, at modellen fandt 70% af de bedrageriske transaktioner. Inden for bedrageridetektion kan det være dyrt at overse bedragerier (false negatives), så høj recall er ønskværdig.
Præcision måler andelen af positive forudsigelser, der faktisk er korrekte. Den svarer på spørgsmålet: “Ud af alle de tilfælde, der blev forudsagt som positive, hvor mange var virkelig positive?”
Formel for præcision:
Præcision = TP / (TP + FP)
Der er ofte en afvejning mellem præcision og recall:
Balanceringen af præcision og recall afhænger af applikationens specifikke behov.
I e-mail spam-filtrering:
Den optimale balance afhænger af, om det er vigtigst at undgå spam i indbakken eller at sikre, at ingen legitime e-mails overses.
Ved påvisning af sygdomme kan det at overse et positivt tilfælde (patienten har faktisk sygdommen, men det opdages ikke) have alvorlige konsekvenser.
Identificering af bedrageriske aktiviteter i finansielle transaktioner.
Detektering af indtrængen eller uautoriseret adgang.
I AI-drevne chatbots er det afgørende at forstå og svare korrekt på brugerintentioner.
Identifikation af defekter eller fejl i produkter.
Antag vi har et datasæt til et binært klassifikationsproblem, f.eks. forudsigelse af kundeafgang (churn):
Efter anvendelse af en maskinlæringsmodel får vi følgende confusion matrix:
Forudsagt afgang | Forudsagt ingen afgang |
---|---|
Faktisk afgang | TP = 160 |
Faktisk ingen afgang | FP = 50 |
Beregning af recall:
Recall = TP / (TP + FN)
Recall = 160 / (160 + 40)
Recall = 160 / 200
Recall = 0,8
Recall er 80%, hvilket betyder, at modellen korrekt identificerede 80% af de kunder, der ville forlade.
For at forbedre recall kan du overveje følgende strategier:
At forstå recall fra et matematisk perspektiv giver dybere indsigt.
Recall kan ses som en betinget sandsynlighed:
Recall = P(Forudsagt positiv | Faktisk positiv)
Dette repræsenterer sandsynligheden for, at modellen forudsiger positivt, givet at den faktiske klasse er positiv.
Høj recall indebærer lav Type II-fejlrate, altså færre false negatives.
Recall er True Positive Rate (TPR), som bruges i Receiver Operating Characteristic (ROC)-kurven, der plotter TPR mod False Positive Rate (FPR).
Inden for maskinlæring spiller begrebet “recall” en central rolle i evalueringen af modellernes effektivitet, især i klassifikationsopgaver. Her er et sammendrag af relevante forskningsartikler, der undersøger forskellige aspekter af recall i maskinlæring:
Show, Recall, and Tell: Image Captioning with Recall Mechanism (Udgivet: 2021-03-12)
Denne artikel introducerer en ny recall-mekanisme, der skal forbedre billedbeskrivelser ved at efterligne menneskelig kognition. Mekanismen består af tre komponenter: en recall-enhed til at hente relevante ord, en semantisk guide til at generere kontekstuel vejledning og recall-ord-slots til at integrere disse ord i billedtekster. Studiet anvender en “soft switch”, inspireret af tekstopsummering, for at balancere ordgenereringens sandsynligheder. Tilgangen forbedrer markant BLEU-4, CIDEr og SPICE-scorer på MSCOCO-datasættet og overgår andre førende metoder. Resultaterne understreger potentialet i recall-mekanismer til at forbedre beskrivende nøjagtighed i billedbeskrivelser. Læs artiklen her.
Online Learning with Bounded Recall (Udgivet: 2024-05-31)
Denne forskning undersøger begrebet begrænset recall i online læring, hvor en algoritmes beslutninger baseres på begrænset hukommelse om tidligere belønninger. Forfatterne viser, at traditionelle gennemsnitsbaserede no-regret-algoritmer fejler under begrænset recall, hvilket resulterer i konstant regret per runde. De foreslår en stationær algoritme med begrænset recall, der opnår regret per runde på $\Theta(1/\sqrt{M})$ og præsenterer en skarp nedre grænse. Studiet fremhæver, at effektive bounded-recall-algoritmer skal tage højde for rækkefølgen af tidligere tab, i modsætning til scenarier med perfekt recall. Læs artiklen her.
Recall, Robustness, and Lexicographic Evaluation (Udgivet: 2024-03-08)
Denne artikel kritiserer brugen af recall i rangeringsevalueringer og argumenterer for en mere formel evalueringsramme. Forfatterne introducerer begrebet “recall-orientering” og kobler det til fairness i rangordningssystemer. De foreslår en leksikografisk evalueringsmetode, “lexirecall”, der demonstrerer højere følsomhed og stabilitet sammenlignet med traditionelle recall-metrikker. Gennem empirisk analyse på tværs af flere anbefalings- og genfindingsopgaver validerer studiet lexirecalls forbedrede diskriminationsevne og foreslår dens egnethed til mere nuancerede rangeringsevalueringer. Læs artiklen her.
Recall, også kendt som sensitivitet eller true positive rate, kvantificerer andelen af faktiske positive tilfælde, som en maskinlæringsmodel korrekt identificerer. Den beregnes som True Positives divideret med summen af True Positives og False Negatives.
Recall er afgørende, når det at overse positive tilfælde (false negatives) kan have store konsekvenser, som f.eks. ved bedrageridetektion, medicinske diagnoser eller sikkerhedssystemer. Høj recall sikrer, at de fleste positive tilfælde bliver identificeret.
Recall måler, hvor mange faktiske positive tilfælde der identificeres korrekt, mens præcision måler, hvor mange af de forudsagte positive der faktisk er korrekte. Der er ofte en afvejning mellem de to afhængigt af applikationens behov.
Du kan forbedre recall ved at indsamle flere data for den positive klasse, bruge resampling- eller dataforøgelsesteknikker, justere klassifikationstærskler, anvende omkostningsfølsom læring og tune modelhyperparametre.
Recall er især vigtig i medicinske diagnoser, bedrageridetektion, sikkerhedssystemer, chatbots til kundeservice og fejlregistrering i produktion—alle scenarier, hvor det er dyrt eller farligt at overse positive tilfælde.
Begynd at bygge AI-drevne løsninger og chatbots, der udnytter centrale maskinlæringsmetrikker som recall for bedre automatisering og indsigt.
Rekursiv prompting er en AI-teknik, der bruges med store sprogmodeller som GPT-4, og gør det muligt for brugere at forfine output gennem dialog frem og tilbage ...
Træningsfejl i AI og maskinlæring er forskellen mellem en models forudsagte og faktiske output under træning. Det er en nøglemetrik til at evaluere modelpræstat...
Generaliseringsfejl måler, hvor godt en maskinlæringsmodel kan forudsige usete data, balancerer bias og varians for at sikre robuste og pålidelige AI-applikatio...