
Forsterkende læring fra menneskelig tilbakemelding (RLHF)
Forsterkende læring fra menneskelig tilbakemelding (RLHF) er en maskinlæringsteknikk som integrerer menneskelig innspill for å styre treningsprosessen til forst...
Recall måler en modells evne til å korrekt identifisere positive tilfeller, essensielt i applikasjoner som svindeldeteksjon, medisinsk diagnose og AI-automatisering.
Hva er Recall i maskinlæring?
Innen maskinlæring, spesielt i klassifiseringsproblemer, er evaluering av modellens ytelse avgjørende. Et av de viktigste målene for å vurdere en modells evne til å korrekt identifisere positive tilfeller er Recall. Dette målet er sentralt i scenarier der det å gå glipp av et positivt tilfelle (falske negative) kan få store konsekvenser. Denne omfattende guiden forklarer hva recall er, hvordan det brukes i maskinlæring, gir detaljerte eksempler og bruksområder, og forklarer betydningen i AI, AI-automatisering og chatboter.
Recall, også kjent som sensitivitet eller sann positiv rate, er et mål som kvantifiserer andelen av faktiske positive tilfeller som ble korrekt identifisert av maskinlæringsmodellen. Det måler hvor fullstendig modellen klarer å hente ut alle relevante tilfeller fra datasettet.
Matematisk er recall definert som:
Recall = Sann Positive / (Sann Positive + Falske Negative)
Hvor:
Recall er en av flere klassifiseringsmetrikker som brukes for å evaluere modellers ytelse, spesielt i binære klassifiseringsproblemer. Det fokuserer på modellens evne til å identifisere alle positive tilfeller og er spesielt viktig når kostnaden ved å overse et positivt tilfelle er høy.
Recall er nært knyttet til andre klassifiseringsmetrikker, som presisjon og nøyaktighet. Å forstå hvordan recall samspiller med disse målene er essensielt for en helhetlig evaluering av modellens ytelse.
For å forstå konseptet recall fullt ut, er det viktig å kjenne til forvirringsmatrisen, et verktøy som gir en detaljert oversikt over en modells ytelse.
Forvirringsmatrisen er en tabell som oppsummerer ytelsen til en klassifiseringsmodell ved å vise antallet sanne positive, falske positive, sanne negative og falske negative. Den ser slik ut:
Predikert positiv | Predikert negativ |
---|---|
Faktisk positiv | Sann positiv (TP) |
Faktisk negativ | Falsk positiv (FP) |
Forvirringsmatrisen gir oss innsikt i ikke bare hvor mange prediksjoner som var riktige, men også hvilke typer feil som ble gjort, slik som falske positive og falske negative.
Fra forvirringsmatrisen beregnes recall som:
Recall = TP / (TP + FN)
Denne formelen viser andelen av faktiske positive som ble korrekt identifisert.
Binær klassifisering innebærer å kategorisere tilfeller i én av to klasser: positiv eller negativ. Recall er spesielt viktig i slike problemer, spesielt når man har ubalanserte datasett.
Et ubalansert datasett er et hvor antallet tilfeller i hver klasse ikke er tilnærmet likt. For eksempel, i svindeldeteksjon, er antallet svindeltransaksjoner (positiv klasse) mye lavere enn legitime transaksjoner (negativ klasse). I slike tilfeller kan modellnøyaktighet være misvisende fordi en modell kan oppnå høy nøyaktighet ved å bare predikere majoritetsklassen.
Tenk deg et datasett med 10 000 finansielle transaksjoner:
La oss si at en maskinlæringsmodell predikerer:
Beregning av recall:
Recall = TP / (TP + FN)
Recall = 70 / (70 + 30)
Recall = 70 / 100
Recall = 0,7
Recall er 70 %, noe som betyr at modellen oppdaget 70 % av svindeltransaksjonene. I svindeldeteksjon kan det å overse svindeltransaksjoner (falske negative) være kostbart, så høy recall er ønskelig.
Presisjon måler andelen av de positive identifikasjonene som faktisk var korrekte. Det svarer på spørsmålet: “Av alle tilfeller predikert som positive, hvor mange var faktisk positive?”
Formel for presisjon:
Presisjon = TP / (TP + FP)
Det er ofte en avveining mellom presisjon og recall:
Balansering av presisjon og recall avhenger av applikasjonens spesifikke behov.
Ved filtrering av e-postspam:
Den optimale balansen avhenger av om det er viktigst å unngå spam i innboksen eller å sikre at ingen legitime e-poster går tapt.
Ved påvisning av sykdommer kan det å overse et positivt tilfelle (pasienten har sykdommen, men blir ikke identifisert) få alvorlige konsekvenser.
Identifisering av svindelaktiviteter i finansielle transaksjoner.
Oppdage inntrenging eller uautorisert tilgang.
I AI-drevne chatboter er det avgjørende å forstå og svare riktig på brukerintensjoner.
Identifisere defekter eller feil i produkter.
Anta at vi har et datasett for et binært klassifiseringsproblem, f.eks. å predikere kundeavgang:
Etter å ha brukt en maskinlæringsmodell får vi følgende forvirringsmatrise:
Predikert avgang | Predikert ikke avgang |
---|---|
Faktisk avgang | TP = 160 |
Faktisk ikke avgang | FP = 50 |
Beregning av recall:
Recall = TP / (TP + FN)
Recall = 160 / (160 + 40)
Recall = 160 / 200
Recall = 0,8
Recall er 80 %, noe som indikerer at modellen korrekt identifiserte 80 % av kundene som kom til å forlate.
For å forbedre recall, vurder følgende strategier:
Å forstå recall fra et matematisk perspektiv gir dypere innsikt.
Recall kan sees på som en betinget sannsynlighet:
Recall = P(Predikert positiv | Faktisk positiv)
Dette representerer sannsynligheten for at modellen predikerer positivt gitt at den faktiske klassen er positiv.
Høy recall innebærer lav Type II-feilrate, altså færre falske negative.
Recall er sann positiv rate (TPR) brukt i Receiver Operating Characteristic (ROC)-kurven, som viser TPR mot falsk positiv rate (FPR).
Innen maskinlæring spiller konseptet “recall” en avgjørende rolle i evaluering av modellers effektivitet, spesielt i klassifiseringsoppgaver. Her er en oppsummering av relevante forskningsartikler som utforsker ulike aspekter ved recall i maskinlæring:
Show, Recall, and Tell: Image Captioning with Recall Mechanism (Publisert: 2021-03-12)
Denne artikkelen introduserer en ny recall-mekanisme for å forbedre bildebeskrivelser ved å etterligne menneskelig kognisjon. Mekanismen består av tre komponenter: en recall-enhet for å hente relevante ord, en semantisk veileder for å generere kontekstuell veiledning, og slots for tilbakekalte ord for å integrere disse i beskrivelsene. Studien benytter en soft switch inspirert av tekstoppsummering for å balansere sannsynligheten for ordgenerering. Tilnærmingen forbedrer BLEU-4, CIDEr og SPICE-score på MSCOCO-datasettet betydelig, og overgår andre ledende metoder. Resultatene understreker potensialet til recall-mekanismer for å forbedre beskrivelsesnøyaktighet i bildebeskrivelser. Les artikkelen her.
Online Learning with Bounded Recall (Publisert: 2024-05-31)
Denne forskningen undersøker konseptet begrenset recall i online-læring, et scenario der en algoritmes beslutninger er basert på begrenset minne om tidligere gevinster. Forfatterne viser at tradisjonelle mean-baserte no-regret-algoritmer feiler under begrenset recall, og resulterer i konstant anger per runde. De foreslår en stasjonær algoritme med begrenset recall som oppnår en anger per runde på $\Theta(1/\sqrt{M})$, og presenterer en stram nedre grense. Studien fremhever at effektive bounded-recall-algoritmer må ta hensyn til rekkefølgen av tidligere tap, i motsetning til settinger med perfekt recall. Les artikkelen her.
Recall, Robustness, and Lexicographic Evaluation (Publisert: 2024-03-08)
Denne artikkelen kritiserer bruken av recall i rangeringsevalueringer, og argumenterer for et mer formelt evalueringsrammeverk. Forfatterne introduserer konseptet “recall-orientering”, og knytter det til rettferdighet i rangeringssystemer. De foreslår en leksikografisk evalueringsmetode, “lexirecall”, som viser høyere sensitivitet og stabilitet sammenlignet med tradisjonelle recall-metrikker. Gjennom empirisk analyse på flere anbefalings- og gjenfinningstester, validerer studien lexirecalls forbedrede diskrimineringsevne, og antyder dens egnethet for mer nyanserte rangeringsvurderinger. Les artikkelen her.
Recall, også kjent som sensitivitet eller sann positiv rate, kvantifiserer andelen av faktiske positive tilfeller som en maskinlæringsmodell korrekt identifiserer. Det beregnes som Sann Positive delt på summen av Sann Positive og Falske Negative.
Recall er avgjørende når det å gå glipp av positive tilfeller (falske negative) kan få alvorlige konsekvenser, som ved svindeldeteksjon, medisinsk diagnose eller sikkerhetssystemer. Høy recall sikrer at de fleste positive tilfeller blir identifisert.
Recall måler hvor mange faktiske positive som blir korrekt identifisert, mens presisjon måler hvor mange av de predikerte positive som faktisk er korrekte. Det er ofte en avveining mellom de to, avhengig av applikasjonens behov.
Du kan forbedre recall ved å samle inn mer data for den positive klassen, bruke resampling- eller datautvidelsesteknikker, justere klassifiseringsterskler, bruke kostnadssensitiv læring og tune modellens hyperparametere.
Recall er spesielt viktig i medisinsk diagnose, svindeldeteksjon, sikkerhetssystemer, chatboter for kundeservice og feildeteksjon i produksjon—alle situasjoner der det å overse positive tilfeller er kostbart eller farlig.
Begynn å bygge AI-drevne løsninger og chatboter som utnytter sentrale maskinlæringsmetrikker som recall for bedre automatisering og innsikt.
Forsterkende læring fra menneskelig tilbakemelding (RLHF) er en maskinlæringsteknikk som integrerer menneskelig innspill for å styre treningsprosessen til forst...
Gjennomsnittlig absolutt feil (MAE) er en grunnleggende metrikk i maskinlæring for evaluering av regresjonsmodeller. Den måler den gjennomsnittlige størrelsen p...
Treningsfeil i AI og maskinlæring er avviket mellom en modells predikerte og faktiske utganger under trening. Det er en nøkkelindikator for å evaluere modellens...