Träningsfel
Träningsfel inom AI och maskininlärning är skillnaden mellan en modells förutsagda och faktiska utdata under träningen. Det är en nyckelmetrik för att utvärdera...
Recall mäter en modells förmåga att korrekt identifiera positiva instanser, vilket är avgörande i tillämpningar som bedrägeridetektion, medicinsk diagnos och AI-automation.
Vad är Recall inom maskininlärning?
Inom maskininlärning, särskilt vid klassificeringsproblem, är det avgörande att utvärdera en modells prestanda. Ett av de viktigaste måtten som används för att bedöma en modells förmåga att korrekt identifiera positiva instanser är recall. Detta mått är centralt i situationer där det får stora konsekvenser att missa en positiv instans (falska negativa). Denna omfattande guide förklarar vad recall är, hur det används inom maskininlärning, ger detaljerade exempel och användningsområden samt förklarar dess betydelse inom AI, AI-automation och chatbots.
Recall, även kallat sensitivitet eller sant positivt rate, är ett mått som kvantifierar andelen av de faktiska positiva instanserna som korrekt identifierats av maskininlärningsmodellen. Det mäter modellens fullständighet i att hitta alla relevanta instanser i datamängden.
Matematiskt definieras recall som:
Recall = Sanna Positiva / (Sanna Positiva + Falska Negativa)
Där:
Recall är ett av flera klassificeringsmått som används för att utvärdera modellers prestanda, särskilt vid binär klassificering. Det fokuserar på modellens förmåga att identifiera alla positiva instanser och är särskilt viktigt när det är kostsamt att missa ett positivt fall.
Recall är nära relaterat till andra klassificeringsmått såsom precision och noggrannhet. Att förstå hur recall samverkar med dessa mått är avgörande för en heltäckande utvärdering av modellens prestanda.
För att helt förstå recall är det viktigt att känna till förväxlingsmatrisen, ett verktyg som ger en detaljerad översikt av en modells prestanda.
Förväxlingsmatrisen är en tabell som sammanfattar en klassificeringsmodells prestanda genom att visa antalet sanna positiva, falska positiva, sanna negativa och falska negativa. Den ser ut så här:
Predicerat Positiv | Predicerat Negativ |
---|---|
Faktiskt Positiv | Sann Positiv (TP) |
Faktiskt Negativ | Falsk Positiv (FP) |
Förväxlingsmatrisen gör det möjligt att inte bara se hur många förutsägelser som var korrekta, utan även vilken typ av fel som gjordes, såsom falska positiva och falska negativa.
Utifrån förväxlingsmatrisen beräknas recall som:
Recall = TP / (TP + FN)
Denna formel representerar andelen faktiska positiva som identifierades korrekt.
Binär klassificering innebär att instanser delas in i en av två klasser: positiv eller negativ. Recall är särskilt betydelsefullt i sådana problem, särskilt vid obalanserade datamängder.
En obalanserad datamängd innebär att antalet instanser i respektive klass inte är ungefär lika stort. Till exempel, vid bedrägeridetektion är antalet bedrägliga transaktioner (positiv klass) mycket mindre än antalet legitima (negativ klass). I sådana fall kan modellens noggrannhet vara missvisande eftersom en modell kan uppnå hög noggrannhet genom att bara förutsäga majoritetsklassen.
Tänk dig en datamängd med 10 000 finansiella transaktioner:
Anta att en maskininlärningsmodell förutspår:
Beräkning av recall:
Recall = TP / (TP + FN)
Recall = 70 / (70 + 30)
Recall = 70 / 100
Recall = 0.7
Recall är 70 %, vilket betyder att modellen upptäckte 70 % av de bedrägliga transaktionerna. Vid bedrägeridetektion kan det vara kostsamt att missa bedrägerier (falska negativa), så hög recall är önskvärt.
Precision mäter andelen av de positiva identifieringar som faktiskt är korrekta. Den svarar på frågan: “Av alla instanser som förutspåtts som positiva, hur många var verkligen positiva?”
Formel för precision:
Precision = TP / (TP + FP)
Det finns ofta en avvägning mellan precision och recall:
Balansen mellan precision och recall beror på applikationens specifika behov.
Vid spamfiltrering av e-post:
Den optimala balansen beror på om det är viktigare att undvika spam i inkorgen eller att inga legitima mail missas.
Vid upptäckt av sjukdomar kan det få allvarliga konsekvenser att missa ett positivt fall (patienten har faktiskt sjukdomen men identifieras inte).
Identifiering av bedrägliga aktiviteter i finansiella transaktioner.
Upptäckt av intrång eller obehörig åtkomst.
För AI-drivna chatbots är det avgörande att förstå och svara rätt på användarens intention.
Identifiering av defekter eller fel i produkter.
Anta att vi har en datamängd för ett binärt klassificeringsproblem, exempelvis för att förutspå kundbortfall:
Efter att ha tillämpat en maskininlärningsmodell får vi följande förväxlingsmatris:
Förutsagt Bortfall | Förutsagt Ej Bortfall |
---|---|
Faktiskt Bortfall | TP = 160 |
Faktiskt Ej Bortfall | FP = 50 |
Beräkning av recall:
Recall = TP / (TP + FN)
Recall = 160 / (160 + 40)
Recall = 160 / 200
Recall = 0.8
Recall är 80 %, vilket innebär att modellen korrekt identifierade 80 % av de kunder som faktiskt skulle lämna.
För att förbättra recall, överväg följande strategier:
Att förstå recall ur ett matematiskt perspektiv ger djupare insikter.
Recall kan ses som en betingad sannolikhet:
Recall = P(Förutsagt Positiv | Faktiskt Positiv)
Detta representerar sannolikheten att modellen förutspår positivt givet att den faktiska klassen är positiv.
Hög recall innebär låg andel Typ II-fel, dvs. färre falska negativa.
Recall är True Positive Rate (TPR), som används i ROC-kurvan (Receiver Operating Characteristic), vilken visar TPR mot False Positive Rate (FPR).
Inom maskininlärning spelar begreppet ”recall” en viktig roll vid utvärdering av modellers effektivitet, särskilt i klassificeringsuppgifter. Här är en sammanfattning av relevanta forskningsartiklar som belyser olika aspekter av recall inom maskininlärning:
Show, Recall, and Tell: Image Captioning with Recall Mechanism (Publicerad: 2021-03-12)
Denna artikel introducerar en ny recall-mekanism för att förbättra bildtextgenerering genom att efterlikna mänsklig kognition. Den föreslagna mekanismen består av tre komponenter: en recall-enhet för att hämta relevanta ord, en semantisk guide för att skapa kontextuell vägledning och återkallade ord-slots för att integrera dessa ord i bildtexter. Studien använder en ”soft switch” inspirerad av textsammanfattningstekniker för att balansera sannolikheterna för ordgenerering. Metoden förbättrar avsevärt BLEU-4, CIDEr och SPICE-poäng på MSCOCO-datasetet och överträffar andra ledande metoder. Resultaten visar potentialen hos recall-mekanismer för att förbättra beskrivningsnoggrannheten vid bildtextgenerering. Läs artikeln här.
Online Learning with Bounded Recall (Publicerad: 2024-05-31)
Denna forskning undersöker konceptet bounded recall inom online learning, där en algoritms beslut baseras på ett begränsat minne av tidigare belöningar. Författarna visar att traditionella algoritmer med genomsnittligt, ingen-ånger-baserat tillvägagångssätt misslyckas under bounded recall, vilket resulterar i konstant ånger per runda. De föreslår en stationär bounded-recall-algoritm som uppnår en ånger per runda på $\Theta(1/\sqrt{M})$, och presenterar en skarp undre gräns. Studien framhåller att effektiva bounded-recall-algoritmer måste ta hänsyn till sekvensen av tidigare förluster, till skillnad från inställningar med perfekt recall. Läs artikeln här.
Recall, Robustness, and Lexicographic Evaluation (Publicerad: 2024-03-08)
Denna artikel ifrågasätter användningen av recall vid rankningsutvärderingar och föreslår ett mer formellt utvärderingsramverk. Författarna introducerar begreppet ”recall-orientation” och kopplar det till rättvisa i rankningssystem. De föreslår en lexikografisk utvärderingsmetod, ”lexirecall”, som visar högre känslighet och stabilitet jämfört med traditionella recall-mått. Genom empirisk analys av flera rekommenderings- och återhämtningsuppgifter bekräftas lexirecalls förbättrade diskrimineringsförmåga, och metoden föreslås vara mer lämplig för nyanserade rankningsutvärderingar. Läs artikeln här.
Recall, även känt som sensitivitet eller sant positivt rate, kvantifierar andelen faktiska positiva instanser som en maskininlärningsmodell korrekt identifierar. Det beräknas som antal sanna positiva dividerat med summan av sanna positiva och falska negativa.
Recall är avgörande när det kan få betydande konsekvenser att missa positiva instanser (falska negativa), såsom vid bedrägeridetektion, medicinsk diagnos eller säkerhetssystem. Hög recall säkerställer att de flesta positiva fall identifieras.
Recall mäter hur många faktiska positiva som korrekt identifieras, medan precision mäter hur många av de förutsagda positiva som faktiskt är korrekta. Det finns ofta en avvägning mellan dessa två, beroende på applikationens behov.
Du kan förbättra recall genom att samla in mer data för den positiva klassen, använda omprovtagning eller dataförstärkningstekniker, justera klassificeringströsklar, tillämpa kostnadskänslig inlärning och finjustera modellens hyperparametrar.
Recall är särskilt viktigt inom medicinsk diagnos, bedrägeridetektion, säkerhetssystem, chatbots för kundtjänst och felupptäckt i tillverkning—alla scenarier där det är kostsamt eller farligt att missa positiva fall.
Börja bygga AI-drivna lösningar och chatbots som utnyttjar viktiga maskininlärningsmått som recall för bättre automation och insikter.
Träningsfel inom AI och maskininlärning är skillnaden mellan en modells förutsagda och faktiska utdata under träningen. Det är en nyckelmetrik för att utvärdera...
Generaliseringsfel mäter hur väl en maskininlärningsmodell förutspår osedda data, balanserar bias och varians för att säkerställa robusta och pålitliga AI-appli...
Maskininlärning (ML) är en underkategori av artificiell intelligens (AI) som gör det möjligt för maskiner att lära sig av data, identifiera mönster, göra föruts...