Trainingsfehler
Trainingsfehler in KI und Machine Learning ist die Abweichung zwischen den vom Modell vorhergesagten und den tatsächlichen Ausgaben während des Trainings. Er is...
Recall misst die Fähigkeit eines Modells, positive Instanzen korrekt zu erkennen – essenziell in Anwendungen wie Betrugserkennung, medizinischer Diagnose und KI-Automatisierung.
Was ist Recall im Machine Learning?
Im Bereich des Machine Learning, insbesondere bei Klassifikationsproblemen, ist die Bewertung der Modellleistung von höchster Bedeutung. Einer der wichtigsten Messwerte zur Beurteilung der Fähigkeit eines Modells, positive Instanzen korrekt zu erkennen, ist der Recall. Dieser Wert ist unerlässlich in Szenarien, in denen das Übersehen einer positiven Instanz (False Negatives) schwerwiegende Folgen hat. Dieser umfassende Leitfaden erläutert, was Recall ist, wie er im Machine Learning verwendet wird, bietet detaillierte Beispiele und Anwendungsfälle und erklärt seine Bedeutung in KI, KI-Automatisierung und Chatbots.
Recall, auch bekannt als Sensitivität oder True Positive Rate, ist ein Messwert, der den Anteil tatsächlich positiver Instanzen angibt, die vom Machine-Learning-Modell korrekt erkannt wurden. Er misst die Vollständigkeit eines Modells beim Auffinden aller relevanten Instanzen im Datensatz.
Mathematisch ist Recall definiert als:
Recall = True Positives / (True Positives + False Negatives)
Wobei gilt:
Recall ist eine von mehreren Klassifikationsmetriken zur Bewertung der Modellleistung, insbesondere bei binären Klassifikationsproblemen. Er konzentriert sich auf die Fähigkeit des Modells, alle positiven Instanzen zu erkennen, und ist besonders wichtig, wenn die Kosten für das Übersehen eines Positiven hoch sind.
Recall steht in engem Zusammenhang mit anderen Klassifikationsmetriken wie Precision und Accuracy. Das Verständnis, wie Recall mit diesen Messwerten interagiert, ist für eine umfassende Bewertung der Modellleistung unerlässlich.
Um das Konzept des Recall vollständig zu verstehen, ist es wichtig, die Konfusionsmatrix zu kennen – ein Werkzeug, das eine detaillierte Aufschlüsselung der Modellleistung liefert.
Die Konfusionsmatrix ist eine Tabelle, die die Leistung eines Klassifikationsmodells zusammenfasst, indem sie die Anzahl der True Positives, False Positives, True Negatives und False Negatives anzeigt. Sie sieht wie folgt aus:
Vorhergesagt Positiv | Vorhergesagt Negativ |
---|---|
Tatsächlich Positiv | True Positive (TP) |
Tatsächlich Negativ | False Positive (FP) |
Die Konfusionsmatrix ermöglicht es, nicht nur die Anzahl der korrekten Vorhersagen zu sehen, sondern auch die Art der Fehler, wie False Positives und False Negatives.
Aus der Konfusionsmatrix berechnet sich der Recall wie folgt:
Recall = TP / (TP + FN)
Diese Formel gibt den Anteil tatsächlich positiver Fälle an, die korrekt erkannt wurden.
Bei der binären Klassifikation werden Instanzen einer von zwei Klassen zugeordnet: positiv oder negativ. Recall ist besonders bedeutend bei solchen Problemen, insbesondere bei unausgeglichenen Datensätzen.
Ein unausgeglichener Datensatz liegt vor, wenn die Anzahl der Instanzen in jeder Klasse nicht ungefähr gleich ist. Zum Beispiel ist bei der Betrugserkennung die Anzahl der betrügerischen Transaktionen (positive Klasse) deutlich geringer als die der legitimen Transaktionen (negative Klasse). In solchen Fällen kann die Modellgenauigkeit irreführend sein, da ein Modell eine hohe Genauigkeit erreichen kann, indem es einfach immer die Mehrheitsklasse vorhersagt.
Betrachten Sie einen Datensatz mit 10.000 Finanztransaktionen:
Angenommen, ein Modell sagt vorher:
Recall-Berechnung:
Recall = TP / (TP + FN)
Recall = 70 / (70 + 30)
Recall = 70 / 100
Recall = 0,7
Der Recall beträgt 70 %, das heißt, das Modell hat 70 % der betrügerischen Transaktionen erkannt. Bei der Betrugserkennung sind verpasste Betrugsfälle (False Negatives) teuer, daher ist ein hoher Recall wünschenswert.
Precision misst den Anteil der als positiv erkannten Fälle, die tatsächlich positiv sind. Sie beantwortet die Frage: „Von allen als positiv vorhergesagten Instanzen – wie viele waren wirklich positiv?“
Formel für Precision:
Precision = TP / (TP + FP)
Zwischen Precision und Recall besteht häufig ein Kompromiss:
Das richtige Gleichgewicht hängt von den jeweiligen Anforderungen der Anwendung ab.
Beim Filtern von Spam-E-Mails:
Das optimale Gleichgewicht hängt davon ab, ob es wichtiger ist, Spam im Posteingang zu vermeiden, oder ob keine legitime E-Mail verloren gehen soll.
Beim Erkennen von Krankheiten kann das Übersehen eines positiven Falls (Patient ist tatsächlich krank, wird aber nicht erkannt) schwerwiegende Folgen haben.
Erkennen von betrügerischen Aktivitäten bei Finanztransaktionen.
Erkennen von Eindringlingen oder unbefugtem Zugriff.
Bei KI-gestützten Chatbots ist das korrekte Verstehen und Beantworten von Benutzeranfragen entscheidend.
Erkennen von Defekten oder Fehlern bei Produkten.
Nehmen wir einen Datensatz für ein binäres Klassifikationsproblem, z. B. die Vorhersage von Kundenabwanderung:
Nach Anwendung eines Machine-Learning-Modells ergibt sich folgende Konfusionsmatrix:
Vorhergesagt Abwanderung | Vorhergesagt Keine Abwanderung |
---|---|
Tatsächliche Abwanderung | TP = 160 |
Tatsächlich keine Abwanderung | FP = 50 |
Recall-Berechnung:
Recall = TP / (TP + FN)
Recall = 160 / (160 + 40)
Recall = 160 / 200
Recall = 0,8
Der Recall beträgt 80 %, das heißt, das Modell hat 80 % der Kunden, die abwandern werden, korrekt erkannt.
Zur Verbesserung des Recall können folgende Strategien angewendet werden:
Das mathematische Verständnis von Recall liefert tiefere Einblicke.
Recall kann als bedingte Wahrscheinlichkeit betrachtet werden:
Recall = P(Vorhergesagt Positiv | Tatsächlich Positiv)
Das entspricht der Wahrscheinlichkeit, dass das Modell positiv vorhersagt, wenn die tatsächliche Klasse positiv ist.
Hoher Recall bedeutet eine niedrige Fehlerrate 2. Art, also wenige False Negatives.
Recall ist die True Positive Rate (TPR), die in der Receiver Operating Characteristic (ROC)-Kurve gegen die False Positive Rate (FPR) aufgetragen wird.
Im Bereich des Machine Learning spielt das Konzept „Recall“ eine entscheidende Rolle bei der Bewertung der Modellwirksamkeit, insbesondere bei Klassifikationsaufgaben. Hier eine Zusammenfassung relevanter wissenschaftlicher Arbeiten, die verschiedene Aspekte von Recall im Machine Learning beleuchten:
Show, Recall, and Tell: Image Captioning with Recall Mechanism (Veröffentlicht: 2021-03-12)
Diese Arbeit stellt einen neuen Recall-Mechanismus vor, der das Bild-Tagging durch Nachahmung menschlicher Kognition verbessern soll. Der Mechanismus umfasst drei Komponenten: eine Recall-Einheit zum Abrufen relevanter Wörter, eine semantische Führung zur Erzeugung kontextueller Hinweise und Recall-Slots zur Integration dieser Wörter in Bildbeschreibungen. Die Studie verwendet einen Soft-Switch, inspiriert von Textzusammenfassungen, um die Generierung von Wörtern auszugleichen. Der Ansatz verbessert BLEU-4-, CIDEr- und SPICE-Scores auf dem MSCOCO-Datensatz signifikant und übertrifft andere moderne Methoden. Die Ergebnisse unterstreichen das Potenzial von Recall-Mechanismen zur Steigerung der Beschreibungsgenauigkeit beim Bild-Tagging. Lesen Sie das Paper hier.
Online Learning with Bounded Recall (Veröffentlicht: 2024-05-31)
Diese Forschung untersucht das Konzept des begrenzten Recalls im Online-Lernen, bei dem Algorithmen nur auf eine begrenzte Erinnerung an vergangene Belohnungen zugreifen. Die Autoren zeigen, dass traditionelle Mittelwert-basierte No-Regret-Algorithmen bei begrenztem Recall versagen und einen konstanten Fehler pro Runde verursachen. Sie schlagen einen stationären, begrenzten Recall-Algorithmus mit einem Fehler pro Runde von $\Theta(1/\sqrt{M})$ vor, was eine enge untere Schranke darstellt. Die Studie zeigt, dass effektive Algorithmen mit begrenztem Recall die Reihenfolge vergangener Verluste berücksichtigen müssen, im Gegensatz zu perfekten Recall-Einstellungen. Lesen Sie das Paper hier.
Recall, Robustness, and Lexicographic Evaluation (Veröffentlicht: 2024-03-08)
In diesem Paper wird der Einsatz von Recall bei Ranking-Bewertungen kritisch betrachtet und für einen formaleren Bewertungsrahmen plädiert. Die Autoren führen das Konzept der „Recall-Orientierung“ ein und verknüpfen es mit Fairness in Rankingsystemen. Sie schlagen eine lexikografische Bewertungsmethode namens „Lexirecall“ vor, die eine höhere Sensitivität und Stabilität im Vergleich zu traditionellen Recall-Metriken zeigt. Durch empirische Analysen in verschiedenen Empfehlungs- und Retrieval-Aufgaben belegt die Studie die größere Unterscheidungsfähigkeit von Lexirecall und empfiehlt dessen Einsatz für nuanciertere Ranking-Bewertungen. Lesen Sie das Paper hier.
Recall, auch bekannt als Sensitivität oder True Positive Rate, quantifiziert den Anteil der tatsächlich positiven Instanzen, die ein Machine-Learning-Modell korrekt erkennt. Er wird berechnet als True Positives geteilt durch die Summe aus True Positives und False Negatives.
Recall ist entscheidend, wenn das Übersehen positiver Instanzen (False Negatives) schwerwiegende Folgen haben kann, etwa bei Betrugserkennung, medizinischer Diagnose oder Sicherheitssystemen. Ein hoher Recall stellt sicher, dass die meisten positiven Fälle erkannt werden.
Recall misst, wie viele tatsächliche Positive korrekt erkannt werden, während Precision misst, wie viele vorhergesagte Positive tatsächlich korrekt sind. Oft besteht zwischen beiden ein Kompromiss, abhängig von den Bedürfnissen der Anwendung.
Sie können den Recall verbessern, indem Sie mehr Daten für die positive Klasse sammeln, Resampling- oder Data-Augmentation-Techniken einsetzen, Klassifikationsschwellen anpassen, kostenorientiertes Lernen anwenden und Modell-Hyperparameter optimieren.
Recall ist besonders wichtig bei medizinischer Diagnose, Betrugserkennung, Sicherheitssystemen, Chatbots für den Kundendienst und Fehlererkennung in der Fertigung – überall dort, wo das Übersehen positiver Fälle teuer oder gefährlich ist.
Beginnen Sie mit dem Aufbau KI-gestützter Lösungen und Chatbots, die wichtige Machine-Learning-Metriken wie Recall für bessere Automatisierung und Einblicke nutzen.
Trainingsfehler in KI und Machine Learning ist die Abweichung zwischen den vom Modell vorhergesagten und den tatsächlichen Ausgaben während des Trainings. Er is...
Rekursives Prompting ist eine KI-Technik, die bei großen Sprachmodellen wie GPT-4 eingesetzt wird und es den Nutzern ermöglicht, Ausgaben durch wechselseitigen ...
Der F-Score, auch bekannt als F-Maß oder F1-Score, ist eine statistische Kennzahl zur Bewertung der Genauigkeit eines Tests oder Modells, insbesondere bei binär...