Error de Entrenamiento
El error de entrenamiento en IA y aprendizaje automático es la discrepancia entre las salidas predichas por un modelo y las salidas reales durante el entrenamie...
El recall mide la capacidad de un modelo para identificar correctamente las instancias positivas, esencial en aplicaciones como detección de fraude, diagnóstico médico y automatización con IA.
¿Qué es el Recall en Aprendizaje Automático?
En el ámbito del aprendizaje automático, especialmente en problemas de clasificación, evaluar el rendimiento de un modelo es fundamental. Una de las métricas clave para valorar la capacidad de un modelo para identificar correctamente las instancias positivas es el Recall. Esta métrica es esencial en escenarios donde pasar por alto una instancia positiva (falso negativo) tiene consecuencias significativas. Esta guía integral explora qué es el recall, cómo se utiliza en aprendizaje automático, proporciona ejemplos detallados y casos de uso, y explica su importancia en la IA, la automatización con IA y los chatbots.
El recall, también conocido como sensibilidad o tasa de verdaderos positivos, es una métrica que cuantifica la proporción de instancias positivas reales que fueron correctamente identificadas por el modelo de aprendizaje automático. Mide la exhaustividad de un modelo al recuperar todas las instancias relevantes del conjunto de datos.
Matemáticamente, el recall se define como:
Recall = Verdaderos Positivos / (Verdaderos Positivos + Falsos Negativos)
Donde:
El recall es una de varias métricas de clasificación utilizadas para evaluar el rendimiento de los modelos, especialmente en problemas de clasificación binaria. Se centra en la capacidad del modelo para identificar todas las instancias positivas y es particularmente importante cuando el coste de pasar por alto un positivo es alto.
El recall está estrechamente relacionado con otras métricas de clasificación, como la precisión y la exactitud. Entender cómo interactúa el recall con estas métricas es esencial para una evaluación completa del rendimiento del modelo.
Para apreciar plenamente el concepto de recall, es importante comprender la matriz de confusión, una herramienta que proporciona un desglose detallado del rendimiento de un modelo.
La matriz de confusión es una tabla que resume el rendimiento de un modelo de clasificación mostrando los recuentos de verdaderos positivos, falsos positivos, verdaderos negativos y falsos negativos. Se ve así:
Predicho Positivo | Predicho Negativo |
---|---|
Real Positivo | Verdadero Positivo (VP) |
Real Negativo | Falso Positivo (FP) |
La matriz de confusión nos permite ver no solo cuántas predicciones fueron correctas, sino también qué tipos de errores se cometieron, como falsos positivos y falsos negativos.
A partir de la matriz de confusión, el recall se calcula como:
Recall = VP / (VP + FN)
Esta fórmula representa la proporción de positivos reales que fueron identificados correctamente.
La clasificación binaria implica categorizar instancias en una de dos clases: positiva o negativa. El recall es especialmente significativo en este tipo de problemas, sobre todo al tratar con conjuntos de datos desbalanceados.
Un conjunto de datos desbalanceado es aquel donde el número de instancias en cada clase no es aproximadamente igual. Por ejemplo, en la detección de fraude, el número de transacciones fraudulentas (clase positiva) es mucho menor que el de transacciones legítimas (clase negativa). En tales casos, la exactitud del modelo puede ser engañosa porque un modelo puede lograr alta exactitud simplemente prediciendo la clase mayoritaria.
Considera un conjunto de 10,000 transacciones financieras:
Supón que un modelo de aprendizaje automático predice:
Cálculo del recall:
Recall = VP / (VP + FN)
Recall = 70 / (70 + 30)
Recall = 70 / 100
Recall = 0.7
El recall es del 70%, lo que significa que el modelo detectó el 70% de las transacciones fraudulentas. En la detección de fraude, pasar por alto transacciones fraudulentas (falsos negativos) puede ser costoso, por lo que se desea un recall alto.
La precisión mide la proporción de identificaciones positivas que realmente fueron correctas. Responde a la pregunta: “De todas las instancias predichas como positivas, ¿cuántas fueron verdaderamente positivas?”
Fórmula de precisión:
Precisión = VP / (VP + FP)
A menudo existe un equilibrio entre precisión y recall:
El equilibrio adecuado depende de las necesidades específicas de la aplicación.
En filtrado de spam:
El equilibrio óptimo depende de si es más importante evitar el spam en la bandeja de entrada o asegurar que no se pierdan correos legítimos.
En la detección de enfermedades, pasar por alto un caso positivo (el paciente realmente tiene la enfermedad pero no es identificado) puede tener consecuencias graves.
Identificación de actividades fraudulentas en transacciones financieras.
Detección de intrusiones o accesos no autorizados.
En chatbots potenciados por IA, comprender y responder correctamente a las intenciones del usuario es crucial.
Identificación de defectos o fallos en productos.
Supón que tenemos un conjunto de datos para un problema de clasificación binaria, como la predicción de la fuga de clientes:
Después de aplicar un modelo de aprendizaje automático, obtenemos la siguiente matriz de confusión:
Predicho Fuga | Predicho No Fuga |
---|---|
Fuga Real | VP = 160 |
No Fuga Real | FP = 50 |
Cálculo del recall:
Recall = VP / (VP + FN)
Recall = 160 / (160 + 40)
Recall = 160 / 200
Recall = 0.8
El recall es del 80%, lo que indica que el modelo identificó correctamente al 80% de los clientes que se darán de baja.
Para mejorar el recall, considera las siguientes estrategias:
Comprender el recall desde una perspectiva matemática proporciona una visión más profunda.
El recall puede verse en términos de probabilidad condicional:
Recall = P(Predicho Positivo | Real Positivo)
Esto representa la probabilidad de que el modelo prediga positivo dado que la clase real es positiva.
Un recall alto implica una baja tasa de error tipo II, es decir, menos falsos negativos.
El recall es la Tasa de Verdaderos Positivos (TPR) usada en la curva ROC (Receiver Operating Characteristic), que grafica TPR contra la Tasa de Falsos Positivos (FPR).
En el campo del aprendizaje automático, el concepto de “recall” juega un papel crucial en la evaluación de la efectividad de los modelos, especialmente en tareas de clasificación. A continuación, se resume la investigación relevante que explora varios aspectos del recall en aprendizaje automático:
Show, Recall, and Tell: Image Captioning with Recall Mechanism (Publicado: 2021-03-12)
Este artículo introduce un novedoso mecanismo de recall orientado a mejorar el captioning de imágenes imitando la cognición humana. El mecanismo propuesto consta de tres componentes: una unidad de recall para recuperar palabras relevantes, una guía semántica para generar orientación contextual y espacios para palabras recordadas que integran estos términos en los captions. El estudio emplea un “soft switch” inspirado en técnicas de resumen de texto para equilibrar las probabilidades de generación de palabras. El enfoque mejora significativamente las puntuaciones BLEU-4, CIDEr y SPICE en el dataset MSCOCO, superando otros métodos de vanguardia. Los resultados subrayan el potencial de los mecanismos de recall para mejorar la precisión descriptiva en el captioning de imágenes. Lee el artículo aquí.
Online Learning with Bounded Recall (Publicado: 2024-05-31)
Esta investigación explora el concepto de recall limitado en aprendizaje en línea, un escenario donde las decisiones del algoritmo se basan en una memoria limitada de recompensas pasadas. Los autores demuestran que los algoritmos tradicionales basados en medias y sin remordimientos fallan bajo recall limitado, resultando en un remordimiento constante por ronda. Proponen un algoritmo estacionario de recall limitado que logra un remordimiento por ronda de $\Theta(1/\sqrt{M})$, presentando una cota inferior ajustada. El estudio destaca que los algoritmos efectivos de recall limitado deben considerar la secuencia de pérdidas pasadas, en contraste con los entornos de recall perfecto. Lee el artículo aquí.
Recall, Robustness, and Lexicographic Evaluation (Publicado: 2024-03-08)
Este artículo critica el uso del recall en evaluaciones de ranking, abogando por un marco evaluativo más formal. Los autores introducen el concepto de “orientación al recall”, relacionándolo con la equidad en los sistemas de ranking. Proponen un método de evaluación lexicográfica, “lexirecall”, que muestra mayor sensibilidad y estabilidad comparado con las métricas tradicionales de recall. A través de análisis empíricos en múltiples tareas de recomendación y recuperación, el estudio valida el poder discriminativo mejorado de lexirecall, sugiriendo su idoneidad para evaluaciones de ranking más matizadas. Lee el artículo aquí.
El recall, también conocido como sensibilidad o tasa de verdaderos positivos, cuantifica la proporción de instancias positivas reales que un modelo de aprendizaje automático identifica correctamente. Se calcula como Verdaderos Positivos dividido por la suma de Verdaderos Positivos y Falsos Negativos.
El recall es crucial cuando pasar por alto instancias positivas (falsos negativos) puede tener consecuencias significativas, como en la detección de fraude, el diagnóstico médico o los sistemas de seguridad. Un alto recall asegura que la mayoría de los casos positivos sean identificados.
El recall mide cuántos positivos reales se identifican correctamente, mientras que la precisión mide cuántos positivos predichos son realmente correctos. A menudo hay un equilibrio entre ambos, dependiendo de las necesidades de la aplicación.
Puedes mejorar el recall recolectando más datos de la clase positiva, utilizando técnicas de remuestreo o aumento de datos, ajustando los umbrales de clasificación, aplicando aprendizaje sensible al coste y afinando los hiperparámetros del modelo.
El recall es especialmente importante en diagnóstico médico, detección de fraude, sistemas de seguridad, chatbots para atención al cliente y detección de fallas en manufactura—cualquier escenario donde pasar por alto casos positivos resulta costoso o peligroso.
Comienza a crear soluciones y chatbots potenciados por IA que aprovechan métricas clave de aprendizaje automático como el recall para lograr mejor automatización y obtener insights.
El error de entrenamiento en IA y aprendizaje automático es la discrepancia entre las salidas predichas por un modelo y las salidas reales durante el entrenamie...
Explora el sesgo en IA: comprende sus fuentes, impacto en el aprendizaje automático, ejemplos del mundo real y estrategias de mitigación para construir sistemas...
El Aprendizaje por Refuerzo a partir de Retroalimentación Humana (RLHF) es una técnica de aprendizaje automático que integra la intervención humana para guiar e...