La matriz de confusión es una tabla que se utiliza para describir el rendimiento de un modelo de clasificación en un conjunto de datos para el que se conocen los valores verdaderos. Permite visualizar el rendimiento de un algoritmo, mostrando los aciertos y los errores de predicción de manera detallada para cada clase.
En esencia, la matriz compara las clases reales (los valores verdaderos de los datos) con las clases predichas por el modelo.
Para un problema de clasificación binaria (dos clases, por ejemplo, «positivo» y «negativo»), la matriz de confusión tiene una estructura de 2×2 y consta de cuatro valores fundamentales:
- Verdaderos Positivos (VP / True Positives – TP): El modelo predijo correctamente la clase positiva. Son casos que eran positivos y el modelo los clasificó como positivos.
- Verdaderos Negativos (VN / True Negatives – TN): El modelo predijo correctamente la clase negativa. Son casos que eran negativos y el modelo los clasificó como negativos.
- Falsos Positivos (FP / False Positives): El modelo predijo incorrectamente la clase positiva. Son casos que eran negativos, pero el modelo los clasificó como positivos (Error de Tipo I). También conocido como «alarma falsa» o «error tipo alfa».
- Falsos Negativos (FN / False Negatives): El modelo predijo incorrectamente la clase negativa. Son casos que eran positivos, pero el modelo los clasificó como negativos (Error de Tipo II). También conocido como «fallo de detección» o «error tipo beta».
Estructura general de una matriz de confusión para clasificación binaria:
Predicho Positivo | Predicho Negativo | |
Real Positivo | Verdaderos Positivos (VP) | Falsos Negativos (FN) |
Real Negativo | Falsos Positivos (FP) | Verdaderos Negativos (VN) |
¿Por qué es importante hoy en día?
La matriz de confusión es crucial en Machine Learning por varias razones:
- Visión Detallada del Rendimiento: A diferencia de métricas únicas como la precisión (accuracy), que solo nos dice el porcentaje total de aciertos, la matriz de confusión desglosa los tipos de aciertos y errores. Esto es vital para entender dónde falla el modelo.
- Identificación de Sesgos: Permite detectar si el modelo tiene un sesgo hacia una clase específica (por ejemplo, si clasifica casi todo como negativo para minimizar Falsos Positivos, pero a costa de muchos Falsos Negativos).
- Base para Métricas Derivadas: A partir de los valores de la matriz de confusión, se pueden calcular una gran cantidad de métricas de rendimiento más específicas y contextuales, como: