El aprendizaje de cuantificación vectorial (LVQ, por sus siglas en inglés) es un algoritmo de aprendizaje supervisado inventado por Teuvo Kohonen, utilizado en el campo del aprendizaje automático para clasificar datos en conjuntos de clases predefinidos. LVQ es un tipo de red neuronal que se enfoca en dividir el espacio de características de los datos en regiones que corresponden a diferentes clases.
El proceso de LVQ implica la asignación de pesos a cada uno de los nodos de la red. Los pesos se ajustan durante la fase de entrenamiento para que el modelo pueda clasificar los datos de manera más efectiva. Este ajuste se basa en la medida de distancia al igual que el clasificador k-NN. Así pues, a través de un aprendizaje competitivo, el prototipo más cercano a la muestra de entrenamiento es el que será actualizado, alejándose o acercándose según favorezca los resultados de clasificación.
Durante la fase de predicción, el modelo utiliza los pesos de la red para asignar una clase a los nuevos casos que se le presentan.
Referencia :T. Kohonen. Learning vector quantization for pattern recognition.
El mundo está experimentando un crecimiento exponencial en la generación de datos con una escala cada vez mayor. Según IDC (International Data Corp [...]
Leer más »Las tecnologías de IA se usan actualmente en las empresas para la transformación de los procesos de negocio, impulsar la interacción con los client [...]
Leer más »El chargeback hace referencia a las devoluciones que ocurren cuando, a petición del titular de una tarjeta, el banco solicita en su nombre un reembol [...]
Leer más »Muchas veces nos preguntamos dónde se aplica el Big Data y podemos suponer una gran relevancia de Big Data para los negocios. Esto explica el gran in [...]
Leer más »