Learning Vector Quantization (LVQ) es un algoritmo de clasificación supervisada basado en prototipos inventado por Teuvo Kohonen, que se engloba dentro de los algoritmos de inteligencia artificial.
Puede entenderse como un caso especial de red de neuronas artificiales en el que se inicializan un conjunto de prototipos que se ajustan a través del conjunto de datos de entrenamiento.
Este ajuste se basa en la medida de distancia al igual que el clasificador k-NN, y es que LVQ trata de optimizar los resultados de este, concretamente de su versión 1-NN. Así pues, a través de un aprendizaje
competitivo, el prototipo más cercano a la muestra de entrenamiento es el que será actualizado, alejándose o acercándose según favorezca los resultados de clasificación
Referencia :T. Kohonen. Learning vector quantization for pattern recognition.
La inteligencia artificial es cada vez más utilizada y aplicada en muchos sectores, y como no podía ser menos, ha entrado con fuerza en el sector de [...]
Leer más »El escenario actual que estamos viviendo en España con la crisis sanitaria del COVID-19 ha provocado que muchas empresas hayan tenido que realizar ER [...]
Leer más »Las tecnologías de Inteligencia Artificial (IA) se usan actualmente en las empresas para la transformación de los procesos de negocio, impulsar la i [...]
Leer más »Fernando Pavón, CEO de Gamco y experto en Inteligencia Artificial aplicada al negocio nos explica en los ciclo de AceleraPYMES cómo las pequeñas em [...]
Leer más »