Learning Vector Quantization (LVQ) es un algoritmo de clasificación supervisada basado en prototipos inventado por Teuvo Kohonen, que se engloba dentro de los algoritmos de inteligencia artificial.
Puede entenderse como un caso especial de red de neuronas artificiales en el que se inicializan un conjunto de prototipos que se ajustan a través del conjunto de datos de entrenamiento.
Este ajuste se basa en la medida de distancia al igual que el clasificador k-NN, y es que LVQ trata de optimizar los resultados de este, concretamente de su versión 1-NN. Así pues, a través de un aprendizaje
competitivo, el prototipo más cercano a la muestra de entrenamiento es el que será actualizado, alejándose o acercándose según favorezca los resultados de clasificación
Referencia :T. Kohonen. Learning vector quantization for pattern recognition.
La captación de nuevos clientes es uno de los procesos con mayor importancia y dificultad para una empresa. Tradicionalmente ha sido necesario recurr [...]
Leer más »El mundo está experimentando un crecimiento exponencial en la generación de datos con una escala cada vez mayor. Según IDC (International Data Corp [...]
Leer más »Antes de hablar de la inteligencia artificial en el mercado Fintech nos gustaría mencionar que el término Fintech se aplica hoy en día para las tec [...]
Leer más »El análisis de big data es el proceso de analizar fuentes de datos grandes y complejas para descubrir tendencias, patrones, comportamientos de los cl [...]
Leer más »