La inteligencia artificial es cada vez más utilizada y aplicada en muchos sectores, y como no podía ser menos, ha entrado con fuerza en el sector de [...]
Leer más »El contenido de este artículo sintetiza parte del capítulo “Concepto y breve historia de la Inteligencia Artificial” de la tesis Generación de Conocimiento basado en Aprendizaje Automático y Aplicación en Diferentes Sectores, de Fernando Pavón.
Mediante las investigaciones sobre los mecanismos que gobiernan la morfología y los procesos conectivos de las células nerviosas, el padre de la neurociencia, Santiago Ramón y Cajal, premio Nobel de Medicina en 1906, desarrolló una teoría nueva y revolucionaria que empezó a ser llamada la «doctrina de la neurona», basada en que el tejido cerebral está compuesto por células individuales. (Wikipedia).
Ramón y Cajal, describió por primera vez los sistemas nerviosos de los seres vivos, describiendo la neurona y los procesos sinápticos. Estos estudios fueron la base para que los pioneros de la IA modelaran las neuronas artificiales, dando lugar a las redes de neuronas artificiales (ANN: Artificial Neural Netwoks).
► También te puede interesar: Qué es la Inteligencia Artificial
A partir de la división histórica ofrecida por Rusell y Norving se pueden distinguir las siguientes etapas y su evolución a lo largo de la historia:
El primer trabajo que es reconocido generalmente como perteneciente a la Inteligencia Artificial fue realizado por Warren McCulloch y Walter Pitts. Ambos propusieron un modelo de neurona artificial en el que cada neurona se caracterizaba por un estado de “on-off”.
El cambio al estado “on” ocurría en respuesta a la estimulación hecha por un número suficiente de neuronas vecinas. Los investigadores mostraron que cualquier función computable puede ser programada por una red de neuronas conectadas, así como que todas las conexiones lógicas (and, or, not, etc.) pueden ser implementadas por estructuras de red simples.
McCulloch y Pitts también sugirieron que las redes de neuronas artificiales podrían aprender.
Donald Hebb desarrolló una regla simple para modificar el peso de las conexiones entre las neuronas. Su regla, denominada “Hebbian Learnig”, sigue siendo un modelo útil a día de hoy.
En 1950, Marvin Minsky y Dean Edmons construyeron el primer ordenador neuronal: el SNARC, que simulaba una red de 40 neuronas.
Minsky siguió estudiando la computación universal usando redes de neuronas, aunque era bastante escéptico en cuanto a las posibilidades reales de las redes de neuronas artificiales. Minsky fue el autor de influyentes teoremas que demostraron las limitaciones de las redes de neuronas artificiales.
No se puede terminar este breve repaso a los principios de la Inteligencia Artificial sin nombrar el influyente trabajo “Computing Machinery and Intelligence”, de Alan Turing, donde se introdujo el famoso test de Turing a partir de proponer su famosa cuestión “Can machines think?” Este artículo de 1950 planteaba cuestiones que con el tiempo han ido evolucionando en los conceptos actuales de aprendizaje automático (Machine Learning), algoritmos genéticos (Genetic Algorithms) y aprendizaje reforzado (Reinforcement Learning).
A lo largo de la historia de la Inteligencia Artificial podemos situar el “nacimiento oficial” en el verano de 1956 en el Dartmouth College de Stanford.
El padre fue John McCarthy, que convenció a Minsky, Claude Shannon, y Nathaniel Rochester para reunir a los investigadores más eminentes en los campos de la teoría de autómatas, redes neuronales y del estudio de la inteligencia, con el fin de organizar unas jornadas de trabajo durante los dos meses del verano de 1956.
Las jornadas de Dartmouth no introdujeron ninguna línea rompedora, pero el emergente campo de la Inteligencia Artificial estuvo dominado por los participantes y sus alumnos durante las siguientes dos décadas.
En Dartmouth se definió por qué es necesaria una nueva disciplina en vez de agrupar los estudios en IA dentro de alguna de las disciplinas ya existentes.
Principales razones por las que la IA debía considerarse una nueva disciplina:
Estos fueron unos años de un gran entusiasmo porque aparecieron trabajos bastante prometedores:
Muchos investigadores en el nuevo campo de la IA hicieron predicciones realmente aventuradas y que nunca llegaron a cumplirse.
Herbert Simon (premio Nobel en 1978) llegó a predecir en 1957 que las máquinas podrían pensar, aprender y crear, de modo que superarían a la propia mente humana. Evidentemente, se ha demostrado que, al menos hasta la actualidad, es falso.
También hubo sonoros fracasos a la hora de programar traductores automáticos del ruso al inglés en los años 60. Estos fracasos provocaron que en 1996 el gobierno norteamericano retirase los fondos destinados a la investigación sobre la creación de traductores.
Así mismo, las explosiones combinatorias de muchos de los problemas abordados por la IA demostraron que eran computacionalmente irresolubles. Los algoritmos evolutivos o algoritmos genéticos eran computacionalmente muy costosos y, en muchos casos, no llegaban a ninguna conclusión.
Una de las principales dificultades de la IA se centraba en limitaciones fundamentales de las estructuras básicas usadas para generar comportamiento inteligente. Por ejemplo, en 1969 Minsky y Papert probaron que, aunque el perceptrón pudiese aprender cualquier cosa que fuese susceptible de ser representada, la realidad es que podía representar realmente muy pocas cosas.
Otro punto importante a tener en cuenta a lo largo de la historia de la inteligencia artificial fue en 1969 cuando nacen los “sistemas expertos”. Estos cambian el enfoque que hasta ahora había seguido la Inteligencia Artificial: encontrar una solución a un problema completo a partir de un proceso de “razonamiento” dividido en principios simples.
Los sistemas expertos se basan en reglas o principios más complejos de un campo de conocimiento mucho más específico y que, en muchos casos, prácticamente significa que casi se conoce la respuesta al problema planteado.
Uno de los primeros sistemas expertos fue el programa DENDRAL (Dendritic Algorithm), desarrollado en Stanford, que resolvía el problema de determinar la estructura molecular a partir de la información proveniente de un espectrómetro de masas.
Al principio de los años 80, la IA comenzó a ser una industria, fundamentalmente en Estados Unidos, donde surgieron compañías con grupos de trabajo dedicados a desarrollos basados en sistemas expertos, robótica y visión artificial, así como de la fabricación del hardware y el software necesario.
Por ejemplo, el primer sistema experto comercial, llamado R1, empezó a funcionar en DEC (Digital Equipment Corporation) en 1982, y ayudaba en la configuración de las órdenes de nuevos sistemas de computación.
En 1986, la compañía estimaba que el sistema había ahorrado 40 millones de dólares en un año.
Para 1988, DEC había desarrollado 40 sistemas expertos, DuPont tenía 100 en uso y 500 en desarrollo, con un ahorro estimado de 10 millones de dólares al año.
A mitad de la década de los 80, desde varios grupos de investigación se avanzó en el algoritmo de aprendizaje de “back-propagation” para las redes neuronales. En concreto, para el Perceptrón Multicapa, desarrollado originalmente en 1969.
Este algoritmo fue aplicado en muchos problemas de aprendizaje y la difusión de los resultados en los artículos de precesamiento paralelo y distribuido (Parallel Distributed Processing)causaron una gran expectación.
En la actualidad, se está avanzando en el uso de herramientas que implementan las redes neuronales, incluso utilizando desarrollos en la nube (del inglés “cloud computing”). Esto permite usar herramientas de entrenamiento, validación y uso de redes de neuronas artificiales, así como “compartirlas” entre investigadores o desarrolladores de todo el mundo.
Desde finales de la década de los 80 hasta el presente, se ha producido una revolución tanto en el contenido como en la metodología de trabajo de la Inteligencia Artificial.
En los últimos años, se ha vuelto más frecuente construir a partir de las teorías ya existentes que desarrollar otras nuevas. De este modo, se está dotando a estas teorías del rigor matemático que precisan, lo que está permitiendo implementar su eficiencia en problemas reales en lugar de en simulaciones o ejemplos simples de laboratorio.
En términos metodológicos, la Inteligencia Artificial ha adoptado firmemente el método científico.
La inteligencia artificial es cada vez más utilizada y aplicada en muchos sectores, y como no podía ser menos, ha entrado con fuerza en el sector de [...]
Leer más »Las oportunidades de negocio están en todas partes y muchas veces no sabemos cuales son los sectores con mayor potencial para el emprendimiento.  [...]
Leer más »El término inteligencia artificial (IA) es pura actualidad, pero fue inventado en 1956 por John McCarthy, Marvin Minsky y Claude Shannon en la famosa [...]
Leer más »El término Business Intelligence (o BI) define el uso de tecnologías de la información para identificar, descubrir y analizar datos comerciales, co [...]
Leer más »