Abreviada Historia de la Inteligencia artificial

Fernando Pavón

CEO de Gamco

El contenido de este artículo sintetiza parte del capítulo “Concepto y breve historia de la Inteligencia Artificial” de la tesis Generación de Conocimiento basado en Aprendizaje Automático y Aplicación en Diferentes Sectores, de Fernando Pavón.

Mediante las investigaciones sobre los mecanismos que gobiernan la morfología y los procesos conectivos de las células nerviosas, el padre de la neurociencia, Santiago Ramón y Cajal, premio Nobel de Medicina en 1906, desarrolló una teoría nueva y revolucionaria que empezó a ser llamada la «doctrina de la neurona», basada en que el tejido cerebral está compuesto por células individuales. (Wikipedia).

Ramón y Cajal, describió por primera vez los sistemas nerviosos de los seres vivos, describiendo la neurona y los procesos sinápticos. Estos estudios fueron la base para que los pioneros de la IA modelaran las neuronas artificiales, dando lugar a las redes de neuronas artificiales (ANN: Artificial Neural Netwoks).

►  También te puede interesar: Qué es la Inteligencia Artificial

Etapas de la IA a lo largo de la historia

A partir de la división histórica ofrecida por Rusell y Norving se pueden distinguir las siguientes etapas y su evolución a lo largo de la historia:

1. ¿Cuándo comenzó la inteligencia artificial?

El primer trabajo que es reconocido generalmente como perteneciente a la Inteligencia Artificial fue realizado por Warren McCulloch y Walter Pitts. Ambos propusieron un modelo de neurona artificial en el que cada neurona se caracterizaba por un estado de “on-off”.

El cambio al estado “on” ocurría en respuesta a la estimulación hecha por un número suficiente de neuronas vecinas. Los investigadores mostraron que cualquier función computable puede ser programada por una red de neuronas conectadas, así como que todas las conexiones lógicas (and, or, not, etc.) pueden ser implementadas por estructuras de red simples.

McCulloch y Pitts también sugirieron que las redes de neuronas artificiales podrían aprender.

Donald Hebb desarrolló una regla simple para modificar el peso de las conexiones entre las neuronas. Su regla, denominada “Hebbian Learnig”, sigue siendo un modelo útil a día de hoy.

En 1950, Marvin Minsky y Dean Edmons construyeron el primer ordenador neuronal: el SNARC, que simulaba una red de 40 neuronas.

Minsky siguió estudiando la computación universal usando redes de neuronas, aunque era bastante escéptico en cuanto a las posibilidades reales de las redes de neuronas artificiales. Minsky fue el autor de influyentes teoremas que demostraron las limitaciones de las redes de neuronas artificiales. 

No se puede terminar este breve repaso a los principios de la Inteligencia Artificial sin nombrar el influyente trabajo “Computing Machinery and Intelligence”, de Alan Turing, donde se introdujo el famoso test de Turing a partir de proponer su famosa cuestión “Can machines think?” Este artículo de 1950 planteaba cuestiones que con el tiempo han ido evolucionando en los conceptos actuales de aprendizaje automático (Machine Learning), algoritmos genéticos (Genetic Algorithms) y aprendizaje reforzado (Reinforcement Learning). 

2. ¿Cómo se inició la inteligencia artificial? 

A lo largo de la historia de la Inteligencia Artificial podemos situar el “nacimiento oficial” en el verano de 1956 en el Dartmouth College de Stanford.

El padre fue John McCarthy, que convenció a Minsky, Claude Shannon, y Nathaniel Rochester para reunir a los investigadores más eminentes en los campos de la teoría de autómatas, redes neuronales y del estudio de la inteligencia, con el fin de organizar unas jornadas de trabajo durante los dos meses del verano de 1956.

Las jornadas de Dartmouth no introdujeron ninguna línea rompedora, pero el emergente campo de la Inteligencia Artificial estuvo dominado por los participantes y sus alumnos durante las siguientes dos décadas.

En Dartmouth se definió por qué es necesaria una nueva disciplina en vez de agrupar los estudios en IA dentro de alguna de las disciplinas ya existentes.

Principales razones por las que la IA debía considerarse una nueva disciplina:

  • La IA pretende duplicar facultades humanas como la creatividad, el autoaprendizaje o el uso del lenguaje.
  • La metodología usada proviene de la ciencia de la computación y la Inteligencia Artificial es la única especialidad que trata de hacer máquinas que puedan funcionar autónomamente en entornos complejos y dinámicos. 

3. Grandes expectativas (1952-1969)

Estos fueron unos años de un gran entusiasmo porque aparecieron trabajos bastante prometedores:

  • IBM realizó algunos programas basados en Inteligencia Artificial. Entre ellos, se creó un sistema capaz de probar teoremas geométricos que hasta para los propios estudiantes de Matemáticas suponían una dificultad.
  • Arthur Samuel creó en 1952 un programa para jugar a las damas que era capaz de “aprender a jugar”. De hecho, el programa acabó jugando mejor que su creador. El programa fue mostrado en televisión en 1956.
  • En 1958, McCarthy creó el lenguaje Lisp, que se convirtió en el lenguaje dominante para la IA en los siguientes 30 años.
  • Las redes de neuronas introducidas por McCulloch y Pitts también sufrieron importantes desarrollos.
  • Apareció la red Adeline, basada en la regla de aprendizaje de Hebb.
  • Se desarrolló el teorema de convergencia del Perceptrón, que aseguraba que el algoritmo de aprendizaje podía ajustar los pesos de las conexiones de un perceptron de manera que se adaptase a cualquier función definida por las variables de entrada. 

4. Una dosis de realidad (1966-1973)

Muchos investigadores en el nuevo campo de la IA hicieron predicciones realmente aventuradas y que nunca llegaron a cumplirse.

Herbert Simon (premio Nobel en 1978) llegó a predecir en 1957 que las máquinas podrían pensar, aprender y crear, de modo que superarían a la propia mente humana. Evidentemente, se ha demostrado que, al menos hasta la actualidad, es falso.

También hubo sonoros fracasos a la hora de programar traductores automáticos del ruso al inglés en los años 60. Estos fracasos provocaron que en 1996 el gobierno norteamericano retirase los fondos destinados a la investigación sobre la creación de traductores.

Así mismo, las explosiones combinatorias de muchos de los problemas abordados por la IA demostraron que eran computacionalmente irresolubles. Los algoritmos evolutivos o algoritmos genéticos eran computacionalmente muy costosos y, en muchos casos, no llegaban a ninguna conclusión.

Una de las principales dificultades de la IA se centraba en limitaciones fundamentales de las estructuras básicas usadas para generar comportamiento inteligente. Por ejemplo, en 1969 Minsky y Papert probaron que, aunque el perceptrón pudiese aprender cualquier cosa que fuese susceptible de ser representada, la realidad es que podía representar realmente muy pocas cosas. 

5. Sistemas basados en el conocimiento (1969-1979)

Otro punto importante a tener en cuenta a lo largo de la historia de la inteligencia artificial fue en 1969 cuando nacen los “sistemas expertos”. Estos cambian el enfoque que hasta ahora había seguido la Inteligencia Artificial: encontrar una solución a un problema completo a partir de un proceso de “razonamiento” dividido en principios simples.

Los sistemas expertos se basan en reglas o principios más complejos de un campo de conocimiento mucho más específico y que, en muchos casos, prácticamente significa que casi se conoce la respuesta al problema planteado.

Uno de los primeros sistemas expertos fue el programa DENDRAL (Dendritic Algorithm), desarrollado en Stanford, que resolvía el problema de determinar la estructura molecular a partir de la información proveniente de un espectrómetro de masas. 

6. La Inteligencia Artificial comienza a ser una industria (1980-presente)

Al principio de los años 80, la IA comenzó a ser una industria, fundamentalmente en Estados Unidos, donde surgieron compañías con grupos de trabajo dedicados a desarrollos basados en sistemas expertos, robótica y visión artificial, así como de la fabricación del hardware y el software necesario.

Por ejemplo, el primer sistema experto comercial, llamado R1, empezó a funcionar en DEC (Digital Equipment Corporation) en 1982, y ayudaba en la configuración de las órdenes de nuevos sistemas de computación.

En 1986, la compañía estimaba que el sistema había ahorrado 40 millones de dólares en un año.

Para 1988, DEC había desarrollado 40 sistemas expertos, DuPont tenía 100 en uso y 500 en desarrollo, con un ahorro estimado de 10 millones de dólares al año. 

7. El retorno de las Redes de Neuronas Artificiales (1986-presente)

A mitad de la década de los 80, desde varios grupos de investigación se avanzó en el algoritmo de aprendizaje de “back-propagation” para las redes neuronales. En concreto, para el Perceptrón Multicapa, desarrollado originalmente en 1969.

Este algoritmo fue aplicado en muchos problemas de aprendizaje y la difusión de los resultados en los artículos de precesamiento paralelo y distribuido (Parallel Distributed Processing)causaron una gran expectación. 

En la actualidad, se está avanzando en el uso de herramientas que implementan las redes neuronales, incluso utilizando desarrollos en la nube (del inglés “cloud computing”). Esto permite usar herramientas de entrenamiento, validación y uso de redes de neuronas artificiales, así como “compartirlas” entre investigadores o desarrolladores de todo el mundo. 

8. La IA adopta el método científico (1987-presente)

Desde finales de la década de los 80 hasta el presente, se ha producido una revolución tanto en el contenido como en la metodología de trabajo de la Inteligencia Artificial.

En los últimos años, se ha vuelto más frecuente construir a partir de las teorías ya existentes que desarrollar otras nuevas. De este modo, se está dotando a estas teorías del rigor matemático que precisan, lo que está permitiendo implementar su eficiencia en problemas reales en lugar de en simulaciones o ejemplos simples de laboratorio.

En términos metodológicos, la Inteligencia Artificial ha adoptado firmemente el método científico.

Compartir:
IA, un nuevo aliado para el telemarketing

La captación de nuevos clientes es uno de los procesos con mayor importancia y dificultad para una empresa. Tradicionalmente ha sido necesario recurr [...]

Leer más »
Por qué la IA predictiva es clave para el éxito de una empresa

La integración de herramientas para análisis predictivo es ya habitual en las grandes empresas, pero gracias a la evolución y, sobre todo, a la dem [...]

Leer más »
Diferencias entre un CRM tradicional y un CRM inteligente

Hoy vamos a explicar las diferencias que existen entre un CRM (Customer Relationship Management) tradicional y un CRM inteligente aplicando tecnologí [...]

Leer más »
Experiencia con datos reales

Ya tienes todo lo necesario para ponerte manos a la obra y empezar a trabajar con los datos de la empresa. Tras sortear los primeros obstáculos de ma [...]

Leer más »
Ver más entradas
© Gamco 2021, All Rights Reserved - Aviso legal - Privacidad - Cookies