1973 – El invierno de la IA del siglo XX
El informe Lighthill, elaborado por James Lighthill en 1973, presentaba un pronóstico muy pesimista sobre el desarrollo de los aspectos fundamentales en la investigación de la IA, afirmando: «En ninguna parte del campo los descubrimientos realizados hasta ahora han producido el gran impacto que entonces se prometía.» Como resultado, el gobierno británico recortó la financiación de la investigación en IA en todas las universidades, excepto en dos. Es parte de la historia del aprendizaje automático conocida como el invierno de la IA.
1979 – Neocognitrón y el carro de Stanford
El informático japonés Kunihiko Fukushima publica su trabajo sobre el Neocognitrón, una red jerárquica multicapa utilizada para detectar patrones e inspirar las redes neuronales convolucionales utilizadas para analizar imágenes. Esto provocó una revolución en lo que ahora llamamos IA.
Ese mismo año, un grupo de investigadores de la Universidad de Stanford creó un robot llamado Cart. Fue un esfuerzo de décadas que evolucionó en varias formas desde 1960 hasta 1980. Creado inicialmente como un robot móvil equipado con untelevisor a control remoto, se convirtió en una máquina conectada por radio a un gran ordenador central que puede sortear los obstáculos de una habitación de forma independiente.
El invento era puntero en aquel momento, y el aprendizaje automático se perfilaba como una probable herramienta para crear y, con el tiempo, revitalizar un vehículo autónomo.
1981 – Aprendizaje basado en explicaciones
El aprendizaje automático ha recorrido un largo camino desde sus inicios en 1981. Ese año, Gerald Dejong introdujo el concepto de aprendizaje basado en explicaciones (EBL), en el que un ordenador analiza los datos de entrenamiento y crea una regla general que puede seguir descartando los datos sin importancia. Por ejemplo, si se ordena al software que se concentre en la reina en ajedrez, descartará todas las piezas que no tengan un efecto inmediato. Esto sentó las bases de las modernas técnicas de aprendizaje supervisado.
1982 – La Red Hopfield
En 1982, el científico estadounidense John Hopfield crea la red Hopfield, que no es más que una red neuronal recurrente. Es un tipo especial cuya respuesta difiere de
otras redes neuronales. La red de Hopfield es una memoria asociativa, lo que significa que puede almacenar y recordar patrones. Sirve como un sistema de memoria direccionable de contenido y
sería fundamental para otros modelos de RNN de la era moderna del aprendizaje profundo.
1985 – El NETTalk
A mediados de la década de 1980, Terrence Sejnowski y Charles R. Rosenberg desarrollan NETtalk. Se creó con el objetivo de construir modelos simplificados que pudieran arrojar luz sobre el aprendizaje humano.
Siguiendo un enfoque basado en el conocimiento, aprende a pronunciar un texto escrito en inglés al mostrársele un texto como entrada y compararlo con transcripciones fonéticas. Simplificando los modelos de las operaciones cognitivas humanas, podría generar un texto similar al que aprende un bebé.
1986 – Máquina de Boltzmann restringida
Presentada inicialmente como Harmonium, la máquina de Boltzmann restringida (RBM) fue inventada por el científico cognitivo Paul Smolensky en 1986. Se hizo famosa después de que el científico de Stanford Geoffrey Hinton y sus colaboradores inventaran algoritmos de aprendizaje rápido para ellas a mediados de la década de 2000.El RBM es más rápido que la máquina de Boltzmann tradicional porque «restringe» las conexiones entre los nodos. Es un algoritmo útil para la reducción de la dimensionalidad, la clasificación, la regresión, el filtrado colaborativo, el aprendizaje de características y el modelado de temas.
1989 – Refuerzo para el aprendizaje automático
El concepto de boosting se presentó por primera vez en un artículo de 1990 titulado «The Strength of Weak Learnability», de Robert Schapire y Yoav Freund. Supuso un desarrollo necesario para la evolución del aprendizaje automático. Como afirma Schapire, «un conjunto de aprendices débiles puede crear un único aprendiz fuerte». Simplemente se traduce en producir numerosos modelos débiles y combinar sus predicciones para convertirlos en un único modelo potente.
1991 – El problema de la desaparición del gradiente
Aunque a principios de la década de 1990 se popularizaron métodos como las máquinas de vectores soporte, aún quedaban retos por resolver. El problema del gradiente de fuga fue identificado por primera vez por Sepp Hochreiter. Se trataba de un reto en el desarrollo del aprendizaje automático, concretamente con redes neuronales profundas.
A medida que aumenta el número de capas de una red, el valor de la derivada disminuye hasta que acaba desapareciendo por completo. Esto puede hacer que el proceso de aprendizaje sea extremadamente lento y difícil de gestionar.
Durante años, este asunto seguirá irritando a la comunidad.1992 – Jugando al Backgammon
El investigador Gerald Tesauro creó un programa basado en una red neuronal artificial capaz de jugar al backgammon con habilidades que se equiparan a las de los mejores jugadores humanos. El software para jugar al backgammon, llamado TD-Gammon.
Podía jugar a un alto nivel tras unas pocas horas de entrenamiento, y siguió mejorando a medida que jugaba más partidas.
El éxito del programa supuso un hito importante en la inteligencia artificial y en la historia del aprendizaje automático, ya que demostró que las redes neuronales podían utilizarse para crear programas capaces de aprender y mejorar a través de la experiencia.
1997 – Deep Blue y el hito del LSTM
En 1997, Deep Blue, de IBM, se convirtió en el primer sistema informático de ajedrez que derrotó a un campeón mundial vigente, al vencer a Garry Kasparov. También es el año en el que Sepp Hochreiter y Jürgen Schmidhuber publicaron un innovador artículo sobre la «memoria a largo plazo» (LSTM). Se trata de una arquitectura de red neuronal recurrente que revolucionará el aprendizaje profundo en las próximas décadas.2002 – La liberación de Torch
En 2002, se publicó la biblioteca de aprendizaje automático de código abierto Torch. Esta biblioteca permitía más flexibilidad y personalización que otras bibliotecas de la época y rápidamente se hizo popular entre los investigadores.
2006 – Red de Creencias Profundas
Este año marca un momento notable en la historia del aprendizaje automático porque algoritmos que ayudan a los ordenadores a distinguir objetos y texto en imágenes y vídeos.
Junto con Ruslan Salakhutdinov, Osindero y Teh, publicaron el artículo «A fast learning algorithm for deep belief nets» (Un algoritmo de aprendizaje rápido para redes de creencias profundas), en el que apilaron múltiples RBM en capas y las llamaron redesde creencias profundas. El proceso de entrenamiento es mucho más eficiente para grandes cantidades de datos.
2009 – ImageNet
Fei-Fei Li, profesor de Stanford, lanzó en 2009 ImageNet, una base de datos de 14 millones de imágenes etiquetadas. Sería un punto de referencia para los investigadores de aprendizaje profundo que participan en las competiciones de
ImageNet (ILSVRC) cada año. El Economista describió la creación de esta base de datos como un acontecimiento excepcional para popularizar la IA en toda la comunidad tecnológica, marcando una nueva era en la historia del aprendizaje profundo.
2010 – Kinect de Microsoft
Un año notable para la historia del aprendizaje automático es el lanzamiento de Kinect, un dispositivo de entrada con sensor de movimiento para la consola de juegos Xbox 360. Puede rastrear 20 rasgos humanos diferentes a un ritmo de 30 veces por segundo.
2011 – Watson de IBM y Google Brain
Watson es un sistema cognitivo basado en la inteligencia artificial y el procesamiento del lenguaje natural desarrollado por IBM. En 2011, Watson compitió en el programa de juegos Jeopardy! contra dos competidores humanos y ganó. Esto lo convirtió en el primer sistema informático que ganó un concurso contra humanos.Ese mismo año, el equipo del X Lab de Google desarrolló un algoritmo de aprendizaje automático llamado Google Brain. El objetivo era crear una red neuronal profunda que pudiera aprender a navegar de forma autónoma por los vídeos de youtube y a reconocer gatos en imágenes digitales, al igual que el cerebro humano.
El equipo presentó su papel El artículo «Building high-level features using large scale unsupervised learning» (Construyendo características de alto nivel mediante el aprendizaje no supervisado a gran escala) destacaba el descubrimiento de la posibilidad de entrenar un detector de rostros sin tener que etiquetar las imágenes como si contuvieran un rostro o no. Fue un avance significativo en la historia del aprendizaje automático, especialmente en el procesamiento de imágenes.
2012 – Clasificación de ImageNet
En 2012, Alex Krizhevsky, Geoffrey Hinton e Ilya Sutskever publicaron un artículo de investigación en el que detallaban un modelo que puede reducir a pasos agigantadosla tasa de error en los sistemas de reconocimiento de imágenes.
AlexNet, un modelo de CNN basado en la GPU y creado por Alex Krizhevsky, ganó el concurso de clasificación de imágenes de Imagenet con una precisión de 84%. Mejoró significativamente la tasa de éxito del 75 por ciento de los modelos anteriores. Esta victoria inicia una revolución del aprendizaje profundo que se extenderá por todo el mundo.
2014 – DeepFace de Facebook y Sibyl de Google
Facebook desarrolló DeepFace, un algoritmo de software facial de aprendizaje profundo que puede reconocer y verificar individuos en fotos con una precisión de un humano. Es uno de los algoritmos informáticos avanzados que puede identificar rostros humanos con una precisión de 97,35%. Este logro histórico en los algoritmos dereconocimiento facial tendrá un profundo impacto en la capacidad de Facebook para mantener los datos de los usuarios seguros y luchar contra la delincuencia. Otro hito en la historia del aprendizaje automático es la puesta a disposición del público de Sibyl de Google, un sistema de aprendizaje automático a gran escala. El sistema también incluye numerosos y sofisticados algoritmos para predecir el comportamiento de los usuarios.
Siglo XVII – XVIII:
- Filosofía y Máquinas Pensantes: Durante el siglo XVII y XVIII, pensadores como René Descartes exploraron la idea de crear máquinas que pudieran realizar tareas asociadas con la mente humana, planteando preguntas fundamentales sobre la relación entre la mente y la materia.
Siglo XIX:
- Boole y Lógica Simbólica: George Boole introdujo el álgebra booleana en 1847, sentando las bases matemáticas para el razonamiento lógico y la computación automática, lo cual fue esencial para el desarrollo de la IA.
Siglo XX – Primeras Décadas:
- Alan Turing y la Máquina de Turing: En 1936, Alan Turing propuso la idea de una máquina universal capaz de realizar cualquier cálculo que una persona pudiera hacer manualmente, estableciendo las bases conceptuales para la computación moderna y la IA.
1950s:
- Inicio de la Inteligencia Artificial: El término «Inteligencia Artificial» fue acuñado por John McCarthy en 1956 durante la Conferencia de Dartmouth, marcando el inicio formal del campo de la IA como una disciplina académica.
1960s:
- Primeros Programas de IA: Se desarrollaron los primeros programas de IA, incluido el programa de ajedrez de IBM desarrollado por Arthur Samuel en 1959 y el programa de lenguaje natural ELIZA creado por Joseph Weizenbaum en 1966.
1970s:
- Expansión y Limitaciones: La IA experimentó una fase de expansión y expectativas altas, seguida de un período de desilusión debido a las limitaciones técnicas y la falta de avances significativos en problemas complejos.
1980s – 1990s:
- Renacimiento de la IA: Se produjo un renacimiento de la IA con avances en redes neuronales artificiales, sistemas expertos y algoritmos de aprendizaje automático. Destacan el desarrollo del algoritmo de retropropagación (backpropagation) en redes neuronales y la creación de sistemas como Deep Blue de IBM que venció a campeones humanos en ajedrez.
2000s – Presente:
- Auge del Aprendizaje Profundo: El siglo XXI ha sido testigo de avances significativos en IA impulsados por el aprendizaje profundo (deep learning), que utiliza redes neuronales profundas para resolver problemas complejos como el reconocimiento de voz, la visión por computadora y el procesamiento del lenguaje natural.
- Aplicaciones Generalizadas: La IA está integrada en nuestra vida diaria a través de aplicaciones como motores de búsqueda, asistentes virtuales, sistemas de recomendación, vehículos autónomos y más.
Avances Recientes:
- IA y Ética: El desarrollo ético y responsable de la IA se ha convertido en un área de enfoque crucial, con debates sobre privacidad, sesgos algorítmicos y el impacto social de la IA en la sociedad.