1965 – Se presentan las redes neuronales multicapa
Alexey (Oleksii) Ivakhnenko y Valentin Lapa son científicos que trabajaron juntos para desarrollar el primer perceptrón multicapa de la historia. Se trata de una representación jerárquica de una red neuronal que utiliza una función de activación polinómica y se entrena mediante el Método de Grupo de Tratamiento de Datos (GMDH).
Ivakhnenko suele ser considerado el padre del aprendizaje profundo.
1967 – El algoritmo del vecino más cercano
Thomas Cover y Peter Hart publicaron su «Nearest Neighbor Pattern Classification» en 1967. Sentó las bases para el reconocimiento de patrones y la regresión en el aprendizaje automático.
El algoritmo del vecino más cercano es un método de reconocimiento de patrones muy básico que se desarrolló para permitir a los ordenadores realizar una detección de patrones rudimentaria. Funciona comparando los datos existentes y clasificándoloscomo el vecino más cercano, es decir, el elemento más similar en la memoria, lo que puede ayudar a los vendedores de viajes en una ciudad al azar.
1973 – El invierno de la IA del siglo XX
El informe Lighthill, elaborado por James Lighthill en 1973, presentaba un pronóstico muy pesimista sobre el desarrollo de los aspectos fundamentales en la investigación de la IA, afirmando: «En ninguna parte del campo los descubrimientos realizados hasta ahora han producido el gran impacto que entonces se prometía.» Como resultado, el gobierno británico recortó la financiación de la investigación en IA en todas las universidades, excepto en dos. Es parte de la historia del aprendizaje automático conocida como el invierno de la IA.
1979 – Neocognitrón y el carro de Stanford
El informático japonés Kunihiko Fukushima publica su trabajo sobre el Neocognitrón, una red jerárquica multicapa utilizada para detectar patrones e inspirar las redes neuronales convolucionales utilizadas para analizar imágenes. Esto provocó una revolución en lo que ahora llamamos IA.
Ese mismo año, un grupo de investigadores de la Universidad de Stanford creó un robot llamado Cart. Fue un esfuerzo de décadas que evolucionó en varias formas desde 1960 hasta 1980. Creado inicialmente como un robot móvil equipado con untelevisor a control remoto, se convirtió en una máquina conectada por radio a un gran ordenador central que puede sortear los obstáculos de una habitación de forma independiente.
El invento era puntero en aquel momento, y el aprendizaje automático se perfilaba como una probable herramienta para crear y, con el tiempo, revitalizar un vehículo autónomo.
1981 – Aprendizaje basado en explicaciones
El aprendizaje automático ha recorrido un largo camino desde sus inicios en 1981. Ese año, Gerald Dejong introdujo el concepto de aprendizaje basado en explicaciones (EBL), en el que un ordenador analiza los datos de entrenamiento y crea una regla general que puede seguir descartando los datos sin importancia. Por ejemplo, si se ordena al software que se concentre en la reina en ajedrez, descartará todas las piezas que no tengan un efecto inmediato. Esto sentó las bases de las modernas técnicas de aprendizaje supervisado.
1982 – La Red Hopfield
En 1982, el científico estadounidense John Hopfield crea la red Hopfield, que no es más que una red neuronal recurrente. Es un tipo especial cuya respuesta difiere de otras redes neuronales.
La red de Hopfield es una memoria asociativa, lo que significa que puede almacenar y recordar patrones. Sirve como un sistema de memoria direccionable de contenido y sería fundamental para otros modelos de RNN de la era moderna del aprendizaje profundo.
1985 – El NETTalk
A mediados de la década de 1980, Terrence Sejnowski y Charles R. Rosenberg desarrollan NETtalk. Se creó con el objetivo de construir modelos simplificados que pudieran arrojar luz sobre el aprendizaje humano.
Siguiendo un enfoque basado en el conocimiento, aprende a pronunciar un texto escrito en inglés al mostrársele un texto como entrada y compararlo con transcripciones fonéticas. Simplificando los modelos de las operaciones cognitivas humanas, podría generar un texto similar al que aprende un bebé.