Historia de la IA 1

Sin valoraciones

Un hecho trascendental que puso el foco en el aprendizaje automático fue en 2016 cuando La IA AlphaGo de Google DeepMind hizo historia al derrotar a uno de los mejores jugadores de Go del mundo. Al ser un juego de mesa complejo que requiere una gran intuición y pensamiento abstracto, mucha gente se sorprendió al saber que las máquinas pueden pensar como los humanos.

Los algoritmos de aprendizaje automático se han vuelto omnipresentes hoy en día, impulsando todo, desde los motores de búsqueda hasta los coches autodirigidos.

 

1943 – El primer modelo matemático de una neurona biológica Walter Pitts y Warren McCulloch crearon el primer modelo matemático de redes neuronales en 1943. Su artículo científico, «A Logical Calculus of the Ideas Immanent in Nervous Activity», se utilizó para crear algoritmos que imitan los procesos del pensamiento humano.

Esta Neurona McCulloch Pitts tiene una capacidad muy limitada y no tiene ningún mecanismo de aprendizaje. Sin embargo, fue el verdadero punto de partida de la disciplina moderna del aprendizaje automático y más tarde abrió el camino al aprendizaje profundo y al aprendizaje automático cuántico.

1949 – La sinapsis de Hebb

El psicólogo canadiense Donald O. Hebb publicó su libro «The Organization of Behavior:

Una teoría neuropsicológica». En él, Hebb teoriza sobre la excitación de las neuronas y la comunicación entre ellas, lo que influyó en la forma en que los psicólogos ven el procesamiento de los estímulos en la mente.

El primer uso del concepto fue para estudiar cómo aprenden los cerebros. También preparó el camino para el desarrollo de máquinas computacionales que imitan los procesos neurológicos naturales, como el aprendizaje automático.

1950 – La prueba de Turing

El Test de Turing fue propuesto por Alan Turing, un informático inglés, como medida de la inteligencia de un ordenador en 1950. Es una forma de medir la inteligencia artificial. Si alguien no puede distinguir si está hablando con otra persona o con un ordenador, entonces el ordenador se considera inteligente.

El test de Turing ha sido criticado por la dificultad de crear un test justo y preciso, así como porque la inteligencia no se mide adecuadamente sólo con este test. Sinembargo, sigue siendo un hito esencial en la historia de la investigación en inteligencia artificial.

1952 – El aprendizaje automático y el juego de las damas

El matemático inglés Arthur Samuel creó un programa de aprendizaje por ordenador para jugar a las damas por ordenador a nivel de campeonato, que fue creado para jugar en el IBM 701. Inició la poda alfa-beta, un diseño que mide las posibilidades de ganar de cada bando.

Este programa de ordenador elige su próxima jugada utilizando un algoritmo minimax, que calcula la mejor jugada posible para un jugador en una partida minimizando la ganancia máxima del adversario y maximizando la ganancia mínima del jugador.

Arthur Samuel es la primera persona que creó y popularizó el término «aprendizaje automático».

1956 – La cuna de la inteligencia artificial

En la historia del aprendizaje automático, el taller de Dartmouth de 1956 se considera el acontecimiento fundacional de la inteligencia artificial como campo. El informático John McCarthy invitó a conocidos matemáticos, científicos e investigadores a un tallerde seis a ocho semanas de duración. Se reunieron en el Dartmouth College para establecer y dar ideas sobre los campos de investigación de la IA y el ML.1958 – El Perceptrón

El psicólogo Frank Rosenblatt intentó construir «la primera máquina capaz de producir una idea original» y posteriormente diseñó el Perceptrón, la primera red neuronal jamás producida.

Combinó el modelo de interacción de las células cerebrales de Donald Hebb con los esfuerzos de aprendizaje automático de Arthur Samuel. Se le alimentó con una serie de tarjetas perforadas y, tras 50 intentos, aprendió a identificar las tarjetas con marcas a la izquierda de las marcas a la derecha.

A pesar de su promesa, el perceptrón no pudo identificar muchos tipos de patrones visuales, lo que provocó la frustración de los investigadores. Pasaron varios años antes de que las frustraciones de los inversores y los organismos de financiación desaparecieran.

1963 – Un juego de tres en raya

El informático Donald Michel diseñó Machine Educable Noughts And Crosses Engine (MENACE), una gran pila de cajas de cerillas que contenía varias cuentas y que utilizaba el aprendizaje por refuerzo para jugar al tres en raya.

MENACE funciona un poco como una red neuronal. Se optimiza al azar inicialmente, pero después de jugar unas cuantas partidas, se ajusta para favorecer las estrategias ganadoras en cada situación.

1965 – Se presentan las redes neuronales multicapa

Alexey (Oleksii) Ivakhnenko y Valentin Lapa son científicos que trabajaron juntos para desarrollar el primer perceptrón multicapa de la historia. Se trata de una representación jerárquica de una red neuronal que utiliza una función de activación polinómica y se entrena mediante el Método de Grupo de Tratamiento de Datos (GMDH). Ivakhnenko suele ser considerado el padre del aprendizaje profundo.

1967 – El algoritmo del vecino más cercano

Thomas Cover y Peter Hart publicaron su «Nearest Neighbor Pattern Classification» en

1967. Sentó las bases para el reconocimiento de patrones y la regresión en el aprendizaje automático.

El algoritmo del vecino más cercano es un método de reconocimiento de patrones muy básico que se desarrolló para permitir a los ordenadores realizar una detección de patrones rudimentaria. Funciona comparando los datos existentes y clasificándoloscomo el vecino más cercano, es decir, el elemento más similar en la memoria, lo que puede ayudar a los vendedores de viajes en una ciudad al azar.

 

 

 

Siglo XVII – XVIII:

  • Filosofía y Máquinas Pensantes: Durante el siglo XVII y XVIII, pensadores como René Descartes exploraron la idea de crear máquinas que pudieran realizar tareas asociadas con la mente humana, planteando preguntas fundamentales sobre la relación entre la mente y la materia.

Siglo XIX:

  • Boole y Lógica Simbólica: George Boole introdujo el álgebra booleana en 1847, sentando las bases matemáticas para el razonamiento lógico y la computación automática, lo cual fue esencial para el desarrollo de la IA.

Siglo XX – Primeras Décadas:

  • Alan Turing y la Máquina de Turing: En 1936, Alan Turing propuso la idea de una máquina universal capaz de realizar cualquier cálculo que una persona pudiera hacer manualmente, estableciendo las bases conceptuales para la computación moderna y la IA.

1950s:

  • Inicio de la Inteligencia Artificial: El término «Inteligencia Artificial» fue acuñado por John McCarthy en 1956 durante la Conferencia de Dartmouth, marcando el inicio formal del campo de la IA como una disciplina académica.

1960s:

  • Primeros Programas de IA: Se desarrollaron los primeros programas de IA, incluido el programa de ajedrez de IBM desarrollado por Arthur Samuel en 1959 y el programa de lenguaje natural ELIZA creado por Joseph Weizenbaum en 1966.

1970s:

  • Expansión y Limitaciones: La IA experimentó una fase de expansión y expectativas altas, seguida de un período de desilusión debido a las limitaciones técnicas y la falta de avances significativos en problemas complejos.

1980s – 1990s:

  • Renacimiento de la IA: Se produjo un renacimiento de la IA con avances en redes neuronales artificiales, sistemas expertos y algoritmos de aprendizaje automático. Destacan el desarrollo del algoritmo de retropropagación (backpropagation) en redes neuronales y la creación de sistemas como Deep Blue de IBM que venció a campeones humanos en ajedrez.

2000s – Presente:

  • Auge del Aprendizaje Profundo: El siglo XXI ha sido testigo de avances significativos en IA impulsados por el aprendizaje profundo (deep learning), que utiliza redes neuronales profundas para resolver problemas complejos como el reconocimiento de voz, la visión por computadora y el procesamiento del lenguaje natural.
  • Aplicaciones Generalizadas: La IA está integrada en nuestra vida diaria a través de aplicaciones como motores de búsqueda, asistentes virtuales, sistemas de recomendación, vehículos autónomos y más.

Avances Recientes:

  • IA y Ética: El desarrollo ético y responsable de la IA se ha convertido en un área de enfoque crucial, con debates sobre privacidad, sesgos algorítmicos y el impacto social de la IA en la sociedad.

Compártelo en tus redes

Share on facebook
Share on twitter
Share on linkedin
Share on pinterest

Valore este curso

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario en nuestra web. Si sigues utilizando este sitio asumimos que estás de acuerdo. VER