¿Qué causó el renacimiento de la IA?

Mucho ruido sobre la profunda propagación de aprendizaje

pixabay

Fuente: pixabay

La inteligencia artificial (IA) no es un concepto nuevo, cuyos orígenes se remontan a los años cincuenta. Sin embargo, AI recientemente ha emergido a la vanguardia de los intereses de inversión de la industria, el gobierno y el capital de riesgo después de décadas de relativa inactividad. ¿Qué contribuyó a la descongelación del invierno y el auge actual de AI?

La IA está en auge debido en gran parte a los avances en las capacidades de reconocimiento de patrones resultantes de un aprendizaje profundo, un subconjunto de aprendizaje automático en el que una red neuronal artificial consta de más de dos capas de procesamiento. El aprendizaje automático es un subconjunto de AI que involucra algoritmos que pueden aprender de los datos, en lugar de que un programador tenga que codificar explícitamente las instrucciones. Este aprendizaje puede realizarse con entrenamiento de datos supervisado o no supervisado. En el aprendizaje supervisado, los datos utilizados para la capacitación están etiquetados, mientras que en el aprendizaje no supervisado, no hay etiquetas de datos.

Las redes neuronales de aprendizaje automático de la IA fueron, en su mayor parte, estancadas durante los años 70 y 80, después de la publicación de las investigaciones de Marvin Minsky y Seymour Papert del MIT tituladas Perceptrones: una introducción a la geometría computacional en 1969. En su artículo, el dúo científico señala fuera de las “severas limitaciones” de los perceptrones, las redes neuronales desarrolladas en la década de 1950 por el psicólogo estadounidense Frank Rosenblatt, para los fines previstos del reconocimiento de patrones de IA.

Minsky y Papert cuestionaron la capacidad de los perceptrones para entrenar o aprender en redes neuronales que tenían más de dos capas de neuronas: la capa de entrada y salida. Llegaron a sus conclusiones basadas en pruebas matemáticas. Los científicos escribieron que tal vez “se descubrirá un poderoso teorema de convergencia, o se encontrará alguna razón profunda por la que no se produjo un interesante ‘teorema de aprendizaje’ para la máquina multicapa”.

Un año después, en 1970, el matemático finlandés Seppo Linnainmaa escribió en su tesis de maestría sobre la estimación de los errores de redondeo y el modo inverso de diferenciación automática (AD). Sin que él lo supiera, esta idea que pensó mientras estaba en un parque de Copenhague en una tarde soleada más tarde proporcionaría la semilla para que el aprendizaje profundo germinara años más tarde para convertirse en un renacimiento de la IA décadas más tarde. Linnainmaa obtuvo el primer doctorado en ciencias de la computación de la Universidad de Helsinki en 1974.

También en 1974, el científico Paul J. Werbos publicó su Ph.D. de la Universidad de Harvard. disertación sobre la formación de redes neuronales artificiales a través de la contrapropagación de errores. Werbos concibió nuevos diseños de control inteligente que tenían paralelos con el cerebro humano. Werbos recibió un Premio Pioneer del Consejo de Redes Neuronales IEEE 1995 por su descubrimiento de la propagación hacia atrás y otras contribuciones a las redes neuronales de la IA.

En 1986, Geoffrey Hinton, David E. Rumelhart y Ronald J. Williams popularizaron el concepto de usar propagación hacia atrás a través de redes de unidades similares a neuronas con su artículo publicado en Nature , “Aprendizaje de representaciones mediante errores de propagación hacia atrás”. El procedimiento consiste en ajustar el pesos de las conexiones en la red (nodos o neuronas), de manera que se minimice la medida de la diferencia entre el vector de salida real de la red y el vector de salida deseado. Como resultado de los ajustes de peso, hay unidades internas ocultas que no forman parte de la entrada ni de la salida. Esencialmente, Hinton y su equipo demostraron que las redes neuronales profundas que consisten en más de dos capas podrían entrenarse a través de la propagación hacia atrás. Aquí estaba la poderosa técnica de aprendizaje para más de dos capas neuronales que Minsky y Papert habían especulado como una posibilidad en 1969. Sin embargo, esto solo no era suficiente para resucitar la IA.

Otro factor importante que contribuye al auge de la IA se debe al aumento de los videojuegos. En la década de 1970, los videojuegos de arcade utilizaban chips gráficos especializados debido al costo. Desde la década de 1980 hasta principios de la década de 2000, la unidad de procesamiento de gráficos (GPU) eventualmente ha evolucionado desde su uso principalmente en juegos hasta propósitos de computación general. Las GPU pueden procesar grandes cantidades de datos en paralelo, una clara ventaja sobre la CPU estándar (unidad central de procesamiento). El poder de procesamiento paralelo de GPU para computación general es adecuado para el procesamiento de grandes cantidades de big data con fines de aprendizaje automático.

En 2012, Geoffrey Hinton, Alex Krizhevsky e Ilya Sutskever anunciaron su éxito en el entrenamiento de una red neuronal convolucional profunda con 60 millones de parámetros, 650,000 neuronas y cinco capas convolucionales, para clasificar 1.2 millones de imágenes de alta resolución en 1,000 clases diferentes. El equipo utilizó una implementación de GPU para acelerar el tiempo total de entrenamiento. Hinton y su equipo hicieron historia al demostrar que una red neuronal convolucional grande y profunda podría lograr “resultados récord en un conjunto de datos altamente desafiante que usa aprendizaje puramente supervisado” con propagación hacia atrás.

La inteligencia artificial ha resucitado de la inactividad mediante el aprendizaje profundo y la tecnología de GPU. El aprendizaje profundo se encuentra en las primeras etapas de la comercialización aplicada. En la próxima década, la IA continuará ganando rápidamente impulso a medida que se acerca el cruce de la tecnología hacia la proliferación global masiva. La inteligencia artificial (IA) es una tendencia a través de la atención médica, el transporte, el descubrimiento de medicamentos, la biotecnología, la genómica, la electrónica de consumo, las aplicaciones de software empresarial, la medicina de precisión, los deportes, los vehículos autónomos, las aplicaciones de redes sociales, la fabricación, la investigación científica, el entretenimiento, la geopolítica y muchos Más zonas. En un futuro no muy lejano, la inteligencia artificial se volverá tan ubicua como Internet.

Copyright © 2019 Cami Rosso Todos los derechos reservados.

Referencias

Griewank, Andreas. “¿Quién inventó el modo inverso de diferenciación?” Documenta Mathematica . Volumen extra ISMP 389-400. 2012.

IEEE. “Invitados al Consejo de Redes Neuronales del Consejo.” Transacciones IEEE en Redes Neuronales. Vol. 7, No 1. Enero de 1996.

Rumelhart, David E., Hinton, Geoffrey E., Williams, Ronald J. “Aprendizaje de representaciones por errores de propagación hacia atrás”. Naturaleza . Vol. 323. 9 de octubre de 1986.

Krizhevsky, Alex, Sutskever, Ilya, Hinton, Geoffrey E. “Clasificación de ImageNet con redes neuronales de convolución profunda”. Avances en los sistemas de procesamiento de información neural 25 . 2012