¿Es la inteligencia artificial antifrágil?

El potencial iatrogénico de la intervención humana en inteligencia artificial.

istockphoto

Fuente: istockphoto

Estamos en medio de la Revolución de la Inteligencia Artificial (AIRE), la próxima gran época en la historia de la innovación tecnológica. La inteligencia artificial (IA) está ganando impulso global no solo en la investigación científica, sino también en negocios, finanzas, consumo, arte, salud, deportes, cultura pop y geopolítica. A medida que la IA se vuelve cada vez más generalizada, es importante examinar a un nivel macro si la IA se beneficia del desorden. Antifragile es un término y concepto propuestos por Nassim Nicholas Taleb, un ex comerciante cuantitativo y autoproclamado “flâneur” convertido en autor de libros del New York Times en “The Black Swan: The Impact of the Highly Improbable”. Taleb describe al antifrágil como el “Exactamente lo opuesto a lo frágil” que está “más allá de la resistencia o la solidez” en “Antifragile: Las cosas que se benefician del desorden”. Según Taleb, las cosas antifragile no solo “se benefician del caos”, sino también “lo necesitan para sobrevivir y florecer . ”¿Es la IA antifrágil? La respuesta puede no ser tan intuitiva como parece.

Los avances recientes en la IA se deben en gran parte a la mejora en las habilidades de reconocimiento de patrones a través del aprendizaje profundo, un subconjunto del aprendizaje automático, que es un método de la IA que no requiere programación explícita. El aprendizaje se logra mediante la alimentación de conjuntos de datos a través de dos o más capas de procesamiento no lineal. Cuanto mayor sea el volumen y más rápido sea el procesamiento de datos, más rápido aprenderá la computadora.

El procesamiento más rápido se logra principalmente a través de las capacidades de procesamiento paralelo de la GPU (unidades de procesamiento de gráficos), en comparación con el procesamiento en serie de las CPU (unidad de procesamiento central). Curiosamente, los juegos de computadora han ayudado a acelerar los avances en el aprendizaje profundo y, por lo tanto, también desempeñan un papel en el auge actual de la IA. Las GPU, originalmente utilizadas principalmente para la representación de gráficos para juegos de computadora, ahora son una parte integral de la arquitectura de aprendizaje profundo. Para ilustrar, imagine que hay tres carritos de helados con clientes alineados en cada uno, y solo un cucharón. En el procesamiento en serie, el scooper pretende terminar de servir todos los carros al mismo tiempo y lo hace rebotando entre los carros recogiendo unos conos a la vez antes de dar servicio al siguiente. En el procesamiento en paralelo, hay varios scoopers, en lugar de uno solo. Un cliente experto dividirá el pedido entre los carros al mismo tiempo para lograr resultados más rápidos.

El aprendizaje profundo se obtiene a partir de un gran volumen y una amplia variedad de datos. El acceso a conjuntos de datos grandes y diversos, completo con valores atípicos, es imperativo para minimizar la salida sesgada o de baja calidad. Beber de la fuente proverbial de datos no es un factor estresante para el aprendizaje profundo, sino un escenario deseado. El aprendizaje automático se nutre de grandes volúmenes de datos y trae orden desde el caos de la información. El aprendizaje profundo de la IA se beneficia de la diversidad de datos.

La advertencia a la antifragilidad inherente del aprendizaje profundo es el riesgo potencial de resultados adversos accidentales resultantes de los efectos iatrogénicos del manejo humano defectuoso. En “Antifrágil”, Taleb usa el término “iatrogénico” en lugar de la frase “efectos secundarios no deseados dañinos” que resultan del “intervencionismo ingenuo”. Aunque la IA es un sistema basado en máquinas, en última instancia es creado y administrado por los humanos. Hay muchas consecuencias no deseadas potenciales que podrían resultar de la intervención humana del conjunto de datos y algoritmos de aprendizaje profundo de AI. Poner el pan mohoso en la tostadora con el mejor desempeño del mundo aún resulta en una tostada subóptima.

Cami Rosso

Fuente: Cami Rosso

El clásico adagio informático de “Garbage In, Garbage Out” (GIGO) resuena con el aprendizaje profundo. Los operadores humanos deciden en gran medida el tamaño del conjunto de datos, la (s) fuente (s), la selección, el tiempo, la frecuencia, el etiquetado y las anulaciones manuales al sistema AI. Los programadores humanos que crean los algoritmos de AI definen los criterios y las métricas utilizadas para la clasificación, priorización, asociación, clasificación y filtrado del sistema. Cuando hay un punto de datos notable que está ausente, los programadores pueden intervenir creando puntos de datos sintéticos. Los programadores humanos toman decisiones sobre los algoritmos de ajuste. El efecto iatrogénico potencial de la intervención humana puede incluir una salida sesgada, un reconocimiento de patrones inferior, resultados sesgados, algoritmos defectuosos, ponderaciones inapropiadas, atributos inexactos y falsos positivos o negativos. Coloque pan fresco en la tostadora, pero ajustar el nivel de calentamiento demasiado alto o bajo durante el proceso puede producir resultados no deseados, como tostadas quemadas o poco cocinadas. Entonces, aunque el aprendizaje profundo de la IA es antifrágil, es el factor humano el que tiende a ser frágil.

Esto plantea la cuestión de si la inteligencia artificial puede usarse para reemplazar los puntos de la intervención humana, un sistema de AI autorregulador. En teoría, esto es posible. AI se puede crear para producir y administrar otros programas de AI. Por ejemplo, se pueden crear programas de IA especializados para enfocarse en tareas como seleccionar datos para conjuntos de entrenamiento, marcar datos atípicos, predecir falsos positivos o negativos, sugerir puntos de datos sintéticos para algoritmos y muchas otras funciones. Imagine un sistema principal de inteligencia artificial que gestione una red de programas especializados de inteligencia artificial. Durante el procesamiento, la IA general activa la IA especializada para realizar la tarea que una vez requirió la intervención humana.

Este es un sistema grande y complejo, y hay muchas advertencias a este enfoque de auto-regulación del aprendizaje profundo de la IA. Entre los atributos más inquietantes de un sistema de autoaprendizaje de aprendizaje profundo de la IA está el aumento de la posibilidad del “efecto mariposa”, el concepto de que las pequeñas diferencias en un sistema dinámico podrían desencadenar grandes consecuencias. Edward Lorenz, profesor de meteorología del MIT, es el padre de la teoría del caos y el efecto mariposa. El término efecto mariposa fue presentado por Lorenz en su artículo “Predictabilidad: ¿La aleta de las alas de una mariposa en Brasil desencadena un tornado en Texas?” [1]. En este caso, la pequeña cantidad de intervención humana en el establecimiento de un sistema de AI autorregulable en cualquiera de sus programas de componentes modulares de AI podría causar grandes diferencias en la salida general del sistema de AI.

Así que ahora hemos establecido que aunque la tecnología de aprendizaje profundo de la IA en sí misma parece intrínsecamente antifrágil, su talón de Aquiles, los posibles efectos iatrogénicos de la intervención humana, es una fuente de vulnerabilidades y fragilidad sistémicas. La creación de un sistema de AI autorregulador es aún más frágil, dada su susceptibilidad al efecto mariposa de Lorenz: cualquier error humano en la configuración inicial del sistema en cualquiera de sus componentes iniciales, ya sea de datos o algorítmicos, podría causar errores de salida. Los algoritmos de AI mejor diseñados con los mejores conjuntos de datos siguen siendo propensos a la fragilidad humana. La IA será inherentemente frágil. La manera en que los humanos manejan el sistema de IA determinará su robustez general y su tolerancia a fallas. El éxito futuro de la IA dependerá de la capacidad del hombre y la máquina para “aprender” las mejores prácticas a lo largo del tiempo juntos, evolucionando en simbiosis.

Copyright © 2018 Cami Rosso Todos los derechos reservados.

Referencias

1. Dizikes, Peter. “Cuando el efecto mariposa tomó vuelo”. MIT Technology Review . 22 de febrero de 2011.