El talón de Aquiles de la visión artificial de la IA

El problema vinculante de la IA y la neurociencia.

pixabay

Fuente: pixabay

¿Conduciría en un vehículo autónomo si supiera que estaba sujeto a problemas visuales? ¿Qué tal un tratamiento contra el cáncer basado en una interpretación computarizada de imágenes radiológicas, como rayos X, ultrasonido, tomografía computarizada, tomografía computarizada (PET) o tomografía por resonancia magnética (MRI, por sus siglas en inglés), sabiendo que la visión de la computadora podría ser fácilmente engañada? La visión por computadora tiene un problema: solo requiere cambios leves en la entrada de datos para engañar a los algoritmos de aprendizaje automático para que “vean” las cosas mal.

Los avances recientes en la visión por computadora se deben en gran parte a las capacidades mejoradas de reconocimiento de patrones a través del aprendizaje profundo, un tipo de aprendizaje basado en máquinas. El aprendizaje automático es un subconjunto de inteligencia artificial donde una computadora puede aprender conceptos a partir del procesamiento de datos de entrada, ya sea a través de un aprendizaje supervisado en el que los datos de entrenamiento están etiquetados, o no como en un aprendizaje no supervisado o una combinación sin programación explícita. La profundidad del aprendizaje profundo se refiere a la cantidad de capas de procesamiento neuronal artificial en su red neuronal.

Un equipo de investigadores de inteligencia artificial (AI) con Kevin Eykholt, Ivan Evtimov, e investigadores adicionales de la Universidad de California Berkeley, la Universidad de Michigan, la Universidad de Stony Brook y la Universidad de Washington descubrieron que solo se requieren pequeños cambios para detenerlos. firmar utilizando calcomanías en blanco y negro es hacer que las redes neuronales profundas (DNN) del estado de la técnica clasifiquen erróneamente las imágenes. El equipo publicó sus hallazgos en abril de 2018 en arXiv .

Uno de los inconvenientes actuales del aprendizaje profundo es la gran cantidad de datos necesarios para la capacitación de la computadora. En marcado contraste, una vez que un niño aprende lo que es un ave, puede identificar fácilmente a un animal como ave sin tener que aprender todas las diferentes especies de aves que existen.

Varias regiones del cerebro procesan diferentes tipos de entrada. Por ejemplo, el lóbulo parietal es el área del cerebro donde se procesa la información sensorial para el tacto, la temperatura y el dolor. El lóbulo occipital interpreta la visión. El lóbulo temporal desempeña un papel en la audición. Dadas las diferentes regiones del cerebro que procesan la información sensorial en diferentes áreas, ¿cómo forma una experiencia unificada? Esto describe el problema vinculante.

Por ejemplo, cuando un avión a reacción en lo alto del cielo pasa por encima de la cabeza, el cerebro sabe que el sonido de swooping corresponde a él. El cerebro reconoce que las alas, las colas, el fuselaje y la estela blanca (rastro de condensación) pertenecen al chorro, y no al cielo circundante, al sol o a las nubes de fondo. De alguna manera, el cerebro humano es capaz de ingerir varios datos de entradas sensoriales como la vista, el sonido, el gusto, el olfato y el tacto, y componer una experiencia cohesiva. Sin embargo, es un misterio para los científicos exactamente cómo lo hace el cerebro.

El profesor de matemática y neurociencia británico Simon Stringer, de la Fundación Oxford para la Neurociencia Teórica y la Inteligencia Artificial, está actualmente investigando neuronas en el cerebro que actúan como “neuronas vinculantes” y tiene la ambición de otorgar “inteligencia de rata en una máquina dentro de 20 años”.

Por ahora, la solución para los investigadores de la IA es tratar de lograr un buen rendimiento en promedio cuando se trata de interpretar correctamente las imágenes visuales.

“El ojo solo ve lo que la mente está preparada para comprender”. – Robertson Davies

Copyright © 2019 Cami Rosso Todos los derechos reservados.

Referencias

National Geographic. “Cerebro”. Obtenido 1-16-2019 de https://www.nationalgeographic.com/science/health-and-human-body/human-body/brain/

Eykholt, Kevin, Evtimov, Ivan, Fernandes, Earlence, Li, Bo, Rahmati, Amir, Xiao, Chaowei, Prakash, Atul, Kohno, Tadayoshi, Song, Dawn. “Robustos ataques del mundo físico en la clasificación visual de aprendizaje profundo”. ArXiv : 1707.08945v5. 10 de abril de 2018.

Geddes, linda. “Los ‘eventos extraños’ que hacen que las máquinas alucinen”. BBC . 5 de diciembre de 2018.