¿Las personas deberían temer a la inteligencia artificial?

Stephen Hawking y Elon Musk han descrito recientemente la inteligencia artificial como una gran amenaza para la humanidad. Su preocupación es que las mejoras rápidas en el rendimiento inteligente de las computadoras las harán tan inteligentes como los humanos. La inteligencia artificial a nivel humano podría conducir rápidamente a computadoras que son mucho más inteligentes que nosotros. Ese salto es plausible porque las computadoras tienen ventajas sobre nosotros con respecto a la velocidad de procesamiento, almacenamiento, acceso a grandes cantidades de información y facilidad de transferencia entre computadoras. Una vez que existe este tipo de superinteligencia, puede tener intereses y acciones que van en contra de los humanos, en nuestro detrimento y posiblemente incluso en nuestra desaparición. ¿Cuán preocupado debería ser la gente sobre este problema?

Actualmente estoy enseñando un curso que compara sistemáticamente la inteligencia en máquinas, humanos y otros animales. Para los humanos, uso lo que creo que es la mejor teoría actual de la inteligencia: la arquitectura del puntero semántico de Chris Eliasmith. Para las máquinas, la clase está analizando ejemplos destacados de programas de inteligencia artificial actuales, incluidos Watson de IBM, automóviles sin conductor de Google, CYC, Siri de Apple y Google translate.

Esta comparación muestra que aún existen grandes brechas entre la inteligencia humana y la inteligencia artificial. Watson de IBM es muy impresionante al responder las preguntas lo suficientemente bien para vencer a los jugadores humanos excelentes en el juego de televisión Jeopardy. E incluso está empezando a mostrar algunas habilidades para la resolución creativa de problemas cuando Chef Watson genera nuevas recetas. Además, parece que Watson hará valiosas contribuciones a muchas otras áreas, como negocios y medicina. Sin embargo, Watson en el futuro previsible es muy inferior a las capacidades humanas de tratar con las representaciones perceptivas, las imágenes, las emociones, la conciencia, el aprendizaje, el lenguaje y toda la gama de resolución de problemas creativos que los humanos pueden lograr. Otros programas actuales de IA comparten limitaciones similares.

Por lo tanto, creo que la inteligencia artificial a nivel humano es más distante en el futuro de lo que mucha gente cree. La idea de que la inteligencia artificial puede resultar simplemente descargando las conexiones neuronales de la gente en una computadora es extremadamente ingenua sobre las complejidades del cerebro humano, que incluye no solo conexiones eléctricas sino también una amplia gama de procesos químicos que involucran neurotransmisores, hormonas y células gliales. La inteligencia artificial ha logrado avances impresionantes en los últimos 60 años, produciendo máquinas que pueden jugar al ajedrez y navegar por la superficie de Marte. Pero apuesto a que pasarán al menos otros 60 o 100 años antes de que la inteligencia artificial comience a aproximarse a la inteligencia humana, convirtiendo a AI en una amenaza mucho menos apremiante para la humanidad que el calentamiento global, las pandemias y la creciente desigualdad que lleva a conflictos sociales.

Una preocupación más inmediata acerca de la inteligencia artificial es garantizar que los tipos de inteligencia artificial adoptados por grupos como el ejército de EE. UU., Google y Facebook se utilicen para beneficiar a los seres humanos. Una reciente carta abierta firmada por Hawking, Musk y los principales investigadores de inteligencia artificial hace una fuerte y sensata súplica para que la inteligencia artificial se utilice para beneficio humano.

Aunque no me preocupan las máquinas que suplantan a la humanidad en el futuro cercano, hay mucha verosimilitud en la afirmación de que, una vez lograda, la inteligencia artificial a nivel humano podría producir rápidamente superinteligencia que de hecho puede ser una amenaza para la humanidad. El salto del nivel humano a la superinteligencia podría ocurrir rápidamente debido a su probable capacidad de expandirse a un ritmo mucho más rápido que la inteligencia humana. Las computadoras pueden evitar nuestras limitaciones con respecto a la velocidad de procesamiento, la velocidad de aprendizaje y la transmisibilidad de la información. La superinteligencia realmente da miedo porque no hay ninguna razón para creer que funcionaría de acuerdo con los principios éticos humanos.

Podría pensar que podría programar principios éticos en la computadora, pero cualquier programa inteligente podría reprogramarse a sí mismo para eliminar las reglas que le fueron provistas. Dudo que la superinteligencia tenga el impulso hacia el pensamiento ético que llega a casi todos los seres humanos a través de nuestra capacidad emocional de cuidarnos unos a otros. Los puntos de vista más influyentes en la filosofía han tratado de hacer de la ética una cuestión de razón, por ejemplo, a través de los derechos y deberes kantianos o mediante cálculos utilitarios del mayor bien para el mayor número. Encuentro más plausible la opinión de Hume y de algunos especialistas en ética feministas de que las emociones y el cuidado son la base de nuestros juicios éticos. No se puede esperar que la inteligencia de la máquina tenga la misma base ética porque las emociones son en parte el resultado de la fisiología, no solo la evaluación cognitiva de las situaciones. John Hoagland dijo una vez que el problema con las computadoras es que simplemente no les importa nada. Desde la perspectiva del beneficio a largo plazo de la IA para la humanidad, el problema es que a ellos no les importará nada.