El mito de las máquinas inteligentes

A human-like robot/Shutterstock
Fuente: un robot humano / Shutterstock

Algunos de los principales expertos en tecnología y científicos de hoy están expresando públicamente su preocupación por los escenarios apocalípticos que probablemente surjan como resultado de las máquinas con motivos. Entre los temerosos se encuentran los pesos pesados ​​intelectuales como Stephen Hawking, Elon Musk y Bill Gates, quienes creen que los avances en el campo del aprendizaje automático pronto generarán AIs conscientes de sí mismos que buscan destruirnos, o quizás simplemente deshacerse de nosotros de manera apática, como escoria que es borrada por un limpiaparabrisas. De hecho, el Dr. Hawking le dijo a la BBC: "El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana".

De hecho, hay pocas dudas de que la IA futura será capaz de causar un daño significativo. Por ejemplo, es concebible que los robots puedan programarse para funcionar como armas autónomas tremendamente peligrosas, como nunca antes se había visto. Además, es fácil imaginar una aplicación de software sin restricciones que se propaga a través de Internet, arruinando seriamente nuestro medio más eficiente y confiable para el intercambio global.

Pero estos escenarios son categóricamente diferentes de aquellos en los que las máquinas deciden volverse contra nosotros, vencernos, convertirnos en esclavos o exterminarnos. En este sentido, somos incuestionablemente seguros. En una nota más triste, es muy poco probable que algún día tengamos robots que decidan hacerse amigos de nosotros o que nos muestren amor sin que se les solicite específicamente que lo hagan.

Esto se debe a que tal comportamiento intencional de una IA indudablemente requerirá una mente, ya que la intencionalidad solo puede surgir cuando algo posee sus propias creencias, deseos y motivaciones. El tipo de IA que incluye estas características es conocido entre la comunidad científica como "Inteligencia Artificial Fuerte". La inteligencia artificial fuerte, por definición, debería poseer todo el rango de habilidades cognitivas humanas. Esto incluye autoconciencia, sensibilidad y conciencia, ya que estas son todas las características de la cognición humana.

Por otro lado, "Inteligencia Artificial Débil" se refiere a la IA no sensible. La Débil Hipótesis AI afirma que nuestros robots, que funcionan con programas informáticos digitales, no pueden tener estados conscientes, ni mente, ni conciencia subjetiva, ni ninguna agencia. Tal IA no puede experimentar el mundo cualitativamente, y aunque pueden exhibir un comportamiento aparentemente inteligente, siempre está limitado por la falta de una mente.

La falta de reconocimiento de la importancia de esta distinción fuerte / débil podría estar contribuyendo a las preocupaciones existenciales de Hawking y Musk, quienes creen que ya estamos en el camino hacia el desarrollo de IA fuerte (también conocida como Inteligencia Artificial General). Para ellos no es una cuestión de "si", sino de "cuándo".

Pero el hecho es que toda la IA actual es fundamentalmente débil, y esto se refleja en la ausencia total de cualquier comportamiento intencional de las computadoras de hoy en día. Aunque hay robots muy complejos y relativamente convincentes que parecen estar vivos, al examinarlos más de cerca todos revelan que carecen de motivos como la calculadora de bolsillo común.

Esto se debe a que los cerebros y las computadoras funcionan de manera muy diferente. Ambos computan, pero solo uno entiende, y hay algunas razones muy convincentes para creer que esto no va a cambiar. Parece que hay un obstáculo más técnico que se interpone en el camino de que la IA fuerte se convierta en realidad.

Las máquinas de Turing no son máquinas de pensar

Todas las computadoras digitales son sistemas binarios. Esto significa que almacenan y procesan información exclusivamente en términos de dos estados, que están representados por diferentes símbolos, en este caso 1s y 0s. Es un hecho interesante de la naturaleza que los dígitos binarios se puedan usar para representar la mayoría de las cosas; como números, letras, colores, formas, imágenes e incluso audio con una precisión casi perfecta.

Este sistema de dos símbolos es el principio fundamental en el que se basa toda la informática digital. Todo lo que hace una computadora implica manipular dos símbolos de alguna manera. Como tales, pueden considerarse como un tipo práctico de máquina de Turing: una máquina abstracta e hipotética que se calcula manipulando símbolos.

Se dice que las operaciones de una máquina de Turing son "sintácticas", lo que significa que solo reconocen símbolos y no el significado de esos símbolos, es decir, su semántica. Incluso la palabra "reconocer" es engañosa porque implica una experiencia subjetiva, por lo que quizás sea mejor decir simplemente que las computadoras son sensibles a los símbolos, mientras que el cerebro es capaz de comprender semánticamente.

No importa cuán rápido sea la computadora, cuánta memoria tenga o cuán complejo y alto sea el lenguaje de programación. Los campeones de juego Jeopardy y Chess Watson y Deep Blue funcionan fundamentalmente igual que tu microondas. En pocas palabras, una máquina de procesamiento de símbolos estricta nunca puede ser una máquina de comprensión de símbolos. El influyente filósofo John Searle ha representado hábilmente este hecho por analogía en su famoso y altamente controvertido "Chinese Room Argument", que ha convencido a las mentes de que "la sintaxis no es suficiente para la semántica" desde su publicación en 1980. Y aunque algunas refutaciones esotéricas se han presentado (la más común es la "Respuesta de Sistemas"), ninguna ha logrado cerrar la brecha entre la sintaxis y la semántica. Pero incluso si uno no está completamente convencido basado solo en el Argumento de la Habitación China, eso no cambia el hecho de que las máquinas de Turing son máquinas manipuladoras de símbolos y no máquinas pensantes, una posición tomada por el gran físico Richard Feynman más de una década antes.

Feynman describió la computadora como "Un sistema de archivo glorificado, de alta clase, muy rápido pero estúpido", administrado por un empleado de archivo infinitamente estúpido (la unidad de procesamiento central) que sigue instrucciones a ciegas (el programa de software). Aquí el empleado no tiene ningún concepto de nada, ni siquiera una sola letra o números. En una famosa conferencia sobre heurística computacional, Feynman expresó sus serias dudas sobre la posibilidad de máquinas verdaderamente inteligentes, afirmando que "Nadie sabe lo que hacemos o cómo definir una serie de pasos que corresponden a algo abstracto como el pensamiento".

Estos puntos presentan razones muy apremiantes para creer que nunca podremos alcanzar IA Fuerte, es decir, agentes artificiales verdaderamente inteligentes. Tal vez incluso las simulaciones cerebrales más precisas no cederán mentes, ni los programas de software producirán conciencia. Es posible que no esté en las tarjetas para un procesador binario estricto. No hay nada sobre procesamiento de símbolos o computación que genere experiencia subjetiva o fenómenos psicológicos como sensaciones cualitativas.

Al escuchar esto, uno podría estar inclinado a preguntar: "Si una computadora no puede ser consciente, ¿cómo puede un cerebro?" Después de todo, es un objeto puramente físico que funciona de acuerdo con la ley física. Incluso usa actividad eléctrica para procesar información, como una computadora. Sin embargo, de alguna manera experimentamos el mundo subjetivamente, desde una perspectiva en primera persona donde ocurren sensaciones internas, cualitativas e inefables que solo son accesibles para nosotros. Tomemos, por ejemplo, la manera en que se siente cuando ve a una niña bonita, bebe una cerveza, pisa un clavo o escucha una orquesta temperamental.

La verdad es que los científicos todavía están intentando descubrir todo esto. Cómo los fenómenos físicos, como los procesos bioquímicos y eléctricos, crean sensaciones y una experiencia unificada, se conoce como el "Problema Duro de la Conciencia", y es ampliamente reconocido por los neurocientíficos y los filósofos. Incluso el autor neurocientífico y popular Sam Harris, que comparte las preocupaciones de la rebelión de los robots de Musk, reconoce el problema cuando afirma que si una máquina puede ser consciente es "una pregunta abierta". Lamentablemente, no parece darse cuenta de que para que las máquinas representen una amenaza existencial derivada de sus propios intereses, se requiere conciencia.

Sin embargo, aunque el problema de la conciencia es ciertamente difícil, no hay razón para creer que la ciencia no pueda resolverlo. Entonces, ¿qué tipo de progreso hemos realizado hasta ahora?

La conciencia es un fenómeno biológico

Al igual que una computadora, las neuronas se comunican entre sí mediante el intercambio de señales eléctricas de forma binaria. O una neurona dispara o no, y así es como se llevan a cabo los cálculos neuronales. Pero a diferencia de las computadoras digitales, los cerebros contienen una gran cantidad de procesos análogos celulares y moleculares, reacciones bioquímicas, fuerzas electrostáticas, activación de neuronas sincronizadas a frecuencias específicas y conexiones estructurales y funcionales únicas con innumerables bucles de retroalimentación.

Incluso si una computadora puede crear con precisión una representación digital de todas estas características, lo que en sí mismo implica muchos obstáculos serios, una simulación de un cerebro aún no es un cerebro físico. Existe una diferencia fundamental entre la simulación de un proceso físico y el proceso físico en sí mismo. Esto puede parecer un punto discutible para muchos investigadores de aprendizaje de máquinas, pero cuando se lo considera en detalle parece algo trivial.

La simulación no es igual a la duplicación

La hipótesis Débil IA dice que las computadoras solo pueden simular el cerebro, y de acuerdo con algunos como John Searle, quien acuñó los términos de Strong and Weak AI, una simulación de un sistema consciente es muy diferente de la real. En otras palabras, el hardware de la "máquina" importa, y las meras representaciones digitales de los mecanismos biológicos no tienen el poder de causar que suceda nada en el mundo real.

Consideremos otro fenómeno biológico, como la fotosíntesis. La fotosíntesis se refiere al proceso por el cual las plantas convierten la luz en energía. Este proceso requiere reacciones bioquímicas específicas solo viables dado un material que tiene propiedades moleculares y atómicas específicas. Una simulación informática perfecta -una emulación- de la fotosíntesis nunca podrá convertir la luz en energía sin importar cuán precisa sea, y no importa con qué tipo de hardware proporcione la computadora. Sin embargo, de hecho hay máquinas de fotosíntesis artificiales. Estas máquinas no simulan simplemente los mecanismos físicos subyacentes a la fotosíntesis en las plantas, sino que duplican las fuerzas bioquímicas y electroquímicas que utilizan células fotoelectroquímicas que dividen el agua fotocatalítica.

De manera similar, una simulación de agua no va a poseer la cualidad de "humedad", que es un producto de una formación molecular muy específica de átomos de hidrógeno y oxígeno unidos por enlaces electroquímicos. La liquidez surge como un estado físico que es cualitativamente diferente del expresado por cualquier molécula sola.

Incluso la nueva y ardiente teoría de la conciencia de la neurociencia, Integrated Information Theory, deja muy en claro que una simulación computacional de un cerebro perfectamente precisa no tendría consciencia como un cerebro real, así como una simulación de un agujero negro no causará su computadora y habitación implosionar Los neurocientíficos Giulio Tononi y Christof Koch, que establecieron la teoría, no tienen pelos en la lengua:

"IIT implica que las computadoras digitales, incluso si su comportamiento fuera funcionalmente equivalente al nuestro, e incluso si tuvieran que ejecutar simulaciones fieles del cerebro humano, experimentarían casi nada".

Con esto en mente, aún podemos especular acerca de si pueden existir máquinas no biológicas que respalden la conciencia, pero debemos darnos cuenta de que estas máquinas pueden necesitar duplicar los procesos electroquímicos esenciales (cualesquiera que sean) que están ocurriendo en el cerebro durante la conciencia estados. Si esto resulta posible sin materiales orgánicos, que tienen propiedades moleculares y atómicas únicas, presumiblemente requerirá más que máquinas de Turing, que son procesadores puramente sintácticos (manipuladores de símbolos) y simulaciones digitales, que pueden carecer de los mecanismos físicos necesarios.

El mejor enfoque para lograr IA fuerte requiere averiguar cómo funciona el cerebro primero, y el mayor error de los investigadores de la máquina de aprendizaje es pensar que pueden tomar un atajo alrededor de él. Como científicos y humanos, debemos ser optimistas sobre lo que podemos lograr. Al mismo tiempo, no debemos confiar demasiado en formas que nos guíen en direcciones equivocadas y nos impidan avanzar realmente.

El mito de la IA fuerte

Desde la década de 1960, los investigadores de AI afirman que Strong AI está a la vuelta de la esquina. Pero a pesar de los aumentos monumentales en la memoria de la computadora, la velocidad y el poder de procesamiento, no estamos más cerca que antes. Así que por ahora, al igual que las inteligentes películas de ciencia ficción del pasado que representan escenarios apocalípticos de inteligencia artificial, los robots verdaderamente inteligentes con experiencia consciente interna siguen siendo una fantasía fantasiosa.