Cómo ganar un Torneo de Turing

Un artículo en el Daily Telegraph de hoy hace más o menos lo mismo acerca de las computadoras que necesitan poder adquirir habilidades mentalistas, y la comprensión completa del habla en particular, que hice en una publicación reciente. Pero si las computadoras pudieran diseñarse para ser lo suficientemente mentalistas como para entender el habla de los usuarios e interpretar sus intenciones, entonces parece haber pocas razones para que no se vuelvan lo suficientemente mentalistas como para leer libros y, quizás más importante, para comenzar a entenderlos. .

Wikimedia commons
Fuente: Wikimedia Commons

Los avances en la capacidad de lectura de máquina que estamos imaginando sería el equivalente automatizado de la llamada hiperlexia . Esto es lo opuesto a la dislexia y describe la capacidad precoz de leer, a menudo sin mucha comprensión del significado de un texto, y a menudo se encuentra junto con ASD. El fallecido Kim Peek (izquierda) era hiperléxico en un grado extremo y se había enseñado a leer a los 16 meses. De hecho, las pruebas revelaron que podía leer las páginas de la mano izquierda y derecha de un libro abierto con los ojos izquierdo y derecho simultáneamente y con un 98% de comprensión en 8 a 10 segundos. Gracias a sus asombrosas habilidades, pudo leer la novela de Tom Clancy, The Hunt for Red October , en una hora y 25 minutos, y aún pudo hacer citas textuales en respuesta a preguntas específicas de detalles reales cuatro meses después.

Sin embargo, a pesar de tener esta asombrosa capacidad de reproducir text text textualmente, Peek encontró muy difícil contar el contenido de lo que había leído en sus propias palabras, y de una manera típica de la hiperlexia, mostró déficits severos donde la comprensión , en lugar de simplemente repetir, lo que había leído estaba preocupado. Y aquí, nuevamente, se encuentra un paralelismo deslumbrante en las computadoras que en la actualidad también son hiperléxicas en el sentido de que pueden volver a leer el texto, ¡aunque sin comprender su significado en absoluto!

La dificultad básica para el diseño de la computadora en relación con la ingeniería de la capacidad de una máquina para leer y comprender un libro está estrechamente relacionada con la de la capacidad de ingeniería para comprender el habla de una persona. Ambos se basan en la capacidad del lenguaje, pero más particularmente en la capacidad de comprender la terminología mentalista y apreciar estados mentales como la creencia, el conocimiento y la intención. Sin embargo, una vez que dicha terminología se hizo accesible para una computadora a través de la ingeniería de una interfaz de usuario mentalista como se sugirió en la publicación anterior, también lo haría el gran depósito de conocimiento humano codificado en los libros del mundo. El verdadero problema es la cantidad considerable de conocimiento de sentido común que también se requiere para interpretar lo que lee: no solo lo que significan las palabras en el diccionario, sino lo que significan en su contexto social, cultural y psicológico.

Al igual que las personas autistas, también se puede esperar que las computadoras tengan déficits mentalistas en lo que se refiere a la comprensión, y en ningún otro lugar más que en relación con otro aspecto fundamental del mentalismo donde se encuentran déficits en el autismo: la apreciación del humor. Después de una conferencia que dio, un miembro de la audiencia le hizo una pregunta a Kim Peek sobre el discurso de Abraham Lincoln en Gettysburg, al cual Peek respondió; "La casa de Will, 227 North West Front Street. Pero se quedó allí solo una noche; pronunció el discurso al día siguiente ". La risa que saludó este comentario sorprendió a Peek al principio, pero después de haber visto la broma él mismo, luego volvió a hacer un ciclo del comentario por su efecto cómico.

Al preguntarle a una computadora inteligente acerca de la dirección de Gettysburg de Lincoln, podría comprender fácilmente cómo el sistema podría cometer exactamente el mismo error. Pero dado que es muy probable que ocurran malentendidos como este, los ingenieros de software se enfrentarán al problema de cómo manejar tales fallas en la comunicación entre el usuario y la máquina, y aquí una solución obvia sería imitar la naturaleza y darle a la máquina un capacidad para reírse de sus propios errores (por no mencionar que los chistes de sus usuarios son divertidos). Como requisito mínimo, una interfaz mentalista competente debería ser capaz de apreciar la ironía (otro déficit importante en autismo), y un sistema realmente inteligente tendría que ser capaz de comprender el humor en todas sus formas si intentara comprender. sus usuarios humanos.

Y en cualquier caso, la hilaridad involuntaria es tan probable que sea producida por las computadoras parlantes como por los niños pequeños. Los ingenieros que pretenden hacer que sus interfaces de usuario mentalistas parezcan más maduros en este aspecto seguramente se basarán en los desarrollos que ya están teniendo lugar para desarrollar la capacidad del sistema de manejar el humor, y esto exigiría no simplemente evitar los solecismos infantiles y el irrisorio doble Entenders , pero la apreciación de los chistes reales, y tal vez incluso la capacidad de decirles. De hecho, incluso podría imaginarse que el sentido del humor del sistema es un parámetro definido por el usuario: ¡con configuraciones que van desde lo salvajemente loco hasta lo escuetamente teutónico!

Limitaciones comparables con respecto a la capacidad de las computadoras para manejar el conocimiento contextual y de sentido común significa que actualmente las pruebas de Turing diseñadas para ver si las respuestas de una computadora a preguntas pueden distinguirse de las de una persona no pueden ser completamente abiertas con respecto al tema de discusión. A las máquinas les ha ido bastante bien con el vino, la política y la religión como temas de conversación (presumiblemente porque estos son temas sobre los que se puede hablar completamente de tonterías y aún así tomarse en serio). De hecho, un programa incluso pasó una prueba de Turing hasta el punto de convencer a cinco de cada diez jueces de que era un psicoterapeuta humano (¡hay algo que podría decir tanto sobre psicoterapia como sobre la inteligencia de una máquina)!

Sin embargo, si las computadoras pudieran acceder y adquirir cualquier conocimiento sobre cualquier tema con la misma facilidad que cualquier ser humano, no habría necesidad de restringir los temas de conversación en la prueba, y presumiblemente ninguna forma en que una persona pueda usar su conocimiento peculiarmente humano para juzgar si el sistema con el que estaban interactuando se estaba ejecutando en una máquina o no. Por el contrario, si la alfabetización de la computadora fuera de un orden superior al del juez humano, la máquina podría tener la ventaja.

Pero, por supuesto, la máquina aún podría fallar, tal vez porque parecía saber demasiado, o aún parecía algo "autista" en comparación con el ser humano promedio. Sin embargo, incluso si tales sistemas aún no pueden pasar para personas completamente normales, fácilmente podrían convertirse en los equivalentes de máquina de sabios autistas como Kim Peek. Su experiencia era principalmente un conocimiento enciclopédico de cientos de libros, y presumiblemente una computadora programada mentalmente que podría lograr leer una cantidad equivalente podría lograr hazañas comparables y presentarse como un tipo similar de sabio. De hecho, estas consideraciones sugieren una táctica obvia para los programadores que intentan escribir un software ganador de la prueba de Turing: expliquen tanto las fortalezas y debilidades del estilo cognitivo de su sistema haciéndolo pasar por un sabio autista.

(Extraído y condensado de mi próximo libro, La mente diametral: ideas sobre la inteligencia artificial, el coeficiente de inteligencia, la sociedad y la conciencia: una secuela de The Imprinted Brain ).