David Chalmers y la Singularidad que probablemente no vengan

David Chalmers es un filósofo de la mente, mejor conocido por su argumento sobre la dificultad de lo que denominó el "problema difícil" de la conciencia, que normalmente discute a través de un experimento mental con zombis que actúan y hablan exactamente como los humanos, y aún así no tengo un pensamiento consciente (expliqué claramente lo que pienso sobre ese tipo de cosas en mi ensayo sobre "La Zombificación de la Filosofía").

Ayer tuve el placer de ver a Chalmers en acción en vivo en el Graduate Center de City University de Nueva York. No habló de zombis, sino de sus pensamientos sobre la llamada Singularidad, el supuesto momento en que la inteligencia artificial superará a la inteligencia humana, lo que provocará la desaparición del infierno o la siguiente etapa gloriosa en la evolución humana, dependiendo de si normalmente ve el vaso medio vacío o medio lleno. La charla me dejó claro cuál es el problema de Chalmers (además de su corte de cabello realmente malo): lee demasiada ciencia ficción y aparentemente no puede salirse de la necesaria suspensión de la incredulidad cuando regresa al mundo real. Dejame explicar.

El argumento de Chalmers (y otros defensores de la posibilidad de una Singularidad) comienza con la simple observación de que las máquinas han ganado poder de cómputo a un ritmo extraordinario en los últimos años, una tendencia que se puede extrapolar a una explosión de inteligencia en el futuro cercano. Lástima que, como cualquier estudiante de estadística 101 debería saber, la extrapolación es una forma realmente mala de hacer predicciones, a menos que uno pueda estar razonablemente seguro de comprender los fenómenos causales subyacentes (que no, en el caso de la inteligencia). (Hice una pregunta en este sentido a Chalmers en las preguntas y respuestas y negó haber utilizado la palabra extrapolación; consulté con varios colegas sobre el vino y el queso, y todos confirmaron que sí, varias veces).

Sea como fuere, Chalmers pasó a presentar su principal argumento para la Singularidad, que dice algo como esto:

1. Pronto habrá AI (es decir, Inteligencia Artificial)
2. Pronto habrá una transición de AI a AI +
3. Pronto habrá una transición de AI + a AI ++

Por lo tanto, habrá AI ++

Las tres premisas y la conclusión fueron seguidas por una declaración entre paréntesis en el sentido de que cada una contiene solo "ausentes descartadas", es decir, ausente cualquier cosa que pueda interferir con alguna de las anteriores.

Chalmers obviamente estaba muy orgulloso de su argumento, pero tuve la sensación de que pocas personas estaban impresionadas, y ciertamente no. En primer lugar, se negó sistemáticamente a definir qué significan realmente AI ++, AI + o incluso, para el caso, AI. Esto, en una charla filosófica, es un pecado bastante grave, porque el análisis filosófico no despega a menos que tengamos razonablemente claro de qué estamos hablando. De hecho, gran parte del análisis filosófico apunta a aclarar conceptos y sus relaciones. Habría sido presionado (y cada vez más frustrado) por encontrar cualquier análisis filosófico en la charla de Chalmers.

En segundo lugar, Chalmers no proporcionó una sola razón para ninguno de sus movimientos, simplemente indicando cada premisa y agregando que si la IA es posible, entonces no hay razón para creer que AI + (sea lo que sea) tampoco sea posible, de hecho posible, y pronto. Pero, amigo mío, si está haciendo un reclamo novedoso, la carga de la prueba recae en usted para argumentar que existen razones positivas para pensar que lo que está sugiriendo puede ser cierto, y no el resto de nosotros para demostrar que no lo es. . Cambiar la carga de la prueba es el truco más antiguo en la caja de herramientas retórica, y no uno que un filósofo que se precie debe implementar frente a sus compañeros (o en cualquier otro lugar, para el caso).

En tercer lugar, tenga en cuenta la cláusula de exención de responsabilidad entre paréntesis de que cualquiera de las premisas, así como la conclusión, en realidad no se mantendrán si un "derrotador" se interpone en el camino. Cuando se le preguntó durante la sesión de preguntas y respuestas a qué se refería con los derrotadores, Chalmers dijo casi todo lo que los humanos o la naturaleza podían decir sobre el desarrollo de la inteligencia artificial. Pero si ese es el caso, y si no se nos proporciona una clasificación y análisis de tales derrotadores, entonces todo el argumento equivale a "X es verdadero (a menos que algo demuestre que X no es verdad)". No es tan impresionante.

El otro elefante en la habitación, por supuesto, es el concepto mismo de "inteligencia", artificial o humano. Este es un concepto notoriamente difícil de desempaquetar, y aún más para medir cuantitativamente (lo que sería necesario para diferenciar entre AI y AI + o AI ++). Varias personas notaron este problema, incluyéndome a mí en la sesión de preguntas y respuestas, pero Chalmers hizo caso omiso al decir que su argumento no depende de la inteligencia humana, el poder computacional o la inteligencia en un sentido más amplio, sino solo en una cantidad no especificada "G". rápidamente se asoció con un conjunto no especificado de capacidades cognitivas a través de una función de mapeo matemático igualmente no especificado (agregando que "habría que hacer más trabajo" para dar cuerpo a esa noción, no es broma). De Verdad? Pero espere un minuto, si comenzamos toda esta discusión sobre la Singularidad usando un argumento basado en la extrapolación del poder computacional, ¿no debería nuestra discusión limitarse al poder computacional? (Lo cual, huelga decirlo, no es en absoluto lo mismo que la inteligencia.) Y si estamos hablando de IA, ¿qué diablos representa el "yo" allí, sino inteligencia, presumiblemente de tipo humano?

De hecho, el problema con el esfuerzo de IA en general es que tenemos poco progreso para demostrar después de décadas de intentos, probablemente por la muy buena razón de que la inteligencia humana no es algorítmica, al menos no en el mismo sentido en que lo son los programas informáticos. Ciertamente, no estoy invocando el misticismo o el dualismo, creo que la inteligencia (y la conciencia) son el resultado de la actividad de un sustrato cerebral físico, pero el hecho de que podemos construir máquinas con un grado de potencia de cálculo y velocidad tan grande excede los de la mente humana, y sin embargo no están cerca de ser "inteligentes", debería dejar bastante claro que el problema no es el poder o la velocidad de cálculo.

Después del despliegue del "argumento" altamente cuestionable antes mencionado, las cosas se volvieron extrañas en la charla de Chalmers. Rápidamente procedió a decirnos que A ++ sucederá por evolución simulada en un entorno virtual, creando una mezcla confusa y borrosa de diferentes nociones como la selección natural, la selección artificial, la evolución física y la evolución virtual.

Lo que naturalmente planteó la cuestión de cómo controlamos la Singularidad y evitamos que "ellos" nos empujen a la extinción. La solución preferida de Chalmers es evitar la "fuga" de AI ++ en nuestro mundo, o seleccionar valores morales durante el proceso evolutivo (virtual). Tonto, pensé que la forma más fácil de detener la amenaza de AI ++ sería simplemente desconectar las máquinas que ejecutan el supuesto mundo virtual y acabar con ellas. (Por cierto, ¿qué significa que exista una inteligencia virtual? ¿Cómo se "filtra" en nuestro mundo? ¿Como un holograma de Star Trek que se vuelve loco?)

Entonces el nivel de absurdo sin fundamento se intensificó aún más rápido: tal vez de hecho somos un ejemplo de inteligencia virtual, dijo Chalmers, y nuestro Creador puede estar preparándose para rechazarnos porque podemos estar a punto de filtrarnos en su mundo. . Pero si no, entonces podríamos pensar en cómo integrarnos en AI ++, lo que naturalmente podría hacerse "cargando" nuestra estructura neuronal (la recomendación de Chalmers es una neurona a la vez) en la inteligencia virtual. De nuevo, sea lo que sea podría significar.

Finalmente, Chalmers, evidentemente preocupado por su propia mortalidad (bueno, ¿quién no?), Expresó la esperanza de que A ++ tenga la tecnología (y el interés, supongo) de aplicar ingeniería inversa a su cerebro, quizás a partir de una colección de escaneos, libros y videos de él, y resucitarlo. Verá, él no cree que vivirá lo suficiente como para ver realmente la Singularidad. Y esa es la única parte de la charla en la que realmente estamos de acuerdo.

La razón por la que continué tanto tiempo sobre la abismal actuación de Chalmers es porque este es precisamente el tipo de cosas que le da mala reputación a la filosofía. Es agradable ver a los filósofos teniendo un serio interés en la ciencia y llevando las herramientas y perspectivas de su disciplina a la mesa principal de importantes debates sociales sobre el futuro de la tecnología. Pero el intento se convierte en una broma no muy graciosa cuando un filósofo bien conocido comienza desplegando un argumento realmente malo y termina sonando más cuco que los fans del trekkie en su convención anual. Ahora, si me disculpan, volveré al próximo episodio de Battlestar Galactica, donde pueden encontrar todas las ideas básicas discutidas por Chalmers presentadas de una manera mucho más entretenida que su charla.