Las computadoras carecen de juicio social

istock subsciption
Fuente: subscripción de istock

Un reciente accidente de defensa en el que un auto conductor de Google fue golpeado por un autobús mientras intentaba fusionarse frente a él, ha ensombrecido la industria automotriz autónoma. Como ejemplo de la desmoralización causada por el accidente, un ejecutivo de Google ha declarado que pueden pasar tres décadas para resolver el problema descubierto por este retroceso. El problema es que la computadora del automóvil predijo que el autobús se detendría para dejar que el automóvil de fusión se pusiera delante de él, pero el conductor del autobús no se comportó como se había predicho. Google asumió la responsabilidad del accidente, al tiempo que afirmaba que el conductor humano contribuyó al accidente al decir (con mis palabras) que era descortés. (Para ver una cuenta del accidente de Google y sus consecuencias, consulte este enlace: theverge.com).

Al hablar de esta historia con un entusiasta automovilístico autodirigido recientemente, dijo que el verdadero problema es la reacción del público. Señaló el hecho de que los fender dobladores en automóviles operados por humanos ocurren con mucha frecuencia, sin generar mucha preocupación, y que el objetivo de un auto completamente autónomo está más cerca de la realidad de lo que la mayoría de la gente cree. El problema de relaciones públicas obviamente es un problema, aunque lo veo muy ligado a la quimera de alcanzar la perfección en la búsqueda de la prevención de accidentes. En una reciente encuesta AAA, el 75% de los conductores indicaron que serían extremadamente reacios a entregar el control total de su manejo a su automóvil. Es probable que la cantidad de escépticos disminuya sustancialmente si se demuestra que los autos que conducen son absolutamente seguros. Unos pocos accidentes fatales o casi fatales podrían, en mi opinión, llevar la iniciativa del automóvil autónomo a un estante durante mucho tiempo, tal vez para siempre. ¿Alguien más que un visionario del software realmente cree que tal perfección de la seguridad es alguna vez alcanzable, o que la aceptación pública generalizada en ausencia de una perfección cercana es siempre probable? A riesgo de ponerme en la misma categoría que los escépticos que se rieron de la demostración de éter o de cualquier cantidad de otras innovaciones, mi respuesta a los empresarios conductores autónomos es "soñar despierto".

Aquellos que creen que los autos que se conducen por sí mismos están cerca de un punto de referencia respecto al automóvil totalmente eléctrico del modelo S de Tesla, que tiene un modo de conducción automática ("piloto automático") que el conductor puede activar. De acuerdo con mi amigo uno puede conducir hoy cientos de millas en la interestatal en un Tesla autodirigido mientras hace cosas que distraen, como leer un periódico. Encontrando eso sorprendente, revisé la afirmación y descubrí que era un poco exagerada. Según el fundador y CEO de Tesla, Elon Musk, la opción de autodirección (que describió como una versión Beta imperfecta) siempre debe usarse con las manos en la rueda, lo que sin duda descartaría leer un periódico. Musk reconoció un par de incidentes casi catastróficos recientemente, pero culpó a los conductores que ignoraron esta advertencia, quitando sus manos del volante. Estos incidentes involucraron principalmente lo que podría denominarse errores no sociales (es decir, lectura de terreno), pero casi todas las decisiones de conducción, especialmente cuando otros automóviles son parte del terreno, hacen que el operador tenga una cierta demanda de juicio social, ya sea que el operador sea humano o una computadora. (Para una cuenta de algunos Tesla-S cerca de fallas, vea technologyreview.com).

El soporte para la afirmación de que uno puede conducir hoy cientos de millas en el piloto automático de Tesla se puede encontrar en un viaje a campo traviesa muy publicitado tomado en un Tesla-S que hizo el viaje en un tiempo récord. Sin embargo, lo que no se sabe en general es que hubo tres incidentes durante el viaje, en los que se evitó por completo un accidente grave. En uno de estos incidentes, el automóvil entró en una curva a 90 millas por hora (muy por encima del límite de velocidad) y el automóvil habría perdido el control si el humano no hubiera tomado el control rápidamente. El problema parecía ser que el algoritmo de la computadora del automóvil pedía que siguiera el marcador de carril o de línea central a una distancia estándar, pero los conductores experimentados saben que uno debe corregir la velocidad alta (además de desacelerar) tomando una curva más cercana que habitual en el vértice de la carretera, con el fin de reducir el grado de giro de las ruedas necesario para negociar la curva de forma segura. La conclusión aquí parece ser que el automóvil aún no puede operar de forma segura de manera autónoma a alta velocidad. Otro accidente cercano ocurrió cuando el automóvil se confundió por la acción de otro automóvil y cruzó la línea media de la carretera, dirigiendo el Tesla-S hacia el tráfico que se aproximaba y lo que podría haber sido una colisión frontal fatal.

Curiosamente, aunque Google culpó en parte al conductor del autobús por su accidente, Tesla culpó por completo a sus clientes de tales incidentes, advirtiendo a los propietarios que, en caso de accidente en modo piloto automático, la responsabilidad financiera recaería exclusivamente en el conductor. A lo que le digo "mucha suerte, Elon, diciéndole eso a un juez cuando un cliente gravemente herido o la familia del dueño muerto lo demandan". De hecho, algunos comentaristas han desafiado a Tesla por motivos éticos y legales para poner a su disposición un piloto automático imperfecto cuando es previsible que muchos propietarios supongan erróneamente que es un vehículo totalmente operativo y, por lo tanto, totalmente seguro y que circula solo. ¿Los motivos de Tesla para lanzarse a la producción son un producto claramente no preparado? Lo más probable es ego (lo que apoya la afirmación de Musk de que él está por delante de Google y otros competidores en la carrera de IA) y, por supuesto, monetario (hacer que la gente compre los productos bastante caros de la compañía).

Si bien parece que las situaciones no sociales (como las líneas centrales o las rampas ambiguas, confusas o mal diseñadas) siguen siendo una tuerca muy dura para la industria automovilística autoconductora, creo que el principal impedimento para su eventual éxito radica en en el dominio social. Como se ilustra en el accidente del autobús, las decisiones de un auto sin conductor se basan en parte en las predicciones sobre lo que probablemente hará el conductor de otro automóvil, pero si sabemos algo sobre el comportamiento humano es que no es totalmente predecible, racional o cortés (como prueba de eso, solo hay que mirar los acontecimientos políticos recientes en el Medio Oriente o, para el caso, en los Estados Unidos). Además, los conductores que comparten la carretera con un vehículo autónomo pueden tener problemas de visión, estar en un estado de deterioro, falta de atención o agitación, o falta de competencia en la conducción, lo que puede hacer que realicen movimientos repentinos y peligrosos que ninguna computadora aparte de quizás la más grande del mundo la súper computadora alguna vez podrá adaptarse lo suficientemente rápido. El hecho es que un conductor experimentado y competente siempre está "leyendo" el comportamiento y las intenciones de otros conductores, y haciendo respuestas de fracción de segundo, basadas no en probabilidades sino en inferencias y percepciones en tiempo real.

La ilustración para la base del juicio social para muchos accidentes se puede encontrar en la experiencia de los adolescentes conductores principiantes, cuyos padres pagan primas de seguro muy altas por una razón. Mi señora cortadora de pelo me contó recientemente la historia de su hijo de 18 años, quien tuvo dos (afortunadamente) accidentes menores dentro de los primeros cinco días después de obtener su licencia. Ninguno de ellos era técnicamente su culpa, pero el hecho es que ninguno de los dos habría tenido un año o dos más. En uno de los accidentes, el joven conducía cuando un automóvil ingresó a la carretera desde un camino de entrada a la derecha y se estrelló contra la puerta del lado del pasajero del conductor neófito. La explicación del joven es que se estaba concentrando en el camino a seguir y no consideró la posibilidad de que tal cosa sucediera. Casi con certeza, había señales sutiles, como el otro automóvil avanzando lentamente hacia la carretera y mirando como si pudiera salir. También es probable que él mismo haya contribuido inconscientemente al problema, como al parecer indicar que el otro automóvil podría proceder. Un conductor experimentado y cuidadoso está en sintonía con tales señales sutiles (esencialmente sociales), y es consciente de la necesidad de participar en un flujo continuo de cálculos de evaluación de riesgos. Un conductor inexperto, como este joven, es profundamente egocéntrico, ya que solo considera su propio punto de vista cuando conduce, y también cuando hace mucho más. En mi opinión, no tengo claro cómo un automóvil impulsado por computadora sería mejor que un conductor neófito al leer y emitir señales sociales tan sutiles.

Los ingenieros de software son buenos para resolver problemas físicos, pero aún no han resuelto, o incluso prestado mucha atención a, problemas de juicio social. La conciencia de esta realidad vino a mí hace unos años en una conferencia anual en Colorado que aborda la aplicación de tecnología a personas con discapacidades cognitivas. Todas las presentaciones eruditas trataban sobre la aplicación de software y hardware a problemas físicos, como problemas de movilidad. Cuando llegó mi turno para hablar, hablé de una película que el público acababa de ver sobre un hombre con discapacidad intelectual que estaba siendo apoyado por sus amables vecinos que le permitieron continuar viviendo en su edificio de apartamentos en Nueva York. Cada uno de los desafíos que ponían en peligro la continuación de su vida en el edificio era social, como su extrema credulidad (mi interés especial) reflejada en cosas como la clave de su apartamento para la gente de la calle (que aterrorizaba a los vecinos, robaba cosas y dañó el edificio de varias maneras). Cuando desafié a las autoridades informáticas (algunas legendarias) que se reunieron en la conferencia para decir cómo la tecnología podía resolver tales conductas basadas en el juicio social (y la soledad), la respuesta fue de silencio.

El movimiento autodirigido es interesante no solo como un fenómeno automotriz, sino como una ilustración de los desarrollos en el campo de la inteligencia artificial (IA). Google es un ejemplo de una empresa extremadamente optimista sobre la capacidad de sus científicos informáticos, que utilizan avances cada vez mayores en la miniaturización de chips, para mejorar el funcionamiento humano a través de la inteligencia artificial. Tal vez el principal ejemplo de tal actitud sea Raymond Kurzweil, un genio inventor de muchos dispositivos informáticos autodenominados (y alguien considerado un Thomas Edison moderno), que ahora trabaja a tiempo completo como futurólogo residente de Google. Kurzweil ha escrito varios libros y dado muchas charlas exaltando su visión optimista del futuro del "transhumanismo" (el uso de tecnologías cada vez más sofisticadas para mejorar la inteligencia humana) y la "singularidad" (el uso de la tecnología para cambiar la biología humana, como la curación enfermedad y extender la vida humana). El punto central de estos conceptos es la creencia, un tanto controvertida, de Kurzweil de que la esencia de la inteligencia es el reconocimiento de patrones (algo en lo que las computadoras son buenas) y que los informáticos finalmente podrán construir una versión mejorada del cerebro humano. La conducción competente de automóviles, que depende en gran medida del reconocimiento de patrones, parecería ser una extensión obvia del concepto de inteligencia artificial. Un problema con los genios geniales (como Kurzweil) y las grandes compañías (como Google) es que a menudo tienen dificultades para saber cuándo han asumido un "problema demasiado grande". Mi propia creencia es que la creación de un auto sin conductor capaz de reconocer y responder con éxito a los cientos de desafíos de juicio social y físico involucrados en pasar del punto A al punto B de manera segura será un problema que no se puede resolver en la vida de Kurzweil, incluso si tiene éxito en alterar su bioquímica (toma 150 [desde un máximo de 200] pastillas por día) y vive por otros cien años.

Copyright Stephen Greenspan