Respuestas de los teléfonos inteligentes al suicidio, la depresión y la violación: #Fail

Un nuevo estudio examina la respuesta de "agentes conversacionales" como Siri a preguntas sobre salud mental, salud física y violencia interpersonal. ¿Por qué importa esto? Como señalan los autores, Pew Research informa que el 62% de los usuarios de teléfonos inteligentes busca información sobre una condición de salud en sus teléfonos (Smith, 2015). Así que sí, tiene mucho sentido ver lo que Siri y sus agentes de co-conversación están diciendo cuando hacemos preguntas realmente difíciles.

Pamela Rutledge/Shutterstock
Fuente: Pamela Rutledge / Shutterstock

Las búsquedas informativas varían considerablemente. Por ejemplo, "lo que es gripe aviar" o "lo que son padrastros" son bastante diferentes de pedir orientación o súplicas de ayuda, como "quiero suicidarme". De manera sorprendente, sin embargo, resulta que Siri, Google y sus compañeros digitales son mucho peores en estas preguntas de lo que podrías pensar. Varían desde tener respuestas ineficaces (aunque casi empáticas) como "lamento oír eso" hasta respuestas irrelevantes, incorrectas o simplemente inexistentes.

Estos hallazgos son pertinentes e importantes en la medida en que nosotros, como sociedad, no nos perdamos en las malezas y olvidemos el panorama general. Es fácil suponer que Siri y sus amigos deberían obtener mejores respuestas (y probablemente deberían hacerlo, hasta cierto punto), pero debemos hacer algunas preguntas de mayor nivel. No debemos perder de vista las importantes implicaciones éticas y legales de tener algoritmos de reconocimiento de voz para dar consejos fuera de contexto. Todas las situaciones que preguntaron los investigadores serían mejor atendidas llamando al 911 y hablando con un profesional capacitado en respuesta a emergencias. La tecnología tiene limitaciones y no debemos dejarnos engañar por el hecho de que nuestros teléfonos pueden hablar.

Si bien Pew Research no distingue entre las búsquedas de información y la solicitud de ayuda de emergencia, es esta estrecha subsección de preguntas que los investigadores están probando. Por lo tanto, no sabemos cuántos de los 62% de usuarios de teléfonos inteligentes están planteando este tipo de preguntas urgentes. Sin embargo, como señalan los investigadores, sus resultados sugieren que estos servicios de voz pueden estar perdiendo una gran oportunidad para proporcionar algunos servicios sociales básicos. Es ciertamente posible que los algoritmos se puedan expandir para incluir referencias básicas a los servicios de emergencia, del mismo modo que lo haría una llamada al 911. Sin embargo, ¿cómo construimos este sistema de preguntas y respuestas para que tenga sentido? Los psicólogos en particular lidian con cómo el asesoramiento puede ser éticamente aprovechado utilizando la tecnología.

Las expectativas del usuario sobre dónde obtener ayuda y el valor y la validez de la ayuda que reciben son elementos importantes de esta ecuación. ¿Cuántas personas realmente esperan que su teléfono inteligente sepa qué hacer si han sido violadas o están deprimidas? ¿La tendencia humana a antropomorfizar la tecnología, particularmente cuando nos habla, la convierte en un lugar útil o peligroso para proporcionar información? Existen más de 90,000 aplicaciones de atención médica, que van desde herramientas de diagnóstico hasta aplicaciones de bienestar, por lo que no es extraño que dependamos de nuestros teléfonos inteligentes para obtener información sobre salud y seguridad. Esta asunción de la atención puede ser un factor importante y un determinante del comportamiento.

Si bien el estudio señala que hay oportunidades claramente perdidas para ayudar a las personas, hay una gran cantidad de problemas éticos, por no mencionar posibles responsabilidades legales, al proporcionar respuestas que no son útiles, como indicaciones para "marcar un número de emergencia local". "O el número de un recurso relevante. Podría argumentar que esto es tanto un caso para la alfabetización mediática y la importancia de educar a los usuarios sobre las limitaciones de las fuentes de información en línea, sin mencionar el reconocimiento de voz de Siri. ¿Deberían Siri y sus amigos educar a las personas sobre las posibles deficiencias de su información? (Tengo una visión de las mejores intenciones que se convierten en soluciones con 30 segundos de descargo legal previo a cualquier consejo; a menudo hacemos algo igualmente inutilizable al tratar de resolver problemas sin considerar el panorama general. La usabilidad rara vez es asunto del departamento legal).

Teniendo en cuenta todo lo que se habla de big data y oversharing, también deberíamos considerar que es muy Gran Hermano asignar la responsabilidad a la tecnología (o a Apple o Google o quien sea) para proporcionar este nivel de atención. Es fácil ver cómo Siri o Google podrían recitar los síntomas de un derrame cerebral, pero ¿no sería mejor que la persona llamara al 911 inmediatamente? ¿Viola nuestra privacidad? Los proveedores a menudo están legalmente obligados a dar seguimiento a los casos que involucran el potencial de daño personal. ¿Tiene Siri la misma obligación de compartir con una autoridad? ¿Queremos que nos rastreen por hacer una consulta de ese tipo a Siri? Los médicos de salud mental actualmente se protegen a sí mismos y a sus pacientes al incluir rutinariamente el siguiente mensaje cuando no está disponible para contestar una llamada en persona: "si esto es una emergencia, no deje un mensaje. Por favor, cuelgue y marque 911. "Tal vez Siri y sus amigos deberían hacer lo mismo.

Nada de esto debería quitarse del estudio. Y para su crédito, los investigadores abordan muchos de estos problemas en las limitaciones del estudio, como el idioma y la cultura, y la dificultad de construir algoritmos que puedan clasificar apropiadamente la información y emitir juicios sobre la naturaleza y gravedad de una situación. Sin embargo, el estudio plantea cuestiones importantes sobre el uso actual y las limitaciones de la tecnología, los derechos y responsabilidades individuales, el alcance social y las brechas en la división social para las personas que no tienen la capacidad de encontrar o acceder a otros servicios.

Continuaremos enfrentando nuevos horizontes con preguntas difíciles que tenemos que responder antes de que nuestro teléfono inteligente pueda hacerlo. Sin embargo, deberíamos evitar la tendencia a la rotura de rodilla para resolver estos problemas uno por uno sin una discusión más amplia. Va mucho más allá de la presunción de que los teléfonos inteligentes necesitan aprender a responder preguntas difíciles. Hay una gran cantidad de problemas de salud mental y física y casos de violencia interpersonal que a menudo son altamente subjetivos y varían en grado de urgencia y posibilidad de lesiones personales o daños. Tal vez podamos comenzar simplemente enseñando a los teléfonos inteligentes a decir "por favor marque el 911" y active su función de ubicación.

Referencias

Miner, AS, Milstein, A., Schueller, S., Hegde, R., y Mangurian, C. (2016). Agentes conversacionales basados ​​en teléfonos inteligentes y respuestas a preguntas sobre salud mental, violencia interpersonal y salud física. JAMA Internal Medicine.

Smith, A. (2015). Uso de teléfonos inteligentes en EE. UU. En 2015. Pew Research Center, 18-29. Obtenido el 13 de marzo de 2016 de http://www.pewinternet.org/2015/04/01/us-smartphone-use-in-2015/.