Big Data cumple con la salud del comportamiento

Dr. Big Brother, diagnosticarle le gusta o no.

Pixabay

Fuente: Pixabay

¿A quién pertenece la información que genera, a medida que participa en línea y electrónicamente? ¿Qué pasa con la información que se crea ACERCA DE TI? ¿Tiene alguna posibilidad de ver esa información, y mucho menos eliminarla o controlarla? Para muchos, esta parece ser una de las batallas sociales y legales de mayor alcance de los tiempos modernos. Ahora, estos datos están llegando a un lugar que ha tenido la mayor confidencialidad y protección de la privacidad: su salud mental.

Cuando Facebook reveló que Cambridge Analytica, y una serie de otros grupos, habían obtenido acceso a los datos sobre millones de usuarios de Facebook, comenzamos a tener un alcance de la amplitud de este tema. Utilizando datos generados de y sobre personas individuales, estas empresas pudieron dirigir anuncios dirigidos y compromisos electrónicos, con la intención de afectar la forma en que las personas votan, compran y gastan.

BJ Fogg es psicólogo de la Universidad de Stanford, quien creó el Stanford Persuasive Technology Lab, donde los investigadores desarrollan técnicas para “cambiar a los humanos” y “cambiar lo que la gente piensa y lo que hace la gente …” Su trabajo ha influido en muchos en Silicon Valley, y esfuerzos modernos para utilizar la tecnología de maneras más sofisticadas para afectar el comportamiento, incluida la salud. Estos esfuerzos conducen a software y dispositivos que son mejores para exigir y controlar la atención y el tiempo de las personas. Al mantener a la gente pegada a las pantallas y dispositivos, utilizando con mayor frecuencia el software y las plataformas de redes sociales, los anuncios colocados en estas plataformas obtienen una mayor exposición y generan más ingresos.

Dopamine Labs es otro grupo que usa el “pirateo cerebral” para aumentar el compromiso de los usuarios y “darles a tus usuarios los estallidos perfectos de dopamina … Un estallido de dopamina no solo se siente bien: se ha comprobado que reconecta el comportamiento y los hábitos del usuario”. (En realidad, no es así como funciona la dopamina, pero a todos les gusta usar dopamina para que suene inteligente …)

Pixabay

Fuente: Pixabay

Los documentos filtrados de Facebook mostraron que la compañía pudo identificar y responder cuando los usuarios, especialmente los adolescentes, se sentían inseguros, inútiles, estresados, ansiosos o abrumados. En 2014, Facebook enfrentó críticas cuando realizó un experimento con usuarios para probar e inspirar los efectos que podría generar a través del “contagio emocional” y la alteración de las señales emocionales que recibían los usuarios.

Sin embargo, ¿no es todo malo? Después de todo, Facebook ahora usa un sistema de inteligencia artificial para detectar e identificar a los usuarios que pueden ser suicidas. Si se detecta, un moderador de Facebook puede contactar a una persona que está haciendo declaraciones suicidas, o recibir información sobre recursos locales o personal de primera respuesta (policía o rescate de bomberos). En algunos casos, los miembros del equipo de seguridad de Facebook incluso se están comunicando con el personal de primera respuesta y el 911 donde se encuentra el usuario de Facebook, e informándoles del riesgo de suicidio que han detectado. En esos casos, los primeros respondedores pueden hacer un “chequeo de persona sana” y visitar a la persona identificada. Esta es una herramienta común utilizada por los profesionales de la salud mental cuando se dan cuenta del riesgo en un paciente. Tenga en cuenta que los usuarios de Facebook actualmente no pueden optar por este proceso y no han consentido que se controle su salud mental y el riesgo de suicidio. Como clínico autorizado, cuando me reúno con un paciente, tengo que explicar, de antemano, que si considero que son un peligro para sí mismo o para los demás, tengo el mandato de informarlos. Enterrado en los nuevos términos de servicio de Facebook es una nota que utilizan sus datos para “detectar cuando alguien necesita ayuda”, aunque la información detallada que Facebook vincula a esa divulgación no deja claro que Facebook puede contactar a los que responden a emergencias en su nombre .

Mindstrong Health, otra startup de Palo Alto, tiene una plataforma que monitorea el uso de teléfonos inteligentes de las personas para detectar síntomas de depresión. Fue cofundada por el Dr. Thomas Insel, un ex director del Instituto Nacional de Salud Mental. La compañía también está participando en investigaciones que analizan los signos electrónicos del trauma.

Todos estos son problemas que involucran datos generados por el usuario, donde se analizan los comportamientos de la persona real. Pero, ¿qué hay de los datos sobre usted y su salud mental? Esa información está ahí también. Ha sido objeto de numerosas infracciones de datos, en el VA, de organizaciones de atención administrada y proveedores de atención médica. Los datos sobre usted, sus diagnósticos de salud mental y los tratamientos que ha recibido, incluidos los medicamentos, están disponibles para el acaparamiento.

Pixabay

Fuente: Pixabay

Otros grupos también están recopilando y compartiendo información sobre usted y sus necesidades de salud conductual. Tres son varios nuevos programas y proyectos electrónicos que tienen plataformas para que los que responden ante emergencias y las fuerzas del orden publiquen bases de datos sobre ciudadanos con problemas o necesidades de salud del comportamiento, para que los respondedores tengan acceso cuando interactúen con esas personas. RideAlong, un proyecto interesante basado en Seattle, ha considerado cuidadosamente a qué personal de aplicación de la ley puede acceder o alterar la información que guardan en su sistema, y ​​decidió que la información sobre diagnósticos, por ejemplo, no debería identificarse. Pero, hasta el momento, no existen disposiciones en virtud de las cuales una persona pueda conocer o enmendar cualquier información sobre ellos almacenada en este sistema. Escuché a personas de esta compañía presentes, y aunque se toman en serio la confidencialidad, también quieren brindar a las fuerzas del orden público una herramienta para compartir información: sobre usted.

Collective Medical Technologies es una compañía de Oregon con una plataforma similar, que crea, rastrea y comparte una base de datos de información sólida sobre las personas que acuden a las salas de emergencia de los hospitales. A la base de datos solo pueden acceder los proveedores de atención médica y los proveedores de atención médica administrada, pero contiene registros de por qué los individuos van a la sala de emergencias, qué tratamiento recibieron y técnicas que fueron útiles para reducirlos si estaban agitados. Un proveedor de salud del comportamiento como yo (Fair disclosure, I, y la organización que dirijo, ahora soy un proveedor de atención médica participante en este proyecto) incluso puede recibir una notificación si uno de mis pacientes aparece en la sala de emergencias, para que yo pueda para llegar y participar en su tratamiento. Nuevamente, dado que esta información se genera sobre personas, no sobre la persona, y está siendo compartida por entidades sujetas a leyes de confidencialidad, las personas individuales no tienen que dar su consentimiento, y ni siquiera pueden saber que ellos o sus datos están en este sistema.

Los datos sobre su historial de diagnósticos y tratamientos de salud conductual se utilizan para orientar las decisiones tomadas sobre usted por las fuerzas del orden público, empresas de tecnología, compañías de seguros de atención administrada, estados y gobiernos, y muchos otros grupos que tienen acceso a esa información. Ese historial puede ayudarlo a obtener más acceso a la asistencia, pero también se puede usar para limitar sus opciones y opciones. Dr. Big Brother, diagnosticarle le gusta o no.

Pixabay

Fuente: Pixabay

Como proveedor de salud del comportamiento involucrado en las políticas a nivel estatal y nacional, he visto este aumento reciente en la minería de datos y el análisis llegando al mundo de la salud del comportamiento. Estoy en conflicto sobre todo esto, para ser completamente honesto. Definitivamente puedo ver muchos lugares donde esta información puede salvar vidas, prevenir tragedias y ayudar a las personas a obtener ayuda. Pero, siempre me acuerdo de la ciencia ficción distópica donde los sistemas de inteligencia artificial o estatal detectan signos de infelicidad y hacen esfuerzos para cambiar o alterar a esas personas y sus sentimientos. ¿Tenemos derecho a ser infelices? Si artistas y genios famosos como Van Gogh, Robin Williams, Anthony Bourdain, todos los individuos con historias de necesidades conocidas de salud conductual, hubieran sido detectados y recibieran tratamiento, es posible que no hayan muerto y continúen produciendo un trabajo increíble. Pero, ¿qué derecho tendrían, para hacer una elección para estar mentalmente enfermos y quedarse solos?

Se están recopilando y analizando datos sobre su salud conductual, mental y emocional. Se usarán conjuntos de datos grandes como este. Esta información no se recopila solo para que pueda sentarse allí. Cómo se usará, y con permiso de quién, es parte de una gran pregunta aterradora que, en este momento, no somos parte de la respuesta.