¿Puede AI reducir la violencia de los estudiantes que disparan en la escuela?

Los humanos solos pueden ser incapaces de resolver un problema que los humanos crean.

El problema con la alerta temprana

Según un estudio del Servicio Secreto de tiradores escolares, que examinó 37 ataques de 41 atacantes desde 1974, el 75% de los tiradores escolares informaron a alguien -normalmente un compañero- de sus planes por adelantado, y con frecuencia el personal escolar también conocía las señales de advertencia exhibidas por estudiantes que eventualmente se convirtieron en tiradores de escuelas. La socióloga de Princeton Katherine Newman, que ha estudiado los tiroteos escolares en profundidad, dijo: “Ellos [los tiradores escolares] nunca explotan espontáneamente; generalmente dejan pistas con muchos meses de anticipación “.

Y sin embargo, en la mayoría de los casos, de acuerdo con el Servicio Secreto, nadie informó tales “banderas rojas” de antemano a las autoridades.

Por qué la IA podría ayudar

Aunque las razones por las que las personas no advierten a las autoridades varían; de la presión de grupo (los soplones no son buenos), de la abundancia de “falsas alarmas” (muchos niños se desahogan), de sesgos cognitivos como el efecto de la normalidad (no planificamos ni reaccionamos a problemas que nunca nos han sucedido) , a la indefensión aprendida (los burócratas no harán nada de todos modos), todas las personas que guardan los signos de peligro tienen un atributo en común: son humanos.

Y los humanos están, y siempre estarán, sujetos a presiones sociales, prejuicios cognitivos, creencias y otras fuerzas que los harán reacios a presentar preocupaciones precisas sobre posibles tiradores escolares en el futuro previsible. Además, incluso si se presentara más gente, las autoridades probablemente se sentirían abrumadas con falsas alarmas y, por lo tanto, reaccionarían con lentitud ante las amenazas genuinas. Finalmente, incluso los compañeros o maestros de los estudiantes que escuchan advertencias avanzadas de un ataque a menudo no tienen conocimiento de todos los factores que predicen la letalidad, como el acceso inmediato a armas de fuego, que los ayudaría a diferenciar las amenazas genuinas de las falsas alarmas.

Así que aquí hay una idea radical: apliquemos la Inteligencia Artificial (AI) junto con los avances recientes en la protección de la privacidad digital, para que las computadoras, no los seres humanos, generen señales de advertencia temprana de los tiroteos en las escuelas.

Las computadoras que ejecutan algoritmos de IA no están sujetas a presiones sociales y pueden acceder a mucha más información sobre los posibles tiradores, como el acceso a los antebrazos, que los compañeros o los profesores. Por lo tanto, los sistemas de inteligencia artificial, dados los datos suficientes y el “entrenamiento” pueden alcanzar “tasas de aciertos” razonablemente bajas con “alarmas falsas” bajas. Además, las nuevas tecnologías de privacidad pueden proteger las libertades civiles mientras las computadoras calculan sus números.

Antes de entrar en detalles de por qué la IA, junto con las tecnologías de privacidad pueden, al menos teóricamente, reducir las muertes de tiradores escolares, debo reconocer que ninguna tecnología, por avanzada y precisa que sea, puede resolver el problema por sí sola, porque ninguna tecnología abordará las profundas raíces culturales, antropológicas, legales y políticas del problema.

La tecnología, en el mejor de los casos, solo ofrece la esperanza de mejorar algunos de los síntomas de problemas profundamente arraigados, como los tiroteos en las escuelas.

Dicho esto, si tales tratamientos “sintomáticos” pueden salvar incluso una vida, vale la pena considerarlos.

Cómo AI, con avances paralelos en la privacidad digital, podría hacer mella en el problema

La inteligencia artificial se está volviendo bastante buena en una tarea que los científicos informáticos llaman clasificación: ¿una foto tiene un gato en alguna parte? ¿La persona que llama al centro de atención al cliente está enojada o no? ¿Es una voz en un teléfono un hombre o una mujer, un hablante nativo o un hablante no nativo? ¿Es probable que un solicitante de seguro de automóvil “churn” (rotación a otro transportista) o no? AI se ha vuelto competente en todas estas tareas.

Es completamente posible, incluso probable, que los algoritmos de inteligencia artificial pronto puedan ser muy buenos para “clasificar” qué estudiantes son amenazas genuinas de llevar a cabo ataques letales contra los cuales es poco probable que los estudiantes lo hagan. La IA sería “alimentada” con la mayor cantidad posible de datos diversos tanto de tiradores como de no tiradores y se le “enseñaría” a discriminar entre amenazas reales y falsas alarmas. Los ejemplos de datos incluirían:

  • Publicaciones en las redes sociales (tanto de los tiradores potenciales como de sus compañeros que hablan sobre posibles tiradores).
  • Imágenes de la cámara de vigilancia de la escuela (por ejemplo, el trabajo del Dr. Paul Ekman sobre microexpresiones sugiere que puede ser posible detectar la intención letal de las expresiones faciales).
  • Los registros de propiedad de armas de fuego en familias o parientes de estudiantes tienen una correlación cruzada con las listas de estudiantes. (la mayoría de los tiradores tenían acceso inmediato a armas de fuego y, a menudo, obsesión / fascinación por las armas de fuego).
  • Informes / inquietudes anónimos de pares, personal de la escuela.
  • Los datos demográficos de los estudiantes (hombres blancos, no atléticos, marginados con calificaciones superiores a la media en las zonas rurales comprenden la mayoría de los tiradores, según el Servicio Secreto).

Un enorme problema al utilizar cualquiera de las fuentes de datos que acabamos de mencionar es asegurar la protección de la privacidad personal y las libertades civiles. Cualquier organización, ya sea una escuela o una fuerza policial, que recopilara y correlacionara tal información, en apariencia, estaría actuando como el Gran Hermano de Orwell.

Pero gracias a las tecnologías emergentes con nombres exóticos como el cifrado homomórfico y el cifrado seguro multipartita, ahora es posible encriptar todas las fuentes de datos mencionadas anteriormente -en el punto de recopilación- y realizar cálculos de IA sobre ellas mientras están encriptadas. Por lo tanto, en ningún momento durante la recopilación de datos, la transmisión, el almacenamiento y el ciclo de análisis, algún humano -o computadora, para el caso- sabría a quién pertenecía la información recopilada.

Solo en el caso raro de que un algoritmo de clasificación activara una bandera roja, se notificaría a una escuela (o posiblemente a un tribunal judicial) que se debe prestar atención a un estudiante en particular (sin exponer ninguno de los datos personales que dieron origen a la alerta de IA) para que se pueda planificar una investigación discreta y, en última instancia, una intervención (por ejemplo, ofrecer asesoramiento o revisar a los estudiantes de alto riesgo en busca de armas al ingresar a la escuela).

Este desbloqueo de identidad podría basarse en pruebas presentadas por la IA a un juez, por ejemplo, resumiendo los motivos de preocupación (publicaciones violentas en redes sociales, acceso a armas, comentarios de pares) sin siquiera contarle al juez detalles específicos. Solo si el juez creyó que estaba justificado, el juez usaría “claves digitales” especiales (disponibles solo para el poder judicial) para desbloquear la identidad del estudiante para notificar a la escuela y a los padres.

La decisión de AI de notificar a un juez, como se sugirió anteriormente, no estaría influenciada por la presión social, los sesgos cognitivos, la impotencia aprendida u otros factores que hacen que los humanos notifiquen o no notifiquen a las autoridades sobre una amenaza.

Es cierto que el uso de la inteligencia artificial para detectar a los estudiantes peligrosos plantea muchos desafíos. Por ejemplo, ¿puede una institución pública, como la escuela o el sistema de justicia penal, tomar medidas basadas únicamente en lo que un estudiante podría hacer en el futuro en comparación con lo que realmente han hecho?

Todas las preguntas que rodean a AI y a los tiradores escolares son espinosas y difíciles y están llenas de desafíos éticos, y algunos dirán que usar AI podría ser un enfoque deshumanizante para reducir las muertes y lesiones causadas por los tiroteos en las escuelas.

Pero nada le roba a un estudiante su humanidad -o sus derechos- más que ser asesinado por un compañero de estudios.

Referencias

Farr, K. (2017). Tiroteos en las escuelas de adolescente: Respuestas a las masculinidades fallidas por niños que ya tienen problemas, cuestiones de género DOI 10.1007 / s12147-017-9203-z

“Informe provisional sobre la prevención de la violencia dirigida en las escuelas”, octubre de 2000, Centro Nacional de Evaluación de Amenazas del Servicio Secreto de los EE. UU.

https://www2.ed.gov/admins/lead/safety/preventingattacksreport.pdf

http://www.popcenter.org/problems/bullying/PDFs/ntac_ssi_report.pdf

Rasgos comunes de todos los tiradores escolares en los EE. UU. Desde 1970

https://en.wikipedia.org/wiki/Homomorphic_encryption