Ver algo, decir algo? ¿Cómo?

Los cinco pasos clave para los ciberdelincuentes para hacer algo sobre el acoso en línea.

La frase “Ver algo, decir algo” ha tenido una importancia renovada en una era de terrorismo. Sabemos que a partir de décadas de anécdotas, observaciones e investigaciones científicas, es fundamental hacer que los espectadores estén al tanto de las emergencias que ocurren en su entorno inmediato. Pero, ¿qué pasa con las emergencias menos obvias, especialmente aquellas en línea? Concluye, los ciberdelincuentes no actúan de forma tan diferente que los transeúntes fuera de línea, pero los recursos para intervenir son múltiples y más fáciles de usar.

Las estadísticas y los informes de la División de Internet y Tecnología del Centro de Investigación Pew son alarmantes: el 41% de los estadounidenses sufren acoso en línea; El 62% cree que es un problema importante, y el 60% cree que los ciberdelincuentes deberían asumir un papel importante para frenar estos comportamientos (Pew, 2017). El hostigamiento severo, como las amenazas de violencia, parece ser obvio y digno de respuestas, pero el acoso subestimado como imágenes vergonzosas o bromas a costa de alguien, y mucho menos. La brecha entre “ver algo” y “decir algo” debe cerrarse.

Hay cinco pasos clave que un cibercontestador debe completar para poder intervenir en el acoso en línea. Primero, el espectador cibernético necesita darse cuenta de lo que está sucediendo. Sin ver el humo, ¿cómo se puede reaccionar al fuego? La investigación experimental sugiere que los ciberdelincuentes notan un acoso sutil, independientemente de las ventanas emergentes visuales, el propósito de visitar el entorno en línea, las limitaciones de tiempo o incluso la transmisión de música. Casi el 68% de los ciberdelincuentes informaron que notaron el evento, pero solo el 10% intervino directamente. Claramente, es necesario un impulso empático, pero ¿qué más información necesitan los ciberdelincuentes?

Lo siguiente es interpretar el incidente. ¿Es ese humo de barbacoa, o algo más nefasto? Se ha descubierto que las personas que usan las redes sociales con frecuencia pueden determinar qué incidentes requieren intervención. A veces, los ciberdelincuentes pueden estar seguros de lo que está pasando, exactamente. Si eres amigo de alguien en Facebook, ¿por qué te acosarían de alguna manera? ¿Realmente es un acoso si no tienes idea de quién es el duende anónimo detrás de esa pantalla y teclado? Para el objetivo del acoso, importa. La gravedad suele estar en el ojo del objetivo, y las claves heurísticas como emojis enojados, “aversión” o patrones de bloqueo pueden ser pistas para el espectador cibernético de que el objetivo está disconforme con la situación y necesita ayuda.

El tercer y más difícil paso del modelo de intervención de espectadores es asumir la responsabilidad de ayudar al individuo que lo necesita. Aquí, más conocido como el “efecto espectador” o “difusión de la responsabilidad” es más probable. Cuanto mayor es el grupo de testigos, menos probable es que intervenga un solo individuo. Si los espectadores presencian un solo de emergencia, es mucho más probable que intervengan. Muchos experimentos han encontrado que el efecto espectador también se encuentra en contextos mediados. En línea, sin embargo, el tamaño de la multitud es una presunción en lugar de un número explícito que el espectador puede ver con sus propios ojos. Los ciberdelincuentes a veces suponen que hay más personas presentes, que vigilan su comportamiento en línea, que las que realmente están allí.

También tendemos a desvincularnos moralmente cuando nos encontramos en un entorno como ese en línea, donde no podemos ver las reacciones de los demás y no pueden ver las nuestras. Este entorno desindividualizado, en parte, conduce a la comodidad de los usuarios para hostigar a otros, o permiso para ignorar. Podemos explicar nuestra responsabilidad personal de ayudar, pensando por ejemplo, “así es como es internet” o “los trolls solo quieren atención, no se los den”. Desafortunadamente, en el momento en que explicamos la gravedad o incluso si la realidad del acoso ocurre, descartamos rápidamente cualquier motivo para intervenir, y es mucho menos probable que lo hagamos en ese momento o en momentos futuros.

Los pasos cuarto y quinto del modelo son elegir cómo intervenir y proporcionar esa intervención. La mayoría de nosotros primero consideramos que la intervención es directa: agarrar un extintor de incendios y apagar las llamas. Generalmente hay formas más seguras e indirectas de intervenir: llamar al departamento de bomberos. Los ciberdelincuentes tienen las mismas opciones: elegir intervenir directa o indirectamente, y no tiene que ser una opción de elección. La intervención directa en línea imita a la de fuera de línea, al comentar directamente en la publicación ofensiva. Debido a la persistencia de la comunicación en línea, los ciberdelincuentes pueden renunciar a tal intervención por temor a convertirse ellos mismos en un objetivo, o quedar atrapados en el acoso.

Fuera de línea, las intervenciones indirectas suelen tener más pasos, pueden llevar más tiempo y, por lo tanto, tienen más oportunidades para que el espectador se desvíe de la intervención. Las posibilidades de intervención indirecta en línea solo están limitadas por las posibilidades de la plataforma. Las intervenciones indirectas, como el comportamiento del informe o los usuarios a los administradores, pueden ayudar a refinar los algoritmos que se están probando para identificar y responder mejor al acoso. Los mensajes privados, ya sea el agresor (que puede no ser consciente de la forma en que se toman sus comunicaciones) o el objetivo (que puede necesitar a alguien para tranquilizar su experiencia) pueden prevenir el acoso futuro, o al menos mitigar parte de la incomodidad o dolor del objetivo está experimentando. Las nuevas campañas que respaldan los emojis como reacciones indirectas al acoso en línea pueden servir como una comunicación clave para otros ciberdelincuentes de que su atención y reacción al evento son necesarias. Cuando un ciberdelincuente interviene, ya sea directa o indirectamente, aumenta la probabilidad de que otros intervengan.

A medida que somos cada vez más conscientes del volumen y la veracidad del acoso en línea, podemos aprender cómo usar las herramientas a nuestra disposición para intervenir cuando sea necesario. Las barreras para la intervención del ciberetrocinador son similares a las que están fuera de línea, pero con conciencia y esfuerzo por las herramientas disponibles, podemos aprender a decir algo cuando vemos algo.

Referencias

Pew Research Center: Internet & Technology (2017, 11 de julio). “Acoso en línea 2017”, de http://www.pewinternet.org/2017/07/11/online-harassment-2017/.g, 18 (7), 400-405.