Videojuegos y comportamiento de ayuda

En los últimos meses, he estado intrigado por la crisis de replicación que rodea el campo de preparación social. No investigo sobre preparación social, ni pretendo saber mucho al respecto aparte de lo que he leído. Pero la sensibilización social parece ser uno de estos campos en la psicología que se consideran como "sabiduría recibida" durante un tiempo, solo para volverse controvertida a medida que los nuevos grupos de investigación tienen cada vez más dificultades para replicar los hallazgos de los partidarios centrales.

Me acordé de este problema de crisis de replicación al leer un nuevo estudio de la Universidad de Queensland en Australia. Los investigadores Morgan Tear y Mark Nielsen llevaron a cabo un conjunto bastante típico de experimentos en los que los participantes jugaron videojuegos violentos y no violentos, y fueron evaluados en términos de su comportamiento prosocial o de ayuda utilizando la tarea de "dejar caer la pluma". Si no estás familiarizado con eso, básicamente, el experimento hace una demostración de "accidentalmente" dejando caer un montón de plumas y espera para ver si el participante ayuda a recogerlas. Los resultados indicaron que jugar videojuegos violentos tuvo poco impacto en el comportamiento de ayuda.

Ahora, esta es una réplica de los diseños de investigación de la "vieja escuela" (es decir, antes de la sentencia Brown v EMA, decisión del caso de la Corte Suprema de 2011) y tiene todas las verrugas típicas de este tipo de estudios. Los estudiantes universitarios que juegan videojuegos durante un intervalo relativamente corto, solos. La tarea de "dejar caer la pluma", argumentaría, probablemente solo sea vagamente útil para aprovechar los tipos de comportamientos prosociales y la empatía que nos interesa en el mundo real. Así que tómalo por lo que vale. No obstante, es una replicación relativamente directa de algunos trabajos que afirman que los juegos violentos disminuyen estos comportamientos de ayuda y, jugando sobre el terreno de estos estudios de la vieja escuela, no replica sus hallazgos.

Entonces, ¿qué debemos tomar de esto? El tema de si los juegos violentos realmente disminuyen las conductas de ayuda o prosociales sigue siendo controvertido. Esto se suma a un montón de hallazgos de investigación bastante mixtos y, como se mencionó antes, es difícil generalizar realmente este tipo de estudios de la vieja escuela a fenómenos de la vida real de todos modos (la opinión mayoritaria de la Corte Suprema los descartó en Brown v EMA con una buena razón). Pero el problema de una crisis de replicación es potencialmente esclarecedor.

Creo que tendemos a preferir considerar que la ciencia, incluso la ciencia social, opera en una especie de vacío, protegida de las presiones de la política y las narrativas sociales. Pero creo que esto está equivocado. Como John Ioannidis expuso en su artículo clásico "Por qué la mayoría de los hallazgos de investigación publicados son falsos", es muy común ver una idea de investigación promovida a toda máquina a pesar de que, en un sentido ontológico, esa idea de investigación es falsa. Particularmente cuando una idea de investigación encaja con una narrativa social preexistente ("los videojuegos violentos son malos") la presión sobre la comunidad científica para apoyar la narrativa social puede ser intensa (testimonio de la participación de Fredric Wertham en el susto del cómic de la década de 1950). por ejemplo). Particularmente dado el problema de flexibilidad metodológica de las ciencias sociales en el que una multitud de opciones de análisis de datos pueden permitir a los investigadores, incluso actuando de buena fe, seleccionar los resultados que mejor se ajustan a sus hipótesis, probablemente significa muy poco que algunos grupos de investigación obtengan los mismos resultados y más. La pregunta es si los grupos externos, particularmente aquellos que son más escépticos, pueden replicar los resultados.

Obviamente no soy físico, pero me imagino que en física incluso una sola repetición fallida sería motivo de consternación. Dentro de las ciencias sociales debemos preguntarnos: ¿Cuántas repeticiones fallidas requiere una teoría para ser falsificada? En este sentido, las técnicas como el metanálisis en realidad pueden ser dañinas, argumentaría, suavizando las repeticiones fallidas para una ilusión de consistencia. Imagine, por ejemplo, que llevamos a cabo 100 estudios sobre una teoría particular, todos de igual tamaño de muestra. La mitad de ellos tienen efectos estadísticamente significativos con un tamaño del efecto de r = .20. El resto es exactamente nulo con r = .00. ¿Es este un campo que debemos celebrar como sabiduría recibida? No, yo diría que no, pero combine todo esto en un metanálisis y obtendrá un efecto promedio de r = .10 que muchos investigadores estarían ansiosos por decir (en serio, tal vez) como significativos.

Como los autores de esta falla en la replicación de la nota, obtener fallas para replicar publicadas puede ser difícil. Uno tiene que preguntarse cuántos otros fallos para replicar nunca ven la luz del día, dándonos (y al público en general) una visión falsa de la "verdad" de los hallazgos de la investigación. Expreso la opinión de que tenemos que hacer más para cambiar la cultura de la psicología de la investigación que, durante demasiado tiempo, ha sido adversa a la nulidad y la imposibilidad de replicar los resultados.