¿La neuroimagen proporciona las mejores respuestas?

En los muchos años que he estado revisando documentos y otorgando solicitudes en neurociencia, he visto una evolución de nuestro pensamiento, desde una confianza total en los datos clínicos y del comportamiento hasta una confianza casi ciega en los datos de neuroimágenes. Cuando hablo sobre neuroimágenes aquí, tengo en mente una definición estrecha que incluye solo métodos funcionales de imágenes que permiten una resolución espacial clara. Esto significa principalmente resonancia magnética funcional (fMRI), magnetoencefalografía (MEG) y tomografía por emisión de positrones (PET), pero excluye el electroencefalograma (EEG), ya que se sabe que tiene una resolución espacial deficiente (Srinivasan, 1999).

Lo que a menudo encuentro es que los desarrollos en neuroimágenes han resultado en que muchos investigadores pierdan de vista la distinción entre la evidencia empírica y la teoría. Para ilustrar este punto, consideremos un hallazgo empírico que sugiere que la corteza ventral cingulada anterior "se ilumina" bajo neuroimágenes cuando las mujeres pero no los hombres realizan rotación mental (Butler et al., 2007). Ahora, alguien podría sentirse tentado de llevar esto un paso más allá y construir una teoría en la que la corteza cingulada anterior ventral esté involucrada en la rotación mental de las mujeres, pero no de los hombres. Después de un tiempo, tal vez olvidemos que esta teoría se basa en un hallazgo fMRI no replicado (hasta donde sé). Por lo tanto, podríamos perder de vista la distinción entre evidencia teórica y empírica.

Este problema se agrava ya que la mayoría de los investigadores parecen pasar por alto el hecho de que muchos hallazgos obtenidos con neuroimágenes han sido difíciles de replicar en todos los laboratorios y tareas. Solo se debe considerar el metanálisis sobre neuroimágenes con tareas de rotación mental realizado por Zacks (2008) para ver una ilustración de este punto. El apéndice en su artículo es particularmente útil para mostrar la falta de acuerdo entre los estudios en términos de las coordenadas donde se obtiene la activación bajo la rotación mental. Por supuesto, debemos esperar que varias áreas estén involucradas. Sin embargo, lo que es más problemático es que hay mucha variabilidad entre los estudios. Esto se debería en parte a la variedad de detalles metodológicos de las tareas utilizadas y al hecho de que la mayoría de los investigadores no se toman la molestia de validar sus tareas con una muestra más grande antes de proceder a un estudio de neuroimagen (Voyer et al., 2006). ¡Después de todo, un estudio de neuroimágenes es mucho más sexy que un estudio de validación! Este último punto es particularmente triste ya que algunos editores de revistas ahora parecen creer que la única forma de estudiar el cerebro es haciendo un experimento de neuroimágenes. Supongo que algunas personas también han perdido de vista el hecho de que todos los comportamientos surgen del cerebro. Por lo tanto, ¡cualquier tarea es un estudio del cerebro en algún nivel!

Tal vez uno de los aspectos más descuidados de los métodos de neuroimagen es que la forma en que se determina la activación significativa se basa a menudo en pruebas múltiples de importancia. Los bonitos colores que se muestran en la figura típica que se encuentra en un documento de neuroimágenes generalmente reflejan un resultado de prueba t o un nivel de significancia. Si tenemos suerte, los autores podrían decir que se aplicó una corrección para comparaciones múltiples, aunque rara vez se especifica más allá de eso. Esencialmente, si solo calculamos una comparación de activación por píxel a través de condiciones experimentales (por ejemplo, línea de base versus experimental) y nos centramos en un área que es de 100 x 100 píxeles, computaríamos 10,000 pruebas de t (100 x 100). Con una corrección de Bonferroni, consideramos significativo a p <.05 cualquier prueba donde p <.000005. ¿Eso es lo que los investigadores están haciendo realmente? No está claro. Sin embargo, hace poco estuve revisando un artículo en el que los autores utilizaban p = .001 como su nivel de significancia para cualquier comparación. Si usaran un área de 100 x 100 píxeles, aún tendrían un enorme riesgo de errores en las pruebas de hipótesis estadísticas. Esto también se puede agravar por el hecho de que algunos investigadores incluyen tantas regiones de interés como sea posible para mejorar sus posibilidades de obtener hallazgos significativos. Si alguna vez lees un periódico en el que se implementa este tipo de expedición de pesca, ¡debes ser cauteloso! Siempre debe haber al menos una base empírica de investigaciones pasadas para seleccionar regiones específicas de interés.

Al leer esta publicación, quizás pienses que odio las neuroimágenes. ¡Actualmente, este no es el caso! Creo que la neuroimagen es el camino a seguir para el futuro de la neurociencia, ya que tiene potencial para llevar a un alto nivel de comprensión de cómo funciona el cerebro. Sin embargo, el objetivo de mi publicación es advertirte que seas crítico al leer este tipo de investigación. Después de todo, como todo lo que hacemos en psicología, la investigación de neuroimágenes se basa en probabilidades y manipulaciones experimentales. Los problemas de confiabilidad y validez de la medición se aplican a la neuroimagen tal como lo hacen para otros métodos de investigación, junto con la aplicación adecuada de métodos estadísticos. Afortunadamente, los expertos en neuroimágenes son muy conscientes de sus deficiencias estadísticas y hay muchas buenas personas trabajando en soluciones. No me preocupan estas personas. Lo que me asusta es que las personas tomen los estudios de neuroimagen por sentado y los utilicen para promover su propia agenda (ver Halpern et al. 2011 para críticas de un ejemplo de tales usos indebidos). Si todos comenzamos a considerar críticamente los resultados de la investigación (neuroimágenes o de otro tipo), tal abuso se reducirá al mínimo.