¿Podría su cerebro almacenar toda la información en la web?

El título suena escandaloso. Pero los datos de apoyo provienen de la investigación en el Instituto Salk más prestigioso. Otros investigadores hicieron enormes estimaciones de capacidad de almacenamiento para cerebros, pero esta nueva estimación es 10 veces mayor. La estimación es del orden de los petabytes, tanto como la totalidad de la World Wide Web.

¿Cómo puede alguien hacer esas estimaciones? ¿Cuál es la premisa básica? En primer lugar, la memoria se cuantifica en términos de cantidad de bits de información que puede almacenarse y recuperarse. En el caso del cerebro, la pregunta es cuánta información se puede almacenar en una sinapsis, la unión comunicante entre las neuronas. El tamaño y la fuerza operativa de una sinapsis son las variables clave: la fuerza se puede medir en bits y las fortalezas se correlacionan con el tamaño sináptico de tamaño y el tamaño. Bajo un gran aumento, las sinapsis parecen un montón de cuentas en una cuerda. En el cerebro del recién nacido, hay relativamente pocas "cuentas", pero aumentan en número y tamaño a medida que el bebé crece y aprende cosas. Tristemente, en la vejez, muchas de estas cuentas desaparecen a menos que el cerebro se mantenga muy activo.

En el estudio Salk de cerebros de ratas, micrografías electrónicas de la estructura de formación de memoria, el hipocampo, permitieron la reconstrucción en 3-D y la detección de los diámetros de las sinapsis, que son las estructuras sinápticas objetivo en las neuronas. La fuerza sináptica se correlaciona con la capacidad de almacenamiento, y la fuerza se mide por el tamaño de las sinapsis, que aparecen como un cordón redondo unido a un tallo o cuello a la membrana neuronal de soporte. El tamaño del cordón varía con la fuerza sináptica porque la fuerza sináptica es creada por más maquinaria molecular para mediar la comunicación sináptica. Por lo tanto, el tamaño del cordón espinal es un proxy para la fuerza sináptica y la capacidad de almacenamiento.

Los investigadores encontraron que un pequeño cubo de tejido cerebral contenía 26 tamaños de cuentas diferentes, cada uno asociado con una fuerza sináptica distinta. Los autores afirman que esto equivale a aproximadamente 4,7 bits de información en cada sinapsis. Multiplique 4,7 veces los trillones de sinapsis y neuronas en el cerebro y obtendrá una capacidad de almacenamiento fenomenal.

Si bien me maravillo de la elegante complejidad de estos métodos de investigación, creo que las interpretaciones son un tanto simplistas. Hay algunas advertencias que los autores pasaron por alto. Por un lado, se asume que el número de bits de almacenamiento es igual al logaritmo del número de tamaños de cuentas. El "bit" es una unidad de información en comunicaciones digitales. La teoría de la información sostiene que un bit es la probabilidad de una variable aleatoria binaria que sea 0 o 1, o que se defina de manera más vaga como presente o ausente. Uno tiene que tomarse algunas libertades para aplicar este concepto al almacenamiento de memoria en el cerebro, porque el cerebro no es una computadora digital. Es una computadora biológica analógica.

Luego está el problema de que el hipocampo se ocupa solo de formar recuerdos declarativos y episódicos, no de recuerdos de procedimientos como tocar la mecanografía o tocar el piano. Por lo tanto, la capacidad de almacenamiento, sea lo que sea, no se estima para las memorias de procedimiento. En segundo lugar, las memorias declarativas y episódicas no se almacenan en el hipocampo, sino que se almacenan de forma distribuida en todo el cerebro. Dado que las medidas sinápticas se realizaron solo en el tejido del hipocampo, no hay datos para el resto del cerebro.

Pero hay un problema mayor. ¿Cómo se sabe cuántos bits se necesitan para representar diferentes recuerdos? No todos los recuerdos son iguales y seguramente no requieren la misma cantidad de bits de almacenamiento.

En realidad, la cantidad exacta de bits de información que los cerebros pueden almacenar es bastante irrelevante. De cualquier forma, la experiencia común enseña que nadie utiliza toda su capacidad de memoria. Además, la cantidad de información que almacena una determinada persona varía profundamente dependiendo de variables tales como la motivación para recordar cosas, el uso de mnemónicos y el nivel de educación. La pregunta que debe responderse, dado que tenemos grandes cantidades de capacidad de almacenamiento no utilizada, es "¿Por qué no recordamos más que nosotros?" Libros como mi Memory Power 101 brindan algunas respuestas prácticas.

Fuente:

Bartol, Thomas M. y col. (2015). Límite superior Neuroconnectomic en la variabilidad de la plasticidad sináptica. eLIfe. 30 de noviembre. Http://dx.doi.org/10.7554/eLife.10778