Nuestros recuerdos y pensamientos surgen de patrones complejos de actividad eléctrica y química en el cerebro. Para esta actividad son fundamentales las sinapsis, las uniones donde se conectan las ramas de las neuronas, similares a los cables eléctricos. Aquí, un axón de una neurona se conecta a una dendrita de otra. En estas sinapsis, los neurotransmisores transportan señales a través de la brecha, indicando a la neurona receptora que transmita una señal eléctrica a otras. Sorprendentemente, cada neurona puede formar miles de estas conexiones.
De manera similar a las computadoras, medimos el almacenamiento de memoria del cerebro en “bits”, y la cantidad de bits que puede contener depende de la cantidad y la fuerza de sus sinapsis. Vale la pena señalar que los cerebros son analógicos, para que no te hagas una idea equivocada. Los cerebros procesan todo en paralelo, en tiempo continuo y no en intervalos discretos, por lo que el “bit” (la unidad más pequeña de datos digitales) en este caso no es una analogía perfecta de cómo se almacena la información en un sistema biológico. Sin embargo, sirve para estimar el procesamiento de la información.
Anteriormente, se creía que las sinapsis tenían tamaños y potencias muy limitados. Sin embargo, investigaciones recientes sugieren lo contrario. Según un nuevo estudio, la capacidad del cerebro humano para almacenar información es casi diez veces mayor de lo que se estimaba anteriormente.
Nuevos conocimientos sobre la fuerza sináptica y el almacenamiento de la memoria
Un equipo de investigadores de la Universidad de California en San Diego y el Instituto Salk desarrollaron un método muy preciso para evaluar la fuerza de las sinapsis en el cerebro de una rata. Estas sinapsis, donde las células cerebrales se comunican y almacenan información, desempeñan un papel fundamental en el aprendizaje y la memoria. Al comprender cómo se fortalecen y debilitan las sinapsis, los científicos cuantificaron con precisión la capacidad de almacenamiento de información de estas conexiones.
En el cerebro humano existen más de 100 billones de sinapsis entre neuronas. Estas sinapsis facilitan la transferencia de información a través del cerebro mediante el lanzamiento de mensajeros químicos. A medida que aprendemos, se fortalecen sinapsis específicas, lo que nos permite retener nueva información. Este proceso, conocido como plasticidad sináptica, es esencial para la formación de la memoria y la función cognitiva.
Cuando las neuronas hablan, lo hacen a diferentes volúmenes: algunas neuronas se susurran entre sí mientras que otras gritan. La configuración del “volumen” de la sinapsis, o la fuerza sináptica, no es estática, sino que puede cambiar tanto a corto como a largo plazo. La plasticidad sináptica se refiere a estos cambios en la fuerza sináptica.
Sin embargo, el envejecimiento y las enfermedades neurológicas como el Alzheimer pueden debilitar las sinapsis, reduciendo nuestra capacidad cognitiva. Por eso estudios como estos son importantes: pueden ayudar a los científicos a descubrir nuevas terapias que puedan prevenir o incluso curar enfermedades neurodegenerativas que actualmente afectan a millones de pacientes en todo el mundo. Sin embargo, medir la fuerza de las sinapsis ha sido tradicionalmente un desafío.
El equipo analizó pares de sinapsis del hipocampo de una rata, una región del cerebro vital para el aprendizaje y la memoria. El método del nuevo estudio aprovecha la teoría de la información, que permite a los científicos cuantificar cuánta información pueden almacenar y transmitir las sinapsis. Lo que esto significa es que se aplicó al cerebro un marco típicamente reservado para las computadoras para estimar la cantidad de bits que las sinapsis pueden contener. Descubrieron que estos pares de sinapsis respondían al mismo tipo y cantidad de señales cerebrales, realizando un ajuste de la fuerza sináptica.
Potencial actual y futuro
En última instancia, este análisis indicó que las sinapsis del hipocampo podrían almacenar entre 4,1 y 4,6 bits de información. Los científicos pensaron que cada sinapsis podría contener un bit. En general, esto significa que el cerebro humano podría almacenar diez veces más información de lo que se pensaba anteriormente, o al menos un petabyte: eso equivale a 500 mil millones de DVD o todas las películas jamás realizadas en alta definición.
Si bien el estudio se centra en una pequeña parte del cerebro de la rata, investigaciones futuras podrían explorar cómo varía la capacidad de almacenamiento de información entre diferentes áreas y especies del cerebro. Este método también podría comparar estados cerebrales sanos y enfermos, ofreciendo información sobre las condiciones que afectan las funciones cognitivas.
En 2016, los investigadores del Salk llegaron a las mismas conclusiones. Los nuevos hallazgos sirven para confirmar esta evaluación inicial. En aquel entonces, los investigadores también hicieron otra revelación importante: existen al menos 26 categorías de tamaño de sinapsis, en lugar de solo unas pocas.
Estos hallazgos también proporcionan información sobre la notable eficiencia del cerebro. A pesar de su complejidad, el cerebro adulto en vigilia utiliza sólo unos 20 vatios de potencia continua, comparable a una bombilla de luz muy tenue. Estos descubrimientos podrían inspirar a los científicos informáticos a diseñar computadoras altamente precisas pero energéticamente eficientes. Estas innovaciones podrían beneficiar particularmente al “aprendizaje profundo” y a las redes neuronales artificiales, mejorando sus capacidades en áreas como el reconocimiento de voz, la identificación de objetos y la traducción de idiomas.
Los hallazgos aparecieron en la revista Neural Computation.
Fuente: ZME Science.