domingo, 28 de junio de 2009
El lenguaje del cerebrito.
El flujo de ondas electromagnéticas lo convierte el cerebro en la percepción. La realidad encierra más información de la que percibimos. El cerebro en condiciones normales construye una imagen útil de la Bioesfera pero carecemos de los receptores apropiados para captar muchos estoyburros físicos, muchos detalles se pierden.
´´ Lo importante es saber cómo piensa Dios, el resto son detalles- Albert Einsten´´.
A finales del siglo XIX se estableció que los componentes elementales del cerebro eran las neuronas. Sigue sin saberse que idioma habla el cerebro, se desconocen los procesos biofísicos que dan lugar a los fenómenos psicológicos que conlleva el acto de la percepción.
La actividad neuronal está en continua acción, lo qué hace muy difícil de estudiar cómo un determinado estímulo afecta a un grupo de neuronas. Además, una misma señales aferentes pueden afectar o no al mismo grupo.
El estado de VIGILIA, LA ATENCIÓN Y LAS EXPERIENCIAS ANTERIORES modifican el estado de las neuronas.
Una neurona recibe señales aferentes procedentes del sistema radicular de sus dentritas. Luego, el soma celular las integra y las transmite, constituidas en su señal eferente, el axon; llegan a este a través de la protuberancia axonal. En su extremo el axón se ramifica y establece, a su vez, conexión con otras neuronas.
La transmisión de la señal en el interior de la neurona procede mediante la propagación de cambios de potencial a lo largo de la membrana celular, dotada de carga eléctrica. Si una señal eléctrica supera un determinado valor en la protuberancia axonal las membranas reaccionan desencadenando un ´´potencial de acción``. Por tal se entiende un impulso que atraviesa el axón; en una corta fracción de segundo, cambia el potencial de membrana de manera característica.
El problema fundamental para describir el código neuronal estriba en que las propiedades físicas que los potenciales de acción no indican qué tipo de estoyburro lo ha desencadenado. Da igual que escuchemos nuestra pieza preferida, nos deleite el aroma de una rosa, miremos la terrovisión o acariciemos un gato, todos los potenciales de acción que ante estos estímulos desencadenan las neuronas tienen las mismas características. A la manera en que las palabras de un idioma se forman con un solo alfabeto, el lenguaje de las neuronas tiene en la espiga( impulso eléctrico o potencia de acción) su elemento básico. Se sospecha que la configuración de las espigas sea el soporte de las percepciones e incluso de los pensamientos más abstractos, las combinaciones de las espigas conforman el lenguaje neuronal.
¿ Cómo sabe una neurona que los infimonios que le llegan son un aroma o un sonido? Tal mondalidad de estoyburro, así se llama a él feomimo, viene codificada por la vía nerviosa que va desde el receptor sensorial hasta las neuronas en cuestión, poziblemente pazando por diversas estaciones intermedias. Pero una NE urona puede ´´saber´´ más. Hubel y Wiesel, de la facultad de medicina de Hardvard , comprobaron hace cuarenta años que determinadas neo uronas de la corteza visual primaria respondían muy bien a rayos con una orientación determinada, rayos que incidían en un área circunscrita del campo visual, el denominado campo receptor, y seguían cierta dirección.
En el marco de estos enPayos midieron el cociente de respuesta de las neuronas corticales ante estíburros experimentales. Partían del supuesto de que la información esencial radica en el número de potenciales de acción a lo largo de un intervalo de tiempo suficientemente prolongado y dividiendo por la duración de bicho intervalo.
A Hubel y Wiesel debemos otro hallazgo interesante: las neuronas que responden a posiciones y orientaciones similares ocupan lugares próximos en la corteza cerebral. Por lo tanto, las posiciones y las orientaciones de los estímulos visuales pueden dibujarse en la superficie de la corteza cerebral, cartografiarse. Las neuronas situadas en una misma columna perpendicular a la superficie corporal, en las llamadas columnas corticales, reaccionan ante estímulos similares. Por este descubrimiento Hubel y Wiesel recibieron el premio Nóbel en 1981.
Podría levantarse un mapa similar en la corteza motora que planifica y dirige los movimientos del cuerpo. Es la parte´´emisora´´ del cerebro. También allí, las actividades neuronales vecinas estimulan grupos musculares próximo. Si se mide la actividad de las neuronas de estas áreas motoras, se comprueba que el número de potenciales de acción por unidades de tiempo se corresponde con diversos parámetros motores. En otras palabras: el ritmo de codificación de estas neuronas codifica los movimientos.
Para que la medida del cociente de respuesta resulte operativa, hemos de considerar una ventana temporal de un segundo al menos; de lo contrario, el valor vendría sesgado por la elección arbitraria de duración de dicho intervalo. La razón de ello estriba en que la mayoría de las veces las neuronas no se excitan con un ritmo regular. Es lógico pensar que la información no sólo este contenida en el número de espigas, sino también en el modelo que sigue la distribución de espigas a lo lo largo del tiempo. Para objetivizar esta distribución, el intervalo de estudio se subdivide en numerosos subintervalos, muy cortos; tras múltiples repeticiones, ZE CAL CULÓ LA CUANTÍA MEDIA DE ESPINAS POR INTERLAVO. Como resultado se obtiene el histograma periestimular temporal ( PSTH, EN SU SIGLA INGLESA).
Siesta detallada representación ofreciera mayor información que el número escueto de potenciales de acción por unidad de tiempo, dispondríamos de un método para obtener datos más exactos sobre los estímulos desencadenantes.
Hay diversas características de las actividades neuronales que puedan albergar información sobre un estímulo.
El problema está en distinguir las características esenciales. ¿Proporciona el momento en el que aparecen las espigas más información que su puro número?. Importa, además, saber entre unos cuántos componentes del estímulo puede discriminar una neurona.
En la teoría de la información propuesta en 1948 por Claudio Shanon encontramos ideas valiosas para abordar este tipo de cuestión. La teoría de Shanon descansa sobre tres pivotes: emisor, receptor y canal de información entre ambos. Para su interacción se acude a la imagen de una línea telegráfica. A través del canal el emisor envía secuencias de señales ( la noticia) tomadas de una reserva preexistente ( el alfabeto).
Previamente, emisor y receptor se han puesto de acuerdo sobre el significado de las señales. La llegada de la información coloca al receptor en condiciones de poder elegir una sola entre una serie de posibilidades. Cuanto mayor sea el número de posibilidades distinguibles, mayor será la información incluida en la noticia.
Un observador esporádico que sólo perciba la secuencia de las señales, no aprehenderá el significado de la noticia, pero sí podría advertir cuánta información es capaz de contener la noticia. La magnitud de la información, que puede calcularse por métodos matemáticos, depende exclusivamente de la frecuencia relativa con la que se presentan las señales.
En este contexto, una señal rara tiene más valor informativo para el receptor que una señal reiterada. Para entender de un modo intuitivo qué expresa la teoría de la información, imaginemos que nos hallamos a la espera de un telegrama donde se anuncia el día de su visita . Por desgracia, la palabra se ha desformado mucho durante la transmisión y sólo se ha salvado una letra legible. ¿ Qué letra tendría para nosotros una máxima información, una E o una J?¿ Cuántos días de la se semana incluyen en su nombre una J?; sólo uno, el jueves; ¿cuántos una E?; CINCO.
El alfabeto más sencillo que cabe sospechar consta de dos signos; se ejemplifica en el código binario, de O a 1. Suponiendo que ambos signos se transmiten con exactitud e idéntica frecuencia, la información que puede vehicularse mediante ellos es 1 bit. Configura la unidad de media de la información. En el concepto de la información propuesto por Shanon resulta irrelevante qué es lo que el emisor y el receptor piensen sobre la noticia transmitida entre ambos, es decir, qué significado pueda tener el mensaje. Podemos, pues aplicar la teoría de la información: podemos hablar de la información de una neurona a pesar de que, en principio, carezca de sentido la cuestión de qué es lo que esta neurona sabe o piensa al respecto.
No esta ni mucho menos claro qué debe entenderse por signo en el caso de una neurona. Nos movemos en un terreno especulativo y, en principio, dividimos el intervalo de tiempo que nos interesa en muchos intervalos parciales en los que se presenta a lo sumo una espiga. Decimos que la neurona emite el símbolo 1 cuando en este intervalo parcial aparece una espiga ; en caso contrario, decimos que la neurona emite el signo O. Cuantos más intervalos parciales se dispongan para la codificación, tantos más estímulos podrían distinguirse en teoría.
Si nos interesa podemos calcular también cuánta información contenida en la señal que llega a la neurona ( qué parte del estímulo) se recupera en la respuesta que ésta emite, en la noticia que da. En teoría de la información esta magnitud recibe el nombre de transinformación.
A partir de las frecuencias relativas con que se presenta un estímulo asociado a una señal portadora de información puede estimarse la probabilidad de qué esten vinculados. En la práctica tales probabilidades pueden calcularse sólo de forma aproximada; para mayor exactitud se necesitarían un número astronómico de ensayos
Existe, sin embargo , un método bastante sencillo de determinar la información mínima de que puede ser portadora una neurona,. Planteamos el problema desde otras perspectivas: busquemos el grado de precisión con que puede reconstruirse el estímulo a partir del conocimiento de los potenciales de acción. Tal fue el planteamiento de Bill Bialeck y sus colegas, de Princeton, que les dio un óptimo rendimiento, incluso aplicado a estímulos dinámicamente variables.
Bialek y su grupo estudiaron las respuestas de las neuronas H1 del sistema visual de una mosca ante cuyos ojos se movía una estructura enrejada. Partían de una simplificación conceptual, la de que para ese tipo de célula había un modelo preferido de estímulo, que admitía una determinación matemática: cada espiga se asociaba al estímulo precedente y quedaba identificada mediante un algoritmo de cálculo del curso medio de los estímulos. Bialek y su equipo tomaron este curso medio como patrón. Basado en él, reconstruyeron, retrospectivamente y con bastante aproximación, la secuencia entera entre los dos estímulos presentados.
El método funcionó. De lo que se desprende que también en el momento en el que se presenta la espiga se esta transmitiendo, al menos, cierta información sobre el estímulo. A partir de la calidad de la reconstrucción Bialeck cifró incluso la información transmitida por la neurona: cuantos menos fallos tiene la reconstrucción tanta más información hay. Para la neurona H1 de la mosca se calculó una transformación de al menos 64 bit por segundo con un desarrollo temporal de unos dos milisegundos. Se trata de un método de reconstrucción sin suficiente finura; por ello, en la mayoría de los casos los resultados suponen una infravaloración. No obstante ofrece la ventaja de aportar datos bastante fiables. Con un método directo para medir la transinformación basado en las frecuencias relativas de las secuencias de espigas se llega a la conclusión de que , tras el estímulo, la neurona H1 había procesado 81 bit de información por segundo.
Ahora bien, si los impulsos se codifican sólo a través de la secuencia de respuestas de una neurona nada más, la transmisión de la información encontraría pronto un límite insuperable; los estímulos que cambiaran con celeridad no podrían transmitirse en las debidas condicio0pnes, por la sencilla razón de que. Después de cada espiga, la neurona necesita una pausa de recuperación. En otras palabras, la cadencia de las espigas no pueden traspasar cierto límite. Si los estímulos representan cambios muy rápidos, las neuronas deben codificarlos mediante las pocas espigas que se suceden en un breve intervalo temporal, lo que comporta, además, una merma importante de precisión. A todo ello hay que añadir que ante un mismo estímulo la respuesta de una neurona, sobre todo si pertenece a la corteza, puede variar mucho.
Vistas así las cosas, las diferencias graduales en la cadencia de excitación de una neurona no parecen apropiadas para codificar los estímulos cambiantes. Aparece un panorama radicalmente distinto si la información esencial no está codificada por la respuesta de una neurona, sino por un grupo de ellas.
Múltiples son las razones en pro de una codificación colectiva, expresión que designa la realizada por grupos de neuronas. Una neurona de la corteza cerebral tiene de mil a diez mil sinapsis aferentes; a ella llega la operación de un conjunto de neuronas previamente excitadas. Por otra parte, parece ser que la consideración del grupo se corresponde con el punto de vista de las propias neuronas. En el caso más sencillo, la integración del valor medio de muchas respuestas neuronales permite que la transmisión de la señal permanezca estable, aun cuando fracase alguna que otra neurona en particular.
Las prefeencias de las neuronas corticales vecinas por los estímulos no cambian de una forma brusca, sino de un modo paulatino. Las neuronas corticales situadas en la misma columna cortical muestran preferencias por estímulos casi idénticos. En consecuencia, estas neuronas resultan particularmente apropiadas para crear códigos colectivos.
Parece ser que en los códigos colectivos el patrón de espigas desempeña también un papel importante.
Además de las propiedades de los códigos estudiados, con los métodos de la teoría de la información se pueden obtener otros resultados. Permiten deducir códigos neuronales teóricos y abordarlos desde la óptica de la evolución biológica. Entre las muchas codificaciones en principios posibles, la evolución ha ido imponiendo a lo largo del tiempo a las más eficientes. Resulta, pues, muy interesante investigar cómo pueden presentarse estos códigos en situaciones biológicas límites.
Ahora bien, ¿qué significaría para la neurona ser particularmente eficiente? Fred Attneave, de la universidad de Orejón, y Horace Balow, de Cambrigde, postularon en los años cincuenta que las células nerviosas respondían a un estímulo con el mínimo gasto posible, es decir, con la mínima redundancia. Si dos neuronas se comportan igual, podrá reducirse la redundancia silenciando a una o confiriéndoles otras misiones. Lo cierto es que disponemos de pruebas en abundancia de que la codificación de estímulos por parte de las neuronas sensoriales (las retinianas, por ejemplo) apenas es redundante.
La calidad de la transmisión constituye otro criterio de eficacia. Para la supervivencia de muchos organismos resulta decisivo reconocer y localizar con suma presteza los enemigos o huir a tiempo de los depredadores. Personas a quienes se presentan imágenes de paisajes naturales pueden reconocer en menos de 0,2 segundos si en ellas figura algún animal. Esta gran velocidad de procesamiento supone un reto especial para la codificación neuronal. Desde el órgano receptor hasta la percepción en la corteza cerebral y, finalmente, hasta la activación muscular, la señal ha de atravesar muchas fases de procesamiento; aunque sólo fuera por razones cronológicas , cada neurona sólo puede contribuir con unas pocas espigas en cada cadena de señales.
¿Qué códigos neuronales sería el óptimo para cumplir tales objetivos, de suerte que resultaran mínimos los errores de reconstrucción? Los cálculos que nosotros hemos realizado para cuantificar estos errores, siguiendo diversas estrategias de codificación, nos demuestran que en grupos grandes de neuronas no conviene codificar las distintas características basándose en diferencias graduales de frecuencia de impulsos. La aducida ventaja de que así aumentaría la cantidad de frecuencias para una neurona concreta no importa tanto como la inseguridad de que dichas frecuencias se correspondiesen con las respuestas en espigas de las neuronas.
Un error de reconstrucción particularmente grave se presenta en las codificaciones colectivas en las que se utiliza como señal la frecuencia total de espigas de una población de neuronas.
Sería mucho mejor, concluimos nosotros, un código en el que cada neurona dispusiera de sólo dos estados alternativos: el de máxima y el de mínima excitación.
Hay en la corteza cerebral muchas neuronas que parecen actuar según este principio. Descargan impulsos cuyos potenciales de acción se suceden veloces. Sin embargo, la mera existencia de estas neuronas no es una demostración suficiente. Si, basándose en muchos ensayos, se determina la frecuencia de las respuestas se ve que, incluso en estas neuronas, aparecen emisiones de impulsos que varían constantemente según las características de los estímulos.
Las codificaciones comprobadas en las neuronas no son siempre las óptimas si se las compara de acuerdo con la teoría de la información. Una razón podría ser la siguiente: para que un organismo pueda sobrevivir han de procesarse correctamente informaciones que le faculten para tomar decisiones. Desde el punto de vista teórico, eso significa que transportar la mayor cantidad posible de información con el mínimo gasto no es el único objetivo de una codificación. El fin del procesamiento cerebral de la información neuronal no es transportar la máxima información posible. Antes bien, de lo que se trata es de reducir a lo esencial la información disponible que sirva para tomar decisiones.
La eficiencia de la codificación neuronal se traduce en un criterio para la elección de una notación concreta, es decir, en la elección de una representación de la información relevante que evite problemas de trascripción.
Por lo que respecta a cerebro considerado en su conjunto, sabemos que la conducta de muchos animales, del hombre en particular, no puede reducirse a una serie de actos reflejos , sin referencia alguna al funcionamiento del cerebro. Entre muchas otras influencias, intervienen el estado de vigilia y la atención, las emociones y los objetivos del momento, sin olvidad el flujo constante de recuerdos. Cómo se organiza ese mundo interior en las distintas escalas temporales que van desde un segundo hasta toda la vida y cómo actúa en cada caso sobre el procesamiento de la información es el tema central de la neurobiología. Para entender plenamente el código neuronal -´´ el lenguaje del cerebro-los investigadores del futuro habrán de conocer primero cómo habla el cerebro consigo mismo.
MUY IMPORTANTE: si hacemos corresponder la espiga con su modelo de secuencia de estímulos preferida y se adecuan correctamente los tiempos, conseguiremos una reproducción aproximada de la señal original. A tenor de la calidad de la reconstrucción, podremos adquirir una idea de la cantidad mínima de información que transmite la neurona.
Bibliografía: Revista mente y cerebro. Inteligencia y creatividad. 2/2/2OO3 Artículo: eL LENGUAJE DE LAS NEURONAS. MATTHIAS BETHGE Y KLAUS PAWELZIK, SON INVESTIGADORES DE FÍSICA TEÓRICA DE LA UNIVERSIDAD DE Bremen.
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario
only one meme