jueves, 23 de junio de 2011

Estudian con modelos matemáticos comportamiento de neuronas y otros fenómenos complejos

• Las computadoras son rápidas y eficientes para hacer cálculos numéricos a partir de un programa previamente establecido; en cambio, el cerebro humano se retroalimenta a partir de errores y aciertos de la experiencia cotidiana, añadió
• Las estructuras de las células cerebrales son sistemas cognitivos, con un diseño robusto respecto al computacional, dijo Federico Zertuche Mones, de la Unidad Cuernavaca del Instituto de Matemáticas de la UNAM

El cerebro humano está constituido por un complejo entramado de neuronas, con un número del orden de 10 a la potencia 11 (esto es, un 1 seguido de once ceros, dicho en palabras, 100 mil millones), y de conexiones que dan lugar a un sistema cognitivo robusto, con un diseño muy distinto al de las computadoras.

Las neuronas son células que contienen una serie receptores llamados dendritas y poseen una larga terminación conocida como axón, que a su vez, tiene emisores denominados sinapsis, que conectan con las dendritas de otra neurona, y así sucesivamente. Si ha recibido un cierto potencial de activación que rebasa el umbral fisiológico, emite un pulso eléctrico a través del axón y así se comunica con el resto.

Neurofisiología y matemáticas

El abordaje de las redes neuronales como un área que relaciona a la neurofisiología y las matemáticas data de 1943. Warren McCulloch y Walter Pitts publicaron, durante la Segunda Guerra Mundial, un trabajo en el que desarrollaron el concepto de éstas como modelos matemáticos. Entonces no existían las computadoras, recordó Zertuche Mones, investigador de la Unidad Cuernavaca del Instituto de Matemáticas (IM) de la UNAM.

Ambos científicos desarrollaron lo que hoy en día se conoce como el “modelo de McCulloch-Pitts”, que establece la forma de evolución temporal de las neuronas de una manera simplificada, pero a la vez fidedigna, basándose en el comportamiento de las neuronas biológicas, como las que tenemos por millones en el cerebro. Este modelo ha sido fundamental para desarrollar redes artificiales, eje de trabajos de computación y robótica.

Desde hace casi 70 años, ese estudio ha cobrado fuerza, asociado a computadoras cada vez más potentes y rápidas, capaces de ayudar a los científicos a investigar fenómenos complejos de la naturaleza, como la evolución de las especies, la replicación del material genético o la variabilidad del clima en el planeta.

Una de las áreas promisorias de desarrollo en este campo es la inteligencia artificial, la analogía que más se ha acercado al funcionamiento del cerebro humano, que hoy ensaya métodos para trasladar a las máquinas funciones particularmente humanas, como la toma de decisiones.

Diferencia entre modelos de redes neuronales y computadoras

Las computadoras son muy rápidas y eficientes para hacer cálculos numéricos, pues utilizan un procesador que codifica las operaciones; sin embargo, es un solo procesador el que utilizan, y un error mínimo en el programa deriva en resultados incorrectos.

En contraste, agregó, el cerebro humano es más lento para realizar operaciones, pero es capaz de aprender y corregir fallas, aunque no esté previamente programado, explicó Zertuche Mones.
Se debe, en parte, a que cada neurona hace las veces de un procesador, de modo que se puede pensar que el cerebro funciona como una multiplicidad de procesadores, y lo que es aún más importante, éstos trabajan en paralelo, no forman una serie. Así, un error en uno de ellos es corregido por los otros, algo que la terminología científica designa como un sistema robusto.

Especialista en sistemas dinámicos complejos discretos, Zertuche investiga, entre otras cosas, modelos conocidos con el nombre de redes neuronales, y emplea técnicas de la física estadística y el análisis matemático asintótico. En su estudio de la conectividad cerebral se encuentra con un método eficiente, parcialmente modelado por circuitos electrónicos y otras disciplinas científicas, donde el comportamiento de una red constituida por muchas partes ofrece una amplia gama de funciones y se presta para el tema estadístico.

“La fuente del conocimiento del ser humano no reside en una de estas células ni en varias, sino en sus conexiones sinápticas; es algo que han entendido los neurofisiólogos. De hecho, es en la infancia y adolescencia que éstas se forman con base al aprendizaje; de ahí la importancia de este proceso en forma temprana. Los modelos matemáticos que se han desarrollado a partir de estudios de los neurofisiólogos, concuerdan con esto”, precisó el académico.

La robustez del cerebro humano es tal, que una persona puede trabajar aunque tenga una parte dañada a consecuencia, por ejemplo, de un accidente automovilístico. Quizá el sujeto pierde la movilidad, si el área afectada se relaciona con esa función, pero el intelecto puede seguir en marcha, ejemplificó el físico egresado de la UNAM, doctor en Ciencias por la Escuela Internacional Superior de Estudios Avanzados de Trieste, Italia, y miembro de la Academia Mexicana de Ciencias.

Cambios en la dinámica

Su estudio se centra en los cambios en la dinámica de las redes neuronales, en cómo se modifica el comportamiento general de la red a partir de mutaciones en sus partes, es decir, en grupos de neuronas. Para ello, emplea un elemento estadístico conocido como aproximación de campo medio.

Su interés actual se enfoca en los llamados autómatas celulares deKauffman, modelos matemáticos que son un tipo particular de vínculos neuronales. Se trata de entender cómo cambia la dinámica de éstos al modificar los valores de los parámetros que los definen y que esencialmente son el número de esas células y la conectividad existente entre ellas.

Zertuche aclaró que en este tipo de análisis el comportamiento de una neurona, o de una decena de ellas, es irrelevante, pues lo que se observa es el estado general de la red, y cómo están distribuidos los estados de activación de acuerdo a su conectividad.

Fuente: DGCS-UNAM