El cerebro y el sistema nervioso ¿son realmente digitales?

 

Jonathan Tennenbaum*

El desarrollo inicial de las computadoras y de la inteligencia artificial (IA) está inseparablemente ligado al concepto emergente de la célula viva considerada como una especie de “máquina molecular”.

 

Sin embargo, las investigaciones más recientes señalan hacia una dirección muy diferente. Lejos de ser meros engranajes de una máquina, las proteínas poseen una especie de “inteligencia” propia. Hay motivos para creer que las “proteínas inteligentes” funcionan como un substrato de los procesos cognitivos humanos en el ámbito subcelular.

 

Tengo la esperanza de que, algún día, las proteínas se utilicen también como elementos analógicos en nuevos tipos de sistemas de la IA. Sin embargo, para que eso suceda, la IA debe superar el sesgo digital que ha acompañado su desarrollo hasta el día de hoy.

 

Organismos vivos como autómatas

Varios de los pioneros de la IA demostraron un profundo interés en el funcionamiento de los organismos vivos y su posible replicación por dispositivos hechos por el hombre. Entre ellas, en especial, John von Neumann y Alan Turing, y, de manera algo diferente, Norbert Wiener y Claude Shannon.

 

A partir de los años cuarentas, von Neumann comenzó a trabajar en una “teoría general de los autómatas”. El término “autómata”, como lo entendía, se debería aplicar a organismos vivos así como a máquinas creadas para imitarlos. El cerebro humano se incluiría en la categoría de autómata. El interés de von Neumann en los autómatas vivos y artificiales fue esencial para su contribución al desarrollo de los modernos sistemas de ordenadores.

 

Von Neumann estaba interesado en particular en la posibilidad de crear máquinas capaces de reproducirse y hasta de evolucionar, con lo que igualaría, así, la propiedad más esencial de los seres vivos, los “autómatas naturales”. Por consiguiente, se empeñó sin descanso en la tarea de crear una teoría matemática que abarcase ambas categorías, lo que, al parecer, consideraba la cuestión más importante de vida profesional.

 

Definió el tema en su presentación en el Simposio Hixon de 1948, titulada “La teoría general y lógica de los autómatas”. Volvió al tema posteriormente, en 1953, con un texto sobre “Máquinas y organismos”, y en su último trabajo, “El computador y el cerebro”, que vio la luz un año después de su muerte, en 1957. En 1966 se publicó una colección de sus artículos y manuscritos inéditos sobre el asunto con el título “La teoría de los autómatas reproductores”.

https://en.wikipedia.org/wiki/File:Von_Neuman_Self-replication_2.jpg]

 

El pionero de la computación Alan Turing contribuyó al concepto de un organismo vivo como autómata en un trabajo de 1952 titulado “Las bases químicas de la morfogénesis”. En el desarrolla la teoría matemática de un embrión en desarrollo, en el que se establece “un posible mecanismo por el que los genes de un zigoto (óvulo celular fertilizado) puede determinar la estructura anatómica del organismo resultante”.

 

Ciertamente nada del domino de los organismos vivos sugiere la idea de un proceso algorítmico programado genéticamente de forma más impresionante que el de la embriogénesis, la generación de un organismo adulto completo a partir de una célula única, por medio de la sucesión de estadios de desarrollo repetidos en todos los individuos de una especie.

 

El artículo de Turing presenta una teoría de cómo las formas geométricas del organismo se generan en proceso físico químico que involucra la producción y la difusión de sustancias químicas a las que llamó morfogenes.

 

Los detalles son en la actualidad obsoletos en gran medida, pero anticipan elementos del cuadro que apareció con el progreso posterior de la biología molecular.

 

El libro clásico de Norbert Wiener, “Cibernética: o control y comunicación en el animal y la máquina” (1948), influenció profundamente la biología molecular y el desarrollo de la inteligencia artificial.

 

Lo mismo ocurrió con el libro de 1949 de Claude Shannon, “Una teoría matemática de la comunicación”, el cual estableció lo que se conocería después como “teoría de la información”. El concepto de “información” de Shannon sirvió de punto de partida de la inteligencia artificial, mismo que, de una forma menos rigurosa, se introduciría en la biología con la expresión “información genética”. Es curioso que la genética fuera el tema de la tesis de doctorado de Shannon. En 1950 construyó un ratón electromecánico que se movía en un laberinto, lo que se convirtió en uno de los primeros experimentos de inteligencia artificial.

 

Su teoría de la información demostró ser extremadamente útil como herramienta técnica, por ejemplo, en el proyecto de sistemas de comunicación. Pero, a mi parecer, la subsecuente hegemonía de su concepto de información en virtualmente todos los campos provocó un énfasis exagerado y unilateral en el “discreto” –el lado combinatorio de la realidad-, a costa de la continuidad. Ni todo el mundo se divide perfectamente en piezas que se pueden disponer en un tablero de ajedrez. Una línea es más que una colección de puntos; los aviones no se mueven en el aire en secuencias de pequeños empujones constantes; la belleza no es igual a una disposición de pixeles y el significado nos es un conjunto de letras en una página.

 

Como argumentaré más adelante en esta serie, los esfuerzos para imponer el concepto de “información” al uso humano del lenguaje exacerbaron la estupidez de la inteligencia artificial, así como el problema de la estupidez actual de la sociedad humana.

 

El cerebro y el sistema nervioso ¿son realmente digitales?

Es interesante observar que John von Neumann, el más brillante de esos pioneros, fue inicialmente un tanto cauteloso en lo tocante al aparente carácter digital del sistema nervioso humano. En su artículo de 1948 afirmó:

 

“La neurona trasmite un impulso. Esta perece ser la función primaria, aunque la última palabra sobre esta función y de su carácter exclusivo o no exclusivo esté lejos de haber sido pronunciada. El impulso nervioso parece ser, principalmente, un caso de todo o nada, comparable a un dígito binario. Pero es igualmente evidente que esta no es toda la historia… Los organismos vivos son muy complejos, parte digitales y parte mecanismos analógicos. Las máquinas de computación, por lo menos en sus formas recientes a las que me refiero en este debate, son puramente digitales. Aunque estoy consciente del componente analógico de los organismos vivos, y sería absurdo negar su importancia, debo, sin embargo, para una discusión más simple, desconsiderar esa parte. Debo considerar a los organismos como si fuesen puramente digitales”.

 

Von Neumann, desgraciadamente, se aferró en la mayor parte de sus trabajos posteriores a esa “simplificación” digital de los organismos vivos y, en especial, del cerebro y del sistema nervioso.

 

Desde el punto de vista de lo que sabemos hoy en neurobiología, es un absurdo tratar de entender la función de las neuronas y del sistema nervioso con supuestas analogías con los computadores digitales (véase la Parte 5 de esta serie).

 

El ADN y la “máquina de Turing celular”

El reino de la discreción y de la combinación en la biología –su “digitalización” virtual, podríamos decir- fue cimentada con el descubrimiento de la estructura de la hélice doble del ADN en 1953, por la enunciación de Francis Crick del “Dogma central de la biología molecular”, de 1957, y del descifrado del código genético, a principios de los años sesentas.

 

Según el “Dogma central” y su elaboración sistemática, las secuencias del ADN contienen la información fundamental y las “reglas” del funcionamiento de las células: ellas permanecen inalteradas durante toda la vida de la célula, excepto por raras mutaciones fortuitas, y el código genético, contenido en el ADN, determina las estructuras de las proteínas que controlan la maquinaria química de la célula.

 

El acto fundamental de la división celular, en particular, por el cual los organismos vivos crecen y se multiplican, ocurre paso a paso en una secuencia de acontecimientos determinada precisamente por medio de la activación sucesiva de genes contenidos en el ADN. Todo esto parece seguir exactamente el esquema general del proceso algorítmico establecido por Alan Turing en 1936 (véase la Parte 2 de esta serie).

 

Una célula viva sería, por lo tanto, un tipo especial de máquina de Turing, realizada en una base molecular. En términos populares: las células funcionan como computadoras digitales, con su ADN funcionando como el programa de computadora. El fisiólogo ganador del Premio Nobel Sydney Brenner resumió su doctrina de la biología molecular de forma más sucinta en un ensayo de 2002, en homenaje a Alan Turing, titulado “Ruta del código de la vida”: “Los biólogos hacen tan sólo tres preguntas a un organismo vivo: ¿Cómo funciona? ¿Cómo está construido? Y ¿Cómo quedó así? Esos son problemas incorporados a los campos clásicos de la fisiología, de la embriología y de la evolución. En el centro de todo están las bandas que contienen las instrucciones para construir esas máquinas de Turing especiales”.

 

La doctrina sagrada del código genético

Todos los estudiantes de hoy aprenden a recitar la Doctrina del código genético. Es más o menos así: “Las proteínas son las organizadoras y los agentes de la actividad celular, cada una con su área de especialización. Ellas se forman a partir de secuencias lineales de aminoácidos, de los que existe 20 a lo sumo”.

 

La información que especifica la secuencia de los aminoácidos para una determinada proteína es codificada en el ADN de la célula por medio de la secuencia de moléculas de nucleótidos que mantienen juntas las dos bandas de la doble hélice del ADN. Existen cuatro nucleótidos diferentes, los que definen un código de cuatro letras. Los genes corresponden a secuencias escritas en el código. Estos, a su vez, son transcritos por la maquinaria molecular del núcleo de la célula de ADN, en moléculas de ARN que funcionan como transportadoras de información. Luego de algunas ediciones, las moléculas de ARN de alguna forma son transportadas a afuera del núcleo y alimentas en estructura llamadas ribosomas.

 

Un ribosoma que se mueve a lo largo del ARN como la cabeza de un lector de banda produce la cadena de aminoácidos correspondiente, la compone la materia especifica deseada. Esto se hace de acuerdo a un esquema de codificación predefinido en el que cada conjunto sucesivo de tres letras (triplet o trinca) del código de cuatro letras corresponde a un aminoácido específico. Como existen 64 triplets posibles, pero sólo 20 aminoácidos, el código es redundante.

 

La historia no contada

La Doctrina del código genético, como se enuncia comúnmente, no toma en cuenta varios puntos cruciales. Estos incluyen, entre otros, el problema del pliegue de las proteínas, la existencia de cambios epigenéticos hereditarios (no codificados por el ADN) en organismos y el papel no resuelto de 99 por ciento del ADN, que parece no tener una función de codificación.

 

Trataré aquí tan sólo del problema del pliegue de las proteínas, ya que se relaciona más directamente con presente y el futuro de la inteligencia artificial.

 

Lo que sale de la transcripción del ADN es tan sólo una cadena de aminoácidos. Pero, para desempeñar su función en la célula –p.ej., como una enzima, receptor de membrana, anticuerpo, etc.-, la proteína primero debe transformarse de esa cadena lineal en una tridimensional precisa, única para cada proteína. Esta “conformación nativa” puede ser extraordinariamente complicada e incluir topologías de nudos múltiples.

 

Se debe tener en mente que las moléculas de proteínas del cuerpo humano consisten en medias de 480 aminoácidos, que contienen un total de casi 10 mil átomos. La mayor de esas proteínas, la titina, está formada por una cadena de 35.350 aminoácidos y tiene más de 600 mil átomos. La titina constituye cerca de 10 por ciento de nuestro tejido muscular.

 

¿Cuál es el problema? El código del ADN no contiene indicaciones sobre cuál debe ser la conformación correcta de una proteína dada, no cómo la generará a partir de la cadena lineal original. Todo lo que dice el ADN es la secuencia de aminoácidos a lo largo de la cadena de la proteína. ¿Cómo sabe la proteína en qué forma se convertirá y cómo llegará allá? ¿De dónde viene la información extra?

 

Esto llegó a conocerse como el “Problema del pliegue” (aunque los movimientos reales de la proteína incluyan torsión, alongamiento, etc.).

 

El problema del pliegue es fundamental no sólo para la biología molecular, sino que tiene también efectos de largo alcance para la medicina.

 

La lista de “enfermedades de proteína mal plegadas” disturbios conformacionales de proteínas) incluye el mal de Alzheimer y otras formas de demencia, enfermedad de Parkinson, fibrosis cística, enfermedad falciforme y, probablemente, también la diabetes tipo II. En la conformación equivocada, las proteínas no sólo se vuelven disfuncionales, sino que también pueden interrumpir el funcionamiento normal de la célula.

 

En 1968-69, el biólogo molecular CyrilLevinthal propuso lo que se conocería después como “La paradoja de Levinthal”. Luego de ser estiradas en una forma aproximadamente lineal, las proteínas en solución vuelven a sus conformaciones nativas precisas en, cuando mucho, algunos segundos. Por otra parte, dado el número de ángulos de conexión variables, incluso en una proteína pequeña, el número de conformaciones posibles es astronómicamente grande. Las estimaciones mostraban simplemente que si una proteína tratase todas ellas, una cada vez, a razón de un billón de intentos por segundo, en promedio, ¡tomaría más de la edad estimada del Universo para encontrar la configuración correcta!

 

Ante la rapidez y la precisión con las que las proteínas asumen su formación correcta, Levinthal concluyó que el pliegue no puede ser aleatorio, sino que debe seguir un camino más o menos bien definido. Las interacciones físicas entre las varias partes de la molécula, con sus cargas eléctricas, ángulos de conexión, etc., guían, evidentemente, a la proteína en su pliegue y torsión en la forma correcta.

 

Este problema nos conduce a un mundo completamente diferente de la combinatoria, de la computación digital y de las máquinas de Turing.

 

Estamos lidiando con física radical.

Por medio siglo los científicos han luchado para resolver la paradoja de Levinthal. ¿Qué significaría una solución?

  • Primero, explicar cómo las proteínas en general son capaces de “encontrar” sus conformaciones nativas de forma tan rápida y confiable.
  • Segundo, ser capaz de prever la configuración tridimensional de una proteína, dado nada más que su código de ADN.
  • Algunos científicos consideran la Paradoja de Levinthal “resuelta esencialmente”, aunque no están de acuerdo.

 

En lo que toca a la previsión de la estructura, un artículo de 2019 aparecido en el International Journal of Modern Physics observa:

 

“Prever la estructura tridimensional de una proteína a partir de su secuencia de aminoácidos es uno de los problemas sin resolver más importantes de la biofísica y de la biología computacional. En la actualidad, algunos de los métodos más exitosos tienen una probabilidad razonable de prever el pliegue de pequeñas proteínas de dominio único”.

 

Las ecuaciones matemáticas que describen el comportamiento de una proteína de acuerdo con las leyes de la física cuántica son irremediablemente muy complicadas de resolver, aun con simplificaciones radicales, inclusive con los súper computadores mayores y más rápidos.

 

La previsión de la estructura de la proteína ha sido un importante argumento de venta para el desarrollo de súper computadores de última generación, como la serie Blue Gene de IBM. Pero los intentos de resolver el problema con cálculos del tipo “fuerza bruta” dieron resultados decepcionantes.

 

En lugar de eso, la actual previsión de la estructura emplea estrategias mixtas, con el uso de grandes bancos de datos de moléculas con estructuras 3-D conocidas, simulaciones de computadora y un amplio conocimiento de la ciencia experimental y teórica de las proteínas, en un esfuerzo para determinar la forma más probable.

 

La inteligencia artificial está encontrando aquí un campo de aplicación cada vez mayor, en especial en sistemas de aprendizaje profundo. El lector puede encontrar una presentación útil sobre el tema el blog DeepMind, “ “AlphaFold: Using AI forScientific Discovery”.

 

¿Inteligencia artificial a partir de proteínas?

Como una reflexión más, me gustaría sugerir una idea potencialmente revolucionaria:

 

Para aplicar el aprendizaje profundo, el sistema de la IA debe ser entrenado en un gran banco de datos con información sobre el comportamiento conocido de las proteínas. De hecho, las proteínas son, evidentemente, más “inteligentes” que nuestros sistemas digitales. No necesitan de ningún cálculo para desdoblarse en la configuración correcta; ¡sencillamente lo hacen de forma natural!

 

¿Por qué no sustituir los transistores estúpidos de nuestra computadora por proteínas u otras moléculas inteligentes? ¿Por qué no sustituir cálculos trabajosos con acontecimientos físicos naturales?

 

La “la computación biológica” ya es un campo de investigación establecida. Todavía parece dominada por mentalidades algorítmicas, pero su futuro está abierto.

*MSIa Informa

Imagen: eldiariony.com