Buscando los algoritmos que subyacen a la vida

Para el informático Leslie Valiant, «aprendizaje automático» es redundante. En su opinión, tanto un niño pequeño que tantea una pelota de goma como una red de aprendizaje profundo que clasifica fotos de gatos están aprendiendo; llamar a este último sistema «máquina» es una distinción sin diferencia.

Valiant, informático de la Universidad de Harvard, no es el único científico que asume una equivalencia fundamental entre las capacidades de los cerebros y los ordenadores. Pero fue uno de los primeros en formalizar cómo podría ser esa relación en la práctica: En 1984, su modelo «probablemente correcto» (PAC) definió matemáticamente las condiciones en las que se puede decir que un sistema mecánico «aprende» información. Valiant ganó el Premio A.M. Turing -a menudo llamado el Premio Nobel de la informática- por esta contribución, que ayudó a engendrar el campo de la teoría del aprendizaje computacional.

Los saltos conceptuales de Valiant no se detuvieron ahí. En un libro de 2013, también titulado «Probably Approximately Correct», Valiant generalizó su marco de aprendizaje PAC para abarcar también la evolución biológica.

Amplió el concepto de algoritmo para convertirlo en un «ecoritmo», que es un algoritmo de aprendizaje que se «ejecuta» en cualquier sistema capaz de interactuar con su entorno físico. Los algoritmos se aplican a sistemas computacionales, pero los ecoritmos pueden aplicarse a organismos biológicos o especies enteras. El concepto establece una equivalencia computacional entre el modo en que aprenden los individuos y el modo en que evolucionan ecosistemas enteros. En ambos casos, los ecoritmos describen el comportamiento adaptativo de forma mecánica.

El objetivo de Valiant es encontrar «definiciones matemáticas del aprendizaje y la evolución que puedan abordar todas las formas en que la información puede entrar en los sistemas». Si tiene éxito, la «teoría del todo» resultante -una frase que el propio Valiant utiliza, sólo medio en broma- fusionaría literalmente la ciencia de la vida y la informática. Además, nuestras definiciones intuitivas de «aprendizaje» e «inteligencia» se ampliarían para incluir no sólo a los no organismos, sino también a los no individuos. La «sabiduría de las multitudes» dejaría de ser una mera figura retórica.

Quanta Magazine habló con Valiant sobre sus esfuerzos por disolver las distinciones entre biología, computación, evolución y aprendizaje. A continuación, una versión editada y condensada de la entrevista.

LESLIE VALIANT: Pertenecía a la comunidad de la informática teórica, especializada en la teoría de la complejidad computacional, pero también me interesaba la inteligencia artificial. Mi primera pregunta fue: ¿Qué aspecto de la inteligencia artificial podría convertirse en una teoría cuantitativa? Rápidamente me decidí por la idea de que debía ser el aprendizaje.

Cuando empecé a trabajar en ello [en la década de 1980], la gente ya estaba investigando el aprendizaje automático, pero no había consenso sobre qué tipo de cosa era el «aprendizaje». De hecho, el aprendizaje era visto con total recelo en la comunidad de la informática teórica como algo que nunca tendría la oportunidad de convertirse en ciencia.

En cambio, el aprendizaje es un fenómeno muy reproducible, como una manzana que cae al suelo. Cada día, los niños de todo el mundo aprenden miles de palabras nuevas. Es un fenómeno a gran escala para el que tiene que haber alguna explicación cuantitativa.

Así que pensé que el aprendizaje debía tener algún tipo de teoría. Como la inferencia estadística ya existía, mi siguiente pregunta fue: ¿Por qué la estadística no era suficiente para explicar la inteligencia artificial? Ese fue el comienzo: El aprendizaje debe ser algo estadístico, pero también es algo computacional. Necesitaba una teoría que combinara la computación y la estadística para explicar el fenómeno.

Entonces, ¿qué es el aprendizaje? ¿Es diferente de la computación o el cálculo?

Es un tipo de cálculo, pero el objetivo del aprendizaje es actuar bien en un mundo que no está modelado con precisión de antemano. Un algoritmo de aprendizaje toma observaciones del mundo y, dada esa información, decide qué hacer y es evaluado por su decisión. Un punto que se plantea en mi libro es que todo el conocimiento que tiene un individuo debe haber sido adquirido a través del aprendizaje o del proceso evolutivo. Y si esto es así, entonces el aprendizaje individual y los procesos evolutivos deben tener una teoría unificada que los explique.

Y a partir de ahí, se llega al concepto de «ecoritmo». ¿Qué es un ecoritmo y en qué se diferencia de un algoritmo?

Un ecoritmo es un algoritmo, pero su rendimiento se evalúa en función de la información que recibe de un mundo bastante incontrolado e impredecible. Y su objetivo es funcionar bien en ese mismo mundo complicado. Un algoritmo es algo que se ejecuta en un ordenador, pero también podría ejecutarse en un organismo biológico. Pero en cualquier caso, un ecoritmo vive en un mundo externo e interactúa con ese mundo.

¿Así que el concepto de ecoritmo pretende disipar esa intuición errónea que tenemos muchos de nosotros de que el «aprendizaje automático» es fundamentalmente diferente del «aprendizaje no automático»?

Sí, ciertamente. Desde el punto de vista científico, hace más de medio siglo que se ha dicho que si nuestros cerebros realizan cálculos, si pudiéramos identificar los algoritmos que producen esos cálculos, podríamos simularlos en una máquina, y la «inteligencia artificial» y la «inteligencia» serían lo mismo. Pero la dificultad práctica ha sido determinar exactamente cuáles son esos cálculos que se ejecutan en el cerebro. El aprendizaje automático está demostrando ser una forma eficaz de sortear esta dificultad.

Algunos de los mayores retos que quedan para las máquinas son aquellos cálculos que se refieren a comportamientos que adquirimos a través de la evolución, o que aprendimos de pequeños gateando por el suelo tocando y percibiendo nuestro entorno. De este modo, hemos adquirido conocimientos que no están escritos en ninguna parte. Por ejemplo, si aprieto un vaso de papel lleno de café caliente, sabemos lo que ocurrirá, pero esa información es muy difícil de encontrar en Internet. Si estuviera disponible de esa manera, podríamos hacer que una máquina aprendiera esta información más fácilmente.
¿Puede decirse que los sistemas cuyo comportamiento ya entendemos lo suficientemente bien como para simularlo con algoritmos -como los sistemas solares o los cristales- también «aprenden»?

Yo no consideraría que esos sistemas aprenden. Creo que tiene que haber algún tipo de actividad computacional mínima por parte del aprendiz, y si tiene lugar algún aprendizaje, debe hacer que el sistema sea más eficaz. Hasta hace una o dos décadas, cuando el aprendizaje automático empezó a ser algo que los ordenadores podían hacer de forma impresionante, no había pruebas de que el aprendizaje tuviera lugar en el universo, salvo en los sistemas biológicos.

¿Cómo puede aplicarse una teoría del aprendizaje a un fenómeno como la evolución biológica?

La biología se basa en redes de expresión de proteínas y, a medida que la evolución avanza, estas redes se modifican. El modelo de aprendizaje de la PAC impone algunas limitaciones lógicas sobre lo que podría estar ocurriendo en esas redes para causar esas modificaciones cuando se someten a la evolución darwiniana. Si reunimos más observaciones de la biología y las analizamos dentro de este marco de aprendizaje de estilo PAC, deberíamos ser capaces de averiguar cómo y por qué la evolución biológica tiene éxito, y esto haría que nuestra comprensión de la evolución fuera más concreta y predictiva.

¿Quiere decir que los ordenadores serían capaces de predecir de forma fiable lo que hará la gente?

Ese es un escenario muy extremo. ¿Qué datos necesitaría sobre usted para predecir exactamente lo que hará en una hora? Desde las ciencias físicas sabemos que las personas están hechas de átomos, y sabemos mucho sobre las propiedades de los átomos, y en cierto sentido teórico podemos predecir lo que pueden hacer los conjuntos de átomos. Pero este punto de vista no ha llegado muy lejos a la hora de explicar el comportamiento humano, porque éste no es más que una manifestación extremadamente complicada de demasiados átomos. Lo que quiero decir es que si se tiene una explicación computacional de más alto nivel de cómo funciona el cerebro, entonces se estaría más cerca de este objetivo de tener una explicación del comportamiento humano que coincida con nuestra comprensión mecanicista de otros sistemas físicos. El comportamiento de los átomos está demasiado alejado del comportamiento humano, pero si comprendiéramos los algoritmos de aprendizaje utilizados en el cerebro, entonces esto proporcionaría conceptos mecanicistas mucho más cercanos al comportamiento humano. Y las explicaciones que darían sobre por qué se hace lo que se hace serían mucho más plausibles y predictivas.

¿Y si los ecoritmos que rigen la evolución y el aprendizaje no se pueden aprender?

Es una posibilidad lógica, pero no creo que sea en absoluto probable. Creo que será algo bastante tangible y razonablemente fácil de entender. Podemos hacer la misma pregunta sobre los problemas fundamentales no resueltos de las matemáticas. ¿Cree que estos problemas tienen soluciones que la gente puede entender, o cree que están más allá de la comprensión humana? En este campo estoy muy seguro, de lo contrario no me dedicaría a esto. Creo que los algoritmos que utiliza la naturaleza son tangibles y comprensibles, y no requieren intuiciones que nosotros somos incapaces de tener.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *