Teoría del orden, entrevista con Cristian Rocha

Por Federico Kukso. Publicado originalmente en Página/12 (http://www.pagina12.com.ar/diario/ciencia/19-84329-2007-05-02.html)

Unión de lo mejor de dos mundos –uno en el que reina lo orgánico (la biología) y otro en el que domina lo artificial (las ciencias de la computación)–, la bioinformática debutó por una necesidad: organizar, analizar y distribuir los grandes flujos de datos que se generan a diario en genómica y proteómica y así ayudar a comprender un poco más cómo funciona la vida. Los microscopios, las probetas y los cultivos les hacen cada vez más espacio a las computadoras y a los especialistas en el tema que las manejan. “La computación es la ciencia que se dedica a automatizar las tareas y se puede aplicar para solucionar en un tiempo mucho más rápido problemas que los biólogos sabían resolver”, aclara Cristian Rocha, investigador del Departamento de Computación y miembro del Grupo de Modelado Molecular dirigido por el doctor Darío Estrin, del Departamento de Química Inorgánica y Físico-Química de la Facultad de Ciencias Exactas y Naturales (UBA).

–¿A qué se dedica en particular?

–Trabajo en lo que se denomina “bioinformática estructural”. A grandes rasgos se podría decir que es el intento se solucionar problemas biológicos a través de la computación. Esta definición es medio complicada porque puede venir cualquiera, agarra el programa Excel, coloca un par de datos sobre el crecimiento de una colonia de bacterias, hace una curva y dice que está haciendo bioinformática.

–¿Y no es así?

–No tanto. Hay mucho más. La bioinformática comenzó a ser una disciplina aparte cuando surgieron problemas que dentro de la biología no se podían resolver pues no había herramientas para hacerlo. Los primeros fueron problemas de lineamientos de secuencias.

–O sea…

–Se quería saber si dos genes eran similares o no, si podían tener la misma función; entonces se preguntó cómo podían compararse. Los biólogos lo resolvieron a mano pero de pronto comenzaron a aparecer cien, doscientos, quinientos, miles de genes y no se tenía ni idea de cómo resolver eso en tiempos aceptables. Y encima, en la década del ’90 se dio un boom de información con el Proyecto Genoma Humano.

–¿Es ahí donde nace la bioinformática?

–No precisamente. La bioinformática apareció en la década de 1960 con resolución de problemas de evolución, en donde se intentaba comparar diferentes especies o inclusive genes, o para conocer similitudes entre secuencias de aminoácidos, proteínas. Era una especie de computación aplicada a la biología. El boom se dio no tanto con el Proyecto Genoma en sí sino a partir de la empresa privada Celera Genomics.

–La empresa de Craig Venter, una de las que descifró el código genético.

–Propuso una forma bastante original de obtener todos los genomas a partir de secuenciamiento aleatorio o sea, agarrar todos los genes del genoma, partirlos en miles de formas diferentes y empezar ahí a secuenciar. El problema es que uno adquiere una información increíblemente alta y ordenar todo eso es de un costo altísimo. La única solución fue hacerlo de forma automática: conseguir supercomputadoras y empezar a ordenar todo los datos usando algoritmos que ya eran conocidos. Ahí los biólogos empezaron a darse cuenta de que eran necesarias grandes bases de datos para almacenar los resultados de sus propias investigaciones.

–Pero los biólogos y los especialistas en ciencias de la computación manejan dos idiomas diferentes.

–Sí y por eso empezaron a surgir problemas de terminología que se solucionaron con definiciones de conceptos que unificaron las dos disciplinas. La bioinformática está creciendo: el objetivo es poner un poco de orden en el caos informativo de la biología.

–¿En qué período se está?

–En una especie de meseta: el gran surgimiento fue en la década del 90. Ya está terminando la etapa genómica. Ya se conocen todos los métodos, ya se hace casi todo automáticamente. Ahora viene otro salto con la proteómica, que es un poco más difícil. En 2000 comenzaron a automatizarse las tareas de digitalización de proteínas. Pero en el caso de la obtención de la estructura tridimensional se dan pasos bastante lentos. Se tarda 3 o 4 meses para obtener la descripción tridimensional. Y además esa información que uno obtiene no es todavía suficientemente útil. Uno quiere conocer la función de una proteína, se quiere saber si eso se mueve y con qué interactúa. Las moléculas solas en la célula no hacen nada, necesitan de otras para poder interactuar.

–No hay nada aislado.

–No. La bioinformática no sólo se involucra en el estudio del genoma y del proteoma, sino también lo que hace poco tiempo se empezó a llamar el “interactoma”. Mientras que el genoma es el conjunto de todos los genes de una célula, y el proteoma es el conjunto de todas las proteínas involucradas en la vida de la celular, el interactoma es el conjunto de todas las interacciones entre todas esas proteínas. Actualmente los estudios originales en bioinformática se centran en el interactoma, ya que la proteómica requiere de mayor procesamiento y los costos de obtención de datos son muy superiores.

–¿Y en el laboratorio qué hacen?

–Modelado molecular. Agarramos una proteína, vemos cómo es su movimiento con respecto al tiempo, si hay alguna reacción química.

–Con el modelado se le da también un grado importante de visibilidad.

–Ves lo que está ocurriendo. El problema es que muchos procesos en la célula se dan en tiempos muy cortos, menos de nanosegundos. Yo estudio lo que se llama el “docking de proteínas”, más específicamente investigo la “predicción de lugar de unión entre proteínas flexibles” y una de las proteínas con las que trabajo se llama “DJ1” y está involucrada en la enfermedad de Parkinson, cuya mutación es prevalente en familias con Parkinson hereditario. Uno sabe que hay proteínas que interactúan entre sí. En el laboratorio se ven y miden las reacciones. Lo que no se sabe es cómo se “tocan”, dónde se tocan, y si se tocan, si habría alguna forma de modificar alguna de las dos proteínas para poder decidir que se toquen menos o más. Mi trabajo es averiguar dónde es que interactúan. Y eso también determina la función.

–¿Quién se adapta a quién: el biólogo al especialista en ciencias de la computación o al revés?

–Yo me tuve que adaptar mucho más que los biólogos. Mi disciplina tiene muchas cosas abstractas; yo tengo una visión bastante genérica de las cosas, no hablo de una proteína sino de todas las proteínas que podrían tener una reacción. Y la gente de biología, en cambio, tiene su proteína, su parásito o bacteria y se concentran en eso y viene con un problema puntual.

–Son dos enfoques distintos.

–Que muchas veces chocan por ejemplo en el tiempo: un biólogo quiere la solución ya mientras que yo quiero dar una buena solución para resolver todos los problemas de la misma especie. Los químicos están un poco en el medio.

–¿Y cómo entró a este campo?

–Me interesaba la computación molecular: utilizar moléculas para resolver cálculos computacionales. Nadie acá hacía eso y lo más cercano era la bioinformática.

–¿Y con qué se topó?

–Con que en lo biológico, como en computación, también hay un montón de procesos automáticos. La computación se puede aplicar a la biología y la biología a la computación: algoritmos genéticos, algoritmos evolutivos, es decir, se tratan de reproducir comportamientos de la naturaleza dentro de la computadora, siempre con límites bien marcados. También están las redes neuronales. Se agarró una neurona, se vio que había un comportamiento bien definido y alguien se preguntó por qué no aprovechar ese comportamiento y progamarlo en una computadora.

–¿Qué lo sorprendió de lo biológico?

–Nuestros preconceptos en relación con las proteínas. Cuando uno imagina algo químico se lo imagina muy fijo, que no cambia. Y no es así: todo tiene sus vibraciones, incluso el agua tiene distintos comportamientos de ordenación de sus moléculas. Me sorprende también lo complejos que son los procesos internos de una célula. Estudiar la interacción de una proteína con otra no es suficiente, hay que ver qué pasa con todo el resto y cómo es la célula capaz de diferenciar cierto tipos de moléculas. Uno ve eso desde afuera y cree que es completamente aleatorio. Pero se sabe que hay comportamientos que tienen que ocurrir de tal manera porque si no la célula se muere. Uno se pregunta cómo fue la naturaleza capaz de construir toda esa complejidad a partir cosas tan sencillas como moléculas. Al meterse en niveles cada vez más pequeños, se siguen encontrando detalles.

 

Comentarios