domingo, 18 de abril de 2010

La célula vista como un conjunto de lego-componentes



Este pasado 10-13 de Abril 2010 tuvo lugar en Cambridge-UK un curso de capacitación organizado por la Organización europea en Biología Molecular (EMBO) en el área de Biología sistémica (In silico Systems Biology). El curso se focalizo en la reconstrucción y el análisis de redes de entidades que forman parte de sistemas biológicos (Proteínas, ARN mensajero, etc).
Durante estos 4 días, investigadores provenientes de diferentes centros de investigación europeos se reunieron en el campus del Instituto de Bioinformática Europeo (EBI) a fin de poder ampliar sus conocimientos en esta nueva área que trata de estudiar los eventos moleculares que tienen lugar en los seres vivos desde un punto de vista global, donde el objetivo principal es el de identificar las múltiples interacciones como forma de explicar el funcionamiento celular como la consecuencia de la coordinación de diferentes eventos moleculares tanto en el tiempo como en el espacio que estos ocupan.
Los expositores en este evento fueron investigadores conocidos en esta área de la biología molecular provenientes de instituciones tales que la “Universitat Pompeu Fabra” de Barcelona-España; el Instituto Curie en Paris-Francia; el Centro de Investigación en Oncológica en Salamanca-España; la Universidad Humboldt en Berlín-Alemania, el Instituto Investigación en Oncológica en Londres-Inglaterra, la Universidad de Heidelberg-Alemania, así que del Instituto de Bioinformática Europeo localizado en Cambridge-UK.
Brevemente me gustaría indicar que esta área no es más que una consecuencia directa del progreso tecnológico en el área del estudio de eventos moleculares. En efecto, desde la secuenciación del primer genoma, así que el establecimiento de tecnológicas capaces de analizar el contendió proteico global de una muestra através del análisis de espectrometría de masa, el análisis molecular tomo un aspecto global. Uno de los desafíos actuales es el de aumentar nuestra capacidad de comprensión de estos estudios globales y esto empieza a tener resultados gracias al desarrollo de métodos de modelización de redes que integran toda esta información através de interacciones entre los componentes que forman parte de estos estudios globales.
De forma paradójica, el progreso en el estudio de eventos biológicos, que tuvo lugar a través de la transición de la observación del organismo en su totalidad hacia el estudio de forma independiente de los componentes que la constituyen, ahora busca reconstruir la interacción entre estos componentes afín de poder explicar el organismo en su totalidad…como un reloj desmantelado al cual tratamos de reconstruir esta vez estando conciente de los componentes que forman parte de su mecanismo interno.

domingo, 4 de abril de 2010

A las puertas de la automatización de los ensayos en laboratorio

Ensayos de laboratorio tales que « patchclamping» son conocidos como técnicas especializadas que necesitan muchos años de entrenamiento. Por estas razones, especialistas en ciertas áreas son vistos como «talentosos artesanos» capaces de triunfar donde otros fracasaron. Sin Lienembargo, La empresa americana “Molecular Devices” (MDS analytical Technologies) comercializa actualmente PatchXpress 7000A, un aparato capaz de analizar la diferencia de potencial eléctrico en miles de células en solamente horas.





Otra metodología, el estudio de la estructura tridimensional de proteínas por Cristalografía, viene de ser automatizada como parte del proyecto PSI (“Protein Structure Initiative”) financiado por el Instituto Nacional de Salud Americano (NIH).





Estos ejemplos vienen simplemente a completar una larga lista de procesos de automatización que tienen origen ya en los años ochenta, con la aparición de los primeros métodos automatizados tal que la PCR o la secuenciación. Cabe remarcar que uno de los ejemplos palpables del impacto de la automatización en laboratorio fue la realización del proyecto de secuenciación del genoma humano, el cual parece simplemente imposible sin tales progresos.
Este tipo de avances en la automatización de los ensayos en laboratorio tienden a eliminar las etapas manuales de experimentación a fin de dejar más tiempo al análisis de los resultados generados por los procesos automatizados y nos llevan a imaginar en un laboratorio donde el experimentador esta en realidad operando todos los procesos desde el teclado de su computadora. Más interesante aun, Ross King y su equipo en la universidad Aberystwyth en Gran Bretaña, desarrollaron Adam, el primer sistema robótico capaz de realizar un descubrimiento científico sin la necesidad de un operador. Este último avance va más allá de la automatización del proceso experimental, focalizándose en la automatización del método científico que se aplica a fin de analizar los resultados de la experimentación a fin de generar una nueva hipótesis que será a su vez evaluada por un nuevo ensayo experimental.
Si bien este ultimo ejemplo deja imaginar que la automatización en los laboratorios de investigación pueden tomar parte no solamente en el proceso de los ensayos pero también en le proceso de análisis de estos, no debemos olvidar que un proceso de automatización, como su nombre lo indica, solo permite de realizar el mismo proceso de forma repetitiva, pensemos entonces que mientras la robótica no llegue a reproducir la característica mas importante de los seres humanos, tal que la Creación, nuestras competencias como investigadores seguirán contando con un rol importante en el seno de un laboratorio.

viernes, 22 de enero de 2010

"The Genome Generation"

El descubrimiento de la estructura en doble hélice del ADN en 1953 así que la existencia del código genético en 1961, permitieron elucidar dos importantes características de esta molécula: la complementariedad de las cadenas que la componen responsable de la alta fidelidad durante el proceso de replicación del material genético; y la naturaleza digital de su composición en bases nucleicas que gracias a combinaciones precisas definen el código genético de las proteínas, las maquinas moleculares de la vida.
Los primeros esfuerzos para desvelar el codigo digital que compone un organismo llegaron a dar sus primeros resultados en los años setenta con la secuenciación del primer genoma completo: el del bacteriofago Fx174 compuesto de un total de 5000 pares de bases. Las siguientes décadas dieron lugar a lo que actualmente conocemos como “the genomic era”, debido a la secuenciación del genoma de organismos tales que Eschericia Coli (Septiembre 1997), Saccharomyces cerevisiae (Mayo 1997), Caenorhabditis Elegans (Diciembre 1998), Drosophila melanogaster (marzo 2000), Arabidopsis Thaliana (Diciembre 2000) así que Homo Sapiens (Febrero 2001). Estos eventos representan el comienzo de una nueva era en el mundo de la Biología, de la medicina, y porque no decir simplemente en el mundo en general.Esta transición de era es debida a la capacidad que los genomas secuenciados nos proporcionan de poder estudiar procesos biológicos como un conjunto de coordinados eventos responsables de mantener el funcionamiento propicio de la célula.
Una de las consecuencias directas de la era genómica fue la de desarrollar útiles tecnológicos capaces de poder interrogar el contenido del código digital que componen los genomas secuenciados. Es así que ya en 1995 el concepto de “DNA biochips” (conocidos también como “DNA arrays”) fue descrito por la primera vez como una metodología capaz de utilizar la complementariedad de las cadenas de ADN combinada a la información proveniente de los genomas secuenciados afín de poder estudiar sistemas biológicos desde un punto de vista global del contenido del genoma que los componen. Estos micro arreglos de miles de moléculas de ADN fijados de forma estable en una superficie sólida representando asi el contenido digital completo del genoma en cuestión, permitieron por ejemplo en 2006 la caracterización de programa completo de transcripción en S. cerevisiae y desde entonces esta metodología, conocida como transcriptomica, permite el estudio de eventos de transcripción desde un punto de vista global en muchos otros organismos incluidos los seres humanos.
La combinación de esta tecnología con metodologías de immunoprecipitacion de la cromatina permitió además el estudio de eventos de interacción entre proteínas y el ADN a nivel genómico. Esta tecnica conocida como ChIP-chip (de las siglas en ingles Chromatin Immuno Precipitacion on DNA biochips) permitieron desde entonces la caracterización de sitios de interacción entre el ADN y proteínas tales que factores de transcripción, Proteínas responsables de eventos de la replicación del material genético, pero también otros factores estructurales tales que Histones, Cohesinas, condensitas, etc.
En estos últimos años un nuevo salto tecnológico tuvo lugar; hago referencia a la llegada de maquinarias de secuenciación de “segunda generación” capaces de leer 1 billón de bases nucleotidas en horas de trabajo en un solo laboratorio equipado de esta tecnología, en contraste con la necesidad de contar con el esfuerzo de decenas de laboratorios, así que de años enteros para el mismo resultado. Prueba del esfuerzo que representaba este tipo de proeza en finales de los noventa, podríamos recordar la celebración que tuvo lugar el 23 de noviembre 1999 afín de conmemorar la secuenciación de un tercio del genoma humano por el consorcio publico internacional, a saber exactamente 1 billón de bases secuenciadas con la tecnología de la época. Estos aparatos de segunda generación son actualmente utilizados no solamente a fines de decodificación de nuevos genomas, pero también a aplicaciones conocidas anteriormente como la transcriptomica así que el estudio de interacción de proteínas con el ADN (conocida actualmente con el nombre de RNA-seq y ChIP-seq respectivamente en el caso de la utilización de esta nueva tecnología de secuenciación).
Todo parece indicar que estamos en el principio de una era postgenómica ya que aparatos de secuenciación de tercera generación capaces de mejorar el rendimiento de decodificación y por consecuencia el de disminuir los costos de forma significativa ya se encuentran en las ultimas etapas de evaluación. Es así que el costo de secuenciación del genoma humano por el consorcio internacional fue de 3 billones de dólares americanos, pero con la tecnología de segunda generación el costo actual es de 50000 dólares. El objetivo actual es el de alcanzar la cifra mágica de 1000 dólares por genoma humano, costo que parece concordar con la capacidad de secuenciación de los aparatos de tercera generación. A este costo se espera que la secuenciación de genomas deje de ser parte exclusiva de los laboratorios de investigación para formar parte importante de la medicina del siglo 21. Como podrán ver mis queridos lectores, nuestros hijos formaran parte de lo que se empieza a llamar actualmente como la generación Genoma “The Genome Generation”.