Biocomputación
|
Biocomputación. Ciencia que estudia el desarrollo y utilización de sistemas computacionales basados en modelos y materiales biológicos (biochips, biosensor, computación basada en ADN, redes de neuronas, algoritmo genético
Sumario
Historia
Durante la segunda mitad del siglo XX, gran parte de los avances de la ciencia han sido consecuencia del desarrollo de los conocimientos y tecnologías que permiten el estudio y la manipulación de las moléculas de la vida (bioquímica y biología molecular), y de aquellas que facilitan la interpretación e integración de datos, así como la ejecución de procesos a velocidad mucho mayor que la propia acción humana (ciencias de la computación). Ambas áreas de la ciencia se han desarrollado simultáneamente. Existen coincidencias que así lo demuestran:
- En 1956, Arthur Kornberg sintetizó por primera vez ADN in vitro a partir de nucleótidos, mientras John Backus inventaba el primer lenguaje de programación de computadoras (Fortran).
- En 1959 Severo Ochoa y Kornberg recibían el Premio Nobel por la biosíntesis de ácidos nucleicos, Grace Murray Hopper inventaba el lenguage Cobol.
- En 1965, Jacob, Lwoff y Monod recibían el Premio Nobel por su teoría de la regulación génica, al tiempo que John George Kemeny y Thomas Eugene Kurtz desarrollaban el BASIC.
- En 1967, Kornberg consiguió la primera replicación in vitro de material genético y Gene Amdahl proponía la construcción de una computadora con procesadores en paralelo.
- Durante 1970-1971, Hamilton Othanel, Daniel Nathans y Hamilton Smith descubrían las primeras enzimas de restricción (las herramientas básicas de la tecnología del ADN recombinante) y la ingeniería genética, y se introducían en el mercado los discos blandos (floppy disks), los microprocesadores (chips) y la primera calculadora de bolsillo (de Hellemans y Bunch, 1988).
En realidad son los biólogos y los bioquímicos quienes hacen su primer acercamiento a la tecnología computacional como elemento fundamental para su trabajo diario.
La biocomputación ha sido la base para ayudar en las grandes investigaciones sobre la vida; el diagnóstico genético, por ejemplo, tiene mucha influencia en la vida de todas las personas, pero la mayoría de la gente no está enterada de ello.
En 2010, un equipo dirigido por Craig Venter sintetizó por vez primera un código de ADN “traduciéndolo” del lenguaje de un ordenador, y dio comienzo así a la era de la biocomputación, demostrando a efectos prácticos que el físico Erwin Schrödinger no se equivocaba cuando especuló, allá por 1944, años antes del descubrimiento de la doble hélice de ADN, que la vida es un guión escrito en un código simple parecido al código Morse.
Otras disciplinas
- La bioinformática o biología molecular computacional, consiste en la investigación y desarrollo de la infraestructura y sistemas de información y comunicaciones que requiere la biología molecular y la genética (redes y bases de datos para el genoma. La misma es un elemento teórico y una herramientas prácticas, para que los científicos puedan explorar las proteínas y el ADN.
- Biología computacional: computación que se aplica al entendimiento de cuestiones biológicas básicas, no necesariamente en el nivel molecular, mediante la modelización y simulación (ecosistemas, modelos fisiológicos).
Semejanzas y Diferencias
La vida es un código, un archivo de órdenes en un lenguaje de base cuatro: frente al binario informático, formado por 0 y 1, el código genético consta de cuatro moléculas que se esconden tras las denominaciones A, C, G y T.
Un sistema mínimo de vida necesita un genoma básico de 151 genes los cuales, por tanto, están presentes en cualquier organismo. Son las instrucciones que necesita la vida para expresarse. El resto son habilidades añadidas.
Una secuencia de ADN contiene las instrucciones que se necesitan para realizar una tarea en la célula. En el lenguaje de la comparación con la máquina, el ADN es el software; cuando se activa una secuencia de ADN, es como arrancar un programa en un ordenador. Las proteínas son el hardware, los robots naturales tal y como las denomina Craig Venter.
Por cada tarea, hay una proteína específica que la lleva a cabo: el código de ADN se copia en el ARN, y éste sintetiza la proteína, es decir, fabrica la herramienta necesaria según los planos que ha copiado.
Todo el proceso requiere energía, y esto también forma parte de las instrucciones: hay una parte del genoma que contiene las instrucciones sobre cómo generar energía mediante metabolismo, convirtiendo el dióxido de carbono en metano para producir moléculas de energía y fabricar proteínas.
En el caso de la vida sintética desarrollada por Craig Venter, la única diferencia con la naturaleza es que el código de ADN está en un ordenador; luego, sólo hay que traducir un lenguaje a otro, igual que hace el ribosoma al convertir el código del ARN en una proteína. Y es mucho más barato sintetizar un gen desde un ordenador que clonarlo. El proceso apenas dura unas horas.
La Computación para la Biología
Desde principios de los años noventa, muchos laboratorios han estado analizando el genoma completo de varias especies, como bacterias levaduras, ratones y seres humanos. Durante estos esfuerzos de colaboración se han generado cantidades enormes de datos, que se recogen y se almacenan en grandes bases de datos, la mayoría de las cuales son publicadas y accesibles.
Además de recopilar todos estos datos, es necesario comparar estas secuencias de nucleótidos o de aminoácidos a las semejanzas y a las diferencias de cada hallazgo. Puesto que no es muy conveniente comparar las secuencias de varios (cientos) nucleótidos o aminoácidos de manera manual, varias técnicas de cómputo fueron desarrolladas para solucionar este problema. Además, las máquinas tienen menos errores que un acercamiento manual. Al uso de técnicas de cómputo para analizar datos biológicos se le denomina biocomputación.
Con el incremento en complejidad y capacidad tanto de las computadoras como de las técnicas de investigación, se necesitan "puentes" humanos que puedan entender ambas disciplinas y sean capaces de comunicarse con los expertos de los dos campos.
Históricamente el uso de las computadoras para resolver cuestiones biológicas comenzó con el desarrollo de algoritmos y su aplicación en el entendimiento de las interacciones de los procesos biológicos y las relaciones filogenéticas entre diversos organismos. Se debe distinguir entre tres acepciones en las que se unen la biología y la informática, pero con objetivos y metodologías bien diferenciadas:
La Biología para la Computación
Los científicos siguen dando pasos de gigante para que algún día sea posible utilizar ADN en tareas informáticas. De momento, especialistas de la Universidad de Wisconsin-Madison han conseguido trasladar una muestra de este material genético desde el mundo flotante de un tubo de ensayo a la superficie rígida de una placa de cristal y oro.
Con ello, no es descabellado pensar que en el futuro el ADN pueda ser usado para llevar a cabo las mismas tareas que ahora precisan de innumerables circuitos electrónicos y silicio.
La computación mediante ADN es una tecnología aún en pañales. Expertos como Lloyd Smith buscan capitalizar la enorme capacidad de almacenamiento de información de estas moléculas biológicas, las cuales pueden efectuar operaciones similares a las de una computadora a través del uso de enzimas, catalizadores biológicos que actúan como el software que ejecuta las operaciones deseadas.
La colocación del ADN sobre una superficie sólida, alejándolo del tubo de ensayo, es un paso importante porque simplifica su manipulación y acceso. Demuestra también que será posible aumentar su complejidad para resolver mayores problemas.
En los experimentos de Wisconsin, un grupo de moléculas de ADN fueron aplicadas sobre una pequeña placa de cristal recubierta por oro. En cada experimento, el ADN fue adaptado de manera que se incluyeran todas las posibles respuestas a un problema determinado. Exponiendo las moléculas a ciertas enzimas, se eliminaron las moléculas con respuestas incorrectas, dejando sólo las que poseían contestaciones correctas.
Las moléculas de ADN pueden almacenar mucha más información que un chip convencional de computadora. Se ha estimado que un gramo de ADN secado puede contener tanta información como un billón de discos compactos. Además, en una reacción bioquímica que ocurriese sobre una pequeñísima área, cientos de billones de moléculas de ADN podrían operar en concierto, creando un sistema de procesamiento en paralelo que imitaría la habilidad de la más poderosa supercomputadora.
Los chips que se emplean en las computadoras normales representan la información en series de impulsos eléctricos que emplean unos y ceros. Se usan fórmulas matemáticas para manipular el código binario y alcanzar la respuesta. La computación por ADN, por su parte, depende de información representada como un patrón de moléculas organizadas en un hilo. Ingenieros de la NASA trabajan en el diseño de computadoras del tamaño de una molécula de proteína, que servirán para rastrear y reparar daños celulares en el organismo humano.
Meyya Meyyappan, del área de nanotecnología de la NASA, explicó que los "minúsculos médicos robots" que entrarán al torrente sanguíneo serán creados para reparar las lesiones causadas por accidentes, enfermedades, atacar virus y bacterias, así como eliminar células cancerosas. Explicó que aunque aún no hay un nanorrobot en funcionamiento (con un tamaño equivalente a la diezmilmillonésima parte de un metro), los ingenieros cuentan con diseños teóricos propuestos.
Ventajas y Desventajas
Las aplicaciones de la biocomputación son tan diversas como lo es la imaginación de los humanos. Al conocer el significado de cada trozo de ADN, se puede modificar un organismo, o crearlo, a voluntad, poniendo o quitando mutaciones. Modificar el cromosoma de una célula supone alterar sus mutaciones hasta el punto de lograr nuevas habilidades; cambiar el cromosoma completo significa convertir una especie en otra. Es lo que se conoce como trasplante de genoma. También. La clonación: juego favorito de los humanos para hacer de dioses.
Algunos ejemplos desde la biocomputación:
- La creación sintética de ADN permitirá disponer de nuevas vacunas en cuestión de horas en cualquier lugar del mundo, simplemente enviando el código a través de Internet y aplicándolo a una célula con un dispositivo de “traducción”, una impresora que a día de hoy está en manos de la compañía de Craig Venter, y que en el futuro será de uso particular, como lo son a día de hoy las impresoras 3D.
- Células que reciclan CO2 y lo convierten en combustible o nutriente; carne sintética hecha con las proteínas musculares de aves y ganado, sin sacrificio de animales; o vegetales a los que se les ha hecho elaborar esas proteínas animales para completar la dieta en lugares donde la cría de ganado es inviable.
- De la misma forma que ayudará a evitar pandemias, esta posibilidad de convertir la información digital en biológica facilitará de forma alarmante la propagación de las mismas. Para cualquiera que lo desee, acabar con la especie humana será tan sencillo como lo es imprimir unos cuantos folios desde cualquier habitación de cualquier barrio en cualquier pueblo o ciudad del planeta.
- La conquista del espacio será mediante el envío, no de seres humanos, sino de información digitalizada y dispositivos de ensamblaje: naves robotizadas de pequeño tamaño que, al llegar a un hábitat adecuado, comenzarán la síntesis del ADN; bastarán unas mínimas condiciones para la vida, y los artefactos colonizadores crearán a voluntad los seres vivos necesarios para la formación de entornos complejos, ya sean plantas o animales.
Instituto de Biocomputación y Física de Sistemas Complejos (BIFI)
Creado en octubre de 2002 por iniciativa de un grupo de profesores de la facultad de Ciencias de la Universidad de Zaragoza, pertenecientes a las áreas de Física Teórica, Física de la Materia Condensada y Bioquímica y Biología Molecular. Su primer director fue el matemático, José Félix Sáenz Lorenzo (2002-2011).). El objetivo fundamental del BIFI es desarrollar la cooperación interdisciplinar entre biólogos y físicos para aplicar la biocomputación al desarrollo de la investigación biológica mediante su convergencia en investigación experimental.
Las principales líneas de investigación desarrolladas por el BIFI son: • Materiales Complejos y Física Fundamental • Computación y Supercomputación • Redes Complejas y Sociedad • Física de los Sistemas Biológicos • Interacción de Proteína-Ligando • Interacción Proteína-Proteína y Transferencia de Electrones • Plegamiento y Estabilidad de Proteínas • Biología Molecular y Cristalografía
Las actividades del Instituto incluyen la organización de congresos y seminarios regularmente. También cabe destacar el creciente número de colaboraciones que el BIFI ha ido estableciendo con el mundo empresarial.
Cuenta con una Infraestructura poderosa en cuanto a Laboratorio de Supercomputación y Laboratorio de Bioquímica. Cabe destacar por su importancia el Laboratorio de Supercomputación, donde se ubican las más de 200 CPUs con que cuentan el Clúster y los recursos grid del instituto, superando en total los 3 teraFLOPS de potencia de cálculo. Esto hace del BIFI el primer centro de supercomputación de Aragón y uno de los primeros de España. Desde el año 2007 dispone asimismo de uno de los nodos de la Red Española de Supercomputación compuesto por 512 CPUs. También destacan por su equipamiento los laboratorios de Bioquímica, Electrónica y Cristalografía.
Evento
El taller de Biocomputación convocado por La Sociedad Mexicana de Ciencias de la Computación, reunirá a especialistas en algoritmos para bioinformática y en computación biomolecular y servirá como foro para dar a conocer lo más reciente de sus investigaciones en estas áreas. (Ensenada, Baja California, el 7 de Octubre. 2015)