SciELO - Scientific Electronic Library Online

 
vol.48 número4Crecimiento in vitro y producción de enzimas degradadoras de pared celular vegetal de aislamientos argentinos de Macrophomina phaseolina, agente causal de la podredumbre carbonosa en maíz índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

Compartir


Revista argentina de microbiología

versión impresa ISSN 0325-7541versión On-line ISSN 1851-7617

Rev. argent. microbiol. vol.48 no.4 Ciudad Autónoma de Buenos Aires dic. 2016

http://dx.doi.org/10.1016/j.ram.2016.12.001 

EDITORIAL

http://dx.doi.org/10.1016/j.ram.2016.12.001

Las tecnologías «ómicas»: situación actual y desafíos futuros

Omic technologies: Current situation and future challenges

 

Cecilia Quiroga

Editora asociada de REVISTA ARGENTINA DE MICROBIOLOGíA, Ciudad Autónoma de Buenos Aires, Argentina

Correo electrónico: cc.quiroga@gmail.com

0325-7541/© 2016 Asociación Argentina de Microbiología. Publicado por Elsevier Espana, S.L.U. Este es un artículo Open Access bajo la licencia CC BY-NC-ND (http://creativecommons.org/licenses/by-nc-nd/4.0/).

 

Con el advenimiento de las tecnologías «ómicas», como la genómica, la transcriptómica, la proteómica, la metagenómica, la metatranscriptómica y la metabolómica, se han realizado avances extraordinarios en los campos de la salud, la biotecnología, la ecología y los alimentos. Muchos de ellos consisten en el estudio de microorganismos y el entorno ecológico en el que se desarrollan. Es así que se han conseguido los siguientes logros: 1) describir los genomas de una gran variedad de organismos; 2) identificar distintos pangenomas y definir biomarcadores moleculares; 3) estudiar la expresión diferencial de genes por efectos del entorno celular; 4) describir nuevas funciones de genes no codificantes, como son los ARN no codificantes pequeños o largos (en inglés, miRNAs, sRNAs, lncRNAs, etc.); 5) caracterizar modificaciones postranscripcionales; 6) estudiar los efectos de diversos compuestos químicos en la síntesis de proteínas; 7) identificar modificaciones postraduccionales; 8) estudiar la gran variedad de rutas metabólicas, así como también, identificar nuevas vías; 9) caracterizar las interacciones ADN-proteínas y ARN-proteínas, y 10) analizar los efectos de las interacciones entre huéspedes y patógenos, entre otras.

Pero, además, gracias a estas tecnologías se ha podido abordar el estudio de comunidades microbianas, lo cual incrementó exponencialmente las fronteras del conocimiento. Estandartes de estas iniciativas son la caracterización de la microbiota humana y animal, y la descripción de nuevos genes, proteínas y organismos de diversos nichos ecológicos. Los avances logrados se deben al continuo progreso tecnológico y a la búsqueda de nuevas estrategias, que han permitido reducir los costos de cada una de estas herramientas, por lo que se han vuelto cada vez más accesibles.

El acceso a estas tecnologías no solo posibilita plantear nuevos interrogantes científicos, aun más desafiantes, sino que también permite trasladarlos al ámbito clínico y acercarlos a la comunidad. Ya sea en un instituto de investigación, un centro de salud o una empresa, existen varios factores que deben ser considerados al momento de insertarse en el área de las tecnologías «ómicas»: qué tecnología utilizar, cuál estrategia seguir, qué programas o pipelines desarrollar, y si están los recursos humanos capacitados para llevar adelante el proyecto. Pero también, se debe tener en claro qué pregunta se desea responder, ya que, si esta no es clara, es muy probable que se cometan errores al momento de establecer la estrategia que se debe seguir o de seleccionar la tecnología correcta.

En el caso particular de los estudios de secuenciación masiva de ADN o ARN, ya sea a partir de cultivos puros o comunidades, o de interacciones ácidos nucleicos-proteínas, existen varias estrategias. En una revisión reciente, se compararon las ventajas de las distintas plataformas disponibles en el mercado1. Una de las más utilizadas es la tecnología Illumina®, la cual tiene un menor costo por gigabase secuenciada, un mayor rendimiento y una mayor versatilidad. Asimismo, también sobresalen Ion Torrent®, la herramienta más rápida a la fecha y de mayor interés para su aplicación en el diagnóstico clínico, y Pacific Biosciences®, ideal para secuenciar ADN largos. Cada plataforma aporta diversos beneficios que responden a las distintas necesidades, y la combinación de aquellas redunda en resultados más confiables.

En los últimos años se han incorporado nuevas tecnologías a la oferta del mercado, tales como Oxford Nanopore y 10X Genomics. De estas, Oxford Nanopore llama la atención no solo por sus costos accesibles, sino porque elimina el problema de la portabilidad, reduce los tiempos de análisis y no requiere de un gran procesamiento de datos. En su página web2, la empresa promueve el uso de un equipo de dimensiones similares a una memoria externa, que puede conectarse a cualquier dispositivo (incluso un teléfono celular) para el análisis de datos. Aunque esto es por lo pronto maravilloso, recién salió al mercado una primera versión, por lo que resta esperar la respuesta de los consumidores, mientras que otros equipos se encuentran en una etapa experimental.

El procesamiento de los datos «ómicos» también es una tarea compleja que requiere no solo de una capacidad física acorde, especialmente para el procesamiento de metagenomas, sino también de la formación y el entrenamiento de los recursos humanos. En lo que respecta a la capacidad física, varios institutos, universidades y centros de salud han contemplado o están contemplando establecer nodos bioinformáticos para un mejor aprovechamiento y análisis de los datos. Pero establecer dicha infraestructura no es tarea simple, por lo que alternativamente se pueden utilizar servidores públicos o privados. Por otro lado, el análisis masivo de datos requiere de personal capacitado. Es por ello que las carreras de grado y posgrado de bioinformática y biología computacional son claves para los adelantos en el área. Cabe resaltar, que para obtener resultados exitosos es necesario promover un trabajo coordinado entre todos los participantes (investigadores, profesionales bioinformáticos y estudiantes) durante el diseño experimental, así como en el posterior procesamiento, interpretación y análisis.

Otro factor a tener en cuenta es el máximo aprovechamiento de los datos generados. Es así que se incentiva la divulgación de datos crudos en bases de datos públicas por parte de quienes trabajan en esta área. Sin embargo, la gran diversidad de métodos, herramientas y estrategias deriva en la constante acumulación de información, que dificulta el análisis comparativo. Consecuentemente, los esfuerzos actuales también están orientados a estandarizar los protocolos para garantizar la reproducibilidad de la información y promover la integración de los datos3. Si esto se logra, se podrá hacer un uso eficiente de los datos recopilados, promover el análisis global de ellos y minimizar la repetición de experimentos, lo cual resultará en la optimización de los recursos económicos y del tiempo de repuesta.

El análisis conjunto y global de datos cobró mayor importancia, ya que permite obtener una visión mucho más amplia de los sistemas en estudio. De aquí surgieron nuevos términos «ómicos», tales como interactómica (estudio de redes de interacciones intra- e interespecies) y transómica (reconstrucción de redes bioquímicas globales usando datos integrados de mediciones «multi-ómicas»)4. Al respecto, los avances en el estudio de la microbiota intestinal humana llevaron a plantear nuevas hipótesis respecto de la influencia de los microorganismos en la fisiología gastrointestinal y en el funcionamiento del sistema nervioso central por la modulación de las vías metabólicas5. Estos descubrimientos tienen un impacto directo en la salud humana y las futuras terapias que se podrían aplicar.

Los próximos años aún presentan grandes desafíos. La acumulación de paquetes de datos nos expone a una marea de información, donde los resultados pueden quedar camuflados y limitar o atenuar el avance. En breve empezaremos a acumular exabases (1018) de información y será necesario desarrollar nuevos procesadores y métodos computacionales que nos permitan continuar nuestro trabajo, sin perder de vista el árbol en el bosque. Debemos estar alerta a los avances, capacitarnos continuamente y aplicar criterios claros para lograr una respuesta correcta y eficiente.

Queda mucho, muchísimo por conocer aún, pero es importante que la masividad de datos no sea la limitante en este progreso. En el otro extremo, se encuentra la situación del acercamiento y la accesibilidad de las tecnologías «ómicas» a la comunidad y de cómo se regulará su uso; esto conlleva una discusión ética que deberá iniciarse pronto.

Bibliografía

1. Goodwin S, McPherson JD, McCombie WR. Coming of age: Ten years of next-generation sequencing technologies. Nat Rev Genet. 2016;17:333-51.         [ Links ]

2. Oxford Nanopore Technologies. Disponible en: https://nanoporetech.com.         [ Links ]

3. Kyrpides NC, Eloe-Fadrosh E, Ivanova NN. Microbiome data science: Understanding our microbial planet. Trends Microbiol. 2016;24:425-7.         [ Links ]

4. Yugi K, Kubota H, Hatano A, Kuroda S. Trans-Omics: How to reconstruct biochemical networks across multiple "omic" layers. Trends Biotechnol. 2016;34:276-90.         [ Links ]

5. Kennedy PJ, Cryan JF, Dinan TG, Clarke G. Kynurenine pathway metabolism and the microbiota-gut-brain axis. Neuropharmacology. 2017;112:399-412.         [ Links ]

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons