Ciencia con espiral de limón

Science with a (lemon) twist
BLOG EN RECESO TEMPORAL
Mostrando entradas con la etiqueta bioinformática. Mostrar todas las entradas
Mostrando entradas con la etiqueta bioinformática. Mostrar todas las entradas

domingo, 15 de enero de 2012

Una propuesta para reformar el modelo de publicación científica

Hoy en día, las publicaciones científicas en revistas especializadas son el núcleo de la discusión de los avances científicos pues es a través de dicha literatura que las novedades científicas son comunicadas al resto de la comunidad. La publicación en dichas revistas involucra un –generalmente largo- proceso de revisión y el envío de artículos a varias revistas hasta lograr su aceptación en alguna de ellas. Sin embargo, en muchos casos dicho proceso parece más tortuoso de lo que debería, ocasionando frustración e incertidumbre entre los autores de las publicaciones.
Quien lo ha vivido, sabe bien que el proceso de publicación es uno de los temas favoritos en los pasillos de las instituciones de investigación. Dwight J Kravitz y Chris I Baker del National Institute of Mental Health en Bethesda, EU, decidieron llevar sus ideas más allá del pasillo, organizarlas y publicarlas. Su propuesta fue publicada recientemente en la revista Frontiers in computacional neuroscience.
En su artículo, los autores primero describen el esquema actual de publicación en un diagrama simple pero que –aun así- subraya la pesadilla que puede ser publicar un artículo científico y lo cercano de dicho proceso a las 9 dimensiones del Mictlán. En el sistema actual un artículo puede ser revisado varias veces por los editores y revisores de una revista, ser rechazado y después ser enviado a otra u otras revistas. Dicho proceso está limitado de acuerdo con los autores “por el número disponible de revistas y la dignidad de los autores”: 
Ver imagen ampliada aqui.
Según sus cálculos el tiempo de revisión de un artículo que ha sido sometido a dicho proceso es en promedio de 122 días (rango: 31-321), y el tiempo promedio que transcurre desde que es sometido por primera vez hasta que es publicado es de 221 días (rango: 31-533). Lo impredecible del tiempo que transcurre en dicho proceso dificulta la planeación de resultados concretos en los proyectos de investigación así como las carreras de los investigadores involucrados; especialmente las de los investigadores de reciente contratación quienes están sometidos a una mayor presión para publicar que aquellos que ya están establecidos. Además, en el sistema actual hay actividades fundamentales en el proceso que no son recompensadas, como la de los revisores, lo cual podría afectar la calidad de las revisiones.
La propuesta de Dwight y Chris es extensa y debería ser revisada con cuidado por la comunidad científica para ser discutida, mejorada e implementada. Entre los puntos principales de su propuesta se encuentran los siguientes:
1.       Garantizar la publicación. Con ello, se eliminarían las eternas vueltas de revisión y las revistas no se enfocarían tanto en el lado novedoso de la investigación.
2.      Todos los artículos publicados se encuentran libres para ser consultados y la versión impresa de las revistas desaparece.
3.      Todos los artículos se someten a revisión previo a la publicación (es decir, esta práctica se mantiene). Sin embargo, en el proceso se mantiene el anonimato de los autores y el de los revisores.
4.      El papel de los revisores cambia y pasan de ser jueces del “valor” de una publicación a críticos constructivos de las mismas. Si dicha labor se combina con un sistema adecuado de revisión post-publicación los revisores podrían ser recompensados por llevar a cabo revisiones puntuales de calidad.
5.      Se incorpora un proceso de revisión post-publicación donde participa una Junta Editorial cuyos miembros –de manera colegiada- asignan prioridad, dentro de un marco teórico amplio, a los artículos que serán publicados.
6.      En el nuevo sistema los editores tienen una forma positiva de competir entre sí (y por tanto ser recompensados) y pueden involucrarse en labores que beneficien no solo a la revista para la que trabajan sino al esquema de revisión por pares en general; por ejemplo, coordinando el proceso de revisión pre-publicación, elaborando boletines de prensa bien informados que presenten las investigaciones a la comunidad científica, etc.
7.      La publicación se realiza principalmente en línea, lo que permite que el artículo sea publicado junto con un foro para discusión y las estadísticas del artículo (que se actualizan de forma continua). Los autores proponen que dicha estructura podría ser semejante a la de algunas redes sociales como Facebook.

Ver imagen ampliada aqui
Dwight y Chris también describen, aunque más someramente, los cambios que necesitaría el sistema de publicación como un todo y las herramientas en línea que deberían ser desarrolladas y aprovechadas para que la publicación científica sea más eficiente. Este punto, sin duda merece ser discutido con mayor profundidad.
Es importante tener en mente que los autores se refieren a los procesos comunes en revistas especializadas en neurociencias, por lo que las practicas existentes y, por lo tanto, los cambios propuestos podrían variar de una revista a otra. Ellos señalan, por ejemplo, que varias revistas ya incluyen dentro de sus prácticas algunos de los cambios sugeridos por ellos.
Aunque los autores reconocen que la transición del sistema actual a uno nuevo sería ardua, larga e incierta es indudable que es necesaria. Es indispensable que la comunicación de la ciencia se modernice y permita una mejora en la calidad y la frecuencia de la discusión científica, de manera que los costos actuales sean reducidos y la productividad científica se incremente.
Artículo de referencia:


ResearchBlogging.org
Kravitz, D., & Baker, C. (2011). Toward a New Model of Scientific Publishing: Discussion and a Proposal Frontiers in Computational Neuroscience, 5 DOI: 10.3389/fncom.2011.00055



Es posible ver otra reseña respecto a este artículo aquí.

sábado, 15 de mayo de 2010

El Neandertal que (casi) todos llevamos dentro


Homo neanderthalensis fue una especie de homínidos cercanamente relacionados con el Homo sapiens, ya que ambos compartieron un ancestro común. Los neandertales se extinguieron hace aproximadamente 30,000 años, pero sus genes perduran en muchos de nosotros debido a que existió entrecruzamiento entre grupos humanos ancestrales y ellos. Aunque ya se sospechaba que había ocurrido dicho entrecruzamiento es hasta ahora que se tiene una prueba más contundente al respecto. 

Este es uno de los hallazgos más importantes de un estudio publicado recientemente en la revista Science y llevado a cabo por un grupo de 57 científicos a lo largo de 4 años. El grupo fue liderado por Svante Pääbo del Instituto Max Planck en Alemania.

El ADN neandertal con el que se hizo el estudio fue obtenido a partir de restos óseos de antigüedad variable que fueron encontrados en la cueva Vindija en Croacia. Estos huesos fueron hechos polvo con un taladro dental para después ser sometidos a numerosas técnicas para lograr obtener un ADN puro; es decir, un DNA donde se hubiera reducido el ADN de microorganismos y el ADN humano resultado de contaminación al momento de manipular las muestras. 
Estas técnicas, desarrolladas hace pocos años, están haciendo que hoy sea posible recuperar material genético proveniente de muestras muy antiguas y contaminadas tanto con material microbiano como con material humano contemporáneo. Además, el equipo del Proyecto del Genoma Neandertal contó con un miembro muy importante dentro del equipo, Richard E. Green. Green, quien fuera estudiante postdoctoral de Pääbo durante el desarrollo del estudio, fue el responsable de la parte bioinformática del proyecto y creó software que permitió detectar DNA neandertal e ideó formas de lidiar con la degradación del material disponible. Es decir, se tuvo que hacer una especie de reconstrucción de ADN a partir de un de por sí fragmentado genoma -de ahí que los autores presenten un "borrador" del genoma neandertal. Aun así, fue posible hacer varias inferencias y encontrar varios resultados interesantes.

En el estudio se utilizó además ADN de chimpancé, ADN de cinco grupos humanos contemporáneos: ADN proveniente del grupo San en Sudáfrica, otro del grupo Yoruba de África del Oeste, otro de Papua en Nueva Guinea, uno del grupo Han de China y uno francés de Europa del Oeste; así como el genoma humano de referencia.
¿Y cuál era la importancia de comparar el genoma neandertal con otros seis genomas humanos contemporáneos? Bueno, pues los autores del estudio mencionan que uno de los retos al intentar demostrar flujo genético (entrecruzamiento) entre neandertales y grupos humanos ancestrales es que ambos grupos comparten un ancestro común. Por lo tanto, incluso si no hubiera ocurrido entrecruzamiento se esperaría que, en muchas regiones del genoma, los neandertales estuvieran más cercanamente relacionados con los humanos que entre sí. Sin embargo, si se encontrara que los neandertales están –en ciertas regiones del genoma- más cercanamente relacionados con grupos humanos contemporáneos de una región geográfica en particular que con los de otra(s), entonces esto sugeriría que hubo entrecruzamiento entre los neandertales y los ancestros de estos grupos.

En consecuencia, así fue como el grupo de Pääbo, al encontrar que los neandertales se encontraban más cercanamente relacionados con los grupos euroasiáticos demostró además que efectivamente existió flujo genético entre los neandertales y algunos grupos humanos ancestrales. Los autores calculan que hoy en día, entre el 1 y el 4% de los genomas de grupos euroasiáticos son derivados de neandertales. Lo anterior también indica que el flujo genético ocurrió antes de que los grupos asiáticos divergieran de los grupos europeos. 

Entonces, la explicación mas parsimoniosa resultado de los datos obtenidos es que cuando el Homo sapiens salió de África se encontró con las poblaciones neandertales residentes en Europa –hace unos 100,000 años- y ocurrió el entrecruzamiento. Dicho intercambio genético ocurrió antes de que los grupos humanos se extendieran a toda Asia –hace unos 80,000 años.
 Familia de neandertales. Ilustración de Randii Oliver tomada de Wikimedia Commons.

De acuerdo con lo anterior, señalan los autores, es incluso notorio que no se haya encontrado evidencia de un mayor flujo genético, en particular considerando que algunos fósiles sugieren que hubo flujo genético de los neandertales a los grupos humanos incluso durante la historia tardía de los primeros.

Una posibilidad en este sentido es que hayan ocurrido más migraciones humanas desde África hacia Europa -relacionadas por ejemplo con la expansión de la agricultura- y que esto esté oscureciendo la magnitud del flujo genético. Para probar lo anterior, sería entonces necesario hacer comparaciones entre grupos humanos europeos anteriores a dicha expansión. 

Otra de las consecuencias interesantes de contar con el genoma neandertal es que permite identificar qué características son únicas a los humanos contemporáneos en comparación con otras especies extintas de homínidos. Y, por supuesto, son de particular interés aquellas características que tienen consecuencias funcionales y que podrían haber influido de forma importante en la permanencia de los humanos modernos y la extinción de los neandertales. 

En este sentido, se encontraron diferencias en varios genes que comparten tanto los humanos modernos como los neandertales. Tal es el caso del gen RPTN que participa en la determinación de la morfología y la fisiología de la piel, el gen THADA (cuya expresión es diferente en personas con diabetes) que está involucrado en cuestiones de metabolismo energético, el gen RUNX2 (CBFA1) que participa en aspectos relacionados con la morfología del cráneo y el torso; así como un grupo de genes relacionados con el desarrollo cognitivo.
También, se encontraron diferencias en regiones del ADN, como las HARs (human accelerated regions) que se han conservado a lo largo de la evolución de los vertebrados pero han cambiado radicalmente desde que los humanos y los chimpancés divergieron a partir de un ancestro común. Los autores sugieren que sería interesante explorar con más detalle la función de estas regiones.

Comparaciones futuras respecto a estos temas, donde se utilicen genomas neandertales así como de otros homínidos, serán tierra fértil para la generación de nuevas hipótesis y para tener un mejor entendimiento respecto a los orígenes y la historia evolutiva de los humanos contemporáneos, concluyen Pääbo y su equipo.

Mientras tanto, y de acuerdo con nuestro lugar de origen y el de nuestros ancestros, todos podemos inferir fácilmente si somos portadores de genes de neandertal o no. 

(Respecto al artículo original, recomiendo a) el bonito y amplio comentario de Carl Zimmer en su blog "The Loom", b) la entrada de Millán Mozota en su blog "El Neandertal tonto ¡que timo!" respecto al artículo original y respecto a algunas reacciones posteriores, así como c) la entrada de John Hawks en su blog).

Articulo de referencia:
ResearchBlogging.org
Green, R., Krause, J., Briggs, A., Maricic, T., Stenzel, U., Kircher, M., Patterson, N., Li, H., Zhai, W., Fritz, M., Hansen, N., Durand, E., Malaspinas, A., Jensen, J., Marques-Bonet, T., Alkan, C., Prufer, K., Meyer, M., Burbano, H., Good, J., Schultz, R., Aximu-Petri, A., Butthof, A., Hober, B., Hoffner, B., Siegemund, M., Weihmann, A., Nusbaum, C., Lander, E., Russ, C., Novod, N., Affourtit, J., Egholm, M., Verna, C., Rudan, P., Brajkovic, D., Kucan, Z., Gusic, I., Doronichev, V., Golovanova, L., Lalueza-Fox, C., de la Rasilla, M., Fortea, J., Rosas, A., Schmitz, R., Johnson, P., Eichler, E., Falush, D., Birney, E., Mullikin, J., Slatkin, M., Nielsen, R., Kelso, J., Lachmann, M., Reich, D., & Paabo, S. (2010). A Draft Sequence of the Neandertal Genome Science, 328 (5979), 710-722 DOI: 10.1126/science.1188021

miércoles, 5 de mayo de 2010

Código de barras de ADN y "fish and chips" mal etiquetados

Para los británicos, los “fish and chips” (pescado y papas) constituyen uno de los alimentos rápidos mas socorridos. No es raro encontrar en una sola calle varios establecimientos donde se ofrece a los consumidores varios tipos de pescados, que después son empanizados o capeados y freídos en bastante aceite. Los pescados blancos, como el bacalao, son de los favoritos. Toneladas de pescado son consumidas cada año en esta forma.



"Fish and chips". Fotografía de Andrew Dunn, tomada de Wikimedia Commons.


Como parte del disfrute de los alimentos se incluye, sin duda, el que los consumidores reciban exactamente el pescado que solicitaron, tanto por razones gastronómicas (algunas variedades de pescado son más sabrosas que otras), económicas (algunas variedades son más baratas que otras), y conservacionistas (algunas variedades pueden estar en veda).


Un correcto etiquetado de los productos pesqueros tiene la finalidad de que la información relevante respecto al lugar de origen, especie y método de producción sea transmitida de manera adecuada a través de la cadena de producción y consumo. Esto permite además tener un mayor control de la aplicación adecuada de regulaciones, promueve la operación sustentable de la industria pesquera y permite el consumo informado y responsable.
 Para corroborar que tan bien estaban siendo implementadas las regulaciones respecto al etiquetado de productos pesqueros en la comunidad europea, Dana Miller y Stefano Mariani del University College de Dublin (Irlanda), utilizaron el código de barras de ADN como método para identificar las especies que estaban siendo vendidas en pescaderías, tiendas de “fish and chips” y supermercados de Dublin. El código de barras fue exitosamente obtenido por métodos estandarizados a partir de muestras que incluso habían sido empanizadas, ahumadas, freídas o alteradas en cierto grado. Los resultados de su estudio fueron publicados en la revista Frontiers in Ecology and the Environment.


El código de barras de ADN es un método desarrollado durante la última década para la identificación de especies a partir del análisis de una región de su ADN, por ejemplo mitocondrial en el caso de los animales. A diferencia de otros métodos basados en marcadores moleculares, el código de barras pretende tener una aplicación a gran escala y –sobre todo- una estandarización. Para lograr esto último en especies animales se propone el uso del gen mitocondrial citocromo C oxidasa I (COI). Este gen fue propuesto como el candidato ideal para este tipo de análisis ya que –entre otras cosas- se “recupera” fácilmente a partir de una muestra de ADN y dado que tiene una tasa de evolución suficientemente rápida permite la discriminación de especies cercanamente relacionadas.


El proyecto iBOL (International Barcode of Life) es un esfuerzo internacional para establecer una base de datos de secuencias de uno o pocos genes de referencia –como el COI- para la identificación de todas las especies del planeta. Las secuencias de esta base de datos estarán asociadas a especímenes (llamados vouchers) identificados por métodos taxonómicos tradicionales que representen a las especies en cuestión. Esta biblioteca de secuencias servirá como referencia para la identificación de especies. Para ello entonces, solo será necesario contar con un pedazo de tejido, hacer el análisis molecular correspondiente y comparar el resultado con la secuencia ya existente en la base de datos del iBOL.


En los últimos años se ha hecho un gran esfuerzo por establecer una biblioteca de códigos de barras para los peces del mundo llamada Fish Barcode of Life (FISH-BOL) y justo esta base de datos fue utilizada como referencia por Miller y Mariani para su estudio.


Lo que los autores hicieron fue tomar muestras de pescados etiquetados como bacalao del Atlántico (Gadus morhua) y eglefino (Melanogrammus aeglefinus) en pescaderías, tiendas de “fish and chips” y supermercados de 10 distritos de Dublin. Después, obtuvieron el código de barras de cada una de las muestras y las compararon con aquellas existentes en la base de datos del iBOL y el GenBank.


Los análisis demostraron que 25% de las muestras etiquetadas como bacalao o eglefino eran en realidad otras especies. El caso de los productos ahumados fue particularmente grave, pues encontraron que el 82.4% de los productos estaban mal etiquetados.


Es interesante notar que las muestras de bacalao del Atlántico frecuentemente coincidían con otras especies del mismo género (Gadus ogac y Gadus macrocephalus), por lo que es posible que dichas especies no hayan sido correctamente diferenciadas a partir del análisis del gen COI o que la identificación de los ejemplares de cada especie fue incorrecta de alguna manera.


Los resultados son preocupantes por varias razones. El mal etiquetado puede “inflar” las ganancias económicas de una pesquería en particular, crea una percepción falsa acerca del estado de la disponibilidad de ciertas especies lo que a su vez puede propiciar la sobreexplotación de un stock probablemente ya abatido. Además, un etiquetado inadecuado puede constituir un riesgo para la salud de los consumidores con alergias a ciertas variedades de pescado.


Los resultados de este estudio sin duda constituyen una llamada de alerta para el reforzamiento de las políticas de etiquetado de productos pesqueros para el comercio de los mismos dentro de la comunidad europea. Y también son un recordatorio para otros países, como México, de la importancia de sistemas de etiquetado adecuados y la implementación de políticas eficaces de rastreo de productos pesqueros como mecanismos necesarios para la conservación de pesquerías saludables y, como se mencionó arriba, para el consumo responsable e informado de productos pesqueros.


El estudio de Miller y Mariani, constituye además un bonito ejemplo de la aplicación de métodos moleculares para la verificación de políticas públicas y resalta la importancia del beneficio social –en este caso inmediato- de los estudios de ciencia básica. Por último, y tal y como los autores concluyen, es importante promover la aplicación de herramientas confiables -como el análisis de código de barras- para la identificación de productos alimenticios. Más aún, es importante que dichas herramientas tengan un costo razonable para que tengan una mayor aplicación.

Artículo de referencia:
ResearchBlogging.org
Miller, D., & Mariani, S. (2010). Smoke, mirrors, and mislabeled cod: poor transparency in the European seafood industry Frontiers in Ecology and the Environment DOI: 10.1890/090212

martes, 23 de febrero de 2010

Los retos de la publicación de datos primarios sobre biodiversidad

La información primaria son los datos crudos (sin procesar) que los investigadores generan como parte de su investigación. El acceso libre a los datos crudos generados por proyectos enfocados al estudio de la biodiversidad es importante puesto que su conocimiento y análisis ayudan en la toma de decisiones y sirve como sustento para las personas o grupos involucrados en la conservación de la biodiversidad. Sin embargo, la información primaria sobre biodiversidad es generalmente poco accesible y en muchos casos ni siquiera está digitalizada.


Los esfuerzos por incrementar el libre acceso a este tipo de información empezaron en 1991 con los Principios de Bromley. Otro tipo de esfuerzos el de la Declaración de Berlín en 2003 donde además se promovía el uso de internet como una herramienta importante para la difusión del conocimiento; la UNAM firmó esta declaración en el 2006. Muchas otras instituciones a nivel internacional han creado programas para promover el libre acceso a la información científica primaria, entre los que se encuentra la Infraestructura Mundial de Información en Biodiversidad GBIF (Global Biodiversity Information Facility) por sus siglas en inglés. Actualmente el GBIF está haciendo esfuerzos importantes al respecto.

A pesar de lo anterior, la mayoría de la información primaria sigue estando almacenada en estantes particulares y en medios electrónicos aislados. Por otro lado, es perfectamente entendible que los generadores de información teman que se haga mal uso de sus datos, no se den los créditos correspondientes por el uso de los mismos, no se establezcan acuerdos claros de cooperación y que todo esto repercuta en la competencia por posiciones académicas y financiamiento.

Vishwas Chavan y Peter Ingwersen autores de un artículo publicado en la revista BMC Bioinformatics sugieren que la falta de un Marco de Publicación de Datos que considere aspectos políticos, legales, socioculturales y económicos impide que los investigadores publiquen sus datos científicos primarios.

Tal vez uno de los temores principales para publicar datos sea que no existe un sistema que reconozca y premie a aquellos que publican datos primarios de biodiversidad. Para superar esto, se recomienda el uso identificadores persistentes (en las páginas electrónicas de los publicadores de datos, las hojas o grupos de datos, en los registros mismos, etc). En particular se propone el uso de un Índice de Uso de Datos o DUI por sus siglas en inglés (Data Usage Index) en cada punto de acceso a la información, así como un mecanismo de citación efectivo.

Ya existen varios tipos de identificadores globales persistentes, sin embargo, lo que más persiste es la falta de acuerdo respecto a cuál es el mejor e incluso sobre cuál debería ser la naturaleza de dichos identificadores. Estos identificadores se tienen que pensar en términos de la búsqueda y recuperación de información y en los beneficios que aporten tanto a los publicadores como a los generadores de información. Solo de esta manera el uso de un DUI estandarizado podrá volverse más estable y creíble e impactaría positivamente en el ciclo de manejo y publicación de información.

De forma paralela, es necesario crear un mecanismo de citación efectivo, puesto que sin él la implementación de un marco de publicación de datos permanecería incompleto. Es importante crear un sistema estandarizado para citar datos primarios; además de enriquecer los metadatos asociados con los grupos de datos ya sea para una parte o toda la información.

Es decir, si el uso de datos primarios pudiera ser rastreado y fuera posible hacer referencia a los datos primarios de los investigadores, así como medir el uso de los mismos de la misma manera en la que se hace referencia y se mide el impacto de sus publicaciones en revistas arbitradas, entonces se eliminaría una de sus preocupaciones principales y con esto se fomentaría la publicación de información y el acceso libre a la misma.
Figura 1. Elementos del Marco de Publicación de datos (A) y componentes centrales técnicos y de infraestructura del mismo (B) (tomado de Chavan VS y Ingwersen P, 2009).

Aunado a lo anterior es necesario fomentar un cambio de actitud en los publicadores de información científica, sociedades científicas, investigadores y agencias de financiamiento y gubernamentales para lograr que el acceso libre a la información primaria se convierta en una realidad en el corto plazo.

Artículo de referencia:
ResearchBlogging.org
Chavan, V., & Ingwersen, P. (2009). Towards a data publishing framework for primary biodiversity data: challenges and potentials for the biodiversity informatics community BMC Bioinformatics, 10 (Suppl 14) DOI: 10.1186/1471-2105-10-S14-S2