La r(evolución) de la mariposa del abedul

La mariposa del abedul (Biston betularia) es un lepidóptero de vida nocturna que descansa la mayor parte del día posada en la corteza de los árboles –particularmente de los abedules– donde pasa desapercibida gracias a la coloración clara de sus alas, que le ofrecen un camuflaje perfecto. Sin embrago, hacia el año 1848 se describió una Biston betularia diferente, de color oscuro, que fue llamada carbonaria. Sus alas eran negras y debido a esto su camuflaje era muy malo, ya que contrastaba fuertemente en la corteza de los abedules, por lo que las aves se las comían rápidamente y su número no era muy alto.

Moth
A la izquierda, la Biston betularia f. typica, que como puede verse en la imagen del centro, se camufla muy bien en la corteza de los abedules. A la derecha, la Biston betularia f. carbonaria. Su color negro no le ofrece un buen camuflaje.

Sin embargo, hacía el año 1898 el 95% de las mariposas del abedul eran negras, del tipo carbonaria ¿qué pasó? Con el advenimiento de la revolución industrial, los bosques se llenaron de hollín, el que cubrió la corteza de los abedules y los tiñó de un color oscuro. En ese nuevo escenario, la forma carbonaria de la mariposa del abedul tenía una ventaja comparativa sobre las blancas, ya que ahora eran estas últimas las detectadas fácilmente por los depredadores. Esta interpretación que apelaba a la selección natural en acción fue comprobada mediante varios experimentos. En uno de estos experimentos las orugas de las mariposas claras fueron alimentadas con hojas llenas de hollín, pero las mariposas seguían siendo claras, lo que quería decir que no era un efecto del alimento. Luego se cruzaron las mariposas y se descubrió que el color se heredaba de forma Mendeliana, lo que apoyaba la existencia de genes que regulaban este cambio del color de las alas de las mariposas. En otro experimento se liberaron mariposas marcadas en un bosque contaminado con hollín, pero se liberaron tres veces más mariposas claras que oscuras. Luego se recuperaron las mariposas pero sólo se encontró una mariposa clara y seis negras. Estos resultados sugerían fuertemente que estábamos en presencia de la selección de un gen que confería color negro por la presión selectiva del ambiente.

phalenes-du-bouleau
¿Quién tiene el mejor disfraz ahora?

En dos artículos publicados esta semana en Nature se describe que el “gen del color negro” apareció cerca de 1819 y se debe a la inserción de un elemento genético móvil llamado carb-TE que se insertó en el gen cortex, causando una mayor expresión del gen. Los autores desconocen el mecanismo exacto de cómo esto afecta al color de las alas, pero se trata de un hermoso ejemplo de selección en una escala temporal humana.

Todo lo que debe saber sobre el Oscillococcinum

Cada vez que se acerca la temporada invernal, los ciudadanos prudentes se vacunan contra las cepas más virulentas de la gripe que se avecina. Esto es especialmente recomendable para los niños, ancianos o personas diagnosticadas con enfermedad pulmonar crónica, diabetes u otras enfermedades crónicas. Sin embargo, mucha gente se prepara tomando Oscillococcinum ¿Qué es este “medicamento” de nombre tan extraño, de dónde viene y qué significa su nombre? Vamos por partes.

Temporada de patos

El Oscillococcinum fue descubierto por Joseph Roy (1891-1978), un médico francés que estaba de servicio cuando la gripe española golpeó al mundo en 1917. El buen doctor Roy examinó la sangre de las víctimas de la gripe y se encontró un extraño microorganismo: una bacteria que consistía en dos esferas desiguales que realizaban un movimiento vibratorio rápido. Roy los llamó “Oscillococcinum” y observó que podían variar mucho en tamaño. Incluso a veces se achicaban tanto que no podía verlos con su microscopio (?). Posteriormente Roy descubrió estas bacterias en la sangre y los tumores de pacientes con cáncer, en úlceras de pacientes con sífilis y en el pus de los enfermos de gonorrea. Asimismo, las personas que tenían eczema, reumatismo, paperas, sarampión y varicela también mostraban la presencia de este germen, a esta altura universal. Hoy en día no está claro qué diablos fue lo que el buen Dr. Roy vio a través del ocular de su microscopio (¿una mancha en el lente?) pero una cosa es cierta: lo que vio no era la causa de estas enfermedades. El reumatismo, el eczema y la mayoría de las formas de cáncer no son causadas por microbios. Por otro lado, las paperas y el sarampión son causadas por virus, los que no se pueden ver con un microscopio corriente. Y finalmente, ningún otro microbiólogo ha reportado haber visto nunca las bacterias oscilantes descritas por el buen Dr. Roy. Nunca.

Sin embargo, el Dr. Roy pensó que había hecho un nuevo y emocionante descubrimiento en el camino hacia la cura del cáncer. Por alguna razón Roy pensó inmediatamente en una aplicación homeopática para su reciente descubrimiento. La enseñanza fundamental de Samuel Hahnemann (1775-1843) es que la enfermedad es una alteración de la “fuerza vital” y que estas no tienen una causa específica. Hahnemann pensaba que las enfermedades se pueden curar si se le da al paciente una “enfermedad artificial” que produce las mismas alteraciones en la fuerza vital que la enfermedad real. La enfermedad artificial –de corta duración– expulsará a la enfermedad real y luego el paciente queda curado. Los medicamentos actúan entonces por su poder espiritual y esta fuerza no física se puede impartir al alcohol o al agua por un proceso de dilución y agitación, al igual que el hierro se puede hacer magnético frotándolo con un imán. Hasta el día de hoy es un completo misterio el cómo llegó Hahnemann a estas conclusiones, para las que no existe absolutamente ninguna evidencia y son sencillamente las ocurrencias de una persona de apellido alemán en una época en que la medicina estaba en pañales.

Roy tomó las teorías de Hahnemann y pensó que su descubrimiento podría ser adaptado para tratar el cáncer de forma homeopática: bastaría con echar en una fuente una gran cantidad de Oscillococcinum y después de hacer la dilución homeopática y tendríamos un medicamento universal. Ahora bien, según las propias observaciones de Roy los Oscillococcinum se encuentran prácticamente en cualquier parte, pero por razones que sólo el buen Dr. Roy manejaba decidió usar como fuente de estas bacterias (cuya existencia jamás fue confirmada) un pato que los cocineros franceses utilizan para preparar pechuga de pato. Estos cocineros llaman a este pato como canard de Barbarie, pero los biólogos lo conocen como Cairina moschata. Así y siguiendo las tradiciones no científicas de la homeopatía, Oscillococcinum se denota en latín con el nombre equivocado, “Anas Barbariae, Hepatis et Cordis Extractum,” a pesar de que los patos Anas son muy diferentes de los patos Cairina. Así es, el Oscillococcinum es una dilución homeopática de una bacteria inexistente extraída de un pato equivocado.

 

canard-de-barbarie.jpg
Un bello ejemplar de Cairina moschata.

El pato más rentable del mundo

¿Cómo se prepara el medicamento que venden en las farmacias? Desde 1925 la preparación es la misma: en un botella de un litro se vierte una mezcla de extracto pancreático y glucosa. A continuación, se decapita un pato y 35 gramos de su hígado y 15 gramos de su corazón se ponen en la botella ¿Por qué el hígado? El doctor Roy escribió: “En la antigüedad se consideraba al hígado como el órgano del sufrimiento –incluso más importante que el corazón– lo que es una visión muy profunda, porque es el hígado el que regula las modificaciones patológicas de la sangre y también la calidad y energía de los latidos del corazón”. Tal vez la tendencia francesa para llamar a cualquier forma de malestar una “crise de foie” (ataque al hígado o crisis biliar) también tuvo algo que ver con ello. Después de 40 días en el frasco estéril, hígado y corazón se han desintegrado en una especie de baba, que luego es “potenciada” con el método Korsakov.

Semyon Nicolaevich Korsakov (1788-1853) era originario de Tarusovo, cerca de Moscú. Después de 1813 comenzó a trabajar en el Ministerio del Interior en un cargo de oficina que le dejaba mucho tiempo libre, lo que le permitió incursionar en el estudio de la medicina por su cuenta. Alrededor de 1829 se convirtió a la homeopatía e inventó una manera más rápida de preparar diluciones homeopáticas altas (las que según la homeopatía son las má potentes). En la homeopatía clásica, al preparar una dilución, se trasvasa una porción de la dilución a un nuevo frasco para proseguir con la serie de diluciones. Lo que hizo Korsakov (vaya a saber uno si por flojera o para ahorrar en frascos) fue agitar la dicluión y botar todo el contenido del frasco, recuperando solo lo que quedaba adherido a las paredes. Ahí mismo agregaba más agua para hacer la siguiente dilución, asumiendo arbitrariamente que se trataba de una dilución 1:100. El fabricante de Oscillococcinum (la transnacional francesa Boiron) utiliza “agua ultrapura” desde el primer paso. El Oscillococcinum se designa como “200K”, lo que significa que la cantidad original se somete a 200 diluciones Korsakov y el fluido resultante se utiliza para humedecer pequeñas bolas de azúcar (0,85 g de sacarosa y 0,15 gramos de lactosa). Algunos paquetes se han etiquetado “200CK” (“C” es la abreviatura de centesimal, lo que significa una dilución de 1 a 100, y “CK” es sinónimo de “centesimal Korsakoviano.”). Varios mitos dicen que Korsakov era un noble, un médico –el médico personal del Zar– o incluso un general que inventó el método Korsakov en el campo de batalla. Nada de esto es verdad. Hahnemann se dirigió a él como “el señor conde de Korsakoff” en un momento en que los extranjeros utilizaban habitualmente títulos nobles para cualquier ruso que hablaba francés. El método de Korsakov obtuvo la aprobación oficial de Hahnemann en 1832 y desde entonces se puede ocupar de manera oficial en homeopatía.

El buen doctor Roy pensó que su brebaje funcionaría contra el cáncer, la sífilis, la sarna y la tuberculosis –entre otras dolencias– pero Boiron sólo lo recomienda para estados gripales y en las farmacias el envase con 6 frascos vale cerca de $5.000. Cientos de miles de personas compran este producto sin sentido, el que es energéticamente anunciado en periódicos, radio y televisión. Se recomienda para la prevención (una dosis por semana en la temporada de gripe) y como cura contra la gripe. Y lo más hermoso es que con un pato podrían preparar todo el Oscillococcinum que la humanidad completa podría usar de aquí hasta que al sol se le acabe el combustible.

“A mí me funciona…”

No hay ninguna razón lógica para creer que cualquier cosa en el hígado o corazón de un pato será un remedio eficaz contra la gripe (o cualquier otra cosa). Pero incluso suponiendo que sí hay alguna sustancia mágica contra la gripe en el hígado de un pato lo ideal sería comer paté y no tomar Oscillococcinum, pues el proceso de fabricación garantiza que en el producto que venden en la farmacia no habrá nada más que agua y azúcar. Las leyes de la química indican que después de la dilución 12, es poco probable que una sóla molécula de los órganos del pato se encuentren presentes en la dilución. Por otra parte, en “200C” (o “200K” o “200 CK”) la concentración de la sustancia original sería 1 parte en 100200, que es un 1 seguido por 400 ceros: para que una de las moléculas originales de Oscillococcinum este presente, la masa de la tableta que tendrían que tragar tendría que incomprensible más grande que el universo visible. Entonces, ¿cómo podría alguien concluir que Oscilloccinum es eficaz? La teoría homeopática sostiene que si una gran cantidad de una sustancia puede producir síntomas en personas sanas, cantidades infinitesimales de esa misma sustancia pueden curar enfermedades con esos mismos síntomas (vaya a saber uno de dónde salió esta idea). Los supuestos efectos se determinan a través de experimentos (la mayoría realizados hace más de 100 años) en los que las personas ingieren las sustancias e informan los síntomas que experimentan. Estos informes se han recopilado en libros enormes llamados Materia Médica Pura y se dice que comprende todos los síntomas –físicos y mentales, generales y específicos– para cada sustancia ensayada. En el caso del Oscillococcinum, el listado de síntomas que produce cuando se toman cantidades considerables –y por lo tanto los que podría tratar– personifica a la irracionalidad a la enésima potencia: Pacientes tuberculosos sensibles al frío, pacientes con sífilis que tienen ideas obsesivas. Palidez, invalidez crónica, debilidad, necesidad de aire fresco (incluso cuando tiene miedo de frío), rigidez, temblores, sensación de mucho calor, dolor de cabeza, debilidad, sensación de que corre una corriente eléctrica a través de la parte enferma, secreciones amargas y grisáceas (no mucha). Estos síntomas se agravan cuando se piensa en ello, con la humedad, la niebla, los cambios de clima, en la noche, cuando está descansando y después de comer huevos o leche. Los síntomas mejoran al aire libre, en la playa, con el calor o descansando. Los síntomas mentales incluyen: ansiedad latente (sobre todo cuando alguien no regresa a tiempo), temor sin una causa clara, impaciencia (que mejora cuando uno está ocupado), tendencia a sentir lástima por uno mismo y miedo a la suciedad, el desorden y la contaminación. Miedo de dar la mano por miedo al contagio de enfermedades. Testarudez. Sensación de un insecto que corre sobre la cara durante la noche.

Sin embargo, a pesar de lo absurdo de todo esto, miles de personas darán fe de que el Oscillococcinum funciona. A ellos les funciona. La pregunta aquí es: ¿funciona mejor que qué? Un experimento muy sencillo que pueden hacer es pensar en cuantas veces han muerto por una gripe común. Si no creen en la re-encarnación lo más probable es que nunca hayan muerto de una gripe. La gripe se pasa sola. A lo más uno podrá tomar un analgésico para el dolor de cabeza o para controlar otros síntomas, pero sólo eso. Esto quiere decir que si toman Oscillococcinum efectivamente se les pasará la gripe. Pero también si no hacen nada.

Si después de leer esto aún quiere darle su dinero a Boiron, adelante. Usted es libre de hacer con su dinero lo que quiera, pero al menos ahora sabe a ciencia cierta lo que está comprando: una dilución homeopática ridículamente alta de una bacteria inexistente extraída de un pato equivocado pensada originalmente para tratar síntomas que quizás usted no tenga.

No hay dolor

dn28623-1_800

 

      La mujer –cuyo nombre no fue revelado– no había sentido dolor nunca en sus 39 años de vida. Jamás. Ni un dolor de muelas o una jaqueca. Ni siquiera los típicos dolores menstruales. Esta mujer (y un grupo muy reducido de personas en el mundo) padece una condición llamada Insensibilidad Congénita al Dolor (ICD). Esto puede sonar como una bendición, pero no lo es: el dolor tiene un papel fundamental para prevenir que nos hagamos daño. De hecho, los niños pequeños que tienen esta condición se muerden los dedos hasta sangrar y los adultos tienden a morir prematuramente. Muchas veces se fracturan o se queman la piel por contacto sin ni siquiera darse cuenta. Por eso, cuando invitaron a esta mujer a ser voluntaria en un estudio que buscaba hacerle sentir dolor, acepto encantada.

Te prometo que te dolera

      La Insensibilidad Congénita al Dolor es producida por una mutación muy poco frecuente que afecta a un gen llamado Nav1.7 y que codifica para un canal iónico de las células nerviosas que se encargan de comunicar la sensación de dolor. Los canales iónicos son proteínas que se ubican en la membrana de las células y regulan el movimiento de iones (Na+ por ejemplo). Este movimiento de iones funciona como una señal eléctrica que se propaga a lo largo de las células nerviosas y es la clave para la comunicación e integración de diferentes estímulos, entre ellos el dolor. El Dr. John Wood, un neurobiólogo de la University College London, estaba interesado en entender el mecanismo detrás de la incapacidad para sentir dolor en la gente que padece de ICD. Esto, ya que si se logra entender a cabalidad como estas personas no sienten dolor se podrían diseñar analgésicos que imiten este efecto y que sirvan para tratar, por ejemplo, a pacientes que sufren de dolor crónico. Era muy importante entender a cabalidad el mecanismo subyacente ya que estaba ocurriendo algo muy raro: se habían diseñado fármacos que bloqueaban específicamente al transportador Nav1.7 pero eran analgésicos débiles. Faltaba una pieza en este puzzle.

      El grupo del Dr. Wood comenzó a analizar en profundidad a ratones que llevan la misma mutación que los humanos con ICD. Estos ratones, al igual que los humanos, no sienten dolor aún cuando sus colas sean expuestas a frío o calor extremos. Al estudiar estos ratones, los investigadores descubrieron que, además de no tener el canal Nav1.7, mostraban una enorme activación de los genes responsables de generar péptidos opiodes. Estas moléculas de naturaleza proteica actúan como analgésicos naturales y son producidos bajo diferentes circunstancias. Lo que los investigadores encontraron fue que, por alguna razón, los ratones mutantes en Nav1.7 producían enormes cantidades de estas moléculas analgésicas. Por esta razón, decidieron tratar a las ratas con naloxona, una droga que bloquea a los receptores de los péptidos opiodes. Al bloquear los receptores, las células dejaron de percibir a los péptidos opioides y los ratones sintieron dolor.

      ¿Funcionará en humanos? Los investigadores se contactaron con nuestra mujer sin dolor y la invitaron a formar parte de este estudio ¿La oferta? Muy tentadora: sentir dolor. Los investigadores le administraron naloxona y luego le aplicaron un potente láser en el brazo ¡Auch!

Captura de pantalla 2015-12-16 a las 13.51.53
a) Percepción de dolor en una paciente de 39 años con ICD tratada con un láser (Baseline), láser más suero salino (Saline) y láser más Naloxona (Naloxone). b) Se muestra el mismo ensayo con voluntarios que no tienen mutado el gen Nav1.7 (controles)

      Los resultados del grupo del Dr. Wood explican por qué los bloqueadores del Nav1.7 son débiles analgésicos: se deben combinar con péptidos opiodes para logran un efecto analgésico completo. De esta forma, y estudiando a la mujer que no siente dolor, lograron generar un tratamiento farmacológico que podría beneficiar a pacientes que sufren de dolor crónico.

Una breve historia del azúcar

     various types of sugar

      “Un bambú que produce miel sin abejas.” Así se referían los griegos a la caña de azúcar, una planta de la familia del maíz que acumula en sus tallos enormes cantidades de sacarosa (hasta el 20% del peso seco), un disacárido de glucosa y fructosa que es sintetizado por las plantas pero no por lo animales y que conocemos como azúcar de mesa, esos cristales dulces que solo muy recientemente pasaron a formar parte de nuestra alimentación. Actualmente el 80% del azúcar de mesa proviene de la caña de azúcar, una planta tropical que originalmente crecía en Asia, pero que actualmente tiene en Brasil a su principal productor.

Los tuyos, los míos y los nuestros

      La caña de azúcar que cultivamos actualmente es un híbrido muy complejo de dos especies silvestres de caña de azúcar: Saccharum officinarum y Saccharum spontaneum. A fines del siglo XIX, agricultores de caña de azúcar de Java e India generaron híbridos entre estas dos especies con la finalidad de introducir los genes de resistencia y vigor de S. spontaneum en la variedad más dulce, Saccharum officinarum.

Saccharum-officinarum-harvest
Cosecha manual de caña de azúcar

      De esta forma se originaron las variedades actuales de caña de azúcar, que son muy complejas desde el punto de vista genético: poseen un genoma de 10 Gb (como referencia, el genoma humano tiene un tamaño de 3,2 Gb), poliploide y aneuploide. Esto último quiere decir que el genoma se ha duplicado extensivamente (hasta 10 veces cada cromosoma, de ahí que sea poliploide) y además, debido a diferentes mecanismos, se han perdido partes de cromosomas (o cromosomas completos), lo que se conoce como aneuploidía. Además se han formado cromosomas híbridos derivados de ambas especies. A pesar de la pesadilla genética que implica analizar estas variedades híbridas, se ha logrado establecer que entre el 80-90% de sus genes proviene de Saccharum officinarum y un 10-20% proviene de S. spontaneum más un porcentaje pequeño de cromosomas híbridos. Estos hallazgos hablan de un complejo escenario genético detrás de la historia del cultivo de esta planta.

La ruta del azúcar

      Originalmente, mucho antes de la irrupción de las variedades híbridas, las plantas de Saccharum eran conocidas solamente en las zonas tropicales del sudeste asiático, las regiones del mundo con un clima adecuado para el desarrollo de esta planta, que requiere mucha luz y abundante agua para su crecimiento. Toda la evidencia disponible sugiere que habría sido cultivada inicialmente hace unos 6.000 años en Nueva Guinea, donde los tallos de esta planta –de hasta seis metros de alto– eran masticados para obtener un jugo muy dulce. Posteriormente, los tallos comenzaron a ser hervidos para obtener una solución viscosa, lo que facilitaba su transporte. Se cree que en la India fue donde primero se obtuvo el azúcar en cristales, que fue introducida en la cuenca del mediterráneo por los árabes en el siglo VIII. Sin embargo, el azúcar en cristales ya era conocido por los griegos en el siglo I, claro que como una exótica medicina importada desde India. Sin embargo, durante muchos siglos el azúcar no fue más que una rareza en Europa. Por ejemplo, durante las cruzadas, los caballeros volvieron a casa llevando “sal dulce” desde el oriente, pero su consumo estaba muy restringido y no era para nada popular ya que su precio lo hacía prohibitivo para la inmensa mayoría de la población. En efecto, medio kilo de azúcar llegaba a costar US$100 actuales (150 veces más que el precio actual) y era mantenida en cajas cerradas con llave, especialmente diseñadas para ese fin.

Casket_Containing_a_Sugar_Box_and_Two_Tea_Caddies,_c._1760,_Birmingham,_England,_glass_with_metal_mounts_-_Art_Institute_of_Chicago_-_DSC09956
Bajo llave. Así se guardaba el azúcar.

      Después de la llegada de los españoles a América, tanto España como Portugal tuvieron acceso a nuevas tierra que sí poseían el clima adecuado para crecer caña de azúcar, algo imposible en Europa. De esta forma, Cristobal Colón introdujo la caña de azúcar en su segundo viaje a América, donde comenzó a cultivarse inicialmente en la isla La Española (más tarde conocida como Haití) donde la primera cosecha tuvo lugar en 1.501. Por su parte, los Portugueses llevaron la caña de azúcar a Brasil y ya en 1.540 había unas 800 fábricas de azúcar en la isla de Santa Catarina y otras 2.000 repartidas por la costa de la región norte de Brasil. La enorme demanda de partes mecánicas para las fábricas de azúcar impulsó a la industria europea, que tuvo que dar abasto para construir y proveer repuestos para las miles de fábricas de azúcar del Nuevo Mundo. A principios del siglo XVII los Holandeses introdujeron la caña de azúcar en Cuba y otras islas del caribe y finalmente la producción azúcar fue de tal magnitud que su precio comenzó a bajar gradualmente, dejando de ser un producto solamente accesible para los ricos. Sin embargo, la mano de obra para las fábricas de azúcar era escasa. Varias enfermedades traídas a America por los europeos, como la viruela, diezmaron a la población de indígenas americanos, quienes eran esclavizados para trabajar en las fábricas de azúcar. Debido a esto, y teniendo en cuenta que los europeos eran muy sensibles a la fiebre amarilla y malaria, fue que comenzó un extensivo tráfico de esclavos desde la costa occidental de Africa hacia América, principalmente a Brasil. Cerca de un millón de esclavos fueron traídos desde Africa para cultivar caña de azúcar en América (y unos cuatro millones de esclavos fueron llevados a EEUU para trabajar en las plantaciones de algodón).

Sweet dreams are made of this

      La alta demanda por luz y agua para crecer la caña de azúcar impidió que esta planta fuera cultivada en Europa, por lo que la industria europea del azúcar dependía de las colonias en América y el Caribe para la producción de la materia prima. Este escenario cambió cuando en 1.747 el químico alemán Andreas Marggraf determinó que las raíces de varios tipos de betarraga (Beta vulgaris, conocida también como remolacha) eran ricas en un azúcar idéntico al de la caña de azúcar, la sacarosa. La betarraga o remolacha roja era consumida principalmente cocida y contiene grandes cantidades de betanina, un pigmento indigestible de color rojo, razón por la cual la betarraga nos recuerda durante varias horas que la hemos comido.

400px-Betanin_ball-and-stick
Estructura química de la betanina

      Las variedades más útiles para la producción de azúcar fueron las blancas. Sin embargo, la gran ventaja del azúcar obtenido de la remolacha es que estas podían crecer en el clima europeo, por lo que podrían dejar de depender de la importación de azúcar desde América y el Caribe. Sin embargo, no fue hasta comienzos de 1800 que la industria de la remolacha azucarera tomo fuerza, ya que durante las guerras Napoleónicas se generó un bloqueo a las rutas comerciales entre América y Europa. Debido a esto el azúcar de caña comenzó a escasear y el precio se elevó considerablemente. Los franceses trataron de hacer azúcar a partir de remolacha pero era bastante complejo, debido a que su contenido de azúcar era mucho más bajo que el de la caña de azucar. Sin embargo, lograron generar una industria incipiente que posteriormente rindió sus frutos. Napoleon I se interesó en la producción de azúcar a partir de remolacha blanca y comenzó varios programas para su cultivo, procesamiento y mejoramiento genético. Esto consistió principalmente en la obtención de variedades nuevas con un contenido de azúcar mucho más alto que la remolacha blanca original. De hecho, las variedades de remolacha azucarera cultivadas actualmente son muy diferentes a las variedades de betarraga de mesa y tienen un contenido de sacarosa similar al de la caña de azúcar. Hoy cerca del 20% de la producción mundial de azúcar de mesa proviene de remolacha azucarera y en Europa se consume casi exclusivamente azúcar de remolacha.

remolacha_azucar
Remolacha azucarera

Azúcar moreno

      El proceso productivo del azúcar involucra varios pasos, pero uno crítico es la obtención de una mezcla llamada masa cocida, compuesta por cristales de sacarosa y una solución de color café llamada miel madre, que está compuesta por azúcar no cristalizado y otras moléculas. La masa cocida es centrifugada para separar los cristales, los que son posteriormente lavados y se convierten finalmente en azúcar refinado (casi 100% sacarosa). La solución residual se conoce con el nombre de melaza. El azúcar moreno, por otro lado, es el tipo de azúcar de color café o amarillento y que puede ser obtenido de manera industrial de dos formas. La más común es mezclar los cristales de azúcar purificada con la melaza en proporciones adecuadas para obtener el color y sabor adecuados. El otro método consiste en no separar completamente la masa cocida durante el proceso de purificación, por lo que los cristales de azúcar que se obtienen son de color café debido a la miel madre ¿Cuál azúcar es mejor? Desde el punto de vista nutricional son casi idénticos: el azúcar no aporta otros nutrientes más allá de la glucosa y fructosa. El azúcar moreno es un 85% sacarosa aproximadamente, el resto corresponde a agua, algunos minerales y otros compuestos químicos presentes en la miel madre. Algunas personas prefieren el azúcar morenos por su sabor, aunque debido a que su contenido de sacarosa es levemente menor comparado con el azúcar refinado, endulza un poco menos. De este modo elegir entre azúcar blanco o moreno es solo cosa de gustos: el azúcar moreno no tiene ventajas nutricionales por sobre el azúcar refinado. Si buscas ventajas nutricionales no las encontraras en el azucarero.

El Premio Nobel que hizo quebrar a un país

nobel

      Cuenta la leyenda que un buen día dos indígenas Aymaras encendieron una fogata cerca del poblado de Camiña, ubicado 50 Km. al interior de Pisagua en la región de Tarapacá, en el norte de Chile. Su intención era quizás abrigarse del frío nocturno o tal vez cocinar algo de comer. Sin embargo, salieron huyendo despavoridos cuando todo el suelo cerca de la fogata comenzó a arder. Los dos indígenas –muy asustados y algo chamuscados– fueron a buscar al cura del pueblo, quien provisto de agua bendita se apresuró al lugar de los hechos para controlar a las fuerzas demoníacas responsables de hacer arder el suelo. Sin embargo, el cura reparó que el suelo contenía grandes cantidades de nitrato de potasio, lo que sumado a otros minerales presentes explicaba el extraño caso del suelo que arde. Y de paso descartó la influencia del diablo en este fenómeno.

      Lo que contenía el suelo en grandes cantidades era salitre: una mezcla de nitrato de sodio (NaNO3) y nitrato de potasio (KNO3) que generalmente se encuentra asociada a otras sales y yeso, menjunje conocido como caliche. El salitre es muy abundante en el norte de Chile y en la zona de Uyuni en Bolivia, siendo estas las reservas más grandes que existen en el mundo. Ciertamente “hace arder el suelo” no es una buena forma de promocionar al salitre, pero afortunadamente se puede utilizar otra estrategia comercial más atractiva: el salitre es un potente fertilizante para las plantas y además materia prima para la producción de pólvora.

      Para explotar el salitre se instalaron en las zonas de producción varias empresas –muchas de ellas de capitales extranjeros, principalmente Ingleses– las que debido al aislamiento eran casi autosuficientes y funcionaban como pequeñas ciudades. Estos asentamientos se conocían con el nombre de Oficinas Salitreras y cada una poseía una estructura administrativa propia, viviendas para todo el personal, iglesia, colegios, centros de esparcimiento y negocios de abarrotes, los que eran conocidos como pulperías. Los dueños de la oficina salitrera eran también los dueños de la pulpería, en las que solo se podía utilizar el dinero que la propia oficina salitrera emitía. De esta forma, a los obreros les pagaban en una moneda que solo podían usar para comprar en la pulpería de la Oficina Salitrera en la que trabajaban (claramente estas Oficinas Salitreras no eran un candidato para “Las 10 mejores empresas para trabajar”). La vida en las salitreras era muy dura y está asociada además a uno de los eventos más oscuros de la historia de Chile: la matanza de la escuela Santa María de Iquique en 1907.

articles-82569_thumbnail
Trabajadores de la Oficina Mapocho, ca 1900

      A partir de 1884 Chile se convirtió en el principal productor mundial de salitre. Las exportaciones salitreras llegaron a contribuir con el 30% del producto interno bruto y el año 1916 se alcanzó un récord en las exportaciones, las que llegaron a tres millones de toneladas. Eran buenos tiempos para vender rocas.

Maldita ciencia

      El aire que respiramos es una mezcla complejas de gases, siendo el más abundante el nitrógeno. Lo paradójico es que, a pesar de lo abundante que es en el aire, la disponibilidad de nitrógeno en el suelo es relativamente baja. El nitrógeno es parte de las moléculas esenciales para la vida –como aminoácidos y bases nitrogenadas– y son las plantas y otros organismos los principales encargados de sintetizar compuestos que contienen nitrógeno. Para esto pueden valerse del nitrógeno que se mineraliza desde el aire gracias a las lluvias o, en gran medida, gracias al trabajo de algunas bacterias que pueden fijar el nitrógeno para que luego las plantas lo incorporen en sus biomoléculas. Cuando se descubrió que el suelo del norte de chile era rico en nitrógeno en la forma de nitrato de sodio y potasio, rápidamente se abrió un mercado ávido de fertilizantes y también de pólvora.

      La pólvora había sido inventada por los chinos cerca del año 600 mientras intentaban dar con una poción para la vida eterna (es probable que el primero que la probó haya experimentado un efecto algo contraproducente). Durante casi 600 años los chinos emplearon la pólvora principalmente para hacer fuegos artificiales, es decir, como mera diversión. Sin embargo, hacia el año 1.200 los chinos aprendieron que la pólvora podía tener otras aplicaciones, principalmente bélicas. La pólvora está compuesta en un 15% por carbono, 10% de azufre y 75% de nitrato de potasio, por lo que los yacimientos de salitre del norte de Chile se convirtieron en un recurso preciado, lo que contribuyó al auge de las Oficinas Salitreras.

      Por esa época los químicos estaban obsesionados con mejorar las reacciones para purificar metales y otros compuestos escasos. En la Francia de Napoleón III el aluminio era tan difícil de purificar que era más caro que el oro y la nobleza reservaba los cubiertos de aluminio para los invitados realmente importantes. El resto tenía que conformarse con los cubiertos de oro. Eso hasta que los químicos lograron desarrollar un proceso de purificación eficiente de aluminio, lo que aumentó su disponibilidad e hizo caer su precio. Con el nitrógeno pasaba algo parecido: era tremendamente escaso y no existían formas alternativas eficientes de producirlo a nivel industrial. La solución estaba literalmente en el aire: dado que el nitrógeno gaseoso era muy abundante era posible fijarlo en procesos industriales, aunque la eficacia era tremendamente baja. Lo preocupante era que hasta principios del siglo XX la principal fuente de nitrógeno seguía siendo los depósitos minerales, los que eventualmente se agotarían en algún momento. Alguien tenía que hacer algo al respecto…

      En 1909 el químico alemán Fritz Haber logró destilar amoníaco (NH3) a partir del aire a una velocidad de 125 ml por hora. La empresa alemana BASF compró la patente de este proceso y puso a Carl Bosch a trabajar en un sistema a gran escala para producir amoníaco. El amoniaco era materia prima tanto para fabricar fertilizantes como explosivos y en 1910 el sistema ya se había escalado para uso industrial, lo que suponía un enorme peligro para la economía chilena, que jamás intentó procesar el salitre para venderlo con valor agregado y se limitó a exportar tierra.

Haber_Ammonia
El aparato que usó Haber para obtener amoníaco

      En 1914 estalló la primera guerra mundial. Las reservas de salitre se convirtieron en un blanco estratégico, ya que aportaban grandes cantidades de nitratos para la fabricación de pólvora. Las Oficinas Salitreras estaban en manos de capitales ingleses, los que trataron de controlar el acceso del salitre por parte de los Alemanes. Sin embargo ya era tarde: para no depender de las importaciones de salitre los alemanes masificaron la producción de amoníaco a través del proceso de Haber-Bosch. Usando ciencia, los alemanes se independizaron de la importación de tierra del norte de Chile.

      En 1918 terminó la primera guerra Mundial. Ese mismo año Fritz Haber –quien durante la guerra contribuyó al desarrollo de gases venenosos– fue galardonado con el Premio Nobel de Química por el proceso que permitió fijar nitrógeno de manera industrial. Para el año 1920 la mayoría de la Oficinas Salitreras había cerrado y una profunda crisis social y económica había impactado a Chile. El Estado perdía su sueldo y miles de trabajadores lo perdieron todo. Han pasado casi 100 años y cerca del poblado de Camiña pululan las minas de cobre. Las exportaciones de este metal representan el 57% de todas las exportaciones Chilenas, principalmente en forma de cátodos: grandes planchas de cobre sin procesar. En paralelo, cada día aparecen nuevos usos para el grafeno y se abaratan los costos de su síntesis.

      Es probable que la cultura de extraer recursos naturales para exportarlos casi sin procesar vuelva a golpear a Chile 100 años después del salitre. Dicen que los pueblos que no aprenden de sus errores están condenados al subdesarrollo.

Haciéndole una fMRI a un salmón muerto

     Cuando Craig Benett fue a comprar un salmón al supermercado tenía una receta en mente. No precisamente una receta de cómo cocinaría ese salmón, sino una que le ayudaría a mejorar los estudios de imágenes de resonancia magnética funcional (o fMRI por sus siglas en inglés). A pesar de que anunció que el salmón era para la ciencia, igual tuvo que pagar el precio completo por un espécimen de casi 46 cm de largo y 1,7 kg de peso. A toda prisa volvió al laboratorio, antes de que el sujeto de estudio comenzara a oler feo. Una vez ahí, el salmón (que estaba efectivamente muerto en ese momento y cuyo sexo era desconocido) fue puesto en una máquina de fMRI. Al mismo tiempo, al salmón se le mostraron una serie de fotos de individuos humanos que se encontraban en diversas situaciones sociales y que manifestaban alguna emoción. Se le pidió al salmón que determinara que emoción estaban experimentando los individuos de las fotos, mientras se determinaban los cambios en su actividad cerebral. Hasta aquí puede parecer bastante ridículo el procedimiento. Después de todo ¿cuál es propósito de poner un salmón muerto en una máquina que mide la actividad del cerebro? Bueno, el propósito del experimento tiene relación directa con el resultado que obtuvieron: cuando le mostraron las fotos al salmón, su cerebro mostró actividad asociada a un aumento en el flujo de sangre.

Captura de pantalla 2015-09-08 a las 13.46.26
Los puntos rojos muestran las áreas asociadas a actividad en el cerebro del salmón. Se puede apreciar actividad en el cerebro y en la médula espinal (Modificado de Bennett et al., 2010.

Falsos positivos

     El resultado obtenido por los investigadores no sugiere –como podría pensar más de alguien– que un salmón muerto es capaz de reconocer las emociones humanas. El resultado está relacionado con la forma en la que se hacen estos experimentos y cómo se analizan. La fMRI es un procedimiento que usa la tecnología de la resonancia magnética y que puede medir la actividad de ciertas zonas del cerebro a través de la determinación de los cambios en el flujo de sangre. Esto es posible ya que se ha establecido que existe una correlación positiva entre la actividad neuronal y el flujo de sangre: a mayor flujo de sangre en una zona del cerebro, mayor es la actividad de las neuronas en esa zona. Una de las formas iniciales de esta técnica se basa en el contraste diferencial que se produce por los cambios en la concentración de oxígeno en la sangre y se ha convertido en una técnica muy poderosa y dominante en el campo de la neuroimagenología, debido a que no requiere ningún tipo de preparación especial del sujeto que será analizado. Nada de molestos pinchazos, agujeros en el cráneo, ingesta de sustancias fosforescentes que traen advertencias aterradoras en la etiqueta o exposición a la radiación. El proceso se basa en los cambios en la magnetización entre la sangre rica en oxígeno y pobre en oxígeno, pero es muy frecuente que se produzca una señal en ausencia de cambios reales en el cerebro. Este ruido en el experimento puede ser eliminado siguiendo ciertos procedimientos estadísticos, que sirven para limpiar la señal y eliminar estos falsos positivos, es decir, señal que el equipo detecta pero que no corresponde a un cambio real en el flujo de sangre del cerebro. En el caso del salmón, cada imagen tenía información de unos 130.000 voxels (pixeles tridimensionales) y por azar en algunos casos coincidía que el ruido del experimento tenía lugar en zonas que correspondían al cerebro del salmón.

     El punto interesante es que incluso en el cerebro de un salmón muerto es posible detectar flujo de sangre, lo que es claramente un artefacto técnico ¿Qué se hace con esto? Los procedimientos han sido históricamente dos: mirar para otro lado (es decir, asumir que hay ruido en el experimento) o bien aplicar ciertas correcciones matemáticas que permiten eliminar el ruido. Sin embargo, en muchos casos este procedimiento borra el ruido pero también los datos reales, haciendo que el experimento pierda valiosa información. Los autores de este estudio proponen un método especial de corrección llamado “corrección por comparaciones múltiples”, el que permite eliminar eficientemente el ruido (y los falsos positivos) manteniendo la señal real derivada del flujo de sangre en el cerebro.

Contra la corriente

El trabajo del salmón muerto fue dado a conocer por primera vez en un congreso en el año 2009. Originalmente los organizadores del congreso pensaron que se trataba de una broma, pero luego se dieron cuenta que la historia iba muy en serio. En ese momento los autores del estudio asumieron que sería complejo publicar estos resultados en una revista científica. La primera revista los rechazó sin revisión. En la segunda el artículo recibió una favorable evaluación del primer revisor pero el segundo lo destrozó. Finalmente los autores lograron publicar estos hallazgos en el Journal of Serendipitous and Unexpected Results. El artículo resultó muy llamativo y el año 2012 el grupo de investigadores se adjudicó el Premio Nobel Alternativo (conocido como IgNobel) “por demostrar que los neurobiólogos pueden encontrar, usando equipos complejos y simple estadística, actividad cerebral en cualquier parte, incluyendo un salmón muerto”.

Captura de pantalla 2015-09-08 a las 13.46.37

En una entrevista concedida a la revista Nature, Craig Bennett se mostraba algo preocupado por lo que podría significar para su carrera ser el ilustre ganador de un Premio Nobel Alternativo. Sin embargo, se tranquilizó un poco cuando el creador de estos premios –Marc Abrahams– lo llamó para contarle que estos están dirigidos a aquellas investigaciones que primero hacen reír, pero luego hacen pensar. Y este era claramente el caso. Cuando fue publicado el estudio de Bennett, cerca del 30% de los trabajaos científicos que incluían imágenes de fMRI no realizaban la corrección por comparación múltiple. En contraste, un tiempo después, el 90% de los trabajos eran analizados usando el método que ellos proponían. Muchas preguntas vienen a la mente: ¿Cuanto pudo haber influido este trabajo en este cambio? ¿Qué pasó finalmente con el salmón? Solo sabemos la respuesta de esta última pregunta: el salmón fue cocinado y comido. Todo por la ciencia.

La mujer del maíz y los genes saltarines

Captura de pantalla 2015-09-01 a las 12.24.01El señor y la señora McClintock querían un niño. Ya tenían dos hijas y esperaban con ansias que su tercer hijo fuera hombre, pero el destino quiso otra cosa. El 16 de junio de 1902 la señora McClintock dio a luz en Connecticut a una niña a la que originalmente llamaron Eleonor, aunque más tarde cambiaron de parecer: la niña se llamaría Barbara McClintock. Con ese nombre entró en la historia de la ciencia mundial como la citogenetista más brillante que ha vivido. Sin embargo, debió enfrentarse a la indiferencia y suspicacia con la que sus hallazgos fueron recibidos.

La pequeña Barbara era curiosa y no tenía contemplado seguir el camino que la sociedad de la época tenía trazado para ella. Su hermana mayor ya había sido convencida de no ir a la universidad para dedicarse a la tarea de buscar marido. Barbara se resistió tenazmente a ese destino y, luego de graduarse como botánica en la Universidad de Cornell, decidió hacer un doctorado en la misma universidad, especializándose en un área nueva: la citogenética.

Por esa época, el estudio de los cromosomas estaba en pañales. Se sabía que los cromosomas estaban asociados a la herencia de los caracteres de la descendencia, y que era posible predecir la apariencia de un organismo dependiendo de la herencia de zonas específicas de los cromosomas. De esta forma, estaba claro que los genes se ubicaban en los cromosomas. Sin embargo, en ese tiempo la palabra genes representaba un concepto abstracto —esa entidad que determinaba las características de los organismos—, ya que se desconocía su identidad molecular. No se sabía de qué estaban hechos.

Impulsada por su tutor en Cornell, McClintock estudió, entre 1927 y 1931, cómo cambiaban físicamente los cromosomas del maíz durante el desarrollo de los gametos y las semillas.

Las células poseen dos versiones de cada cromosoma, una materna y otra paterna. Ambas versiones son muy parecidas —pero no idénticas— y reciben el nombre de cromosomas homólogos. Durante mucho tiempo se había sospechado que durante la meiosis —un tipo especial de división celular que sirve para generar a los gametos— los cromosomas homólogos intercambiaban trozos entre ellos. McClintock logró asociar una zona de un cromosoma del maíz a una característica física en el grano y, mirando los cromosomas al microscopio, logró asociar esa característica con el movimiento de un segmento de cromosoma desde un homólogo hacia el otro. De esta forma describió las bases físicas del entrecruzamiento o crossing-over, un trabajo considerado como clave en la historia de la citogenética.

En 1931, Barbara McClintock ganó una beca del Consejo Nacional de Investigaciones de EE.UU. para realizar una larga estadía posdoctoral trabajando en las universidades de Cornell, Missouri y el Instituto Tecnológico de California. En 1936 fue contratada como profesora asistente en la Universidad de Missouri, cuando ya era una figura reconocida de la citogenética gracias a sus estudios sobre la variación fenotípica en maíz.

Sin embargo, no estaba cómoda en Missouri. Las actividades docentes y administrativas la alejaban de la investigación experimental y, por otro lado, veía que como mujer sus posibilidades de optar a un cargo de profesora titular eran muy bajas. Al mismo tiempo, debido a su jerarquía académica, era excluida de las reuniones de la facultad, y su puesto de trabajo fue puesto en duda. Se sentía poco apreciada, y su investigación no avanzaba como esperaba. Debido a esto, buscó un espacio en el laboratorio de Cold Spring Harbor en Nueva York, donde trabajó desde 1941 hasta su jubilación, en 1967.

LOS GENES SALTARINES

La apariencia externa de los granos de maíz depende del color de la aleurona, el tejido más externo del grano. La aleurona está formada por miles de células y, en el tipo más conocido de maíz, esas células no sintetizan un tipo  de pigmentos oscuros llamados antocianinas, por lo que el grano es amarillento. En Cold Spring Harbor, McClintock trabajó con un tipo especial de maíz, en el que el color de los granos no era homogéneo; éstos eran jaspeados: algunas células de la aleurona eran oscuras, ya que sintetizaban antocianinas, pero otras no lo hacían y eran amarillentas. Lo interesante es que este cambio ocurría en cada célula de manera independiente, lo que hacía que los granos de maíz fueran como un mosaico.

Captura de pantalla 2015-09-01 a las 12.27.21

Se había hipotetizado que este fenómeno era producido por algún tipo de mutación inestable, que afectaba a los genes de biosíntesis de antocianinas en algunas células de la aleurona. Entre 1949 y 1953, McClintock descubrió —gracias a sus cuidadosas observaciones del color y estructura de los cromosomas de las células de la aleurona— que existía una región de los cromosomas que “saltaba” de un lugar a otro. Cuando lo hacía, “prendía” o “apagaba” a los genes de biosíntesis de antocianinas, cambiando la apariencia de la aleurona. McClintock llamó a este elemento móvil Dissociator o Ds. También descubrió que el movimiento de Ds dependía de otro elemento en los cromosomas, que ella llamó Activator o Ac. Estos hallazgos eran revolucionarios, pues por un lado ponían de manifiesto el fino control de la actividad de los genes y, de manera aún más inquietante, mostraban que el genoma de los organismos era inestable y no la estructura rígida e inalterable que se creía hasta esa época.

Todos estos hallazgos remecieron a la comunidad científica y chocaron con el escepticismo y la duda. ¿Cuánto contribuyó a esto el que McClintock fuera mujer? Es difícil saberlo. McClintock tenía un gran prestigio en los círculos científicos: en 1944 se había convertido en la tercera mujer en ser electa para la Academia de Ciencias de EE.UU., y al año siguiente en la primera mujer en presidir la Sociedad de Genética del mismo país. Es muy probable que lo revolucionario de sus descubrimientos fuera un impedimento mayor; basta recordar que sólo en 1944 se estableció que los genes estaban hechos de ADN, y en 1953 se determinó la estructura de esta molécula. Debido a la suspicacia e indiferencia con la que sus resultados fueron recibidos, McClintock decidió dejar de publicar sus hallazgos relacionados con los elementos móviles en 1953.

El reconocimiento

En 1961, los genetistas François Jacob y Jacques Monod publicaron un revolucionario artículo sobre el control de la expresión génica, en el que describían mecanismos de control similares a los descritos más de una década antes por McClintock. A fines de los 60, otros grupos de investigadores describieron la presencia de elementos móviles en el genoma de bacterias, confirmando finalmente todas las observaciones de McClintock. A partir de ese momento, su trabajo fue reconocido como pionero. En 1971 recibió de manos de Richard Nixon la Medalla Nacional de Ciencias, y en 1981 se convirtió en la primera persona en recibir la Beca de la Fundación MacArthur —conocida hasta hoy como la “beca de los genios”—, que consistía en el pago de US$ 60.000 al año de por vida. Ese mismo año ganó la medalla Lasker.

El 10 de octubre de 1983, a los 81 años, Barbara McClintock se convirtió en la primera mujer en la historia en ganar el Premio Nobel de Medicina y Fisiología de manera individual por el descubrimiento de los elementos genéticos móviles. Al enterarse de la noticia, Barbara McClintock comentó: “Es un honor extraordinario. Puede parece algo injusto, sin embargo, recompensar a una persona que lo ha pasado tan bien durante todos estos años haciéndole preguntas al maíz y mirando sus respuestas”.

Captura de pantalla 2015-09-01 a las 12.37.36

Barbara McClintock murió el 2 de septiembre de 1992 en Nueva York. Tenía 91 años y se había convertido —en palabras de James Watson— en la Katharine Hepburn de la ciencia: todos querían entrevistarla, sacarse una foto con ella y pedirle autógrafos. Ambas habían nacido en Hartford, Connecticut. Cuando le preguntaron por su trabajo, declaró: “Jamás pensé en detenerme, sólo odiaba tener que dormir. No puedo imaginar una vida mejor”.

La inteligencia de las plantas

54eacfc2b9463_-_02-walnut-brainfoods-that-look-like-body-parts-1

      Grover Cleveland Backster Jr. (Cleve Backster para los amigos) era un especialista en interrogatorios de la CIA y experto en el manejo del polígrafo. Una día y como de costumbre colocó cuidadosamente los electrodos para empezar un interrogatorio. No tenía preguntas específicas que hacer, lo suyo era algo que sencillamente se le ocurrió de un momento a otro. Era una mañana del mes de febrero de 1966 y Cleve Backster decidió hacer algo que nadie más había hecho: le puso el detector de mentiras a una planta. Más específicamente a una Dracaena que tenía en su oficina.

Captura de pantalla 2015-08-10 a las 8.49.30
“Mi plantita me habló, me dijo cosas…”

Come on baby, light my fire

      ¿Cómo se instalan los electrodos del polígrafo en una planta? Ni idea, nadie lo había hecho, así que el bueno de Cleve decidió probar suerte. Le puso los electrodos del detector de mentiras en una hoja a su Dracaena y, para su asombro, el solo pensar en prenderle fuego a la planta hizo saltar la aguja del polígrafo, dando cuenta de la detección de una corriente eléctrica. ¿Estaba la planta respondiendo angustiada a los pensamientos de Backster? ¿Podía efectivamente esta planta leer su mente? ¿Será que las Dracaenas tienen algo particular –y bastante aterrador– o se trata de una propiedad universal de las plantas? A partir de ese momento nuestro investigador/jardinero le puso el detector de mentiras a lechugas, cebollas, naranjas, plátanos y cuanta fruta y verdura pudo encontrar. Backster reportó que las plantas reaccionaban a sus pensamientos –buenos o malos– incluso cuando se encontraba a gran distancia de ellas. En un experimento particularmente curioso, Backster decidió probar la memoria de las plantas: una planta que había sido testigo del “asesinato” a pisotones de otra planta podía identificar al homicida de entre seis sospechosos a través del registro de una corriente eléctrica cuando el sospechoso se paraba frente a la planta “testigo”.

lineup
“No estoy seguro, pero creo que ese es Keyser Söze”

Backster también reportó que las plantas presentaban aversión a la violencia hacia otras especies, registrando saltos del polígrafo cuando se rompía un huevo en presencia de una planta o cuando un camarón vivo era arrojado en agua hirviendo. Todos estos resultados fueron publicados en el International Journal of Parapsychology. Como imaginarán, los estándares “científicos” del International Journal os Parapsychology no son muy altos. Después de todo, estamos hablando de un Journal que publica artículos sobre precognición, telequinesia y otras actividades paranormales que son propias de relatos fantásticos. Pero como la ciencia no funciona sencillamente por descarte, se decidió repetir los experimentos de Backster: Nadie jamas pudo repetir los resultados descritos por él cuando se hicieron los experimentos en condiciones controladas (es decir, como corresponde), por lo que los “hallazgos” del buen Cleve Backster caen dentro del saco de la superchería (como dato anecdótico, en el mismo número donde Backster publicó sus hallazgos viene un artículo sobre el Mesmerismo). Sin embargo, “El efecto Backster” aparece descrito en el libro “La vida secreta de las plantas” (1973), que recopila una serie de experimentos de dudosa calidad y que propone que las plantas son seres vivos inteligentes y sensibles, capaces de manifestar emociones. El libro es una alegoría a al pensamiento mágico, pero rápidamente la cultura popular lo adoptó.

Neurobiología sin neuronas

      El año 2006 un grupo de seis científicos publicó un controversial manifesto en la revista Trends in Plant Science. Los autores proponían un nuevo campo de investigación que ellos llamaron “neurobiología vegetal” y sugerían que las plantas presentan comportamientos tan complejos que son imposibles de explicar solamente a partir de mecanismos bioquímicos y genéticos. Las plantas son capaces de responder a tantos  estímulos –luz, temperatura, humedad, gravedad, ataque de patógenos, salinidad, estructura del suelo, toxinas, microbios– que, proponían los autores del manifesto, debe existir algún centro de procesamientos de información que cumple un rol similar al del cerebro que permita coordinar e integrar sus respuestas. Un poco antes ya se había efectuado la primera reunión de la Sociedad de Neurobiología Vegetal en Florencia y se editó una nueva revista científica, la que tenía un nombre menos polémico: Plant Signaling & Behavior (Señalización y Comportamiento de Plantas). Sin embargo, otros 36 científicos publicaron una carta en respuesta al manifesto del 2006 en Trends in Plant Science y en la que manifestaban que, al no existir evidencia de neuronas, sinapsis o un cerebro en las plantas, no corresponde hablar de “neurobiología vegetal”. Si bien el manifesto del 2006 solo hablaba de “estructuras homólogas”, el uso del término “neurobiología” causaba escozor en la comunidad de biólogos vegetales. En este punto hay que aclarar que las plantas, igual que los animales, presentan canales iónicos que explican las variaciones de voltaje que es posible observar en las membranas de sus células. No se trata de una propiedad intrínseca de los sistemas neuronales. Para Lincoln Taiz (autor del famoso Taiz de Fisiología Vegetal, libro de cabecera de muchos que pasaron por un curso de fisiología vegetal) el concepto de neurobiología vegetal nace a partir de una sobre-interpretación de los datos y forma parte de una visión antropocéntrica y salvajemente especulativa. Hay que aclarar que los científicos que se han involucrado en esta área no proponen que las plantas tengan sentimientos o puedan leer la mente, como lo que describía Backster en sus experimentos, o que las plantas posean un cerebro como el de los animales. Solo proponen que las plantas pueden integrar y procesar información compleja para generar respuestas apropiadas, algo que puede ser considerado como una manifestación de inteligencia.

Cerebro de nuez

      ¿Qué es la inteligencia? Para Stefano Mancuso, uno de los fundadores de la neurobiología vegetal, las plantas son inteligentes en cuanto pueden resolver problemas; su inteligencia no se relaciona con la presencia de un cerebro o con la capacidad de manifestar emociones. En ese sentido, la inteligencia de las plantas sería algo similar a la inteligencia colectiva de un grupo de insectos, por ejemplo. Sin embargo, para muchos (me incluyo) la inteligencia consiste en la habilidad de construir un modelo mental del mundo para comprenderlo y no existe ningún sistema –sin importar lo complejo y efectivo que sea– que pueda ser considerado como “inteligente” solamente porque puede resolver problemas. Para Mancuso, la inteligencia de las plantas ha pasado desapercibida por un problema de escala temporal, algo que se le ocurrió a partir de un capítulo de Star Trek en el que seres de otro mundo –y que vivían en una dimensión donde el tiempo transcurría de manera muy rápida– entraban en contacto con la tripulación del Enterprise. Al ver que los seres humanos no se movían llegaban a la conclusión que éramos materia inerte (en este punto recomiendo leer el texto “¿Qué es la vida?, escrito por Francisco Varela y que discuto la primera clase de biología celular con mis estudiantes). Independiente del concepto de inteligencia, sabemos que las plantas deben responder a muchas señales. En ese sentido, las plantas deben ser tremendamente efectivas a la hora de percibir el mundo exterior debido a una propiedad, o más bien a la falta de ella: las plantas no pueden desplazarse. De esta forma, el lema de las plantas es “adaptarse o morir”. Tal vez es esta fuerte presión selectiva la que ha producido respuestas que pueden parecer animales y que (muchas veces) la prensa se ha encargado de exagerar o mal interpretar. Hace un tiempo atrás se publicó un artículo que mostraba que las plantas que “escuchaban” el sonido de una oruga masticando una hoja eran capaces de montar una respuesta de defensa en preparación a un posible ataque.

Captura de pantalla 2015-08-11 a las 12.21.19
“¡No hagas tanto ruido al comer!”

      Otro artículo mostraba como plantas parasíticas eran capaces de encontrar a sus víctimas “oliéndolas”, mientras que plantas carnívoras pueden tragarse a bichos completo en un rápido movimiento al “tocarlos”. ¿Quiere decir estos que las plantas oyen, huelen y sienten? De ninguna manera. La percepción de estímulos físicos puede producirse de maneras diferentes, pero no podemos humanizar este tipo de respuestas. Las plantas pueden percibir señales volátiles y puede determinar desde donde emanan sencillamente por un gradiente de concentración y en base a esa información pueden re-dirigir su crecimiento. Alguien podría considerar a esa respuesta como un reflejo de la “inteligencia”. Sin embargo, un glóbulo blanco hace exactamente lo mismo para atrapar una bacteria y no por eso lo consideramos inteligente.

      Algunos científicos han manifestado de manera bastante tajante su opinión al respecto (un científico solo dijo “bullshit” cuando le preguntaron su opinión sobre unos experimentos que proponían la existencia de memoria en las plantas). Lo cierto es que las plantas son seres vivos versátiles y con una enorme capacidad de percibir estímulos ambientales y responder a ellos, lo que ninguna manera quiere decir que tengan sentimientos o manifiesten emociones. Esto no es trivial: hace poco se debatió en Suiza una ley que reconocía la “dignidad de las plantas”, lo que afectaba no solo a la investigación científica, sino que también a otras áreas, como la cocina. Después de todo, millones de vegetales son asesinados hirviéndolos vivos, apuñalándolos o desollándolos. Piensen eso la próxima vez que coman brócoli, corten una manzana o pelen una piña.

veg

 

El Efecto Placebo

Captura de pantalla 2015-07-01 a las 16.13.32

        El origen de la palabra placebo es religioso y se puede trazar a una antigua traducción al latín de la Biblia Hebrea. En efecto, el versículo 9 del salmo 116 comienza con la palabra Ethalekh, que es el futuro indicativo en primera persona singular del verbo latino Placere, que significa complacer o satisfacer (el pasaje original dice “Placebo Domino in regione vivorum”, Complaceré al Señor en la tierra de los vivos). Durante la época medieval el término fue usado por la iglesia católica para referirse a un rito fúnebre en el que se cantaba el salmo 116. En el siglo XIII el término adquirió otro sentido, cuando se refería a aquellos a los que se les pagaba para llorar a un muerto y se decía que “cantaban placebos”, pues era la palabra con la que comenzaba el salmo 116, que era lo que se cantaba en la misa de los muertos. Más tarde, en Los Cuentos de Canterbury (c.a. 1400), el autor Geoffrey Chauser nombra a un personaje servicial y halagador como Placebo.

        Con el tiempo, el termino placebo entró en el mundo de la medicina como una forma de complacer al paciente. Es muy probable que el primer uso de la palabra placebo en un contexto médico sea obra de William Cullen –químico y médico Escocés– quien durante una charla en 1772 contó que prescribió un tratamiento falso “solo como placebo” a un paciente con una enfermedad incurable. Una revisión realizada a todas las publicaciones del British Medical Journal del siglo XIX para el término placebo indica que fue usado en 71 publicaciones. De esas, en 22 casos fue para referirse a él manera peyorativa o como un tratamiento que se sabía no tenía efecto (y en tres ocasiones se le mencionó como una forma de ganar dinero extra, abultando los honorarios del médico). En este sentido, los placebos entran en el mundo de la medicina como una sustancia inerte que se le administra a un paciente de manera engañosa: una mentira piadosa (y también como distracción para calmar a un paciente particularmente molesto).

De ciegos y placebos

        Actualmente los placebos son parte integral de la metodología científica de los ensayos clínicos. Un placebo se define como una sustancia inerte, sin principio activo, pero que en algunos casos puede producir una mejoría de los síntomas subjetivos de una enfermedad, lo que se conoce como efecto placebo. El efecto placebo fue observado y descrito ya en el siglo XVIII, pero no fue hasta mediados del siglo XX cuando se reconoció su importancia para distinguir los efectos farmacológicos de una sustancia de los efectos de la sugestión y, de esta forma, obtener una evaluación imparcial de los resultados de un experimento o ensayo clínico. Los ensayos clínicos doble ciego controlados con placebo se han convertido en el estándar mundial para evaluar la eficacia de un nuevo fármaco. Desde el punto de vista histórico, el primer ensayo ciego del que se tiene registro es el que el Rey Luis XVI pidió realizar para evaluar el mesmerismo: Franz Anton Mesmer decía que había descubierto un nuevo “fluido sanador” en la naturaleza al que llamaba “magnetismo animal” y había ideado una forma de canalizar el “magnetismo animal” como una forma de curar enfermedades, terapia que bautizó como mesmerismo. Debido a la enorme popularidad que ganó el mesmerismo en Francia, el Rey ordenó que se lo evaluara de manera científica. Para esto se formó una comisión de expertos –un auténtico dream team– encabezada por Benjamin Franklin y en la que además participaba el reconocido químico Antoine Lavoisier y el botánico Antoine de Jussieu (el mismo que plantó en Versalles las primeras frutillas chilenas que llegaron a Francia, pero esa es otra historia). Cuando a mujeres voluntarias se les decía que estaban recibiendo el mesmerismo, reportaban un efecto. Sin embrago, cuando no se les decía que lo estaban recibiendo, no sentían nada. De esta forma, y después de 3 meses de trabajo, la comisión llegó a la conclusión de que el efecto del mesmerismo dependía de saber que lo estaban recibiendo: era puramente sugestión y se descartó la existencia del “magnetismo animal”. Después de todo ¿qué clase de cosa depende de creer en ella para que funcione? Como dice Neil deGrasse Tyson, “una de las cosas buenas de la ciencia es que funciona aunque no creas en ella”.

        Recién en 1955 se consolida la idea de la relevancia del efecto placebo en los ensayos clínicos. En parte esto se debe al trabajo de Henry Beecher, quien publicó un extenso artículo en el Journal of the American Medical Association resaltando la importancia de que los ensayos clínicos fueran doble ciego y controlados con placebo. Esto quiere decir básicamente que la eficacia de un fármaco debe contrastarse con la de un placebo y, que tanto los voluntarios que participan en el estudio como los científicos que lo dirigen, no deben saber quienes toman el fármaco real y quienes el placebo (normalmente una tableta de almidón o lactosa).

3c310b-d

        Es importante recalcar que el efecto placebo no mata bacterias, no achica tumores y no repara apéndices. En el mejor de los casos el efecto placebo produce una mejoría de los síntomas subjetivos de una enfermedad: dolor, mareos o malestar generalizado. Como el efecto placebo depende de un trampa –la persona cree que está tomando un fármaco– su aplicación engañosa es éticamente reprobable.  

        El efecto placebo está rodeado de un halo de misticismo: a todos nos gusta pensar que tenemos un gran control sobre nuestros cuerpos y, en particular, sobre las enfermedades y sus síntomas. De esta forma, la idea del efecto placebo como un medio para aprovechar algún poder oculto que nos permita controlar nuestros cuerpos a través del poder de la mente es tan atractiva para muchos.

Nada por aquí, nada por allá…

        La pregunta fundamental en torno al efecto placebo tiene que ver con su valor terapéutico. Esto, ya que muchos practicantes de las llamadas “medicinas alternativas” han defendido el uso de estas terapias amparándose en el efecto placebo una vez que se ha demostrado que estas terapias carecen de base farmacológica. Tomemos el caso de la acupuntura. Esta práctica –muchas veces defendida solo por ser milenaria– fue de hecho prohibida en China: el Emperador Dao Guang prohibió la enseñanza de la acupuntura en la Academia Imperial de Medicina en 1822 y permaneció como una práctica minoritaria hasta mediados del siglo XX. Después de la Guerra Civil, el Partido Comunista ridiculizó a la medicina tradicional China –incluyendo a la acupuntura– y la calificó de supersticiosa. Sin embargo, Mao Zedong revitalizó el uso de la medicina tradicional China como parte del la Gran Revolución Cultural de 1966.

        Uno de los principales usos de la acupuntura es el tratamiento del dolor crónico. Se han realizado estudios para analizar la validez terapéutica de la acupuntura para el tratamiento del dolor en ensayos controlados con placebo. Para esto, se ha ideado un tipo de aguja de acupuntura que no penetra la piel y por lo tanto se trata de un placebo de acupuntura. Lo que se ha encontrado es que los pacientes han reportado una mejoría del dolor (síntoma subjetivo) cuando han sido tratados con acupuntura. Por otro lado, los pacientes tratados con el placebo de acupuntura también han reportado una mejoría del dolor equivalente. De esta forma, quienes defienden a la acupuntura apelan ahora al poder del efecto placebo como motor terapéutico de esta terapia (lo que no guarda relación alguna con los meridianos o el re-establecimiento de la energía interna, que es parte del discurso de la acupuntura). Los estudios han mostrado que la acupuntura funciona tan bien como el efecto placebo o, puesto de otro modo, que la acupuntura no es otra cosa que un placebo teatralizado. En el mejor de los casos la persona reportará menos dolor (lo que es subjetivo y no se puede medir) y uno podría pensar que eso es suficiente bueno y justifica usar este tipo de terapias. Sin embargo, existen varios problemas asociados a la idea de usar placebos en medicina. En primer lugar, y como ya comenté antes, el efecto placebo requiere de un engaño y el paciente no debe saber que está tomando un placebo. Esto es éticamente reprobable y ningún médico debería administrar placebos de manera engañosa. Esta idea fue (aparentemente) desafiada hace un tiempo cuando un estudio que tuvo un inusitado eco en la prensa mostraba –según sus autores– que no era necesario engañar al paciente para que el placebo surtiera efecto. El estudio en realidad encontró diferencias muy pequeñas entre los grupos y además los voluntarios que tomaron el placebo fueron advertidos de que, a pesar de recibir una tableta de azúcar, algunas personas habían experimentado “poderosos efectos en el cuerpo y la mente”.

        Por otro lado, el efecto que los placebos pueden ejercer sobre los síntomas subjetivos de una enfermedad podría resultar peligroso. Un estudio analizó a pacientes asmáticos separados en cuatro grupos. Uno recibió un inhalador con broncodilatador (Albuterol), el otro un inhalador placebo, el otro acupuntura placebo y el último grupo no recibió ningún tratamiento. Cuando se analizó la espirometría de los pacientes (VEF, volumen espiratorio forzado) se encontró que el único grupo con una notable mejoría fue el tratado con Albuterol. Nada sorpresivo: se trata de un conocido y efectivo broncodilatador cuyo efecto fisiológico puede ser medido de manera objetiva.

Captura de pantalla 2015-07-01 a las 12.46.17
Cambio en el VEF luego del tratamiento con un broncodilatador (Albuterol), un inhalador placebo (Placebo), acupuntura placebo (Sham Acupuncture) o ningún tratamiento (No-Intervention Control).

        En contraste, la espirometría de los otros tres grupos reflejaba una pobre función pulmonar y era similar en los tres casos. Es decir, desde el punto de vista fisiológico y de manera objetiva, no existe una mejoría de la función pulmonar cuando se usan placebos. Sin embargo, la sorpresa fue grande cuando se le preguntó a los pacientes por como se sentían; es decir, una evaluación subjetiva de los síntomas: los voluntarios de todos los grupos reportaron una mejoría (incluso el grupo que no recibió nada) y la mejoría subjetiva de los pacientes tratados con albuterol, inhalador placebo y acupuntura placebo fue similar y mayor a la del grupo sin tratamiento. ¿Qué quiere decir esto? Que un paciente con una crisis asmática puede pensar que está mejor luego de recibir un placebo (evaluación subjetivas de sus síntomas) cuando en realidad su función pulmonar está tan mal (síntoma objetivo) como si no hubiera hecho nada.

Captura de pantalla 2015-07-01 a las 12.46.29
Mejora subjetiva reportada por los voluntarios en los grupos tratados con un broncodilatador (Albuterol), un inhalador placebo (Placebo), acupuntura placebo (Sham Acupuncture) o ningún tratamiento (No-Intervention Control).

        De esta forma, el efecto placebo no mejora la fisiología respiratoria, solo genera una sensación de bienestar subjetivo que puede engañar a un paciente y hacerlo creer que está mejor, cuando en realidad su función pulmonar está severamente comprometida y lo más recomendable sería ir a un centro médico.

La genética del efecto placebo

        Uno de los hallazgos más interesantes del último tiempo relacionado con el efecto placebo tiene que ver con los cambios genéticos que podrían explicar las diferencias individuales en la respuesta a un placebo. Un estudio que involucró a 104 voluntarios encontró que un cambio discreto (un aminoácido de diferencia) en la proteína catecol-O-metil transferasa (COMT) explicaba en gran medida la respuesta a un tratamiento placebo en estos voluntarios, los que fueron reclutados originalmente para un estudio sobre síndrome de colon irritable. En la posición 158 de la COMT se puede encontrar una metionina o una valina. Los investigadores descubrieron que quienes eran homocigotos para la metionina 158 (poseían ambas versiones del gen codificando para metionina en la posición 158) eran más propensos a responder positivamente a un placebo. Este cambio genético podría afectar a los niveles de dopamina –un neurotransmisor involucrado en memoria, aprendizaje y recompensa– ya que la variante de COMT con metionina es menos eficiente en la degradación de dopamina, por lo que quienes portan esta versión del gen poseen (eventualmente) mayores niveles de este neurotransmisor en el cerebro (aunque en estricto rigor no se midió el nivel de dopamina, es solo una presunción). Los voluntarios recibieron además un tipo de intervención especial que disminuye la ansiedad y mejora el ánimo, por lo que estos hallazgos parecen tener sentido si se considera el papel de la COMT en el metabolismo de la dopamina. Si bien estos hallazgos son preliminares, se suman a otros relacionados con polimorfismos de nucleótido único (SNPs) asociados con la respuesta al efecto placebo. Estos hallazgos sugieren que las personas que responden al efecto placebo serían más propensas a los efectos emocionales de la intervención médica y que las expectativas y la información sobre el supuesto tratamiento podrían influenciar fuertemente la percepción de, por ejemplo, el dolor. Y esto de manera tanto positiva como negativa (efecto nocebo). Resulta particularmente interesante que, conociendo el perfil genético que se asocia fuertemente a responder al efecto placebo, se pueda usar esta información para diseñar mejores ensayos clínicos. De esta forma, sabiendo que una persona es propensa a responder al efecto placebo, es posible no considerarla en un estudio (criterio de exclusión) y separar así de mejor manera los efectos farmacológicos del efecto placebo. Esto podría ayudar a hacer ensayos clínicos más pequeños, baratos y rápidos o podría ayudar a descubrir efectos positivos de ciertos fármacos que han sido ocultados por los resultados obtenidos a partir de voluntarios que eran propensos a responder al efecto placebo.

Un yogur para editar el genoma

Comment

En general asociamos a las bacterias con la suciedad, enfermedad y muerte. El recuerdo de la peste bubónica –causada por la bacteria Yersinia pestis y de otras devastadoras epidemias causadas por bacterias– algo tiene que ver con la lúgubre visión que tenemos de estos seres microscópicos. Sin embargo, muchas bacterias no solo son inocuas, sino que además esenciales en nuestra vida. Por ejemplo, las bacterias que se emplean en la industria lechera para fabricar quesos y yogur. La leche contiene un azúcar llamado lactosa –un disacárido formado por glucosa y galactosa– que el 60% de la población mundial no puede digerir. Cuando la lactosa sin digerir llega al intestino grueso, ésta es procesada por las bacterias que viven ahí y se producen los molestos síntomas asociados a la intolerancia a la lactosa. Muchas de estas bacterias que degradan lactosa son útiles para la industria lechera, ya que convierten la lactosa en ácido láctico, acidificando la leche y convirtiéndola en una sustancia espesa que además tiene muy poca lactosa. Entre estas bacterias destaca el Streptococcus thermophilus, una bacteria que fue domesticada por el hombre y que ha sido utilizada desde principios del siglo XX en la elaboración de quesos y yogur. De hecho, estas bacterias son tan importantes que la industria de los productos lácteos gasta grandes cantidades de dinero para mantenerlas sanas. Así es, las bacterias también pueden enfermar y morir bajo el ataque de ciertos virus, llamados bacteriófagos.

Captura de pantalla 2015-06-01 a la(s) 20.18.00
Imagen coloreada artificialmente de un bacteriófago analizado por microscopía electrónica. Estos virus son muy abundantes y se estima que hay más bacteriófagos en nuestro planeta que estrellas en el universo (Fotografía de Univesity of Basel, Photo Researchers Inc.)

En el curso de las investigaciones que se realizaban para entender mejor como las bacterias se defienden de los virus bacteriófagos, se descubrió algo muy extraño en el genoma de las bacterias. Este hallazgo ha generado toda una revolución en el mundo de la biología molecular, revolución que ha permitido –por primera vez en la historia– editar de manera dirigida la información genética de un embrión humano. Esta es la historia de ese descubrimiento.

Un código extraño

A fines de los años 80s, varios grupos de investigación que caracterizaban genes bacterianos se toparon con algo extraño: secuencias cortas de ADN que se repetían en el genoma de las bacterias. El significado biológico de estas secuencias se convirtió en un misterio mayor, más aún cuando se descubrió que el 40 % de las bacterias presentaban este tipo de secuencias en su genoma. Estas secuencias cortas estaban flanqueadas por otras secuencias que eran palindrómicas (secuencias que se leen igual en ambas direcciones, como la palabra “radar”). Como se repetían muchas veces en el genoma fueron bautizadas como clustered regularly interspaced short palindromic repeats (repeticiones palindrómicas cortas, agrupadas y regularmente espaciadas), un nombre nada amigable que afortunadamente fue reemplazado por el acrónimo CRISPR (que se lee como crisper). El año 2005, investigadores que analizaban estas secuencias descubrieron secuencias idénticas en el genoma de varios virus que infectaban bacterias. A partir de estos datos se propuso que las secuencias CRISPR podrían ser parte de una especie de sistema inmune bacteriano, que almacenaba un recuerdo molecular de los bacteriófagos que la habían atacado y de alguna forma podía usar esta información para defenderse de futuros ataques.

Más sano que un yogurt

El año 2007, investigadores de una empresa de alimentos (Danisco) que trabajan con Streptococcus thermophilus en la elaboración de yogur, descubrieron que podían hacer a esta bacteria inmune al ataque de ciertos virus bacteriófagos cambiando la información genética de las secuencias CRISPR almacenadas en la bacteria. De esta forma, cuando se incorporaba artificialmente una secuencia del genoma de un virus bacteriófago en las secuencias CRISPR de la bacteria Streptococcus thermophilus, ésta se hacía inmune al ataque de ese virus. Así se demostró que efectivamente las secuencias CRISPR correspondían a una especie de sistema inmune bacteriano, que le permitía a las bacterias defenderse del ataque de los virus. Sin embargo, a medida que se empezó a estudiar el mecanismo de acción de este sistema de defensa, comenzaron a vislumbrarse ciertas aplicaciones que han terminado por revolucionar a la genética molecular en los últimos dos años. Lo que los investigadores descubrieron fue que las secuencias CRISPR que las bacterias almacenan se utilizan como un molde para generar secuencias de ARN que son complementarias a las secuencias de los virus. De esta forma, cuando un virus infecta a la bacteria, ésta reconoce al genoma del virus invasor y hace una copia de la secuencia almacenada en la región CRISPR. Esta copia de ARN se une a una proteína llamada Cas, que se especializa en cortar ADN. Así, la secuencia de ARN actúa como guía para indicarle a la proteína Cas donde cortar. Como consecuencia de esto, la proteína Cas corta el ADN del virus invasor, inactivándolo y haciendo a la bacteria resistente a ese virus.

portadaCRISPR
Buscar y destruir, un guiño a Metallica en la portada de Nature que habla sobre el mecanismo de acción del sistema CRISPR/Cas 

Una máquina para editar genes

El año 2012 se propuso que el sistema CRISPR/Cas se podría utilizar para editar genes de manera dirigida, usando secuencias de ARN complementario artificiales. De esta forma se logró editar con éxito genes en levaduras, peces, moscas, nemátodos, plantas, ratones y células humanas en cultivo. Hace un año atrás, en marzo del 2014, la revista Nature Biotechnology publicó un artículo que describía por primera vez la corrección in vivo de una mutación que causaba una enfermedad en ratones. La tirosinemia es una enfermedad que se produce por una mutación en el gen FAH, que codifica para la enzima fumaril acetoacetato hidrolasa, involucrada en la degradación del aminoácido tirosina. La ausencia de esta enzima en los seres humanos va acompañada de la acumulación de productos metabólicos que resultan altamente tóxicos para el hígado y que terminan causando la muerte por deficiencia hepática. Existe un modelo en ratón de esta enfermedad que posee la misma mutación descrita en humanos; estos ratones experimentan los mismos síntomas y se han usado como modelo de estudio de esta enfermedad. Lo que hicieron los investigadores fue inyectar en la cola del ratón todo el sistema CRISPR/Cas –incluyendo el ARN complementario para editar el gen FAH y un ADN guía especial para inducir la reparación de la mutación– que al actuar en conjunto en las células del hígado del ratón indujo la corrección de la mutación en algunas células hepáticas. Cómo estas células ahora sí procesan la tirosina, comienzan a proliferar por sobre las células con el genoma no editado, las que mueren por la acumulación de los compuestos tóxicos derivados de la tirosina. Los ratones tratados de esta forma mostraron una notable mejoría y, a diferencia de los ratones usados como control (que fueron inyectados con un sistema CRISPR/Cas incompleto), no bajaron de peso ni tuvieron que ser sacrificados producto de los síntomas de la enfermedad. De esta forma y por primera vez se demostró el potencial terapéutico de esta técnica para reparar mutaciones que producen enfermedades. Era cosa de tiempo para probarlo en humanos.

Un dilema ético

A fines del 2014 los rumores eran cada vez más fuertes: un grupo de investigadores estaba usando el sistema CRISPR/Cas para editar el genoma de embriones humanos. En marzo de este año un grupo de científicos –entre los que se cuenta a uno de los descubridores del sistema CRISPR/Cas– envió una carta a la revista Nature alertando sobre los riesgos potenciales del uso de esta tecnología en humanos.

Captura de pantalla 2015-06-01 a la(s) 20.32.54
“No editen la línea germinal humana”, carta enviada a Nature pidiendo una moratoria a los experimentos de edición del genoma en humano.

La posibilidad de alterar genéticamente a la línea germinal –es decir, inducir artificialmente cambios genéticos que podrían ser traspasados a la descendencia– era evidente. Se pedía una moratoria voluntaria a este tipo de experimentación en humanos, debido a que es relativamente fácil de aplicar y se podría emplear de manera masiva antes de que se evalúen todos los riesgos potenciales. Si bien todas las tecnologías que usamos tienen un riesgo intrínseco ­–razón por la cual le enseñamos a los niños a no meter los dedos al enchufe o nos ponemos nerviosos cuando despega nuestro avión­– es necesario primero conocer los riesgos para estudiar la forma de minimizarlos o evaluar si el beneficio obtenido supera al riesgo intrínseco. Por otro lado, si bien los usos terapéuticos parecen muy relevantes, podrían existir otros usos calificados de “cosméticos”, cuya aplicación parece trivial. Sin embargo, menos de un mes después de publicada la carta se confirmaron los rumores: un grupo de investigadores Chinos había modificado el genoma de embriones humanos. Se trataba de embriones no viables, que habían sido fertilizados in vitro por dos espermatozoides de manera simultánea. Estos embriones se dividen de manera normal al principio pero luego detienen su desarrollo y eventualmente mueren y se obtienen de manera recurrente y no intencional cuando se hace fertilización in vitro. Los investigadores describían que habían inyectado en total 86 embriones, de los cuales 71 sobrevivieron lo suficiente como para realizar análisis posteriores. El sistema CRISPR solo funcionó en una fracción de los embriones y en solo unos pocos se logró generar el cambio genético buscado (reparar una mutación en el gen ß-globina). Aún así, solo algunas células de esos embriones fueron editadas, lo que generó algo que se conoce como “mosaico”. Esto es bastante complejo, pues el organismo adulto estaría eventualmente compuesto por una mezcla de células sanas y otras enfermas. Los investigadores comentaban que debido a estas dificultades se debía afinar bien la técnica antes de pensar en aplicaciones clínicas en humanos.

Captura de pantalla 2015-06-01 a la(s) 20.35.47
Edición mediada por el sistema CRISPR/Cas del genoma de embriones humanos no viables

Los comentarios a este trabajo llegaron por montones. Algunos investigadores respaldan una moratoria completa antes de seguir intentando este tipo de experimentos, mientras otros se cierran completamente a la idea de usarlo en humanos. Otros son críticos con el trabajo pues consideran que no se usó la metodología más moderna de CRISPR/Cas, que no produce varios de los problemas que los autores del estudio encontraron, como edición de otras regiones del genoma o una baja eficiencia. Sin embargo, el debate está abierto ¿Es éticamente válido poner a disposición de las personas una metodología de edición del genoma para reparar genes defectuosos? ¿O tal vez para modificar ciertas características de los hijos? Es un debate muy interesante, que contrasta fuertemente con la realidad nacional: acá todavía estamos discutiendo una ley de aborto. Cuando lleguemos como país al debate del sistema CRISPR es muy probable que en el mundo ya hayan consensos establecidos. Es parte de los costos que se pagan por postergar los debates importantes.