Un 83% de los jóvenes prefiere internet para informarse sobre temas de salud

Investigadores de la Universidad Rey Juan Carlos han llevado a cabo un estudio que revela que la gran mayoría de los jóvenes (un 83%) prefieren Internet para consultar sobre temas de salud, por delante de médicos o farmacéuticos.

Un-83-de-los-jovenes-prefiere-internet-para-informarse-sobre-temas-de-salud_image_380
El estudio indica que la mayoría de los jóvenes prefieren Internet como fuente de información sobre temas de salud, / URJC

Un estudio elaborado por profesores de la Universidad Rey Juan Carlos (URJC) señala que los jóvenes prefieren internet para informarse sobre temas de salud. Los resultados de este trabajo se han presentado en el VI Congreso Internacional Latina de Comunicación Social, celebrado en la Universidad de La Laguna, Tenerife.

Las conclusiones inducen a datos significativos relacionados con los usos de la red y el  grado de confianza que se otorga a la información encontrada. “Este estudio, de carácter exploratorio y realizado a partir de una muestra de alumnos de Publicidad y Relaciones Públicas de la URJC, nos proporciona pistas interesantes para orientar las acciones dirigidas a la concienciación o alfabetizaciones mediática de los jóvenes en temas de salud”, señala María Cruz López de Ayala, profesora de la URJC y coautora del estudio.

Algunos datos obtenidos cifran que un 83% de los jóvenes utiliza los buscadores online para buscar información sobre salud. Un 77% de ellos lo hace con mucha frecuencia, superando las consultas médicas (34,2%) o farmacéuticas (19,8%). Sin embargo, el grado de la confianza que se le otorga es mucho menor y la principal motivación es la búsqueda de información relacionada con hábitos de vida y nutrición saludables.

Buscadores

En cuanto a los buscadores utilizados en la mayoría de los casos son de carácter genérico, mientras que las páginas profesionales son poco consultadas. Un 93% de los encuestados reconoce que acude a Google o Wikipedia. “Los internautas confían en que la información que les proporciona Google y la Wikipedia es relevante y, en general, no se cuestionan la calidad de los resultados”, señala la profesora de la URJC, quien añade que “esa confianza tiene que ver con la experiencia en su uso, ya que estos recursos  les aportan la información que buscan y o no se cuestionan su calidad o no saben cómo valorarla. Por tanto, se familiarizan con estas herramientas y se crea un hábito de consulta”.

Un 93% de los encuestados reconoce que acude a Google o Wikipedia para esetos temas

Internet ofrece un acceso instantáneo a gran cantidad de información, pero generalmente no cuenta con los filtros de los medios de comunicación convencionales, que ayudan a contrastar la información. El manejo extendido de Internet y las consecuencias que pueden derivar de su mal uso han generado cierta inquietud entre los profesionales de las ciencias de la salud porque los jóvenes no conocen webs médicas ni los sellos de calidad que pueden ayudarles a orientar la credibilidad que otorgan a esos contenidos.

Información inadecuada

“Si a esto le sumamos que la información obtenida en línea influye sobre los comportamientos de salud, todo nos lleva a pensar que, si esta información no es la adecuada, se pueden generar determinadas acciones que pueden tener consecuencias negativas sobre nuestra salud, como por ejemplo, la automedicación”, destaca la profesora López de Ayala.

Es por tanto que, a partir de los resultados obtenidos, los autores consideran que es conveniente llevar a cabo algunas medidas, como campañas de alfabetización mediática, porque según explica la coautora del estudio, “a los usuarios hay que darles a conocer los recursos de salud solventes que tienen a su alcance en Internet, como webs médicas o apps de salud, así como los criterios de valoración de la información que pueden  encontrar en la red –sellos de calidad, etc.–”.

Referencia bibliográfica:

María Cruz López de Ayala López, Beatriz Catalina García y Paloma Alfageme Pardo, “Hábitos de búsqueda y confianza en la información online sobre salud entre jóvenes universitarios”: http://www.revistalatinacs.org/14SLCS/2014_actas/017_Lopez.pdf

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Las religiones moralizantes, como el cristianismo y el islam, surgieron de la riqueza

Los movimientos ascetas que originaron las principales corrientes religiosas del mundo, como el cristianismo, el budismo o el islam, surgieron casi al mismo tiempo en tres regiones diferentes del mundo. A través de un modelo estadístico, investigadores de Francia y EE UU han concluido que la aparición de estas religiones fue provocada por el aumento de los niveles de vida en las grandes civilizaciones de Eurasia.

5782484
Un palestino se sirve de una silla para poder seguir las oraciones durante el Eid al-Adha en el campo de Al Nusairat, en el centro de la franja de Gaza. / Efe

Un equipo científico de varias instituciones de Francia y EE UU ha desarrollado un modelo estadístico, basado en la historia y la psicología humana, que relaciona un aumento del bienestar de la población con la aparición de religiones moralizantes como el budismo, el islam, el judaísmo, el hinduismo y el cristianismo. Este surgimiento se produjo de forma casi simultánea en tres zonas geográficas distintas.

Nicolas Baumard, autor principal del estudio e investigador de la École Normale Supérieure en París, explica a Sinc que “aparte de la variedad de creencias –monoteísmo, politeísmo, la reencarnación o la vida futura–, las grandes religiones actuales tienen más cosas en común de lo que se cree. Comparten las mismas características básicas: énfasis en la autodisciplina, abnegación y altruismo, que se oponen a las religiones primitivas. Además, aparecen casi al mismo tiempo en sociedades muy similares y como reacción a los mismos cambios ambientales”.

Según el científico, su estudio, publicado en el último número de la revista Current Biology, desvela que, pese a las diferencias, “es muy probable que las religiones moralizantes utilicen los mismos sistemas de recompensa en el cerebro humano”.

El equipo de Baumard ha utilizado “series a largo plazo para un conjunto de factores: demografía, tamaño de la ciudad, desarrollo político y cantidad de energía disponible para la gente, todo ello como una aproximación del nivel de vida”. Después, se calculó el grado en el que las diferentes variables sociales se asociaban con la aparición de las religiones.

Vida rápida frente a vida lenta

“Nuestra hipótesis –agrega– es que la riqueza fue un elemento clave. De hecho, los últimos avances en neurociencia y psicología indican que la abundancia tiene efectos predecibles en sistemas de motivación y recompensa humanos. Los individuos se alejan de las estrategias de la ‘vida rápida’, marcada por la adquisición de recursos y las interacciones coercitivas, hacia la ‘vida lenta’, caracterizada por las técnicas de autocontrol y de las interacciones cooperativas, que se encuentran en las religiones mundiales como el cristianismo, el islam, el hinduismo y el budismo”.

En línea con esta idea, los autores encontraron que “la riqueza es el mejor predictor para la aparición de las religiones moralizantes y ascéticas –el tipo de religiones en las que la gente cree en la actualidad– que no existían en las sociedades primitivas y arcaicas”, dice el investigador.

Baumard y su equipo se preguntan cuál podría ser la explicación del tardío surgimiento de las religiones moralizantes. “Una posibilidad que planteamos en este trabajo es que la aparición de estas religiones en tres zonas geográficas fuera producto de la lenta transformación del sistema de recompensa humana provocada por un aumento en el nivel de vida en las grandes civilizaciones euroasiáticas”, señala.

“Hoy damos por sentado que la religión está ligada a la moral, ya que las principales religiones son moralizantes. Sin embargo, esto no ha sido siempre así”, continúa. No hay más que fijarse en los dioses griegos, los egipcios y los  aztecas. También en las sociedades de cazadores-recolectoras y comienzos de los cacicazgos la tradición religiosa se centró en los rituales, ofrendas de sacrificio y tabúes diseñados para protegerse de la desgracia y el mal.

Trascendencia personal

Todo esto cambió entre los años 500 a. C. y 300 a. C., cuando las nuevas doctrinas aparecieron en tres lugares en Eurasia. “Todas destacan el valor de la trascendencia personal”, escriben los investigadores.

La idea principal de la trascendencia es que la existencia humana tiene un propósito distinto del éxito material, que se encuentra en una existencia moral y en el control de los propios deseos materiales a través de la moderación (en la comida, el sexo, la ambición, etc.); el ascetismo (ayuno, la abstinencia, el desapego); y la compasión (ayudar, sufrir con otros..).

Mientras que muchos estudiosos han argumentado que las sociedades globales son posibles y funcionan mejor gracias a las religiones moralizantes, los autores de este trabajo no están tan seguros. Después de todo, destacan, algunos de “los antiguos imperios más exitosos tenían grandes dioses sin ninguna moralidad”, y ponen como ejemplos a la civilización egipcia, el Imperio Romano, los aztecas, los incas y los mayas.

Referencia bibliográfica:

Baumard et al. “Increased Affluence Explains the Emergence of Ascetic Wisdoms and Moralizing Religions”. Current Biology (11 de diciembre, 2014)
Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Fabricar un pantalón vaquero ‘cuesta’ cerca de 3.000 litros de agua

La fabricación de un pantalón vaquero requiere entre 2.130 y 3.078 litros de agua, que se usa principalmente para cultivar el algodón. Así lo recoge un estudio de investigadores de la la Universidad Politécnica de Madrid con el apoyo de la Fundación Botín.

Detalle de un pantalón vaquero. / Wikipedia

Un estudio realizado por investigadores de la Universidad Politécnica de Madrid (UPM), con el apoyo de la Fundación Botín y su Observatorio del Agua, ha analizado el impacto que tiene la fabricación de los pantalones vaqueros sobre los recursos hídricos.

Los resultados revelan que se requieren entre 2.130 y 3.078 litros de agua para elaborar este producto, y que el consumo está principalmente determinado por el impacto hídrico de su materia prima, el algodón. Solo el cultivo de esta planta representa entre el 3% y el 4% del agua que se emplea en todo el mundo para cualquier uso.

Para realizar el estudio, los investigadores se han basado en datos extraídos de las cuencas andaluzas de los ríos Guadalquivir, Guadalete y Barbate, donde se registra la mayor parte de la producción algodonera en España.

El trabajo, que publica el Journal of Cleaner Production, pretende alertar sobre la necesidad de un consumo razonable de un bien escaso como es el agua y cuya gestión es de vital importancia en zonas de escasa pluviometría.

Los datos indican que el algodón consume de media en España 778 litros por kilo de fibra producida, de los cuales el 90% corresponde a agua de riego. Sin embargo, un modelo de producción más intensivo y con mejores rendimientos como el predominante en 2005 lo reducía a una media de 675 litros por kilo de fibra. En 2009, con una producción con muchos menores insumos y riegos, y consecuentemente menores rendimientos, la media de consumo aumentó a 1.171 litros.

Los autores de la investigación son Daniel Chico, Maite M. Aldaya y Alberto Garrido, catedrático de la E.T.S. de Ingenieros  Agrónomos, director del Centro de Estudios e Investigación para la Gestión de Riesgos Agrarios y Medioambientales (CEIGRAM-UPM) y subdirector del Observatorio del Agua.

Garrido afirma que el impacto de la moda vaquera sobre la producción de las fibras textiles ha supuesto un considerable aumento de las áreas de cultivo dedicadas al algodón, que se ha convertido en el más extendido. Anualmente se cultivan en el mundo unas 34.000.000 hectáreas de algodón.

“El que una producción comprometa o no los recursos hídricos vendrá dado por la gestión que se haga de los mismos y por las prioridades y riesgos que la sociedad esté dispuesta a asumir. No se puede atribuir a un solo sector la causa de la evolución positiva o negativa de un río o ecosistema”, afirma Garrido.

“Además –añade–, en el caso del sector textil, el uso de tintes y otros químicos (colas, oxidantes, estabilizantes, etcétera) lleva a que los efluentes de estas plantas tengan altas cargas contaminantes. Sin embargo, estos efluentes son tratados antes de ser vertidos. En los datos manejados en nuestro trabajo, los vertidos fueron siempre por debajo del límite que establece la administración municipal”.

Controles medioambientales

Los investigadores también recuerdan que no hay certificaciones específicas ni normativas respecto del uso del agua en la producción textil más allá de lo que tiene que ver con el cumplimiento de las autorizaciones de vertido. Esta ausencia contrasta con los estándares y certificaciones voluntarias que existen en relación al uso de productos químicos, como es el caso de Ökotex o Made in Green, que promueven textiles con menor impacto para la salud y el medioambiente.

No obstante, grandes marcas, tanto fabricantes como distribuidores, desarrollan y forman parte de plataformas que fomentan buenas prácticas entre los agricultores, especialmente pequeños productores de países en desarrollo. Un ejemplo es la plataforma Better Cotton Initiative. Otras, como Global Organic Textile Standard (GOTS ) o Naturland, lo que certifican es el uso de algodón orgánico.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

La medida más precisa de las galaxias lejanas

El grupo internacional del Espectroscopio Detector de Oscilación de Bariones (BOSS) ha medido la distancia que existe hasta galaxias situadas a más de 6.000 millones de años luz con una precisión sin precedentes del 1%. El trabajo, en el que participan científicos de la Universidad de Barcelona, también establece límites para la misteriosa materia oscura.

lustración de la medida tomada por BOSS. Las esferas muestran el tamaño actual de las oscilaciones acústicas de bariones (BAO) de los inicios del universo, que han ayudado a establecer la distribución de las galaxias, con una ligera tendencia a alinearse a lo largo de los bordes de las esferas. Las BAO se pueden usar como una regla (línea blanca) para medir las distancias a todas las galaxias del universo. / Zosia Rostomian, Lawrence Berkeley National Laboratory

En la reunión anual de la Sociedad Astronómica Americana hoy se han anunciado los últimos datos del Baryons Oscillation Spectroscopic Survey (BOSS). El equipo que integra este espectroscopio ha informado que ha logrado tomar la medida, con una precisión sin precedentes del 1%, de la distancia a galaxias lejanas localizadas a más de 6.000 millones de años luz de la Tierra.

“No hay muchas cosas en nuestra vida cotidiana que conozcamos con una precisión del 1%”, dice David Schlegel, investigador principal del proyecto y físico del Laboratorio Nacional Lawrence Berkeley (LBNL). “Ahora conozco el tamaño del universo mejor que el de mi casa”.

Toda medida conlleva un grado de incertidumbre, que puede expresarse como un porcentaje de aquello que se mide –por ejemplo, si se mide una distancia de 200 km con un error de 2 km del valor real, la precisión sería del 1%–. En astronomía sólo unos pocos cientos de estrellas y algunos cúmulos están lo suficientemente cerca para que las distancias medidas tengan esa precisión.

Casi todas estas estrellas están a sólo unos pocos miles de años luz de distancia, dentro de nuestra propia galaxia, la Vía Láctea. Por tanto, llegar a medir distancias un millón de veces más lejanas con esta precisión es un reto en astronomía.

Para llevar a cabo estas medidas BOSS ha utilizado la medida de las denominadas oscilaciones acústicas de bariones (BAO), unas ondas periódicas del universo primitivo que permiten conocer la distribución de galaxias en el universo.

Estas ondas de sonido tienen una longitud conocida que se puede usar para medir distancias y deducir el ritmo de expansión del universo en el pasado. Como el tamaño original de estas ondas es conocido, se puede obtener su medida actual para cartografiar galaxias, lo que  ha permitido ubicar 1,2 millones de galaxias.

En esta investigación han participado los científicos Licia Verde y Antonio Cuesta del Instituto de Ciencias del Cosmos de la Universidad de Barcelona (ICCUB). En concreto han efectuado los cálculos necesarios para determinar cómo la  medida de la distancia promedio a estas galaxias afecta a nuestro conocimiento del contenido de materia y energía del universo.

“La precisión de la medida de distancia de BOSS, complementada con otras fuentes de información cosmológica, ofrecen la mejor determinación hasta la fecha de la historia de la expansión del universo, de su geometría y de su contenido de materia y energía”, destaca Verde.

Avances sobre la materia oscura

“Los resultados de estos cálculos restringen los posibles valores de los seis parámetros que describen nuestro universo, como son su expansión en el momento presente, su curvatura o el contenido de materia oscura”, apunta Cuesta.

De hecho, las medidas ponen nuevos límites a las propiedades de la misteriosa materia oscura que se piensa llena el espacio vacío, lo que provoca la expansión acelerada del universo.

Hasta ahora, las mediciones de BOSS parecen consistentes con una forma de energía oscura que se mantiene constante a través de la historia del Universo. Esta ‘constante cosmológica’ es uno de los seis números necesarios para hacer un modelo que una la forma y la estructura a gran escala del universo.

El proyecto BOSS, que lidera Schlegel desde el Lawrence Berkeley National Laboratory,  forma parte del tercer proyecto de Exploración Digital del Espacio Sloan (Sloan Digital Sky Survey, SDSS-III) y en él participan entre otros un grupo de astrofísicos españoles.

El SDSS se inició el año 2000 y desde el principio ha examinado más de una cuarta parte del cielo nocturno y ha producido el mapa tridimensional en color del universo más grande que se haya hecho nunca.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Los médicos dicen ‘no’ a las terapias no convencionales

La asamblea general de la Organización Médica Colegial ha aprobado una declaración sobre las terapias no convencionales ante la reciente publicación del borrador del Ministerio de Sanidad, Servicios Sociales e Igualdad para regular los medicamentos homeopáticos. 

Producto homeopático. /Efe

A principios de diciembre la Agencia Española del Medicamento y Productos Sanitarios (AEMPS), dependiente del Ministerio de Sanidad, Servicios Sociales e Igualdad, publicó el borrador de la orden por la que se determinan los criterios mínimos y el procedimiento de uso de los medicamentos homeopáticos.

La medida pretende regular estos medicamentos y garantizar al consumidor su derecho de acceso a este mercado en óptimas condiciones de seguridad y calidad. Sin embargo, desde entonces la polémica no ha hecho más que avivarse entre el sector farmacéutico, el médico y la sociedad en general.

Como consecuencia, la asamblea general de la Organización Médica Colegial (OMC), celebrada el sábado en Granada, ha aprobado una declaración sobre las terapias no convencionales ante la publicación de dicho borrador.

En la comunicación, hecha pública ayer, se expone que “el ejercicio de la Medicina es un servicio basado en el conocimiento científico aplicado, en la destreza técnica y en actitudes y comportamientos éticos, cuyo mantenimiento y actualización son un deber individual del médico y un compromiso de todas las organizaciones y autoridades que intervienen en la regulación de la profesión”.

Tomando como base el Código de Deontología Médica (CDM), los expertos han afirmado que “todos los médicos están obligados a emplear preferentemente procedimientos y prescribir fármacos cuya eficacia se haya demostrado científicamente”.

Así, “no son éticas las prácticas inspiradas en el charlatanismo, las carentes de base científica y que prometen a los enfermos la curación, los procedimientos ilusorios o insuficientemente probados que se proponen como eficaces, la simulación de tratamientos médicos o intervenciones quirúrgicas y el uso de productos de composición no conocida (art. 26.2 CDM)”.

Las creencias no son profesionales

Los profesionales médicos establecen que no forman parte del acto médico aquellas acciones u omisiones que un ciudadano con la condición de licenciado o especialista pueda realizar de acuerdo a sus convicciones, creencias, tendencias, ideología o cualquier otra circunstancia.

De la misma forma, “cada una de las terapias no convencionales deberá demostrar científicamente su eficacia, efectividad, eficiencia, calidad y seguridad para que puedan ser avaladas por la comunidad médica”.

Es más, no se puede supeditar el otorgamiento de una autorización administrativa, para el ejercicio de las diversas terapias no convencionales, a la posesión de una titulación académica especifica.

Además, tal y como apunta el artículo 16.1- 16.2 CDM, “en tanto las denominadas terapias no convencionales no hayan conseguido dotarse de una base científica suficiente, los médicos que las aplican están obligados a informar a los pacientes de forma clara e inteligible tanto del posible beneficio/riesgo que las mismas conllevan como de las alternativas fundamentadas científicamente y de la eventualidad de un mal resultado”.

Por todo ello, la declaración concluye que “la responsabilidad de las Administraciones debe estar fundamentada en la necesaria regulación de estas terapias no convencionales, así como en las repercusiones sobre el uso de estas prácticas, los riesgos derivados de su mala utilización, la regulación de los centros donde debe aplicarse e identificar a quienes lo hacen, como lo hacen y la veracidad de la publicidad al respecto”.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Marte albergó un lago de agua dulce con el cóctel químico perfecto para la vida

Los sedimentos examinados por el rover Curiosity en el cráter marciano Gale indican que hace más de 3.000 millones de años hubo un lago con elementos biológicos clave como carbono, hidrógeno, oxígeno y nitrógeno que proporcionarían las condiciones idóneas para la vida microbiana. Las investigaciones, en las que han participado científicos españoles, se publican hoy en la revista Science.

Vista parcial de Yellowknife Bay. / NASA-JPL Caltech

Las muestras recogidas por el Curiosity prueban la existencia de un antiguo lago en la superficie de Marte, probablemente con agua dulce y con unas condiciones propicias para albergar vida, aunque fueran simples microbios. Así lo ha constatado el equipo de científicos de la misión Mars Science Laboratory (MSL) tras analizar los datos enviados por el rover de la NASA.

En las seis investigaciones, publicadas en la revista Science, los científicos han analizado sedimentos de roca procedentes de una zona denominada Yellowknife Bay en el cráter de Gale, cerca del ecuador marciano.

Este cráter de 150 kilómetros de ancho, lugar en el que aterrizó el Curiosity en 2012, fue la cuenca de un lago de hace 3.600 millones de años que pudo permanecer con agua durante cientos de millones de años, indican los investigadores.

Los resultados muestran que esta balsa de agua, probablemente dulce, estaba en calma y tenía elementos biológicos como carbono, hidrógeno, oxígeno, nitrógeno y azufre, esenciales para que microbios simples, como los quimiolitoautótrofos –que obtienen energía de la oxidación de compuestos inorgánicos– pudieran vivir. En la Tierra, estos organismos habitan en cuevas, en fuentes hidrotermales y se alimentan descomponiendo rocas y minerales para obtener energía.

“Es importante señalar que no hemos encontrado indicios de vida en Marte, lo que hemos encontrado es que el cráter Gale mantuvo un lago en su superficie con condiciones que podrían haber sido favorables para la vida microbiana hace miles de millones de años”, explica Sanjeev Gupta, miembro de la MSL, investigador del Imperial College de Londres.

Un lago calmado

Gracias al sistema de perforación del Curiosity, coordinado de forma remota por el equipo de MSL desde Pasadena (EE UU), los científicos analizaron las muestras recogidas por el robot. En concreto, se estudiaron las lutitas, unas rocas formadas por compactación de sedimentos muy finos en condiciones de aguas tranquilas. “Es emocionante pensar que millones pudo haber existido vida microbiana en las tranquilas aguas del lago”, comenta Gupta.

El investigador señala que estos hallazgos son “un gran paso adelante” en la exploración de Marte y que los estudios continuarán en esta línea. “La siguiente fase de la misión, en la que exploraremos los afloramientos más rocosos en la superficie del cráter, podría ser la clave para saber si hubo vida en el planeta rojo”, añade Gupta.

En estudios anteriores, los científicos del MSL ya habían encontrado evidencias de agua en la superficie de Marte en otros sedimentos como rocas conglomeradas. Sin embargo, los nuevos datos obtenidos aportan las pruebas más claras hasta ahora de que Marte pudo haber sido lo suficientemente habitable para que la vida se pudiera afianzar. 

Misión tripulada a Marte

Además, en uno de los seis estudios, en el que participa el español Javier Gómez-Elvira, director del Centro de Astrobiología asociado a la NASA, los investigadores también han realizado mediciones detalladas de la radiación cósmica y el ambiente de la superficie de Marte.

Según los científicos, los datos recogidos proporcionan nueva información sobre los peligros de la radiación en el planeta rojo que afectarían a una posible misión tripulada. Estos análisis permitirán averiguar los tiempos de supervivencia de cualquier posible forma de vida existente y la preservación de firmas biológicas orgánicas del antiguo ambiente marciano.

Referencia bibliográfica

J.P. Grotzinger et all. A Habitable Fluvio-Lacustrine Environment at Yellowknife Bay, Gale Crater, Mars. Publicado en Science Express en 9 de diciembre de 2013.

Donald M. Hassler, J. Gomez-Elvira et all Mars’ Surface Radiation Environment Measured with the Mars Science Laboratory’s Curiosity Rove Publicado en Science Express en 9 de diciembre de 2013.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

Una copa de licor café que costó la vida a cientos de personas

Metílico, la bebida de la muerte es el documental que se acaba de estrenar en homenaje a las víctimas de una tragedia que trató de ocultarse por motivos económicos y políticos hace ahora medio siglo. El origen, una bodega gallega que comercializó para consumo humano alcohol metílico destinado a combustible de aviones. SINC habla con el director del filme y con expertos en salud pública para saber más sobre este caso.

Garrafas y otros recipientes intervenidos por la policía, que sirvieron como prueba en el sumario de la causa del orujo metílico (metanol). A la derecha, el bodeguero ourensano Rogelio Aguiar abandona el tribunal a la espera de conocer el fallo judicial por la intoxicación que provocó y que sabía que podía ser letal.

Emilio Rodríguez se despertó una mañana de 1963 en su aldea de A Pena (Ourense), se asomó a la ventana para ver sus viñedos y todo estaba nevado. Era pleno mes de agosto. Se fue al baño, se miró al espejo y allí también nevaba. Minutos después perdía la vista para toda la vida. La noche anterior se había tomado una copa de licor café de garrafa que provenía de las bodegas de Rogelio Aguiar.

Han pasado cincuenta años de esto, un caso real con el que arranca el documental del director de cine Emilio Ruiz Barrachina. Lo acaba de estrenar en el Festival Internacional de Cine de Ourense y se emitirá próximamente en la Televisión de Galicia y en La 2 de Televisión Española.

El trabajo audiovisual narra los hechos del denominado ‘caso del metílico’, el mayor envenenamiento masivo de la historia de España provocado por metanol o alcohol metílico, y que por intereses políticos y económicos trató de ocultarse en la época. Como consecuencia, muchos de los fallecimientos fueron registrados como muertes naturales.

“La bodega de Rogelio Aguiar no vendía el alcohol con su sello, sino que lo distribuía en garrafón a otros bodegueros para que lo embotellasen. Se sabe que compró en Madrid 75.000 litros de alcohol metílico porque, según manifestó, le dijeron que se podía consumir si se rebajaba con agua. El alcohol que compró estaba destinado a la fabricación de combustible de aviones”, explica a SINC Ruiz Barrachina.

La realidad era que el alcohol metílico costaba la mitad que el etílico y quería hacer negocio. Con esos 75.000 litros, él fabricaría un total 125.000 que pondría a la venta a bodegas de toda España en garrafas. Uno de los lugares donde llegaron primero fue Lanzarote, porque había un bodeguero en Vigo con muy buenas relaciones con Canarias.

“Es por eso que la primera persona que relaciona el consumo de determinadas botellas de alcohol con los fallecimientos y la ceguera es una farmacéutica canaria, Elisa Álvarez. A partir de ahí empieza la investigación. Pero la tragedia se extiende por toda España, y donde más incidencia tiene es en Galicia”, añade el director de cine.

Tan solo una copa de licor café o de orujo fue capaz de dejar ciego o matar a quien se la bebió.

“El metanol produjo en aquel momento una tragedia que a veces se reproduce por la ignorancia de la gente. Este producto tóxico se absorbe y se metaboliza en el hígado creando ácido fórmico y formaldehído. El primero provoca problemas digestivos y síntomas de embriaguez –como una intoxicación etílica–, y el formaldehído ataca a la retina y causa la ceguera. La muerte sobreviene porque una vez absorbido pasa rápidamente a los órganos y puede provocar un coma”, declara a SINC Rosario Moyano, catedrática de toxicología de la Universidad de Córdoba.

Por esta intoxicación falleció sobre todo gente de extracto social bajo, consumidores de aguardiente o licor café de garrafa. Al ser en su mayoría personas de los pueblos y con pocos recursos, muchas de ellas se consideraron muertes naturales.

Juicio descafeinado por los intereses del franquismo

En el juicio se mezclaron los intereses económicos y políticos del franquismo. El gobierno de Franco iniciaba por entonces una costosa campaña para vender al exterior que España se había modernizado y quería ofrecer nuevas oportunidades al turismo.

“Si este caso se llegaba a conocer y saltaba a los medios internacionales, como tenía que haber sucedido, todo aquello se podía venir abajo y por eso trataron de ocultarlo”, apunta el director del documental.

Por otra parte, España continuaba recibiendo dinero de EE UU y este escándalo hubiera repercutido en las relaciones con los estadounidenses.

Lo que se hizo, de la manera legal que entonces creyeron más oportuna, fue plantearlo no como homicidio involuntario, sino como un juicio de atentado contra la salud pública, un mal menor. “Lo equipararon a vender productos caducados y por ello el resultado es que solo se reconocen 51 muertes”, subraya Ruiz Barrachina.

Durante el juicio hubo once imputados que fueron condenados, sin embargo, ninguno de ellos llegó a cumplir íntegra su condena. Además, las cuantiosas indemnizaciones que debían pagar a las víctimas nunca llegaron porque se declararon insolventes.

El fiscal del caso, Fernando Seoane, siempre defendió que solo con hacer un sencillo cálculo matemático de lo que pueden producir 125.000 litros de alcohol tóxico en el mercado, se podía saber la magnitud de la tragedia. Seoane estimaba que las víctimas estuvieron por encima de 5.000, entre fallecidos y personas que se quedaron ciegas.

El metílico letal de Aguiar llega a Nueva York

Debido a las enormes cantidades de alcohol metílico que vendió Rogelio Aguiar, algunas de las garrafas llegaron incluso al otro lado del Atlántico, como indica el escritor y periodista de investigación Fernando Méndez en su libro Metílico, 50 años envenenados, en el que está basada la película.

“En el puerto de Nueva York fue intervenido un envío procedente de Vigo de bebidas contaminadas con alcohol metílico, según recoge el sumario del caso. Debido al descontrol de las autoridades sanitarias y de aduanas, no se sabe con exactitud qué cantidad pudo llegar realmente. Lo que sí coincide en el tiempo, primavera del 63, es la muerte masiva de vagabundos en la zona de Manhattan por alcohol metílico, con bebidas baratas que provenían de garrafón. Los diarios se hicieron eco de ello. Es mucha coincidencia”, argumenta a SINC Méndez.

Su libro está escrito a partir de una investigación de cinco años, de los más de 30.000 folios del sumario del juicio. “No sé si podría volver a abrir el caso y aportar nuevas pruebas, pero creo que las víctimas merecen por lo menos un reconocimiento social que no han tenido en los últimos 50 años”, subraya Méndez.

Un caso difícil de repetir en España

Casos de intoxicación y muerte por alcohol metílico suceden en el mundo todas las semanas. En el caso de España, se continúa produciendo ‘aguardiente de casa’ fuera del control de un consejo regulador.

Sin embargo, en la actualidad los controles de calidad del alcohol pasan por procesos que hacen muy difícil que algo así pueda volver a repetirse. De ello se encargan laboratorios como el de Salud Pública del Ayuntamiento de Madrid.

“Nosotros actuamos de acuerdo con unas campañas analíticas que, tras la  inspección y toma de muestras, se llevan a cabo en nuestro laboratorio”, apunta a SINC Emiliano Rojas Gil, adjunto al jefe de departamento del laboratorio.

En total en Madrid se han analizado este año 140 bebidas espirituosas. El 25% fueron orujos, de los cuales solo uno incumplía la normativa.

“Aplicamos un reglamento que establece un contenido máximo de metanol. Los límites son, por ejemplo, 1.000 mg/L para orujos, 2.000 mg/L en brandis y 1.500 mg/L en aguardiente de hollejo de fruta. Si se sobrepasan, las bebidas están fuera de la legislación y se consideran tóxicas”, argumenta Rojas.

Este año, el caso del orujo que llegó al laboratorio con límites por encima de lo permitido se solucionó rápidamente según el protocolo de actuación. Hicieron un análisis contradictorio con la empresa, esta corrigió su sistema de producción y eliminó del mercado todo el producto. “La nueva partida ya reunía las condiciones de acuerdo con el reglamento”, asegura Rojas.

Para que casos como el del metanol de Galicia no vuelvan a suceder, y se pueda hacer justica a personas como Emilio Rodríguez, sus historias no deberían caer nunca en el olvido.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC), su autora es Eva Rodríguez.

Investigadores españoles diseñan moléculas sintéticas capaces de bloquear la replicación del VIH

Un equipo multidisciplinar de científicos de la Universidad Católica de Valencia, el Centro de Investigación Príncipe Felipe, la Universitad de València y el Instituto de SaludCarlos III ha conseguido por primera vez en el mundo crear moléculas sintéticas que bloquean la replicación del virus del SIDA e impiden la infección de las células.

La molécula de terfenilo (en azul) se une al mismo receptor que la proteína Rev (en rojo)./ ISCIII

Un equipo multidisciplinar de científicos procedentes de universidades y centros de investigación españoles ha conseguido por vez primera en el mundo diseñar moléculas sintéticas capaces de unirse al material genético del virus del SIDA y bloquear su replicación. El trabajo ha sido publicado recientemente por Angewandte Chemie International Edition, una de las revistas científicas más prestigiosas del mundo en el área de la química.

El estudio, liderado por José Gallego, investigador de la Universidad Católica de Valencia San Vicente Mártir, ha sido posible gracias a la colaboración de investigadores del Instituto de Salud Carlos III, la Universidad Católica de Valencia, el Centro de Investigación Príncipe Felipe y la Universidad de Valencia.

Las nuevas moléculas sintéticas diseñadas inhiben la salida del material genético del virus desde el núcleo de la célula infectada al citoplasma, por lo que se bloquea la replicación del virus y se impide la infección de otras células.

El material genético del virus del SIDA, o VIH1, está formado por ácido ribonucleico(ARN), y codifica varias proteínas que le permiten penetrar en las células humanas y multiplicarse dentro de las mismas. Los nuevos inhibidores del virus, denominados terfenilos, desarrollados por este grupo de científicos, fueron diseñados mediante ordenador para reproducir las interacciones de una de las proteínas codificadas por el virus, la proteína viral Rev.

De esta forma, los terfenilos se unen al receptor de Rev en el ARN viral impidiendo la interacción entre la proteína y su receptor de ARN. Esta interacción es necesaria para que el material genético del virus salga del núcleo de la célula infectada y, por tanto, resulta esencial para la supervivencia del VIH-1. El hecho de que los terfenilos bloqueen la salida del núcleo de la célula del material genético del virus evita la infección de otras células.

Este descubrimiento es el resultado de una estrecha colaboración entre tres grupos de investigación a lo largo de varios años. Así, los científicos de la Universidad Católica de Valencia se encargaron del diseño computacional y comprobaron experimentalmente que los terfenilos eran capaces de unirse al receptor de Rev en el ARN viral y de inhibir la interacción entre este ARN y la proteína.

Por su parte, las moléculas fueron sintetizadas en el laboratorio de química orgánica del profesor Santos Fustero en el Centro de Investigación Príncipe Felipe y la Universidad de Valencia. Asimismo, mediante experimentos con células infectadas por el virus, el grupo de José Alcamí en el Instituto de Salud Carlos III demostró que los inhibidores bloquean la replicación del VIH-1 e inhiben la función de la proteína Rev, confirmando así la validez de los modelos generados mediante ordenador.

Relevancia del trabajo      

Tradicionalmente, las empresas farmacéuticas se han centrado en el desarrollo de fármacos que actúan sobre dianas proteicas, ya que el abordaje de receptores constituidos por ARN es considerablemente complejo.

Aunque varios antibióticos de origen natural actúan a nivel de ARN ribosómico bacteriano, hasta ahora no había sido posible diseñar mediante ordenador una nueva entidad química de origen sintético que fuera capaz de unirse a una diana formada por ARN y ejercer un efecto farmacológico relevante. Las estructuras terfenílicas identificadas en este estudio podrían abrir nuevas vías para abordar otras dianas terapéuticas constituidas por ácidos nucleicos.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

El gas de la risa es el principal contaminante de la capa de ozono y el tercero para el efecto invernadero

Las emisiones del gas de la risa, óxido nitroso, provocan daños muy serios para el planeta. Según un informe presentado hoy por el Programa de Naciones Unidas para el Medioambiente en la cumbre del clima de Varsovia, su mitigación proporcionaría beneficios de más de 160 mil millones de dólares al año, pero si no se toman medidas podría multiplicarse por dos en 2050.

El óxido nitroso se utiliza como fertilizante nitrogenado en la agricultura. / Wikipedia

Las emisiones de óxido nitroso (N2O), también conocido como gas de la risa, podrían duplicarse en el año 2050. Este gas tiene un alto potencial contaminante que influye directamente en la recuperación de la capa de ozono, por lo que podría agravar el cambio climático.

Un informe del Programa de Naciones Unidas para el Medioambiente (PNUMA), en colaboración con científicos y expertos de más de 35 organizaciones, señala que es posible mitigar las emisiones de óxido nitroso si se toman medidas en emisiones agrícolas e industriales.

“Aunque no es tan frecuente en la atmósfera como el CO2 en términos de masa, N2O está lejos de ser un asunto chistoso con respecto al cambio climático y el daño que causa al ozono. Por el contrario, tiene un impacto desproporcionado sobre el calentamiento global, por su propiedades radiactivas y de larga vida en la atmósfera, que es en promedio de 120 años”, declaraba Achim Steiner, director ejecutivo del PNUMA durante la presentación del trabajo en la Conferencia de las Partes (COP19) de Varsovia.

Según este informe, el óxido nitroso es la emisión que más daña la capa de ozono; sin embargo, a menudo se pasa por alto.

“Es el tercer gas de efecto invernadero más potente liberado a la atmósfera. El segundo es el metano”, añadía Jospeh Alcamo, científico jefe del PNUMA.

Entre los puntos más importantes que han destacado los expertos están las medidas de mitigación de este gas, que podrían suponer un valor de más de 160 mil millones de dólares al año en sectores económicos diversos.

“Un trabajo previo del PNUMA, citado en el informe, indica que una mejora en su eficiencia en un 20% costaría alrededor de 12 mil millones de dólares anuales, pero se ahorraría alrededor 23 mil millones en costes solo de fertilizantes”, apuntaban.

Un gas sin protocolo que lo regule

Este gas existe de forma natural en la atmósfera en pequeñas cantidades, pero las actividades humanas han aumentado sus concentraciones desde la revolución industrial.

Según los científicos, su reducción supondría el aumento de la productividad agrícola y ganadera, la mitigación de la pobreza, la mejora de la salud humana y la reducción de la degradación del medio ambiente.

La mayor parte de la destrucción de la capa de ozono de la estratosfera se debe a los clorofluorocarbonos (CFC) y otros derivados. Sin embargo, estos productos químicos –a diferencia del N2O– están controlados por el Protocolo de Montreal, un tratado internacional diseñado para proteger la capa de ozono.

La agricultura es, con mucho, la mayor fuente de N2O de origen humano (representa dos tercios de estas emisiones). Otras son la industria y la quema de combustibles fósiles, así como, la quema de biomasa y de aguas residuales.

Referencia bibliográfica:

http://unep.org/pdf/UNEPN2Oreport.pdf

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).

El detector antártico IceCube confirma la llegada de neutrinos cósmicos

El equipo de IceCube, un detector de partículas enterrado en el hielo de la Antártida, anuncia esta semana en Science el registro de 28 partículas de muy alta energía. La observación constituye la primera evidencia de neutrinos procedentes de lejanos aceleradores cósmicos, más allá de los confines de nuestro sistema solar. La era de la astronomía de neutrinos acaba de comenzar.

Observatorio antártico de neutrinos Icecube. / Felipe Pedreros-IceCube-NSF

Tras casi 25 años de la idea de detectar neutrinos bajo el hielo, el observatorio IceCube de la Antártida por fin lo ha conseguido. Según publican los miembros del equipo en la revista Science, se han registrado 28 eventos de partículas muy energéticas que se corresponden con neutrinos de aceleradores cósmicos.

“Esta es la primera muestra de neutrinos de muy alta energía que provienen de fuera de nuestro sistema solar, con energías de más de un millón de veces superiores a las observadas en 1987 en el marco de una supernova –SN 1987A– vista en la Gran Nube de Magallanes”, señala Francis Halzen, investigador principal del proyecto y profesor en la Universidad de Wisconsin-Madison (EE UU), donde ya se adelantaron los resultados hace un par de meses.

“Este es el amanecer de una nueva era de la astronomía”, destaca el investigador, satisfecho de haber encontrado algo que los científicos llevaban buscando desde hacía mucho tiempo, sobre todo para desentrañar el misterioso origen de los rayos cósmicos.

Sus partículas de alta energía están cargadas eléctricamente, por lo que se desvían por los campos magnéticos y son muy difíciles de rastrear. Los científicos necesitaban un mensajero que no tuviera obstruido su viaje por el universo, una partícula que llegara hasta la Tierra desde distancias muy lejanas. Ahora parece que lo tienen.

Los neutrinos cósmicos son estos mensajeros, aunque no se había detectado ninguno fuera del sistema solar –de otras fuentes distintas al Sol– desde 1987. Años después, a partir de 2010, las observaciones de IceCube tuvieron sus frutos y en 2012 llegaron las buenas noticias desde el polo Sur, cuando se informó del descubrimiento de dos neutrinos de altas energías a los que bautizaron como Epi y Blas (Bert y Ernie, en inglés).

Epi, Blas y el científico español

“Blas se había detectado en agosto de 2011, y Epi –el más potente de todos– se detectó mientras mi compañero Sven y yo cuidábamos del detector en enero de 2012”, recuerda el investigador español Carlos Pobes, actualmente en el Instituto de Ciencia de Materiales de Aragón (Universidad de Zaragoza-CSIC) pero por entonces en el observatorio antártico.

“Estos dos neutrinos eran con una probabilidad bastante elevada de origen astrofísico, algo que no se había observado nunca y que era uno de los objetivos principales de IceCube”, añade el científico.

El equipo comenzó a revisar concienzudamente el resto de los registros, buscando más eventos de neutrinos de alta energía. Así se descubrieron 26 más, incluyendo los más energéticos jamás observados. Todos presentan las características previstas para los neutrinos de origen extraterrestre.

Los científicos sospechan que su procedencia está en fuentes luminosas que producen rayos cósmicos de alta energía. Confirmar esto es su siguiente línea de investigación, para resolver de una vez el enigma del origen de los rayos cósmicos.

Referencia bibliográfica:

M.G. Aartsen et al. “Evidence for High-Energy Extraterrestrial Neutrinos at the IceCube Detector”. Science, 21 de noviembre de 2013.

Artículo publicado en Servicio de Información y Noticias Científicas (SINC).