miércoles, 27 de febrero de 2013

10 datos sobre medio ambiente y prevención de enfermedades

 

El Informe sobre la salud en el mundo es la principal publicación de la OMS. Su principal objetivo es ofrecer a los países, organismos donantes, organizaciones internacionales y otros interesados la información que necesitan para tomar sus decisiones sobre políticas y financiación.
Asimismo, el informe va destinado a una audiencia más amplia, en la que se encuentran las universidades, los hospitales con actividades docentes, los periodistas y el público en general; en suma, cualquiera con un interés profesional o personal en los temas de la salud internacional.


1- Si el medio ambiente fuera más saludable, cada año se podrían evitar hasta 13 millones de defunciones
 
2- En los niños menores de cinco años, un tercio de las enfermedades son causadas por factores ambientales como la insalubridad del agua y la contaminación del aire.
 
 3- Cada año se podría salvar la vida a cuatro millones de menores de cinco años –la mayoría en los países en desarrollo– previniendo riesgos ambientales como el agua insalubre y la contaminación del aire.
 
4- En los países en desarrollo, las principales enfermedades de origen medioambiental son las enfermedades diarreicas, las infecciones de las vías respiratorias inferiores, los traumatismos involuntarios y la malaria.
 
5- Un mejor saneamiento del medio permitiría evitar un 40% de las muertes por malaria, 41% de las muertes por infecciones de las vías respiratorias inferiores y 94% de las muertes por enfermedades diarreicas: las tres causas principales de mortalidad en la niñez en todo el mundo.
 
6- En los países menos adelantados, un tercio de las muertes y las enfermedades se deben directamente a causas ambientales.
 
7- En los países desarrollados, un medio ambiente más saludable permitiría reducir considerablemente la incidencia de cánceres, enfermedades cardiovasculares, asma, infecciones de las vías respiratorias inferiores, enfermedades osteomusculares, lesiones por accidentes de tránsito, intoxicaciones y ahogamientos.
 
8- Los factores ambientales influyen en 85 de las 102 categorías de enfermedades y traumatismos enumeradas en el Informe sobre la salud en el mundo.
 
9- Una gran parte de esas muertes, enfermedades y discapacidades podrían evitarse mediante intervenciones bien focalizadas como el fomento del almacenamiento seguro del agua doméstica, una mayor higiene y la utilización de combustibles más limpios y seguros.
 
10- Otras intervenciones que pueden contribuir a la salubridad del medio son las siguientes: aumentar la seguridad de los edificios; promover el uso y manejo seguros de las sustancias tóxicas en el hogar y en el lugar de trabajo; y gestionar mejor los recursos hídricos.

domingo, 24 de febrero de 2013

Tres días que cambiaron la Química

Este post participa en la XXII Edición del Carnaval de Química acogido en el blog Roskiencia, cuyo autor es ismael




Como el tema de esta edición es la Tabla Periódica de los elementos he empezado a leer lo que encontraba sobre la Ley de las Triadas, las Octavas, Mendeléiev, Meyer, Moseley...y sin darme cuenta enseguida me he visto envuelto en la guerra entre atomistas y equivalentistas y he descubierto la figura del químico italiano Stanislao Cannizzaro que fué quien puso luz entre tanta discordia. Voy a intentar hacer un pequeño resumen, a trazos gruesos, de lo leído.

Pero vayamos por partes, primero consideremos que la  Revolución Química tuvo lugar tras el aislamiento del oxígeno y la comprensión de su importancia para explicar los fenómenos de la combustión, la respiración y la oxidación, que acabaría con la obsoleta  teoría del flogisto que también trataba de explicarlos.

El oxígeno fue descubierto por el químico sueco Carl Wilhelm Scheele. Llamó a este gas "aire de fuego" porque era el único conocido que mantenía las combustiones. Escribió un informe de su descubrimiento en un manuscrito que fue enviado a su editor en 1775. Sin embargo, este documento no fue publicado hasta 1777.  Mientras tanto, el químico y clérigo británico Joseph Priestley  realizó un ingenioso experimento cuando dirigió la luz del sol sobre el óxido de mercurio(II) dentro de un tubo de vidrio, que liberó un gas al que denominó "aire desflogistizado". Observó que en presencia de dicho gas, las velas ardían con luz más brillante y un ratón se volvía más activo y vivía más tiempo cuando respiraba este gas. Él mismo notó que se sentía muy "ligero y cómodo". Priestley publicó sus resultados en 1775. Generalmente, se atribuye la prioridad del descubrimiento del oxígeno a Priestley porque fue el primero en publicar sus hallazgos.

El renombrado químico francés Antoine-Laurent de Lavoisier, autor del Tratado elemental de química,  a quien se considera el padre de la química moderna, también reivindicó el descubrimiento del oxígeno para él. Sin embargo, está fuera de duda que tanto Scheele como Priestley se adelantaron en el tiempo a Lavoisier en el aislamiento del oxígeno. Lavoisier dió al nuevo elemento el nombre de oxígeno (del griego oxys, ácido y genēs, engendrador), es decir, que engendra los ácidos, porque creía que entraba en la constitución de todos ellos. Hoy sabemos que este nombre es erróneo, porque existen ácidos que no contienen oxígeno –el elemento que mejor se corresponde con la creencia de Lavoisier es el hidrógeno–, sin embargo, a pesar del error, se mantiene el nombre dado por Lavoisier. Ni priestley ni Scheele se dieron cuenta de la verdadera importancia de su descubrimiento. El que se percató fué Lavoisier. Algunos autores piensan que es más trascendente la comprensión que el propio hallazgo de las nuevas sustancias. Este es el caso del descubrimiento del oxígeno.


En 1800, el físico italiano Alessandro Volta inventa la pila eléctrica y a raíz de ello, en la década de los años 1830, Berzelius introduce la teoría dualista que suponía que los átomos y sus compuestos estaban formados por una parte positiva y otra negativa.

El atomismo

Desde la Grecia clásica se conocía el concepto de átomo como última partícula constituyente de la materia. Pero es en 1808 cuando John Dalton publica su libro "A New System of Chemical Philosophy" donde se encuentra la teoría que iba a hacer historia y que puede resumirse en los siguientes puntos:
 


1- La materia está formada por una gran cantidad de partículas muy pequeñas (átomos) que se mantienen unidas por fuerzas de atracción
2- Los átomos son indivisibles y no se crean ni se destruyen
3- Todos los átomos de una misma "sustancia-elemento" son idénticos en forma, tamaño y masa
4- Los átomos de elementos diferentes tienen distinta masa
5- Los átomos de los elementos se pueden agupar, siempre en número fijo, para originar moléculas, que son las partículas más simples que forman un compuesto
6- La masa de la molécula de un "compuesto" es la suma de las masas de sus átomos constituyentes
7- Las cantidades de un mismo "elemento", que se combinan con una cantidad fija de otro para formar varios compuestos, están en una relación de números enteros sencillos


Otra cuestión que no podemos pasar por alto si queremos valorar la importancia que, en su momento, tuvo para la química la teoría atómica de Dalton es la "estequiometría". Este concepto se debe al químico alemán Jeremías Richter, empeñado en hacer de las matemáticas un mecanismo para interpretar la química.

En 1811, un joven abogado italiano Amadeo Avogadro que decidió dedicarse a su gran vocación que era la ciencia, supo discernir entre átomos y moléculas. Enunció el principio que lleva su nombre y del que emanaría la constante universal que lleva su nombre "número de Avogadro". En 1814 André-Marie Ampère formula la hipótesis de Avogadro de manera independiente. Esta hipótesis dice: "Volúmenes iguales de distintas sustancias gaseosas, medidos en las mismas condiciones de presión y temperatura, contienen el mismo número de partículas".

Sólo unos pocos científicos se percataron del verdadero significado de la hipótesis de Avogadro, como  Marc Antoine Auguste Gaudin, un contable de la Oficina de Longitudes de París, quien en 1833 se dio cuenta de su importancia, pero éste, que estaba fuera de los círculos académicos, no tuvo influencia alguna. Supo reconciliar la ley de Gay-Lussac de los volúmenes de combinación con la hipótesis de Avogadro y aprovechó las ideas de Ampère.
En las décadas de los años cuarenta y cincuenta surgen dos conflictos de difícil solución: el protagonizado por atomistas contra los equivalentistas y el mantenido por los seguidores de la teoría dualista contra los defensores de la teoría unitaria.

El equivalentismo

En 1813,William Hyde Wollaston había propuesto el uso de los pesos equivalentes como las unidades fundamentales de la química. Los pesos equivalentes resultaron muy atractivos para muchos químicos, ya que parecía podían determinarse experimentalmente sin recurrir a ninguna teoría. La confusión aumentó debido a que no se podían normalizar muchas fórmulas empleadas para representar los compuestos químicos. Los símbolos barrados o átomos con dobles pesos atómicos llegaron a tener significados diferentes para distintos químicos. Cuando Laurent y Gerhardt intentaron en la década de 1840 recuperar la hipótesis de Avogadro, fueron demasiado lejos y presentaron una nueva confusión en la química con el desarrollo de la teoría unitaria.

Entre las polémicas más duras y crueles que se recuerda en la historia de la ciencia se halla la que enfrentó a atomistas y equivalentistas. Estos últimos negaban la existencia de los átomos y las moléculas, que eran defendidos a ultranza por los atomistas, basándose en que nadie los había podido observar. Con el paso de los años las desavenencias crecían. Probablemente, no ha habido época en la historia en que las animosidades personales alcanzaron tan alto grado, llegando incluso al acoso personal de los defensores de la doctrina contraria. Dos equivalentistas de gran peso científico, político y social fueron los químicos franceses Jean-Baptiste Dumas y Marcellin Pierre Eugène Berthelot. En el lado de los atomistas se hallaban los químicos franceses Auguste Laurent y Charles Fréderic Gerhardt, que se defendían de la hostilidad de sus poderosos compatriotas. Baste recordar que Dumas fue ministro de Agricultura y Comercio de Napoleón III de 1850 a 1851 y vicepresidente del Consejo imperial de instrucción pública. Berthelot fue ministro de Instrucción Pública en 1886 y ministro de Asuntos Exteriores en 1895. Mientras que Laurent murió tuberculoso y Gerhardt pasó grandes penalidades económicas y administrativas en Estrasburgo, ámbos murieron muy jóvenes.
Guia del Quimico Practico.Ramón Torres Muñoz Luna Aguado Impresor Real Casa 1852 ( Manila) (Libros Antiguos, Raros y Curiosos - Ciencias, Manuales y Oficios - Física, Química y Matemáticas)
El Congreso de Karlsruhe

El caos se había apoderado de la Química a finales de la década de 1850. La situación era tan caótica que se podía asemejar a la bíblica torre de Babel. Los químicos hablaban distintos lenguajes a la hora de nombrar los compuestos, formulaban el mismo compuesto de manera diversa y había grandes enfrentamientos entre los representantes de las diferentes escuelas, a veces, incluso entre los de la misma escuela. Kekulé denunció en 1858 que el ácido acético se podía formular de 19 maneras diferentes, y lo que era peor, todo químico orgánico debía tener sus propias fórmulas para sentirse más importante. Por otro lado, el agua se podía representar con fórmulas distintas: H2O, HO y H2O2.

Ante tan anárquica situación, el químico alemán Kekulé, Catedrático de Química Orgánica en la Universidad de Gante, consideró oportuno celebrar un congreso internacional de químicos dedicado a la definición de los conceptos químicos de átomo, molécula, equivalente, atomicidad, basicidad, las fórmulas quimicas, y la uniformidad de la notación y nomenclaturas químicas. En el otoño de 1859, hizo partícipes de su idea a los profesores Carl Weltzien, Catedrático de Química en la Escuela Politécnica de Karlsruhe, y a Charles Adolphe Wurtz, Catedrático de Química Orgánica de la Facultad de medicina de París.

Finalmente, Kekulé, Wurtz y Weltzien convocaron una reunión en la ciudad de Karlsruhe, en el sudoeste de Alemania, los días 3, 4, y 5 de Septiembre de 1860. Atendiendo a la invitación acudieron 127 químicos de 12 países. Entre ellos estaba el químico español Ramón Torres Muñoz de Luna.

Aunque el Congreso de Karlsruhe no finalizó con acuerdos definitivos en muchas de las cuestiones debatidas, sí que dió lugar a importantes consecuencias a largo plazo:

- adopción de nuevos pesos atómicos para elementos como el hidrógeno (1), carbono (12), oxígeno (16)...
- acuerdo en cuanto a las fórmulas de los compuestos más importantes
- reconocimiento de que ciertos elementos como el hidrógeno, oxígeno, nitrógeno o cloro son sustancias formadas por moléculas diatómicas y no átomos individuales
- la importante aportación realizada por el químico inglés Edward Frankland en relación a sus estudios sobre el concepto de valencia


File:Cannizzaro Stanislao.jpgEl gran protagonista del congreso fué Stanislao Cannizzaro. Recuperando a Avogadro (que había muerto en 1856 y cuyas teorías se habían olvidado) insistió en la diferencia entre pesos atómicos y moleculares; dando una brillante conferencia sobre la hipótesis de Avogadro, describiendo la forma de usarla y explicando la necesidad de una distinción clara entre átomos y moléculas.

La aportación de Cannizzaro fué fundamental para que el congreso aprobara la siguiente propuesta: "Se propone que se adopten conceptos diferentes para molécula y átomo, considerándose molécula la cantidad más pequeña de sustancia que entra en reacción conservando sus características físicas, y entendiéndose por átomo la más pequeña cantidad de un cuerpo que entra en la molécula de sus compuestos".

El Congreso no logró sus objetivos de poner de acuerdo a los químicos participantes, pero Cannizzaro no se dió por vencido y fué su amigo Ángelo Pavesi, profesor de química en la Universidad de Pavia, quien distribuyó entre los participantes algunas copias de su obra "Sunto di un corso di filosofia chimica" publicada en forma de fascículo en Pisa dos años antes, y así en el largo camino de vuelta consiguió  que, otros más, se fueran convenciendo con la lectura de aquel trabajo.

La importancia de las ideas de Cannizzaro se observan en el gran impacto que causó en dos de los jóvenes químicos que asistieron al congreso y que iban a protagonizar los avances de la química en los siguientes años.

Sus ideas fueron entendidas tras una detenida lectura por Lothar Meyer, quien lo manifestó a su modo: "Yo también recibí un ejemplar que metí en mi bolsillo con el objeto de leerlo luego. Lo leì repetidas veces en el viaje de regreso y también en mi casa y me sorprendió la claridad del pequeño folleto y lo acertado de la solución que en él se daba a la mayor parte de las cuestiones discutidas. Sentí como si las escamas de mis ojos y las dudas desaparecieran y fueron reemplazadas por una sensación de pacífica seguridad".

Asímismo, la influencia que ejerció el Congreso de Karlsruhe y las ideas de Cannizzaro en el desarrollo de la Tabla Periódica de los elementos fueron reconocidas por Mendeléiev cuando escribió: "Considero como una etapa decisiva en el desarrollo de mi pensamiento sobre la ley periódica, el año 1860, el del Congreso de Químicos de Karlsruhe, en el que participé y las ideas expresadas en este congreso por el químico italiano S. Cannizzaro. Le tengo por mi verdadero precursor, pues los pesos atómicos establecidos por él me han dado un punto de apoyo indispensable. He observado que los cambios de los pesos atómicos que él proponía aportaban una nueva armonía a las agrupaciones de Dumas, y desde entonces tuve la intuición de una posible periodicidad de las propiedades de los elementos siguiendo el orden creciente de los pesos atómicos adoptados en la época; una sola cosa estaba clara: que había que trabajar en esa dirección ".

Las actas oficiales del Congreso de Karlsruhe fueron publicadas por Wurtz. El congreso permitió el conocimiento mutuo de científicos que trabajaban en Química y a este hecho se refería Meyer de este modo: "Para nosotros, que nos iniciábamos en la docencia, el encuentro con tantos respetados colegas representó un aliciente tan grande que hizo que aquellos tres días de Karlsruhe fueran para nosotros inolvidables".

La historia de la química continuó su avance, pero viendo cómo, hoy en día, no se permite a los alumnos usar los conceptos de normalidad o número de equivalentes; uno piensa en si la disputa continúa...



sábado, 23 de febrero de 2013

Bionline, herramienta informática para evaluar los recursos de biomasa en España

El IDAE ha desarrollado dos herramientas informáticas para evaluar los recursos de biomasa en España llamadas BIONLINE y BIDAE, con el objetivo de facilitar el conocimiento de las posibilidades de desarrollo de proyectos, programas y mercados con dos niveles de complejidad y de detalle en los resultados.
 
 
BIONLINE es una herramienta pensada para uso divulgativo a través de la web de IDAE y BIDAE es una herramienta de uso propio para realizar trabajos para IDAE, otras administraciones o empresas que necesiten estudios más complejos.
 
BIONLINE es un programa que se enmarca dentro de la evaluación del potencial de biomasa en España, de acuerdo con sus distintos orígenes y posibilidades de introducción en el mercado energético, y en función de los costes estimados para su producción y disposición en el mercado.
Es una herramienta preparada para cuantificar la biomasa de origen forestal del área geográfica que elija el usuario.
 
Se puede usar para consultas y estudios sobre los diferentes tipos de biomasa (restos de aprovechamientos forestales, restos de cultivos agrícolas y biomasa procedente de masas susceptibles de implantación en terreno forestal).
Ofrece salidas cartográficas de disponibilidad de los distintos tipos de biomasa en diferentes ámbitos territoriales (principalmente supramunicipales), de costes de extracción o acopio y de coste medio de la biomasa puesta en puntos concretos a determinar en cada estudio.
Se elaboró a partir de las metodologías, esquemas y datos seleccionados por expertos del ámbito forestal y agrícola.


Acceso a Bionline                                                        Manual Bionline

jueves, 21 de febrero de 2013

La energía eólica cubre el 26,2 % de la demanda eléctrica, seguida de la nuclear

La energía éolica cubrió el 26,2 % de la demanda eléctrica del país durante el último mes de enero, seguida de la nuclear con el 19,8 %, ha informado hoy WWF, que subraya que las renovables son las únicas que permitirían a España cumplir sus compromisos de reducción de emisiones y frenar el cambio climático.
Después de la éolica, que ha alcanzado un máximo histórico, y de la nuclear, se sitúan el carbón, con el 12,6%; la hidráulica (11,4 %), los ciclos combinados de gas natural (10,8) y el 19,2 % restante con otras fuentes de energía (cogeneración, residuos y otras renovables).
La producción de la electricidad bajó un 2,39 % este pasado enero con respecto al mismo mes del año pasado, y la demanda también cayó un 2,8 %, siempre según el Observatorio de la Electricidad de WWF.
La energía eólica en enero logró su máxima participación en el mix energético nacional, ya que produjo 6.332 GWh, lo que supone un récord histórico.
Esta tecnología ha contribuido a que en enero, las emisiones totales de CO2 hayan descendido en comparación con las del mismo mes del año pasado, pasando de 6.915.170 toneladas de CO2 en enero 2012 a 3.902.807 toneladas de CO2 en enero 2013.
 
WWF ha subrayado que España no puede ir a contracorriente en relación a la nueva senda renovable para 2030 que lidera Europa. Recientemente, la Comisión Europea ha instado a los países miembro a contribuir con una economía baja en carbono y a trabajar para conseguir objetivos más ambiciosos en reducción de emisiones de CO2.
 
Energías renovables: Evolución de la potencia instalada en la Comunidad ValencianaEl nuevo informe "El camino hacia un futuro 100% renovable en Europa" de WWF demuestra que, para el año 2030, "la UE podría reducir su consumo energético al menos en un 38% en comparación con el escenario convencional, y generar más del 40% de su energía a partir de fuentes renovables".
Con estas dos medidas, Europa reduciría sus emisiones de efecto invernadero relacionadas con la energía en un 50% con respecto a los niveles de 1990.
 
Si España quiere continuar en la senda europea, es necesario hacer una profunda reforma energética del sistema de fijación de precios del mercado eléctrico (Pool), fomentar y apoyar las energías renovables, acabando con la inestabilidad regulatoria del sector, y aprobar la normativa que regule el autoconsumo energético. Asimismo, es clave mejorar las políticas de innovación tecnológica (I+D+i) y apostar de forma firme por la eficiencia energética y la rehabilitación de edificios (ver Los 5 retos energéticos de WWF).

 Con las renovables nos ahorraríamos el coste que supone la importación de combustibles fósiles en nuestra Balanza Comercial. Según la APPA en su último ‘Estudio del impacto macroeconómico de las energías renovables en España’ 
 
Hay que recordar que los precios de la gasolina y el gasóleo han crecido en España por encima de la media europea y los futuros del Brent están rondando los 116 dólares el barril. El precio del carburante crece en 2013 sobre la media de la eurozona: Según el Boletín Petrolero de la Unión Europea, la gasolina de 95 octanos costaba el lunes 1,461 euros el litro, un 6,34% más que lo que costaba el 21 de diciembre de 2012, el último registro del año pasado. El gasóleo de automoción también ha subido, iniciando la semana en 1,381 euros el litro, un 3,56% más. Los precios de la gasolina y el gasóleo se han elevado en la eurozona en 2013 un 2,76% y un 2,69% respectivamente.

miércoles, 20 de febrero de 2013

Desarrollan un nuevo sistema para recuperar el helio utilizado en los equipos médicos

Investigadores españoles han desarrollado un sistema pionero que recupera el cien por cien del helio utilizado en la refrigeración de equipos médicos y científicos y que, gracias a su "sencilla" infraestructura, puede instalarse en cualquier centro u hospital.

Esta tecnología, que ha sido desarrollada y patentada por el Consejo Superior de Investigaciones Científicas (CSIC), la Universidad de Zaragoza y la empresa estadounidense GWR Instruments, podrá sustituir a las grandes plantas de recuperación industrial que actualmente emiten a la atmósfera gran parte del helio utilizado, sin poder recuperarlo y licuarlo.
Conrado Rillo, jefe del servicio de líquidos criogénicos de la UZ, y responsable del proyectoLa invención está basada en técnicas nuevas de recuperación y purificación del gas procedente de la evaporación del líquido en los equipos médicos o científicos. El proceso de licuefacción se adapta al consumo, ya que el líquido producido se mantiene sin pérdidas el tiempo necesario hasta volver a utilizarse.

La utilización de helio líquido en procesos de investigación es fundamental, ya que permite alcanzar bajas temperaturas con las que se consigue desenmascarar las propiedades de los materiales anteriormente ocultas. No menos importantes son sus aplicaciones en el ámbito médico, como los equipos de resonancia magnética de los hospitales o los magnetoencefalógrafos, actualmente imprescindibles en los diagnósticos de los hospitales.
Conrado Rillo, jefe del servicio de líquidos criogénicos de la UZ,
 y responsable del proyecto
 
Sin embargo, estas máquinas que consumen helio para funcionar no lo recuperan y, una vez evaporado, se pierde en la atmósfera, a pesar de ser un elemento, muy abundante en el universo, pero escaso en la Tierra, de donde se obtiene del subsuelo de los pozos de gas natural. Se trata, por tanto, de un recurso caro, escaso y estratégico que se debe cuidar, pero que hasta ahora no existía una máquina capaz de recuperarlo y licuarlo, al tiempo que se consume, como la desarrollada por este equipo de investigadores.

martes, 19 de febrero de 2013

Estudio 40% de "Amigos de la Tierra"

Amigos de la Tierra Europa y el Instituto de medio ambiente de Estocolmo (SEI) presentan el Estudio del 40% y que la reducción de emisiones en Europa respecto a 1990 en al menos un 40% en 2020 y un 90% en 2050 es posible.
 
La investigación, tituladaEurope’s Share of the Climate Challenge: Domestic Actions and International Obligations to Protect the Planet(El papel de Europa en el Reto Climático: acciones internas y obligaciones internacionales para proteger el planeta) muestra cómo Europa puede cortar sus emisiones nacionales en un 40% en 2020 y en un 90% en 2050 en relación a los niveles de 1990. Según la ciencia este es el objetivo mínimo en términos de escala y tiempo para poder evitar una catástrofe climática. Es además la manera de que Europa cumpla con su responsabilidad histórica de causar el cambio climático.


A continuación las cifras más importantes del estudio junto a los ejemplos prácticos de los cambios que deberían ocurrir en varios sectores a medio y largo plazo en la transición a una economía baja en carbono.

TRANSPORTE
· Se reducen los viajes en coche de un 75% en 2005 a un 69% en 2020, y a un 43% en 2050.
· Implantación progresiva de vehículos eléctricos: En 2020 un 21% serán híbridos, 2% eléctricos y el 77% restante combustión interna. En 2050 prácticamente todos los coches son eléctricos.
· En 2050 el 80% de los vuelos dentro de Europa de menos de de 1000 kilómetros de distancia se sustituyen por viajes en tren.
· En 2030 el sistema ferroviario se electrifica completamente y en 2050 el 65% de los autobuses serán eléctricos.
· El consumo eléctrico del transporte se incrementa en 219% en 2020 y en 606% en relación al 2010.
VIVIENDA
· El uso de energía en la vivienda se reduce en un 16% en 2020 y en un 63% para 2050 respecto a 2010. Esto corresponde a una reducción anual del 2.5%.
· El 90% de las viviendas sufrirán procesos de modernización para reducir el gasto energético a una media de 27kWh/m², a un ritmo del 5% cada año, lo que significa que la transformación llevará 18 años.
· Deben lograrse nuevos criterios de casas pasivas (15 kWh/m² para calefacción) entre 2011 y 2015.
· Cambio drástico en climatización de viviendas: del uso de combustibles fósiles en el 75% de las casas a sistemas combinados de generación de calor y potencia (CHP) y bombas de calor
· La superficie de las casas se irá reduciendo progresivamente de un máximo alcanzable de 100 metros cuadrados en 2020 nuevamente a los niveles de 2005 de 87 m².
 
INDUSTRIA
· Conseguir reducciones significativas en las emisiones de la industria será difícil ya que el sector necesitará en algunas de las áreas expandirse para proporcionar la infraestructura necesaria para hacer posible el escenario de mitigación.
· La demanda industrial total se reduce en un 62% en 2050 respecto a 2010. Esto corresponde a una reducción del 2,4% entre esas fechas.
· Para 2050 el 40% de la producción de hierro y acero se conseguirá con procesos de DRI[1] mediante biomasa, un 50% por DRI mediante gas natural, y el 10% restante mediante tecnologías actuales.
· Se deben conseguir mejoras en la eficiencia energética en la industria cementera para que reducir el uso energético en un 15% en 2020 y en un 55% en 2050.
 
SISTEMAS ENERGÉTICO Y ELÉCTRICO
Imagen del globo terráqueo
· La demanda de energía primaria se reduce de 71.000 Petajulios (PJ) en 2010 a 55.000 PJ en 2020, y a 21.000 en 2050.
· La demanda global de electricidad se incrementa un 6% en 2020 y un 24% en 2050 respecto a 2010.
· El porcentaje de energía renovable se incrementa desde un 10% en 2010 a un 22% en 2020 y llega al 71% en 2050, respecto al total de la energía primaria.
· El porcentaje de energía eólica en el mix energético aumenta de un 3.3% en 2010 a un 22% en 2020 y a un 55% en 2050. Entre el 2020 y el 2030 se debe aumentar la potencia eólica a un ritmo de 25 Gigavatios anuales (en la última década China ha aumentado su potencia energética en 100 GW cada año mediante plantas de carbón).
 
COSTES
· El coste total de la implementación del escenario está estimado en cerca de 1.94 billones de euros, el 1.7% del PIB acumulado entre 2010 y 2020 (111 billones), sin incluir los sectores industrial, agrícola y los que no relacionados con la energía. Incluirlos supondría un coste real de entre el 2.5% y el 3% del PIB europeo actual.
· En cuanto a la financiación de los países en desarrollo, la parte correspondiente a Europa se estima entre 150.000 y 450.000 millones anuales hasta 2020, dependiendo del coste mundial de la mitigación. Esto corresponde aproximadamente a entre el 1.1% y el 3.3% del PIB Europeo previsto para 2020 (13.6 billones).

lunes, 18 de febrero de 2013

Patentan un nuevo material que convierte el CO2 en hidrocarburos

Un grupo de investigadores de la Universidad de Granada ha desarrollado un nuevo material, a base de carbón dopado, que permite producir energía a bajo coste y reducir las emisiones de CO2 a la atmósfera. Se trata de un gel, recién patentado, que permite convertir el CO2 de nuevo en hidrocarburos, mediante una transformación electro-catalítica, ahorrando una gran cantidad de tiempo y dinero.  
 
El investigador de la UGR Agustín F. Pérez Cadenas manipulando un reactor Según explican, se trata de un gel que permite convertir el CO2 de nuevo en hidrocarburos, mediante una transformación electro-catalítica, ahorrando una gran cantidad de tiempo y dinero.
En la actualidad, las centrales de energías renovables, como la eólica, solar o la mareomotriz (procedente de las mareas), producen picos de energía que se desperdicia, porque no coinciden con las necesidades energéticas. Almacenar esta energía en baterías para aprovecharla posteriormente sería un proceso muy costoso, que requiere grandes cantidades de metales puros muy caros, como el níquel o el cobre, por lo que en la actualidad este proceso apenas se realiza, indican los científicos.
 
 
 
El investigador Agustín F. Pérez Cadenas manipulando un reactor. / UGR.
 
El gel de carbón dopado desarrollado por la UGR actúa como un electrocatalizador altamente disperso (está formado en un 90% de carbón y una baja cantidad de metales pesados) y efectivo, por lo que permite transformar el CO2 en hidrocarburos a bajo coste.
Este nuevo material, desarrollado íntegramente en la institución granadina tras más de 10 años de investigación sobre geles de carbón, ha sido patentado recientemente por la Oficina de Transferencia de Resultados de Investigación (OTRI).
 
 
En fase de laboratorio
Como explica el investigador principal del proyecto, Agustín F. Perez-Cadenas, el gel de carbón dopado “no es una solución mágica para evitar las emisiones de CO2 a la atmósfera y acabar con la contaminación causada por el efecto invernadero, pero permite reducirlas considerablemente y disminuir también los costes energéticos”.
De momento, este sistema se encuentra en una fase de laboratorio, y no se ha aplicado aún en plantas energéticas reales, si bien las pruebas realizadas en la UGR han dado lugar a resultados “altamente prometedores”, concluye.

domingo, 17 de febrero de 2013

Estudio "Menos es más" de "Amigos de la Tierra"

 
Principales usos del litioEn la actualidad la UE vierte e incinera el 60% de los residuos municipales (cerca del 70% en el caso español). Recursos con un alto valor, susceptibles de ser reutilizados o reciclados, están siendo desaprovechados al tirarse a la basura, lo que a su vez contribuye al incremento en la demanda de materias primas.
En el caso de la ropa, los europeos desechan 5,8 millones de toneladas cada año, de las cuales el 75% acaba en vertederos o incineradoras y solo se recicla el 25%. En España no hay datos concretos, pero las estimaciones nos sitúan muy lejos de ese porcentaje. El estudio "Menos es más" concluye que para mover a Europa hacia el Residuo Cero, son necesarios objetivos mucho más ambiciosos de reciclaje, así como el establecimiento de objetivos de reutilización y reducción de residuos.
 
Reciclar latas de aluminioEuropa permanece anclada en un sistema en el que materiales de gran valor, muchos de ellos con un alto coste ambiental y social, terminan en vertederos e incineradoras, pasando a ser materiales de usar y tirar. Los objetivos de reciclaje son un buen comienzo, pero la reutilización y la reducción son los primeros pasos a dar para conseguir una mayor eficiencia y eficacia tanto en la gestión de residuos como en el uso de recursos naturales. No podemos olvidar que los residuos también son recursos.
 
La gestión tan pobre de los residuos está contribuyendo a una demanda insostenible de materiales importados por parte de Europa. Amigos de la Tierra muestra los impactos ambientales y sociales provocados por la extracción, uso y eliminación de tres materiales muy utilizados en en el continente: litio, aluminio y algodón.

sábado, 16 de febrero de 2013

Un informe estima en 90.000 las toneladas de residuos de lindano almacenadas en Sabiñánigo

Más de 90.000 toneladas de basura química procedente de la fabricación del pesticida lindano siguen almacenados en tres emplazamientos de Sabiñánigo, con grave riesgo para las aguas subterráneas por la proximidad del embalse del río Gállego. Así lo indica un estudio realizado por técnicos de la DGA y publicado en la revista Environmental Science and Pollution Research, bajo el título "La contaminación por HCH en el medio ambiente de Sabiñánigo" y firmado por los geólogos Jesús Fernández y Miguel Ángel Arjol y el  jefe del servicio de Control Ambiental Carlos Cacho. Los residuos contienen benceno, diversos clorobencenos e isómeros de hexaclorociclohexano (HCH), un plaguicida prohibido desde 2004.
 
Inquinosa generó unas 6.800 toneladas al año de residuos sólidos (diversos isómeros de HCH), lo que totalizaría más de 84.000; y entre 4.000 y 6.500 de residuos líquidos, que algunas fuentes incrementan a casi 20.000. Inquinosa nunca ha afrontado los gastos de descontaminación.
 
Al margen de puntos de vertido dispersos y desconocidos en el término de Sabiñánigo, hay cuatro focos principales de contaminación: los vertederos de Sardas y Bailín, la fábrica en ruinas y el embalse de Sabiñánigo. Respescto a Sardas, donde el suelo no está impermeabilizado, se estima entre 30.000 y 80.000 tm de HCH sólido y 2.000 en fase líquida. Según los autores del informe el volumen total de residuos se sitúa en torno a los 350.000 metros cúbicos, reconociendo que han afectado a los suelos y a las aguas superficiales y subterráneas. Los líquidos se van filtrando por las fracturas del subsuelo (se han detectado a 40 metros) y se acercan al embalse. Se bombean desde 7 piezómetros y tras su decantación se incineran.
 
Los técnicos advierten de que la importancia del volumen de materia y la complejidad de su gestión, ha hecho descartar el desmantelamiento del vertedero, la incineración u otras alternativas cuyo coste es inasumible en la actual situación. Estás previsto trasladar los suelos hasta la nueva celda de seguridad construida en Bailín.
 
La planta cerró definitivamente en 1994 (antes ya se le había prohibido producir). En su interior quedaron abandonadas materias primas y residuos. En 2011, previa autorización judicial , entraron los técnicos , ya que no se localizó a los propietarios. En la fábrica quedan más de 100 toneladas de HCH, diversos reactivos y 6 toneladas de un ácido, muchos en bidones.
 
Los trabajos se centran en el vertedero de Bailín. Entre 1984 y 1992 este barranco se usó para eliminar basura industrial u urbana. Aquí hay entre 30.000 y 80.000 toneladas de HCH sólidas y 2.000 en fase líquida. También se han infiltrado en el subsuelo hacia el Gállego, situado a 800 metros. Desde 2006 se planificaron actuaciones para frenar su avance y está previsto el traslado de los suelos contamindos al nuevo vertedero, ya finalizado. Aquí se encapsularán en una celda de seguridad para luego sellar el antiguo. Será en unos meses, cuando mejoren las condiciones meteorológicas. Los técnicos reconocen que el traslado no es una solución definitiva , pero permitirá realizar los trabajos de descontaminación del acuífero y disponer de una infraestructura de almacenamiento segura mientras se desarrollan técnicas de eliminación adecuadas con plazos de operación y costes razonables.

viernes, 15 de febrero de 2013

Cómo crear vida multicelular en 60 días. Un experimento replica la unión de células para formar un organismo

Vida multicelular de laboratorioLa multicelularidad no es solo la unión desinteresada de células que no tienen nada mejor que hacer. Es el origen de la biodiversidad y de la complejidad de los millones de especies de la Tierra. Este salto evolutivo que tardó millones de años en suceder lo reprodujeron hace un año en un experimento de tan solo dos meses investigadores de la Universidad de Minnesota (EE UU).

La unión coordinada entre células distintas aportó a la vida los beneficios del aumento de tamaño y la división del trabajo. La existencia de la vida multicelular se rige por las leyes de un ‘comunismo’ biológico donde el interés del ‘pueblo’ está claramente por encima de las necesidades individuales. Si no es así, el invento no funciona.
El origen de los animales, el cómo se pasó de una célula a trillones de ellas bien avenidas, es un misterio aún sin resolver. Pero sí se sabe que a la naturaleza le costó millones de años originar la multicelularidad, y que científicos de la Universidad de Minnesota (EE UU) lo han conseguido en 60 días. Los resultados de este estudio, liderado por el investigador William C. Ratcliff, se publicaron en enero del pasado año en la revista Proceedings of the National Academy of Sciences.
 
El sujeto de estudio fue Saccharomyces cerevisiae (la levadura unicelular que se usa para la fermentación de la cerveza), y la presión evolutiva, la fuerza de la gravedad. El equipo de investigadores diseñó un sencillo experimento donde volverse multicelular fuera una ventaja adaptativa. Los investigadores dejaron crecer las levaduras en un frasco con un caldo rico en nutrientes y en agitación. A las 24 horas detuvieron el movimiento. Las células que se habían organizado en grupos pesaban más y se hundían más rápidamente que el resto. Los científicos traspasaron las células del fondo del frasco a uno nuevo y las dejaron crecer 24 horas más. Este proceso lo repitieron 60 veces en 10 frascos distintos. A las pocas semanas se dieron cuenta de que la mayoría de levaduras ya no crecía individualmente: habían evolucionado para formar uniones indivisibles.
 
Sacrificios por el bien común
 
Loading ImageUn grupo de células no tiene por qué ser un organismo multicelular, pero cuando las partes cooperan, hacen sacrificios por el bien común y se adaptan a los cambios, entonces sí se puede considerar que es una transición hacia la multicelularidad. Las nuevas agrupaciones nacen por propágulos, “igual que muchas plantas”. Una o varias células se liberan del grupo parental y forman otro individuo distinto. Para que esto ocurra, algunas han de morir y convertirse en un punto de rotura a partir del que se libera el nuevo organismo, y exactamente eso es lo que pasa: entran en apoptosis, que es como sutilmente se llama al suicidio en el mundo celular. Las dos principales razones de ser del suicidio celular son eliminar células dañadas o con mutaciones y células superfluas durante el desarrollo embrionario. Las personas que nacen con dedos de más es porque tienen defectos en la apoptosis.
 
Conflictos de intereses
 
La cooperación entre células supone un gran conflicto de interés. Una célula que engañe al resto y obtenga de ello una ventaja evolutiva será seleccionada por encima de las demás, y los genes que determinan ese comportamiento se propagarán. Los seres multicelulares tienen que tener un estricto control genético para que haya las mínimas células que engañen porque, cuando eso sucede, como pasa por ejemplo durante un cáncer, el organismo puede morir.
Este conflicto de interés es menor si las células tienen un origen común. Un grupo formado por células genéticamente parecidas cooperará más fácilmente que si está constituido por células sin ningún parentesco.
Loading Image
 
Rebuscando entre los genes
 
Pero si realmente la multicelularidad es tan complicada y se compara en importancia al origen de la vida o la aparición de la célula eucariota, ¿cómo es posible obtenerla en un laboratorio y en un período de tiempo de semanas?
Seguramente estamos ante una diferenciación celular muy simple, de dos o tres tipos celulares, y eso ha sucedido una veintena de veces a lo largo de la historia de la vida . La multicelularidad compleja ya es otra cosa. Un ejemplo de esta complejidad son los más de 200 tipos de células que forman el cuerpo humano.
El siguiente paso en esta investigación es el análisis de qué mecanismos y qué genes han sido necesarios para generar cada una de las líneas multicelulares obtenidas en el laboratorio. A día de hoy, las técnicas genómicas son las de referencia en el estudio del origen de la multicelularidad.
 
En España, el proyecto MultiCellGenome investiga las causas genéticas de este gran salto evolutivo que permitió la formación de órganos y de toda la diversidad animal. En su estudio compara los genomas de organismos multicelulares con sus parientes unicelulares más cercanos para saber qué genes fueron los responsables del gran cambio. Se han encontrado diferencias genéticas muy importantes, pero, curiosamente, también hay genes fundamentales para la multicelularidad que ya existen en organismos unicelulares, por ejemplo, algunos implicados en la adhesión entre las células.
 
La clave está en un simbionte del caracol
 
Loading Image
La estrella de esta investigación es Capsaspora, un ser unicelular parecido a una ameba con tentáculos que vive en la sangre de los caracoles tropicales. Este organismo es tan sencillo que no goza de desarrollo embrionario pero, en cambio, sí tiene genes relacionados con él. La explicación que se propone es la ‘coevolución’: genes que ya existen en el organismo unicelular y se mantienen en la multicelularidad con un cambio de función.
El futuro del proyecto MultiCellGenome es seguir comparando y analizando genomas para desentrañar el verdadero árbol filogenético de todos los animales.

jueves, 14 de febrero de 2013

Diseños novedosos para hacer avanzar la energía eólica

 

En la superficie, las turbinas eólicas no han cambiado mucho desde hace décadas. Sin embargo, se han vuelto mucho más inteligentes y considerablemente más grandes, lo que ha ayudado a aumentar la cantidad de electricidad que pueden generar y a reducir el coste de la energía eólica.
La nueva turbina 2.5-120 de GE, anunciada la semana pasada, es un ejemplo de todo esto. Su potencia de salida máxima, 2,5 megavatios, es menor que la de la turbina de 2,85 megavatios que viene a reemplazar. Pero durante el transcurso de un año puede generar un 15 por ciento más de kilovatios-hora. Unas matrices de sensores combinadas con mejores algoritmos de control y supervisión de la turbina permiten que siga girando en ocasiones en las que las generaciones anteriores de turbinas eólicas se hubiesen tenido que apagar.
 
La tecnología es parte de una tendencia que ha hecho que la energía eólica sea casi tan barata como la procedente de los combustibles fósiles. En 1991, la energía eólica costaba 11 céntimos de euros por kilovatio-hora. El coste ha bajado a 4,8 céntimos de euros por kilovatio-hora.
Una nueva generación de turbinas eólicas más productivas que será lanzada este año podría hacer que el viento fuera finalmente ampliamente competitivo con los combustibles fósiles. Los últimos datos sobre el rendimiento de turbinas eólicas y costes sugieren que la energía eólica probablemente sea más rentable que el gas natural en los próximos 20 años, y podría representar la mayor parte de la nueva capacidad de generación añadida durante ese tiempo.
 
El mayor impacto en la producción de electricidad proviene del hecho de aumentar el tamaño de las turbinas eólicas. Aumentar el tamaño de las aspas de una turbina, y hacer que la torre sea más alta, permite capturar más viento, especialmente a bajas velocidades. Fabricar turbinas eólicas de mayor tamaño es cada vez más difícil, en parte porque sus dimensiones han aumentado tanto que las condiciones del viento en el punto más alto de barrido de las aspas pueden ser muy distintas a las del punto más bajo. Para compensar la diferencia, GE ha tenido que desarrollar algoritmos de control que respondan a la información recogida por varios sensores durante el giro de las aspas. Esto ha ayudado a la compañía a pasar de un rotor eólico de 100 metros de diámetro a uno de 120 metros.
 
Evitar el tiempo de inactividad tras los fallos mecánicos también ayuda a aumentar la producción de electricidad. Si ocurre cualquier problema con una turbina de viento, a menudo se apaga hasta que los técnicos llegan a su ubicación, suben a la torre para evaluar el problema y, a continuación, realizan las reparaciones, un proceso que puede ser especialmente difícil y llevar mucho tiempo puesto que las granjas eólicas están situadas a menudo en zonas remotas. Con su último diseño, GE ha colocado sus turbinas de viento en red para hacerlas más resistentes. Por ejemplo, si el hielo congela el indicador de velocidad del viento en una turbina y hace que falle, la turbina puede utilizar datos de otra turbina cercana (y unos algoritmos realizan las correcciones pertinentes para compensar las diferentes localizaciones de las turbinas), eliminando la necesidad de apagarla.

Los avances tecnológicos puede que hayan bajado el precio del viento y lo hayan llevado al alcance de la energía procedente de combustibles fósiles, pero la escala del viento estará limitada por la capacidad de la red para manejar la intermitencia inherente. Los diseños de turbinas eólicas inteligentes también están teniendo en cuenta ese factor. La nueva turbina de GE incluye una batería de respaldo. Los nuevos algoritmos, junto con un software de predicción del tiempo, determinan en qué momento almacenar energía en la batería y cuándo enviarla a la red. Como resultado, los operadores de parques eólicos pueden garantizar la potencia de salida, pero solo durante 15 minutos cada vez. Para que la energía eólica pueda llegar a proporcionar una gran parte del suministro total de electricidad, podría ser necesario almacenar energía equivalente al suministro de varias horas, o de lo contrario habrá que seguir usando fuentes de respaldo como por ejemplo las plantas de gas natural.

martes, 12 de febrero de 2013

Algún día el ADN sustituirá al disco duro

 

Los investigadores que han usado la biomolécula para codificar MP3s, archivos de texto y JPEGs afirman que será un medio de almacenaje competitivo dentro de unas décadas. Algún día el ADN podría almacenar algo más que los planos de la vida, también podría albergar inmensas colecciones de documentos, música o vídeo en un formato tremendamente compacto que dura miles de años. Investigadores del Instituto Europeo de Bioinformática en Hinxton (Reino Unido), han probado un nuevo método para codificar de manera fiable distintos formatos de archivos informáticos comunes. Con el ritmo de caída del coste de secuenciar y sintetizar ADN, los investigadores calculan que este sistema de almacenaje biológico será competitivo en las próximas décadas.
 
La densidad de almacenaje de información del ADN es por lo menos mil veces mayor que la de otros medios existentes, pero hasta hace poco el coste de la síntesis de ADN era demasiado caro como para que la tecnología fuera más que una curiosidad. Sin embargo, los métodos convencionales de almacenaje de información digital durante periodos prolongados siguen presentando problemas. Las cintas magnéticas que se suelen usar para archivar datos acaban secándose y perdiendo su cobertura pasadas unas décadas. Y aunque el medio físico utilizado para almacenar información se mantenga intacto, los formatos de almacenado no dejan de cambiar. Lo cual significa que los datos deben transferirse a un nuevo formato o este puede acabar por no poder leerse.
 
[180px-Dna-split.png]En comparación, el ADN se mantiene estable a lo largo del tiempo y es un formato que muy probablemente siempre será útil. "Queremos separar el medio de almacenaje de la máquina que lo leerá", afirma Nick Goldman, el director del proyecto. "Siempre tendremos tecnologías para leer el ADN". Goldman señala que se han encontrado fragmentos intactos de ADN de hace decenas de miles de años y que el ADN es estable durante más tiempo aún si se refrigera o congela.
Los investigadores británicos codificaron ADN con un MP3 del histórico discurso "I Have a Dream" de Martin Luther King Jr., un PDF de un artículo científico, un archivo de texto ASCII con los sonetos de Shakespeare y una fotografía en color en formato JPEG. La densidad de almacenaje del ADN es de unos 2,2 petabytes por gramo.
Otros ya habían demostrado la posibilidad de usar el ADN como sistema de almacenaje. Este verano, por ejemplo, un grupo de investigadores dirigido por el profesor de genética de lea Universidad de Harvard (EE.UU.) George Church usó la tecnología para codificar un libro.
La diferencia que marca este nuevo trabajo, según Goldman, es que los investigadores se centraron en crear un diseño práctico que tolere los errores. Para hacer los archivos de ADN, los investigadores crearon software que convirtiera los 1s y 0s del mundo digital en el alfabeto genético de las bases de ADN, etiquetadas A, T, G y C. El programa se asegura de que no haya bases repetidas como "AA" o "GG", que conducen a mayores índices de error al sintetizar y secuenciar el ADN.
 
Los archivos se dividieron en segmentos, cada uno marcado por un código índice que contiene información respecto a qué archivo pertenece y dónde va colocado dentro de ese archivo, el equivalente al título y número de página en las páginas de un libro.
Medicina personalizada: más cerca gracias a la bioinformáticaEl software de codificación también se asegura de que haya redundancia. Cada parte de un archivo se representa en cuatro fragmentos diferentes, así que aunque varios se degraden, aún debería ser posible reconstruir los datos.
En colaboración con Agilent Technologies de Santa Clara, California (EE.UU.), los investigadores sintetizaron los fragmentos de ADN y después demostraron que podían secuenciarlos con precisión y reconstruir los archivos. Este trabajo se describió en la revista Nature.