Artículos sobre virus

Articulos relacionados con la seguridad informatica, virus, antivirus, phising etc..etc.., zonavirus.com
  1. Tras el anterior articulo al respecto, vemos que ya se acerca la implementación practica de dicho tipo de baterías:


    https://i.blogs.es/d064e8/nissan_leaf_012/650_1200.jpg

    A medida que aumenta la producción de coches eléctricos y por ende la fabricación de baterías de iones de litio, los investigadores científicos buscan la manera de encontrar un sustituto de esta energía química que sale de materiales que son complejos de procesar y extraer, y también presentan problemas de seguridad.

    Las baterías en estado sólido se perfilan como la solución, pero estamos a años de verlas. Sin embargo, un interesante proyecto de la Universidad de Córdoba muestra la capacidad potencial del calcio en el funcionamiento de una batería recargable.

    La era de las baterías 'post-litio'

    bosch
    El equipo de la Universidad de Córdoba trabaja desde hace años en este proyecto, que lidera la investigadora Marta Cabello explorando las capacidades del calcio como componente de las baterías de los vehículos eléctricos.

    El equipo de trabajo estudia la intercalación del calcio en óxido de molibdeno, lo que les ha permitido avanzar principalmente en la comprensión de las reacciones entre los componentes de la batería, cuando los ánodos son de calcio y los cátodos son de óxido de molibdeno e intercambian iones y electrones para generar energía eléctrica.


    Fabricar baterías de coche eléctrico conlleva un gran problema: la guerra por el cobalto


    Cabello, en declaraciones recogidas por la Universidad, explica que la investigación aún necesita tiempo para desarrollarse: "Hemos dado un gran paso al comprobar que el calcio podría funcionar en una batería recargable, pero la recarga aún no es suficientemente eficiente".

    En este sentido, para que estas baterías de calcio puedan ser efectivas y, por tanto, puedan comercializarse, es necesario seguir avanzando para mejorar la composición de la disolución electrolítica. "Esto requiere probar con diferentes composiciones de sales y disolventes en la proporción óptima, con el objetivo de que el calcio pueda intercalarse mejor y más reversiblemente en el óxido de molibdeno, y que el calcio sea compatible con la disolución electrolítica", describen.

    Qué son las baterías de estado sólido y por qué son el futuro del automóvil

    Qué son las baterías de estado sólido y por qué son el futuro del automóvil
    El equipo asegura que el calcio es más abundante que el litio y más seguro. Además, las baterías podrían tener más capacidad, pero para llegar a esto es necesario encontrar el compuesto químico más idóneo. Así, buscan contribuir al campo de las llamadas baterías 'post-litio', como pueden ser sodio, magnesio, calcio o aluminio.

    En este sentido, la más avanzada es la investigación con sodio. Por ejemplo, investigadores de la Universidad de Standford crearon una batería de sodio que puede ofrecer un almacenamiento mucho más rentable que el litio y que supone una reducción de costes de un 80 % -150 dólares por tonelada- en comparación con una batería de iones de litio con la misma capacidad de almacenamiento.

    Materias primas que se han convertido en el nuevo petróleo

    La previsión de cara a 2040 es que se vendan unos 60 millones de coches eléctricos, lo que equivale al 55 % del mercado mundial de vehículos ligeros. Eso supone mucha materia prima.

    Los precios de las baterías de iones de litio se han desplomado en los últimos años. Según datos de Bloomberg, en 2010 el precio medio se situaba en los 1.000 dólares/kWh; a finales de 2017 esa cifra cayó hasta los 209 dólares/kWh, mientras que la densidad de energía de las baterías ha mejorado en torno al 5-7 % por año.

    Eso es positivo, pues cuanto mayor es la densidad, mayor autonomía da una batería. Sin embargo, el problema que suponen el origen y la extracción de estos materiales sigue estando ahí. Como resultado, el desarrollo de actividades mineras ha pasado a ser estratégico.

    Los coches convencionales no desaparecerán de un plumazo aunque Tesla haga caer el costo de las baterías

    Los coches convencionales no desaparecerán de un plumazo aunque Tesla haga caer el costo de las baterías
    En Europa, por ejemplo, hay reservas sólidas de litio en Portugal, República Checa y los Países Nórdicos, pero el continente aún ha de enviar sus reservas a China para que sean refinadas. Y este es otro punto interesante de esta transición hacia la electromovilidad: pasamos de depender del petróleo y el gas para depender del litio, el cobalto o el cobre.

    Y miramos entonces a África y a China, donde a veces la cadena de suministro se desdibuja, borrando el origen de esas materias primas. ¿Se respetan los derechos humanos allí donde se extraen? ¿Qué impacto medioambiental tiene? ¿Y en la economía local de los países cuyas riquezas explotamos?

    https://i.blogs.es/468742/electrical-1989072_960_720/650_1200.jpg
    Las eléctricas son el gigante dormido del coche eléctrico que está empezando a despertar

    La Unión Europea es consciente de esas preocupaciones, pero hasta el momento no ha implementado políticas efectivas para prevenir los abusos de los derechos humanos en los países proveedores, como es la República Democrática del Congo. Así, muchos investigadores como los de la Universidad de Córdoba buscan otras materias con las que hacer que los vehículos eléctricos sean más sostenibles, en todos los sentidos.

    Desde fibra de carbono que almacena energía en la carrocería del vehículo hasta el sodio, el magnesio, pasando por depósitos de arcilla en supervolcanes o baterías de nanocarbono y litio-aire.

    Soluciones a la dependencia de ciertos recursos minerales que están en manos de los investigadores.

    Fotos| Tennen-Gas




    Ver información original al respecto en Fuente>
    https://www.motorpasion.com/coches-hibridos-alternativos/baterias-calcio-para-coches-electricos-podrian-ser-solucion-para-sustituir-baterias-iones-litio
  2. https://i.blogs.es/236a5b/atomoapertura/2560_3000.jpg

    Steve Cowley es una de las máximas autoridades mundiales en fusión nuclear. Tuve la oportunidad de conocerlo no hace muchos años, en Madrid, durante una de las conferencias que pronuncia a lo largo y ancho del planeta para divulgar en qué medida esta tecnología puede contribuir a resolver las necesidades energéticas del ser humano.

    Su mensaje cala hondo. Es imposible escucharle sin resultar contagiado por su entusiasmo, y, sobre todo, sin sentirse profundamente atraído por la fusión nuclear, de la que es un firme defensor. Y es que, según este físico teórico británico, esta tecnología es la única que podrá resolver la crisis energética en la que ya estamos sumidos, y que irá a más durante las próximas décadas. ¿Su promesa? Energía limpia, segura y virtualmente ilimitada. Pero para hacerlo posible aún hay numerosos retos que es imprescindible resolver.

    No todo lo nuclear es igual

    Antes de que veamos cómo funciona la fusión nuclear con cierto detalle merece la pena que nos detengamos para conocer en qué se parecen la fusión y la fisión nuclear, y también en qué difieren. Tienen en común algo evidente: ambas son reacciones nucleares cuyo objetivo es liberar la energía contenida en el núcleo de un átomo.


    Fusión nuclear: qué retos plantea, la seguridad de esta tecnología y cuándo estará lista

    En los dos casos la energía se libera en forma de calor, y, dentro de las centrales nucleares, es transferido al agua contenida en un enorme depósito para generar vapor de agua a alta temperatura, que será inmediatamente utilizado para accionar un conjunto de turbinas cuyo movimiento generará la energía eléctrica que nosotros utilizaremos posteriormente.

    La fisión y la fusión son reacciones nucleares que pretenden liberar la energía del núcleo del átomo
    Si nos fijamos en este proceso podemos darnos cuenta de que cumple claramente el Principio de conservación de la energía del que todos oímos hablar, al menos, cuando estábamos en el colegio, y que conocemos gracias a los trabajos de científicos como Tales de Mileto, Galileo, Leibniz o Newton, entre otros. Esta ley dice que la energía ni se crea, ni se destruye, sino que, sencillamente, se transforma de una forma de energía a otra. Una consecuencia importante de este principio es que la energía total de un sistema permanece constante, por lo que es la misma antes y después de cada transformación.

    Si regresamos a lo que realmente nos importa, a nuestra central nuclear, podemos ver que la energía contenida en el núcleo de un átomo es liberada en forma de calor (por lo que obtenemos energía térmica), al margen de que recurramos al procedimiento de fisión o fusión nuclear. Precisamente, esta es la función del reactor nuclear: transformar la energía nuclear contenida en los átomos en energía térmica.

    https://i.blogs.es/b2566e/atomo/1366_2000.jpg
    Atomo

    Justo a continuación esta última forma de energía provoca que una parte del agua del depósito se evapore, apareciendo vapor a alta presión, y, por tanto, dotado de energía cinética, que es aquella que poseen los cuerpos debido a su movimiento. La energía cinética del vapor de agua en movimiento se transforma en energía mecánica al hacer girar las turbinas de la central nuclear, y, por último, esta se transforma de nuevo, esta vez en energía eléctrica, gracias al accionamiento de un generador, que es el responsable de producir la electricidad que llega, entre otros lugares, a nuestras casas.

    Dos estrategias diferentes

    Como acabamos de ver, la función inmediata tanto de un reactor que utiliza fisión nuclear como de otro de fusión nuclear es exactamente la misma: producir vapor de agua a alta temperatura, para, al final del proceso y mediante las transformaciones que acabamos de ver, generar energía eléctrica.

    Curiosamente, el principio básico de funcionamiento de las centrales de producción de energía eléctrica que utilizan como combustible petróleo, carbón o gas, es exactamente el mismo: calentar el agua de un depósito para producir vapor de agua y accionar una turbina.

    Todos los reactores nucleares comerciales que utilizamos actualmente recurren a la fisión, y no a la fusión nuclear

    Aquí concluyen las semejanzas entre la fisión y la fusión nuclear. Las centrales nucleares que utilizamos actualmente recurren a la fisión nuclear, y no a la fusión. Sin excepción. Y esto se debe a que, aunque los reactores experimentales ya nos han demostrado que la fusión nuclear funciona, es un proceso tan complejo que, como veremos más adelante, los físicos y los ingenieros aún no han encontrado la forma de conseguir que la reacción de fusión se comporte de forma estable de manera prolongada.

    https://i.blogs.es/79f1b1/fusion/1366_2000.jpg
    Fusion

    Esto es lo que sucede exactamente cuando tiene lugar la fusión nuclear en los actuales reactores experimentales.

    Esto implica que la fusión no puede mantenerse durante un período de tiempo muy prolongado con un balance de energía positivo (se obtiene más energía como resultado del proceso que la que es necesario invertir para ponerlo en marcha) y de una forma completamente controlada.

    Y es que si el objetivo de la fisión nuclear es obtener energía «partiendo» el núcleo de un átomo, el de la fusión nuclear es hacerlo uniendo dos núcleos ligeros para formar uno más pesado. Y hasta la fecha conocemos con mucha más precisión cómo llevar a cabo de forma controlada la fisión.

    La fisión nuclear, en detalle

    Como hemos visto unas líneas más arriba, este proceso, que es el utilizado actualmente en las centrales nucleares, consiste en romper el núcleo de un átomo en dos o más núcleos para liberar una parte de la energía que contiene. Pero no podemos fragmentar el núcleo de un átomo cualquiera. En teoría sí puede hacerse, pero en la práctica lo interesante es utilizar un átomo que sea relativamente «fácil y económico» romper. Y el del uranio 235 lo es.

    La fisión libera la energía del núcleo atómico fragmentándolo en dos o más núcleos
    El uranio es un elemento químico que podemos encontrar en la naturaleza en concentraciones muy bajas, normalmente en rocas, tierras y agua. De ahí que su obtención sea cara y su tratamiento complejo, pues exige realizar procesos químicos capaces de separarlo de los demás elementos y las impurezas con las que suele convivir. Tiene 92 protones, y otros tantos electrones orbitando en torno al núcleo, y este último incorpora, además de los protones, entre 142 y 146 neutrones.

    Es importante que recordemos que el núcleo de un átomo está habitualmente constituido por un cierto número de protones y neutrones (aunque no siempre: el protio, el isótopo del hidrógeno más abundante, tiene en su núcleo un solo protón y ningún neutrón), así como por unos electrones que orbitan a su alrededor. El hecho de que el número de neutrones del núcleo del uranio pueda variar, como acabamos de ver, nos indica que existen varios isótopos de este elemento químico, que no son otra cosa que átomos con el mismo número de protones y electrones, pero distinto número de neutrones.


    Fusión nuclear y energía: de la teoría girocinética a la fusión con muones, pasando por su impacto medioambiental

    La razón por la que en los reactores de fisión nuclear se utiliza un átomo de uranio 235, y no otro isótopo de este elemento o cualquier otro elemento químico, consiste en que al bombardear su núcleo con un neutrón (un proceso que se conoce como fisión inducida) el uranio 235 se transforma en uranio 236, que es un elemento inestable. Esto significa, sencillamente, que el uranio 236 no puede permanecer mucho tiempo en su estado actual, por lo que se divide en dos núcleos, uno de bario 144 y otro de criptón 89, y emite, además, dos o tres neutrones.

    https://i.blogs.es/70f237/fision/1366_2000.jpg
    Fision

    Y aquí viene lo realmente interesante: la suma de las masas de los núcleos de bario 144 y criptón 89 es levemente inferior a la del núcleo de uranio 236 del que proceden («desaparece» alrededor del 0,1% de la masa original). ¿Adónde ha ido la masa que nos falta? Solo cabe una respuesta: se ha transformado en energía. La fórmula E = m c2, probablemente la más popular de la historia de la física, relaciona la masa y la energía, y lo que dice es, sencillamente, que una cierta cantidad de masa equivale a una cantidad concreta de energía, incluso aunque la masa se encuentre en reposo.

    De hecho, la equivalencia entre la masa y la energía, propuesta por Albert Einstein en 1905 (como veis, hace más de un siglo), nos dice algo más muy importante. La c de la fórmula representa la velocidad de la luz en el vacío, que, como todos intuimos, es un número muy grande (3 x 108 m/s aproximadamente). Además, está elevado al cuadrado, lo que significa que incluso una masa muy, muy pequeña, como puede ser la porción del núcleo de un átomo, aunque esté en reposo contiene una cantidad muy grande de energía. Esto es lo que conocemos como energía en reposo.

    https://i.blogs.es/42f8d7/central/1366_2000.jpg
    Central

    Este es el aspecto que tiene el interior del reactor de fisión utilizado en las centrales nucleares actuales.
    Las centrales nucleares actuales consiguen mantener una reacción en cadena controlada para producir energía
    Si la masa está en movimiento su energía total es mayor que su energía en reposo. Y, si observamos la equivalencia entre la masa y la energía, es sencillo darse cuenta de que la masa de un cuerpo en movimiento también es mayor que su masa en reposo, un fenómeno que nos introduce de lleno en la física relativista, y que trataremos con más detenimiento en otro post. En cualquier caso, la energía que obtenemos al fusionar o fisionar núcleos atómicos procede de la fuerza que los mantiene unidos: la nuclear fuerte.

    Entender con cierta precisión la relación que existe entre la masa y la energía es importante porque nos ayuda a comprender cómo es posible que una masa tan pequeña como la de un átomo nos permita obtener una cantidad de energía tan grande. En cualquier caso, el proceso de fisión nuclear no termina aquí. Y es que cada uno de los neutrones que hemos obtenido como resultado de la descomposición del núcleo de uranio 236 en los núcleos de bario 144 y criptón 89 puede interaccionar con otros núcleos fisionables, provocando una reacción en cadena.

    No obstante, no todos los neutrones emitidos durante la descomposición del núcleo de uranio 236 van a interaccionar con un núcleo fisionable. Pero no hace falta. Basta que uno solo de esos neutrones lo haga para que obtengamos un número de fisiones estable, y, por tanto, una reacción controlada, que es el objetivo de los reactores de las centrales nucleares.

    La fusión natural en las estrellas

    Con frecuencia, nuestros científicos e ingenieros se inspiran en los mecanismos de la naturaleza para proponer soluciones a las necesidades del ser humano. Esto es, precisamente, lo que pretende la fusión nuclear. De hecho, un reactor de fusión nuclear imita los fenómenos que tienen lugar en el núcleo de las estrellas. Por esta razón, merece la pena que nos detengamos un momento para conocer cómo nacen las estrellas y qué sucede en su interior.

    https://i.blogs.es/6674b7/sol/1366_2000.jpg
    Sol

    Las estrellas nacen a partir de nubes de polvo y gas diseminadas por el universo, y comienzan a acumular masa gracias a la contracción gravitacional (la fuerza de la gravedad va reuniendo y compacytando todos esos elementos). Alrededor del 70% de su masa es hidrógeno (en realidad se trata de protio, el isótopo del hidrógeno del que hablamos unos párrafos más arriba, y que tiene un núcleo con un único protón y un electrón en su órbita), entre el 24 y el 26% es helio, y el 4 al 6% restante es una combinación de elementos químicos más pesados que el helio.

    Los reactores de fusión nuclear imitan los fenómenos que suceden en el núcleo de las estrellas

    La evolución de una estrella está determinada por su masa y su composición química iniciales, por lo que ese pequeño porcentaje de elementos químicos más pesados que el helio resulta crucial en la vida de cada una de las estrellas, así como cualquier variación que se produzca alrededor de ese 70% inicial de hidrógeno. Cuanto más masiva es una estrella, más rápido agota su fuente de energía, por lo que cada una de ellas tiene un comportamiento único y diferente al de las demás.

    En la actualidad existen herramientas informáticas que permiten a los físicos reproducir cómo evolucionan las estrellas desde que se produce el colapso gravitacional hasta las fases finales de su vida. Pero lo más curioso es que estos complicados cálculos computacionales se llevan a cabo a partir de tan solo cuatro ecuaciones diferenciales en las que, por su complejidad, no vamos a profundizar, pero que merece la pena que citemos para que, al menos, nos suenen un poco a todos por si alguno de vosotros quiere indagar más en este apartado.

    La primera de ellas es la ecuación de la masa, que asume que en el centro de la estrella la masa es cero y en su atmósfera tenemos la masa total. La segunda es la ecuación de equilibrio hidrostático, que revela cómo la gravedad de la estrella contrarresta la presión de los gases y la presión de radiación para mantener la estrella en equilibrio. La tercera es la ecuación de producción de energía, que analiza cómo la estrella obtiene energía de las reacciones de fusión que se producen en su interior, y también de la contracción gravitacional de la que hablamos antes. Y, por último, la ecuación de transporte de energía, que estudia la manera en que la energía es transportada desde el núcleo de la estrella hacia fuera.

    https://i.blogs.es/4902c6/nebulosa/1366_2000.jpg
    Nebulosa

    En cualquier caso, lo que realmente nos interesa conocer es que, a medida que la contracción gravitacional de la que hablamos antes va reuniendo los elementos de la nube de polvo y gas inicial, ese «bebé estrella» se va calentando, y su presión se va incrementando. Y continúa así hasta que llega un instante en el que la temperatura y la presión son tan altas como para provocar el encendido del «horno nuclear», que no es otra cosa que la fusión natural de los núcleos de hidrógeno para formar helio.

    Las estrellas nacen a partir de nubes de polvo y gas, y acumulan masa por contracción gravitacional

    Los núcleos de hidrógeno, sometidos a una presión y temperatura altísimas, chocan, debido a su elevada energía cinética, a velocidades tan altas que son capaces de vencer su repulsión eléctrica natural (su carga es positiva, por lo que se repelen), y, en consecuencia, se acercan lo suficiente para que la fuerza nuclear fuerte, que es la que mantiene unidas las partículas del núcleo de los átomos, sea capaz de contrarrestar esa repulsión y tenga lugar la fusión.

    Como hemos visto, la unión de dos átomos de hidrógeno genera uno de helio, y se produce la emisión de una gran cantidad de energía que responde al mismo principio del que hablamos cuando vimos en qué consistía la equivalencia entre masa y energía. Pero seguro que estaréis de acuerdo conmigo en que lo más asombroso de todo es que el proceso de fusión de dos átomos de hidrógeno para obtener uno de helio, que es el más sencillo de este tipo de cuantos tienen lugar en la naturaleza, es el primer ladrillo de la construcción de todos los elementos químicos que podemos encontrar en el universo.


    Este joven ingeniero español acaba de resolver un problema que lleva más de 20 años frenando la fusión nuclear

    Esto significa, sencillamente, que el carbono del que, en parte, estamos hechos, ha sido fabricado en el núcleo de las estrellas. No es una licencia poética. Literalmente estamos hechos de polvo de estrellas. Y el oxígeno, el plomo, el magnesio, el sodio, el oro… Todos los elementos químicos que nos constituyen no solo a nosotros, sino todo lo que nos rodea, han sido fabricados en el núcleo estelar gracias a las reacciones de fusión y diseminados por el universo por las supernovas que tienen lugar en los últimos estadios de la vida de las estrellas.

    Imitando el poder de las estrellas

    Como os anticipé unos párrafos más arriba, los físicos e ingenieros que están involucrados en el diseño y construcción de los reactores experimentales de fusión nuclear están intentando imitar lo que sucede en el interior de las estrellas con el objetivo de obtener grandes cantidades de energía. Pero hay algo que debemos tener en cuenta: por el momento no podemos generar una presión gravitacional tan elevada como la que tiene lugar en el interior de las estrellas de forma natural, mediante el confinamiento gravitatorio, por lo que es necesario recurrir a los elementos que sean más fáciles de fusionar, y, además, es preciso someterlos a temperaturas de hasta doscientos millones de grados Celsius.

    https://i.blogs.es/03cc72/tokamak/1366_2000.jpg
    Tokamak

    Esta temperatura es diez veces más elevada, incluso, que la que podemos encontrar en el centro de nuestro Sol, lo que nos permite intuir la descomunal complejidad que tiene la fusión nuclear que llevamos a cabo en la Tierra. Por otra parte, actualmente los científicos han conseguido fusionar dos núcleos de deuterio y tritio, que son isótopos del hidrógeno que tienen, además de su protón y su electrón, como vimos antes, un neutrón en su núcleo el primero, y dos neutrones el segundo.

    ¿Por qué utilizamos deuterio y tritio, y no protio, como hacen las estrellas? Todos ellos son isótopos del hidrógeno, pero es más sencillo recrear las condiciones necesarias para que tenga lugar la fusión de los núcleos de deuterio y tritio, que lograr que se fusionen los núcleos de protio. Además, el deuterio es un isótopo estable muy abundante en la naturaleza. De hecho, podemos encontrar un átomo de deuterio en el agua entre cada 6.500 átomos de hidrógeno, lo que no está nada mal. O 34 gramos de deuterio en cada metro cúbico de agua de mar.

    El deuterio y el litio, los elementos que necesitamos para hacer posible la fusión nuclear, son muy abundantes

    El tritio, en cambio, es más delicado, por decirlo de alguna manera. Es mucho más escaso en la naturaleza que el deuterio, y, además, es inestable, lo que quiere decir que es radiactivo y se desintegra con rapidez. Pero, afortunadamente, podemos obtenerlo fusionando un neutrón con el núcleo de uno de los isótopos del litio, que, al igual que el deuterio, es un elemento químico muy abundante en la naturaleza (especialmente en el agua del mar).

    https://i.blogs.es/413bef/toroide/1366_2000.jpg
    Toroide

    Lo más interesante de la fusión nuclear que llevamos a cabo en nuestros reactores experimentales actualmente es que de la fusión de los núcleos de deuterio y tritio obtenemos un núcleo de helio y un neutrón. Precisamente, este último es el neutrón que, una vez fusionado con un isótopo del litio, nos permite obtener un núcleo de tritio, elemento este último que podemos reutilizar para volver a iniciar el proceso de fusión nuclear.

    Resulta curioso pensar que los científicos comenzaron a trabajar en la fusión nuclear hace casi cincuenta años, que fue la época en la que idearon las primeras técnicas de confinamiento magnético. Sin embargo, aún quedan enormes retos que deberán ser resueltos antes de que vea la luz un reactor de fusión nuclear comercial. De estos desafíos, de las ventajas de la fusión frente a la fisión, del estado actual de la fusión nuclear y de cómo evolucionará en el futuro hablaremos con detalle en un próximo artículo que espero que os resulte tan interesante o más que este.




    Ver información original al respecto en Fuente:
    https://www.xataka.com/energia/fusion-nuclear-asi-funciona-la-tecnologia-que-aspira-a-resolver-nuestras-necesidades-energeticas?utm_source=NEWSLETTER&utm_medium=DAILYNEWSLETTER&utm_content=POST&utm_campaign=02_Feb_2019+Xataka&utm_term=CLICK+ON+TITLE
  3. https://www.arturogoga.com/wp-content/uploads/2016/08/Image-8-20-16-1-51-PM.jpeg
    Evolución baterías hasta llegar a las litio-metal (estado sólido)

    La Unión Europea necesitará más de diez gigafábricas de baterías para coches eléctricos en el futuro para que la industria comunitaria sea competitiva a nivel global, según ha explicado este lunes el vicepresidente de la Comisión Europea para la Unión de la Energía, Maros Sefcovic, en una rueda de prensa tras la segunda cumbre de alto nivel de la Alianza Europea de Baterías.

    Esperamos que en 2025 el mercado de baterías alcance los 250.000 millones de euros anuales. Es un mercado muy rentable en el que realmente tenemos que tener una presencia fuerte europea, ha expresado el eslovaco en la comparecencia de prensa.

    Sefcovic ha señalado que el bloque comunitario necesitará más de diez gigafábricas de baterías y debería conseguir alcanzar una capacidad superior a los 100 gigavatios hora (GWh) en 2025, año en el que ha dicho que aumentará la producción de coches eléctricos en Europa.

    En Europa queremos ser competitivos no sólo en nuestro propio mercado sino también en el mercado global, ha enfatizado el vicepresidente del Ejecutivo comunitario.

    Según las estimaciones de Bruselas, la demanda de baterías eléctricas alcanzará a mediados de la próxima década los 200 Gwh, mientras que la demanda global ascenderá a los 600 Gwh.


    Sefcovic además ha destacado que en la UE existen muy buenas competencias, aunque ha advertido de que los esfuerzos todavía están muy fragmentados, por lo que ha defendido la importancia de trabajar juntos porque un único actor no podrá conseguirlo por su cuenta.

    La reunión que ha tenido lugar este lunes ha servido para proseguir con los debates mantenidos en el encuentro que se desarrolló en octubre, cuando representantes de la industria europea y de los Estados miembros acordaron unir sus esfuerzos para crear una cadena de valor completa de baterías en Europa.

    El objetivo es desarrollar el compromiso político de los países del bloque para establecer capacidades de producción a gran escala de baterías en Europa, debatir las actividades actuales, como proyectos transfronterizos liderados por la industria y combinar instrumentos de apoyo a nivel nacional y europeo.

    Ver información original al respecto en Fuente:
    https://elperiodicodelaenergia.com/europa-necesita-mas-de-10-gigafabricas-de-baterias-para-coches-electricos-como-la-de-tesla/



    y mas info en https://www.adslzone.net/2018/02/05/baterias-litio-metal-solidenergy/
  4. La computación cuántica se ha presentado como una de las grandes promesas de cara al futuro, aunque como todos sabéis es un camino realmente complicado y lleno de piedras, donde los avances llegan con cuenta gotas y en el que todavía no tenemos claro ni siquiera si de verdad podremos llegar a sacarle todo el partido que realmente puede ofrecer.

    Actualmente los grandes gigantes que están invirtiendo recursos para llevar a buen puerto el desarrollo de ordenadores cuánticos han apostado por llevar a cabo una aproximación distinta, es decir, totalmente alejada de las bases fundamentales que sustentan la computación estándar, pero Intel ha decidido seguir un camino diferente.

    Según podemos leer en Hexus el gigante del chip está intentando llevar el silicio a la computación cuántica, una idea que desde luego supone un enorme desafío y que todavía se encuentra en una fase temprana, pero que si acaba teniendo éxito podría colocar a Intel en una posición privilegiada.

    De momento los ingenieros de la compañía aseguran que han sido capaces de llevar las capas de silicio puro que necesitan a las obleas tradicionales, de las que se obtienen los chips que posteriormente serán utilizados para crear soluciones adaptados a dicha forma de computación.

    http://www.muycomputer.com/wp-content/uploads/2016/12/computaci%C3%B3n-cu%C3%A1ntica-840x473.jpg

    Como habréis podido imaginar este proyecto supone una inversión importante y tiene una proyección a largo plazo, pero desde luego Intel tiene medios más que suficientes para convertirse en uno de los grandes dentro de la computación cuántica y no, no nos referimos únicamente al tema económico, sino también al talento de sus trabajadores.


    Ver información original al respecto en Fuente:
    http://www.muycomputer.com/2016/12/25/intel-silicio-computacion-cuantica/
  5. Ya es todo un hecho que los correos electrónicos filtrados por WikiLeaks se han convertido en todo unterremoto mundial desde sus publicaciones. Pero en los últimos meses, estas filtraciones han dado un paso más allá. Como ya publicamos, John Podesta, jefe de la campaña de Hillary Clinton, intercambiaba correos electrónicos con el ex astronauta de la NASA Edgar D. Mitchell, en los cuales ambos comentaban sobre un contacto con inteligencia extraterrestre.

    Pero cuando pensábamos que no podía haber algo más extraño, ahora unos correos electrónicos publicados por Wikileaks el pasado octubre incluían unos misteriosos mensajes entre Podesta y un miembro de una organización secreta del gobierno canadiense. En los correos electrónicos advertían sobre una catástrofe global en 20 años debido a un movimiento continuo del Polo Norte geomagnético hacia el Ecuador.

    Una inquietante filtración

    El autor del correo electrónico era Ken Coffin de Edmonton, Alberta, Canadá, un miembro de una organización gubernamental secreta canadiense que estaba intentado que el gobierno de los Estados Unidos compartiera la información acerca de su contacto con razas extraterrestres tecnológicamente avanzadas, ya que estos son los únicos que podrían salvar a la humanidad de la inminente extinción debido al movimiento continuo del Polo Norte geomagnético hacia el Ecuador.

    Dicho esto, Coffin advirtió Podesta que la negativa del gobierno de los Estados Unidos para compartir la información sobre su contacto con razas extraterrestres avanzados pone en peligro a la humanidad. En el controvertido correo electrónico hizo hincapié en que existía la necesidad de una mayor cooperación entre los EE.UU. y Canadá, y advirtió que podríamos estar todos muertos en 20 años debido al movimiento del Polo Norte magnético hacia el Ecuador, lo que causaría cambios catastróficos en el medio ambiente global que podría llevarnos a una nueva extinción.

    Yo represento a una organización canadiense que no existe, que se parece a DARPA, pero que trabaja con el gobierno para ejercer la actividad de crecimiento positivo, informó Coffin en un correo electrónico a Podesta. Nuestros intereses se centran en la contribución al crecimiento positivo de la humanidad. Creemos que podemos hacer un mundo mejor, más feliz y más pacífico. Pero no podemos hacerlo si estamos a punto de ver como ocurre un evento de extinción masiva. Con el Polo Norte magnético moviéndose hacia el Ecuador, necesitamos ayuda.

    http://i0.wp.com/www.mundoesotericoparanormal.com/wp-content/uploads/2016/11/wikileaks-extincion-global.jpg?resize=550%2C319

    De acuerdo con lo escrito por Coffin, el Polo Norte ya se habría desplazado a Siberia y en 10 años estará sobre el Mar Negro. Y en 20 años llegará a Indonesia y el impacto de los cambios dramáticos podrían acabar con la humanidad. Coffin cuyo apellido probablemente sea un seudónimo, declaró que el gobierno canadiense era consciente de que el gobierno de los Estados Unidos ha firmado en secreto un tratado con razas extraterrestres tecnológicamente avanzadas, pero reconoce que no entiende como Canadá y los otros aliados oculta esta información a la población.

    Advirtió que la no divulgación de la información sobre contactos con civilizaciones extraterrestres pone a la humanidad en un gran riesgo porque nuestra única oportunidad de sobrevivir es llegar a un acuerdo con razas de otros mundos con el conocimiento científico y tecnológico suficiente para evitar la inminente catástrofe global.

    Tenemos que encontrar aliados para ayudarnos, continuó explicando Coffin. O en más de 20 años todos vamos a estar muertos. Tenía curiosidad de por qué la NASA informa a la Agencia Espacial Canadiense con ciertos escenarios de anomalías equivocadas o con información al respecto que no se está produciendo. Nuestra inteligencia es limitada. ¿Por qué estamos siendo bloqueados? Requerimos la divulgación completa de todo contacto extraterrestre y todos los tratados de los EE.UU. con los extraterrestres. Seremos de inteligencia débil, pero no somos su alimento, mano de obra, o generadores de recursos para los señores extraterrestres. Nuestra información proviene de su propio Departamento de Defensa, y casualmente también por fuentes fidedignas. Ahora queremos saber si vamos a tratar de hacer algo o nos vamos a quedar quietos como la última vez. Mi consejo es que debemos hacer algo al respecto. Necesitamos más información porque nuestros datos actualmente no están al día. Tenemos que saber si los extraterrestres nos ayudarán. ¿Cuáles son sus intenciones? ¿Son hostiles?

    Científicamente comprobado

    Aunque los escépticos creen que el correo electrónico a Podesta sugiere que podría haber sido escrito por un bromista, recientes investigaciónes científicas muestran que el Polo Norte magnético de la Tierra se está moviendo 64 kilómetros por año y que el cambio en curso podría conducir eventualmente a una completa inversión de los polos. Teóricamente el norte magnético está situado cerca de la isla de Ellesmere en Canadá, pero recientemente se comenzó a moverse hacia Rusia a un ritmo sin precedentes.

    Extinción global 20 años

    La aceleración repentina hacia Rusia en la última década ha llevado a especular que el campo magnético de la Tierra podría dar la vuelta, haciendo que las brújulas se inviertan y que el sur se convierta en el norte. Con la tasa actual de cambio, los compases de navegación están cambiando aproximadamente un grado cada cinco años. En noviembre de 2015, la NASA confirmó que el movimiento del Polo Norte magnético de la Tierra también tiene relación con el debilitamiento del campo magnético de la Tierra. Según los investigadores, el campo magnético de la Tierra se ha debilitado significativamente en los últimos 160 años, y podríamos presenciar una inversión completa de los polos magnéticos en menos de 100 años.

    Se teme que el debilitamiento del campo magnético de la Tierra podría exponer la vida en la Tierra a la peligrosa radiación solar porque el campo magnético actúa como un escudo que nos protege de la exposición de las radiaciones nocivas de las erupciones solares y eyecciones de masa coronal (CME). Según algunos investigadores, un cambio de polos magnéticos ya ocurrió hace 41.000 años durante la edad de hielo, lo que podría haber causado la extinción de los neandertales. Por lo tanto, un cambio en los próximos 100 años podría poner en peligro la supervivencia de la humanidad.

    Los correos filtrados de Podesta no dejan de sorprender, nos hemos encontrado con información sobre el contacto extraterrestre y sobre el mítico planeta Nibiru o Planeta X en curso de colisión con la Tierra. Pero este último email es mucho más preocupante que los demás, habla de una inminente extinción en la Tierra.



    Ver información original al respecto en Fuente:
    http://www.radiosantiago.cl/nuevas-filtraciones-de-wikileaks-advierten-del-peligro-de-una-extincion-global-en-20-anos/
  6. El ordenador cuántico: cuando el qubit se coma al bit


    Ordenadores, discos duros, memorias, teléfonos inteligentes, tablets… Estamos acostumbrados a que los dispositivos informáticos sean cada vez más pequeños y potentes. Esta evolución ya fue descrita en los años 60 por Gordon Moore, uno de los fundadores de Intel, quien notó que el tamaño de estos dispositivos se reducía a la mitad cada 18 meses. De mantenerse esta tendencia, cosa que hasta ahora ha ocurrido en líneas generales, en pocos años habremos alcanzado la escala de las partículas atómicas.

    Quantum machine
    Máquina cuántica de un qubit desarrollada por Aaron D. O’Connell. / Wikipedia

    El problema es que el comportamiento de estas partículas es muy distinto al que tienen los cuerpos en el mundo macroscópico, el que habitamos los seres humanos. Las poco intuitivas leyes que rigen el mundo de las partículas atómicas, definidas por la mecánica cuántica, nos obligan a transformar el modo en que transmitimos y procesamos la información. En la escala de los nanómetros, los electrones escapan de los canales por los que deben circular (efecto túnel) haciendo que los chips dejen de funcionar.

    Sin embargo, lo que en principio se presenta como una desventaja abre un gran abanico de oportunidades, como la posibilidad de desarrollar ordenadores cuánticos con una capacidad de cálculo extraordinaria. La clave reside en utilizar uno de los fenómenos más desconcertantes del mundo cuántico, la superposición de estados, para sustituir la unidad mínima de información de la computación tradicional, el bit, por una nueva unidad con un potencial mucho mayor, el qubit o quantum bit. Aunque las implicaciones de este concepto son muy serias, el término fue acuñado de forma jocosa por su similitud fonética con el cubit inglés: el codo, una unidad de medida en desuso.

    Vayamos por partes. Según la mecánica cuántica todas las partículas atómicas pueden estar en varios estados a la vez. Es la acción de medir algún parámetro (velocidad, posición, etc.) la que rompe la superposición y lleva a la manifestación de un estado determinado. Inspirados en la famosa paradoja de Schrödinger, podríamos decir que un gato cuántico encerrado en una habitación hermética junto a una trampa mortal, está vivo y muerto al mismo tiempo hasta que se abre la puerta del recinto. El acto de abrir la habitación –la observación o medida– es lo que hace que el gato asuma uno de los dos estados posibles: vivo o muerto.

    Algo similar puede ocurrir con ciertos parámetros de las partículas cuánticas: aunque se encuentran en una superposición de estados, en el momento de la medición solo pueden adoptar uno de entre dos posibles. Esto sucede en ciertas ocasiones con el nivel energético de los átomos, la polarización de los fotones o el espín de los electrones –la dirección en la que ‘giran’ sobre sí mismos–. En el caso del espín, por ejemplo, al medir solo podemos encontrarlo hacia arriba –digamos arbitrariamente que esto significa que gira en el sentido de las agujas del reloj– o hacia abajo –girando en sentido contrario–.

    Pues bien, las partículas con estas propiedades se comportan como qubits. El físico del CSIC Salvador Miret explica que, a diferencia de un bit, que representa un 0 o un 1, un qubit puede transmitir esos dos estados y una variedad ilimitada de estados intermedios o de superposición. En otras palabras, mientras que con un bit solo podemos decir si el gato está vivo (0) o muerto (1), un qubit puede albergar el dato de que el gato está mitad vivo, mitad muerto; tres cuartos vivo, un cuarto muerto; o un 25,32% vivo y un 74,68% muerto… Las posibilidades son infinitas porque los qubits no expresan magnitudes discretas, como los bits, sino continuas, añade el investigador.

    Sistema cuántico
    Sistema de cuatro qubits desarrollado por IBM. / IBM

    En consecuencia, el comportamiento de las combinaciones de bits y qubits también es muy diferente. Si con un bit podemos expresar dos estados (0 y 1), con dos podemos expresar cuatro (00, 01, 10 y 11) y con tres, ocho (000, 001, 010, 011, 100, 101, 110, 111). Por cada bit que añadamos a la cadena el número de posibilidades se incrementará de forma exponencial. Ahora bien, aunque el número de posibilidades puede llegar a ser enorme, siempre será finito.

    Los grupos de qubits no solo permiten albergar una infinidad de valores sino que hacen que la capacidad de procesar información de forma simultánea crezca exponencialmente gracias a la superposición y al entrelazamiento cuánticos –también llamado correlación–. Teóricamente con un qubit podríamos hacer al menos dos operaciones paralelas; con dos, cuatro; con tres, ocho; y así sucesivamente. Esto supone una importante novedad con respecto a la informática tradicional, que hasta hace relativamente poco tiempo afrontaba las operaciones de modo lineal y no ofrece la misma capacidad de los qubits para trabajar de forma simultánea.

    Imaginemos, por ejemplo, que queremos encontrar la salida a un enorme laberinto. La computación clásica tendría que procesar los distintos caminos uno por uno o en pequeños grupos hasta encontrarla, mientras que la computación cuántica nos permitiría probar miles de caminos en un solo segundo. Así, un ordenador cuántico de 30 qubits equivaldría a un procesador de 10 teraflops (10 millones de millones de operaciones por segundo), cuando los ordenadores actuales trabajan en el orden de los gigaflops (miles de millones de operaciones). Los investigadores estiman que con 60 bits cuánticos podría construirse un ordenador más potente que todos los ordenadores clásicos de la Tierra.

    Llegados a este punto, es inevitable preguntarse por qué no existe aún el ordenador cuántico. La principal dificultad es lograr que las partículas interactúen entre ellas sin interferencias del entorno. La interacción no controlada con otras partículas destruye las propiedades cuánticas de las partículas haciendo que se rompa la coherencia (decoherencia) y que, entre otras cosas, abandonen la superposición de estados; por lo que resulta imposible obtener resultados que vayan más allá de lo que se conseguiría operando con bits.

    Ver informacion al respecto en Fuente:
    http://blogs.20minutos.es/ciencia-para-llevar-csic/2015/09/08/el-ordenador-cuantico-cuando-el-qubit-se-coma-al-bit/
  7. El almacenamiento de datos es hoy en un día una cuestión habitual de nuestra vida, gran parte de nuestra información está almacenada de forma digital en servidores por todo el mundo, de igual forma, tenemos datos en nuestro ordenador, smartphone, discos duros y diversas unidades de almacenamiento. Pero es curioso que el chip de memoria que usamos actualmente, fue creado en 1989, sí, hace 26 años.

    Al parecer podríamos estar ante la primera gran actualización de los chips de memoria, esto gracias a que el día de hoy, Intel y Micron Technologies dieron a conocer que ya han arrancado con la producción del nuevo y revolucionario chip 3D Xpoint, una nueva categoría de memoria no volátil que aseguran, es 1000 veces más rápida que la arquitectura NAND.
    Una revolución en el almacenamiento de datos

    La arquitectura NAND es la que hace posible el uso de la memoria Flash en tarjetas de memoria, así como en unidades SSD. Este tipo de memoria ofrece muchas ventajas y su precio sigue disminuyendo con el paso del tiempo, el problema es que aun con estas ventajas, es mucho más lenta que la DRAM, que es actualmente la más veloz del mercado, pero también la más cara, además de que es volátil.

    Según Intel y Micron, su nueva memoria 3D Xpoint traerá lo mejor de ambos mundos, es decir, no volátil, asequible y lo más importante, 1000 veces más rápida que la NAND y 10 veces más rápida que DRAM, algo que muchos expertos creían imposible.

    La tecnología que usa 3D Xpoint es posible gracias a que omite el uso de transistores, basándose exclusivamente en un material que es capaz de cambiar los bits de baja resistencia a un estado de alta resistencia. El diseño del entramado es una especie de ajedrez tridimensional, que permite que los datos se almacenen y se recuperen de forma individual a una gran velocidad.


    Mark Adams, presidente de Micron Technologies, mencionó:
    "Uno de los mayores obstaculos en la informática moderna es el tiempo que demora el procesador para acceder a los datos en los espacios de almacenamiento a largo plazo".


    Por su parte, Rob Crooke, vicepresidente de Intel, se refirió así a este nuevo avance:
    "Durante décadas, la industria ha buscado formas de reducir el tiempo de demora entre el procesador y los datos, para así permitir un análisis mucho más rápido. Esta nueva clase de memoria no volátil logra este objetivo y ofrece prestaciones que cambian las reglas del juego para las soluciones de memoria y almacenamiento".



    Intel y Micron sólo han mencionado las ventajas de 3D Xpoint, pero aún no hay nada acerca de las posibles limitaciones que nos ofrece esta nueva tecnología. Los primeros desarrollos basados en 3D Xpoint ya están actualmente en producción para algunos "clientes seleccionados" que empezarán a probar esta nueva memoria hacia finales de año.
    Las compañías están conscientes de que la memoria Flash seguirá siendo la tecnología dominante por un par de años más, ya que 3D Xpoint inicialmente está enfocada para el uso en centros de datos de grandes compañías, así que tendrán que pasar varios años para que la veamos en productos de consumo, pero aun así, esta nueva tecnología podría ser pieza clave pare el futuro del almacenamiento de datos.


    Ver informacion original al respecto en Fuente:
    http://www.xataka.com/componentes/memoria-1000-veces-mas-rapida-que-la-memoria-flash-es-lo-que-dice-haber-conseguido-intel
  8. El grafeno se ha convertido en el maná científico de los últimos años, gracias a estudios que prometen, entre otras cosas, pantallas computarizadas táctiles y flexibles, baterías de larga duración, desalinización del agua y celdas solares superpotentes; todo construido con lo que se considera el material más delgado (y potencialmente más fuerte) del planeta. Por ello, hacia fines de 2014, en todo el mundo se habían patentado más de veinticinco mil aplicaciones basadas en grafeno.

    Un inesperado beneficiario de este milagro es el arte. Investigadores de un proyecto llamado INSIDDE están desarrollando un escáner de grafeno que —dicen— penetra capas de pintura y mugre para revelar rasgos hasta ahora desconocidos de obras de arte bi y tridimensionales, pero sin poner un dedo sobre los delicados artefactos.

    Es lo último en el creciente arsenal de tecnologías de imágenes que los conservadores pueden utilizar para investigar pinturas y otras creaciones. Por ejemplo, las radiografías penetran la superficie de una pintura e identifican ciertos pigmentos ocultos que tienen metales de número atómico elevado, como el plomo del color blanco, explica Jennifer Mass, científica del Museo Winterthur, en Delaware, quien en 2014 fue parte del equipo que utilizó una tecnología radiográfica de punta en La habitación azul, de Picasso (1901), investigación que reveló la pintura oculta de un hombre barbado con corbata de moño.

    No obstante, hay limitaciones: los pigmentos de número atómico bajo, como azul de ultramar, no aparecen en las radiografías y las imágenes infrarrojas —otra herramienta utilizada a menudo en investigaciónes artísticas— se limitan a revelar los trazos del dibujo. En cambio, el dispositivo de grafeno utiliza radiación de terahercio, que cae entre la radiación infrarroja y las microondas en el espectro electromagnético; y según sus inventores, es capaz de alcanzar las capas intermedias de la pintura, donde no puede acceder la radiación infrarroja.

    Tal vez su adopción general no sustituya por completo el estándar de oro en la ciencia de la conservación: una minúscula muestra de pigmento, encapsulada en resina, cortada transversalmente, y sometida a experimentos. Pero no significa que las imágenes en terahercios no cumplan un propósito. Cada nueva técnica no invasiva nos acerca a la información que proporciona una muestra de corte transversal, afirma Mass.


    Ver informacion original al respecto en Fuente:
    http://nwnoticias.com/#!/noticias/esta-mentira-dice-la-verdad
  9. En unos meses será posible adquirir una bombilla desarrollada por investigadores de la Universidad de Manchester y el Instituto Nacional del Grafeno (NGI) del Reino Unido que promete ser más eficiente, duradera y barata que las luces de LED.

    Según reclaman sus creadores, se trata del primer producto para el consumo comercialmente viable basado en grafeno. Hasta ahora, el llamado material del futuro se ha aplicado en la fabricación de raquetas de tenis, esquís o tinta conductora de electricidad y, entre otras, posee ventajas prometedoras para el sector de la generación y almacenamiento de energía.

    Y es que al grafeno se le conoce por ser flexible, impermeable, transparente, extraordinariamente resistente, abundante, económico y sobre todo, por conducir la electricidad mejor que ningún otro material conocido.

    Eficientes y duraderas

    http://s03.s3c.es/imag/_v0/225x250/8/a/2/grafeno_bombilla.jpg


    Por todas estas características, sus desarrolladores aseguran que esta nueva bombilla consumirá un 10% menos que las actuales LED, que a su vez consumen hasta un 85% menos que las tradicionales, y también tendrá una mayor vida útil (las LED duran hasta 40 veces más). Su precio "competitivo" de venta al público, que la BBC estima que rondará las 15 libras (20-22 euros), según adelanta la BBC.

    La bombilla no utiliza un filamento regular como las bombillas incandescentes, sino que está hecha de LEDs recubiertos de grafeno.

    El grafeno fue aislado por primera vez en 2004 en la Universidad de Manchester, hecho que les valió a los científicos Andre Geim y Kostya Novoselov el Premio Nobel de Física el 2010. Ambos científicos trabajan ahora mano a mano con varias decenas de empresas para comenzar a desarrollar productos realizados con este material. Además, de la bombilla, baterías de carga rápida y con más capacidad, pantallas táctiles flexibles y aviones ligeros son sólo algunas de las tecnologías basadas en grafeno que podrían estar en camino.

    Ver informacion al respecto en Fuente:
    http://www.eleconomista.es/empresas-finanzas/noticias/6684095/05/15/Llega-la-primera-bombilla-de-grafeno-consumira-menos-que-el-LED-y-sera-mas-barata.html#Kku8y4B4N3XjL1WP
  10. Graphenano, compañía española productora de grafeno a escala industrial, se ha unido a la Universidad de Córdoba para desarrollar las primeras baterías de polímero de grafeno.

    Esta siempre prometedora tecnología abre la puerta al desarrollo de baterías capaces de realizar recargas ultra rápidas, al mismo tiempo que logran multiplicar la densidad energética de las actuales de iones de litio y reducir su peso. Según sus creadores, un coche eléctrico dotado de una batería de este tipo, podría recargar al completo su batería en apenas 8 minutos, suficientes para moverse durante unos 1.000 kilómetros.

    http://forococheselectricos.com/wp-content/uploads/2014/12/gm-graphenano-arre.jpg

    grafeno

    Esto es gracias a la mayor densidad energética que sus diseñadores traducen a datos. Si una batería de litio actual cuenta con unos 150 Wh/Kg, usando grafeno la cifra se va hasta más allá de los 500 Wh/kg. A todo lo anteriormente dicho, el grafeno también añade otro aspecto clave para el comprador de un coche eléctrico, y es que su duración es mucho mayor que el litio, concretamente cuatro veces más. Esto nos puede permitir pensar en coche que duren de forma prácticamente ilimitada.

    Uno de los aspectos más destacados de este diseño es que no está en una fase inicial de desarrollo, si no que ya encara la fase de pruebas reales. Grabat Energy será la encargada de la fabricación de las celdas. Unas celdas que han llamado la atención de al menos dos de los grandes fabricantes de coches alemanes, que empezarán a probar este diseño en sus modelos eléctricos a lo largo de 2015.

    ompletan la batería de buenas noticias otro elemento capital para el desarrollo de esta tecnología, el precio. Según el representante de Graphenano, el coste de producción de este sistema puede llegar a ser hasta un 77% más económico que la producción con litio.

    Sin duda la guinda de una propuesta que parece demasiado buena para ser verdad, y de la que estaremos muy atentos para conocer su desarrollo.

    Ver informacion original en Fuente:
    http://forococheselectricos.com/2014/12/universidad-de-cordoba-desarrolla-una-bateria-de-grafeno.html