NEUROREGENERACIÓN CELULAR: ¿ES POSIBLE LA AUTORREPARACIÓN DEL CEREBRO?

http://www.rtve.es/drmn/embed/audio/2672004

tomas schutte tandem_x_2

La neuroregeneración celular, la autorreparación del sistema nervioso central después de sufrir lesiones, abriría la puerta a la cura de muchas enfermedades. ¿Tiene nuestro cerebro esa capacidad  regenerativa? José Antonio López Guerrero comparte en OpenMind su espacio de divulgación en RNE, “Entre Probetas”, para introducirnos en el mundo de la neuroregeneración cerebral

Si todavía alguno de ustedes sigue pensando que nuestro cerebro está formado por neuronas sin capacidad de regeneración, decirles que se equivocan –por poco, pero se equivocan-. De hecho, tanto en nuestra etapa postnatal como adulta, en la zona encefálica conocida como Zona Subventricular (SVZ), sigue existiendo neurogénesis, la cual, según todos los indicios, está controlada por mecanismos intrínsecos de células madre neurales que interaccionarían con señales conductoras extracelulares.No obstante, dichos mecanismos moleculares todavía no son del todo conocidos.

En este sentido, investigadores de la Escuela Universitaria de Medicina Duke, en el Norte de Carolina, EE.UU. acaban de publicar en Nature Neuroscience, con Patricia Paez-Gonzálezcomo primera firmante, la identificación de unas neuronas específicas –denominadas Neuronas colin-acetiltransferasa- residentes en la zona subventricular de roedores que contribuirían en la neurogeneración.

Estas neuronas estudiadas mostraron diferencias morfológicas y funcionales con otras neuronas vecinas y liberarían el neurotransmisor acetilcolina al activarse y controlar la proliferación neurogénica. De hecho, la liberación de la acetilcolina, junto a otros factores, sería fundamental para dar la señal a las células madre neurales para aumentar la neurogénesis con el incremento del número de los denominados neuroblastos.

La investigación revela un mecanismo hasta la fecha desconocido sobre la conexión entre la neurogénesis llevada a cabo en la zona subventricular del cerebro y la activación de un tipo concreto de neurona presente en dicha zona, lo que daría futuras pistas para posibilitar la modulación neuroregenerativa, es decir, terapias, tanto en cerebros –y por lo tanto en individuos- sanos como enfermos. No lo olvide, el cerebro sí cuenta con capacidad de regeneración celular. ¿No es un poco más feliz ahora?

LLuvia-en-Panama

José Antonio López Guerrero (JAL).

Profesor titular de microbiología de la UAM. Investigador y director de cultura científica del Centro de Biología Molecular Severo Ochoa.

¿UN CÓDIGO GENÉTICO OCULTO?

solapado2pln

20 octubre 2014

El código genético es el conjunto de reglas que permiten traducir una secuencia denucleótidos, presente en el ARN, en la secuencia de aminoácidos de una proteína. Esta traducción es posible porque cada aminoácido se encuentra codificado por tres nucleótidos concretos a los que llamamos codón. Es un código casi universal, que funciona en todos los seres vivos conocidos. Un código no exento de complejidad pues al traducirlo no cambiamos sólo de idioma, sino incluso de sintaxis. Se pasa de un lenguaje de cuatro letras, las correspondientes a los diferentes nucleótidos que componen el ARN, a otro de veinte, los distintos aminoácidos proteicos.

johann_gregor_mendelpost

Una de las características más llamativas de este código genético es que esdegenerado yredundante. Esto quiere decir que la mayor parte de los aminoácidos son codificados por más de un codón. Hay 61 codones para sólo 20 aminoácidos… Es decir, hay codonessinónimos, que portan la misma información. Tradicionalmente, se consideraba que las mutaciones sinónimas no tenían ninguna trascendencia biológica dado que no alteraban la naturaleza del aminoácido codificado. Se hablaba demutaciones silenciosas. Este panorama, sin embargo, ha cambiado drásticamente a lo largo de los últimos diez años. Hoy sabemos que la degeneración del código genético influye en procesos como el control y coordinación de la expresión de genes o el correcto plegamiento de las proteínas. Hasta el momento, más de cincuenta enfermedades humanas han sido ya relacionadas con la existencia de mutaciones sinónimas, por ejemplo.

genotipo

Está completamente demostrado que las células no utilizan de forma indistinta los codones sinónimos. Existe una clara preferencia en función de las especies y de las circunstancias metabólicas en las que la traducción tenga lugar. Se dice que el código genético estásesgado; hay codones preferidos. Todo indica, por tanto, que existe una información adicional, más allá de la mera traducción. Una información que debe estar presente de alguna forma en el ADN y/o en el ARN mensajero (ARNm), la molécula encargada de trasladar la información codificada en los genes a losribosomas, las nanomáquinas que producen las proteínas. Una información que constituye un auténtico código genético oculto, que porta una información no explícita que sólo ahora se está empezando a vislumbrar. Un código que ejerce su influencia en la toma de decisiones acerca de cuándo y cómo se lee cada gen, cada secuencia de ADN o ARN, y no sólo en lo que sería la traducción directa de nucleótidos en aminoácidos. Un código que no afecta a la transmisión de la información propiamente dicha, sino a las reglas que la regulan. A cómo y cuándo se transcribe la información almacenada en el genoma.

codigo-genético-960x623

Según se va avanzando en el entendimiento de este nuevo código, surgen más y más evidencias de que la complejidad de un organismo no radica en su número de genes, como inicialmente se pensó, sino en suregulación. Es este avance el que permite explicar la sorpresa inicial que supuso descubrir que el genoma humano, el del organismo que creíamos como el más complejo, tuviese escasamente veinte mil genes. Un organismo aparentemente tan anodino como el arroz puede tener más del doble, por ejemplo. Un organismo que ni siquiera piensa… Y efectivamente parece ya también claro que este código genético no explícito puede influir poderosamente en esta regulación, especialmente controlando la expresión de los genes y la velocidad de la traducción del ARN en proteínas.

Simplificando un tanto, se puede decir que el control de la expresión de los genes se ejerce a través de la acción de una gran variedad de proteínas, que conocemos como factores de transcripción, que modulan precisamente la conversión del mensaje de ADN en ARN. Se habla detranscripción porque se utiliza un lenguaje casi idéntico, en el que sólo cambia una de las letras utilizadas, uno de los nucleótidos. La regulación la ejercen uniéndose, o no, a regiones concretas del ADN que actúan como auténticos interruptores que encienden, o apagan, la expresión de genes. Una mutación sinónima en una de estas regiones no cambiaría la naturaleza del aminoácido codificado, pero sí la de la secuencia de ADN que contiene dicho codón, haciéndola más o menos reconocible por el correspondiente factor. Es decir, podría cambiar drásticamente la cantidad y naturaleza de las proteínas producidas, conduciendo a la aparición de patologías originadas por fallos en la regulación de la transmisión de la información del código, aunque no en el contenido literal de la misma.

bioteknologia

El otro aspecto, la velocidad a la que los ribosomas producen las proteínas, influye tanto en la fidelidad del proceso como en su correcto plegamiento. Un ribosoma que vaya demasiado rápido, o demasiado despacio, cometerá más errores. Los ribosomas, por otra parte, lo que sintetizan son cadenas lineales de aminoácidos que para ser funcionalmente activas tienen que plegarse en forma de estructuras tridimensionales concretas, que se denominan conformaciones nativas. Variaciones en esta velocidad influyen, a su vez, en la cinética del plegamiento y pueden conducir a conformaciones erróneas, no funcionales. Es decir, existe una velocidad óptima de producción para cada proteína. Cuando la proteína es muy grande, el propio ribosoma produce pausas para favorecer este correcto plegamiento. Ya se sabe que la secuencia del ARNm influye decisivamente en la velocidad a la que actúa el ribosoma a través de la formación de pequeñas estructuras, resultantes de interacciones entre nucleótidos, y de la disponibilidad de otras moléculas de ARN, los ARN de transferencia (ARNt), que son los que transportan el aminoácido correcto para cada codón concreto. Por un lado, un cambio sinónimo en un codón puede, por tanto, alterar la estructura del ARNm, haciendo que varíe la velocidad a la que lo lee el ribosoma. Por otro, puede cambiar la disponibilidad de los ARNt. Normalmente, los codones sinónimos más frecuentes se corresponden también con los ARNt más abundantes. Si una mutación sinónima produce un codón poco frecuente, la disponibilidad del ARNt correcto será menor y, por ello, la velocidad de traducción disminuirá, pudiéndose alterar la conformación final de la proteína.

En definitiva, este nuevo código genético oculto, regulador, no explícito, que sólo ahora estamos empezando a comprender, nos permite volver a situarnos en el centro del Universodel que parecíamos haber sido desplazados por los resultados iniciales del Proyecto Genoma Humano.Tenemos pocos genes, pero su regulación es compleja.Presumiblemente, extremadamente compleja en organismos tan importantes como nosotros… Nuestra visión antropocéntrica de la Naturaleza queda así temporalmente a salvo. Veremos hasta cuándo.

Bibliografía recomendada

Hunt RC, Simhadri VL, Iandoli M, Sauna ZE, Kimchi-Sarfaty C (2014)Exposing synonymous mutations. Trends in Genetics 30, 308-321.

Ivanova NN, Schwientek P, Tripp HJ, Rinke C, Pati A, Huntemann M, Visel A, Woyke T, Kyrpides NC, Rubin EM (2014) Stop codon reassignments in the wild. Science 344, 909-913.

Martínez del Pozo, A. (2010) ¿Estaba Christian Anfinsen en lo cierto? Anales de la Real Sociedad Española de Química 106, 96-103.

Weatheritt RJ, Babu MM (2013) The hiden codes that shape protein evolution. Science 342, 1325-1326.

Álvaro Martínez del Pozo

Profesor e investigador, Universidad Complutense de Madrid

Fuente:

http://www.bbvaopenmind.com

FACEBOOK TE SEGUIRÁ MANIPULANDO,PERO CON MÁS CUIDADO

REDES SOCIALES

– La red social anuncia cambios en su forma de experimentar con los usuarios tras la polémica que provocó un estudio en el que fomentaron sentimientos positivos y negativos

JAVIER SALAS  3 OCT 2014

Los experimentos con usuarios serán supervisados. / FACEBOOK

Durante una semana de 2012, Facebook sometió a casi 700.000 de sus usuarios a un experimento para comprobar si las emociones son contagiosas en las redes sociales. Para ello, provocó que algunos internautas vieran más publicaciones tristes y que otros vieran más noticias positivas de entre las que comparten sus amigos. El resultado fue que los usuarios se contagiaron aunque mínimamente por estos sentimientos, usando más palabras negativas o positivas en sus propias publicaciones. Cuando se conoció este estudio a través de una revista científica el pasado junio, se abrió una controversia sobre los límites éticos de este tipo de experimentos, esencialmente porque las cobayas humanas no sabían que lo eran.

Ante la avalancha de críticas, Facebook pidió disculpas y se replanteó cómo enfocar este problema: algunos temieron que cerraran su equipo de científicos sociales o que, sencillamente, dejaran de publicar sus experimentos: ojos que no ven, opinión pública que no se indigna. Ahora, tras tres meses de reflexión, la compañía que dirige Mark Zuckerberg ha anunciado que tratarán de cuidar mejor los límites éticos y la supervisión de estos estudios. “Estamos comprometidos con la investigación para mejorar Facebook, pero queremos hacerlo de la manera más responsable”, asegura en una nota Mike Schroepfer, director de Tecnología de la red social.

Queremos hacerlo de la manera más responsable”, asegura la compañía

Para ello, Facebook anuncia un marco más riguroso en el planteamiento y desarrollo de estudios en los que sus usuarios sean cobayas. A partir de ahora, si un ingeniero quiere jugar con las emociones de un grupo de personas deberá someter el experimento a una revisión interna. Hasta ahora, prácticamente cualquiera podía ensayar nuevos desarrollos con los usuarios sin mayores problemas,como explicó hace meses un extrabajador del grupo científico de Facebook.

Para ello, se crea un equipo multidisciplinar que abarca desde abogados a investigadores y que será el encargado de velar por la idoneidad de los experimentos. Además, los nuevos ingenieros deberán pasar un cursillo de seis semanas en el que se les educará en estas directrices que deberán seguir para realizar investigaciones con los usuarios. Facebook ha lanzado un espacio concreto en el que irá publicando todos estos estudios para mantener a los interesados al tanto de sus trabajos, que abarcan desde la difusión de chismorreos hasta la lucha contra el abstencionismo en las elecciones.

“Es importante comprometerse con la comunidad académica y publicar en revistas revisadas por pares, para compartir las innovaciones tecnológicas y porque servicios en línea como Facebook pueden ayudar a entender más acerca de cómo funciona el mundo”, defiende Schroepfer. Dado que no es posible dejar de hacer experimentos, ya que son necesarios para seguir “mejorando” la herramienta, muchos se temieron que optara por dejar de realizar estos estudios en colaboración con el mundo académico para difundirlo en revistas científicas.

Descargar-Facebook-6.0-en-espanol-gratis

Fuente:

http://elpais.com

EL CALENTAMIENTO GLOBAL SE HA DETENIDO POR LA ACUMULACIÓN DE CALOR EN EL OCÉANO ATLÁNTICO

e4437216dbb0a24f2a5a11aa9d53a2d5f9f9b7393c7f45e8e4a907cc176f64dc

MEDIO AMBIENTE Según un trabajo publicado en ‘Science’,se trata de un ciclo natural

EL CALENTAMIENTO GLOBAL SE HA DETENIDO…

d627516a746c7a5d7c2f0ef348cae439ca29a8e90c5a08ca2874ff91db0a440c

El efecto invernadero debido al aumento del CO2 en la atmósfera y el calentamiento del planeta durante la segunda mitad del siglo XX son una realidad científicamente incontestable. Pero desde el año 2000,el calor acumulado en la superficie terrestre parece haber desaparecido y las temperaturas medias globales han permanecido prácticamente inmutables durante los primeros años del presente siglo.

Una nueva investigación, realizada por expertos la Universidad de Washington (Estados Unidos) y que se acaba de publicar en la revista ‘Science’, muestra que ésta ausencia de calor se puede estar sumiendo en las profundidades del norte y el sur del Océano Atlántico y es parte de un ciclo natural. El calentamiento bajo la superficie del océano explica por qué las temperaturas medias mundiales del aire se han estancado desde 1999, a pesar de una mayor presencia de gases de efecto invernadero que atrapan el calor solar en la superficie de la Tierra.

c1ca5511700a18c16b048bb07d05863ebf7f71d23263fb99d5ff1de93e6edbca

Tras un rápido calentamiento en el siglo XX, este siglo ha visto hasta ahora muy poco aumento de la temperatura media de la superficie de la Tierra. Este cambio ha desatado más de una docena de teorías de la llamada interrupción del calentamiento global, que van desde la contaminación del aire a los volcanes o las manchas solares.

“Cada semana hay una nueva explicación de esta pausa -reconoce el autor Ka-Kit Tung, profesor de Matemáticas Aplicadas y profesor adjunto de Ciencias de la Atmósfera de la Universidad de Washington-. Muchos de los documentos anteriores se han centrado en los síntomas en la superficie de la Tierra, donde vemos muchos fenómenos diferentes y relacionados. Nosotros nos fijamos en el océano para tratar de encontrar la causa subyacente”.

3a47e49e900bc2f59009e6593f70a00d2e08a62fcd887e030de4ac91539abd3f

Los resultados muestran que una corriente de lento movimiento en el Atlántico, que transporta calor entre los dos polos, se aceleró a principios de este siglo para hundir el calor hacia casi 1.500 metros de profundidad. “El hallazgo es una sorpresa, ya que las teorías actuales han señalado al Océano Pacífico como el culpable de ocultar el calor -resalta Tung-. Pero los datos son bastante convincentes y demuestran lo contrario”.

Un ciclo natural

Tung y el coautor Xianyao Chen, de la Universidad del Océano de China, utilizaron observaciones recientes de temperaturas de aguas profundas de boyas Argo, que muestran el estado del agua a 2.000 metros de profundidad. Estos datos presentan un aumento de la disipación del calor hacia el año 1999, cuando se detuvo el rápido calentamiento del siglo XX.

5d7b13d1bdf1789708caa276d4af42f4

“Hay ciclos recurrentes que son impulsados por la salinidad que pueden almacenar calor en la profundidad del Atlántico y los océanos del Sur -argumenta Tung-. Después de 30 años de rápido calentamiento, ahora es el momento de la fase de enfriamiento”. Estos expertos detectaron que la mitad del rápido calentamiento en las últimas tres décadas del siglo XX se debía al calentamiento global y la otra mitad al ciclo natural del Océano Atlántico que mantiene más calor cerca de la superficie.

Cuando las observaciones mostraron una alteración en el ciclo oceánico, alrededor del año 2000, la corriente comenzó a hundir el calor más profundamente en el océano, para contrarrestar el calentamiento inducido por el hombre. El ciclo se inicia cuando el agua más salada y más densa en la parte norte de la superficie del Atlántico, cerca de Islandia, hace que el agua se hunda, cambiando la enorme velocidad de la corriente en el Océano Atlántico que hace circular el calor por todo el planeta.

7ae0db37a09654ff8c51b843c107b36f

“Cuando llega el agua pesada a la parte superior de agua ligera, se sumerge muy rápidamente llevándose calor”, resume Tung. Observaciones recientes en la superficie del Atlántico Norte muestran salinidad récord, según Tung, mientras que, al mismo tiempo, el agua más profunda en el Atlántico Norte exhibe un aumento de las cantidades de calor.

Los autores desenterraron datos históricos para demostrar que el enfriamiento en las tres décadas entre 1945 a 1975, que hicieron a la gente preocuparse por un posible comienzo de una edad de hielo, fue durante una fase de enfriamiento. Las oscilaciones de temperatura tienen un interruptor natural, de forma que durante el periodo de calentamiento, las rápidas corrientes provocan que agua más tropical se desplace hacia el Atlántico Norte, calentando la superficie y las aguas profundas.

01e135113c10ded0255e9579e17f622f02a0cf5529d82b46fc2664002b8273b4

En la superficie, este calentamiento derrite el hielo, lo que, a la larga hace que el agua superior sea menos densa y, después de algunas décadas, pone freno a la circulación, lo que desencadena una fase de enfriamiento de 30 años. Esta explicación implica que la actual desaceleración en el calentamiento global podría durar otra década, o más, y luego volverá un rápido calentamiento.

51b50f4ddde2495b388e2830bbb5bcce

Fuente:  

 

http://www.elmundo.es

La US Navy presenta el supercañón definitivo: El Railgun

Ciencia

93C9_550_31673

La US Navy presenta el supercañón definitivo: El Railgun

La-Marina-de-Estados-Unidos-desarrolla-el-primer-cañon-electromagnético
railgun2 navytobegint gd rail gun l

La Marina de Estados Unidos desarrolla el primer cañon electromagnético

Después de muchos años de desarrollo, ajustes y reajustes, la Marina de los Estados Unidos ha hecho pública esta semana la noticia de que su Railgun por fin se pondrá a prueba en el mar en apenas un año y medio. Para 2016, este supercañón, que no olvidemos ha costado casi una década de prototipos, estará totalmente operativo y funcionando como podemos ver ya en el video que acompaña a la noticia.

¿Qué tiene de especial este Railgun?

Bueno, lo interesante de este cañón es su funcionamiento que muchos han calificado de digno de las películas de “Star Wars” y que, como poco, se podría catalogar como “futurista”. Estamos ante la primera arma electromagnética capaz de lanzar un proyectil a velocidades supersónicas.

[Te puede interesar: Una empresa americana desarrolla la primera bala autoguiada hacia su objetivo]

Railgun tiene un alcance de más de 200 kilómetros y el proyectil lanzado supera hasta en siete veces la velocidad del sonido. Un nada despreciable Mach7 que unido a su capacidad de penetración (en el video podemos comprobar cómo traspasa fácilmente tres paredes de cemento) lo convierten en un arma temible para cualquier enemigo potencial.

[Relacionado: Llega la cámara que ve lo que hay detrás de la esquina]

El aspecto económico, en estos tiempos de crisis (incluso para los tradicionalmente generosos presupuestos militares en Estados Unidos) también supone un aliciente puesto que el coste de cada proyectil será de unos 25.000 dólares… Una cantidad elevada, sí, pero sustancialmente más barato que lanzar un misil cuyo coste aproximado varía entre los quinientos mil y el millón y medio de dólares.

Para hacerlo aún más futurista todo el asunto parece ser que el barco elegido para instalar este supercañón será el USNS Millinocket (JHSV-3), un buque de la clase Spearhead que hoy por hoy es uno de los más modernos y veloces de todo el mundo.

USNS Milinocket

Aunque no es propiamente dicho un buque ofensivo ya que está diseñado para tareas de transporte rápido de tropas y material, lo cierto es que la inclusión de este nuevo cañón electromagnético lo convertirían en una serie amenaza para cualquier objetivo ya sea por mar o por aire.

USNS Milinocket en los astilleros

El contraalmirante Mateo Klunder, responsable de hacer pública la noticia, se mostraba pletórico afirmando “Estamos hablando de un proyectil con un alcance de 160 millas, a una velocidad que puede ir a más de Mach 7 (8.575 kph)”… Si a esto unimos uno de los barcos más rápidos que existen, conseguimos un tándem realmente impresionante.

[Si te interesó este artículo, te gustará: Crean un nuevo material casi insumergible]

Fuente que utilizo:  https://es.noticias.yahoo.com

Ciencias Espaciales. Sequía en California

nasa-confirma-deformacion-cerebro-astronautas-misiones-espaciales_1_1135028 permico--644x362 fd27dfb7d8246265751240b54de660de

Usando herramientas que nunca existieron, la NASA está buscando en el cielo ¡y está encontrando cosas que jamás pensamos que podrían ser posibles! Agujeros negros, explosiones de rayos gamma e imágenes de objetos más comunes, en niveles de energía que no son comunes, se ven con ojos que extienden nuestra visión hasta lugares que están más allá de nuestros sueños. Estamos aprendiendo que el Universo es un lugar caótico, donde las islas pacíficas, como la Tierra, pueden ser pocas y aisladas. Asimismo, estamos entendiendo cómo la delicada danza cósmica del Sol y sus planetas protege la vida en la Tierra. Ciencia@NASA publica reportajes e imágenes del Universo a medida que lo vamos conociendo.

fd8ca351a8354348e781b9fb4cdbba11 f1912cbbf2a846f7f5bd293859d895c3 colonias-espaciales-nasa_2_968542

 

Sequía en California

17 de febrero de 2014

Ciencias espaciales

California está experimentando una extrema sequía; según algunas mediciones, la más profunda en más de un siglo. Investigadores de la NASA están investigando las causas subyacentes mientras que satélites, aviones y globos de gran altitud recolectan imágenes que llevan a reflexionar sobre el paisaje que se está desecando.

bishop

SEQUÍA EN CALIFORNIA

17 de febrero de 2014: Se considera a California como el “Estado Dorado”. Imagine ese dorado de color marrón. Toda la costa este de Estados Unidos está cambiando de color con el avance de la peor sequía que se haya producido en más de un siglo. De acuerdo con el Departamento de Agricultura de Estados Unidos y con la Administración Nacional Oceánica y Atmosférica (National Oceanic and Atmospheric Administration o NOAA, por su acrónimo en idioma inglés), la condición de sequía se volvió extrema en más del 62% de la superficie californiana, con muy pocas señales de mejorar.

california-drought-ra_webf c470c8287fce3a563bf8366c822f8a32 ac19b5e2ed404361cb07d88b4e950823

“A lo largo y a lo ancho de California, desde Oregón hasta México, todo se ve tan seco como un hueso”, comenta el climatólogo Bill Patzert, del Laboratorio de Propulsión a Chorro (Jet Propulsion Laboratory o JPL, por su sigla en idioma inglés). “Lo que hace las cosas aun peor es que la nieve acumulada en el almacenamiento de agua Sierras es un 20% inferior a lo normal para esta época del año”.

splash 

En un nuevo video de ScienceCast, se preguntan: “¿Esto es el cambio climático?” La respuesta está aquí.(en idioma inglés)

La sequía es tan severa que los satélites de la NASA pueden verla desde el espacio. El 18 de enero de 2014 (precisamente un día después de que el Gobernador de California Jerry Brown declaró el estado de emergencia), el satélite Terra, de la NASA, capturó una imagen desoladora del cordón montañoso Sierra Nevada. Donde tendría que haber miles de kilómetros cuadrados de nieve acumulada, solo había tierra y rocas desnudas.

En el Laboratorio de Propulsión a Chorro, un grupo de investigadores guiados por Tom Painter, se preparan para volar una aeronave Twin Otter sobre las Sierras e investigar la situación. Su “Observatorio de Nieve Aerotransportado” está equipado con un radar láser y un espectrómetro para medir la profundidad y la reflectividad de la nieve. Con esa información, es posible calcular el contenido de agua de las Sierras, en un rango del 5%, y también futuras tasas de deshielo con un margen de precisión similar.

“El Observatorio de Nieve Aerotransportado fue diseñado para momentos como este en los que realmente necesitamos saber el estado de la nieve”, dijo Painter. “Nuestro próximo vuelo será sobre la cuenca del río Tuolumne”. La cuenca del Tuolumne y su embalse, llamado Hetch Hetchy, son las principales fuentes de abastecimiento de agua para 2,6 millones de habitantes del área de la Bahía de San Francisco.
depositos-niveles-poniendo-peligro-agricultura_TINIMA20140129_0405_5 depositos-niveles-poniendo-peligro-agricultura_TINIMA20140129_0406_3

El cambio en el paisaje es tan dramático, que un grupo de estudiantes de ciencia de la escuela secundaria de California central voló en globos estratosféricos para fotografiarlo. Desde la estratosfera, Bishop, su ciudad natal, se parece a un asentamiento en el planeta Marte: imágen es, video

“La falta de nieve es realmente asombrosa”, dijo Amelia Koske-Phillips, de 17 años, quien es la presidente del club de ciencias denominado Earth to Sky Calculus (Cálculos de la Tierra al Cielo). “Nunca vi un invierno tan marrón como este”, agrega Carson Reid, de 16 años, quien es miembro del equipo de lanzamiento.

image 

Para obtener actualizaciones, consulte el Monitor de Sequía de Estados Unidos (en idioma inglés).

Bill Patzert culpa, en parte, a la sequía en la Oscilación Decadal del Pacífico u “ODP” (por su sigla en idioma español), un patrón de lenta oscilación de las temperaturas de la superficie marina en el Océano Pacífico. Actualmente, la “ODP” está en su fase negativa; una condición históricamente ligada a la cuña anticiclónica que bloquea las tormentas de la Costa Este y genera inviernos muy duros en el Oeste Medio y en la Costa Este.

714px-Humberto_12_sept_2007_1655Z

“A menudo me preguntan si esto es parte del calentamiento global”, dice Patzert. “Mi respuesta es que ‘aún no’. Lo que estamos experimentando ahora es una variabilidad natural que hemos visto muchas veces en el pasado. Aunque, en definitiva, el cambio climático podría provocar sequías mucho peores en el Oeste”.

Para obtener más información sobre el cambio climático y otros temas científicos de la Tierra, manténgase conectado a Science.nasa.gov.

Fuente que utilizo:   http://ciencia.nasa.gov

Primer ‘vistazo’ directo al instante del Big Bang

thumb1115

stephen-howking-fotografia--644x362

El científico británico Stephen Hawking ha destacado este martes que la detección de las ondas gravitacionales generadas después de la creación del Universo con el Big Bang es “otra confirmación de la inflación” cósmica hallada hace más de 30 años.

En unas declaraciones hoy a Radio 4 de la BBC, el prestigioso científico de la universidad inglesa de Cambridge ha recordado que esta “inflación” fue concebida por primera vez por el cosmólogo Alan Guth, quien argumentó que en la creación del Universo hubo un periodo de “aceleración”, una expansión ultrarrápida.

Hawking recordó que en 1982 invitó a científicos que evaluaban esta teoría a tomar parte en un “taller de trabajo” en la Universidad de Cambridge, donde concluyeron que era aceptada la idea de la “inflación” al comienzo del Universo, si bien -dijo- esto no fue confirmado a través de la observación hasta diez años después.

Fuente que utilizo ahora:    http://www.abc.es

thumb1112 thumb11

En sus declaraciones, Hawking señaló que la inflación puede generar “ondas gravitacionales”, algo que fue confirmado el lunes por científicos de la Universidad estadounidense de Harvard.

El Centro Harvard-Smithsonian para la Astrofísica de Massachusetts (EE.UU.) reveló que ha detectado por primera vez mediante un telescopio en el Polo Sur las “ondas gravitacionales primordiales” que se generaron tras el Big Bang.

El equipo dirigido por John Kovac ha logrado percibir por primera vez mediante el telescopio BICEP2 instalado en el Polo Sur, en un pequeño retazo de cielo, esas ondas gravitacionales, consideradas el Santo Grial de la cosmología al probar diversas teorías.

thumb1 thumb

Siempre interesado en el futuro del universo, Hawking cree que la especie humana “se enfrenta a una extinción inminente” si no se conquistan “nuevos mundos a través del cosmos”.

En una entrevista en el programa científico “Planet” del Canal 4 británico, Hawking estimó que habrá asentamientos humanos en la luna “dentro de 50 años” y que, en esa época, el hombre estará en el camino de poner un pie en Marte. En el planeta rojo, según sus teorías, no se vivirá hasta 2100.

“Nuestro planeta es un viejo mundo, amenazado con una población cada vez mayor y con recursos finitos. Debemos anticipar esas amenazas y tener un plan B”, declaró Hawking. “Si la especie humana quiere sobrevivir más allá de los próximos cien años, es imperativo que atraviese la negrura del espacio para colonizar nuevos mundos a través del cosmos”, agregó.

fondo_cosmico--644x362 JBock-BICEP2-NEWS-WEB--478x270

Primer ‘vistazo’ directo al instante del Big Bang

Hace unos 13.800 millones de años, el Universo que conocemos irrumpió violentamente como consecuencia de una gran explosión, el Big Bang. En menos de lo que dura un abrir y cerrar de ojos, el Cosmos se expandió de manera exponencial, extendiéndose hasta un punto que ni siquiera los mejores telescopios actuales son capaces de ver. Es lo que se conoce como inflación cósmica, cuya evidencia directa acaba de ser anunciada por primera vez. Un amplio equipo de investigadores, liderados por el Centro Harvard-Smithsonian para la Astrofísica, ha dado a conocer, en una rueda de prensa precedida por una gran expectación, la primera detección de las ondas gravitacionales, pequeñas deformaciones en el tejido del espacio-tiempo que se transmiten a la velocidad de la luz y recorren todo el Cosmos. Descritas como los «primeros temblores del Big Bang», su hallazgo es considerado el «santo grial» de la Cosmología.

Evitar la «cara de Marte»

Universos paralelos, ¿existe alguna señal?

Cada universo está contenido en una «burbuja»

El equipo ha llevado a cabo simulaciones de qué aspecto tendría el cielo con y sin colisiones cósmicas y ha desarrollado un innovador algoritmo para determinar cuál encaja mejor con la gran cantidad de datos del fondo cósmico de microondas tomados por la sonda WMAP de la NASA. «El trabajo representa una oportunidad de poner a prueba una teoría que es realmente asombrosa: Que vivimos en un extenso multiverso, donde aparecen constantemente otros universos», dice Stephen Feeney, otro de los investigadores.

thumb1114 thumb1113

Uno de los muchos dilemas a los que se enfrentan los físicos es que los seres humanos tenemos una gran facilidad para encontrar patrones que en realidad no son más que una mera coincidencia, como por ejemplo la famosa «cara de Marte». Por ese motivo, el algoritmo obedece a unas reglas muy estrictas, para que no haya equívocos.

De momento, los científicos creen que los primeros resultados no son lo suficientemente concluyentes para descartar o aceptar la existencia de un multiverso. Sin embargo, confían en que los nuevos datos obtenidos por el satélite Planck de la Agencia Espacial Europea (ESA) ayuden a resolver el misterio.

La bacteria Salmonela revela sus secretos a bordo del Transbordador Espacial

Salmonella-Newport_2127192b huevo
La bacteria salmonela revela sus secretos a bordo del transbordador espacial

El ambiente de ingravidez del espacio confunde a la bacteria salmonela y le hace creer que se encuentra dentro de los intestinos humanos. ¿El efecto? Una bacteria más agresiva.

NASA

Mayo 6, 2009: ¿Qué te sucede salmonela?

Ésta es la pregunta que han estado haciéndose los investigadores desde el momento en que la bacteria salmonela, cultivada a bordo del transbordador espacial, regresó a la Tierra mostrando entre 3 y 7 veces más virulencia que sus contrapartes cultivadas en tierra bajo idénticas condiciones. Descubrir por qué sucede esto podría ayudar a resguardar a los astronautas de enfermedades y llevaría a implementar nuevos tratamientos contra la intoxicación producida por los alimentos y otras enfermedades comunes en la Tierra.

consumo-pollo Salmonella bacteria, SEM 100321045329-165-243

see caption Nuevas investigaciones llevadas a cabo por Cheryl Nickerson (de la Universidad Estatal de Arizona) y sus colegas no sólo explican por qué la bacteria salmonela está más activa en el espacio, sino también cómo volver a calmarla.

“Creemos que lo que está ocurriendo es que el ambiente de ingravidez del espacio confunde a la bacteria salmonela y le hace creer que se encuentra dentro de los intestinos humanos”, dice Nickerson. “Es un fenómeno mecánico que tiene que ver con ‘la fricción ocasionada por los líquidos’ (cizallamiento de fluidos)”.

Derecha: Fotomicrografía de la bacteria salmonela. Cortesía del Laboratorio Nacional del Pacífico Noroeste. [Imagen ampliada]

Los microbios de salmonela pueden detectar la fuerza del líquido que se mueve al pasar por su superficie externa. Esta “fricción ocasionada por los líquidos” actúa como una señal, que el microbio utiliza para saber el lugar del cuerpo donde se encuentra. Generalmente, la salmonela logra ingresar al cuerpo dentro de los alimentos que ingiere una persona. Justo en la parte media del sitio con forma de tubo que forman los intestinos, la mezcla de jugos gástricos y alimentos a medio digerir (similar a un líquido) es agitada considerablemente; esto provoca que la fricción ocasionada por los líquidos sea elevada.

2-salmonella-bacteria-sem-

 

Pero, a medida que la bacteria salmonela se acerca a la pared de los intestinos, se va escurriendo entre los diminutos espacios localizados entre las microvellosidades (protuberancias similares a un cabello) que recubren la mucosa intestinal. Es en ese lugar que la célula se protege del movimiento de agitación y la fricción ocasionada por los líquidos disminuye hasta alcanzar niveles muy bajos. Y en ese mismo sitio la célula de la bacteria atraviesa el intestino hasta el torrente sanguíneo para causar una infección. De modo que tendría sentido que una bacteria que esté experimentando poca fricción ocasionada por los líquidos altere la actividad de aquellos genes que la ayudan a sobrevivir y cause una infección.

dt.common.streams.StreamServer.cls

 

 

Las simulaciones realizadas por computadora han mostrado que la cantidad de fricción ocasionada por los líquidos que experimenta la bacteria en el ambiente de ingravidez del espacio es parecida a la que existe en los pequeños espacios de la pared intestinal, dice Nickerson. “Un vuelo espacial es un entorno de baja fricción ocasionada por los líquidos”.

El equipo de investigación de Nickerson observó la bacteria salmonela de dos vuelos llevados a cabo por el transbordador espacial a la Estación Espacial Internacional: STS-115, en septiembre de 2006, y STS-123, en marzo de 2008. Los investigadores descubrieron 167 genes que permanecen más o menos activos en las bacterias más agresivas en comparación con las bacterias que no realizaron el vuelo. Los científicos identificaron también un “interruptor principal” que regula aproximadamente una tercera parte de estos genes, una proteína llamada Hfq. La actividad de esta proteína también se vio afectada por las condiciones de fricción ocasionadas por los líquidos durante el vuelo espacial.

see caption

Arriba: La astronauta Heidemarie Stefanyshyn-Piper, de la NASA, inicia el experimento de la bacteria salmonela durante la misión del transbordador espacial STS-115. [Imagen ampliada]

Ahora que los científicos saben qué genes y proteínas contribuyen a exacerbar el efecto de virulencia, están utilizando esta información con el fin de desarrollar nuevas estrategias, como vacunas y tratamientos, para combatir la enfermedad causada por la ingestión de alimentos que contienen la bacteria salmonela.

El equipo de investigadores ya encontró una manera prometedora de combatir la virulencia extra de la salmonela: añadir una pizca de iones. Cuando Nickerson y sus colegas cultivaron la misma cepa de la bacteria en un medio que contenía concentraciones más altas, de cinco iones (potasio, cloruro, sulfato, magnesio y fosfato), ¡la virulencia de la bacteria que realizó el vuelo espacial dejó de aumentar!

1-salmonella-bacteria-sem-niaidcdc

“Las células son cosas graciosas “, dice Nickerson. “Si les das demasiado o muy poco de algo a lo que ellas están acostumbradas, te sorprenden con su manera de responder.”

La mayor parte de los genes que son activados por el ambiente de baja fricción ocasionada por los líquidos, en el vuelo espacial, está involucrada en el transporte de estos iones hacia dentro y hacia afuera de las células, de modo que podría existir una conexión. Todavía se están llevando a cabo las investigaciones relacionadas con el efecto de este ion, dice Nickerson, pero ella especula que esto podría, en un futuro, llevar al desarrollo de nuevas formas de utilizar estos iones para evitar las infecciones producidas por la salmonela.

“Una de las preguntas que me hace la gente es: ‘¿Cómo se te ocurrió estudiar la bacteria [salmonela en el espacio]?’ Yo doy vuelta la pregunta y digo: ‘¡Cómo no se me ocurrió!’”, relata Nickerson. “En cada una de las ocasiones en que los científicos hemos estudiado los microbios bajo circunstancias extremas, hemos obtenido increíbles ideas sobre cómo funcionan. Los vuelos espaciales son otro de los ambientes extremos que permanecen sin explorar, relativamente.”

“Para mí, esto fue algo que no tuve que pensar siquiera.”

Fuente que utilizo:

http://ciencia.nasa.gov

La ciencia en español es solo el 0,24 % del total

ab78bd527466144b23ce2b67884d6839 a8f15018f42f761af5f27a049c49d825

041bc91669ac05c9eadcfc3b5fe64edd

El idioma español aparece como quinta lengua, con menos del 1% de la producción científica internacional, dominada al 97% por el inglés. Un grupo de expertos propone potenciar el idioma como lengua de divulgación

Más de 450 millones de personas en el mundo hablan español como primera o segunda lengua y, sin embargo, “la presencia del español en la producción científica es a todas luces marginal”, según la obra El español, lengua de comunicación científica, que se presenta esta tarde en Madrid y que se puede descarga de manera gratuita.

El volumen muestra datos contundentes. En la base de datos SCI, que indexa 8.300 revistas especializadas de 150 disciplinas científicas, el 97% de sus más de siete millones de artículos publicados entre 2005 y 2010 está en inglés. El alemán es el segundo idioma, con un porcentaje inferior al 1%. Y el español aparece como quinta lengua, con un ínfimo 0,24% de las publicaciones.

“Parafraseando a William Faulkner en su referencia al tiempo, se trata de una batalla que no solo no se puede ganar, sino que ni siquiera se libra”, sostienen en la introducción del libro sus coordinadores, los catedráticos de Economía Aplicada José Luis García Delgado y José Antonio Alonso, ambos de la Universidad Complutense de Madrid, y el profesor de Economía Aplicada Juan Carlos Jiménez, de la Universidad de Alcalá de Henares.

Fuente que utilizo:   http://es.noticias.yahoo.com

850446e47d62a89d767ec626480d08e0 485060e8f10c78219eaa294445b99113 3635fdb07a0baac15e6c8b80217831b4

“Una batalla estúpida”

El dominio del inglés es “irrebatible”, argumentan. En inglés se publican las principales revistas científicas, como Science, Nature, Cell, PNAS o The Lancet, y en inglés se habla en los congresos internacionales más relevantes. “El fomento del uso del español en el ámbito científico no debe pasar nunca por tratar de cuestionar la hegemonía del inglés. No es que sea una batalla perdida, es que es una batalla estúpida. Hay que caminar hacia un bilingüismo”, ha reflexionado Jiménez esta mañana ante la prensa. La obra, editada por la Fundación Telefónica, se encuadra en un proyecto más amplio para averiguar el valor económico del español.

«El español, como lengua de divulgación, de comunicación científica, tiene mucho que hacer»


Juan Carlos Jiménez
Profesor de Economía Aplicada

El lenguaje científico, ha recordado Jiménez, tiene dos planos: el académico y el divulgativo. “Ahí el español, como lengua de divulgación, de comunicación científica, tiene mucho que hacer”, ha exhortado. Los autores proponen en su libro promover una conexión más estrecha entre las comunidades científicas española y latinoamericanas para generar plataformas comunes de difusión de sus producciones, como revistas científicas compartidas y congresos propios. “En este caso es mucho lo que se puede hacer y es muy poco lo que , hasta el momento, se ha logrado”, sostienen.

El catedrático García Delgado ha hecho un llamamiento a dejar atrás los complejos ante el inglés. “La suerte del español puede ser convertirse en una segunda lengua franca, la lengua acompañante, y tiene muchas bazas para conseguirlo. No hay que destronar al inglés”, opina.

73b992bfd482ff31586cc54fe738bf78 71f5154be137dc538f57b0699a07720a

Un margen para el optimismo

Los autores recuerdan la buena situación del español en la producción cultural en campos como la música, el cine y la literatura. “El pesimismo se hace más presente cuando lo que se analiza es el papel del español como lengua científica: un ámbito en el que ni la situación es buena ni caben esperar cambios favorables en el futuro inmediato”, apuntan.

La dictadura franquista censuró la revista Ciencia durante 35 años

4b09a88f9216c316315e787cd297d3d1 2bdb1570772616b26e80a7354d266820

Sin embargo, las cosas cambian, aunque las transformaciones pueden requerir siglos. La obra recuerda que, en el siglo XVI, la reina Isabel I de Inglaterra conversaba en latín y griego con los estudiantes de la Universidad de Cambridge y que, en tiempos de Shakespeare, se redactó en latín la primera farmacopea británica.

Además, matizan los autores parafraseando estudios previos, hay un margen para el optimismo: “El peso del español en ciencia es mucho más importante de lo que en una primera lectura se deriva de los indicadores obtenidos en este estudio. Existen ámbitos de actividad donde el uso del español es determinante, como son las actividades docentes, la divulgación de la ciencia y el intercambio de ideas y conocimientos entre investigadores de países de habla española”.

3fb6db303ab640172f996031b386c9cf 64dcaa72310204d74dc0160138214829 9a7c2b4bf18b05fa94fe5b29cd8cbab9

Históricamente, algunos proyectos han intentado el despegue de una comunidad científica en español. En 1940, algunos de los científicos españoles y latinoamericanos más brillantes de la época, como el ex director del Museo Nacional de Ciencias Naturales, el entomólogo Ignacio Bolívar, fundaron en México Ciencia. Revista hispanoamericana de Ciencias puras y aplicadas. La publicación fue censurada en España por la dictadura de Francisco Franco hasta su desaparición en 1975. ”El hecho de ver reunidos tantos nombres de la ciencia española exiliada trabajando y publicando desde México en colaboración con una selecta y numerosa lista de científicos hispanoamericanos parece que fue resentido por las autoridades tiránicas franquistas como una agresión peor que los ataques militares”, escribió Francisco Giral, uno de los fundadores.

9f3a46272f75c006f0c6579a68f41cf2

Más noticias de Materia:

Una red para evitar el aislamiento científico y la ‘españolización’ de la ciencia
Otras noticias de “divulgación”

Un experto en Lingüistica descifra las primeras palabras del Manuscrito Voynich

voynich-scritte Voynich_2v voy2 abril 67r 6a00d83452963269e20147e3ca2a58970b-400wi

No es la primera vez que os hablo del Manuscrito Voynich, probablemente el libro más fascinante (y misterioso) sobre la faz de la Tierra. Escrito sobre papel vitela en un lenguaje aparentemente a prueba de criptógrafos, este manuscrito del siglo XV lleva haciendo que los expertos se devanen los sesos desde hace más de 100 años, cuando el especialista en libros antiguos Wilfrid M. Voynich lo adquirió para la Universidad de Yale. Para algunos se trata simplemente de un engaño medieval, para otros el último remanente de un perdido lenguaje oriental del cual no somos capaces de entender ni una sola palabra… o al menos así era hasta ahora.

[Relacionado: Nuevo estudio sugiere que el lenguaje oculto en el Manuscrito Voynich podría ser real]

Según puedo leer en una nota de prensa publicada en la web de la Universidad de Bedfordshire, la historia del descifrado de esta críptica y rara obra ha sufrido un vuelco considerable gracias al trabajo de un profesor en lingüística aplicada de esta universidad británica, llamado Stephen Bax.

El señor Bax, como un Indiana Jones real, ha logrado por primera vez identificar algunas palabras del manuscrito, dejando así la puerta abierta a una resolución final que seguramente será muy trabajosa, razón por la que ha pedido ayuda a otros expertos en lingüística. ¿Cómo lo hizo os preguntaréis? Las fascinantes ilustraciones del libro fueron la clave.

Gracias a su amplio conocimiento en manuscritos medievales y a su familiaridad con lenguas semíticas como el árabe, el profesor Bax comenzó a analizar cuidadosamente la obra, letra a letra, en busca de nombres propios. Una técnica que ya fue empleada con los jeroglíficos egipcios, aunque para tal fin se contó con la inestimable ayuda de la piedra de Rosetta.

[Podría interesarte: ¿Podrías reconocer el lenguaje de un hombre de la Edad de Hielo?]

codex-seraph3 codex3-751686 blancamiro

En palabras del propio Bax: “El manuscrito tiene un montón de ilustraciones de estrellas y plantas. Fui capaz de identificar algunas de estas con sus nombres, buscando en manuscritos medievales sobre botánica escritos en lengua árabe y en otros idiomas. Entonces empecé a decodificar y obtuve algunos resultados bastante alentadores”.

5book 6a00d83452963269e20147e3ca2a58970b-400wi 39184e288cc822812b2855e5296a35d5

Entre las palabras identificadas se encuentra el término empleado para la constelación Tauro, que aparece junto a una ilustración de siete estrellas que parecen ser las Pléyades.

Además, encontró la palabra KANTAIRON junto a una imagen de una planta de azulejo (Centaurea cyanus), conocida en la Edad Media por sus propiedades antibacterianas y fungicidas. Así mismo logró identificar los nombres de varias plantas más.

Páginas ilustradas del Manuscrito Voynich

A pesar de que la decodificación del manuscrito es todavía parcial (el trabajo apenas ha comenzado) los hallazgos de Bax han generado mucha excitación entre los expertos, ya que como sabéis muchos creían que esta obra tan rara consistía simplemente en un galimatías sin sentido inventado para la ocasión en el S. XV, con la única intención de venderle la obra a algún coleccionista renacentista de libros raros.

20100511codex_i blanca_miro_dailymetal 00 serafini 10

Esta última opción queda totalmente descartada, sostiene Bax, para quién el libro es probablemente un tratado sobre naturaleza escrito en algún lenguaje asiático o del cercano oriente.

[Relacionado: El manuscrito Voynich desvela uno de sus secretos]

Me enteré leyendo la nota de prensa publicada en la web de Universidad de Bedfordshire.

Paginación