Wednesday, May 13, 2009

Fin de semestre. No mas entradas de cursos.

Estimados alumnos:

A partir del 12 de Mayo, ya no estoy contabilizando entradas para curso. Se agradecen de cualquier manera entradas posteriores a esta fecha, con el propósito de compartir y discutir información.

Saludos.

Aromaticidad en anillos metálicos

Actualmente el término aromático no tiene ninguna relación con el olor, sino con los compuestos que son mucho más estables de lo que se podría esperar fueran según su fórmula, sin embargo este término tiene su historia. En 1825, Michael Faraday aisló un hidrocarburo nuevo, el benceno, y se dio cuenta de que había obtenido una molécula muy poco reactiva y, por lo tanto, muy estable. Este compuesto, y otros relacionados, se obtuvieron de extractos de plantas; aunque no son compuestos fragantes en particular, al ser extractos de plantas aromáticas August Kekulé las denominó hidrocarburos aromáticos, que es de donde proviene el término aromaticidad. También fue Kekulé quien, 40 años después del aislamiento del benceno, descubrió la estructura cíclica o anular de los compuestos aromáticos; notó que extrañamente, aunque se trataba de moléculas insaturadas, éstas no reaccionaban de la misma manera que los alquenos y alquinos, sino que permanecían inertes a una reacción de adición y, bajo la influencia de catalizadores, sucedía una reacción de sustitución, nunca de adición.
En base a las conclusiones a las que llegó Kekulé varios científicos se interesaron en el tema y fue Erich Hückel, quien a mediados del siglo XX, propuso una regla para determinar si una molécula es aromática (4n+2) o antiaromática (4n). Por la aportación de estos 3 científicos, y muchos otros, en la química orgánica se llegó a ciertas reglas para determinar la presencia de aromaticidad en las moléculas: se debe de tratar de una molécula plana, cíclica y que tenga 4n+2 electrones π deslocalizados.
Sin embargo, el término aromaticidad no es estático, ni se restringe a la química orgánica. La definición de aromaticidad ha ido evolucionando conforme la química avanza y se logran nuevos descubrimientos. Actualmente no tiene un significado preciso, ni denota directamente cantidades medibles, por lo que ahora se basa principalmente en observaciones experimentales y en métodos teóricos computacionales. Lo que lleva a los científicos a suponer que una molécula presenta aromaticidad es que es mucho más estable y simétrica de lo que debería de ser según su fórmula molecular.
El desarrollo del concepto de aromaticidad en función de la deslocalización electrónica permite explicar cómo este fenómeno puede ocurrir para otros sistemas. Aplicando el concepto de isolobalidad, se empezaron a preparar compuestos análogos al benceno, pero con un carbono sustituido por un metal. Se observó que dichas moléculas organometálicas también presentaban deslocalización electrónica, planarización y equivalencia entre los enlaces del anillo, excepto de los enlaces M-C como es de esperarse, además de la estabilización asociada a la aromaticidad.
En términos de reactividad, los metalobencenos sufren reacciones análogas a las del benceno y otras que no lo son. Se han reportado reacciones de cicloadición (Diels-Alder) y de coordinación η6 a centros metálicos, dando más evidencia del carácter aromático. Por otro lado, también se observan reacciones atípicas con respecto al benceno. Los metalobencenos reaccionan a bajas presiones y temperaturas con hidrógeno para dar un producto parcialmente hidrogenado, sin necesidad de un catalizador. Además se pueden presentar reacciones de adición oxidativa con oxígeno molecular triplete con mucha facilidad. En estas dos últimas reacciones se pierde la aromaticidad del anillo, y esto habla de un grado menor de estabilización asociado a la aromaticidad en comparación con el benceno.
Los metalobencenos, sin embargo, presentan únicamente aromaticidad π, ya que si el metal es de transición ocupa uno de sus orbitales d de simetría adecuada para formar parte de la deslocalización π, mientras que los metales del bloque p ocupan este tipo de orbitales para formar el sistema. Investigaciones más recientes han logrado producir e identificar ciclos formados completamente por metales, a los que se les llama comúnmente clusters metálicos. Se ha encontrado que muchos de estos clusters son más estables de lo que se esperaría tomando en cuenta que los enlaces metal-metal son lábiles en general.
Con la teoría del orbital molecular, la aromaticidad se ha comprendido como un fenómeno de deslocalización electrónica a lo largo de una estructura cíclica. Uno de los criterios que más se ocupa para identificar si hay aromaticidad o no es la planarización de la molécula. La planarización permite que los orbitales p estén paralelos y de esa forma se pueden traslapar de manera efectiva para formar un orbital molecular deslocalizado. Sin embargo, la planarización no es un criterio concluyente, ya que se han encontrado moléculas orgánicas aromáticas no planas, sobre todo ciclos más grandes como el [18]-anuleno. La regla de Hückel que se considera como el criterio más importante para determinar la aromaticidad de un ciclo tampoco es infalible, en muchos sistemas se aplica, pero en otros no. Lo que sucede es que muchos de estos conceptos resultan ser arcaicos e inaplicables para clusters metálicos, donde los átomos tienen otros tipos de orbitales atómicos que pueden participar en enlaces deslocalizados.
El descubrimiento de aromaticidad en otro tipo de compuestos donde no se tenían orbitales p disponibles hizo que se introdujera el concepto de aromaticidad σ. Este tipo de aromaticidad debe entenderse de la misma forma que la aromaticidad π, es decir como un ciclo donde la densidad electrónica se encuentra deslocalizada a través de enlaces σ. De igual forma, la aromaticidad δ puede ocurrir en anillos, principalmente de metales del bloque d, y ocurre por deslocalización electrónica a lo largo de enlaces de simetría δ de forma cíclica. Sin embargo, la deslocalización de los electrones de enlace puede darse de muchas formas. Contrario al criterio de la planaridad, existen moléculas aromáticas donde la deslocalización ocurre en tercera dimensión, como los fulerenos, los clusters de boro y de cierta forma el enlace metálico. La aromaticidad de Möbius es otro tipo de deslocalización electrónica que ocurre por la torsión de 180° de uno de los enlaces, lo que resulta en un traslape efectivo de orbitales, pero un plano nodal. El efecto total es la formación de un sistema deslocalizado con cierto grado de estabilización, es decir, con cierto carácter aromático.
Una de las diferencias principales entre los clusters metálicos y las moléculas orgánicas aromáticas es que éstos pueden presentar aromaticidad múltiple. La aromaticidad en anillos orgánicos puede explicarse de forma completa como un esqueleto sigma por el que circula un sistema π deslocalizado. Casi nunca se observa deslocalización electrónica a través de los enlaces σ para este tipo de moléculas. En contraste, en clusters metálicos se encuentra muy a menudo la aromaticidad σ, pero también la aromaticidad π en clusters de metales del bloque p. El problema es que en este tipo de anillos ambos tipos de deslocalización se pueden presentar al mismo tiempo, lo cual presenta un problema muy importante en el estudio de anillos inorgánicos: la aromaticidad neta. Los diferentes tipos de aromaticidad en una misma molécula son independientes, es decir, una molécula puede ser σ-aromática y π-anti-aromática al mismo tiempo, la combinación inversa también es posible, de igual forma es posible que sea aromática o anti-aromática en ambos tipos de deslocalización. Al haber orbitales d disponibles, puede haber deslocalización σ, π y δ en todas las combinaciones. Esto resulta complicado, ya que por un lado los componentes aromáticos contribuyen con una energía de estabilización, mientras que los componentes anti-aromáticos desestabilizan la molécula. El problema consiste en determinar cuál es el efecto que prevalece en el carácter general de la molécula.
Los anillos con deslocalización electrónica poseen una propiedad muy importante, la inducción de un campo magnético molecular. La deslocalización electrónica implica que los electrones están en movimiento continuo, lo que genera un campo magnético al que se le conoce como corriente anular. La resonancia magnética nuclear de hidrógeno se ocupa como criterio de aromaticidad en moléculas orgánicas ya que los compuestos aromáticos desprotegen los protones periféricos debido al reforzamiento del campo magnético externo con la corriente anular. En contraste, las moléculas anti-aromáticas protegen a los protones de la periferia y hacen que aparezcan a campo alto, a veces incluso más alto que el TMS. Este es un criterio satisfactorio siempre y cuando el anillo tenga hidrógenos.
Con la creciente importancia de la química cuántica y computacional como herramientas para entender la estructura molecular, han surgido nuevos criterios muy útiles que se basan en cálculos teóricos de estructuras, que permiten conocer cuál es la estructura más apropiada y cómo se distribuyen los orbitales moleculares del compuesto de interés. Un método actual interesante se basa en cálculos computacionales de la respuesta de una molécula a un campo magnético externo. Este criterio en particular es útil para entender la naturaleza magnética de las moléculas sin depender de un núcleo en particular, además ayuda a diferenciar entre las moléculas aromáticas y las anti-aromáticas. La limitación de esta técnica es que toma en consideración la respuesta al campo magnético de todos los componentes aromáticos, lo que implica que no es un buen criterio para diferenciar los diferentes tipos de aromaticidad y cómo influyen en el carácter neto de la molécula.
Uno de los criterios computacionales más importantes para el estudio de la aromaticidad es el llamado Nucleus-Independent Chemical Shifts (NICS), este método consiste en colocar un punto de prueba en cualquier parte del anillo, generalmente el centro, para calcular el valor absoluto de la protección magnética generada por la corriente anular. Los valores de NICS negativos indican que el anillo presenta aromaticidad, los valores positivos indican anti-aromaticidad, y los valores cercanos a cero indican no-aromaticidad. A pesar de la naturaleza teórica y el hecho de que se ocupa un núcleo imaginario, el método NICS se ha convertido en, quizás, el criterio más importante de aromaticidad; sin embargo, en moléculas policíclicas se tiene que calcular un valor de NICS para cada anillo que se sospeche aromático, así que NICS no puede arrojar información sobre la aromaticidad total de la molécula.
Existen otros índices de aromaticidad que se basan ya sea en funciones matemáticas o estadísticas. El índice llamado Harmonic Oscillator Model of Aromaticity (HOMA) es muy útil, ya que relaciona la estructura con la aromaticidad; además de que describe la contribución de la geometría y la energía de la molécula en la aromaticidad. Otros métodos consisten en consideraciones termodinámicas. Es bien sabido que la aromaticidad está relacionada con una energía de estabilización, mientras que la anti-aromaticidad contribuye a la desestabilización energética de la molécula; utilizando esta información, se puede calcular la contribución energética de los diferentes tipos de aromaticidad presentes en un anillo y de ahí calcular si prevalece la estabilización o desestabilización del anillo en conjunto.
La aromaticidad es un concepto muy interesante y una fuente de investigación muy amplia, tanto en química orgánica como en inorgánica, debido a las implicaciones que tiene sobre la estabilidad y la reactividad. Los clusters o anillos metálicos aromáticos deben entenderse desde el punto de vista de la deslocalización electrónica, justo como los anillos orgánicos, la única diferencia es que el estudio de anillos inorgánicos tiene dificultades adicionales. La aromaticidad múltiple introduce la necesidad de evaluar la aromaticidad neta del anillo para entender su comportamiento. Esto a su vez ha generado la necesidad de nuevos indicadores de aromaticidad que permitan cuantificar el grado de aromaticidad o anti-aromaticidad asociado. Además, como la deslocalización electrónica depende de un traslape efectivo de orbitales atómicos, hay distintas formas en las que esto puede ocurrir, como la formación de una tira de Möbius o la deslocalización esférica. La investigación sobre aromaticidad es amplia y con mucho futuro, sería importante salir del marco teórico y empezar a generar investigación experimental que permita entender mejor su reactividad, aunque muchas veces se tiene la limitante de los sustituyentes voluminosos que se ocupan para sintetizarlos. De cualquier modo, es un tema importante y probablemente pueda llevar a aplicaciones interesantes en un futuro.

Bibliografía
Metallabenzene Chemistry. John R. Bleeke. Acc. Chem. Res., 1991.
Gallanes, Gallenes, Cyclogallenes, and Gallynes: Organometallic Chemistry about the Gallium−Gallium Bond. Gregory H. Robinson. Acc. Chem. Res., 1999.
The Induced Magnetic Field in Cyclic Molecules. Gabriel Merino, Thomas Heine, and Gotthard Seifert. Chem. Eur. J. 2004.
Sigma- and Pi-Electron Delocalization: Focus on Substituent Effects. Tadeusz Marek Krygowski, and Beata Tamara Steüpien´. Chem. Rev., 2005.
Nucleus-Independent Chemical Shifts (NICS) as an Aromaticity Criterion. Zhongfang Chen, Chaitanya S. Wannere, Clmence Corminboeuf, Ralph Puchta, and Paul von Ragu Schleyer. Chem. Rev., 2005.
All-Metal Aromaticity and Antiaromaticity. Alexander I. Boldyrev, and Lai-Sheng Wang
Chem. Rev., 2005.
Möbius Aromaticity and Delocalization. Henry S. Rzepa. Chem. Rev., 2005.
Rationalization of the π-σ (Anti)aromaticity in All Metal Molecular Clusters. Ayan Datta, and Swapan K. Pati. J. Chem. Theory Comput., 2005.
Aromaticity of Distorted Benzene Rings: Exploring the Validity of Different Indicators of Aromaticity. Ferran Feixas, Eduard Matito, Jordi Poater, and Miquel Sol. J. Phys. Chem. A, 2007.
Nucleus-Independent Chemical Shifts: A Simple and Efficient Aromaticity Probe. Paul von Rague´ Schleyer, Christoph Maerker, Alk Dransfeld, Haijun Jiao, and Nicolaas J. R. van Eikema Hommes. J. Am. Chem. Soc. 1996.

María José Álvarez Miranda
Gerardo Martín Torres

Tuesday, May 12, 2009

Otra reacción a la lista

La preocupación de convertir sustancias nocivas para el medioambiente se ha convertido para algunos en cuestión de "moda", y mientras unos tratan de "ponerse" a la moda, otros trascienden. En esta ocasión se trata del desarrollo de una reacción que promete la obtención de compuestos útiles en la industria de hidrocarburos a partir de un bio-aceite. 

      El grupo de investigación de la Universidad Técnica de Munich desarrolló una nueva síntesis para convertir el bio-aceite en compuestos más simples tales como: alcanos y metanol. La característica principal de esta reacción es que se da en un solo paso, provocado por el uso de un metal precioso como  catalizador y un ácido de tal modo que permite que la hidrólisis, la deshidratación y la hidrogenación se lleven a cabo en un solo paso (concertada). En este caso elos investigadoresdemostraron lo anterior usando ácido fosfórico y paladio con un grupo de carbono. 

Esperemos que como siempre (¿se notó el sarcasmo?), el conocimiento sea usado para el bien de nuestro querido planeta  y que no se quede en el baúl de los recuerdos. 




Wiley-Blackwell (2009, May 12). Biomass As A Source Of Raw Materials. ScienceDaily. Retrieved May 12, 2009, from 

Nuevos catalizadores para obtener metano a partir de CO2

Nuevos catalizadores pueden ser la clave para transformar, de manera eficiente, al dióxido de carbono y al vapor de agua en metano y obtener otros hidrocarburos, empleando nanotubos y energía solar, según plantean unos investigadores de la Universidad Estatal de Pensilvania.
Al quemar combustibles fósiles como el petróleo, el gas natural y el carbón, liberamos a la atmósfera grandes cantidades de dióxido de carbono (CO2), un gas con efecto invernadero. En vez de contribuir al cambio climático global, los productores de CO2 podrían reciclar este gas en una amplia gama de hidrocarburos, pero esto sería sólo viable cuando para ello se empleara, como fuente de energía, a la luz solar.El reciclaje del CO2 a través de su conversión en un combustible de alto contenido energético, adecuado para su uso en la actual infraestructura basada en los hidrocarburos, es una opción muy atractiva. Sin embargo, el proceso demanda mucha energía y sería viable sólo si se emplea una fuente de energía renovable para lograr esa conversión.La conversión química del agua y el CO2 en metano es muy sencilla sobre el papel (una molécula de dióxido de carbono más dos moléculas de agua producen una molécula de metano y dos moléculas de oxígeno). Sin embargo, para que esta reacción pueda darse, se necesitan al menos ocho fotones por cada molécula.
Por eso, aunque convertir al dióxido de carbono y al agua en metano a través de la fotocatálisis es una idea atractiva, históricamente los intentos de lograrlo han registrado una tasa de conversión muy baja. Para lograr un rendimiento significativo en la síntesis de hidrocarburos se requiere de una fotocatálisis muy eficiente, que emplee la máxima energía disponible en la luz solar.Craig A. Grimes, profesor de ingeniería eléctrica, y su equipo, emplearon nanotubos de dióxido de titanio dopados con nitrógeno y cubiertos con una fina capa de cobre y platino para convertir una mezcla de dióxido de carbono y vapor de agua en metano.El equipo, que también incluyó entre sus filas a Oomman K. Varghese, Maggie Paulose y Thomas J. LaTempa, se valió de la luz natural para probar sus nanotubos en una cámara que contenía una mezcla de vapor de agua y dióxido de carbono.Expusieron los nanotubos a la luz solar durante un periodo de dos horas y media a tres horas y media, cuando se recibieron del Sol entre 102 y 75 milivatios de energía por cada centímetro cuadrado expuesto. Obtuvieron un rendimiento en la producción de metano 20 veces superior al conseguido en los intentos anteriores conocidos, que se llevaron a cabo en condiciones de laboratorio exponiendo el sistema a luz ultravioleta intensa.

Sistema SEM-RAMAN

El siguiente post es de una empresa que se enfoca a espectroscopía, siendo al parecer su mayor fuerte RAMAN, por lo que desarrollan diferentes equipos que la integran. Entre sus curiosidades, producen un microscópio SEM- RAMAN que al parecer es lo más completo del mercado.
oooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooooo
Sistema SEM-RAMAN
El analizador estructural químico Renishaw (SCA) agrupa dos tecnologías bien establecidas, el microscopio de electrones de exploración (SEM) y la espectrografía Raman, y el resultado es una potente técnica exclusiva que permite realizar análisis morfológico, elemental, químico, físico y electrónico sin necesidad de cambiar las muestras entre distintos instrumentos.
Funciones
Morfología y número atómico promediode SEM (SEI y BEI)
Composición elementaldel análisis EDS
Composición química e identificaciónde espectrografía Raman
Estructura física(datos cristalográficos y mecánicos) de espectrografía Raman
Estructura electrónica y físicade espectroscopios CL y PL
Aplicaciones
Investigación de materiales
estudios de corrosión, materiales electrónicos, polímeros, compuestos
Semiconductores
identificación de partículas contaminantes
Industria farmacéutica
recubrimientos, identificación de rellenos y excipientes, estudios de polimorfismo
Investigación forense
identificación de explosivos, drogas, fibras, pigmentos
Ventajas
Espectrografía simultánea SEM y Raman
Las piezas pueden localizarse fácilmente mediante SEM. Después, pueden identificarse rápidamente y sin ambigüedades mediante la espectrografía Raman.

EDS e imágenes de luz blanca a partir de la misma posición de la muestra
Las imágenes del espectro EDS, de los mapas y de la luz blanca pueden obtenerse a partir de la misma posición de la muestra, como las imágenes SEM y el espectro Raman.

Espectroscopios de catodoluminescencia (CL) y fotoluminescencia (PL)
Las ópticas de la serie Raman son totalmente compatibles con los espectroscopios PL y CL. El primero utiliza un láser como fuente de activación y el último, un haz de electrones. Ambas técnicas pueden revelar conjuntamente información electrónica y física de la muestra, además, CL puede ser susceptible a muy ligeros cambios en la composición y fuerza residual.

http://www.renishaw.es/es/6639.aspx

Transplante de cara

Yo se que este post no tiene mucho que ver con química o física, sin embargo se me hizo muy interesante la explicación que dan acerca de los transplantes de rostro.

http://www.bbc.co.uk/mundo/ciencia_tecnologia/2009/05/090506_video_transplante_cara_vh.shtml

Aplicación Flash de RMN

Sin lugar a duda uno de los temas que más me ha fascinado en la carrera es RMN, esto por que lo veo como un juego de investigación o de detectives. En los siguientes links encontrarán dos páginas que publican ejercicios interactivos de RMN tanto de carbón como de protón, disfrútenlos.

http://www.spcollege.edu/SPG/Science/Musgrave/nmr.htm
http://arrhenius.rider.edu/nmr/nmr_tutor/selftests/c7/c7_fs_1.html

RESONANCIA MAGNÉTICA DE CUERPO ENTERO

La RESONANCIA MAGNÉTICA DE CUERPO ENTERO (RMCE) es una modalidad nueva de resonancia magnética que brinda una imagen entera e integrada de todas las regiones contiguas del cuerpo desde la cabeza hasta los pies en todos los planos del espacio y en 3D. Esta modalidad aparece en el 2003 en equipos de alto campo magnético y gradientes potentes gracias a la incorporación de una camilla móvil automática que permite adquirir información en forma continua, en un campo de visión de hasta 2 metros. Las aplicaciones clínicas son múltiples y variadas :
Imágenes preventivasA) RESONANCIA MAGNÉTICA DE CUERPO ENTERO (CHEQUEO EN SALUD) La RMCE es la modalidad diagnóstica ideal para el screening en personas saludables sin síntomas ya que tiene una alta sensibilidad y especificidad sin los efectos nocivos de las radiaciones ionizantes de otros métodos de diagnóstico . Encontrar una lesión en un paciente asintomático nos provee más opciones de tratamiento, mejor pronóstico y menores costos de curación comparando cuando las mismas lesiones son encontradas en estadíos tardíos. Permite pesquisar numerosas afecciones en múltiples organos del cuerpo (no todas).El tiempo del examen se reduce tan sólo a 15 minutos, algo tolerable para cualquier persona, en condiciones confortables y sin riesgo alguno.

B) ANGIORESONANCIA MAGNÉTICA DE CUERPO ENTERO(EN PACIENTES CON RIESGO VASCULAR) Con el suministro de un contraste no iodado ( gadolinio )que no produce alergia y gracias al movimiento automático del paciente en etapas sucesivas sin necesidad de reposicionamiento, se obtiene en tan sólo 2 minutos una imagen integrada de todas las grandes arterias del cuerpo (menos las del corazón), de gran utilidad en enfermedades sistémicas como la arterioesclerosis y la diabetes.

C) RASTREO ONCOLÓGICOPara determinar la extensión de los tumores habitualmente se utilizan varias modalidades de diagnóstico, tal como la medicina nuclear para buscar alteraciones óseas a lo que se agrega tomografía computada de cerebro, tórax y pelvis para la búsqueda de lesiones en los tejidos blandos. La RESONANCIA MAGNÉTICA DE CUERPO ENTERO es una opción que permite la búsqueda simultánea tanto en órganos blandos como en el hueso, con alta precisión diagnóstica y sin radiaciones. Hoy en día los pacientes oncológicos tienen más larga sobrevida y el cáncer se está transformando paulatinamente en una enfermedad crónica. Esta es la razón de porqué es tan importante determinar la extensión del tumor previo al tratamiento, lo que nos permitirá categorizar a los pacientes con mucha mayor precisión.

D) ENFERMEDADES REUMÁTICAS El método se utiliza para establecer con exactitud las diferentes articulaciones afectadas en algunas enfermedades reumáticas , siendo necesaria la inyección de gadolinio endovenoso.

E) RMCE PARA CUANTIFICACIÓN Y LOCALIZACIÓN DE LA GRASA CORPORALCon esta técnica es posible la cuantificación del contenido graso corporal y su distribución, destacándose en particular la medición de la grasa como un porcentaje de la masa corporal total. Esto se utiliza para monitorear la obesidad cuando ésta está ligada a condiciones clínicas importantes como la hipertensión enfermedad vascular coronaria y la diabetes.

video

Para Reflexionar

Hace algunas semanas vimos por primera vez una explicación profunda sobre RMN en la clase de espectroscopía, y todos sonreímos al oir cuando el profesor Eugenio nos decía que el RMN medicinal solo es llamado Resonancia magnética por que la palabra nuclear espantaba a la gente y lo relacionaban con las bombas nucleares. En ese momento no le tomamos importancia y talvés solo pasó por nuestra mente algo como "personas incultas que no saben de ciencia"; sin embargo al ver el siguiente video que muestra explosiones nucleares, pués realmente me hizo pensar que esa gente tenía motivos para asustarse. Así que muchas veces las personas no tienen la culpa por asustarse por lo poco que conocen, si no la culpa es de la BAD SCIENCE

La Biblia leída con microscopio













Este artículo me hizo recordar a Feynmann,diciendo que algún día sería posible escribir toda la enciclopedia británica en la punta de un alfiler.

Los avances en la nanotecnologia lo dejan a uno cada vez más perplejo. En este caso se vincula ciencia, tecnología y religión —colegas enemigas que han batido algunas de las guerras más importantes de la historia— para lograr un resultado más pequeño que la cabeza de un alfiler.

Se trata de la Biblia Hebrea más diminuta del mundo, la cual tiene un tamaño tan pero tan pequeño que es parecida a un grano de azúcar.

Utilizando rayos de partículas minúsculas denominados iones de galio, científicos y nanotecnólogos del Instituto de Tecnología de Haifa (Technion) han logrado escribir las 300.000 palabras que constituyen la Biblia Hebrea en una superficie de tan sólo 0.5 milímetros.

Por supuesto que los científicos implicados en esta hazañosa empresa procuran ingresar al Libro Guinness de los Récords, el cual ha registrado una Biblia cincuenta veces más grande que la Biblia en cuestión.

Los expertos planean tomar fotos de esta curiosa edición de la Biblia, para luego exhibirlas en un afiche de 7 x 7 metros en la Facultad de Física. Al costado de esta exhibición se mostrará el ejemplar original de la nanobiblia, haciendo un contraste entre el tamaño original y el tamaño ampliado. Eso sí, para encontrar la Biblia original se deberá usar una lupa, o incluso un microscopio.

http://news.bbc.co.uk/hi/spanish/science/newsid_7159000/7159957.stm

IBM desarrolla un microscopio para observar virus en 3D



Las Imágenes de Resonancia Magnética (M.R.I.) es una técnica que todos conocemos, o al menos hemos sentido nombrar. Se trata de la técnica más avanzada para observar las moléculas y su comportamiento, y actualmente es la que utilizan las ciencias naturales para explorar nuestro organismo entre otros objetos de estudio. Pero IBM ha ido un paso más allá de ella, creando un microscopio que supera notablemente el alcance de la M.R.I.
M.R.F.M. (Magnetic Resonance Force Microscopy) es la técnica que utiliza este nuevo microscopio desarrollado por IBM, el cual fue diseñado en el Centro de Investigaciones Almaden en San José, California, y que ha sido presentado en The Proceedings of the National Academy of Sciences.
La M.R.F.M es una técnica que permite observar virus en tres dimensiones con herramientas de la nanotecnología y la ayuda de un campo magnético. La técnica permite ampliar en cien millones de veces el alcance de la M.R.I. tradicional, y con ella se planean conseguir éxitos sin precedentes en biología y en medicina. A continuación se explica en qué consiste la misma.

Básicamente se utiliza una plataforma con especímenes de virus sobre ella, los cuales se mueven aumentando y disminuyendo la intensidad de un campo magnético que ejerce una influencia en sus átomos de hidrógeno. Al efectuar tales cambios, los virus vibran sobre la plataforma, y moviéndolos con el campo magnético se pueden captar muchas imágenes 2D a partir de las cuales construir una imagen 3D de los ejemplares.

Las repercusiones de una técnica como esta son importantísimas para el estudio de las proteínas en general y de sus interrelaciones. Siendo claros, ampliando el conocimiento de los virus se podría aproximarse con mayor firmeza al comportamiento de virus variables y mutables, tales como la gripe o hasta el SIDA. Dejamos un video explicativo que muestra cómo funciona el procedimiento

http://www.ojocientifico.com/2009/01/13/ibm-desarrolla-un-microscopio-para-observar-virus-en-3d/

Microscopio Microscópico



El "microscopio microscópico" es tan pequeño como la punta de un dedo. Y a pesar de que opera sin lentes tiene un poder de ampliación similar al de un microscopio óptico de alta calidad, afirman los científicos del Instituto de Tecnología de California. Y quizás lo más importante, agregan los investigadores en Proceedings of the National Academy of Sciences (Actas de la Academia Nacional de Ciencias de Estados Unidos), es que puede ser producido en masa por un costo aproximado de US$10.



"El objeto es verdaderamente compacto" afirma el profesor Changhuei Yang, quien desarrolló el aparato que ha sido llamado microscopio optofluidico. "Puede colocarse en teléfono móvil y utilizar solamente rayos solares para su iluminación", agrega.



Según los expertos, el aparato podría revolucionar la forma como se diagnostican ciertas enfermedades como la malaria, por lo que podría ser una herramienta muy útil para el mundo en desarrollo. Por ejemplo, explican los investigadores, el microscopio puede ser utilizado en regiones remotas que no cuentan con equipos de diagnóstico y con una muestra de sangre puede detectar malaria. O también serviría para analizar si hay patógenos que propagan enfermedades en los abastecimientos de agua.




Microfluidos


El nuevo instrumento combina la tecnología tradicional del chip de computadora con la técnica de microfluidos. Ésta consiste en la canalización del flujo de líquidos a escalas increíblemente pequeñas.



Así, el chip del microscopio optofluidico mide solamente 1,5 centímetros. "Los microscopios han existido desde el siglo 16 -dice el profesor Yang- y sin embargo su diseño básico ha sido objeto de muy pocos cambios". Además, agrega el investigador, hasta ahora ha sido increíblemente caro poder miniaturizar estos aparatos.



Por esta razón los investigadores basaron su diseño en un principio diferente con el cual no es necesario utilizar lentes ni otros elementos ópticos voluminosos.




Alta Resolución


Para su fabricación los investigadores colocaron una capa de metal sobre la rejilla de un dispositivo de cargas interconectadas (llamado sensor CCD), similar a los sensores que se utilizan en las cámaras digitales. Posteriormente se hizo una línea de pequeñísimos orificios (de menos de una millonésima de metro) en el metal. Cada orificio corresponde a un píxel en el vector del sensor y el líquido que contiene la muestra que se desea analizar fluye por un canal de microfluidos que será colocado sobre la capa de metal.



El chip es iluminado desde la parte superior y, según los investigadores, la iluminación de la luz solar es suficiente. Cuando se coloca la muestra, ésta fluye hacia la línea de orificios en el metal. Y a medida que los pequeños organismos o las células se introducen en los orificios, el sensor produce una serie de imágenes, que después pueden ser analizadas.



Producción en masa
Los investigadores están ahora en conversación con varias compañías de biotecnología para producir el chip en masa. Se espera que este pueda utilizarse en varios tipos de plataformas dependiendo de las necesidades del usuario, desde comunidades rurales hasta campos de batalla.
Y en el futuro, dicen los científicos, estos microscopios optofluidicos se incorporarían en aparatos que podrían ser implantados en el cuerpo humano.



"Un sistema de análisis de microscopio implantable podría de forma autónoma analizar y aislar células cancerígenas en la circulación sanguínea", dice el profesor Yang.
"Y esto podría ofrecer una importante información de diagnóstico y quizás ayudar a detener la propagación de cáncer".

http://news.bbc.co.uk/hi/spanish/science/newsid_7529000/7529638.stm



Espectrofotómetro en Bares

El pasado viernes (9 de Mayo), me encontraba viendo la tele y me llamó mucho la atención como la secretaría de salud está corroborando la calidad de los licores en antros y bares. Lo que hacen es llevar un laboratotio móvil a cada antro y toman muestras de cada botella y las pasan por un espectrofotómetro, lamentablemente no mencionaron el tipo de espectrofotómetro ni el modelo ni nada, pero parecía ser un refractómetro electrónico acoplado a un UV, algo que se me hizo muy padre; sin embargo me dio mucha risa que este reportaje que apareció en hechos puebla, ponía al equipo como la máquina que identifica todo (jaja).

Así que si alguién se anima a trabajar en el gobierno, hay grandes posibilidades de hacerlo en la secretaria de salud.

Telescopio Espacial de Rayos Gamma

Algunos recordarán que en el congreso de física de hace un año vino un científico de la NASA que habló de la estación Goddard (donde Maggie, una estudiante de física de la UDLAP está realizando tesis), bueno pués el siguiente artículo describe a lo que se enfoca esta area de la NASA.
El Telescopio Espacial de Rayos Gamma de Gran Área (GLAST, por su sigla en idioma inglés), de la NASA, dejó la tierra el 11 de junio del 2008, a bordo de un cohete Delta II. "Todo el equipo del GLAST está emocionado", anunció Kevin Grady, quien es el administrador del programa en el Centro Goddard para Vuelos Espaciales, de la NASA, poco tiempo después de que el cohete despegara desde Cabo Cañaveral. "El observatorio ya está en órbita y todos los sistemas continúan funcionando tal y como fue planificado".
¿Qué es lo que pretende lograr la NASA con la puesta en órbita de este nuevo telescopio? GLAST explorará los ambientes más extremos del universo, buscando cualquier tipo de señal que sugiera nuevas leyes de física, investigando la naturaleza de la materia oscura, así como también muchas otras cosas.

Una violenta historia del tiempo

Desde nuestra madre Tierra, el cielo nocturno puede parecer tranquilo e inmutable, pero el universo visto en rayos gamma es un lugar de violencia repentina y caótica. Utilizando telescopios sensibles a los rayos gamma, los astrónomos son testigo de explosiones breves pero tremendamente intensas, llamadas explosiones de rayos gamma. No existe nada más potente.
Nadie está seguro de qué es lo que causa las explosiones de rayos gamma. Entre las posibilidades predilectas están la colisión de dos estrellas de neutrones o un tipo de super supernova que se produce cuando explota una estrella extremadamente masiva. Una cosa es cierta: las explosiones de rayos gamma tienen lugar en galaxias muy pero muy lejanas, tan lejanas que a sus distancias se las llama "cosmológicas", y se encuentran más allá de la comprensión normal.
Derecha: Concepción artística: Una explosión de rayos gamma destruye una estrella. Crédito: NASA/SkyWorks Digital.
Piensa en esto: cuando mira el cielo nocturno, está viendo un libro de historia —de hecho, ve un libro que se remonta en la historia hasta el principio de lo que llamamos tiempo. Y cada estrella es un capítulo de ese libro. Usted no ve las estrellas tal como son ahora. Las ve como solían ser cuando emitieron su luz, hace mucho tiempo. Y cuanto más profundo miramos en el espacio, más observamos hacia el pasado. De hecho, la luz de las galaxias más lejanas tiene miles de millones de años de antigüedad.
"Las explosiones de rayos gamma son tan brillantes que podemos verlas desde miles de millones de años luz de distancia, lo cual significa que ocurrieron hace miles de millones de años, y ahora las vemos tal como fueron entonces", dice Charles Meegan, del Centro Marshall para Vuelos Espaciales, de la NASA. "Nos pueden ayudar a ver hacia el pasado y también nos pueden enseñar algo sobre las condiciones en las cuales se encontraba el universo en los primeros tiempos de su creación. En las explosiones de rayos gamma, podríamos estar viendo la primera generación de estrellas, a partir de las primeras galaxias creadas después de la Gran Explosión" (conocida como Big Bang, en idioma inglés).

Las explosiones de rayos gamma no solamente ayudan a los científicos a entender la historia del universo, sino que también colaboran para explicar la física oculta que hay detrás de ellas. Pero la parte difícil del estudio de las explosiones de rayos gamma es encontrarlas antes de que desaparezcan. Cada explosión ocurre y desaparece tan rápido que es difícil detectar todas las que se producen. Es como tratar de capturar cada uno de los destellos de las luciérnagas con una cámara común y corriente en una noche de verano.

El Telescopio Espacial de Rayos Gamma de Gran Área (GLAST, por su sigla en idioma inglés), de la NASA, pronto ayudará en la búsqueda. Informaremos más sobre este tema en un minuto pero, primero, vamos a crear el escenario propicio con un poco de historia.
Los científicos han estado tras la pista de los rayos gamma durante muchos años, pero las explosiones de estos rayos fueron descubiertas por accidente. Durante la Guerra Fría, que tuvo lugar en la década de 1960, los satélites de Estados Unidos que vigilaban las pruebas nucleares soviéticas, y violaban de ese modo el Tratado de Prohibición Limitada de Pruebas, detectaron intensos destellos de radiación gamma. Sin embargo, los destellos no provenían de la Unión Soviética. ¡Los científicos se dieron cuenta de que los destellos venían del espacio!

Rápidamente, las explosiones de rayos gamma se convirtieron en uno de los misterios más cautivadores de la astronomía y la NASA decidió construir un Gran Observatorio para trazar un mapa de los rayos gamma que provienen del cielo. En la década de 1990, el Observatorio Compton de Rayos Gamma descubrió más de 400 nuevas fuentes de este tipo de rayos y registró 2.704 explosiones, detallando así el universo de rayos gamma que los primeros satélites apenas habían alcanzado a ver. Pero lo que es más importante es que Compton dio a conocer evidencia de que las explosiones de rayos gamma no se generan en la Vía Láctea, sino en galaxias ubicadas a enormes distancias.

Asimismo, los astrónomos se dieron cuenta de que, para que puedan verse a tan grandes distancias, las explosiones debieron de haber sido violentas a un grado casi imposible. De cierta manera, esto no fue una sorpresa. Los rayos gamma son, por su naturaleza misma, una muestra de gran energía y violencia. Tome en cuenta lo siguiente: los rayos gamma son una forma de luz super energética. Los fotones de luz común, como los que vemos con nuestros propios ojos, tienen energías del orden de 2 a 3 electronvoltios. Los rayos gamma tienen energías superiores a los 10 gigaelectronvoltios (GeV), lo que es miles de millones de veces mayor que la energía de la luz visible. Observatorios en la Tierra han detectado rayos gamma con energías aún mayores —de miles de GeV.

La NASA ha lanzado el GLAST para dar la bienvenida a estos mensajeros de alta energía. El instrumento principal del GLAST, el Telescopio de Gran Área (LAT, por su sigla en idioma inglés), efectuará observaciones pioneras de las explosiones de rayos gamma a energías superiores a cualquier otra que se haya detectado previamente. Se espera que pueda ubicar de manera precisa alrededor de 50 explosiones por año. Mientras tanto, otro instrumento a bordo del GLAST, el Monitor de Explosiones del GLAST (GBM, por su sigla en idioma inglés), registrará las explosiones de rayos gamma a energías más bajas.
.
Trabajando juntos, estos dos instrumentos detectarán el rango completo de energías de estas luciérnagas cósmicas (desde 10 mil electronvoltios hasta 100 Gigaelectronvoltios).
"Capturar los eventos en más de una longitud de onda ayudará a los científicos a entenderlos mejor, esto es semejante a poder ver en colores en lugar de hacerlo en blanco y negro", dice Meegan. "No podemos reproducir en ningún laboratorio las condiciones físicas extremas en las que tienen lugar las explosiones de rayos gamma, por lo que no entendemos cómo funcionan. Estudiándolas con estos instrumentos, es posible que podamos conocer una nueva física de la materia".

"Creo que es muy probable que el LAT y el GBM vean algo nuevo e imprevisto de las explosiones de rayos gamma. Posiblemente, responderán algunas viejas preguntas y surgirán otras nuevas". "

Químicos descubren rara molécula de Rydberg con un nuevo tipo de enlace

Una rara molécula de Rydberg descubierta por científicos de la Universidad de Stuttgart y de la Universidad de Oklahoma fue producida al enfriar un gas de átomos de rubidio a una temperatura de 3 millonésimas de grado por encima del cero absoluto. La molécula que más tiempo duró sólo sobrevivió por 18 microsegundos.

James Shaffer, profesor de la Universidad de Oklahoma en el departamento de Física, fue parte del grupo que realizó el descubrimiento, el cual, según diversas afirmaciones, demuestra un “nuevo” tipo de enlace, el cual hace de esta molécula de Rydberg distinta a las ya conocidas. La dispersión de los electrones según este enfoque puede ser usada para llevar a cabo futuros cálculos cuánticos de estructuras atómicas y moleculares.

Shaffer explica que un enlace débil se forma cuando un electrón lejano al núcleo y otro átomo de estado fundamental interactúan. El electrón es ligeramente atraído hacia el átomo de estado fundamental y viceversa. El electron jala al átomo de estado fundamental hacia el átomo de Rydberg lo suficiente para que no escape. El resultado es una rara molécula de Rydberg como la producida por el equipo de investigación.

La formación de la molécula no pudo haber ocurrido de no ser por las bajas temperaturas logradas usando enfriamiento con láser combinado con la densidad de las más avanzadas trampas de átomos.

Los investigadores de la Universidad de Oklahoma se encuentran buscando los mismos tipos de moléculas formadas por átomos de cesio, sin embargo, un átomo de cesio es ligeramente diferente debido a que existen más de un tipo de molécula dependiendo de la alineación de los spins del sistema. Esta característica puede ser usada para entender cómo interactúan los momentos magnéticos del electrón y del átomo.

Monday, May 11, 2009

Tanto, para quedarnos sin trabajo


"Adam", un mini laboratorio autónomo que usa computadoras, robótica y equipo de laboratorio para llevar a cabo experimentos científicos, automaticamente genera una hipótesis para explicar los resultados de los datos obtenidos, a su vez examina estas hipótesis , y por último interpreta los resultados.

Invesitagadores de la Universidad Aberystwyth en Gales y la universidad de Cambridge en Inglaterra reportaron en Science today que diseñaron a Adam que mide 5 metros de longitud y 3 metros de altura, para realizar experimetnos básicos biológicos con la mínima intervención humana. Ellos describen como opera el robot, relacionando comoo llevó a cabo una de sus tareas, en el caso de los investigadores averiguar más sobre el maquillaje genético de Saccharomyces cerevisiae, un organismo usado para crear modelos complejos de sistemas de vida.

Fuente: http://www.scientificamerican.com/article.cfm?id=robots-adam-and-eve-ai


2011: Año Internacional de la Química

En agosto de 2007, durante la Asamblea General de la Unión Internacional de Química Pura y Aplicada (International Union of Pure and Applied Chemistry, IUPAC) realizada en Turín Italia, se llegó al acuerdo en proclamar el año 2011 como el “Año Internacional de la Química”. Como segundo paso a seguir, a mediados del 2008, el consejo directivo de la UNESCO promovió ante la Organización de las Naciones Unidas dicha iniciativa, finalmente aprogada. Los argumentos usados ante esta iniciativa fueron los siguientes:


1. El entendimiento y por lo tanto la capacidad para transformar y utilizar la materia que constituye nuestro mundo se basa en la ciencia química.

2. La educación química es esencial para solucionar los enormes retos que actualmente enfrenta la humanidad para su sobrevivencia, como son el cambio climático, la producción suficiente de agua limpia, de alimentos y de energía, así como la conservación del medio ambiente.

3. El desarrollo y aplicación de la química hace posible la producción de medicinas, combustibles y prácticamente todos los productos necesarios en nuestra vida diaria.

4. El año 2011 ofrece la oportunidad de celebrar las contribuciones de las mujeres a la ciencia en ocasión del primer centenario del otorgamiento del Premio Nobel de Química a María Sklodowska-Curie.

5. La designación del año 2011 como “Año Internacional de la Química” da la oportunidad de establecer un mayor número de colaboraciones científicas entre las diversas naciones.

Ahora, la IUPAC pone a nuestra disposición el siguiente sitio: http://www.iupac.org/web/nt/2008-12-30_IYC para anunciar todos los festejos y actividades que se realicen a nivel mundial.

Hule de metal


Químicos especialistas en polímeros de la NanoSonic, Inc. crearon un material flexible e indestructible al que llamaron hule de metal, al que se puede calentar, congelar, lavar o mojar con gasolina de un jet, aún reteniendo sus propiedades de conducción de electricidad. Para hacer hule de mtal los químicos e ingenieros usaron un proceso llamado auto-ensamblado. El material es sumergido repetidamente en soluciones cargadas positiva y negativamente. Los enlaces de carga positiva y negativa forman bandas que conducen electricidad. El hule de metal se usa para hacer alas de aviones cargadas eléctricamente, para hacer músculos artificiales y computadoras portátiles.




Fuente: http://www.sciencedaily.com/videos/2007/0409-metal_rubber.htm

Deuterio ultra-denso

El día 12 de Mayo de este año, se creó un material que podría usarse como una fuente de energía. Este material cuenta con la característica de ser muy denso y, a pesar de haberse sintetizado sólo cantidades microscópicas, se estima lo siguiente: un decímetro cúbico de dicho material (deuterio ultradenso)puede pesar aproximadamente 130 toneladas. Lo anterior es causado probablemente porque la molécula está conformada por deuterio.

La mejor aplicación a estudiar de este material es como combustible en la fusión nuclear inducida por láser ya que se podría obtener la fusión nuclear entre los núcleos de deuterio a través de láseres de alta potencia, haciendo posible la producción de grandes cantidades de energía. Este descubrimiento abriga esperanzas puesto que, al contrario del deuterio congelado, este material presenta distancias intramoleculares “anormalmente” cortas y es un millón de veces más denso aproximadamente.

El mérito de la síntesis fue para el equipo de investigación del departamento de
química en la Universidad de Gothenburg.

University of Gothenburg (2009, May 12). Ultra-dense Deuterium May Be Nuclear Fuel Of The Future. ScienceDaily. Retrieved May 11, 2009

http://www.sciencedaily.com/releases/2009/05/090511181356.htm

Attoreactores químicos para zeptomoles de reactivos en volúmenes de attolitros



Las reacciones químicas en microfluidos son habituales en biología. Los avances en microfluidos artificiales están permitiendo emular a la Naturaleza. Pavel Anzenbacher y Manuel Palacios de la Bowling Green State University, Ohio, EE.UU., han fabricado reactores químicos de flujo continuo de tamaño micrométrico, con un volumen de pocos attolitros y con unos zeptomoles de reactivos (unas 1500 moléculas). Cada reactor se encuentra en la intersección entre una red de microtubos con un diámetro de 0.2 micrómetros. ¿Para qué pueden servir? No está claro, pero a nivel de química teórica permiten estudiar experimentalmente las propiedades de reacciones químicas con pocas moléculas y comparar sus resultados con los obtenidos mediante simulaciones estocásticas.



La idea es extremadamente sencilla. Aún así tecnológicamente la manipulación de los attoreactores es de gran dificultad. Los reactores químicos ultrapequeños en la escala de los zeptomoles ( moles) se encuentran en las intersecciones de nanofibras poliméricas obtenidas por electro-hilado (electrospun) con un diámetro entre 100-300 nm (nanómetros). la figura de arriba muestra claramente cómo funciona el sistema. Las nanofibras transversales permiten canalizar los reactivos. La aplicación de calor funde las uniones o cruces entre dos nanofibras resultando en la formación de un pequeño volumen de unos 5 attolitros en media. Dentro de estos attoreactores se produce la reacción deseada. La evolución de la reacción y de sus productos se puede analizar directamente dentro de los attoreactores mediante medidas de fluorescencia y mediante espectrometría de masas. El nuevo sistema permite definir una red de attoreactores.

El futuro de esta técnica: reducir el tamaño de los attoreactores hasta lograr reducir el número de moléculas que reaccionan en su interior. La aplicación estrella de esta técnica: la detección o identificación de macromoléculas biológicas (p.ej. proteínas) mediante su reacción en secuencia con una serie de attoreactores con diferentes reactivos.

El agua: catalizador en reacciones explosivas

El material más abundante en la Tierra exhibe algunas propiedades químicas inusuales cuando se encuentra bajo condiciones extremas. Científicos del Laboratorio Nacional Lawrence Livermore han mostrado que el agua, en los ambientes calientes y densos, ejerce un inesperado papel catalizando reacciones explosivas complejas.
Las detonaciones de explosivos potentes hechos de oxígeno e hidrógeno producen agua a miles de grados centígrados y hasta a 100.000 atmósferas de presión, características propias del ambiente reinante en el interior de los planetas gigantes.Aunque las propiedades del agua pura a presiones altas y temperaturas tórridas han sido estudiadas durante años, esta agua extrema en un ambiente reactivo nunca había sido estudiada hasta ahora.
Usando simulaciones de la detonación del poderoso explosivo PETN, el equipo descubrió que en el agua, cuando un átomo de hidrógeno sirve como reductor y el hidróxido sirve como un oxidante, los átomos actúan como un equipo dinámico que transporta oxígeno entre centros de reacción. "Esto es algo nuevo para nosotros", enfatiza la investigadora principal Christine Wu. "Y sugiere que el agua también puede catalizar reacciones en otros explosivos y en los núcleos planetarios".
Este hallazgo contradice la creencia actual de que el agua simplemente es un producto de las detonaciones.En condiciones extremas, el agua es químicamente peculiar. Bajo las condiciones adecuadas, el "agua extrema" es a la vez un producto final y un catalizador químico importante.
Este nuevo descubrimiento podría tener implicaciones para la labor de los científicos que estudian el interior de Urano y de Neptuno, donde el agua se halla en condiciones extremas comparables.

Saturday, May 09, 2009

Plomo y voltametría de redisolución anódica


Muestreo de la sangre venosa y la voltametría de redisolución anódica.



El plomo es un metal pesado que no juega ningún papel en la
fisiología humana, por lo que el nivel plasmático debería ser cero. En la actualidad es prácticamente imposible encontrar alguna persona en la que no se detecten niveles de plomo en sangre. Por ello el análisis de las muestras de la sangre venosa se considera actualmente el método primario para supervisar los niveles ocupacionales del plomo, debido a los problemas de contaminación potencial. Las muestras son obtenidas en capilares.
Los instrumentos portátiles pueden ofrecer resultados analíticos expeditos para los profesionales de la
salud, y en áreas donde se carece de la infraestructura analítica o de laboratorio. Se utiliza para analizar rápidamente niveles del plomo de la sangre venosa en los individuos, y emplea la voltametría de redisolución anódica (ASV) para medir el plomo en la sangre. Es un instrumento desarrollado por los centros para el control de enfermedad y la prevención (CDC, por sus siglas en inglés), diseñado para proporcionar una determinación rápida y rentable para monitorear las exposiciones al plomo.
Este instrumento portátil ASV fue diseñado para proporcionar una alerta, es una técnica rentable para monitorear las exposiciones de plomo y se ha utilizado con éxito para la investigación pediátrica. El análisis rápido con el instrumento también lo hizo potencialmente valioso a los profesionales de la medicina para investigaciones en sitios con poblaciones de trabajadores expuestos al plomo. El instrumento utiliza los reactivos preempacado y no requiere los reactivos de gran pureza, tales como ácido nítrico concentrado o agua ultra-pura. Esto es una ventaja adicional para las investigaciones en el campo de la salud que usen este instrumento (Taylor et al., 2004).
El instrumento (ASV) comercialmente llamado LeadCare es un instrumento portátil de campo, que sirve para monitorear el plomo en la sangre para profesionales de la salud. En vez de esperar días o semanas, que se esperan para obtener los resultados por medio de absorción atómica, los empleados con niveles de plomo en sangre serán identificados rápidamente en minutos a horas.


Voltametría de redisolución anódica
Una de las técnicas que se utilizan para el análisis cuantitativo de metales traza es la voltametría de redisolución anódica, sin embargo esta técnica electroanalítica también se puede utilizar con fines cualitativos, debido a que en el rango de potencial establecido en el análisis, se puede obtener una visión analítica simultánea del contenido de iones metálicos presentes. La voltametría de redisolución anódica consta de tres etapas básicas: La primera es la preconcentración , aquí los iones de interés presentes en la solución, se reducen y el metal formado se deposita en la superficie de una microgota suspendida de mercurio. La segunda etapa es la de redisolución, aquí los elementos metálicos depositados en la superficie de la gota, se oxidan pasando nuevamente a la disolución y en la ventana de potencial del barrido anódico, aparece señales voltamétricas que son características para cada metal y corresponden al potencial de media onda (E ½) de cada uno de ellos, finalmente en la tercera etapa se registran las curvas de corriente potencial, tanto para los estándares como la muestra problema. De acuerdo al potencial en que aparece cada señal voltamétrica, se puede inferir la presencia o ausencia de cada metal en la muestra.


BIBLIOGRAFÍA

http://www.ciencia-ahora.cl/Revista19/03AnalisisMetalesTrazaAlga.pdf

William Hallowes Miller



Nació el 6 de abril de 1801 y murió el 20 de mayo de 1880. Fue un minerólogo y cristalógrafo inglés.

Nació en 1801 en Velindre cerca de Llandovery, Carmarthenshire. Estudió en St John's College, Cambridge, y se graduó en 1826. Siendo tutor de algunas clases, publicó tratados de hidroestática e hidrodinámica. También puso especial interés en la cristalografía, fue sucesor de William Whewell (profesor de minerología) en 1832, se mantuvo en tal puesto hasta 1870 y en 1839, publicó su primero trabajo de cristalografía: "Treatise on Crystallography", que contempla los índices de Miller.


Millerita.

La Millerita presenta la siguiente composición (peso molecular de la fórmula empírica dividido por las sumas de los pesos atómicos de cada elemento para obtener el porcentaje de cada uno de ellos):* 64.67 % Ni* 35.33 % S. Mineral frágil, relativamente blando pero muy pesado, bastante exfoliable. Los cristales alargados son ligeramente elásticos. Mineral opaco, de típico brillo metálico y color amarillo latón o bronce pálido. Es un mineral hidrotermal de baja temperatura, que cristaliza en las grietas de mármoles y rocas calizas ó en filones de calcita. También se forma como producto de alteración de otros minerales de Ni. La fotografía es de una muestra de este mineral encontrado en Australia.


En 1852, hizo una edición de "H. J. Brooke's Elementary Introduction to Mineralogy". Fue electo de la Sociedad Real en 1838. Los índices de Miller se convirtieron en aportación en 1843 al comité encargado de la construcción de los nuevos estándares parlamentarios de longitud y peso.

Miller murió en 1880 en Cambridge, Inglaterra.


BIBLIOGRAFÍA

http://www.granadanatural.com/ficha_minerales.php?cod=98

Sincrotón



Acelerador de partículas cargadas inicialmente en un recipiente toroidal. La velocidad máxima a la que las partículas se pueden acelerar está dada por el punto en que la radiación sincrotón emitida es igual a la energía inyectada.
A diferencia de un
ciclotrón que usa un campo magnético constante (que hace que las partículas giren) y un campo eléctrico constante (para acelerar las partículas), y de un sincrociclotrón, el cual varía uno de los dos campos, en el sincrotrón ambos campos se hacen variar para mantener el camino de las partículas de forma constante, o sea, el radio no varía demasiado. En el ciclotrón isócrono, se construye un imán tal que el campo magnético es más fuerte cuando está más próximo a la circunferencia que en el centro de la misma, de esta manera se genera un aumento total y se mantiene la revolución a una frecuencia constante. En este dispositivo, un anillo de imanes rodea un tanque en forma de anillo de vacío. El campo magnético se incrementa con las velocidades del protón, las partículas se deben inyectar en un sincrotrón de otro acelerador.

El primer sincrotrón de protón fue el cosmotrón usado en el Laboratorio nacional Brookhaven (Nueva York), y comenzó a operar en 1952, logrando una energía de 3 GeV. Otro que le siguió fue el sincrotrón 500-GeV del laboratorio estadounidense Fermi National Accelerator en Batavia, Illinois, construido para ser el acelerador de más alcance del mundo a inicios de los años 70; su anillo delinea una circunferencia de aproximadamente 6 kilómetros. Esta máquina fue actualizada en 1983 para acelerar protones y contar antiprotones que se propagan a velocidades tan enormes que los impactos que sobrevienen entregan energías de hasta 2 billones (tera-) de electronvoltios (TeV), por ello el anillo se ha duplicado en el Tevatron.
El
Tevatrón es un ejemplo de una máquina que sería capaz de producir choques de rayos, y que es realmente un acelerador doble que se sobrealimenta de la separación de 2 rayos, luego de que estos chocan de frente o en un determinado ángulo de incidencia. Según efectos relativistas, producir las mismas reacciones con un acelerador convencional requeriría un solo rayo que al golpear un blanco inmóvil produciría mucho más de dos veces la energía liberada por cualquiera de los rayos que chocan.
Aceleradores de mayor alcance de velocidad son construidos ampliando el radio y usando compartimientos más numerosos y con gran alcance de microondas para acelerar la radiación de la partícula en los puntos tangenciales. Las partículas más ligeras (tales como electrones) pierden una fracción más grande de su energía al dar vuelta, ya que se mueven mucho más rápidamente que un protón de la misma energía, así que los sincrotrones de la alta energía aceleran partículas más grandes; protones o núcleos atómicos. Por ello se dice que el sincrotrón se puede utilizar para acelerar electrones pero es ineficaz. Una máquina circular que acelera electrones es el
betatrón, inventado por Donald Kerst en 1939. Los electrones se inyectan en un compartimiento en forma de anillo de vacío que debe estar rodeado de un campo magnético. El campo magnético se aumenta constantemente, de tal forma que induce un campo eléctrico tangencial que acelerará a los electrones.

Sincrotrones actuales

Entre los sincrotrones más grandes, está el Bevatron, actualmente en desuso, construido en 1950 en el Lawrence Berkeley National Laboratory (California, EE.UU.) y que fue utilizado para establecer la existencia del antiprotón. El nombre de este acelerador de protones proviene de su energía, que está en la gama de 6.3 GeV (entonces llamado BeV por su mil millones de electronvoltios; un gran número de elementos pesados, no vistos en el mundo natural, fueron generados con esta máquina).
Al parecer el elevado costO es el factor limitador en fabricar aceleradores de partículas pesadas. El
CERN, en Europa está desarrollando actualmente aceleradores un poco menos ambiciosos que avanzarán perceptiblemente en la forma de manejo de energía. Mientras hay potencial para todo tipo de aceleradores cíclicos de partículas pesadas, parece ser que la siguiente etapa demanda intensificar la energía de aceleración del electrón por la necesidad de evitar las pérdidas debido a la radiación sincrotrón. Esto motivará una vuelta al acelerador lineal, pero cuyos dispositivos serán notoriamente más largos que los actualmente en uso. Sin embargo la radiación sincrotrón es usada por muchos científicos y para ellos la producción de la radiación sincrotrón es el único propósito del mismo. La radiación sincrotrón es útil para una amplia gama de usos y muchos sincrotrones se han construido especialmente para producir su luz. SPring-8 en Japón es uno de ellos: su capacidad de alcance es la mayor en el mundo en lo que se refiere a aceleración del electrón (en fecha 2005) y es de 8 GeV.

El ESRF en Grenoble, Francia



BIBLIOGRAFÍA

http://www.metrologia.cl/noticias/lametrologiayyo/erichtegelerptbtemperatureradiation.act

http://www.astro.ugto.mx/cursos/astrofisicaII/AstrofisicaII_Parte_II/capitulo_7/cap_7_docs/Rad_sincrotron.htm

http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen3/ciencia3/111/htm/sec_15.htm

¿No que no?

El 22 de abril de este año (2009), en la Universidad de Oklahoma, se descubrió un nuevo tipo de enlace donde se ve involucrada un átomo de Rydberg. Los átomos de Rydberg generalmente poseen un electrón cuyo número cuántico principal es alto y se pueden apreciar interacciones con otros átomos a grandes distancias.

Hasta ahora la molécula sólo existía teóricamente, pero el equipo de investigación alemán logró formar este tipo de interacción entre un átomo de rubidio y otro átomo Rydberg del mismo elemento. Rb(5s) – Rb(ns) donde n (número cuántico principal) toma valores ente 34 y 40. La manera en que se caracterizó este dímero fue a través de espectroscopía, permitiendo obtener el espectro vibracional del estado basal y el primer estado excitado de la molécula, concordando con los resultados computacionales obtendidos con anterioridad.

La síntesis de este dímero significa el refuerzo de las teorías de Enrico Fermi (Premio Nobel) que predecían la forma en que dos átomos interactuaban cuando un electrón se encontraba lejos del núcleo.

http://www.sciencedaily.com/releases/2009/05/090507130439.htm
http://www.nature.com/nature/journal/v458/n7241/full/nature07945.html
http://www.bbc.co.uk/mundo/ciencia_tecnologia/2009/04/090423_molecula_men.shtml

Microscopio de efecto túnel



Ernst August Friedrich Ruska (Heidelberg, 25 de diciembre de 1906- Berlín, 25 de mayo de 1988) fue un físico alemán que en 1931 construyó el primer microscopio electrónico, junto con Max knoll. Sin embargo, el microscopio de efecto túnel fue el avance que en 1986, junto con Gerd Binnig y Heinrich Rohrer, les otorgó el premio Nobel de Física. Murió en mayo de 1988 en Berlín occidental con 81 años de edad, dos años después de recibir dicho premio.


Microscopio de efecto túnel


El microscopio de efecto túnel (Scanning Tunneling Microscope STM) es un poderoso instrumento que permite visualizar superficies a escala del átomo.

Este sistema basa su funcionamiento en un efecto cuántico, denominado efecto túnel, que se da en distancias menores a un nanómetro. El control de este tipo de fenómeno es lo que nos permite hacer topografía de superficies a nivel atómico. Desde el punto de vista de la mecánica clásica un electrón no puede superar una barrera de potencial superior a su energía. Sin embargo, según la mecánica cuántica, los electrones no están definidos por una posición precisa, sino por una nube de probabilidad. Esto provoca que en ciertos sistemas esta nube de probabilidad se extienda hasta el otro lado de una barrera de potencial. Por tanto el electrón puede atravesar la barrera, y contribuir a generar una intensidad eléctrica.
Esta intensidad se denomina intensidad de túnel y es el parámetro de control que nos permite realizar la topografía de superficie.
Este efecto cuántico aparece también en otras ramas de la física. Gamow lo aplicó para dar explicación a la desintegración mediante emisión de partículas alfa en núcleos inestables. En electrónica, hay transistores que basan parte de su funcionamiento en el efecto túnel.

En una instalación cuyo fin es tomar medidas en escala atómica es necesario que el elemento que se usa como sonda de medida tenga una resolución de esa misma escala. En un microscopio de efecto túnel la sonda es una punta conductora, por ejemplo, de Wolframio. La punta se trata para eliminar los óxidos y para que sea lo más afilada posible. En condiciones ideales hay un solo átomo en el extremo de la sonda.
La instalación consiste en un circuito eléctrico en el que están incluidos la muestra y la punta de medida. Como se ha apuntado anteriormente, el parámetro de medida es la intensidad de corriente túnel. Esta intensidad apenas alcanza los nanoamperios y, además, es muy sensible tanto a la distancia, como a la diferencia de tensión entre la punta y la muestra. Debido a esta sensibilidad todo el sistema debe estar controlado electrónicamente. Así, la toma de medidas y los movimientos de la punta (realizados mediante un dispositivo piezoeléctrico con precisiones que pueden llegar a los 0.05 nm) son controlados por el usuario, a través de las interfases correspondientes, por ejemplo: mediante un PC de sobremesa.
La punta no toca la muestra, sino que se queda a una distancia equivalente a un par de átomos (del orden de angstroms) de la superficie. El PC registra la trayectoria de la punta y entonces se puede desplegar la información como una imagen en escala de grises a manera de mapa de densidades o mapa topográfico. A la imagen se le puede agregar color sólo para mejorar el contraste y así observar mejor los cambios detectados.


APLICACIONES

Microscopia con resolución atómica

En esencia, el proceso consiste en realizar una topografía a intensidad de túnel constante sobre una zona de la superficie de la muestra. El sistema busca los parámetros en los que es capaz de medir una intensidad de túnel prefijada y, a partir de estos, calcula la distancia a la que se encuentra la punta de la superficie. Repitiendo el proceso mientras la punta recorre una determinada área de la superficie problema se obtiene, finalmente, una imagen relacionada con la topografía y la estructura electrónica de dicha área.

Caracterización de dominios magnéticos a nivel atómico

La topografía de superficies se realiza mediante una punta de wolframio. Si cambiamos esta punta por una compuesta por un material magnético seremos capaces de realizar caracterizaciones de dominios magnéticos a escala atómica. Además, debido a la especial capacidad de algunos microscopios de trabajar a temperaturas muy bajas se pueden realizar caracterizaciones en función de la temperatura. Este tipo de medidas proporcionan información adicional sobre las propiedades magnéticas de los materiales en relación con sus características a escala atómica, en lugar de con sus propiedades macroscópicas.

Nanolitografía

Esta técnica permite manejar átomos sobre superficies como elementos independientes. Las posibilidades de esta tecnología son inmensas dado que prácticamente se pueden crear las estructuras atómicas que se deseen, es decir, la posibilidad de diseñar materiales "a la carta".
En la imagen se observa un "corral" cuántico creado mediante el desplazamiento de átomos de hierro sobre una superficie de cobalto.
Desde 1989 Donald Eigler y Erhard Schweizer del Centro de investigación Almaden de IBM comenzaron a utilizar el STM para manipular átomos individuales, logrando "escribir" las siglas de la compañía con 35 átomos de xenón sobre una superficie de níquel.


Bibliografía

http://ina.unizar.es/equipos/microscopioSTM.htm

http://ina.unizar.es/docs/cen69/contenido6.html
http://www.madrimasd.org/cienciaysociedad/ateneo/temascandentes/nanotecnologia/default.asp

Contaminación radioactiva



  • Un litro de agua normal posee unos 340 pCi de radioactividad natural debidos en su mayor parte al 40K (en más de un 90%) y al 87Rb.

  • En el medio marino, los organismos están sometidos a dosis de 1-3 mrad/año y los cercanos a la superficie, por efecto de la radiación cósmica, dosis de 25-35 mrad/año.

  • En fondos graníticos se dan dosis de 90 mrad/año y en algunos fangos hasta 600 mrad/año.

  • El plancton posee hasta un 80% de radioactividad artificial, proveniente de la acción del hombre: explosiones nucleares y desechos de centrales nucleares (135Xe, 85Kr, 90Sr, 131I, 137Cs, 144Ce, 106Ru, 89Sr, 140La, 129Te, 143Pr, 140Ba, 95Zr, 65Zn, 58CO, 55Fe, 59Fe, 54Mn, 124Sb, 110Ag y 51Cr). Por ejemplo: por ejemplo la central francesa de Chooz vierte un 30% de 134Cs, un 30% de 137Cs y un 22% de 131I

Explosiones nucleares:
La mayor parte de la radioactividad artificial en el mar es debida principalmente a la contaminación producida por explosiones nucleares en la atmósfera. Así RAVERA (1978) muestra una correlación entre la radiación beta atmosférica (Figura 1) y la concentración en 90Sr en el molusco Tellina pusilla del Adriático.
Los valores mayores de esta polución radioactiva en el mar y de los seres vivos que en él habitan se produjo entre los años 1962 y 1963, cuando varios países experimentaron explosiones nucleares. A partir del Tratado de Moscú (1963) sobre limitación de estos experimentos, se observó una progresiva disminución y un retorno a niveles más bajos de isótopos radioactivos en los animales marinos.

Mecanismos de acumulación de los radioisótopos

  • Algunos elementos como el 137CS y el 90Sr resultan particularmente peligrosos para el organismo dado que se comportan en forma similar al K y Ca, elementos indispensables en el ser vivo. La regulación bioquímica del Cs (y por tanto del isótopo 137CS) es llevada a cabo por los mecanismos de regulación del potasio. Este cesio se acumula preferentemente en los músculos (53%) y en la piel (31%) de los peces. El cesio se acumula poco en las algas feoficeas, pero si empobrecemos artificial mente estas aguas en K, el factor de concentración de Cs se eleva rápidamente. Así pues existe un mecanismo de corregulación de estos elementos.
  • Otra categoría de elementos radioactivos son aquellos que en estado normal forman parte activa en el metabolismo de los seres vivos; sodio, potasio, calcio, magnesio, cobalto, hierro, etc...
  • El tercer grupo incluye una gran cantidad de elementos de elevado número atómico (lantánidos y transuránidos) que no poseen ningún papel en el mecanismo bioquímico de los seres vivos. Respecto a las vías de entrada en el organismo de estos radioisótopos, pueden ser: mediante el agua, por los alimentos y por el sedimento.

Efectos de radioactividad

  • Somáticos: las dosis son altas y producen daños en el organismo
  • Genéticos: las dosis son suficientemente bajas para no evidenciar efectos nocivos en el organismo pero afectan a las células reproductoras produciendo variaciones genéticas irreversibles en la descendencia, es difícil de prevenir.
  • Transferencia al hombre de radioisótopos presentes en animales marinos.
  • Descenso de las poblaciones de especies comerciales por efecto directo de la radiación.
  • Reducción de estas poblaciones debido a alteraciones o desequilibrios ecológicos producidos por las radiaciones.

Bacterias reciclando radioactividad

Algunas bacterias marinas son capaces de acumular elementos radio- activos como el 90Y con factores de concentración superiores a 20.000, asimismo las algas son de gran ayuda para contrarrestar niveles de 141Ce de 8.000 y para el 65Zn de 164

Las bacterias pueden transferir radioisótopos a organismos superiores a través de la cadena trófica, así el crustáceo Gammarus locusta acumula 32P, pero al añadir antibiótico (terramicina) al medio, esta acumulación cesa, lo cual demuestra cómo Gammarus obtiene su alimento (y con él el 32P) de las bacterias.
Este mecanismo de acumulación observado experimentalmente en laboratorio tiene particular interés en los organismos filtradores que se alimentan de bacterias, así también el molusco lamelibranquio Tapes decussatus para la acumulación del 54Mn.
Las bacterias autótrofas o quimiótrofas son capaces de transformar la materia mineral en orgánica y por lo tanto pueden incorporar elementos radioactivos transfiriéndolos a la cadena trófica. Otro ejemplo típico es la acumulación de cobalto que forma parte de la vitamina 812 sintetizada por las bacterias, que en un medio polucionado por contaminación radioactiva puede ser 60CO.

Dato curioso: las cucarachas son capaces de soportar dosis de radiactividad de 6 a 15 veces superiores a las de los seres humanos, aunque no son insectos tan resistentes a la radiación como Drosophila, la mosca de la fruta, o la avispa parasitoide Habrobracon.

Bibliografía

http://e-nimals.com/curiosidades/datos-curiosos-de-las-cucarachas/

http://www.ingeba.euskalnet.net/lurralde/lurranet/lur03/smi03/03smil.htm

Binary temporal upconversion codes of Mn2+-activated nanoparticles for multilevel anti-counterfeiting

Optical characteristics of luminescent materials, such as emission profile and lifetime, play an important role in their applications in opt...