Adenosina trifosfato (ATP)

image

Fragmento de un artículo de coenzima.com por demás interesante sobre el ATP ¿qué es? ¿para que sirve? y ¿cómo funciona'?

Para ver el artículo completo, click aqui

La adenosina trifosfato (abreviado ATP) es una molécula utilizada por todos los organismos vivos para proporcionar energía en las reacciones químicas. El ATP es un nucleótido trifosfato que se compone de adenosina y tres grupos fosfato. El ATP es altamente soluble en agua y muy estable en soluciones de pH entre 6.8 y 7.4, pero se hidroliza rápidamente a pH extremo.

Es una molécula inestable y tiende a ser hidrolizada en el agua. Si el ATP y el ADP se encuentran en equilibrio químico, casi todos los ATP se convertirán a ADP. Las células mantienen la proporción de ATP a ADP en el punto de diez órdenes de magnitud del equilibrio, siendo las concentraciones de ATP miles de veces superior a la concentración de ADP. Este desplazamiento del equilibrio significa que la hidrólisis de ATP en la célula libera una gran cantidad de energía.

El ADP puede ser fosforilado por la cadena respiratoria de las mitocondrias y los procariotas, o por los cloroplastos de las plantas, para restaurar el ATP. La coenzima ATP/ADP es un proveedor de energía universal, y es la principal fuente de energía directamente utilizable por la célula. En los seres humanos, el ATP constituye la única energía utilizable por el músculo.

Las reservas de ATP en el organismo no exceden de unos pocos segundos de consumo. En principio, el ATP se produce de forma continua, pero cualquier proceso que bloquee su producción provoca la muerte rápida (como es el caso de determinados gases de combate diseñados para tal fin; o venenos como el cianuro, que bloquean la cadena respiratoria; o el arsénico, que sustituye el fósforo y hace que sean inutilizables las moléculas fosfóricas).

El ATP no se puede almacenar en su estado natural, sino sólo como intermediarios de la cadena de producción de ATP. Por ejemplo, el glucógeno puede ser convertido en glucosa y aportar combustible a la glucolisis si el organismo necesita más ATP. El equivalente vegetal del glucógeno es el almidón. La energía puede también ser almacenada como grasa, mediante neo-síntesis de ácidos grasos.

Nanotecnologías e Historia.

Nuevas técnicas de análisis de tejidos, empleando aplicación de radiaciones de frecuencia selecta en combinación con datos de deterioro químico pueden ser la clave para la correcta datación no sólo de tejidos y huesos, sino también de materiales rocosos.

La técnica, que supera en mucho a la del carbono 14, permitiría obtener rangos de error mucho más razonables y extrapolar.

Por supuesto hay dos partes: el ataque del material y el algoritmo de análisis de resultados. Un algoritmo fractal pordría ser entonces la respuesta para la datación precisa y confiable de casi cualquier material. E incluso de la restauración virtual del mismo.

Helycobacter Pylori en momias mexicanas

image

Artículo muy interesante de la BBC sobre la presencia de la bacteria Helycobacter Pylori desde hace mas de 700 años en lo que hoy es nuestro querido país. Ésta bacteria se aloja en el estómago del ser humano y tiende a salir del mismo si el individuo mantiene una sana alimentación, sin embargo cuando esto no sucede y la bacteria se instala en el órgano, puede producir dolores estomacales; si la infección es mas grave, provoca úlceras y en el peor de los casos, cáncer de estómago. He aquí el fragmento del artículo, mas si se desea leer el artículo original, presionar el siguiente enlace: La momia que tuvo dolor estomacal – BBC Mundo

La momia que tuvo dolor estomacal

Científicos de la Universidad Nacional Autónoma de México descubrieron restos de la bacteria Helicobacter pylori (H. Pylori) en tejido gástrico de momias mexicanas.

Según los investigadores, las momias -de personas que se cree vivieron antes de la llegada de Colón al Nuevo Mundo- muestran que la infección que causa la úlcera estomacal azotó a las poblaciones nativas.

Según señala el estudio publicado en BioMed Central Microbiology, ésta es la primera evidencia de que las infecciones de H. pylori comenzaron hace 700 años en lo que hoy es México.

La infección de la bacteria H. pylori afecta a cerca de 50% de la población humana y entre los infectados un 15% desarrolla úlceras y un 3% cáncer gástrico.

En México, las tasas de cáncer estomacal han aumentado en los últimos años, y la enfermedad se ha convertido en uno de los principales causantes de muerte por cáncer en hombres.

Antiguo organismo

Los científicos sospechaban ya que el H. pylori ha estado presente en la población mexicana desde hace cientos de años.

Pero ahora por primera han podido confirmar sus sospechas.

Úlcera gástrica

La doctora Yolanda López-Vidal y su equipo del Departamento de Microbiología de la UNAM estudiaron tejido estomacal, de lengua y cerebro de dos cuerpos momificados de forma natural, un niño y un hombre adulto.

Los investigadores encontraron fragmentos de ADN de la H. pylori en los restos momificados.

La infección gástrica de la H. pylori ocurre cuando la bacteria penetra el recubrimiento del estómago y esto provoca una respuesta inflamatoria local.

Esta inflamación puede conducir al desarrollo de úlceras pépticas y cáncer gástrico.

Bacteria, no chili

Según la doctora López-Vidal "gracias a que pudimos estudiar el tejido estomacal de estas increíbles momias, pudimos llevar a cabo este descubrimiento".

"Nuestros resultados muestran que las infecciones de H. pylori ocurrieron alrededor del año 1350 en el área que hoy conocemos como México".

Los científicos no saben con exactitud cómo se contagia la bacteria, pero creen que se propaga en la materia fecal y se transmite con la ingestión de agua o alimentos contaminados.

Aunque la infección de esta bacteria seguramente causó agudos dolores estomacales a los antiguos mexicanos, éstos no sabían de que se trataba.

Pasó mucho tiempo antes de que la bacteria fuera identificada.

Fue hasta 1979 cuando los australianos Warren y Marshall lograron aislar el organismo y descubrieron que la H. pylori era la responsable de las úlceras estomacales y la gastritis y no el estrés o la comida picante como hasta entonces se pensaba.

Y en 2005 ambos científicos fueron galardonados con el Premio Nobel de Medicina por sus descubrimientos sobre la H. pylori.

Física Cuántica sin fórmulas II

image

He aquí el segundo artículo de la serie publicada en El Tamiz cuántica sin fórmulas, en esta ocasión se trata de el efecto fotoeléctrico.

    El efecto fotoeléctrico

Tras realizar un pequeño preludio y hablar sobre la hipótesis de Planck, continuamos hoy la serie de Cuántica sin fórmulas hablando acerca del segundo paso que derrumbaría las suposiciones de la física clásica y revolucionaría la física del siglo XX aún más que la relatividad. Este segundo paso, como veremos, se basa en el primero, y tiene ciertos paralelismos con él. Me refiero al efecto fotoeléctrico.

Este efecto era uno de los pocos fenómenos que no tenían una correcta explicación teórica a finales del siglo XIX (lo mismo que la radiación de cuerpo negro, de la que ya hablamos y que Planck logró justificar mediante su hipótesis), y consiste en lo siguiente: si se coge un trozo de un metal y se hace incidir luz sobre él, a veces la luz es capaz de arrancar electrones del metal y hacer que se muevan, produciendo así una corriente eléctrica – de ahí el nombre del efecto, “electricidad producida con luz”. Pero la clave está en el “a veces”, y ahí es donde los físicos se mesaban los cabellos con preocupación.

Los científicos se dedicaron, por supuesto, a pensar por qué se producía y cuándo debería producirse el efecto fotoeléctrico (que debería involucrar partes de la ciencia bien desarrolladas como el electromagnetismo), y la teoría clásica razonaba de la siguiente manera:

La luz transporta energía. Cuando la luz choca contra el metal, le transfiere energía. Si esa energía es suficiente para arrancar electrones, se produce el efecto fotoeléctrico, y si no es suficiente, no ocurre nada. De manera que si, por ejemplo, apunto una bombilla muy tenue contra una chapa de metal, no se produce efecto fotoeléctrico, pero si aumento la potencia de la bombilla mil veces, se producirá el efecto.

Pero esto no pasaba. Si la bombilla tenue no era capaz de producir el efecto fotoeléctrico, entonces por mucho que aumentara la intensidad de la luz, diez, mil, un millón de veces, no salía ni un solo electrón del metal. También pasaba al revés, claro: si la bombilla era capaz de arrancar electrones del metal, era posible disminuir su potencia todo lo que se quisiera: incluso un debilísimo rayo de luz de la bombilla era capaz de arrancar electrones – arrancaba menos electrones que la luz potente, pero los arrancaba. Y esto no tenía absolutamente ningún sentido.

¿De qué dependía entonces que se produjera el efecto, si no era de la intensidad de la luz? Los científicos, por muy tercos que fueran tratando de explicar las cosas con la teoría clásica, son científicos: se dedicaron a cambiar otras condiciones del experimento hasta llegar a una conclusión absurda, imposible, totalmente inaceptable – el factor que decidía que se arrancaran electrones era el color de la luz de la bombilla. Dicho en términos más técnicos era la frecuencia de la radiación, pero nuestros ojos “ven” la frecuencia de la luz como el color, de modo que nos vale con eso.

Es decir, que si cogiéramos una bombilla cuyo color pudiéramos hacer variar siguiendo los colores del arco iris (los físicos de la época iban más allá de la luz visible, pero una vez más nos vale con esto), desde el rojo al violeta, al principio no se producía el efecto. Pero llegaba un momento, que dependía del metal que se tratase (y no dependía para nada de la intensidad de la luz) en el que empezaban a arrancarse electrones – supongamos que al llegar al amarillo. Si se seguía variando el color a lo largo del arco iris, cualquier color pasado el amarillo en ese recorrido (por ejemplo, el violeta) también arrancaba electrones.

La intensidad de la luz sí tenía cierto efecto, como hemos dicho: si un rayo de luz roja (por ejemplo) no producía el efecto, por muy intensa que fuera la luz no ocurría nada. Pero si un rayo de luz amarilla sí lo producía, entonces al aumentar la intensidad de la luz aumentaba el número de electrones arrancados. Sin embargo, incluso esto no encajaba con la teoría clásica: aumentaba el número de electrones arrancados (la intensidad de la corriente), pero no la energía de cada electrón (el voltaje de la corriente), que era absolutamente igual para la luz amarilla independientemente de la intensidad. Es decir, si la luz amarilla producía electrones con una determinada energía cada uno, multiplicar la intensidad de la luz por cien hacía que salieran cien veces más electrones del metal, pero todos con la misma energía que cuando salían menos. La verdad es que era desesperante.

Pero es que la cosa no acaba ahí: la frecuencia (el color) de la luz no sólo determinaba si se producía el efecto o no. Además, la energía de cada electrón (que ya hemos dicho no dependía de la intensidad) aumentaba según la frecuencia de la luz aumentaba. Es decir, que si se usaba luz azul, los electrones tenían más energía que si se usaba luz amarilla. Pero ¿qué demonios tenía que ver el color de la luz con la energía de los electrones?

La solución la dio el siempre genial Albert Einstein, quien, recordemos, ya había apuntado a la hipótesis de Planck como la solución teórica al problema de la radiación de cuerpo negro. Einstein aplicó el razonamiento lógico y extrajo una conclusión inevitable de la hipótesis de Planck – aplicar la lógica y extraer conclusiones eran cosas en las que Einstein era un genio sin igual. El razonamiento del alemán fue el siguiente:

Si los pequeños osciladores que componen la materia sólo pueden tener unas energías determinadas, unos “escalones de energía” que son proporcionales a la constante de Planck y a la frecuencia con la que oscilan, ¿cómo será la energía que absorben y desprenden? La luz, al fin y al cabo, sale de estos osciladores. Una bombilla, por ejemplo, brilla porque los átomos del filamento están muy calientes y desprenden energía electromagnética, que ellos mismos pierden. Pero si los osciladores pierden energía, no pueden perder una cantidad arbitraria: deben “bajar la escalera” de energía y, como mínimo, perder un “escalón”. De forma inevitable, la energía luminosa que desprenden no puede ser arbitraria, tiene que estar hecha de estos “escalones”.

Einstein
Einstein en 1905, cuando publicó su explicación del efecto fotoeléctrico.

Si lo piensas, es totalmente lógico (aunque generó una gran polémica al principio): si las fuentes de luz sólo pueden estar en los escalones de energía que propuso Planck, y cuando emiten luz es porque pierden energía, la luz que emiten debe estar hecha de esos “escalones”. No es posible emitir una cantidad arbitrariamente pequeña de energía luminosa: sólo puede tenerse luz “en píldoras”. La luz está cuantizada.

Naturalmente, un físico que se precie no habla de “píldoras”, “escalones” o “trozos” de luz. Einstein llamó a este concepto Lichtquant, “cuanto de luz”. En 1926, Gilbert Lewis propuso otro nombre, que es el que usamos hoy en día: fotón. Durante el resto de este artículo hablaremos de fotones, aunque Einstein no los mencionara en la publicación en la que propuso su existencia.

Cuando se considera el efecto fotoeléctrico en términos de fotones, todo tiene sentido: la luz que llega al metal está compuesta de fotones. Cada uno de ellos tiene una energía proporcional a la constante de Planck y la frecuencia de la radiación. Si la luz es muy intensa (una bombilla muy grande y potente), hay muchos fotones. Si la luz cambia de color pero no de intensidad, hay el mismo número de fotones, pero cada uno tiene más energía (hacia el azul) o menos energía (hacia el rojo).

Cuando uno de estos fotones llega al metal y choca con un electrón, puede darle su energía: si esta energía es suficiente para arrancarlo del metal, se produce el efecto fotoeléctrico, y si no es suficiente, no pasa nada. La cuestión es que la interacción se produce entre un fotón y un electrón – no entre “toda la luz” y “todos los electrones”, porque tanto la luz como la materia están cuantizadas. ¿De qué depende entonces de que se produzca el efecto? De la frecuencia de la luz, es decir, del color. Si es luz roja (por ejemplo), cada fotón tiene muy poca energía. Tal vez haya muchísimos fotones, pero a este electrón en particular sólo le afecta el que ha chocado contra él, y éste no tiene suficiente energía para arrancarlo, de modo que no sucede nada.

Si se tiene luz con una gran frecuencia (por ejemplo, azul), cada fotón tiene mucha energía: proviene de un “escalón grande” de Planck. Cuando choca con un electrón puede darle suficiente energía para arrancarlo del metal, y entonces se produce el efecto fotoeléctrico. Claro, si esta luz azul es muy intensa (hay muchos fotones), y cada uno arranca un electrón, se arrancarán muchos electrones, exactamente como sucede en la realidad. Pero si cada fotón no hubiera tenido suficiente energía para arrancar a su electrón, por muchos fotones que hubiera, no pasaría nada en absoluto.

Puede que te preguntes, querido lector, Vale, pero ¿no puede el electrón recibir un fotón con poca energía, “guardarse la energía” que le ha dado el fotón, aunque no sea bastante, y esperar al siguiente fotón, y así hasta tener suficiente energía para escapar?

No, no y mil veces no – recuerda la hipótesis de Planck. Si un fotón no tiene suficiente energía para arrancar el electrón es porque el escalón de energía es demasiado alto. Un electrón no puede tener “un poquito más de energía” arbitrariamente: o tiene la que tiene ahora, o tiene la del siguiente escalón. Si el fotón no tiene suficiente energía para arrancar el electrón es que la energía del siguiente escalón es demasiado alta, de modo que el electrón ni siquiera puede almacenar la energía del fotón, porque lo pondría “entre dos escalones”. De modo que se queda exactamente como estaba antes, por muchos fotones de poca energía que le lleguen. Estos fotones, al no poder ser absorbidos por el electrón, continúan su camino, y probablemente acabarán dando su energía a algún átomo, haciéndolo vibrar más rápidamente (es decir, calentando el metal), pues los “escalones” son ahí más pequeños que los necesarios para arrancar el electrón.

Y, por supuesto, si la luz tiene una frecuencia altísima, los electrones arrancados tendrán una gran energía (y la corriente, un gran voltaje): el fotón tiene mucha energía, y gasta parte de ella en arrancar el electrón. El resto se la queda el electrón, pues el fotón ha desaparecido: un fotón es un “escalón”, y no puede romperse y dar parte de su energía. O está, o no está. Cuando le da su energía al electrón, se da entero. El electrón, entonces, tiene mucha energía. Mientras que si la frecuencia de la luz es sólo la necesaria para arrancar al electrón y nada más, el electrón tiene muy poca energía. Una vez más, coincidía a la perfección con los experimentos.

Pero la teoría de Einstein no sólo coincidía con la realidad cualitativamente, sino que era capaz de realizar predicciones cuantitativas: si la energía de cada fotón era proporcional a la constante de Planck y a la frecuencia de la luz, entonces la energía de los electrones arrancados debería aumentar proporcionalmente a la frecuencia de la luz. Aunque cueste creerlo, en 1905, cuando Einstein publica su propuesta, aún no se había medido cuantitativamente la energía de los electrones arrancados. En 1915, Robert Andrews Millikan realizó experimentos muy precisos: la energía de los electrones aumentaba de forma lineal con la frecuencia, exactamente lo que Einstein había predicho.

Parte de la comunidad científica aún se resistía a aceptar la existencia del Lichtquant, pero una vez más, aceptando una idea aparentemente absurda y contraria a la intuición (que la luz está hecha de “trozos”), los experimentos se explicaban con una precisión indiscutible. Albert Einstein recibió el Premio Nobel en 1921 por su explicación del efecto fotoeléctrico, siguiendo los pasos de Planck – y, como él, muy reacio a aceptar las implicaciones posteriores de su teoría, de las que hablaremos en artículos posteriores en la serie.

La pregunta inmediata, por supuesto, es: si la luz está hecha de pequeños paquetes, ¿por qué la vemos de forma continua? Nadie ve “trocitos” de luz, no, y la respuesta (que ya deberías saber, si has entendido la serie hasta ahora) es que son demasiado pequeños. Si recuerdas la hipótesis de Planck, la energía de cada escalón es minúscula y, por lo tanto, la energía de cada fotón es igualmente minúscula. Cuando nos llega, por ejemplo, la luz del Sol, está hecha de fotones, pero cada segundo llegan a nuestro ojo unos veinte trillones de fotones: 20.000.000.000.000.000.000 fotones. ¿Pero cómo vamos a distinguir que no es un “chorro” de energía sino un “goteo”? Es imposible.

La explicación de Einstein del efecto fotoeléctrico tiene implicaciones profundas sobre nuestro concepto del Universo: la luz era, para la comunidad científica, clara e indiscutiblemente una onda, como el sonido o las olas. Sufría fenómenos, como la interferencia y la difracción, que sólo sufren las ondas. Sin embargo, ahora llegaba Einstein y decía que la luz estaba compuesta de lo que, a efectos prácticos, eran pequeñas partículas… ¿cómo podía la luz sufrir difracción si estaba hecha de fotones? Pero ¿cómo podía la luz producir el efecto fotoeléctrico si no estaba hecha de fotones? La solución de Einstein generaba preguntas aún más difíciles de responder: ¿era la luz una onda o partículas?

La solución, por supuesto, es el tercer paso en nuestra caída de la realidad objetiva, y el responsable fue otro genio del razonamiento lógico: el francés Louis-Victor-Pierre-Raymond, séptimo Duque de Broglie (normalmente conocido como Louis de Broglie).

Física Cuántica sin fórmulas

La física cuántica es fundamental para el entendimiento y creación de las nanotecnologías, sin embargo, resulta complicada de entender debido a su naturaleza nanoscópica que conlleva el uso de extensas y complicadas matemáticas. Para fortuna de aquellos que comenzamos a adentrarnos en el mundo de la nanotecnología ,existe una serie de artículos publicados en la web El Tamiz, llamados cuántica sin fórmulas, esto resulta realmente útil para ampliar el conocimiento y lograr un mejor entendimiento de esta sección de la física en la que vemos gran cantidad de ecuaciones. Aquí el primer artículo de la serie:


La hipótesis de Planck


En la primera entrada de la serie Cuántica sin fórmulas mencionamos los pequeños “flecos” que harían tambalearse a la física clásica hasta que algunas de las cosas evidentes e intuitivas que todo el mundo daba por sentadas demostraron ser totalmente falsas. Hoy vamos a dedicarnos al primero de estos “flecos”, y la semilla de la teoría cuántica, mientras que en la próxima entrada hablaremos del segundo.
Como veremos, ambos son relativamente similares: en ambos casos existe un fenómeno físico del que no tenemos una explicación coherente. En ambos se propone una explicación que se ajustaría perfectamente a la realidad, pero cuyas consecuencias lógicas acerca de cómo es el Universo son tremendas. Y ambos proponentes de estas explicaciones son muy reacios a aceptar esa nueva concepción del Universo, a pesar de ser ellos mismos los que las han planteado.
El primero de ellos, al que está dedicado este artículo, es la radiación de cuerpo negro y la hipótesis de Planck. Dicho mal y pronto, 6,63·10-34 ≠ 0… y el mundo es un lugar muy, muy raro como consecuencia de eso.
A finales del siglo XIX, tanto la termodinámica como el electromagnetismo eran ramas muy sólidas de la física y explicaban excelentemente bien casi todos los fenómenos relacionados con ellas. En algunos de ellos, ambas estaban involucradas a la vez, y uno de ellos era el problema de la radiación de cuerpo negro.
Un cuerpo negro es, como su propio nombre indica, un cuerpo que absorbe absolutamente toda la radiación electromagnética que recibe: ni refleja ni transmite nada de radiación. Un cuerpo de este tipo no es necesariamente de color negro: sí, no refleja nada, pero eso no quiere decir que él no emita radiación. Como absorbe toda la radiación que recibe, si le proporcionamos mucha energía se irá calentando hasta brillar. Puedes pensar en un tizón de madera totalmente negro como un cuerpo negro: si se calienta mucho es una brasa, brilla, no porque refleje luz sino porque emite la suya propia.
Igual que un tizón de madera, según su temperatura, brilla de un color o de otro (rojo profundo si no está demasiado caliente, amarillo si está más caliente, etc.), un cuerpo negro ideal emite radiación con una distribución de frecuencias determinadas. Esta radiación, denominada radiación de cuerpo negro, sigue una curva conocida por los físicos de la época. Dependiendo de la temperatura del cuerpo, la radiación emitida varía, de modo que cuanto más caliente está menor es la longitud de onda en la que tiene un máximo de emisión:
El eje vertical representa la energía emitida en cada nanómetro del espectro electromagnético, y el horizontal la longitud de onda. Como puedes ver, cuanto más caliente está el cuerpo, más radiación emite (lógico), y más hacia la izquierda está el máximo de emisión: un cuerpo bastante frío emite casi toda la energía en la región infrarroja y no lo vemos brillar, un cuerpo más caliente brilla con color rojo, uno muy caliente sería azulado, etc, según la curva tiene un máximo más hacia la izquierda. Una vez más, lógico.
Las teorías de la época suponían que la superficie del material estaba compuesta por una infinidad de osciladores muy pequeños (que hoy diríamos que son los átomos del material) que se encuentran vibrando alrededor de un punto de equilibrio. Cuanto más caliente está el material, más rápido y con mayor amplitud vibran esos minúsculos osciladores, que pueden emitir parte de la energía que tienen en forma de onda electromagnética. Al emitir esta energía, oscilan más despacio: es decir, se enfrían.
Al aplicar estas teorías clásicas a la radiación de cuerpo negro, se obtenía una curva teórica de la radiación emitida…y ninguna curva teórica coincidía con la curva real. La más conocida era la propuesta por Lord Rayleigh en 1900, y perfeccionada por Sir James Jeans en 1905. Era elegante, se deducía de manera lógica a partir de las teorías conocidas… y predecía que un cuerpo negro debería emitir una energía infinita.
La curva que se obtenía a partir de la fórmula de Rayleigh-Jeans se ajustaba muy bien a la curva real para longitudes de onda largas, pero para longitudes de onda cortas divergía de una forma exagerada: no es que fuera algo diferente, es que era totalmente imposible. En descargo de Rayleigh y Jeans, los dos (y también Einstein) se dieron cuenta muy pronto de que la fórmula teórica era imposible.
Esta imposibilidad disgustó mucho a los físicos. De hecho, el fracaso de la ley propuesta por Rayleigh y Jeans suele llamarse “catástrofe ultravioleta” (pues la divergencia se producía para pequeñas longitudes de onda, en la región ultavioleta). Sin embargo, alguien había resuelto el problema sin encontrarse con ninguna “catástrofe” cinco años antes, aunque haciendo una suposición que no gustaba a nadie (ni a su propio creador): el genial físico alemán Max Planck.
A veces se dice, incluso en algunos textos de física, que fue Planck quien se dio cuenta de la “catástrofe ultravioleta” y propuso una fórmula alternativa para resolverla, pero esto no es cierto: Planck había obtenido su fórmula en 1900, cinco años antes de que nadie se diera cuenta de la “catástrofe”. Además, la ley de Rayleigh-Jeans se basa en algunas suposiciones (como el principio de equipartición) con las que Planck no estaba de acuerdo.
Lo que sucedió en 1900, al mismo tiempo que Lord Rayleigh obtenía su propia fórmula e independientemente de él, fue lo siguiente: Planck era consciente de que ninguna de las teorías del momento producía una curva de emisión que coincidiera con la real. Sin embargo, haciendo simplemente una pequeña, una minúscula suposición, y realizando los cálculos de nuevo, se obtenía una fórmula que se ajustaba milimétricamente a la realidad. Una fórmula de una precisión enorme, que explicaba todos los experimentos realizados con cuerpos negros.
Esa suposición era simplemente una pequeña argucia matemática, a la que Planck, en principio, no dio mucha importancia, ni consideró como una concepción del Universo físico. La suposición era que los minúsculos osciladores que componían la materia no podían tener cualquier energía arbitraria, sino sólo valores discretos entre los cuáles no era posible ningún valor.
Dicho de otra manera, lo que todo el mundo (incluyendo al propio Planck) consideraba lógico e intuitivo es que un oscilador puede oscilar como le dé la gana. Por ejemplo, si haces oscilar un péndulo, puedes darle un golpe pequeño (poca energía) o uno grande (mucha energía), de modo que oscile poco o mucho: entre cualquier par de péndulos idénticos que oscilan puedes imaginar otro que oscila con más energía que el primero y menos que el segundo. A continuación puedes fijarte en el primero y el que acabas de inventar: entre ellos puedes imaginar otro que oscile con un poco más de energía que el primero y menos que el segundo, etc.
Sin embargo, si Planck suponía que esto no era así, es decir, que un péndulo no puede oscilar con la energía que le dé la gana, sino que es posible tener dos péndulos oscilando con dos energías y que sea imposible que exista ningún péndulo con una energía intermedia, entonces todos los cálculos que realizaba concordaban a la perfección con la realidad.
De modo que Planck publicó sus cálculos y su suposición en 1901, y durante cuatro años nadie le prestó mucha atención. Aunque no vamos a entrar en fórmulas, Planck supuso que los pequeños osciladores de la materia podían oscilar sólo con energías que fueran múltiplos enteros de una “energía fundamental” que era proporcional a la frecuencia con la que oscilaban mediante una constante que probablemente era muy pequeña.
Pero piensa en lo que significa la hipótesis de Planck: si tienes un péndulo oscilando y le vas dando energía, no la adquiere de forma continua, como si subiera una pendiente poco a poco. Es como si la energía que puede tener fuera una escalera, y tú puedes hacer que suba un escalón de la escalera, o dos, o tres… pero no que se quede entre dos escalones. De ahí que la posterior teoría cuántica, de la que la hipótesis de Planck es el germen, se llame así: la hipótesis de Planck es que la energía de cualquier oscilador está cuantizada, es decir, no tiene valores continuos sino discretos: “escalones” de energía, que hoy llamamos cuantos de energía.
Desde luego, algo parecido había ocurrido antes en física al estudiar la materia: algunos pensaban que la materia era continua, y que un trozo de madera podía ser roto en dos trozos iguales, éstos en dos trozos iguales, y así ad infinitum. Otros pensaban que la materia estaba compuesta de trozos discretos, y que no era posible coger una cantidad arbitraria de materia, sino sólo un múltiplo entero del valor mínimo de materia posible, que no era posible dividir: el átomo. Sin embargo, es relativamente sencillo asimilar que la materia esté cuantizada. Imaginar la energía como cuantizada es mucho más difícil.
En cualquier caso, Einstein fue el primero en recordar a los otros físicos, cuando se dieron cuenta de la “catástrofe ultravioleta”, que la hipótesis de Planck había producido una fórmula que no tenía este problema y que, además, predecía con enorme perfección las observaciones realizadas. El problema, por supuesto, era que aceptar la fórmula de Planck suponía aceptar su hipótesis, y las implicaciones físicas eran escalofriantes -incluso para el propio Planck-.
Pero, puesto que es difícil discutir con un modelo que predice la realidad mejor que cualquier otro, la teoría de Planck fue aceptada, y Max Planck obtuvo el Premio Nobel de 1918, según la Academia “en reconocimiento de los servicios que rindió al avance de la Física por su descubrimiento de los cuantos de energía”. Desde luego, Planck no utilizó la palabra “cuanto” al proponer su teoría, y le costaría años reconciliarse con las implicaciones de su hipótesis, que fue sin duda su mayor logro. La cuántica es así de irónica, e historias similares se repetirían más adelante.
Hoy en día nadie duda de que la hipótesis de Planck es cierta, pero ¿por qué diablos no la notamos? Cuando yo empujo un columpio, o veo vibrar una cuerda, o un péndulo oscilar, no veo que haya valores de energía discretos entre los que hay “huecos”. No veo cuantos, no veo escalones, veo un continuo de energía. La razón es que son escalones minúsculos. Tampoco veo átomos por la misma razón, pero ahí están.
Para que te hagas una idea, si tengo un péndulo oscilando una vez por segundo, y el péndulo tiene una energía de 2 Julios, el siguiente escalón por encima de 2 Julios está en 2,0000000000000000000000000000000007 Julios. No hay ningún valor posible de energía entre esos dos valores. ¡Por supuesto que no veo el escalón! Cualquier tipo de energía que yo le pueda dar al péndulo va a ser muchísimo más grande que ese valor tan pequeño, de modo que nunca podría darme cuenta, en mi mundo cotidiano, de que no es posible que tenga una energía intermedia.
Pero, querido lector, ten en cuenta esto: 0,0000000000000000000000000000000007 Julios no es 0 Julios. Y esa pequeña diferencia, como veremos a lo largo de esta serie, hace que el Universo sea absoluta, totalmente diferente a lo que nuestra intuición nos dice que deberían ser las cosas. El principio de incertidumbre de Heisenberg, la dualidad onda-corpúsculo, el hecho de que los agujeros negros “se evaporen”… todo empieza en esta hipótesis aparentemente inofensiva.
En su hipótesis, como hemos dicho, Planck supuso que el tamaño de estos “escalones” era proporcional a una constante (que fue calculada más tarde, como veremos en el próximo artículo de la serie), la constante de Planck, que hoy sabemos que tiene un valor de 6,63·10-34 J·s. Toda la teoría cuántica, y la diferencia entre el Universo “intuitivo” y el “cuántico”, se basan en ese hecho:
6,63·10-34 ≠ 0.
Bienvenido al mundo cuántico.

Oscilador Armónico Simple

El oscilador armónico simple describe el comportamiento de una partícula vinculada a un centro por una fuerza proporcional a la distancia, si la partícula es apartada del centro, oscilará con una frecuencia bien definida. La amplitud del movimiento depende de una fuerza externa. Cuando la frecuencia de la fuerza externa es igual a la frecuencia natural del oscilador, la amplitud es máxima y el sistema entra en resonancia.

Series de Fourier

Las series de fourier consisten en la descomposición de una onda periódica en una serie infinita de sumas de ondas sinusoidales, esto para el análisis matemático de dicha onda periódica. He aquí un ejemplo de una serie de fourier donde se graficarán los resultados.
En el resultado final nos encontramos con los distintos términos que se están sumando, la primera gráfica es unicamente con el primer término, la segunda es la sumatoria de los primeros 2 términos, la tercera es de los primeros 4 y la última gráfica es la sumatoria de 20 términos.

 


Nanotecnología ICE - Templates Novo Blogger 2008