Archivo mensual: enero 2013

Las constantes de Planck y el caballo blanco de Santiago

Fuente: Wikimedia Commons

Fuente: Wikimedia Commons

La imagen que abre esta anotación corresponde a la tumba de Ludwig Boltzmann en Viena. Llama la atención, quizás, que aparte de los nombres del propio Ludwig y algunos miembros de su familia, aparezca una extraña expresión justo encima del busto: S=k logW. Algún lector puede que ya haya dicho para sí “esa es la fórmula de la entropía de Boltzmann”…y se equivocaría completamente. Esa fórmula es de Max Planck.

Y es que Planck, en 1900, tras años de intentar encontrar una expresión matemática que ajustase los datos experimentales primero, y la justificación teórica de ésta después, de la radiación del cuerpo negro, se vio obligado en un acto de desesperación, no a especular con que la energía estaba cuantizada (esto es una consecuencia matemática a posteriori), sino a emplear la mecánica estadística de Boltzmann, hipótesis atómica de la que Planck era enemigo declarado. Planck era enemigo pero no era tonto: no encontraréis en la literatura pública de la época (otra cosa son las cartas privadas) más que referencias indirectas; para los ataques directos Planck usaba a su ayudante, Ernst Zermelo (sí, ese Zermelo), que para eso estaba.

La cuestión es que Planck en su estudio termodinámico de la radiación del cuerpo negro (sí, querido lector, la cuántica es hija de la termodinámica) decidió que todo era susceptible de revisión excepto las dos leyes de la termodinámica (primera y segunda; cero y tercera son formulaciones posteriores). Esta fe en las leyes fundamentales de la naturaleza ha brindado frutos excepcionales en la historia de la ciencia; y todavía hay quien se empeña en violarlas. Pues bien, Planck se encontró que en 1877 Boltzmann hablaba de proporcionalidad entre la entropía del sistema y el número de estados microscópicos en los que puede estar el sistema (cuando se relaciona con todos los posibles, esto es una probabilidad), pero no cómo era esa proporcionalidad. Por tanto, en el mismo artículo en el que explicaba la radiación del cuerpo negro y se introducía la cuantización de la energía, también introdujo la expresión S=k ln W (logaritmo neperiano o natural), y con ella la segunda constante de Planck, k. La llamo segunda constante de Planck, porque h ya la conocía Planck en 1899, pero eso es otra historia.

Que a la segunda constante de Planck se la conociese como constante de Boltzmann era algo que a Planck no le hacía ninguna gracia, como no pudo evitar expresar en la conferencia que pronunció veinte años después, en 1920, en Estocolmo con motivo de su premio Nobel (de 1918).

Pero Planck era otro que cometía los pecados que criticaba. Uno de los primeros usos que hizo de k fue determinar la constante de Loschmidt. La constante de Loschmidt puede que no le suene al lector y, sin embargo, su definición de la época sí que le resultará familiar: número de partículas en un átomo-gramo de hidrógeno. Efectivamente, es la constante de Avogadro. Loschmidt lo único que hizo fue determinar el tamaño promedio de una molécula, pero los alemanes y su área de influencia llamaban, y hoy día a alguno todavía se le escapa, a la constante de Avogadro, constante de Loschmidt.

Sin embargo, como en el caso de Boltzmann y k, Avogadro no dijo nada de esta constante. Igual que Boltzmann, habló de una proporcionalidad genérica, en este caso entre el volumen de un gas y el número de partículas constituyentes. Fue Stanislao Cannizzaro quien dio fundamento y perspectiva a la afirmación genérica de Avogadro y Jean Perrin quien la midió con precisión suficiente en 1908. Fue éste quien la llamó número (entonces; hoy constante, porque tiene unidades) de Avogadro, quizás porque Cannizzaro era contemporáneo (falleció en 1910), y Perrin estaba muy politizado y no era de su cuerda.

Sirvan estos ejemplos para ilustrar que en ciencia, no tanto en sus fundamentos como en su envoltura, de vez en cuando ante la pregunta “¿de qué color era el caballo blanco de Santiago?” la respuesta resulta ser tordo.

Sobre el autor: César Tomé López es divulgador científico y editor de Mapping Ignorance

Anuncios

Xurxo Mariño: Un viaje a la máquina de la mente

Xurxo mariño

Xurxo Mariño

El pasado 22 de enero el neurocientífico Xurxo Mariño impartió, con su sobresaliente capacidad divulgativa, en la Universidad Pública de Navarra (UPNA) una conferencia sobre los conceptos fundamentales acerca del encéfalo sobre los que hoy día hay consenso científico. Tiene una hora escasa de duración y está recomendada para todos los públicos. La conferencia está accesible en la web de la UPNA, aquí.


Un chip de ADN para el diagnóstico de TDAH (trastorno por déficit de atención e hiperactividad)

Chip de ADN | Fuente: Wikimedia Commons

Chip de ADN | Fuente: Wikimedia Commons

El trastorno por déficit de atención con hiperactividad (TDAH) es el trastorno neuropsiquiátrico más común en la infancia. Sin embargo, actualmente no existe ninguna herramienta bioquímica que asegure el diagnóstico del TDAH. En la tesis titulada “Desarrollo de un sistema de genotipado para la aplicación en el ‘trastorno por déficit de atención con hiperactividad’ y su farmacogenética”, la investigadora Alaitz Molano, licenciada en bioquímica y doctora en farmacología por la UPV/EHU, presenta un chip de ADN que podría mejorar tanto el diagnóstico como la terapéutica de este trastorno.

El TDAH tiene una prevalencia del 8 al 12% entre la población infanto-juvenil mundial, de los cuales el 50% mantiene los síntomas en la edad adulta. Los niños con TDAH tienen dificultades en la atención mantenida y no terminan las tareas asignadas, distrayéndose frecuentemente. Además, pueden mostrar comportamientos impulsivos y presentan una actividad excesiva e inapropiada en el contexto en que se encuentran, presentando gran dificultad para inhibir sus impulsos. “Todos estos síntomas afectan gravemente a la vida social, académica y laboral del individuo y causan un gran impacto en sus familias y entorno cercano”, comenta Molano.

Debido a la problemática existente para efectuar el diagnóstico y tratamiento de los pacientes de TDAH, se planteó esta tesis doctoral con la finalidad de desarrollar y validar clínicamente una herramienta de genotipado que pudiera ayudar a confirmar el diagnóstico, a predecir la evolución, y a elegir el tratamiento farmacológico más adecuado en cada caso.

Molano estudió la asociación de polimorfismos genéticos (variaciones en la secuencia de ADN entre diferentes individuos) con el TDAH. “Buscamos en la bibliografía todas las asociaciones que se habían descrito previamente, en todo el mundo, e hicimos un estudio clínico, para ver si esos polimorfismos también se daban en la población española; porque las asociaciones genéticas varían mucho de unas poblaciones a otras”.

Se han analizado unas 400 muestras de saliva de pacientes de TDAH y otras 400 muestras de controles sanos sin antecedentes de enfermedades psiquiátricas. Y partiendo de más de 250 polimorfismos, se encontraron 32 polimorfismos asociados tanto al diagnóstico de TDAH como a la evolución del trastorno, al subtipo de TDAH, la severidad sintomatológica y la presencia de comorbilidades.

En base a esos resultados, Molano propone un chip de ADN con esos 32 polimorfismos, y que se podría actualizar con nuevos polimorfismos, como herramienta tanto para el diagnóstico como para el cálculo de susceptibilidad genética a diferentes variables (presentar buena respuesta a fármacos, normalización de los síntomas, etc). Un chip de ADN es una superficie sólida a la que se adhieren fragmentos de ADN y que permite determinar la expresión diferencial de genes en distintas condiciones.

Por otro lado, este estudio ha confirmado la existencia de los 3 subtipos del TDAH: inatento, hiperactivo y combinado. “Se ve que, en base a la genética, son diferentes los niños que pertenecen a un subtipo o a otro”, explica Molano.

Por el contrario, no se encontraron asociaciones directas entre los polimorfismos analizados y la respuesta al tratamiento farmacológico (atomoxetina y metilfenidato). Molano cree que esto podría ser debido a que “en muchos casos los datos de fármacos que teníamos no eran rigurosos”, debido a la dificultad de la recolección de este tipo de datos. Precisamente, Molano seguirá investigando en esa línea: “Queremos centrarnos en la parte de la respuesta a fármacos, conseguir más muestras, mejor caracterizadas, controlando muy bien las variables de toma de fármacos, si realmente se tomaban o no, etc.”.

Molano espera que esta herramienta llegue a las clínicas: “El proyecto fue financiado por Progenika Biopharma y la farmacéutica JUSTE SAFQ, pero tenemos además 10 colaboradores clínicos de centros públicos y privados de España, y es complicado poner a todos de acuerdo en cuanto a patentes, comercialización, etc. Pero nuestra idea es que se llegue a comercializar y que tenga buena aceptación”.


Araitz Molano Bilbao (Barakaldo, 1983) es licenciada Bioquímica y doctora en Farmacología por la UPV/EHU. Ha realizado su tesis bajo la dirección del Dr. Marcel Ferrer-Alcón, de BRAINco Biopharma S.L., y el Dr. J. Javier Meana Martínez, catedrático de Farmacología de la UPV/EHU. La tesis ha sido llevada a cabo en la empresa Progenika Biopharma S.A., en colaboración con el Departamento de Farmacología de la UPV/EHU, gracias a la ayuda de una beca predoctoral concedida por el Departamento de Industria, Innovación, Comercio y Turismo del Gobierno Vasco (Programa IKERTU) durante el periodo 2007-2012. Todo ello en el marco de un proyecto financiado por la empresa farmacéutica JUSTE SAFQ. En la actualidad, López continúa como investigadora en Progenika Biopharma.

Edición realizada por César Tomé López a partir de materiales suministrados por UPV/EHU Komunikazioa 


A %d blogueros les gusta esto: