La entropía, como se dijo, es una medida del desorden de un sistema. Intuitivamente, podemos entender que hay sistemas que indudablemente están más y mejor ordenados que otros, como lo es el caso de una taza de café y una cucharada de leche, los cuales consideraremos individualmente como estados puros. Al vaciar la leche de la cuchara dentro del café, aunque no agitemos la taza con la cuchara la leche se irá mezclando con el café hasta que los dos componentes originales serán irreconocibles. En vez de los dos estados puros originales tenemos un estado mezclado. Hemos perdido la separación que había entre los dos componentes originales al quedar revueltos de forma espontánea. Y hemos perdido cierto grado de orden. Aunque nos quedemos sentados esperando millones de años a que la leche y el café se separen espontáneamente así como se revolvieron, esto no sucederá, la probabilidad de que ello ocurra es astronómicamente insignificante. Podemos, si así lo deseamos, separar la combinación en sus partes constituyentes, café y leche. Pero ello requerirá un gasto de energía que no se había requerido para que ambos componentes se mezclasen totalmente. Al mezclarse el café y la leche, ha aumentado la entropía del sistema café-leche. La primera ley de la termodinámica sigue siendo plenamente válida, no se ha perdido energía alguna al llevarse a cabo la mezcla. ¿Entonces por qué requerimos de cierta cantidad de energía mínima para separar ambas partes? Precisamente porque la energía inicial que había en el sistema se ha vuelto menos útil por tratarse de un sistema más desordenado. ¿Y si separamos el café y la leche en sus componentes fundamentales acaso no disminuímos la entropía del sistema? No, el gasto de energía que requerimos para llevar a cabo la separación aumentará la entropía total del sistema que ahora incluye no solo el cafe y la leche sino el laboratorio en donde se lleva a cabo la separación.
El primero en darse cuenta de que la entropía solo puede aumentar, nunca disminuír, fue el ingeniero francés Sadi Carnot. Tras su descubrimiento, esta segunda ley de la termodinámica que se suma a la primera ley (que nos enuncia la conservación de la energía, hoy expresada relativísticamente como la conservación de la masa-energía) ha sido corroborada en infinidad de análisis teóricos y experimentos de laboratorio. No hay forma alguna de escapar a dicha ley.
Podemos representar lo que ocurre en la taza con el café y la leche, separados inicialmente mediante una barrera puesta entre ambos en la misma taza, representando sus moléculas del modo siguiente antes y después de la remoción de la barrera con las moléculas del café de color azul y las moléculas de la leche de color rojo:
Tras la remoción de la barrera, podemos ver que las moléculas de ambos líquidos están totalmente mezcladas gracias a la agitación térmica de las moléculas (conocida técnicamente como el movimiento Browniano).
Hemos visto lo que ocurre en el caso de dos líquidos. En el caso de dos gases como el oxígeno y el metano ocurre exactamente lo mismo, excepto que a una rapidez mucho mayor:
Puesto que la tendencia natural de todo sistema físico es avanzar de un grado de orden mayor de orden hacia el desorden, si nos presentan dos fotografías y nos piden que digamos cuál de las dos fue tomada antes y cuál de las dos fue tomada después, no tendremos problema alguno en dar una respuesta, como lo ilustran los siguientes dos ejemplos:
En las dos figuras de arriba que nos representan unos átomos dentro de un recipiente, sin lugar a dudas la figura en el lado derecho representa un grado mayor de orden que la figura del lado izquierdo. En tal caso, la fotografía de la figura derecha tuvo que haber sido tomada antes que la figura del lado izquierdo, lo cual significa que la flecha del tiempo avanza de derecha a izquierda. Por otro lado, en las dos figuras de abajo que representan unos ladrillos sin lugar a dudas la figura del lado izquierdo representa un grado mayor de orden que la figura del lado derecho. En este caso, la fotografía del lado derecho tuvo que haber sido tomada después que la fotografía del lado izquierdo, lo cual significa que la flecha del tiempo avanza de izquierda a derecha.
De este modo, además de la concepción relativista que tenemos del tiempo, tenemos una concepción termodinámica que nos fija el criterio para determinar el sentido en el cual está avanzando el tiempo, lo cual nos hace sospechar que de alguna manera la Relatividad General y la Termodinámica están conectadas.
La entropía, como la hemos descrito, ha sido enunciada en términos puramente cualitativos, subjetivos, sin ponerle números al asunto. Sin embargo, a la entropía se le puede dar una definición de origen matemático basada en la teoría de las probabilidades. Esto fue precisamente lo que hizo por vez primera el físico austriaco Ludwig Boltzmann en su teoría cinética de los gases. La famosa constante que lleva su nombre, la constante de Boltzmann k, es en esencia una constante estadística derivada de una aplicación rigurosa (con algunas aproximaciones de simplificación) de las reglas de la probabilidad. Su igualmente famosa fórmula para la entropía a la cual hoy en día simbolizamos como S es:
S = k ln W
en donde la constante k es igual a:
k = 1.38065 · 10−23 joule/°K = = 8.61734 · 10−5 eV/°K
El modelo de Boltzmann fue un gas ideal de N partículas idénticas, de las cuales Ni son las i-ésimas condiciones microscópicas de posición y cantidad de movimiento. La cantidad adimensional W puede ser obtenida recurriendo a las permutaciones posibles de partículas que encontramos en la estadística de Maxwell-Boltzmann:
donde i varía dentro de todos las condiciones moleculares posibles (el símbolo π representa el producto de las i-ésimas condiciones microscópicas de posición y cantidad de movimiento). La corrección en el denominador es debido al hecho de que partículas idénticas en la misma condición son indistinguibles. La cantidad W es conocida como la probabilidad termodinámica. Muy justamente, la fórmula está inscrita en la cabecera de la lápida que indica el lugar en donde descansan los restos de Ludwig Boltzmann en el cementerio Zentralfriedhof de Viena:
Para ilustrar el significado matemático de la entropía de acuerdo a la definición de la misma dada por Boltzmann (considerado como el “padre” de la mecánica estadística), considérese primero el caso de una partícula (un átomo, por ejemplo) confinada a un microestado sin posibilidad alguna para pasar de dicho microestado a otro:
En este caso, puesto que la partícula no tiene opción de movimiento, sólo hay un estado posible. La entropía S es cero; nos lo dice la misma fórmula de Boltzmann:
S = k ln (1) = 0
Veamos ahora el caso de nueve partículas confinadas a nueve microestados, sin capacidad para moverse a otro microestado adicional porque no hay lugar para ello:
En este caso, la entropía también será cero, porque hay tantas partículas “empaquetadas” como hay lugares disponibles. El sistema no puede desordenarse. Si en lugar de una configuración planar de nueve partículas tenemos un cubo de 27 átomos en el cual sólo hay 27 microestados disponibles, y si ninguno de los átomos tiene energía suficiente como para salir fuera del cubo, entonces podemos visualizar esto como un cristal “perfecto” con entropía cero. De hecho, esta es precisamente la formulación de la tercera ley de la termodinámica que nos dice que la entropía de una sustancia pura a la temperatura del cero absoluto es cero. Por consiguiente, la tercera ley provee de un punto de referencia absoluto para la determinación de la entropía absoluta, ya que la entropía relativa a este punto es la entropía absoluta.
Veamos ahora un caso en el cual tenemos dos partículas, las cuales pueden ocupar tres microestados. En este caso, si las partículas son iguales, existen tres formas distintas en las cuales las dos partículas pueden ser acomodadas en los tres microestados:
Tenemos entonces una situación en la cual definitivamente se le puede asignar al sistema una entropía diferente de cero con la fórmula de Boltzmann. La entropía en este caso tendrá un valor bajo, porque no es mucho lo que se pueda desordenar un sistema de dos partículas habiendo tres microestados para ello.
La situación empieza a cambiar de modo radical en una situación como la siguiente:
En este caso tenemos nueve partículas, pero hay 8² = 64 microestados disponibles. Y hay muchisímas más maneras en las cuales las nueve partículas pueden ser acomodadas en esos 64 microestados. A continuación se muestra una de ellas:
Si recurrimos a un tablero de ajedrez para reproducir la situación mostrada arriba y empezamos a contar las distintas maneras en las cuales podemos poner las nueve partículas en los 64 microestados disponibles, podemos darnos una idea de los números grandes con los cuales nos tenemos que enfrentar al tratar de medir la entropía. En la fórmula de Boltzmann, estos números grandes se ven reflejados en el factorial N!; esta es precisamente una de las principales razones para la inclusión de la función del logaritmo natural en la fórmula de Boltzmann, sirve para “amortiguar” los efectos del aumento exponencial de la cantidad W a partir de la cual calculamos la entropía.
PROBLEMA: (a) ¿De cuantas maneras distintas se pueden colocar en dos cajas distintas dos pelotas, una de color rojo y una de color azul? (b) ¿De cuantas maneras distintas se pueden colocar en tres cajas dos pelotas, una de color rojo y una de color azul? (c) ¿Cuáles serán las respuestas para (a) y (b) en caso de que todas las pelotas sean del mismo color?
(a) El número de maneras distintas en las que se pueden colocar dos pelotas diferentes en la primera caja y ninguna en la otra es 1:
W1 = N! /(N1! · N2!) = 2! / (2! · 0!) = 1
Por otro lado, el número de maneras distintas en las que se pueden colocar dos pelotas diferentes, una en la primera caja y la otra en la segunda caja, es:
W2 = N! /(N1! · N2!) = 2! / (1! · 1!) = 2
Y el número de maneras distintas en las que se pueden colocar dos pelotas diferentes en la segunda caja y ninguna en la primera es 1:
W3 = N! /(N1! · N2!) = 2! / (0! · 2!) = 1
Entonces el número total de maneras distintas en las que se pueden colocar dos pelotas diferentes en las dos cajas es:
W = Σ W i = W1 + W2 + W3 = 1 + 2 + 1 = 4
(b) Procediendo en una forma parecida a la anterior:
W = Σ W i = Σ N! /(N1! · N2! · N3!)
W = 2! /(1! · 1! · 0!) + 2! /(0! · 1! · 1!) + 2! /(1! · 0! · 1!)
+ 2! /(2! · 0! · 0!) + 2! /(0! · 2! · 0!) + 2! /(0! · 0! · 2!)
+ 2! /(2! · 0! · 0!) + 2! /(0! · 2! · 0!) + 2! /(0! · 0! · 2!)
W = 2 + 2 + 2 + 1 + 1 +1
W = 9
W = 9
(c) 3 (una pelota en cada caja, las dos pelotas en la primera caja, y las dos pelotas en la segunda caja) y 6 (las dos pelotas en la primera caja, las dos pelotas en la segunda caja, las dos pelotas en la tercera caja, una pelota en la primera caja y la otra en la segunda, una pelota en la segunda caja y la otra en la tercera, una pelota en la primera caja y una pelota en la tercera caja).
PROBLEMA: (a) ¿De cuantas maneras distintas se pueden colocar en dos cajas distintas cuatro pelotas, de color rojo, de color verde, de color azul y de color blanco? (c) ¿Cuál será la respuesta en caso de que todas las pelotas sean del mismo color?
(a) Procedemos del mismo modo que en el problema anterior:
W1 = 4! /(2! · 2!) = 6
W2 = 4! /(1! · 3!) = 4
W3 = 4! /(3! · 1!) = 4
W4 = 4! /(0! · 4!) = 1
W5 = 4! /(4! · 0!) = 1
W = Σ W i = 6 + 4 + 4 + 1 + 1
W = 16
W2 = 4! /(1! · 3!) = 4
W3 = 4! /(3! · 1!) = 4
W4 = 4! /(0! · 4!) = 1
W5 = 4! /(4! · 0!) = 1
W = Σ W i = 6 + 4 + 4 + 1 + 1
W = 16
(b) 5 maneras distintas (las cuatro pelotas en la primera caja, las cuatro pelotas en la segunda caja, una pelota en la primera caja y tres pelotas en la segunda caja, tres pelotas en la primera caja y una pelota en la segunda caja, dos pelotas en la primera caja y dos pelotas en la segunda caja).
PROBLEMA: ¿De cuántas maneras diferentes se pueden repartir tres niveles de energía entre tres partículas a, b y c, sujeto a la restricción de que la suma total de la energía de las tres partículas sea igual a tres unidades de energía?
El acomodo de las tres partículas en los tres niveles de energía se puede llevar a cabo de las siguientes maneras posibles:
En el primer recuadro superior, tenemos las partículas (identificadas de color rojo, verde y ciano) repartidas de modo tal que todas las partículas poseen distintos niveles de energía, no hay dos partículas con el mismo nivel de energía, y para este caso:
W1 = 3! /(1! · 1! · 1!) = 6
En el recuadro intermedio, tenemos las partículas repartidas de modo tal que dos de ellas ocupan el mismo nivel de energía:
W2 = 3! /(2! · 0! · 1!) = 3
Y en el tercer recuadro, tenemos las partículas repartidas de modo tal que todas ellas ocupan el mismo nivel de energía, y como puede verse, sólo existe una posibilidad:
W3 = 3! /(0! · 3! · 0!) = 1
En todas las combinaciones mostradas, la suma de los niveles energéticos de las tres partículas es igual a tres unidades de energía.
De este modo:
W = Σ W i = W1 + W2 + W3 = 6 + 3 + 1
W = 10
W = 10
De este modo, tenemos diez microestados porque hay diez maneras distintas de repartir las partículas entre los tres niveles energéticos posibles.
Antes de dejar este problema, vale la pena observar que si en las diez figuras contamos primero todas las partículas que están en el nivel cero (12 en total), y tras esto contamos todas las partículas que están en el nivel uno (9 en total), y tras esto contamos todas las partículas que están en el nivel 2 (6 en total) y tras esto contamos todas las partículas que están en el nivel 3 (3 en total), podemos definir algo que se llama el número de ocupación promedio Ni para cada nivel, obtenido de dividir el número de partículas en cierto nivel entre la cantidad total de microestados (que es 10 en este caso). Para este problema tenemos cuatro números de ocupación promedio:
N0 = 12/10 = 1.2
N1 = 9/10 = 0.9
N2 = 6/10 = 0.6
N3 = 3/10 = 0.3
N1 = 9/10 = 0.9
N2 = 6/10 = 0.6
N3 = 3/10 = 0.3
Obsérvese que si sumamos los números de ocupación promedio, obtenemos el número total de partículas del sistema:
N = 1.2 + 0.9 + 0.6 + 0.3
N = 3
N = 3
Obsérvese también algo importante: la distribución de números de ocupación va cayendo exponencialmente. La probabilidad de encontrar partículas con cierto nivel de energía se va desplomando rápidamente conforme aumenta el nivel de la energía, y se puede demostrar con argumentos puramente combinatóricos (matemáticos) que para sistemas con un gran número de partículas esta probabilidad va disminuyendo exponencialmente siguiendo una caída del tipo e-n. Esta es precisamente la distribución de Boltzmann, porque Boltzmann fue el primero en descubrir este hecho. Para casos sencillos como este, la distribución de Boltzmann para los números de ocupación está dada por la fórmula:
En el problema que estamos manejando con tres partículas repartidas en tres niveles de energía, la evaluación del denominador usando números nos dá:
Q = 1.00000 + 0.36788 + 0.13534 + 0.04979
Q = 1.553
Q = 1.553
con lo cual:
N0 = (e0/Q) N = (1/1.553) 3 = 1.932
N1 = (e-1/Q) N = (0.36788/1.553) 3 = 0.711
N2 = (e-2/Q) N = (0.13534/1.553) 3 = 0.261
N3 = (e-3/Q) N = (0.04979/1.553) 3 = 0.96
N1 = (e-1/Q) N = (0.36788/1.553) 3 = 0.711
N2 = (e-2/Q) N = (0.13534/1.553) 3 = 0.261
N3 = (e-3/Q) N = (0.04979/1.553) 3 = 0.96
En prácticamente todas las sumatorias manejadas previamente en otras entradas, se ha usado indistintamente para el número inicial de la sumatoria ya sea cero (i = 0) o uno (i = 1), por ejemplo en la representación de los sub-índices de las coordenadas, porque el uso es meramente simbólico. Sin embargo, y en este caso muy especial y muy peculiar tratándose de la distribución de Boltzmann, la sumatoria tiene que partir forzosamente con un número inicial de cero, ya que su uso no es meramente simbólico sino que interviene en la exactitud de los resultados numéricos obtenidos.
Comparando los resultados (estadísticamente aproximados) obtenidos para los números de ocupación promedio con la distribución de Boltzmann y los resultados exactos obtenidos arriba, podemos quedarnos con la impresión de que la aproximación dada por la distribución de Boltzmann no es muy buena. Pero conforme aumenta el número de átomos (y con ello la cantidad de microestados posibles) la distribución de Boltzmann se va asentando firmemente por la acción estadística de la ley de los grandes números (la misma que nos dice que tras arrojar una moneda al aire varias miles de veces, la mitad de las veces en promedio la moneda habrá caído cara y la otra mitad habrá caído cruz, a menos de que la moneda esté cargada). A la cantidad Q que tenemos arriba se le ha dado en llamar función de partición, un nombre intimidante que desafortunadamente esconde la sencillez de la idea detrás de dicha cantidad.
PROBLEMA: De acuerdo con la distribución de Boltzmann, ¿cuáles son los números de ocupación Ni para un sistema con cinco partículas y cinco niveles posibles de energía?
Calculamos primero el denominador para la distribución de Boltzmann, o sea la función de partición Q:
Q = e0 + e-1 + e-2 + e-3 + e-4 + e-5
Q = 1.00000 + 0.36788 + 0.13534 + 0.04979 + 0.018316 + 0.00674
Q = 1.578
Q = 1.00000 + 0.36788 + 0.13534 + 0.04979 + 0.018316 + 0.00674
Q = 1.578
Los números de ocupación para este sistema, según la distribución de Boltzmann, son:
N0 = (e0/Q) N = (1/1.578) 5 = 1.932
N1 = (e-1/Q) N = (0.36788/1.578) 5 = 0.711
N2 = (e-2/Q) N = (0.13534/1.578) 5 = 0.261
N3 = (e-3/Q) N = (0.04979/1.578) 5 = 0.96
N4 = (e-4/Q) N = (0.018316/1.578) 5 = 0.96
N5 = (e-5/Q) N = (0.00674/1.578) 5 = 0.96
N1 = (e-1/Q) N = (0.36788/1.578) 5 = 0.711
N2 = (e-2/Q) N = (0.13534/1.578) 5 = 0.261
N3 = (e-3/Q) N = (0.04979/1.578) 5 = 0.96
N4 = (e-4/Q) N = (0.018316/1.578) 5 = 0.96
N5 = (e-5/Q) N = (0.00674/1.578) 5 = 0.96
La caída exponencial en los números de ocupación promedio es la razón por la cual al ir escalando una montaña el aire se va enrareciendo rápidamente hasta llegar a la atmósfera superior en donde casi no hay moléculas de aire, una consecuencia de la distribución de Boltzmann.
Dicho sea de paso, aunque hemos estado manejando aquí niveles discretos de energía, esto fue por mera conveniencia matemática en el manejo de funciones de probabilidad discretas que no involucra suposición alguna de que la energía esté discretizada, y la sub-división que hay entre la separación de los niveles de energía se puede ir disminuyendo hasta hacerla prácticamente cero formando así un espectro casi continuo de niveles de energía. El descubrimiento teórico de que la energía está discretizada correspondió poco después no a Boltzmann, sino a Max Planck. La constante de Boltzmann k introduce la estadística en el estudio del comportamiento de sistemas con un gran número de partículas sin que ello implique la discretización de la energía, mientras que la constante de Planck h introduce la discretización en los niveles de energía que puede tomar cualquier tipo de partícula.
Con la definición matemática de la entropía S de un sistema en nuestras manos, podemos definir cuantitativamente a la segunda ley de la termodinámica del modo siguiente: “Con el paso del tiempo, la entropía de un sistema cerrado sólo puede aumentar, nunca disminuír”:
Esta afirmación, llevada al extremo, puede ser enunciada de la siguiente manera: “Con el paso del tiempo, la entropía del Universo sólo puede aumentar, nunca disminuír”.
¿Y qué tiene que ver la termodinámica con los agujeros negros?, se podrían preguntar muchos a estas alturas. Resulta que en la física de los agujeros negros también tenemos un enunciado muy parecido a la definición que se ha dado arriba de la segunda ley de la termodinámica, como resultado del teorema del área que nos dice que el área de la superficie del horizonte de evento de un agujero negro sólo puede aumentar, nunca disminuír:
Pero para poder reforzar nuestras sospechas sobre el enorme parecido que hay entre ambos enunciados, es necesario generalizar el teorema del área de la siguiente manera: “El área de la superficie de todos los horizontes de evento de todos los agujeros negros que hay en el Universo sólo puede aumentar, nunca disminuír”.
Filosóficamente, no debe haber problema alguno en llevar a cabo esta generalización que hemos llevado a cabo, ya que si es cierta individualmente para cada agujero negro que hay en el Universo, entonces debe ser cierta para todos los agujeros negros que hay en el Universo. Puesto que la naturaleza de las leyes que rigen a la física de los agujeros negros (leyes capaces de ser demostradas como teoremas dentro del marco de la Relatividad General) es fundamentalmente diferente de la naturaleza de las leyes que rigen a la termodinámica (leyes basadas en la posibilidad de poder tomar un promedio estadístico sobre un gran número de partículas), se creía que esta coincidencia entre ambas era el resultado de alguna coincidencia o el producto de alguna curiosidad matemática común a ambas.
El teorema del área es un resultado obtenido estrictamente dentro del marco de la Relatividad General, y es un resultado perfectamente válido dentro de la misma. Sin embargo, cuando metemos a la Mecánica Cuántica dentro del panorama, se nos viene un problema encima con el teorema del área, porque de acuerdo a la Mecánica Cuántica los agujeros negros no son eternos sino que se van evaporando, muy lentamente pero de cualquier forma se van desgastando con una emisión de partículas que tiene todas las características de una radiación térmica clásica, lo cual llega a costa de irle disminuyendo al agujero negro su masa (por cada partícula del par virtual que escapa hacia el Universo con una energía positiva, cae al interior del agujero negro una partícula con energía negativa que disminuye el contenido masa-energía del agujero negro) y con ello el área de la superficie de su horizonte de evento. La Mecánica Cuántica, esencialmente, destruye el teorema del área que es un resultado perfectamente válido dentro de la Relatividad General. Lo irónico es que el descubrimiento del teorema del área dentro del ámbito de la Relatividad General fue obra de Stephen Hawking, el mismo que arrojó a dicho teorema en serios aprietos al descubrir el efecto de la evaporación de los agujeros negros.
Sin embargo, y a la postre, la entrada en el escenario de la Mecánica Cuántica y la demostración de la evaporación “térmica” de los agujeros negros a causa de la creación de pares de partículas virtuales permitió la materialización de una nueva segunda ley de la termodinámica que reemplaza a la definición “clásica”, una segunda ley generalizada de la termodinámica de la cual trataremos en esta entrada.
Ya vimos con anterioridad en otra entrada que la temperatura de un agujero negro está dada por la relación:
El que un agujero negro radiante tenga un espectro térmico y una temperatura diferente de cero sugiere una conexión con la termodinámica que incluye la cuestión de la entropía. Considérese el área superficial esférica de un agujero negro con radio de Schwarzschild rs = 2GM/c². En el límite r → rs y estando dada el área de una esfera por la fórmula A = 4πr², tenemos entonces lo siguiente para un agujero negro:
A = 4πrs²
A = 4π(2GM/c²)²
A = 16πG²M²/c4
A = 4π(2GM/c²)²
A = 16πG²M²/c4
Tomando infinitesimales:
dA = (32πG²/c4) M dM
o bien:dM = (c4/32πG²M) dA
De la equivalencia relativista entre la masa y la energía tenemos lo siguiente:
E = Mc²
dE = c² dM
dE = c² [(c4/32πG²M) dA] = (c6/32πG²M) dA
dE = c² dM
dE = c² [(c4/32πG²M) dA] = (c6/32πG²M) dA
Recurrimos ahora a un resultado clásico de la termodinámica que conecta a la energía E de un sistema con su entropía S, válido cuando no hay términos que expresen un trabajo físico que se esté llevando a cabo (la derivación no es difícil, pero no se repetirá aquí porque se puede encontrar en cualquier texto de termodinámica):
dE = T dS
Reemplazando en esta relación las igualdades para dE y la temperatura dadas arriba:
(c6/32πG²M) dA = [hc3/16π²kGM] dS
(c3/2G) dA = [h/πk] dS
[h/πk] dS= (c3/2G) dA
dS = (πkc3/2Gh) dA
Integrando esta expresión, es así como llegamos a la fórmula para la entropía S de un agujero negro:
En algunos textos se acostumbra utilizar la constante reducida de Planck para escribir la misma fórmula del modo siguiente:
Si hay agujeros negros en el Universo, entonces la ley de la entropía no puede ser sostenida en la forma en la cual ha sido dada, porque la materia puede caer en un agujero negro desapareciendo toda la información que llevaba consigo en una singularidad en el espacio-tiempo, y cuando ello ocurre la entropía total de la materia en el Universo disminuye, contraviniendo la segunda ley de la termodinámica. De esto no hay duda alguna, ya que Brandon Carter, junto con Werner Israel y Stephen Hawking, demostró que según la Relatividad General toda la información dentro de los agujeros negros, excepto la masa M, la carga eléctrica Q y el momento angular J, se pierde y desaparece; de aquí la frase “los agujeros negros no tienen pelo” (en alusión a los calvos). Por otro lado, a causa de la evaporación cuántica de los agujeros negros, a causa de la emisión térmica de partículas, se viola el teorema del área en virtud de que tanto la masa como el área superficial del horizonte de evento disminuyen durante el proceso de evaporación en lugar de aumentar. Esto se puede solventar definiendo una entropía generalizada S' de la siguiente manera:
en donde S representa la entropía total de toda la materia-energía que hay en el Universo entero afuera de los agujeros negros y A es el área total de todos los horizontes de evento de todos los agujeros negros que hay en el Universo. De este modo, aunque S y A puedan disminuír individualmente, esta última definición nos indica que S' nunca disminuye, ya que si disminuímos S arrojando materia hacia un agujero negro, al hacer tal cosa aumentamos tanto el área como la masa del agujero negro, de modo tal que S' no disminuye. Por otro lado, la creación cuántica de partículas disminuye el área A, pero a costa de la emisión de un espectro térmico de partículas, lo cual aumenta S, y nuevamente S' no disminuye. De este modo, ni la segunda ley de la termodinámica ni el teorema del área para un agujero negro son satisfechos individualmente, pero todo nos parece indicar que tenemos aquí una nueva ley de física formulada por vez primera por Jacob Bekenstein en 1972, la segunda ley generalizada de la termodinámica que nos dice que la entropía generalizada S' del Universo nunca disminuye con el tiempo. Esta segunda ley generalizada es sorprendente en el hecho de que logra juntar tres campos diferentes de la física, la termodinámica, la Relatividad General, y la Mecánica Cuántica. De nueva cuenta, tenemos aquí lo que parece ser una extraordinaria coincidencia. Pero, ¿se trata realmente de una coincidencia? ¿O existe alguna razón filosófica de fondo detrás de todo esto cuyo significado aún no alcanzamos a comprender?
Jacob Bekenstein, el físico teórico que formuló la segunda ley generalizada de la termodinámica, también ha estudiado a fondo la relación que tienen los agujeros negros y la entropía con la teoría de la información. Basado en su trabajo previo sobre la termodinámica de los agujeros negros, Bekenstein también demostró lo que hoy se conoce como el acotamiento Bekenstein (Bekenstein bound), de acuerdo con el cual existe un límite máximo a la cantidad de información que puede ser potencialmente almacenada en cierto volumen, y que este límite máximo es proporcional al área que acota a este volumen y no al volumen en sí. En la teoría de la información, la base de todo tipo de información se sustenta a su nivel más elemental en el sistema binario de unos y ceros, el mismo sistema en el cual se basa en funcionamiento de todas las computadoras digitales de la Tierra. No es inusual que para transmitir la idea de lo que es el acotamiento Bekenstein se nos presente una superficie teselada con “bits” digitales de ceros y unos tal y como lo sugirió Bekenstein:
Imaginemos por un momento que la superficie sobre la cual grabamos nuestra información es el horizonte de evento de un agujero negro. Ciertamente la cantidad máxima de información que podamos poner sobre dicho cuerpo no podrá ir más adentro de la superficie (en lo que es el volumen de la esfera en sí), porque cualquier información que vaya adentro del horizonte de evento es una información esencialmente perdida para siempre que no podremos recuperar. Lo único que podemos hacer es reducir el tamaño de los “cuadritos” en donde escribimos nuestros “bits”, para así poder aumentar la cantidad de información que podemos apilar sobre la superficie de la esfera. Pero resulta que también hay un límite a qué tan pequeña podamos hacer el área para cada “bit”. Aún suponiendo que de alguna manera podamos irnos hasta niveles sub-atómicos, existe una distancia conocida como la longitud de Planck, igual a 1.616·10−35 metros, por debajo de la cual se espera que el espacio deja de tener una geometría clásica, siendo una medida que no puede ser tratada adecuadamente en los modelos de física actuales debido a la aparición de efectos de gravedad cuántica.
El límite descubierto por Bekenstein es un descubrimiento fundamental, porque se trata de un límite natural para el almacenamiento de información que no puede ser rebasado.
¿Y qué de la información que va al interior de un agujero negro?
Supongamos que tenemos un dispositivo de memoria masivo como el disco duro de una computadora repleto de información o inclusive una enciclopedia impresa como aquellas que hoy sólo se pueden encontrar en los anaqueles de las bibliotecas que aún conservan estas reliquias. Si arrojamos el disco duro o la enciclopedia hacia un agujero negro, una vez que dicha información ha cruzado hacia el interior del horizonte de evento la información ya no puede ser recuperada porque ni siquiera la luz, la portadora primaria de información, puede escapar del horizonte de evento. Sin embargo, la información sigue allí mientras va cayendo en camino hacia la singularidad situada en el centro del agujero negro, y en principio si damos marcha atrás a la flecha del tiempo podemos ir reconstruyendo los eventos previos al ingreso de dicha información al horizonte de evento. Puesto de otra manera, todo presente tuvo que haber tenido un pasado. No hay nada que esté ocurriendo hoy que no haya existido “ayer”. En la Mecánica Cuántica, esto es lo que se conoce como el principio de reversibilidad: la física debe ser capaz de rastrear el resultado final de cualquier proceso, incluído el proceso que condujo a la formación de un agujero negro, a las condiciones que condujeron a dicho proceso.
Sin embargo, hay una situación preocupante que se nos viene encima cuando la información termina cayendo directamente en la singularidad de un agujero negro. La información se destruye totalmente a grado tal que no queda absolutamente nada que podamos rastrear a las condiciones que condujeron a la pérdida de dicha información. El dilema del asunto radica en la aserción que se ha venido haciendo de que la singularidad de un agujero negro es un punto en el cual todo es compactado hasta el infinito, incluído el espacio-tiempo. ¿Cómo vamos a poder rastrear hacia atrás en el tiempo algo de un punto en el que cual el mismo tiempo como nosotros lo concebimos ha dejado de existir? Al esfumarse la masa-energía y el espacio-tiempo en un coctel en el que se compacta todo junto hasta el infinito, no es posible intentar recorrer la ruta inversa dándole marcha atrás al reloj como podríamos hacerlo con una película grabada en un videodisco, porque no hay reloj que funcione en un lugar en donde el tiempo ha dejado de existir como tal. No podemos regresar una película a una escena previa cuando no sólo ya no existe la película sino inclusive ya ni siquiera existe el equipo para reproducirla. El problema con la aplicación de la teoría clásica es que podemos utilizar cualquier combinación de partículas para “construír” un agujero negro (protones, electrones, estrellas, planetas, lo que sea) sin que ello ocasione diferencia alguna en el resultado final. Hay billones y billones de maneras distintas con las cuales se puede hacer un agujero negro, pero bajo el modelo clásico el resultado final es siempre el mismo. Y si todos los agujeros negros son iguales (en el sentido de que al desaparecer totalmente todo rastro de información dentro de ellos entonces no es posible diferenciar cada uno de ellos rastreándolo hacia un origen único e individual), cualquier información acerca de las partículas atómicas y sub-atómicas que los formaron está irremediablemente perdida para siempre una vez que se forma el agujero negro. Este tipo de uniformidad es precisamente lo que viola la ley mecánico-cuántica de reversibilidad, ya que debería ser posible rastrear el producto final de cualquier proceso, incluyendo el proceso que dá origen a la formación de un agujero negro, a las condiciones que lo crearon.
Esta situación preocupante fue reconocida de inmediato por los teóricos que enfocaron sus investigaciones hacia la pérdida de información que tiene lugar en la singularidad de un agujero negro, los cuales no tardaron mucho tiempo en calificarla con un nombre: la paradoja de la información del agujero negro (black hole information paradox). La paradoja radica en el hecho de que la Mecánica Cuántica, por sí sola, nos garantiza la recuperación de la información a partir de un estado inicial que ha ido evolucionando, mientras que la Relatividad General, por sí sola, nos garantiza que en la singularidad de un agujero negro la información se ha perdido irremediablemente en forma tal que ni siquiera la Mecánica Cuántica puede obrar algún milagro para poder recuperar aunque sea una minúscula parte de la información. Puesto de otra manera, la desaparición de información física en la singularidad de un agujero negro permite que varios estados físicos evolucionen hacia un mismo estado único, lo cual viola la suposición más básica de la ciencia de que en principio la información completa acerca de un sistema físico en un momento dado de tiempo determina por completo su estado en cualquier otro tiempo posterior.
La paradoja de la información de los agujeros negros fue una de las cosas que dieron pie para que a finales de la década de los noventas Abhas Mitra, un astrofísico hindú asociado a la División de Física Teórica del Bhabha Atomic Research Centre en Bombay (hoy Mumbai), desafiara la creencia convencional aceptada acerca de la existencia de los agujeros negros con una singularidad física en su interior, afirmando con un papel que fue publicado en diciembre de 2000 en la revista Foundation of Physics Letters que un agujero absoluto no podía existir si nos adheríamos rigurosamente a la Teoría General de la Relatividad, llegando a la conclusión de que las estrellas candidatas a terminar convirtiéndose en agujeros negros debían tener campos magnéticos intensos y por lo tanto no podían terminar como agujeros negros incapaces de poseer campo magnético alguno. Para describir mejor la idea que estaba tratando de comunicar, Mitra acuñó en 1998 la frase Magnetospheric Eternally Collapsing Object (MECO), que podemos traducir como simplemente como “objeto eternamente colapsante”. Esta es otra proposición revolucionaria, porque de ser cierta ello implicaría que no existe singularidad alguna en el interior de los agujeros negros que están en proceso de formación. Y de hecho, ni siquiera existe físicamente el horizonte de evento, ello sería tan sólo la consecuencia de una curiosidad matemática que resulta de la solución de Schwarzschild. En vez de tener una estrella que bajo la acción de una gravedad intensa implota formando primero un horizonte de evento e inmediatamente tras esto una singularidad en su interior, lo que tendríamos sería una estrella en camino perpetuo de convertirse en un agujero negro sin llegar a serlo jamás. El proceso del colapso gravitacional de una estrella en lugar de ser un evento que concluye en una cantidad finita de tiempo sería un proceso que nunca terminaría de concluír; la estrella se estaría colapasando hacia su interior a perpetuidad arrastrando en su camino todo el espacio-tiempo con el que se está colapsando sin que este se llegue a “comprimir” junto con la masa-energía de la estrella hacia un punto singular. El núcleo de la demostración presentada por Abhas Mitra radica en el argumento de que para que un agujero negro se pueda formar, la materia colapsante debe viajar a una velocidad mayor que la velocidad de la luz con respecto a un observador fijo, lo cual no es posible. Aunque la tesis propuesta por Abhas Mitra no tardó en ser cuestionada y calificada como errónea por teóricos relativistas de prestigio como Chris Hillmann quien ha caracterizado el trabajo de Abhas Mitra como “totalmente errado” a causa de malentendidos de la Relatividad General, además de ir en contra de la visión convencional de los agujeros negros defendida por científicos de enorme talla como Stephen Hawking, cuatro años después de que Abhas Mitra diera a conocer sus conclusiones y 30 años después de haber formalizado la existencia de los agujeros negros, el mismo Stephen Hawking dió un vuelco considerado tan espectacular como sus descubrimientos acerca de la evaporación de los agujeros negros, afirmando en julio de 2004 (aunque utilizando argumentos teóricos diferentes a los de Mitra) que los agujeros negros no existen en un sentido factual sino que las estrellas en vías del colapso gravitacional hacia un agujero negro continúan emitiendo radiación térmica y “evaporándose” por un largo período de tiempo.
El objeto eternamente colapsante de Abhas Mitra es uno que en realidad no difiere del concepto tradicional de un agujero negro en el hecho de haber sido una estrella que continuamente se encoge en un espacio cada vez más pequeño, pero que en el caso del objeto descrito por Abhas Mitra nunca llega a ser un agujero negro, y eventualmente el encogimiento de la estrella se frena hasta ser casi imperceptible para nosotros aunque continúa encogiéndose tan lentamente que podría sostenerse a lo largo de varias veces la vida del universo, encerrándose a sí misma en un espacio cada vez menor por toda la eternidad sin alcanzar jamás el tamaño infinitamente pequeño de la singularidad de un agujero negro. A diferencia de un agujero negro, un MECO tiene un tamaño definido. El MECO esencialmente es una densa bola de plasma que genera continuamente campos magnéticos por medio de corrientes superficiales, lo que explica su magnetismo. Más aún, los objetos “chupados” pueden, teóricamente, salir nuevamente, aunque con extrema dificultad. Y esto es importante porque esencialmente proporciona una ruta para comenzar a resolver la paradoja de la información de los agujeros negros.
La comprobación de la hipótesis de Abhas Mitra, aunque aún no es aceptada por la mayoría de la comunidad científica, ha ganado la aceptación de investigadores de la talla del Doctor Darryl J. Leiter y el Doctor Stanley L. Robertson, y continúa ganando simpatizantes que están buscando ya la manera de poner a prueba dicha hipótesis. Uno de ellos es Rudy Schild del Centro Harvard-Smithsoniano de Astrofísica en Cambridge, Massachusetts, trabajando conjuntamente con sus colegas el Doctor Leiter y el Doctor Robertson, los cuales han estado escudriñando un objeto de un tipo extremadamente luminoso conocido como cuásar. Los cuásares, según concuerda la mayoría de los astrónomos, son los centros de galaxias muy lejanas. Tradicionalmente, los astrónomos describen al corazón de un cuásar como un disco de gas que cae en espiral hacia un agujero negro súper-masivo, que se alimenta de él. La luminosidad proviene del gas, que se calienta a medida que corre hacia dentro. Una parte de él sale disparada en dos chorros que se dirigen en direcciones opuestas conocidas como jets o “chorros”. Los cuásares aparecen únicamente en los más lejanos confines del universo conocido. Los astrónomos razonan que esto es así porque existieron solamente en el más lejano pasado. Las áreas más lejanas son aquellas en que vemos al cosmos tal como era hace mucho tiempo, porque la luz se tarda mucho en llegar desde esos lugares hasta nosotros. El grupo de Schild ha enfocado sus esfuerzos en el estudio de un cuásar designado como Q0957+561, que se encuentra a unos 9 mil millones de años luz de distancia en la constelación de la Osa Mayor. El cuásar contiene un objeto central compacto con una masa equivalente a unos 3 o 4 mil millones de Soles. La mayoría de los científicos cree que es un agujero negro, pero Schild dice que sus hallazgos sugieren otra cosa: sorprendentemente, es magnético, a diferencia de un agujero negro, tal y como lo predicen las conclusiones teóricas de Abhas Mitra. Los investigadores escogieron a Q0957+561 porque está asociado con una lente gravitacional (ó lente cósmica). Las estrellas y los planetas que están dentro de la galaxia también afectan la luz del cuásar, un fenómeno relacionado al que se conoce como “micro-lente gravitatoria”, con lo cual es posible discernir más detalles de este así llamado “agujero negro” que se encuentra a dos tercios de distancia del borde del universo observable, que del agujero negro que se encuentra en el centro de la Vía Láctea", nuestra galaxia. El equipo ha estado monitoreando la luminosidad del cuásar a lo largo de 20 años, junto a un consorcio internacional de observadores en 14 telescopios, y ha estudiado el núcleo del cuásar, definiendo un lugar propuesto donde se forman los chorros, algo que 60 años de investigación pasada no han podido explicar. El equipo calculó que los chorros provienen de dos regiones que son ambas unas 25 veces más grandes que la distancia entre el Sol y Plutón, las cuales se ubican directamente sobre los polos del objeto central compacto, a unas 200 veces la distancia Sol-Plutón. Únicamente se cuenta con un escenario propuesto capaz de explicar fácilmente estas ubicaciones, de acuerdo a las conclusiones a las que ha llegado el grupo de investigadores encabezado por Schild: el objeto central es magnético, e interactúa con el disco a través del campo magnético que lo rodea. A medida que gira, el campo se enrolla. Eventualmente, se arrolla tanto que se "rompe" explosivamente antes de re-formarse a sí mismo en una configuración más relajada. Estas roturas liberan energía que impulsa a los chorros. Pero un agujero negro en un disco de acreción no puede tener su propio campo magnético, agregan los investigadores. Normalmente, esto es así porque un objeto en rotación puede ser magnético únicamente si lleva una carga eléctrica, de acuerdo con la teoría Maxwelliana del electromagnetismo. Un agujero negro no puede sostener una carga así, porque cualquier agujero negro con carga eléctrica absorbería inmediatamente suficiente material cargado opuestamente como para cancelar su propia carga. El problema desaparece, sostienen Schild y sus colegas, con el nuevo tipo de objeto compacto propuesto por Abhas Mitra, el “Magnetospheric Eternally Collapsing Object”. Estas conclusiones basadas en los estudios llevados a cabo por Schild y sus colegas aparecen publicadas en arXiv en el documento “Observations Supporting the Existence of an Intrinsic Magnetic Moment Inside the Central Compact Object Within the Quasar Q0957+561”, publicado también en el número de julio de 2006 de la revista The Astronomical Journal.
No será fácil que la teoría MECO gane una amplia aceptación entre los científicos, según dicen los astrónomos, dado que los agujeros negros han sido el escenario aceptado desde Einstein. Pero la propuesta hecha por Abhas Mitra proporciona una ruta de escape de la paradoja de la información de los agujeros negros, a grado tal que el mismo Stephen Hawking ha puesto en duda ya la visión convencional que había sostenido a lo largo de toda su vida acerca de los agujeros negros. (El nuevo tipo de agujero negro propuesto por Hawking ya no es algo capaz de engullir totalmente cualquier cosa; en lugar de esto se mantiene emitiendo radiación durante un periodo prolongado de tiempo para finalmente descubrirse y revelar información interior. Irónicamente los resultados obtenidos por el mismo Hawking le hicieron perder una apuesta sobre un par de enciclopedias que él mismo hizo en 1997 junto al físico teórico Kip Thorne, del California Institute of Technology en Pasadena, contra John Preskill, tambien del Caltech. Ambos defendían que la información que absorbe un agujero negro desaparece para nunca jamás ser revelada, un punto de vista sobre el cual Hawking terminó dando un giro espectacular de 180 grados. Sin embargo, dada la complejidad de las matemáticas involucradas para llegar a tales conclusiones, no falta quienes sospechen que las nuevas conclusiones de Hawking son más bien el resultado de una manipulación matemática magistral de argumentos sofisticados consecuencia del deseo de resolver una de las paradojas más duras de la Relatividad General de la cual entre otras cosas depende la existencia o inexistencia factual de los mismos agujeros negros.)
Además de las rutas de escape proporcionadas por Abhas Mitra y Stephen Hawking para la resolución de la paradoja de la información del agujero negro a costa de destronar al mismo agujero negro como materia prima para las novelas de ciencia-ficción, han ido surgiendo con el paso del tiempo otras teorías alternas que también proponen una resolución a dicha paradoja. Una de ellas está basada en la “teoría de las supercuerdas” (string theory) que propone que todas las partículas del Universo están formadas por pequeñas cuerdas vibrantes. En el año 2000, los teóricos de las supercuerdas identificaron a la paradoja de la información de los agujeros negros como la octava prioridad en su lista de los diez problemas físicos más importantes a ser resueltos en el tercer milenio (esa lista incluye preguntas tales como “¿cuál es la vida de un protón?” y “¿cómo puede la gravedad cuántica explicar el origen del Universo?”). Físicos de la Ohio State University encabezados por Samir Mathur han derivado un conjunto extenso de ecuaciones que sugiere que la información aparentemente perdida en el interior de un agujero negro continúa existiendo, apilada en un enorme montón de cuerditas que llena a un agujero negro desde su núcleo hasta su horizonte de evento. Los resultados obtenidos por ellos sugieren que los agujeros negros no son entidades suaves sin rasgos prominentes sino bolas borrosas bautizadas como fuzzballs. Mathur comenzó trabajando sobre la paradoja de la información con el investigador post-doctoral Oleg Lunin calculando la estructura de objetos situados entre estados simples de supercuerdas y agujeros negros clásicos grandes. En lugar de ser objetos pequeños, resultaron ser objetos grandes, y trabajando tiempo después con los estudiantes de Doctorado Ashish Saxena y Yogesh Srivastava, encontraron que emergía la misma imagen de un “fuzzball” para objetos que se asemejan más cercanamente a un agujero negro clásico. Como resultado de estas investigaciones, Mathur propuso a través de dos papeles publicados en el añ0 2000 que los agujeros negros son en realidad esferas de supercuerdas con un volumen definido en lugar de ser el punto de dimensión cero y volumen cero en el cual está concentrada toda la masa del agujero negro. La teoría de los “fuzzballs” avanzada por Mathur y Lunin satisfacen la ley de reversibilidad (y con ello resolviendo la paradoja de la información de los agujeros negros) porque la naturaleza cuántica de todas las cuerdas que caen dentro un fuzzball-agujero negro es preservada conforme van cayendo cuerdas contribuyendo al crecimiento del objeto; no hay información cuántica que sea compactada hasta el infinito saliendo fuera de nuestro Universo. Más aún, este aspecto de la teoría es verificable puesto que la tesis central afirma los datos cuánticos del fuzzball-agujero negro no permanecen atrapados para siempre en el centro del mismo sino que eventualmente encuentran su camino hacia la superficie borrosa del objeto en donde eventualmente la radiación de Hawking se convierte en portadora de esta información codificada en las correlaciones delicadas que existen entre las partículas virtuales que están escapando hacia el exterior.
Tan pequeñas como son las supercuerdas, Mathur cree que de cualquier modo estas pueden formar agujeros negros grandes a través de un fenómeno llamado tensión fraccional. Las cuerdas son estirables, aunque el estiramiento necesariamente lleva cierta cantidad de tensión del mismo modo que como ocurre con la cuerda de una guitarra. Con la tensión fraccional, la tensión va aumentando conforme va aumentando la longitud de la cuerda al ser estirada. Así como resulta más fácil estirar una cuerda larga de guitarra que una cuerda corta, es más fácil estirar una larga trenza de supercuerdas mecánico-cuánticas que una supercuerda individual. De este modo, cuando se juntan muchas supercuerdas del modo en que ocurriría cuando se juntan las muchas partículas necesarias para formar un agujero negro muy masivo, la bola combinada de cuerda se vuelve muy flexible y se expande a un diámetro grande. Cuando los físicos de la Ohio State University obtuvieron su fórmula para el diámetro de un agujero negro borroso formado por supercuerdas, encontraron que el diámetro coincidía con el diámetro del horizonte de evento sugerido por el modelo clásico (la solución de Schwarzschild). Puesto que Mathur conjetura que las supercuerdas pueden continuar existiendo en el interior de un agujero negro sin ser compactadas, y la naturaleza de estas supercuerdas depende a su vez de las partículas que conformaban la materia prima inicial con la que fue hecho el agujero negro, entonces cada agujero negro es individual y único como lo son las estrellas, planetas, o galaxia que lo formaron. Y del mismo modo, las supercuerdas que vayan entrando en el interior de un agujero negro una vez que éste se ha formado también serían rastreables.
Como puede verse, no hay una sola manera posible con la cual se pueda resolver la paradoja de la información de los agujeros negros. En lo que respecta a cuál de todas ellas será la explicación correcta, esta tendrá que esperar a un tiempo posterior en el futuro, si es que la respuesta no está más allá de los recursos experimentales que podamos desarrollar en el futuro.