You are on page 1of 51

QUANTUM SAPIENS I

La Primera Revolución Cuántica


Jairo Giraldo Gallo
A mi casa,
la Universidad Nacional de Colombia,
en su sesquicentenario.
A la Colombia del postconflicto, «Patria Amada, aunque distante», para utilizar con sentido
alegórico una frase de Gabriel García Márquez.# A quienes pueden materializar el sueño de un
mundo mejor, jóvenes y adultos que se atrevan a luchar con sinceridad por «la paz amada,
aunque lejana». (La desmovilización es apenas un imprescindible primer paso.) A los niños,
niñas y adolescentes, en especial a aquellos que han sufrido los efectos de la violencia
centenaria. A quienes me han acompañado en una «aventura académica», como la llamó otro
de los comisionados de la Misión de Ciencia, Educación y Desarrollo (Carlos Eduardo Vasco
Uribe), misión que publicara inicialmente un informe conjunto con el bello título «Colombia,
al filo de la oportunidad», los 10 comisionados*, o si se quiere, los 10 ex sabios, como a
menudo denomina Vasco al grupo al que pertenecieron él y Gabo, en el que solo figuró una
sabia (Angela Restrepo Cuartas) en un país todavía machista, grupo conformado a instancias
de Rodolfo Llinás durante el gobierno de César Gaviria, y a los demás compañeros de esa
aventura académica que apenas comienza, el «Proyecto Ethos Buinaima», que honra con su
nombre la memoria de nuestra cultura indígena, pisoteada permanentemente en su propio
territorio. A todas esas culturas ancestrales y minoritarias tan valiosas, orgullo de nuestra
nación en los escenarios internacionales, subvaloradas en la práctica cotidiana hasta el punto
de que su lumbre parece extinguirse inmisericordemente. Con la convicción de que, a pesar
de la premonición de nuestro primer Nobel, “porque las estirpes condenadas a cien años de
soledad no tenían una segunda oportunidad sobre la tierra”, sí es cierto que Colombia se
encuentra al filo de una segunda oportunidad, la de la paz con equidad (sin equidad no podría
haberla) y desarrollo sustentable, a cuya materialización todos y todas podemos y debemos
contribuir. Particularmente valiosos serán el aporte de la ciencia al desarrollo que buscamos
y el de una educación de excelencia con equidad (E×E×E) para la paz y la convivencia en el
postconflicto, que le sumen a la paz en el «LABORATORIO DE SUMA PAZ». Sin el apoyo de la
Universidad Nacional de Colombia, este proyecto concreto (la finalización y publicación de
esta primera parte de Quantum Sapiens, un proyecto pedagógico-divulgativo en ciencias pre-
antrópicas) y un plan a largo plazo en el que el autor está comprometido («Proyecto Ethos
Buinaima, Laboratorio de Suma+Paz», una propuesta pedagógico- formativa, sustentabilidad
con equidad) no habrían podido ni siquiera formularse.&

#
Mensaje con motivo del bicentenario (2003) de la Universidad de Antioquia, durante el evento Simposio
Internacional: Hacia un Nuevo Contrato Social en Ciencia y Tecnología para un Desarrollo Equitativo. El evento infructuosamente
intentaba rescatar las recomendaciones de los Diez Sabios. Véase siguiente pie de página.
*
Ellos fueron, en orden alfabético: Eduardo Aldana, Fernando Chaparro, Gabriel García-Márquez, Manuel
Elkin Patarroyo, Rodrigo Gutiérrez, Rodolfo Llinás, Marco Palacios, Eduardo Posada, Ángela Restrepo y
Carlos Eduardo Vasco.
&
Las razones que tenemos para que esta sea apenas una primera parte se esbozan en Prolegómenos de
Quantum Sapiens… ¿Sapiens?, disponible también en versión electrónica
(www.corporacionbuinaima.org). Se recomienda a quienes abordan el tema por primera vez dar al menos
una rápida lectura a esa introducción. (Giraldo, 2018b.)
PRÓLOGO
Carlos Eduardo Vasco Uribe
CONTENIDO

INTRODUCCIÓN AL QUANTUM SAPIENS I


LA PRIMERA REVOLUCIÓN CUÁNTICA
Qué es y qué no es cuántico
1. Evolución de las ideas
2. Los primeros conceptos cuánticos
3. Los primeros experimentos con electrones
4. De vuelta al gran misterio
5. Principios y postulados
6. Acciones fantasmagóricas a distancia: un misterio mayúsculo
7. De regreso a la filosofía natural
8. Interpretaciones múltiples

EPÍLOGO
APÉNDICE
Las dos grandes teorías deterministas
1. Mecánica
2. Oscilaciones y ondas mecánicas
3. Electrodinámica

REFERENCIAS Y COMPLEMENTOS
INTRODUCCIÓN AL QUANTUM SAPIENS I
«The eternal mystery of the world is its comprehensibility», Albert Einstein (1936).
En Schrödinger life and thought (Vida y pensamiento de Schrödinger), Walter Moore reproduce
la famosa y apasionante discusión entre Erwin Schrödinger y Niels Bohr durante la visita del
primero al segundo en Copenhague en 1926. “You surely must understand, Bohr, that the whole
idea of quantum jumps necessarily leads to nonsense. …” Bohr: “Yes, in what you say, you are
completely right. But that doesn’t prove that there are no quantum jumps.” (Moore, 1989.) Vale
la pena reproducir la réplica completa de Schrödinger:
“Señor Bohr, seguramente debe usted entender que la idea de los saltos cuánticos
necesariamente lleva a un disparate. Se dice que el electrón en una órbita estacionaria de un
átomo da vueltas periódicamente en una suerte de órbita sin emitir radiación. No hay
explicación de por qué no debería radiar; de acuerdo con la teoría de Maxwell, tiene que radiar.
Luego el electrón salta a otra órbita y entonces sí emite radiación. ¿La transición es gradual o
súbita? Si ocurre gradualmente, entonces el electrón debe cambiar gradualmente su frecuencia
de rotación y su energía. No es comprensible cómo esto puede dar lugar a frecuencias agudas
(léase discretas o cuantizadas) para las líneas espectrales. Si la transición ocurre
repentinamente, por decirlo de alguna manera en un salto (la bastardilla es nuestra), entonces
desde luego que uno puede obtener de la formulación de Einstein de los cuantos de luz la
frecuencia de vibración correcta de la luz, pero entonces habrá que preguntarse cómo se mueve
el electrón en el salto. ¿Por qué no emite (el átomo) un espectro continuo, como lo requiere
(predice) la teoría electromagnética? ¿Y qué leyes determinan su movimiento en el salto? En fin,
la idea entera de los saltos cuánticos debe considerarse simplemente absurda.”
La respuesta de Bohr, el que sea absurda no prueba que no haya saltos cuánticos, rompe por
completo la posibilidad de acuerdo entre los dos puntos de vista. Habría que esperar a que
surgiera un hombre nuevo, un sapiens cuántico, para poder, no digamos entender, simplemente
aceptar lo que está pasando. Más que sabio (sapiens) el hombre ha sido práctico y ha sabido
sacar provecho del comportamiento cuántico. Por cerca de un siglo hemos estado bajo el influjo
de la primera revolución cuántica, algo así como la energía cuántica aunque ha sido mucho más
que eso; ahora estamos, lo estaremos cada vez más, inmersos en la segunda, la de la información
cuántica.
Cuando se publican estas notas (las designaremos por brevedad QS I) y las introductorias que le
preceden, Quantum Sapiens…¿sapiens? (QS 0), se cumple una década durante la cual el autor
ha estado ofreciendo un curso de libre elección sobre estos asuntos cuánticos, programado por
la Dirección Académica de la Sede Bogotá de la Universidad Nacional de Colombia y dirigido a
estudiantes de todos los programas académicos de la sede. El curso se ha denominado desde
entonces Cuántica para todos y para todo y goza de gran acogida. Solemos referirnos a él por
sus iniciales, CPTPT, aunque para insistir en la inclusión de género, no suficientemente tenida
en cuenta, agregaríamos otra PT (para todas). El CPTPTPT ha virado cada vez más a un curso de
humanidades desde la perspectiva cuántica. Para ayudar al desarrollo del curso se escribieron
inicialmente unas notas recopiladas en el texto Unos cuantos para todo. (Giraldo, 2009.) Con el
tiempo el formato ha cambiado. La idea central del curso y de las notas es darle una orientación
más humanística a lo que puede derivarse de la cuántica, de sus aplicaciones y sus implicaciones.
En ese orden de ideas, en 2013 se ofreció, por iniciativa nuestra, la cátedra de sede (cátedras
también a cargo de la Dirección Académica) José Celestino Mutis con el título: Cien años de
Saltos Cuánticos. El nombre escogido para la cátedra tuvo que ver con el hecho de que en marzo
de 1913 publicó Bohr un artículo (luego vinieron otros dos) en el que se mencionaba por primera
vez tan descabellado fenómeno, aparentemente producto de la imaginación, como lo sugiere
Schrödinger, pero en la práctica lo único que se puede extraer de la observación experimental.
La primera parte de esta discusión interminable sostenida entre Bohr, Schrödinger y Einstein
(véase el capítulo 6º) concluye en un primer round (Conferencia Solvay 1927) a favor de Bohr
con la famosa sentencia de Schrödinger: “Lamento haber tenido algo que ver con la teoría
cuántica.” Era en cierta medida una aceptación de la derrota en la que, se dice, el gran perdedor
fue Einstein. La frase que nos sirvió de entrada (“El más grande misterio del universo es que sea
comprensible”, suele ser la traducción libre) refleja la no aceptación de la derrota por parte del
gran ícono de la física de todos los tiempos. Recuérdese que fue pronunciada o escrita en 1936.
Los dilemas que se plantea Schrödinger, uno de los más importantes padres fundadores (no en
balde la ecuación más famosa de la teoría lleva su impronta), son los que afrontamos quienes
habíamos creído que el funcionamiento del universo es comprensible. Suponíamos que la
mecánica y la electrodinámica eran las teorías claves para entenderlo. Ahora resulta que no,
como se infiere de los disparatados saltos cuánticos. Ya la radiación no ocurre en la forma en
que lo anticipaba la más exitosa de las teorías a fines del siglo XIX, la electrodinámica clásica
(EDC). Tampoco los electrones se mueven siguiendo las leyes de la mecánica newtoniana, peor
aún, no siguen trayectorias definidas. Habrá que empezar aceptando ese hecho contundente.
Cuando se dio este diálogo entre los dos famosos personajes, se habían logrado poner en su
sitio las primeras piezas de tan complicado rompecabezas. El año anterior (1925) Heisenberg
primero y después él con Born y Jordan formularon la representación matricial de la mecánica
cuántica. Schrödinger elaboró la versión ondulatoria a comienzos de 1926. Si bien las piezas
encajaban en una y otra versión para entender lo que se estaba observando, no podía afirmarse
que se comprendiera lo que estaba pasando. La conferencia más famosa de la serie (todavía se
celebran, pero parece improbable, por no decir imposible, que alguna del futuro sea equiparable
a la de aquel año) no hizo sino reafirmar la creencia de Bohr en los malditos saltos cuánticos,
como podrían calificarse por parte de quienes se propongan comprenderlos. Una década
después (1935) Einstein aceptaría a regañadientes el famoso Principio de Incerteza, o de
incertidumbre como suele llamarse en español, o de Heisenberg, como indudablemente hay que
llamarlo: con el nombre del pionero de la clave del asunto. El artículo conocido como EPR
(recordatorio de sus tres autores, Albert Einstein y sus dos auxiliares, Boris Podolsky y Nathan
Rosen), publicado en 1935 dio lugar a una rápida y enérgica respuesta de Bohr en un artículo
publicado el mismo año, en la misma revista (Physical Review) y con el mismo título (Bohr, 1935).
Pero nadie convenció al padre de la teoría de relatividad, durante sus 20 años restantes de vida
(moriría en 1955, si no se acepta la versión de los universos paralelos, la más escabrosa de todas
para su gusto), de que la mecánica cuántica fuera una teoría completa. “Acciones
fantasmagóricas a distancia” fue su calificativo para lo que hoy es pan de cada día, el
entrelazamiento cuántico, un misterio mayúsculo.
No desgastaremos al lector en las divagaciones del autor de estas notas por cerca de medio siglo
sobre una posible interpretación aceptable de la teoría cuántica (QT por sus siglas en inglés, para
no confundirla con CT, Classical Theory o teoría clásica en su conjunto). Si aceptable es
equivalente a clásica, eso no es posible. La QT es una teoría no local. Sobre las implicaciones de
ese carácter, la no localidad, volveremos detalladamente en el sexto capítulo.
Einstein fue en gran medida el primer responsable de los saltos al hablar de corpúsculos de
energía del campo electromagnético, los hoy denominados fotones. Esto ocurrió en 1905 y él
mismo calificó la idea de revolucionaria. Cinco años atrás Planck había introducido la hipótesis
desesperada de la cuantización de energía de unos supuestos osciladores dentro de la materia.
Lo que se pretende con Quantum sapiens es acercar esos conceptos, sus aplicaciones presentes
y futuras (QS II) y, por qué no, sus implicaciones, incluso las que pueden repercutir en la
educación del futuro, a una audiencia más amplia. Esto es tanto más importante por cuanto las
nuevas tecnologías, no solamente las de la información y de la comunicación, en general las
llamadas tecnologías convergentes, dependen enormemente de la manipulación de la materia
a escala microscópica, vale decir, atómica, molecular y nanométrica. Con respecto a esta última,
el autor de estas notas ha escrito un breve texto divulgativo que incorpora algunas reflexiones
particulares: Nano…¿qué? Nano-(R)Evolución. (Giraldo, 2018a.) Estas últimas son el resultado
de relacionar los fundamentos de la nanotecnología (cuánticos) con sus efectos (clásicos) pero
también con el proceso natural que partió precisamente de allí. Esas reflexiones lo llevaron a
emprender una tarea más ambiciosa que se resume a continuación.

Breve historia de una pentalogía


Los mitos, como forma de conocimiento, con todo el bagaje cultural que encierran, son tan
importantes como la ciencia misma, otra forma cultural. Bertrand Russell llegó a afirmar que el
arte es la primera forma de conocimiento. Puede ser la más importante, porque es la máxima
expresión de la creatividad humana. No fue indispensable esperar al desarrollo de la ciencia
moderna para aceptar que el conocimiento científico es de trascendental importancia. La ciencia
antigua, con métodos muy limitados, logró avances notables en el terreno práctico con ayuda
de la intuición y de las artes, pero sobre todo a partir de la reflexión filosófica. En la edad
moderna, auxiliada por las matemáticas y la observación experimental, la llamada filosofía de la
naturaleza tuvo su máxima expresión en la física. Probablemente hoy lo sea en la biología. Nadie
se atrevería a negar categóricamente la trascendencia de la filosofía; no obstante, cada vez se
tiene menos en cuenta en los planes de estudio y se deja como material de relleno.
La tecnología actual ha adquirido un nuevo status, una nueva dimensión. De ahí surgieron las
llamadas nuevas t.i.c.* Con todos los peligros que encierran, que no son pocos, esas nuevas
tecnologías no solo facilitan y promueven el conocimiento sino que también lo generan y lo
enriquecen. En resumen, habrá que reconocer en las t.i.c. una nueva forma de conocimiento.
Sin que pretendamos ordenarlas jerárquicamente, a las distintas formas de conocimiento las
agruparemos en 5: conocimiento ancestral, artes, ciencias, filosofía, y conocimiento apoyado
por y derivado de las tecnologías, formas diferenciadas que deberían estar estrechamente
interrelacionadas. Esas cinco formas de conocimiento conforman todas ellas lo que
denominamos un pentivium, camino cruzado de cinco vías, por analogía con antiguos esquemas
resumidos en el trívium, primero, y el quadrivium después.

*
Solemos afirmar que el talento, el ingenio y la creatividad, los viejos TIC, están presentes en los niños:
podría decirse que son innatos en ellos y el papel más importante de la educación es potenciarlos al
máximo; de ahí las mayúsculas: son ellos más importantes que las nuevas, apenas un instrumento. A estas
reflexiones sobre la educación del futuro volveremos en el QS IV. Nótese de paso que abreviaremos como
QS seguido de su orden en números romanos a los distintos volúmenes de una posible pentalogía.
¿Y qué tienen que ver las cinco formas de conocimiento, el pentivium, con la pentalogía
anunciada en la contraportada y en la página anterior? A pesar de su coincidencia en la raíz
etimológica, la relación es más simbólica que práctica. El escasa vínculo que se puede establecer
no puede ser uno a uno sino como un todo, en forma integral. Es un ejercicio de búsqueda que
todavía no termina y el lector interesado tendría que esperar al encuentro, si le acompañara la
paciencia suficiente, hasta los últimos volúmenes de la serie sin que estemos seguros de que el
tiempo nos alcance para ello. Se le dio al problema una solución intermedia que comentamos a
continuación.
Cuando empezó a redactar estas notas, tal vez en dos volúmenes, y se le ocurrió titularlas
Quantum Sapiens, el autor juzgó que era necesario justificar el periplo de la idea y escribió una
larga introducción para el primero. Antes de decidir el contenido de la versión definitiva, estimó
que muchas de sus reflexiones o motivaciones iniciales, extendidas ampliamente (perdónese la
redundancia, aunque en realidad deberían ampliarse mucho más), podrían constituir un
volumen introductorio y que los asuntos que tienen que ver con las múltiples aplicaciones
ocuparan un tercer texto. Al introductorio le hemos titulado Quantum Sapiens… ¿Sapiens? El
signo de interrogación será por lo menos sugestivo y refleja bien las dudas que abrigamos,
inspiradas por el rumbo que ha tomado la civilización últimamente… o desde hace ya largo
tiempo. Es innecesario advertir que quienes solo se interesen por el impacto causado por la física
cuántica en la ciencia y la tecnología del momento no requerirán de esa introducción.
La ambiciosa empresa aquí y en el volumen introductorio iniciada no puede ser el producto de
un solo individuo. El autor de este primer ensayo le ha propuesto participar del segundo a
quienes han participado como conferencistas invitados sobre temas específicos dentro del
CPTPT, expertos de diferentes disciplinas y de variados campos de la física, no para un trabajo
solamente interdisciplinario sino principalmente transdisciplinario. Un tercer volumen se ha
venido gestando desde hace más de dos años, sin que hayamos podido llegar los autores (tres)
a un acuerdo sobre el contenido definitivo.
De las primeras tres partes, se ha logrado un consenso que parcialmente se anuncia a
continuación. No así de los dos (a lo mejor sean más) restantes, particularmente el penúltimo,
dedicado a un asunto siempre en crisis: la cuestión educativa. ¿Habrá que desescolarizar la
educación?, es la pregunta de bulto. El 5º retomaría, sin pretender contestarlas, las preguntas
claves que podría formular la filosofía hoy. Sin tener mucho que decir al respecto, sumergido
durante casi toda su vida en lo que otrora se llamara filosofía natural, ni siquiera en la filosofía
de la naturaleza, el autor del presente volumen intentará responder a un asunto que debería
ser inquietante pero que en la sociedad del conocimiento, en la era de la información, parece
tenerse cada vez menos en cuenta: ¿en qué consiste comportarse sabiamente? Difícil pregunta,
todavía abierta.
Resumimos a continuación lo que será el plan del presente volumen, aunque el contenido que
le sigue puede ser claro para muchos de los lectores. El primer capítulo no tendría que ver con
el tema, salvo por el antiguo origen de los conceptos precedentes. El segundo recoge las
primeras ideas y es en cierto sentido el preámbulo a lo que vendría después. El tercero le a un
soporte experimental a la evidencia de que habrá que construir otra teoría que dé cabida a las
nuevas observaciones. El cuarto muestra a las claras el rompimiento con la tradición de la nueva
imagen (dual) del comportamiento de la materia: es el verdadero punto de partida. El quinto
intenta resumir los nuevos conceptos y formular en palabras la teoría matemática resultante. El
sexto se detiene en una conclusión inesperada de los principios cuánticos: el problema del
entrelazamiento y, por ende, de la no localidad que rompe con el punto de vista einsteniano.
Después de la formulación de una teoría matemática para la reconocida fenomenología cuántica
que rompe por completo con el sentido común, no queda otra alternativa que interpretar el
resultado; para disgusto de los físicos, el resultado son múltiples interpretaciones, algunas de
las cuales se esbozan en el capítulo séptimo. En síntesis, a quienes interesa algo más que calcular
con el formalismo no les queda otro camino que regresar a la filosofía, una nueva Filosofía
Natural, tema del capítulo final.
QUANTUM SAPIENS I

Qué es y qué no es cuántico


1. Evolución de las ideas 21
1.1 Visión panorámica con perspectiva histórica
1.2 Los primeros hitos
1.3 De Fenicia a Grecia
1.4 El milagro jónico
1.5 Preconceptos y conceptos
1.6 Evolución de la física
1.7 Las dos grandes teorías deterministas y sus limitaciones
1.8 Lo que faltaba (y lo que falta) por descubrir
1.9 Descubrimiento del electrón, del fotón y del núcleo atómico
2. Los primeros conceptos cuánticos 51
2.1 Introducción al gran misterio
2.2 ¿Partículas u ondas? Se debe tomar la bifurcación
2.3 Ondas que son partículas y viceversa
2.4 De los átomos indivisibles a las órbitas cuantizadas de Bohr
2.5 Los principales responsables de la confusión iluminante
2.6 Una revolución que continúa siendo molesta
2.7 Si no siente vértigo, es porque no ha entendido
3. Los primeros experimentos con electrones 85
3.1 Experimento de Franck y Hertz
3.2 Experimentos de Stern y Gerlach
3.3 Experimentos de Davisson, Germer y otros
4. De vuelta al gran misterio 97
4.1 De Arquímedes a Higgs y de Newton a Einstein, historias de luz
4.2 El experimento más bello de la física
4.3 Un experimento con fotones
4.4 Borrado cuántico
4.5 Comportamiento Dual de la Materia y Principio de Incertidumbre
4.6 Función de onda y principio de complementariedad
4.7 Principio de Heisenberg y tunelamiento cuántico
5. Principios y postulados 117
5.1 Los principios son el fundamento
5.2 Otros mundos posibles
5.3 Principio de dualidad onda-corpúsculo
5.4 Principio de complementariedad
5.5 Principio de indeterminación
5.6 Principio de correspondencia
5.7 Principio de valores propios
5.8 Principio de exclusión
5.9 Principio de superposición
5.10 Un Formalismo matemático
6. Acciones fantasmagóricas a distancia: un misterio mayúsculo 139
6.1 Interpretación probabilística de la función de onda
6.2 La incomodidad de Einstein
6.3 La interpretación de Copenhague
6.4 El contraataque de Einstein: EPR
6.5 Gatos de Schrödinger, de Wigner y de Wheeler
6.6 Las variables ocultas
6.7 Teorema de Bell
6.8 Fotones entrelazados II
6.9 Interferómetro de Mach-Zender
7. De regreso a la filosofía natural
De la filosofía a la física y otra vez a la filosofía
Ciencia y filosofía
Ciencia y sociedad
Ciencia, tecnología y desarrollo humano
8. Interpretaciones múltiples
Copenhague y su revalidación
El multiverso y sus bifurcaciones
Interpretación estadística de una teoría probabilista
Teorías de variables ocultas
Nuevas posibilidades
Diversas interpretaciones
¿Qué es y qué no es cuántico?
Si los físicos nos propusiéramos como reto responder a esta pregunta, tendríamos serias
dificultades en hacerlo satisfactoriamente. Quizá lo más riguroso que podamos decir es que el
fenómeno cuántico en sí mismo escapa a su observación. En otras palabras, lo que debe quedar
claro es que la observación es clásica, a menos que extendamos ese concepto. La observación
envuelve una medida de alguna cantidad física. En ocasiones, el resultado de esa medida, casi
siempre indirecto, da una imagen que puede ser equivocada. Eso ocurre, por ejemplo, con el
espín del electrón y de las demás partículas… o de lo que suponemos que son partículas. Un
fotón tiene espín uno; dos electrones apareados pueden tener espín cero, eso no significa que
no tengan esa propiedad, simplemente quiere decir que esa cantidad adicionada es cero, o
mejor (0, 0, 0), un vector con sus 3 componentes nulas, similar a la velocidad de un cuerpo en
reposo, clásicamente hablando (0, 0, 0). Cuánticamente no puede hacerse esta última
afirmación, el reposo absoluto no existe, a menos que renunciemos a localizar el objeto del que
se sepa con certeza que está en completo reposo… estará en todas partes… o en ninguna, así de
simple. ¡Complejo!, ¿verdad?*

Los objetos físicos se manifiestan de alguna manera frente a nuestros sentidos o, para decirlo
de manera más general, son detectados por nuestros aparatos de medida. Concordaremos en
afirmar entonces que la observación a que nos referimos en física no es solamente la que
podemos realizar con el sentido de la vista o con otro cualquiera. En otro tiempo percibiríamos
u observaríamos los objetos materiales y quizá dudaríamos en reconocer que la luz es un objeto
material. ¿Es la gravedad un objeto material? Pocos se atreverían a responder positivamente,
pero las ondas gravitacionales, recientemente descubiertas, no dejan lugar a duda. Una
pregunta más sutil se refiere a lo que hoy se denomina información. No estamos hablando de lo
que venden los periódicos o lo que escuchamos en la radio o vemos en la televisión. Exploramos
a nuestro alrededor para informarnos de lo que está pasando, eso es indudable, pero la
información misma es algo más etéreo. Sin embargo, después de Claude Shannon (1948)
debemos reconocer que la información es algo con contenido físico.

Hubo una época en la que atribuíamos a los cuerpos propiedades que no tienen. Los efectos del
zodíaco en la vida de las personas es una de esas manifestaciones. No es este el espacio para
hacer la distinción entre mito y religión, pero toda oportunidad es buena para deslindar terrenos
entre esos dos campos, de alguna manera relacionados, y el que ocupa lo que hoy denominamos
ciencia. Ha habido, y es seguro que se siguen presentando a pesar de los espectaculares avances,
periodos de la historia en los que la ciencia que se dice practicar no difiere mucho de la
pseudociencia. No está lejana la pasada época en que solía hablarse del fluido calórico o del
fluido vital, fluidos que hoy claramente están descartados en la ciencia convencional. Polémicas

*
Cuando se calcula rigurosamente la energía de un oscilador armónico o cuando se habla de campos
cuánticos, hay que referirse a un concepto nuevo denominado energía de punto cero. La expresión y el
concepto ha dado lugar a relatos esotéricos de todo tipo. Los efectos de esa energía de punto cero son
observables; como ejemplo, se suele citar el Efecto Casimir, consistente en la atracción que dos placas
metálicas muy finas sienten a temperatura muy baja (cercana al cero absoluto). En forma general se puede
hablar de fluctuaciones del vacío. A este concepto, al de espín y a otros más volveremos después. Para el
lector menos familiarizado con la terminología hemos agregado un glosario de términos y conceptos
fundamentales al final.
acerca de los organismos genéticamente modificados envuelven mucho de subjetividad; es
difícil deslindar las manipulaciones con intereses comerciales de las rigurosas pruebas de
laboratorio; el asunto merece un examen cuidadoso.

La ciencia clásica es determinista: esta característica es básica. Por el contrario, la nueva ciencia,
la que cae dentro de la comúnmente denominada mecánica cuántica no lo es. Se dice que esta
es una teoría probabilística. Lo es, pero desde una perspectiva que no es clásica. Caos y
complejidad es una nueva rama interdisciplinaria de la ciencia, usualmente desde la perspectiva
clásica. Nos proponemos abordar el tema de algunos fenómenos cuánticos complejos en un
tercer volumen. A las aplicaciones prácticas y teóricas de la fenomenología cuántica estará
dedicado el segundo.

Con el advenimiento de la física cuántica, como preferimos denominar a la nueva teoría, el


universo dejó de concebirse como un mecanismo de relojería. La física cuántica es la teoría que
subyace prácticamente a toda posibilidad de entender el universo físico. Tal vez el término
entendible sea menos exigente que la cercana expresión comprensible, o diste todavía más de
comprehensible, lo que imaginara Einstein cuando escribió o publicó la frase que sirvió de
entrada a este tomo (y a la introducción, el Tomo 0). En ese sentido, aquello de que el universo
sea comprensible es con toda seguridad una quimera. Algunos físicos, si no la mayoría, creen
que Feynman exagera cuando exclama: Nadie entiende la mecánica cuántica. Pero debemos
aceptar que los más destacados padres fundadores de la teoría tuvieron que reconocer que no
la entendieron. Algunos se lamentaron, no solo Schrödinger, de haber tenido algo que ver con
ella. Para aclarar el sentido de la afirmación de Feynman, tal como la compartimos o en la
medida en que estamos de acuerdo con él, se entiende perfectamente el aparato matemático,
por complejo que este sea. Pero sus implicaciones no se comprenden. Lo que pasa con los
objetos cuánticos mientras no los observemos, es solo parte de la imaginación, y cuando los
observamos o detectamos, en esencia les obligamos a comportarse de acuerdo a nuestro
aparato de medida. Es certera esta afirmación de Feynman, poco citada: “Podría decir de
inmediato… siempre hemos tenido una gran dificultad en entender la imagen del mundo que
representa la mecánica cuántica. … No puedo definir el problema real, sospecho por lo tanto
que no hay un problema real, pero no estoy tan seguro de que no haya un problema real”.
(Bernstein, 2009.)

En conclusión, antes de la observación, los que podríamos denominar fenómenos


fundamentales son en esencia cuánticos. Mas la observación misma es un fenómeno clásico.
Hecha esta, puede ser que el fenómeno haya dejado de ser cuántico. Definir el proceso de
medida y los posibles observables, en otras palabras, lo que vamos a hacer sobre el universo o
alguna de sus partes cuando lo queremos interrogar, es el primer problema de la física cuántica.
Y se resuelve operacionalmente, es decir, mediante una teoría que es abstracta. Comunicarla,
pues, es una tarea que se deja en manos de un formalismo matemático. El resto es
interpretación. A ella(s) nos referiremos en los dos últimos capítulos de este primer tomo.

La primera hipótesis sobre cuantización vino con el cuerpo negro, un cuerpo a todas luces
macroscópico, como veremos: la enunció Planck el 14 de diciembre de 1900 ante la Sociedad
Alemana de Física. Para entonces la hipótesis atómica no era aceptada como hipótesis científica
por los más destacados físicos alemanes del momento. Puede decirse que el átomo que se
observa hoy con los más sofisticados instrumentos de observación y manipulación a ese nivel se
manifiesta clásicamente, aunque su comportamiento y las leyes que lo rigen son rigurosamente
cuánticos.
1. Evolución de las ideas
1.1 Visión panorámica con perspectiva histórica
El lector pragmático puede dejar de lado este y el siguiente capítulo, al menos en una primera
lectura. Eventualmente le convenga regresar al segundo.
Hay muchos tratados, con diversos enfoques, sobre el maravilloso tema de la evolución de los
conceptos que dio lugar a las ciencias tal como las concebimos hoy, bien adentrados como
estamos en el siglo XXI. A ese acervo cultural extraordinario no deberíamos seguirlo llamando
ciencia moderna, y mucho menos referirnos a ella en singular; si lo hacemos, tendremos que
buscar una nueva definición del término que las incluya a todas, duras y blandas, humanas y
naturales, antrópicas y pre antrópicas, o cualesquiera otra clasificación que se nos ocurra.
(Vasco, 2015b.) Por razones prácticas nos limitaremos a las ciencias naturales y tangencialmente
a las matemáticas, también en plural. Si es de algún interés para el lector la implicación de las
aplicaciones de las primeras, La perspectiva científica, del matemático y filósofo Bertrand Russell
constituye, a nuestro juicio, un valioso punto de partida. (Russell, 1949.) Aunque más
especializado, Historia de la física, escrito por un físico británico contemporáneo de Russell,
suministra un enfoque más amplio en sus capítulos iniciales sobre el remoto origen. (Jeans,
1948.) No se puede prescindir, por incipiente que haya sido, del aporte de La ciencia griega al
origen de la ciencia moderna, tema que de manera original fue cubierto por otro británico
contemporáneo de Russell (Farrington, 1944, 1949). Para un enfoque intercultural, hay que
hacer referencia a Las dos culturas, de Charles Percy Snow, un británico más (1959), quien
indudablemente inspiró a otros para que a fines del siglo XX introdujeran el término Tercera
cultura. (Brockman, 1995.)
Análisis históricos postmodernos más rigurosos pueden encontrarse en algunos autores
franceses. Para el periodo histórico que comprende desde los inicios hasta mediados del siglo
pasado, puede consultarse Serres y otros (Serres, 1991). Más puntual y centrado en la física es
D'Archiméde à Einstein. Les faces cachées de l'invention scientifique. (Thuillier, 1990.) Todos
ellos, particularmente los últimos, conducen al tema de la relación entre las ciencias naturales y
las otras formas de conocimiento y al peligro de la super-especialización científica o tecnológica.
En gran medida nuestro ensayo está guiado por esta última preocupación; en especial queremos
advertir al lector del riesgo que implica para la verdadera democracia una cultura acientífica,
como lo destacara Carl Sagan (1996):
«Hemos preparado una civilización global en la que los elementos más cruciales –el transporte, las
comunicaciones y todas las demás industrias; la agricultura, la medicina, la educación, el ocio, la
protección del medio ambiente, e incluso la institución democrática clave de las elecciones– dependen
profundamente de la ciencia y la tecnología. También hemos dispuesto las cosas de modo que nadie
entienda la ciencia y la tecnología. Eso es una garantía de desastre. Podríamos seguir así una temporada
pero, antes o después, esta mezcla combustible de ignorancia y poder nos explotará en la cara.»

También por razones prácticas nos limitaremos a la evolución de los conceptos, más que a los
aspectos históricos; un buen punto de referencia lo constituye el desarrollo de las ideas en la
Grecia Antigua. Nuestro propósito no es seguir aquí el tradicional enfoque histórico. Tampoco
nos interesa hacer un ensayo de corte epistemológico, igualmente abundante en la literatura.
Siendo nuestro interés prioritario el grandioso proceso de pensamiento que culminó con lo que
hemos dado en denominar la segunda revolución cuántica, sin duda alguna el más grande
descubrimiento científico a nivel conceptual, pondremos inicialmente el énfasis en la imagen
atomista que se desarrolló desde los epicúreos, con una enorme discontinuidad o vacío
temporal de casi dos milenios, favorecido por la autoridad intelectual de Aristóteles y, en la Edad
Media, por la imposición teológica y teleológica de la Iglesia Católica. El enfoque de Weinberg
(2016) es un valioso complemento.
Empezamos por referirnos a un punto de vista más o menos común a todos los autores
mencionados. Al margen de sus creencias religiosas, para el avance de los conceptos científicos
era necesario desproveerse de la explicación del mundo a partir de las causas sobrenaturales.
Ese fue uno de los grandes méritos de Copérnico, Kepler, Galileo y Newton, para citar unos pocos
ejemplos. Uno de los mecanicistas más destacados fue Laplace, quien en su magna obra
Exposition du système du monde afirma (1796):
«Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se
podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la
naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto
como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los
grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro,
así como el pasado, estarían frente a sus ojos.»

Refiriéndose a ella le pregunta Napoleón: «Me cuentan que ha escrito usted este gran libro
sobre el sistema del universo sin haber mencionado ni una sola vez a su creador», y Laplace
contestó: «Sire, nunca he necesitado esa hipótesis». Ante la insistencia del Emperador replica:
«Aunque esa hipótesis pueda explicar todo, no permite predecir nada». Ese intelecto al que se
refiere Laplace ha de convertirse después en lo que se llamará el demonio de Maxwell. Por
analogía, uno de los autores de la tercera parte (Andrade) lo ha extendido a Los demonios de
Darwin (2003).
A pesar de los indiscutibles avances de las ciencias en los últimos tiempos, la mayoría de la gente,
incluso en ambientes cultos y hasta en entornos académicos, sigue buscando la explicación de
los fenómenos de todo tipo en fuerzas sobrenaturales. Cabe esperar entonces que así ocurriera
desde los albores de la humanidad, o más precisamente de las civilizaciones, con algunas
excepciones. Al contrario de lo que debería suceder, la física cuántica ha dado pie para que
muchos retomen y refuercen esa tendencia tan humana. Vale la pena examinar el desarrollo de
las ideas pre-científicas que abrieron espacios para la ciencia misma y las que posteriormente se
abrieron paso, desde los inicios de la ciencia moderna. El temario de este capítulo se ha dividido
así en dos partes, correspondiendo la primera a lo que se reconoce como Edad Antigua.
Podría argumentarse que la hipótesis atómica fue la más clara renuncia a la explicación mítica o
religiosa que perduró por decenas de miles de años y que todavía sobrevive en ciertos círculos
intelectuales. Eso no es del todo cierto: el atomismo como doctrina se practicó en las escuelas
místicas de la India antes que en la Grecia pre-socrática. Pero la hipótesis de unos átomos o
corpúsculos eternos e inmutables que son los ladrillos básicos de la materia sí puede chocar
contra algunas creencias religiosas, por ejemplo, el llamado dogma de la transubstanciación.
Aunque no es totalmente claro, muchos pasajes oscuros del aun misterioso Juicio a Galileo
apuntan a que fue su aceptación implícita de aquella hipótesis milenaria lo que desencadenó la
obstinada persecución al genio, más que su defensa del punto de vista copernicano. (Hernández,
2009.)
La propuesta atomista de Demócrito y Leucipo estuvo precedida de la idea de que todo en el
universo provendría de una única substancia. Se pasó así del agua al aire, al fuego y a la tierra
misma; después de los presocráticos, Platón planteó que todo era espíritu, mientras que su
discípulo Aristóteles volvió a los 4 elementos, anticipados por Empédocles.
Sin proponérselo, el estagirita cerró por mucho tiempo la exploración del universo al espíritu
científico dejándolo al vaivén de las creencias. Para él, el movimiento de los objetos era natural,
moviéndose ellos hacia arriba o hacia abajo dependiendo de si predominaba aire y fuego o agua
y tierra. Finalmente, con el método teórico-experimental inaugurado por la física, iniciado por
Galileo hace ya cuatro siglos, se abrió el camino no solo a una mejor comprensión de la
naturaleza sino también a un uso más racional del conocimiento y a su construcción, objetiva
hasta cierto punto. Qué entendemos por un uso racional del conocimiento será tema de interés
para estas reflexiones, asunto al que volveremos en la cuarta y quinta partes. El sapiens a
menudo ha sido insapiens, o más bien stultisimus. (Giraldo, 2018b.)
Pero esos métodos que ahora encontramos más racionales tardarían milenios en ensayarse y
tener éxito; no tendrían a la postre mayor acogida, salvo entre los académicos, de no ser por su
impacto en mejorar las condiciones de vida de la especie, en particular por las tecnologías a que
dieron lugar, y por el poder que confirieron a los grupos privilegiados. Muchas técnicas fueron
inventadas empíricamente a partir de la observación cuidadosa de la naturaleza, sin que se
desligaran de las creencias mitológicas. En un comienzo se pensó que para el cabal
funcionamiento de algunas de ellas habría que seguir ciertos rituales, guiados por la casta
sacerdotal. Se preservó así durante mucho tiempo el enfoque teísta (poli o mono) con que se
iniciaron. Ahora predomina el aspecto monetarista. Sin lugar a dudas, la acumulación de capital
depende hoy más que nunca de los avances científicos y tecnológicos.
Para terminar esta sección introductoria al primer capítulo, se recomienda pasar revista a dos
series de conferencias de Feynman que fueron impresas posteriormente en forma de libros: The
meaning of it all (1963) y The character of physical law (1964). A muchos lectores esas ideas
críticas les ayudará a desbrozar el arduo camino por recorrer. Recordémoslo: Caminante, no hay
camino, se hace camino al andar.
1.2 Los primeros hitos
La más remota manifestación de un interés sistemático por la explicación (pseudo)científica
tiene sus orígenes en las antiguas civilizaciones que se formaron en las riveras del Eufrates y del
Nilo durante el quinto y el tercer milenio antes de nuestra era. Para entonces habían corrido
varios milenios, 30 o más, de desarrollo artístico, un desarrollo que se dio simultáneamente en
varios lugares del planeta. Uno de los ejemplos más antiguos y admirables lo constituyen las
esculturas halladas en la caverna de Vogelherd. El interés, generalmente pragmático, no estuvo
separado de la influencia mítica. Eran los albores de la civilización. Puede afirmarse que, si bien
ocurrió en distintos momentos, no hubo una sino varias cunas de la civilización humana. Sin
pretensiones de ser exhaustivos, nos limitamos a reconocer que la más antigua de estas
civilizaciones pre-científicas es la que se conoce con el nombre de sumeria. Formando
poblaciones a lo largo del Tigris y del Eufrates, se convirtieron en los primeros agricultores y
surgieron los primeros especialistas, ingenieros de riego. Algo similar ocurrió en Egipto, con la
variante de las inundaciones periódicas del rio Nilo, generadoras a su vez de un desarrollo
especial de la astronomía. Es notable el desarrollo, en cierta medida prematuro, de la medicina
egipcia. Para entonces había surgido la escritura, no se sabe si independientemente en las dos
regiones. En China se habría presentado un fenómeno similar, con sus variantes, algo que
ocurrió después en América.
El reconocimiento a la importancia de los expertos en los destinos de los países es notorio por
primera vez en el Imperio Asirio. Nos dice James Ritter: “Para saber dónde y cuándo aparecen
como grupo profesional, debemos abandonar Nínive en el apogeo del Imperio Asirio y volver al
primer instante en el que entran juntos en la historia, más de dos mil años antes y más al sur,
en el país de Babilonia. Es en la época que los asiriólogos llaman «paleobabilónica», durante los
400 primeros años del segundo milenio, donde podemos comenzar a seguir el desarrollo de un
campo de estudio y de práctica que los propios mesopotámicos percibieron, según parece, como
unificado y privilegiado en cierto sentido”. (1991.)
Mucho más atrás en el tiempo, en las oscuras edades primitivas, antes de que hubiera vestigios
de ciencia, ni siquiera de arte, antecesores del sapiens descubrieron y aprendieron de alguna
manera a dominar el fuego. Parece que esto ocurrió durante la época del homo erectus, hace
poco menos de un millón de años. Es innecesario resaltar aquí la importancia de tan singular
descubrimiento; sorprende que haya ocurrido en tiempos tan remotos. La edad de la piedra que
le precedió, se remonta en el tiempo más de dos millones de años. En contraste, la invención de
la rueda tuvo que esperar hasta un periodo cercano, hace poco más de 5 mil años, después de
haber pasado por diversos periodos de manipulación de los metales. Por extraño que parezca,
civilizaciones tan avanzadas como las de los Incas y los Mayas se las arreglaron sin la rueda, en
el segundo caso hasta su misterioso declive, antes de la llegada de los españoles al continente
americano. El misterio puede verse en su verdadera dimensión si se recuerda que la Maya fue
una de las tres civilizaciones en la historia de la humanidad que descubrieron el cero y la primera
en utilizarlo plenamente en sus cálculos astronómicos.
Casi todos los historiadores de la ciencia coinciden en reconocer que el arte, y con él las técnicas
para perfeccionarlo, tuvieron un desarrollo mucho más temprano que el de cualquier indicio
que pudiera denominarse primeros pasos hacia la ciencia. (Jeans, 1948; Russell, 1949.)
Probablemente al arte, como forma de conocimiento, le siguió la filosofía, practicada
inicialmente desde el misticismo religioso, quizá precedido del temor a lo desconocido. La
polémica sobre el origen de la filosofía puede continuar; lo que cabe destacar es que también
en Grecia, al igual que en las culturas orientales, los primeros indicios del pensamiento filosófico
están asociados al mito y en gran medida al arte. Si en la Antigua Grecia logró un desarrollo
mayor que en alguna otra parte del mundo, ello se debió probablemente a la ausencia de una
casta sacerdotal y al enfoque holístico que predominó en su ethos cultural. A modo de
propaganda, lo que se propone la organización denominada Buinaima, como herencia recogida
de lo que se llamó en Colombia Misión de Sabios (Colciencias, 1995), es generar en este país un
nuevo ethos cultural. (Para mayor información, véase Giraldo, 2006, disponible en la página
www.corporacionbuinaima.org).
1.3 De Fenicia a Grecia
El origen del pueblo griego es oscuro. Todo indica que fue una mezcla de pueblos venidos de
distintas latitudes. A pesar de la penumbra que rodea la constitución de la civilización griega, es
indudable que recibió una gran influencia de las anteriores, particularmente la asiria y la egipcia.
Es también seguro que sus vecinos fenicios favorecieron su desarrollo. De estos últimos dice el
historiador Estrabón, citado por Jeans, que prestaban especial atención a la ciencia de los
números, la navegación y la astronomía. Agrega Jeans: “Difícilmente habrían podido llegar a ser
la gran potencia comercial de la Antigüedad de no poseer considerable aptitud numérica, ni
haber sido los más grandes navegantes de su tiempo a menos de haber estudiado la navegación
y la astronomía.”
Si se reconoce en Tales y en Pitágoras dos de las mayores figuras de esa ciencia antigua, no deja
de ser interesante que los dos tengan reputación de procedencia fenicia, al igual que Euclides y
Zenón. Ahora bien, es indudable que un aspecto favorece al otro. Las escuelas que fundaron
cada uno de estos personajes influyeron notablemente en el desarrollo futuro de la aritmética,
la geometría y hasta las técnicas para medir tiempo y espacio, indispensables para poder
avanzar.
Escribe Farrington: “El saber organizado de Egipto y de Babilonia ha sido una tradición manejada
de generación en generación por colegios de sacerdotes. Pero el movimiento científico que
empezó en el siglo VI (antes de nuestra Era) entre los griegos era un movimiento enteramente
seglar.” En todo caso, el saber acumulado en aquellas cunas de la civilización, por ende en
Fenicia, tenía un carácter pragmático. Lo nuevo de los griegos fue entender o reflexionar sobre
las causas u orígenes de lo observado.
1.4 El milagro jónico
«En el siglo VI antes de Cristo, en Jonia, se desarrolló un nuevo concepto, una de las grandes
ideas de la especie humana. El universo se puede conocer, afirmaban los antiguos jonios, porque
presenta un orden interno: hay regularidades en la naturaleza que permiten revelar sus
secretos». (Sagan, 1985; p.175.) A ese orden y las leyes que le determinan le llamaron cosmos.
Fue el descubrimiento del cosmos, en ese sentido, lo que les llevó a sentar los fundamentos de
lo que hoy denominamos ciencia.
Así, pues, la naturaleza se comporta de manera regulada y eso es maravilloso; lo más
sorprendente es descubrir que la regulación procede de la naturaleza misma. Afirma Isaac
Asimov, otro gran divulgador de la ciencia: «En la teoría de Tales y de sus discípulos no había
divinidades que se inmiscuyeran en los designios del universo. El universo obraba
exclusivamente de acuerdo con su propia naturaleza». (2001.)
Ese descubrimiento fue el detonante del amor por la sabiduría, que es la filosofía. ¿Y qué es
sabiduría? Para ellos era la persecución de la verdad, la belleza y la bondad, las tres atracciones
que Einstein y Russell compartieron. Escribe este último: «Tres pasiones, simples, pero
abrumadoramente intensas, han gobernado mi vida: el ansia de amor, la búsqueda del
conocimiento y una insoportable piedad por los sufrimientos de la humanidad». (Para qué he
vivido, Autobiografía, 1967.) En la introducción a su texto arriba citado define la sabiduría como
«la concepción justa de los fines de la vida».
Volvamos a aquel maravilloso periodo de la historia. Se interroga Sagan acerca del porqué del
milagro jónico, sin dar una respuesta satisfactoria. Hay otra pregunta más difícil de responder:
¿qué impidió que ese apogeo continuara? La escuela griega que sucedió a la presocrática fue
maravillosa, pero declinó muy pronto. Esos periodos de ascenso y descenso que se sucedieron
desde la antigüedad clásica ocurrieron después, en distintos lugares, en ocasiones con largos
interregnos (y se siguen dando). También sucedió en América, en particular con la civilización
Maya. Probablemente la razón se encuentre en que las ciencias, también la filosofía, dependen
de la observación, sea esta empírica o más elaborada, pero la sistematización del conocimiento
científico, a diferencia del pensamiento filosófico, no puede hacerse al margen de la experiencia.
Si no se perfecciona el instrumento de observación, no se tiene un fundamento mejorado para
la racionalización. Hubo que esperar al invento del telescopio primero y del microscopio después
para lograr un avance formidable.
La Ciencia griega ha sido objeto de estudio minucioso desde comienzos del siglo pasado. Uno
de los primeros clásicos es el de Farrington (1944). Suya es esta frase que continúa vigente:
The science of the earliest Greek period resembles ours; for naive and undeveloped as it was, it regarded
man as a product of natural evolution, it regarded his power of speech and thought as a product of his life
in society, and it regarded his science as part of his technique, of the control of his natural environment.
These bold ideas made their first appearance among the Ionian Greeks shortly after 600 B.C., and were
developed in the course of a couple of centuries with a comprehensiveness of view and an organic
cohesion of design which still astonish us today. The emergence of this mode of thought and its
supersession by the more sophisticated but less scientific outlook of the age of Socrates, Plato, and
Aristotle are the special subject of our enquiry.*
Mencionemos apenas, para terminar esta descripción general, los nombres de algunas de las
más descollantes figuras del saber de aquella brillante época: Tales y Anaximandro, los dos de
Mileto, Anaxímenes e Hipócrates, y por encima de todos en matemáticas, Pitágoras de Samos.
Aristarco, también de Samos, fue prematuramente heliocentrista, ideas tan adelantadas a su
tiempo como lo fueron los conceptos de los atomistas, Demócrito de Abdera y Leucipo de
Mileto. Vendría después la época de Alejandría, con la figura descollante de Eratóstenes, quien
seguramente fue el primero en determinar el radio de la tierra.
1.5 Preconceptos y conceptos
Supondremos por simplicidad que el lector tiene muchos preconceptos clásicos y que en menor
cantidad ha adquirido algunos conceptos cuánticos. Los preconceptos pueden ser equivocados,
pero generalmente ayudan; la construcción de los conceptos es un proceso que prácticamente
no culmina; más arduo y complejo todavía es el cambio conceptual de lo clásico a lo cuántico.
Gracias a la tecnología desarrollada durante los últimos dos siglos, los preconceptos clásicos de
la población promedio se han enriquecido. Las nuevas tecnologías, las de las últimas dos o tres
décadas, han provisto a ese promedio de algunas nociones y términos clásicos y cuánticos que
antes no existían. Expresiones como industria optoelectrónica, dispositivos diversos que hacen
uso de diversos semiconductores y del láser, técnicas espectroscópicas como los rayos X y la
resonancia magnética nuclear (RMN), la más reciente variación de esta, IRMf (imagen por
resonancia magnética funcional), tan útil para la exploración del cerebro en actividad, otras
igualmente recientes como la TAC (tomografía axial computarizada) o las más modernas, como

*
La ciencia del más temprano periodo griego recuerda el nuestro; a pesar de lo ingenuo y subdesarrollado
que fue, asumió al hombre como un producto de la evolución natural, asumió su capacidad discursiva y
de pensamiento como resultado de su vida en sociedad y asumió a su ciencia como parte de su técnica,
del control de su entorno natural. Estas ideas sobresalientes hicieron su primera aparición entre los
griegos jónicos aproximadamente hacia el 600 A.C., y se desarrollaron en el curso de un par de siglos
desde un consistente punto de vista y una cohesión interna de su diseño que todavía nos deja atónitos
hoy. La emergencia de este modo de pensamiento y su sucesión por la más sofisticada pero menos
científica mirada de la era de Sócrates, Platón y Aristóteles son tema especial de investigación y búsqueda
todavía.
PET (por su descripción en inglés, positron emmision tomography) y muchas más, o
instrumentos tan sofisticados como microscopios electrónicos o atómicos se emplean a
menudo, cada vez en ambientes más diversos. Eso no significa que los más, ni siquiera en
medios culturales privilegiados, sepan muy bien lo que hay detrás de estos términos, pero usan
a diario discos compactos, MP5, iPODs, tablets, versátiles computadores portátiles, teléfonos
celulares cada vez más sofisticados en su interior y otros adminículos de alta gama que
incorporan modernísimas t.i.c., las cuales serían impensables sin el dominio logrado y el
conocimiento adquirido sobre fenómenos a nivel submicroscópico, algunos de ellos
rigurosamente cuánticos. Ello le ha permitido a la población, más allá del confort, tener al
menos una vaga idea del uso (y el abuso) de un lenguaje que hasta hace unas pocas décadas
era visto como altamente especializado.
Las nuevas generaciones tienen ventajas (y desventajas) adicionales. Por algo se les denomina
Generación App, y empiezan cada vez a distanciarse más de los inmigrantes digitales; ni qué
decir de los padres o maestros (para el caso es similar) que no se han acercado a ese nuevo
mundo. Volviendo a los conceptos y preconceptos, esas nuevas generaciones corren el riesgo
de asimilar los términos sin haber pasado por el lenguaje; en otras palabras, pensamiento y
lenguaje, como diría Vigotsky, no han ido de la mano. Gran dificultad tendrá una persona fuera
de los campos científico y tecnológico, incluso cuando se ha formado en alguna de las técnicas,
para distinguir entre fenómenos clásicos y otros que no caen en ese rango cuando el lenguaje
es ambiguo.
Si se examina con cuidado, menos impacto tienen en la vida diaria actual otros términos que
fueron de gran importancia hace algunas décadas y que de todas maneras lo siguen siendo:
resistencia (mecánica y eléctrica), maleabilidad, resiliencia… turbulencia, máquina de vapor,
energía trifásica, transformador, tubos o válvulas de vacío (diodo y triodo). El transistor y el
diodo semiconductor pertenecen a nuestra generación; el autor nació con ellos, pero conoció
de cerca los anteriores. Puede afirmarse que el bachiller de hoy no distingue claramente entre
campo eléctrico y magnético, mucho menos se preocupa por entender cómo se transmiten,
propagan y reciben ondas de radio, de televisión, etc. y mucho menos los problemas que atañen
a su transmisión. ¡Su mundo virtual le ha llevado a comunicarse en la nube sin polo a tierra!
De todos modos, alguna noción se adquiere, desde la formación media y con la experiencia
sensible, sobre espacio y tiempo, masa y carga, movimiento y energía, posición, velocidad o
rapidez, aceleraciones, interacciones o fuerzas, vibraciones u oscilaciones y ondas, etcétera.
Con este capítulo no se logrará remediar falencias que pueden deberse al sistema educativo o
al medio cultural o ambas cosas (el tema de la educación se retomará en un tomo posterior, tal
vez el IV). Pero se introducirán o reforzarán algunas nociones o conceptos útiles para ingresar
al mundo de la nueva física. Puede ser útil para algunos lectores apelar al apéndice, en donde
se habla de algunos conceptos clásicos, para que los compare con los nuevos, cuánticos, de los
cuales también diremos algo. Estado, paquete de ondas, colapso de la función de onda,
superposición, observable, operador, espín, espacio de Hilbert, no localidad, enmarañamiento o
entrelazamiento y muchos más que vendrán más adelante, son conceptos y entidades más
complejos; se definirán en términos simplificados a su debido tiempo, sin complicaciones ni
pretensiones mayores, procurando en todo caso ser precisos. Aunque creamos saber qué se
entiende por aparato de medida, realidad objetiva y otros términos aparentemente comunes,
incluido observador consciente, veremos que en el dominio cuántico hay que redefinirlos. No
sobra insistir en que la teoría cuántica, probablemente más que cualquier otro campo de la
ciencia, es contraintuitiva. Se requiere en gran medida de la filosofía, así sea para revaluarla, si
se quiere aprehender, o al menos comparar, la nueva realidad cuántica, con la supuestamente
más material, la clásica. Los resultados cuánticos, los más precisos hasta ahora sin lugar a dudas,
son inesperados, como lo son las conclusiones que de ellos se derivan. De sus aplicaciones
hablaremos en el segundo tomo. Así como se requiere de la filosofía para interpretar, esta
también depende de las observaciones para poder avanzar en un mundo donde la lógica y la
dialéctica ya no son las clásicas. A estos aspectos volveremos también en el futuro.
Hay una premisa fundamental, común a los dos campos, el clásico y el cuántico, que puede
servir como punto de partida: el resultado de una medición es siempre un número o un conjunto
de números reales. Ello es consecuencia del carácter cuantitativo de una ciencia teórico-
experimental: eso es la física; se ocupa de predecir el valor de cantidades que se pueden medir
o determinar, directa o indirectamente o, a partir de observaciones y mediciones cuidadosas,
establecer reglas cuantitativas, formular leyes en un lenguaje matemático, lo más generales que
sea posible, sobre los fenómenos físicos... los de la realidad sensorial (así los sensores sean
sofisticados instrumentos), para decirlo de alguna manera. Se hace necesario entonces
introducir un lenguaje que nos permita precisar de la mejor manera lo que se quiere medir o
determinar. Por ejemplo, cuando nos referimos al todo hay que hacer distinciones como éstas,
para no caer en contradicciones: el Universo Causal es el trozo de universo al que tenemos
acceso a través de observaciones; no se puede hablar de separabilidad, en el sentido exigido
por Einstein, en los sistemas cuánticos correlacionados (véanse la segunda y la tercera parte).
A propósito de Universo, surge la siguiente pregunta todavía sin respuesta: cuando se trata de
hacer observaciones sobre el ‘Universo’ como un todo, ¿quién es el observador? Discutamos el
penúltimo asunto, el de la separabilidad o no. En la tradición griega y en la metódica ciencia
iniciada con Francis Bacon y Galileo Galilei se ha supuesto que para entender el
comportamiento de un objeto compuesto, éste se puede dividir en partes y analizar por
separado cada una de ellas. Está implícita la hipótesis de que cada una de las partes tiene
realidad física en sí misma. Nadie la habría puesto en duda, de no ser por las implicaciones de
la nueva física. La exigencia explícita de respetar esa realidad está contenida en la famosa
publicación de Einstein, Podolsky y Rosen de 1935, mencionada en la presentación de estas
notas y conocida usualmente como paradoja EPR (véase el capítulo sexto). Pues bien, el
problema se trasladó de la filosofía a la física experimental con las también famosas
Desigualdades de Bell: todos los experimentos realizados desde 1982 (Aspect, 1982) muestran
el carácter observable y medible de las correlaciones cuánticas, capaces de tomar valores más
grandes que los límites exigidos por una descripción realista separable de tipo clásico; aquellos
han confirmado los valores predichos cuánticamente, valores clásicamente prohibidos.
Una cantidad física es objeto de predicción y por ende, aunque sea solo en principio, de
medición, cuando es observable. Una vez que se conoce su valor, un conjunto de números
reales, puede decirse en qué estado se encuentra (o se encontraba, porque puede ocurrir que
inmediatamente después de la observación o medición haya cambiado de estado).
Precisaremos el concepto de estado en el capítulo cuarto. Los instrumentos con ayuda de los
cuales se observa son extensión de los sentidos. Es el cerebro, en últimas, quien interpreta. Solía
suponerse que de eso puede encargarse a la teoría, pero no es así.
Hay un aspecto delicado que no puede evadirse: el aparato de medida (ente clásico) influye en
el resultado que se obtenga, independientemente de qué tan preciso sea aquel, o mejor, la
influencia es más fuerte en la medida en que se le exija al aparato una mayor precisión,
particularmente a escala atómica o subatómica. Ésta es una parte esencial del principio de
indeterminación, al cual ya nos hemos referido y volveremos (Caps. 4 y 5), enunciado por
Werner Heisenberg en 1927. Pero, como también se afirmó arriba, no lo es todo: hoy se podrían
hacer observaciones libres de toda interacción, lo que nos llevó a reformular ese famoso
principio.
Uno de los conceptos básicos de la física clásica, de la electrodinámica en particular, es el de
campo. Esa fue la gran generalización que inútilmente buscó Einstein. Es extraño que, a pesar
de haber puesto la piedra fundamental de la materialización del campo con los granos de luz o
partículas del campo electromagnético, no haya sido el primero en postular el gravitón. Este
formaría parte, al igual que el fotón y otros bosones, de las denominadas partículas mediadoras.
También son conceptos fundamentales, por supuesto, corpúsculo y onda. La fuerza no es lo
mismo en el sentido aristotélico que en el newtoniano. En la nueva física, el concepto de
interacción es más rico que el de fuerza y está mediada por bosones. Veremos que el de
entrelazamiento se vuelve un concepto fundamental, desprovisto del de interacción. Antes de
ir a los de la nueva física, vale la pena examinar algunas nociones de la clásica.
1.6 Evolución de la física
La física ha cambiado mucho en el último siglo. Lo mismo puede decirse de las últimas décadas.
Pero hay algo maravilloso que permanece: las aplicaciones de la mecánica (dinámica
preferiríamos llamarla) y del electromagnetismo (electrodinámica), núcleos de la física clásica,
siguen siendo casi siempre rigurosamente válidas en el mundo macroscópico. Lo que ha
evolucionado principalmente son los conceptos mismos.
A pesar de los cambios conceptuales que se han dado, el libro de Einstein e Infeld con el título
Evolución de la física (1938), de carácter no histórico, sigue teniendo validez en lo fundamental.
La actualización hecha por Infeld (1961) es suficiente para la mayoría de los propósitos. La razón
es muy simple: desde entonces, no han surgido teorías verdaderamente nuevas en la física que
nos hagan cambiar de paradigma. Estas últimas son la Teoría Cuántica y la Teoría de Gravitación
(QT y GT por sus siglas en inglés). Un buen complemento, más histórico que el anterior, quizá
menos conceptual y menos profundo pero más amplio y más actual, aunque centrado en la
astronomía, lo constituye To explain the world: the discovery of the modern science. (Weinberg,
2016.)
Es provechoso hacer un recorrido por la historia de las ideas. La ventaja radica principalmente
en poder examinar otros puntos de vista que en su momento no fueron exitosos. En ocasiones
las ideas reviven y, una vez corregidas o ampliadas, tienen éxito. Así ocurrió con la teoría
corpuscular de la luz debida a Newton y con el concepto de constante cosmológica introducido
por Einstein. Aunque el enfoque ondulatorio de la luz era correcto en principio, tuvo durante
mucho tiempo un grave lastre: las ondas se propagarían en un medio sutil, el éter. Además, no
era claro qué era lo que se propagaba. Fue necesario esperar a que se disiparan dos nubes a que
hacía referencia Kelvin en 1900, a las que volveremos más adelante. Una de ellas tenía que ver
precisamente con la existencia o no del éter. La otra, aparentemente más sencilla, tenía que ver
con el problema de la equipartición de la energía. Su solución puso de manifiesto otros
nubarrones en el firmamento clásico, a los que también volveremos.
En esta y la siguiente sección resumiremos algunas de las ideas que llevaron a una mejor
descripción de la naturaleza a partir de una nueva concepción de la materia, la energía y el
espacio-tiempo. Aunque no hemos seguido más que parcialmente la línea de los autores
anteriores, la idea central se mantiene la misma: la ciencia no se inventa, se descubre; en
palabras de Einstein, la construcción del conocimiento científico es una tarea detectivesca. Y
para ello se requiere tanto del razonamiento como de la experimentación… y del olfato de
sabueso investigador; en ocasiones las pistas son falsas… a menudo las conjeturas son
equivocadas; las buenas pistas se constituyen después en avances que nos llevan por el buen
camino; los avances facilitan el diseño de nuevos experimentos y la elaboración de novedosos
planteamientos, luminosas conjeturas y pistas adicionales. Todo esto sumado hace que el
avance de la ciencia, por ende de la tecnología, sea cada vez más vertiginoso, a la vez que
apasionante.
La física hoy es quizá más apasionante de lo que fue en la época de Galileo, Newton y sus
predecesores. La astronomía, la contemplación de la desmesura cósmica, fue en aquella época
su mayor aliciente y para la sociedad lo fue el poder predecir la ocurrencia de algunos
fenómenos naturales de interés para la comunidad. Cuando se pudo mirar a lo que se juzgaba
infinitamente pequeño se tuvo un nuevo espacio para construir modelos y diseñar artefactos
que llevarían simultáneamente a una mejor comprensión de la naturaleza y a mejorar, en
principio, las condiciones de vida de la especie. Nos estamos refiriendo al mundo microscópico,
del que surgiría más recientemente el universo nanoscópico.
En el segundo tomo trataremos el tema de la nanotecnología. (Véase también Giraldo 2018a.)
Esta, convergencia de varias ciencias en la escala nanométrica, no podría haberse desarrollado
sin los descubrimientos que condujeron a la física cuántica. Tampoco habría podido surgir la
física de las altas energías, emparentada con la cosmología.
Reparando en la acepción develar que tiene el verbo descubrir, es como si numerosos velos
cubrieran el entendimiento de la naturaleza, la comprensión de sus fenómenos y la interrelación
entre ellos. Las primeras capas, verdaderos caparazones, son difíciles de separar, pero también
lo son las más profundas. La capacidad de la ciencia, en particular de la física, para abordar esa
tarea develadora, es lo que destacamos a grandes rasgos en esta sección. Contrástese el
significado de este término con el de revelar, palabra mágica a la que apelan las religiones.
Antes hemos presentado sucintamente los orígenes de la ciencia antigua sin detenernos en su
desarrollo. Ahora nos corresponde examinar este último desde que se puede hablar de ciencia
moderna, sin profundizar en los conceptos. A estos nos hemos referido en los apéndices,
dejando de lado la historia. Primero fue el problema de la adecuada descripción del movimiento,
un asunto que está emparentado con la geometría. No bastaba con observar los astros, planetas
o estrellas. El examen de su comportamiento condujo al descubrimiento de la capacidad
predictiva de la ciencia y de su simplicidad.
Después vino el asunto de determinar las causas del cambio de movimiento. Surgió así la
posibilidad de predecir, con la precisión de los mecanismos de relojería, el movimiento de los
planetas y de los objetos que se mueven en la superficie terrestre. Se encontró que las causas
pueden estar en esos mismos cuerpos. Si las causas están en ellos, debe haber un principio de
reciprocidad. Tal vez no fue demasiado complicado para una mente inquieta e imaginativa como
la de Newton adivinar esa reciprocidad en el llamado Principio de Acción y Reacción, conocido
generalmente como su tercera ley. La relatividad del movimiento condujo a Galileo a enunciar
el Principio de Inercia, también llamado primera ley del movimiento de Newton. Fue mucho más
complicado el enunciado de la segunda ley, la ecuación de movimiento por antonomasia.
Galileo había estudiado el problema de la caída de los cuerpos bajo el efecto de la gravedad.
Hay indicios de que en el siglo IX un monje escocés, Duns Scotus, sugirió que la fuerza de
gravedad que hace que los cuerpos caigan decrece con la distancia a la superficie de la tierra,
mas no hizo referencia alguna al movimiento de los planetas.
Fue el cura y astrónomo Ismael Bulliardus quien expuso por primera vez (1645) la hipótesis de
que los planetas eran atraídos por el sol con una fuerza inversamente proporcional al cuadrado
de la distancia y defendió el movimiento elíptico de aquellos a partir de las observaciones de
Kepler, en contra de la suposición de Galileo y Copérnico. La tercera ley de Kepler, que expresa
la proporcionalidad entre el cuadrado del periodo y el cubo del radio medio de la trayectoria, en
particular para el caso del movimiento circular, más fácil de examinar, lleva a la proporcionalidad
con el inverso del cuadrado de la distancia, en este caso el radio de la trayectoria. En efecto, ya
era claro para Huygens (1659), aunque probablemente Newton lo encontró por un
razonamiento independiente, que existía una aceleración asociada al cambio en la dirección del
movimiento: se trata de la aceleración centrípeta, proporcional al cuadrado de la rapidez
(magnitud de la velocidad) e inversamente proporcional al radio, en general el radio de
curvatura, constante para el movimiento circular, variable para el movimiento elíptico. (Véase
apéndice I.) Pero la rapidez en el movimiento circular no es más que el perímetro de la
circunferencia dividido por el periodo. Así, pues,
v2/R = (2ΠR/T)2/R = 4Π2R/T2.
Si se recuerda que el lado izquierdo es la aceleración, proporcional a la fuerza gravitacional, y se
tiene en cuenta la tercera ley de Kepler, que nos dice que el cuadrado del periodo es
proporcional al cubo del radio para este caso, es evidente que la fuerza gravitacional será
proporcional al inverso del cuadrado de la distancia. Hemos pasado por alto la dificultad en
reconocer que la fuerza es la causa del cambio de velocidad en un sentido general, es decir, de
la aceleración. En 1665, el primer año de la peste, Newton empezó a pensar en estos problemas,
a la vez que inventaba como herramienta para resolverlos el cálculo diferencial e integral.
Newton fue más allá y enunció la ley de atracción entre cuerpos masivos o de gravitación
universal en la forma en que hoy la conocemos:
Fg = GMm/R2,
expresión en la cual m es la masa gravitacional del objeto atraído (acelerado) y M la del objeto
que ejerce la fuerza. La situación puede describirse a la inversa, pues entre dos cuerpos masivos
hay una interacción o acción recíproca, por ende una reacción en cada uno de ellos, de acuerdo
con la tercera ley. Pero esas acciones son perturbaciones… y las perturbaciones se propagan o
avanzan, poco a poco o muy rápidamente; no lo hacen instantáneamente. Newton tuvo que
admitir, a su pesar, la acción a distancia, una limitación del esquema mecanicista que no podría
resolverse sino dos siglos más tarde, en forma parcial.
Fue Henry Cavendish quien comprobó, mediante un experimento realizado con gran precisión,
reportado en 1798, la proporcionalidad entre la fuerza de atracción gravitacional y la masa o
cantidad de materia del cuerpo. Para entonces, la ley de Coulomb, que expresa una relación
similar (ley del inverso al cuadrado) para la interacción entre cargas eléctricas, ya había sido
enunciada. Probablemente Cavendish mismo tuvo mucho que ver con ella, aunque nunca
reclamó paternidad en este ni en otros de sus experimentos eléctricos.
1.7 Las dos grandes teorías deterministas y sus limitaciones
Newton y Maxwell tienen el privilegio de haber sintetizado las dos grandes teorías de la física
clásica que seguirán siendo el fundamento de las aplicaciones macroscópicas, el primero de la
mecánica (dinámica), el segundo de la electrodinámica, usualmente llamada
electromagnetismo. Einstein intentó unificar las dos teorías; ese intento continúa vigente. El
gran mérito de Einstein fue descubrir que el campo gravitatorio es una alteración de la curvatura
del espacio-tiempo, debido a la presencia de grandes masas. Otro resultado de su teoría es la
equivalencia entre la masa inercial y la masa gravitacional, o Principio de Equivalencia, el cual
en términos sencillos afirma: un sistema inmerso en un campo gravitatorio es puntualmente
indistinguible de un sistema de referencia no inercial acelerado. Para el lector que no ha seguido
un curso de nivel terciario (o universitario, si se prefiere), hemos hecho un recuento pedagógico
en el apéndice.
Los grandes avances conceptuales que superaron a la mecánica de Newton vinieron
precisamente de la investigación de los fenómenos eléctricos y magnéticos en el siglo siguiente,
particularmente en la segunda parte. Nos dicen Einstein e infeld:
«Durante la segunda mitad del siglo XIX, se introdujeron en la física ideas nuevas y revolucionarias, que
abrieron el camino a un nuevo punto de vista filosófico, distinto del anterior mecanicista. Los resultados
de los trabajos de Faraday, Maxwell y Hertz condujeron al desarrollo de la física moderna… a una nueva
imagen de la realidad».

Antes de hacer una síntesis de los fenómenos eléctricos y su interpretación moderna, volvamos
a la pieza central de la mecánica. Para ello reproducimos aquí dos figuras que pueden verse en
varios textos. La primera ilustra lo que se denomina Campo Gravitatorio de la Tierra, en la región
exterior: decrece con el inverso del cuadrado de la distancia. Por dentro el comportamiento del
campo es diferente: decrece linealmente a medida que nos acercamos al centro. (Intente dibujar
por usted mismo la intensidad o magnitud del campo gravitatorio g, teniendo en cuenta que el
centro de la tierra es el origen de coordenadas. Si quisiera pensar en números, en la superficie
vale aproximadamente 10 m/s2.) Líneas de fuerza del campo se denominan a las flechas que
apuntan hacia la superficie y el centro de la tierra e indican, en cada punto exterior, la dirección
e intensidad en la primera de las figuras.
Figura 1.1a. Campo gravitacional debido a la Tierra. Se ilustran las denominadas líneas de campo, pero
solamente para la región exterior. En el interior no es tan sencillo hacerlo siguiendo el mismo esquema.
Figura 1.1b. Experimento pensado de Newton. Desde lo alto de una montaña (irreal) se lanzan bolas de
cañón cada vez con mayor velocidad (suministrándoles más impulso inicial). Finalmente la bola dará la
vuelta a la tierra, describiendo una trayectoria circular. Eso es lo que hace un satélite artificial (círculo
interno, para un caso extremo, o el externo para una situación real).

La segunda, la de la derecha, reproduce un diagrama de Newton con el que ilustra lo que


ocurriría a una bala de cañón que se lanzara con rapidez cada vez mayor en dirección horizontal
desde lo alto de una montaña, si no se tuviera en cuenta la atmósfera terrestre. Es evidente que
la masa del proyectil es completamente insignificante comparada con la de la tierra, por lo que
el movimiento de esta última no se considera. Ese experimento pensado lleva a la conclusión de
que en algún momento la bala de cañón describirá una trayectoria circular, con la característica
de que la dirección de la velocidad es perpendicular al campo gravitatorio. Ese es en esencia el
comportamiento de los satélites artificiales modernos, como ilustra el círculo externo, lo mismo
que ocurre con la luna, satélite natural de la tierra.
Para la trayectoria circular, caso de la luna y los satélites artificiales, se mantiene la rapidez, por
ende la energía cinética o de movimiento del objeto que gira. En general el movimiento es
elíptico para una tierra que pueda suponerse estática, y se va a conservar lo que se denomina
energía mecánica, suma de la energía cinética y de la energía potencial, siendo esta negativa y
disminuyendo su magnitud con el inverso de la distancia. (Véase el apéndice I.)
La representación del campo de fuerza tiene la ventaja de que no hace alusión al objeto sobre
el que actúa la gravedad terrestre. Aparentemente esta era la única ventaja. Pero gracias a
Maxwell, a Einstein y a sus predecesores el campo se volvió algo real. En la nueva física, está
constituido por partículas, denominadas bosones intermediarios. Para el caso del campo
electromagnético, los bosones son los fotones. Cuando se publicaron estas notas por primera
vez (virtualmente, el 15/02/2016), justo se acababan de detectar las ondas gravitacionales. Es
decir, estamos ad portas (¡aún falta mucho!) de detectar gravitones. Pero vamos por partes.
El movimiento del electrón en el átomo de hidrógeno, si se analiza clásicamente, sería similar al
de la luna o el satélite alrededor de la tierra o el de los planetas alrededor del sol. Hay, no
obstante, una diferencia esencial: siendo el electrón una partícula cargada, al girar de acuerdo
con las leyes clásicas produciría una onda electromagnética, es decir, radiaría energía, por lo
cual caería irremediablemente al núcleo atómico si se aplicaran las mismas leyes clásicas de la
dinámica y de la EDC. Afortunadamente no es así, y fue esa suposición contraria al sentido clásico
lo que marca el verdadero comienzo de la teoría cuántica, QT, gracias a Niels Bohr.
Supongamos que no es el electrón el que va a moverse en trayectoria circular sino un conjunto
de electrones, como ocurriría al establecerse una diferencia de potencial a lo largo de un
alambre de cobre de forma circular; el resultado es una corriente eléctrica, que para el caso se
denomina corriente estacionaria. Este fue un famoso experimento realizado públicamente por
el danés Christian Ørsted en 1820, con enormes repercusiones desde el punto de vista
conceptual. La más importante conclusión: al igual que los imanes, una corriente eléctrica
produce campos magnéticos.
Cualquiera podría imaginar que con esta observación ya quedaron completos los fundamentos
del electromagnetismo: las cargas eléctricas producen campos eléctricos y las corrientes
eléctricas crean campos magnéticos. Los fenómenos no son así de simples, en particular porque
el movimiento de las cargas es variable. Eso quiere decir que los campos producidos no serán
estacionarios (estáticos), como por simplicidad hemos supuesto para el campo gravitatorio.
Como lo señalan Einstein e Infeld, las observaciones y generalizaciones de Faraday, Maxwell y
Hertz dieron lugar a una nueva visión de la física, “condujeron a una nueva imagen de la
realidad”. En resumen, con su ley de inducción electromagnética, Faraday estaba dando cuenta
de un gran descubrimiento: que un campo magnético variable en el tiempo, sin importar el
origen de esa variación, produce un campo eléctrico, por tanto es capaz de generar corrientes
eléctricas en conductores; Maxwell, intuyendo una reciprocidad en el comportamiento,
descubrió la ley de inducción magnetoeléctrica, a saber, que un campo eléctrico variable
produce un campo magnético, y Hertz unificó estos dos descubrimientos, que teóricamente
habían llevado a Maxwell a predecir la existencia de ondas electromagnéticas, produciendo
ondas de radio en el laboratorio. Una década antes que este último descubriera las ondas
hertzianas, Rowland realizó su famoso experimento, consistente en hacer girar en trayectoria
circular una esfera cargada, comprobándose que producía un campo magnético, similar al de la
corriente circular de Ørsted. La generalización de los resultados y la inclusión de las ondas de luz
dentro del espectro electromagnético estaban a la vuelta de la esquina.
Pero el experimento de Rowland tenía mucho más de fondo. Ese experimento, trasladado a nivel
atómico, una vez iniciado el siglo XX, llevaría a la conclusión de que las leyes del
electromagnetismo resumidas por Maxwell en sus cuatro ecuaciones, tenían pies de barro.
En síntesis, a pesar de lo grandiosas, las dos grandes teorías de la física moderna, la dinámica de
Newton y la EDC de Maxwell deberían modificarse. La primera modificación, que por cierto
afectó solo a la primera, provino de los resultados negativos del experimento de Michelson y
Morley (1887) y condujo en primera instancia a la teoría de relatividad especial. La segunda,
llevó a la QT. Einstein, trabajando en solitario, con ayuda de algunos matemáticos prominentes,
produjo posteriormente la GT. Las dos teorías son tan precisas como complejas. Se entiende
conceptualmente más fácil la segunda que la primera, pero la matemática de esta última es más
compleja, sin que ello signifique que los postulados cuánticos, enunciados matemáticamente,
sean triviales. El gran éxito de la última, la predicción de las ondas gravitacionales, acaba de
verificarse en el laboratorio LIGO (laser interferometer gravitational-wave observatory), después
de un siglo de haber sido formulada la ecuación fundamental.
1.8 Lo que faltaba (y lo que falta) por descubrir
Pero ahí no termina la historia. Ahora resulta que las perturbaciones mismas son también
materiales: esas ondas son corpúsculos, y viceversa. Vista en perspectiva, la sorprendente
hipótesis de Einstein de que la luz está compuesta de corpúsculos vino a ser como la solución
práctica de un problema, y así fue concebido inicialmente. Lo mismo ocurrió con la hipótesis
complementaria, lanzada por de Broglie dos décadas después, de que el electrón es una onda.
Ahora decimos que el comportamiento de uno y otro, en general de cualquier objeto cuántico,
es dual.
Einstein meditó por más de medio siglo qué quería decir aquello de que la energía de la luz
estaba materializada en granos. “¿Qué son los granos de luz?”, se seguiría preguntando poco
antes de su muerte. Y agregaría sarcásticamente: “Llevo meditando sobre esta cuestión más de
50 años. Cualquier pillo (refiriéndose quizá a los físicos ortodoxos) cree tener la respuesta… pero
se equivoca.”
Aunque él no lo postuló de esa manera, lo que hay en las ondas gravitacionales que se acaban
de descubrir son gravitones. Parece una extensión elemental de su hipótesis sobre las ondas
gravitacionales, las perturbaciones en el espacio-tiempo provocadas por la presencia de la
materia-energía, como podría decir Wheeler. Su verificación experimental será mucho más
compleja que la de los fotones, cuya existencia no dejó lugar a dudas después del experimento
de dispersión de rayos X ideado por Compton que condujo al efecto del mismo nombre. (Para
entender lo que significa dispersión en este contexto, véase el apéndice.)
Las 4 interacciones fundamentales, a saber, la gravitacional y la electromagnética que se han
revelado desde muy antiguo y a las que se agregan las descubiertas en el núcleo, débil y fuerte
sucesivamente, están mediadas por los denominados bosones intermediarios. A estos hay que
agregar otro, postulado hace más de medio siglo y recientemente descubierto, el bosón de
Higgs. Algunos podrán creer que el fin de la historia de los descubrimientos en física está a la
vuelta de la esquina. Si así pensáramos, seríamos tan ingenuos como Maxwell y Lord Kelvin a
fines del siglo antepasado. Esos grandes descubrimientos o verificaciones experimentales a que
nos acabamos de referir, el bosón de Higgs y las Ondas Gravitacionales, no son más que el
preámbulo a nuevos velos que habrá que remover en el avance interminable de la ciencia. A lo
mejor son solo la punta del iceberg. Como sea, la unificación de las interacciones con la que
soñara Einstein se ve todavía lejana, pero Higgs ya recibió, con la detección experimental de su
postulado bosón, la codiciada presea Nobel.
En esta primera parte del siglo, sin lugar a dudas, los avances más espectaculares se darán en el
procesamiento de la información, seguramente con grandes sorpresas en el procesamiento de
la información cuántica. La tercera parte de este escrito está dedicada a las primeras
exploraciones que se han hecho en este terreno. La primera verificación experimental
condundente en esa dirección se dio hace ya más de tres décadas, con el experimento de Alain
Aspect (1982), rigurosamente antes con el de John Clauser (1972). Los dos físicos que acabamos
de mencionar han sido postulados varias veces para recibir el más preciado galardón en física.
Si se es justo, la no localidad de la teoría cuántica que hoy sigue conmocionando al mundo y
produciendo maravillosos resultados prácticos, fue probada hace ya medio siglo con el
descubrimiento del denominado efecto Aharonov-Bohm (1957). El trabajo de aquellos pioneros
y de otros que han seguido sus huellas no deja lugar a dudas sobre la rareza más descomunal de
la teoría cuántica, o su predicción más fantasmagórica, como dijeran Einstein, Podolsky y Rosen
en lenguaje sarcástico (EPR, 1935).
John Bell de seguro hubiera recibido también la famosa presea, de no haber muerto
prematuramente, por la célebre desigualdad que lleva su nombre (1964). Fue el comienzo de
las correlaciones cuánticas o correlaciones no locales, como se denominan de manera más
general.
Un físico latinoamericano poco conocido como tal, pues dedicó la segunda parte de su vida a la
literatura y a la reflexión filosófica, nos dice:
«Frente a la infinita riqueza del mundo material, los fundadores de la ciencia positiva
seleccionaron los atributos cuantificables: la masa, el peso, la forma geométrica, la posición, la
velocidad. Y llegaron al convencimiento de que "la naturaleza está escrita en caracteres
matemáticos”, cuando lo que estaba escrito en caracteres matemáticos no era la naturaleza,
sino... la estructura matemática de la naturaleza. Perogrullada tan ingeniosa como la de afirmar
que el esqueleto de los animales tiene siempre caracteres esqueléticos.» (Sábato, 1951.)
Continúa Sábato: «Esta es una muestra de cómo los cientistas (cientificistas) son capaces de
entregarse a la imaginación más desenfrenada en lugar de atenerse, como pretenden, a los
hechos. Los hechos indican, modestamente, que el movimiento de la esferita cesa, tarde o
temprano. Pero el cientista no se arredra y declara que esta detención se debe a la desagradable
tendencia de la naturaleza a no ser platónica. Pero como la ley matemática confiere poder, y
como el hombre tiende a confundir la verdad con el poder, todos creyeron que los matemáticos
tenían la clave de la realidad. Y los adoraron. Tanto más cuanto menos los entendieron.»
Ignoramos qué quiso decirnos Sábato con este último párrafo, pero el poder de la tecnociencia
no es platónico. El problema no es ese, sin embargo, la gravedad del asunto se revela claramente
en la frase de Carl Sagan sobre la mezcla peligrosa de ignorancia y poder atrás citada.
En síntesis, nos faltará mucho por descubrir en el presente siglo y los avances más
espectaculares están por venir. Pero puede afirmarse sin reservas que en el camino hacia la
sabiduría nos resta mucho más por aprender y comprender. Para terminar este ya largo capítulo,
vayamos a los descubrimientos que rigurosamente dieron lugar a la ciencia contemporánea: no
fue la ley de radiación de Planck, con toda su importancia descomunal, imposible de exagerar.
Fue el descubrimiento del electrón, del fotón y del núcleo atómico, además de todo lo que hay
dentro de este último. En realidad, más que su descubrimiento, es su inesperado
comportamiento lo que dio lugar a una nueva forma de ver el mundo. Sobre el primero y el
tercer descubrimiento, se recomienda The discovery of subatomic particles de Weinberg en su
edición revisada (2003); para una historia más extensa sobre el electrón, véase (Ley Koo, 1997);
para el segundo, la literatura es más abundante; pueden verse, p.e., (Beltrán, 1992; Cetto, 1987).
Las aplicaciones de la física cuántica a la biología (tema del tercer tomo), por no decir los efectos
cuánticos en sistemas biológicos, incluidos los sistemas neuronales, seguramente será uno de
los capítulos más interesantes de la ciencia en los próximos años.
1.9 Descubrimiento del electrón, del fotón y del núcleo atómico
Para la electrónica del Siglo XX fue tan importante el descubrimiento del electrón hecho por
Joseph J. Thomson (1897), más exactamente el establecimiento de su carácter corpuscular,
como lo fue la verificación experimental 30 años después (1927) del comportamiento como de
onda que a menudo (complementariamente, diríamos hoy) exhiben los electrones, de la que
participó su hijo William George Paget. El primero dio lugar a la electrónica de los tubos de vacío,
predominante en la primera mitad del siglo pasado, el último a la de los semiconductores,
durante la segunda. En el presente siglo la nano-opto-electrónica sigue haciendo de esta
partícula-onda y de su compañero inseparable, el fotón, onda-partícula, los protagonistas
principales. Rigurosamente hablando, el electrón no fue descubierto, se sabía de su presencia y
se le trataba como si fuera un continuum en el fluido eléctrico. Tampoco el fotón, presente en
las ondas luminosas, otro medio supuestamente continuo. Sorprendentemente Leucipo y
Demócrito imaginaban que la luz estaba compuesta de partículas extremadamente diminutas.
Muchos siglos después Newton elaboró una teoría sobre esas partículas, con base en sesudos
experimentos.
Recordábamos en la introducción que 2015 fue declarado Año Internacional de la Luz (IYL, por
las siglas en inglés). Es innecesario resaltar su importancia. Hoy tenemos claro que (haciendo el
papel de pillos a que aludiera Einstein), como lo afirmaron ya los griegos y después lo sostuvo
Newton, ella está compuesta de partículas extremadamente diminutas. El término fotón fue
introducido por Lewis en 1926; el concepto moderno sobre esos misteriosos granos de energía
se lo debemos a Einstein; el IYL es un reconocimiento tardío a su aporte, no solo en la
clarificación del concepto, si es que se puede afirmar que lo tenemos claro, sino también a su
otra teoría, no reconocida adecuadamente por el Comité Nobel, la Teoría de Gravitación.
En rigor no podemos afirmar que alguien haya descubierto el fotón: fue Arthur Compton (1923)
quien dio la primera demostración inequívoca sobre su existencia, prevista desde tiempos
inmemoriales. Cuando los griegos de la escuela epicúrea afirmaron que todo está hecho de
átomos y luz, y creyeron que la luz eran partículas extremadamente diminutas, estaban en lo
cierto. La palabra átomo que ellos acuñaron fue reducida por Dalton a los elementos entonces
conocidos. Si nos atenemos a partes irreducibles o indivisibles, las partículas elementales que
hoy conocemos serían los verdaderos átomos a que se referían Leucipo y sus seguidores.
Entonces el electrón y el fotón sí que son constituyentes fundamentales de la materia estable.
Hasta cierto punto, ocurre lo mismo con el núcleo. Desde hace cerca de un siglo sabemos que
sus ingredientes son protones y neutrones; también hemos aprendido que estos últimos son
inestables, como lo son en una mayor proporción los elementos pesados… y los livianos que no
tienen el mismo número de protones y neutrones (is[otopos). Hace ya más de medio siglo que
esos constituyentes del núcleo dejaron de ser partículas elementales. El modelo estándar nos
habla más bien de los quarks, en 6 variedades con sus correspondientes anti-quarks, y de los
leptones, cuyo representante estable es precisamente el electrón. El muón y el tauón son formas
más exóticas de leptones, y aparentemente lo son sus correspondientes neutrinos, presentes
por todas partes, aunque no los sintamos, en sus 3 variedades: electrónico, muónico y tauónico.
El descubrimiento del núcleo atómico tuvo más variantes que el del electrón. La radiactividad,
descubierta en 1896 por Antoine Henri Becquerel, sirvió de detonante a una vigorosa
investigación atómica que se plasmó en el modelo de Rutherford, presentado por primera vez
en 1911. Fue el neozelandés Ernest Rutherford quien bautizó con el nombre de radiaciones α, β
y γ a las emisiones encontradas en el periodo anterior; corresponden ellas a núcleos de helio,
electrones o positrones y radiación electromagnética de una energía mayor que la de los rayos
X, respectivamente, procedentes todas del núcleo atómico. De ahí surgió un vigoroso campo de
investigación denominado física nuclear. Pero el asunto no terminó ahí, por el contrario, sigue
dando lugar a investigaciones fundamentales y aplicadas de todo tipo, incluidas las que se hacen
sobre armas nucleares y las que se realizan hoy en el CERN, las cuales arrojan luz sobre los
ingredientes fundamentales de la materia-energía y los misterios que precedieron a la gran
explosión. Es imposible referirnos a estos asuntos ampliamente en el presente ensayo, aunque
no se pueden soslayar del todo. Volveremos al tema en el segundo volumen.
Dada su importancia en la evolución de las ideas sobre los constituyentes últimos de la materia,
en esta última sección del capítulo describimos los experimentos que condujeron al
descubrimiento del electrón, del núcleo y del carácter corpuscular de la luz. Del primero y
tercero, nos detendremos en algunos de los antecedentes históricos, incluidos los mal llamados
rayos catódicos y el fenómeno de los fotoelectrones; del segundo más escuetamente: allí inicia
la verdadera historia de las partículas elementales. Esos descubrimientos dieron lugar a los
primeros modelos, hoy totalmente descartados, de un átomo que dejó de ser indivisible. La
explicación del efecto fotoeléctrico y las falencias de los primeros modelos atómicos darían lugar
a uno mucho más realista, a la postre también equivocado, el cual tiene el mérito de incorporar
los saltos cuánticos, tan absurdos o más que los corpúsculos de las ondas luminosas. Nos
referimos al Modelo de Bohr, a pesar de lo erróneo, tan utilizado en textos básicos sobre el
átomo. Por su importancia histórica, volveremos a él en el segundo capítulo.
1.9.1 El electrón como partícula
A finales del siglo XIX tuvo lugar una gran controversia sobre la naturaleza de las descargas
eléctricas en gases rarificados, en particular sobre las que los experimentalistas dieron en llamar
rayos catódicos. Interesantes en sí mismos, su estudio llevó a Thomson a un problema más
básico: la naturaleza de la electricidad. El resultado fue triplemente gratificante, porque: 1) puso
de relieve la divisibilidad del átomo; 2) llevó al descubrimiento de la primera partícula elemental
que se conoce, la única que ha permanecido como tal por más de cien años y la más liviana de
todas, a excepción del neutrino; 3) dilucidó el carácter de la electricidad, finalmente corpuscular
o granular, de acuerdo con los resultados del experimento, al contrario de lo que supusieron los
creadores de casi todas las concepciones precedentes, quienes la imaginaron como un
continuum.1 Aunque en el lenguaje diario se hable del fluido eléctrico, una persona bien
informada sabrá que el transporte de carga en los conductores lo realizan los electrones.
En realidad, la historia de tales rayos se remonta dos siglos atrás. Rigurosamente hablando,
podría rastrearse su origen al de la descarga eléctrica conocida precisamente por ese nombre
desde muy antiguo y sistemáticamente estudiada por primera vez por el político-científico
norteamericano Benjamín Franklin. Tal vez por haber sido identificados antes con los rayos de
las tormentas eléctricas fue fácil bautizarlos después como rayos catódicos. Obsérvese que con
los electrones ocurrió al revés que con los fotones o partículas de luz; con estos últimos, por
cerca de dos milenios, desde Demócrito hasta Newton, se creyó acertadamente (hasta cierto

1
Hasta hace medio siglo se creía que la carga se presentaba siempre en múltiplos enteros de la carga del
electrón. Gell-Mann y Nishijima, en un intento por reducir a unas pocas el enorme número de partículas
hadrónicas observadas, propusieron un modelo teórico en el que se supone la existencia de algunas
partículas elementales que exhiben carga fraccionaria, 1/3 o 2/3 de la carga del electrón: éstas son los
quarks, de los cuales se han descubierto seis tipos, o mejor, tres colores en dos diferentes sabores.
punto) que eran diminutos corpúsculos; a finales del siglo XIX se creía que los rayos catódicos y
los rayos de luz eran ondas; ahora resulta que los dos haces están compuestos por partículas
que bajo ciertas circunstancias se comportan como ondas. Pero volvamos a la historia del
descubrimiento del electrón como partícula.
En 1709 Francis Hauksbee, conocido por sus observaciones sobre la repulsión eléctrica, reportó
que cuando se extrae aire de una vasija de cristal hasta cuando la presión se reduce a 1/60 la
presión del aire normal y se conecta la vasija con una fuente de electricidad de fricción, aparece
una extraña luz en el interior del recipiente. Destellos similares fueron reportados y asociados
con el vacío parcial que se produce en la superficie superior de columnas de mercurio en los
barómetros. En 1748 el médico naturalista William Watson describía la luz surgida en un tubo
de 81 centímetros en el que se había provocado el vacío, como “un arco de llama lamiente”.
Michael Faraday habla también en sus notas de tales rayos. Al igual que sus contemporáneos no
acertó a comprender la naturaleza de esa luz: era demasiado temprano para realizar los
experimentos que la minuciosa observación (indirecta) de tan diminutas partículas requería.
El rayo, complejo fenómeno de descargas eléctricas que sirvió de punto de partida, tal como lo
concibieron o imaginaron destacados científicos del siglo XIX, podría ser una forma de radiación
producida por las vibraciones del éter, en cuyo caso sería similar en su naturaleza a las ondas
de luz o bien podría ser un haz de partículas diminutas. La naturaleza del rayo que se asocia con
el trueno, una corriente de electricidad, había sido puesta en evidencia en experimentos
realizados en 1752, sugeridos precisamente por el científico y político norteamericano, quien
dedicó muchos de sus esfuerzos a estudiar las intrigantes propiedades de esas descargas,
poniendo en riesgo su vida.
El escenario adecuado para estudios más cuidadosos exigía el desarrollo de tubos de vacío, lo
que se logró por primera vez en Alemania, con los tubos de Geissler. Johan Heinrich Geissler era
un experto soplador de vidrio y encontró la manera de sellar las uniones utilizando mercurio.
Su variante, el tubo de Crookes, permitió la observación más minuciosa de los que inicialmente
fueron bautizados como rayos catódicos. El británico William Crookes e investigadores
alemanes, entre ellos Hertz, quien tuvo el privilegio de producir en su laboratorio las primeras
ondas de radio, inicialmente pensaron que se trataba de ondas electromagnéticas; sus colegas
franceses y británicos eran de la opinión de que se trataba de una corriente eléctrica. En 1894
el colaborador de Hertz Philipp Lenard observó cómo los rayos catódicos traspasaban
fácilmente una delgada lámina metálica sin dejar huella visible, lo que acentuó la creencia de
que se trataba de ondas electromagnéticas. Un factor adicional de confusión lo introdujeron los
rayos X, descubiertos por Wilhelm Röntgen al año siguiente (1895), quien por ese
descubrimiento recibiera el primer premio nobel en Física en 1901. Aunque Crookes cambió de
opinión después de algunos experimentos en los que incluso logró hacer que el haz de rayos
catódicos moviera una liviana paleta, correspondió a su compatriota Thomson dirimir la
cuestión. Todavía no existían razones para creer que existieran partículas de tamaño y masa
mucho menor que los átomos mismos.
La explicación hoy en día es muy sencilla: cuando una corriente eléctrica fluye a través de un
gas, los electrones que forman parte de la corriente (un enjambre de electrones libres) golpean
contra los electrones de los átomos presentes en el gas (electrones ligados) aumentando su
energía (excitándolos y llevándolos a niveles superiores de energía, diríamos hoy), la que torna
a desprenderse en forma de luz (decaimiento o desexcitación) si las condiciones son favorables.
La experiencia que realizaron Franck y Hertz en 1914 lo confirman. Este fue uno de los
experimentos claves que ayudaron a establecer la teoría atómica moderna, pues muestra que
los átomos absorben y emiten energía en pequeñas porciones o cuantos de energía,
verificándose los postulados de Bohr con electrones como proyectiles que proveen la energía.
Las pantallas fluorescentes y las señales de neón se basan en el mismo principio; la coloración
está determinada por la frecuencia de la luz (fotones) que más favorablemente emiten los
átomos del gas (en realidad, los electrones ligados, al pasar de uno a otro nivel de energía).
Era necesario eliminar al máximo permitido por la tecnología de la época el gas residual, antes
de poder detectar al responsable del efecto; era indispensable disponer de bombas de aire
eficaces. En 1885 Geissler inventó una que reducía la presión a una diezmilésima de su valor a
nivel del mar. Julius Plücker, catedrático de filosofía natural en la Universidad de Bonn, realizó
las primeras observaciones bajo estas nuevas condiciones. Utilizando la terminología de
Faraday, se denomina ánodo a la placa unida a la fuente de electricidad positiva y cátodo a la
otra. Resumiendo las observaciones, diríase que algo salía del cátodo, viajaba a través del
espacio casi vacío del tubo, golpeaba el cristal y era recogido por fin en el ánodo. Fue Eugen
Goldstein quien bautizó esa extraña sustancia con el nombre de rayos catódicos.
Pero los rayos catódicos no eran rayos, no formaban parte de la luz, un efecto secundario. Ya el
francés Jean Perrin, más reconocido por la verificación que hizo de las predicciones de Einstein
en torno a los átomos en 1908, desde 1895, en su tesis doctoral, había demostrado que los rayos
depositaban carga eléctrica negativa en un colector de carga. Y el alemán Walter Kaufmann,
asumiendo que se trataba de átomos cargados (o ionizados) del gas residual, trató de establecer
la relación e/m, llegando a la conclusión, para su sorpresa, de que era siempre la misma,
independientemente de qué gas residual se utilizara. Para entonces Thomson había entrado en
escena, pero sus primeras determinaciones de la velocidad de las partículas estaban erradas. El
hábil experimentalista Hertz había descartado prematuramente que las partículas estuvieran
cargadas: los campos eléctricos que aplicó para desviarlas no eran suficientemente intensos, lo
que le impidió culminar exitosamente el estudio emprendido en su laboratorio; téngase
presente además que el alemán estaba influenciado por la posición filosófica de Ernst Mach, su
compatriota. Thomson, libre de ese lastre, aunque no muy hábil con sus manos, de acuerdo con
el testimonio de sus auxiliares, sabía cómo planear el siguiente paso para poder avanzar; y lo
hizo acertadamente.
Rigurosamente hablando, nadie ha visto un electrón, a pesar de que desde hace más de un siglo
su existencia está por fuera de toda duda. Con los instrumentos adecuados, hoy en día se
detecta un electrón o un fotón, o mejor, el paso de un electrón o de un fotón. El tubo de rayos
catódicos (TRC), el mismo que daría lugar a las primeras pantallas de televisión (TV), consistente
en un tubo de vidrio sellado de mediano vacío, con 2 placas metálicas (cátodo y ánodo) que
permiten la producción de una descarga eléctrica con un modesto voltaje, condujo al
descubrimiento del electrón como partícula.
Los aspectos centrales del experimento de Thomson, realizado para determinar la relación
entre la masa y la carga de las partículas responsables de los rayos, pueden verse en cualquier
texto de física y se resumen en una sencilla ecuación que sirve de paso para aplicar los
conceptos de campo eléctrico y campo magnético, novedosos para quienes no tienen
experiencia previa en cursos de física. No así las dificultades que tuvo que vencer. En abril de
1897 expuso ante la Royal Institution su opinión de que esas partículas eran mucho más
diminutas que los denominados átomos: nadie en la audiencia estuvo dispuesto a creerle.
Echemos un rápido vistazo a todo el proceso. No se discuten los detalles por brevedad y porque
el TRC por él utilizado, del cual se ilustra un prototipo en la figura 1.2, forma parte de la anterior
generación de televisores domésticos. Sinteticémoslo de esta manera: el electrón es
previamente acelerado a través de una diferencia de potencial V negativa entre cátodo y ánodo,
ganando así una energía cinética ½mv2 = eV. Al entrar con rapidez v en una región donde existe
un campo eléctrico o un campo magnético (vertical u horizontal, según el caso,
aproximadamente uniforme) es desviado de su trayectoria horizontal una pequeña distancia δ
(δe o δb respectivamente).
Lo esencial del experimento de Thomson se resume en la expresión que obtuvo para la relación
entre la masa y la carga del electrón, m/e, a partir de las desviaciones experimentadas por esa
partícula indivisible (rigurosamente a-tómica) en campos eléctrico E y magnético B,
desviaciones fácilmente evaluables a partir de la fuerza de Lorentz discutida en el apéndice II,
aplicada al electrón en el estricto sentido newtoniano. Simbolizando por ℓ la longitud de la
región de desviación y por L la de la región de proyección (llamada también de deriva), se
encuentra:
m/e = E ℓ L/v2δe
o
m/e = B ℓ L/vδb
según el caso. Nótese que la rapidez de los electrones para desviación con campo eléctrico
envuelve solo la componente horizontal de velocidad. (En todo caso, la componente de
velocidad vertical es insignificante frente a la anterior.) Ella depende solamente de la energía
eléctrica suministrada a los electrones al acelerarlos en el campo eléctrico existente entre el
cátodo y el ánodo, dependiente a su vez de la diferencia de potencial aplicado entre los dos.
Thomson la encontró experimentalmente tomando la relación entre las dos expresiones
anteriores:
v = Eδb/Bδe
puesto que la rapidez es la misma en ambos casos. Es notable que el orden de magnitud de la
velocidad de los electrones así acelerados es una fracción importante de la velocidad de la luz,
alrededor de 108 m/s. Esto permite no tener en cuenta la atracción que de todos modos ejercerá
el campo gravitacional de la Tierra sobre la diminuta masa de los electrones, del orden de 10-31
kg: el tiempo que tardan en cruzar la región de desviación es del orden de 10 -9 s, lo cual se
traduce en caída gravitacional insignificante, despreciable para los cálculos.

Fuerza de Lorentz:
F = q(E + v×B)

Figura 1.2 Vista esquemática de un tubo de rayos catódicos similar al utilizado por Thomson para
establecer experimentalmente la relación entre la masa y la carga del electrón. En la parte superior se
ilustran los campos eléctrico y magnético como los utilizados por Thomson en su experimento para
desviar los electrones, salvo que en el segundo caso dispuso de dos embobinados adecuadamente
dispuestos para que produjeran un campo magnético uniforme, de acuerdo con el diseño de Helmholtz.

‘Jugando’ con voltajes y campos de variadas intensidades, Thomson pudo finalmente controlar
y medir las desviaciones y probar al mundo científico de su época que el responsable principal
de los rayos catódicos era otra cosa: minúsculas partículas, mucho más diminutas que el
supuesto indivisible átomo, presentes por doquier, con manifestaciones visuales
impresionantes en las auroras boreales y australes y en todo tipo de descargas eléctricas
fuertes. En otras palabras, los tales rayos catódicos que finalmente se dejaron desviar por
campos eléctricos y magnéticos suficientemente intensos son los mismos que producen esos
campos, en condiciones usuales menos extremas. Esas partículas iban a ser los actores
principales en la electrónica de los tubos de vacío de la primera mitad del siglo XX. Unas décadas
más tarde, acompañados de los agujeros (‘holes’) que dejan al ser desprendidos por campos
internos en semiconductores dopados, huecos viajeros cargados positivamente, pues son
carencia de carga negativa, darían igualmente lugar a la electrónica del silicio y otros materiales
de banda prohibida (semiconductores; véase el segundo tomo).
Estas últimas expresiones, tan en boga en la electrónica contemporánea, no tendrían sentido
clásicamente. No solo eso, el electrón tiene mucho más para ofrecernos que simplemente
producir las corrientes que circulan en diodos y transistores. Este ente cuántico por excelencia
habría de revelarnos otras pistas sobre el extraño comportamiento de la materia a nivel
submicroscópico. Referimos al lector al texto de Eugenio Ley Koo, El electrón centenario (serie
Ciencia para todos # 165, FCE), en donde se hace un meritorio recuento del siglo del electrón
(Siglo XX). (Ley Koo, 1997.)
1.9.2 Fotoelectrones
Figura 1.3 Efecto fotoeléctrico. Los fotones incidentes sobre el cátodo desprenden fotoelectrones.

Figura 1.4. a) Energía de amarre de los electrones y energía de los fotones incidentes. b) Variación de la
corriente con el voltaje (des)acelerador, para dos intensidades luminosas diferentes ((Ic)1 ˃ (Ic)2).

Heinrich Rudolf Hertz reformuló, con base en sus resultados, la teoría de las ondas
electromagnéticas. A él le debemos también la observación meticulosa (1887) del hoy
importantísimo fenómeno del efecto fotoeléctrico, una corriente eléctrica debida a los
denominados fotoelectrones, electrones desprendidos por la energía luminosa incidente sobre
una placa metálica que para el caso se denomina fotocátodo. Philipp Lenard, quien había sido
ayudante de Hertz, entre 1899 y 1902 estudió minuciosamente las características de los
fotoelectrones, razón principal para que fuera uno de los primeros físicos distinguidos con el
premio Nobel. Hertz había observado, en su estudio de los rayos catódicos, que bajo ciertas
condiciones se producía una chispa en una superficie metálica colocada en el tubo de vacío
iluminada con luz. Se trataba de la corriente fotoeléctrica. Así, pues, quien produjo en su
laboratorio las ondas EM por primera vez, observó también por primera vez el efecto de los
corpúsculos de luz. Hertz murió a los 36 años de edad (1894); su sobrino Gustav Ludwig recibió,
por su participación en el famoso experimento Franck-Hertz, la distinción Nobel que con toda
seguridad habría recibido también Heinrich de no haber muerto prematuramente.
Tras los resultados de Thomson, Lenard pudo comprobar que esos electrones inicialmente
confundidos con rayos podían producirse favorablemente con luz visible de alta frecuencia. La
explicación cualitativa del fenómeno era obvia: la luz transmitía energía a los electrones de la
placa, lo que les permitía salir despedidos. Pero un análisis minucioso del fenómeno trajo
muchas sorpresas.
Entre otras peculiaridades del fenómeno, observó que aplicando un contra-voltaje adecuado del
emisor al colector, como indica la figura 1.4, se puede impedir el flujo de la corriente para un
valor Vo que no depende de la intensidad de la fuente luminosa sino del color o frecuencia de la
luz utilizada: para ese voltaje todos los fotoelectrones son frenados. Por otro lado, por más que
se aumente el voltaje acelerador, la corriente será la misma (corriente de saturación) para una
intensidad luminosa dada: para ese caso, todos los electrones que se desprenden llegarán al
colector. Esto indica que el número de electrones desprendidos sí depende de la intensidad,
como cabe esperar.

Figura 1.5. Tubo al vacío para producir fotoelectrones. El voltaje se puede invertir mediante un
conmutador para frenar los electrones desprendidos.

El equipo utilizado se esquematiza en la figura 1.5. El galvanómetro G permite detectar la


corriente producida por los electrones desprendidos por el haz de luz de frecuencia elevada. El
conmutador permite aplicar un contra-voltaje que inhibe el paso de los fotoelectrones.
Lenard perfeccionó las observaciones de Hertz y llegó a tres conclusiones importantes que no
tenían explicación clásica:

 Primero, la capacidad de la luz para desprender un electrón depende solamente de la


frecuencia. En otras palabras, la amplitud de la onda, que es lo que determina su
intensidad, no afecta el resultado de la emisión, como cabría esperar clásicamente, solo
del número de electrones afectados.
 Segundo, la emisión ocurre solamente por encima de una cierta frecuencia,
denominada frecuencia umbral; debería ocurrir la emisión a cualquier frecuencia,
bastaría con que la intensidad fuera lo suficientemente grande.
 Tercero, el proceso debería tomar un tiempo que puede estimarse desde la teoría
clásica. Por el contrario, se observa que el fenómeno ocurre instantáneamente.
Por estos y otros aportes, Lenard recibió el premio Nobel en 1905, precisamente el año en que
Einstein, sin que fuera el propósito principal de su hipótesis sobre los corpúsculos de luz, lograra
explicarlo. En realidad, la declaración de la Academia dice simplemente: “por su trabajo en rayos
catódicos”. Su aporte en ese terreno fue lo que orientó a la postre los experimentos que
Thomson emprendió y le hicieron merecedor de tan codiciada presea. Como nota que podría ir
a un pie de página, cabe agregar que fue Lenard quien utilizó la expresión despectiva ciencia
judía, para sobreponerla a la ciencia aria, supuestamente superior, en contra de las ideas de
Einstein. Lenard, un hábil experimentalista, estuvo errado en muchas suposiciones teóricas. En
1919 Johannes Stark, otro físico experimental defensor de la ciencia aria pura, lo recibió por el
descubrimiento del efecto que lleva su nombre, consistente en el desdoblamiento de las líneas
espectrales por influencia de un campo eléctrico.
(http://www.nobelprize.org/nobel_prizes/physics/laureates/)
Correspondió a Einstein, como ya se dijo, explicar el interesante fenómeno y el extraño
comportamiento observado en los experimentos. Su hipótesis (la luz se comporta, para el caso,
como corpúsculos de energía), a pesar de lo aparentemente absurda, no solo explicó de paso el
efecto fotoeléctrico: fue el pilar fundamental de una nueva teoría. Por más de una década esta
explicación no fue muy aceptada, a pesar de que permitía entender también la desesperada
solución dada por Planck al problema de la radiación de cuerpo negro.
Dejando de lado por ahora la denominada radiación de cuerpo negro, un fenómeno
macroscópico de origen cuántico difícil de entender en los cursos básicos al que volveremos
para finalizar este capítulo y le dedicaremos una parte del siguiente, el efecto fotoeléctrico
puede considerarse el fenómeno cuántico más fundamental a nivel microscópico, decisivo para
el surgimiento de la nueva física, por lo demás de elemental explicación, si se acepta el
contradictorio punto de partida: la luz está compuesta de corpúsculos diminutos. No le
dedicaremos más tinta por ahora, salvo para ilustrar conceptualmente lo que ocurre sin entrar
en detalles: la luz incidente (un haz de fotones) desprende electrones del metal (se denominan
fotoelectrones) que pueden considerarse libres, salvo porque los separa del vacío una energía
negativa, de amarre; los fotoelectrones absorben de los fotones incidentes esa energía que
requieren y un poco más, si su frecuencia está por encima del umbral, por lo que van a tener
una energía residual en forma de energía cinética o de movimiento; el voltaje aplicado entre
cátodo y ánodo (colector) disminuye esta energía, logrando detener algunos; qué tantos,
depende del voltaje aplicado. La relación varía de manera rigurosamente lineal con la frecuencia
de los fotones incidentes, lo que verifica la famosa aserción de Einstein, E = hν para la energía
de los granos de energía incidentes.
Los fotomultiplicadores constituyen quizá una de las aplicaciones más importantes del efecto
fotoeléctrico. Ilustrar su funcionamiento ayuda a comprender mejor aquel y nos convence
mucho más del comportamiento dual de la luz. En esencia, se produce un efecto en cascada de
la emisión de fotoelectrones, lo que permite amplificar corrientes en varios órdenes de
magnitud y, al mismo tiempo, detectar el paso de fotones individuales. Mayores detalles
pueden verse en la monografía sobre Einstein. (Giraldo, 2005.)
1.9.3 El modelo de átomo de Thomson
El modelo atómico de Thomson,
a pesar de lo ingenuo, tiene
varias ventajas. Todavía se sigue
usando, con adecuaciones a la
mecánica cuántica, como un
modelo para metales simples,
tipo sodio, Na.

Fig. 1.6. Modelo atómico de Thomson, o “pudín con pasas"

Aunque la aceptación de los corpúsculos cargados no fue unánime, a pesar de la fuerte evidencia
experimental, Thomson fue más allá: durante los años siguientes, con la colaboración de algunos
auxiliares, entre los que destacaba Charles Wilson, el inventor de las cámaras de niebla,
determinó aproximadamente el valor de la carga del electrón y elaboró un modelo de átomo
que fue compartido por muchos (1899). En ese modelo estático, originalmente propuesto por
Kelvin, los electrones estarían colocados en una especie de jalea con carga positiva distribuida
en una pequeña región del espacio, algo así como un pudín con pasas. El valor preciso de la carga
del electrón fue determinado por Millikan mediante su famoso experimento de la gota de aceite,
una década más tarde.
El modelo de Thomson da cuenta de fenómenos bien conocidos como la electrólisis y las
descargas eléctricas a baja presión. La ionización de la materia es fácil de explicar mediante dicho
modelo. Si bien explica adecuadamente muchos de los hechos observados en la química y el
comportamiento de los rayos catódicos sometidos a campos eléctricos y magnéticos, hace
predicciones incorrectas sobre la distribución de la carga positiva en el interior de los átomos.
Desde otro punto de vista, puede afirmarse que el modelo mecanicista y electrostático de cargas
depositadas en un medio homogéneamente cargado no puede pretender explicar fenómenos
que por su naturaleza son dinámicos. A la luz de la física actual, el mayor éxito de Thomson fue
establecer con gran precisión la relación entre la carga y la masa de los supuestos corpúsculos
cargados. El premio Nobel le fue entregado en 1906 “en reconocimiento a los méritos a sus
investigaciones teóricas y experimentales sobre la conducción de la electricidad en los gases”.
En la literatura es frecuente encontrar referencias a otros modelos similares al de Thomson. Esas
variantes no agregan mucho, salvo resaltar la aceptación que inicialmente tuvo ese modelo en
ciertos círculos. Pero hay algo que sobrevive del modelo de Thomson y trasciende en la teoría
cuántica: es el gas de electrones, inmerso en una especie de jalea de carga positiva que
neutraliza el sistema, útil para representar el comportamiento de los llamados metales simples.
Debe aclararse que en el gas de electrones el comportamiento de estos es el de un gas cuántico,
más específicamente, el gas de Fermi, al que volveremos en la segunda parte (QS II).
1.9.4 Descubrimiento del núcleo y modelo planetario
Figura 1.7. Comparación entre los resultados que cabría esperar de un modelo tipo Thomson y de un
modelo nuclear como el de Rutherford.

La mayor debilidad del modelo de pudín con pasas saltaría a la vista a partir de cuidadosos
experimentos realizados en la Universidad de Manchester por quien fuera inicialmente el
auxiliar de Thomson en el laboratorio de Cavendish (Cambridge). Rutherford, ayudado por sus
auxiliares Hans Geiger y Ernest Marsden, dispuso una serie de experimentos que se realizaron
entre 1908 y 1910. A esto se agregó un modelo teórico implementado por él mismo entre 1911
y 1913.
El experimento consistió esencialmente en bombardear finas láminas metálicas, finalmente de
oro por su peso atómico y maleabilidad, con partículas alfa (núcleos de helio). Las propiedades
dúctiles del oro permiten la elaboración de láminas muy delgadas que son fácilmente
atravesadas por la radiación (emanación del radio, le llamaron entonces). De ser correcto el
modelo atómico de Thomson, el haz de partículas debería atravesar la lámina sin sufrir
desviaciones significativas a su trayectoria; a lo sumo unos pocos grados. Rutherford y sus
colaboradores observaron que un alto porcentaje de partículas atravesaban la lámina sin sufrir
una desviación apreciable, pero un cierto número de ellas era desviado significativamente, a
veces bajo ángulos de difusión mayores de 90 grados, en raras ocasiones rebotando
frontalmente. (Véase la figura 1.7.) Tales desviaciones no podrían darse si el modelo de Thomson
fuese correcto.
Puesto que la carga positiva debería estar concentrada en una pequeñísima región (a la que
llamó Rutherford núcleo atómico), muy inferior a la de la supuesta esfera en que estaría
distribuida la carga negativa (electrones), teniendo en cuenta la ley de Coulomb de atracción
entre cargas de diferente clase, los electrones deberían girar alrededor de la carga positiva
(núcleo) de manera similar a como hacen los planetas alrededor del sol (órbitas elípticas) o la
luna alrededor de la tierra (órbita circular), para que no fueran atrapados por el núcleo.
Figura 1.8. Representación esquemática de las delgadas láminas metálicas atravesadas por radiación α e
ilustración de trayectorias típicas en la dispersión por un núcleo de oro.

El modelo, teóricamente establecido, tenía sentido salvo por un pequeño detalle que se
consideró inicialmente irrelevante: a diferencia de la luna, con carga neta nula, los electrones
tienen una carga que sumada iguala a la del núcleo; la existencia de este se reveló precisamente
a partir de los experimentos encomendados a Geiger y Marsden; téngase en cuenta que el
experimento de la gota de aceite que permitió determinar la carga del electrón fue realizado en
1909 por Robert Millikan y Harvey Fletcher. Una vez conocida la carga del electrón, era posible
estimar la fuerza eléctrica (esencialmente electrostática) que ejercería el núcleo sobre él; esta
debería ser en muchos órdenes de magnitud (~10 40) superior a la fuerza gravitacional. Por otra
parte, las variaciones de los campos electromagnéticos producidos por los electrones al girar no
podrían despreciarse, por lo que las ondas electromagnéticas que se generarían
irremediablemente harían colapsar el átomo si se cumplieran las leyes clásicas. A pesar de lo
equivocado del modelo, era un gran avance comparado con el anterior, debido a Kelvin y a
Thomson. De todos modos, la dificultad presente en el modelo de Rutherford parecía insalvable.
El modelo de Bohr, al que volveremos más adelante, postula que la radiación electromagnética
no se da, si los electrones se encuentran en ciertas órbitas estacionarias, las cuales deberían
satisfacer otros postulados que Bohr agregó al anterior.
El modelo de Rutherford estaba mal, a pesar de lo ingenioso. El danés Niels Bohr, ayudado en
gran medida y sobre todo apoyado por Rutherford, propuso algo mejor, a la postre también
equivocado, pero con ingredientes adecuados para generar las nuevas ideas que la construcción
del edificio cuántico requería. Los dos modelos eran, a pesar de todo, mucho más realistas que
el imaginado por Thomson y Kelvin, una especie de jalea con pasas, en donde las pasas serían
los electrones y la jalea contendría la carga positiva indispensable para neutralizar el átomo; un
modelo infantil para un universo que equivocadamente se supone lleno de lo que en apariencia
se deja ver, a pesar de las brillantes especulaciones de los primeros atomistas. No, el átomo no
solamente es divisible, su interior está prácticamente vacío, como previeron los atomistas, y la
materia (bariónica o hadrónica, hemos de corregir desde ya) se concentra en una pequeñísima
región, el núcleo, un núcleo en el que están firmemente ligados otros constituyentes, los quarks.
Las nubes electrónicas son solo eso: insignificantes nubarrones en el universo nuclear; y sin
embargo, de ellos depende el comportamiento de la materia que observamos en la Tierra, la
misma de la que estamos hechos.
Descubiertos los rayos X (1895), el electrón (1897) y el núcleo atómico (1909), el camino estaba
preparado para examinar más a fondo la constitución de la materia. Una de las primeras
aplicaciones de los rayos X fue precisamente la que llevó a su descubrimiento: su difracción y la
consecuente formación de espectros, no ya solamente de un elemento sino también de un
compuesto y en general de un objeto sólido. Espectroscopio de rayos X o difractómetro de rayos
X es el nombre genérico que recibe el aparato (y la técnica). El fotón, propuesto por Einstein mas
no con ese nombre sino como unidad fundamental de energía de radiación, tendría que esperar
para su aceptación hasta que los experimentos cuidadosamente montados por Millikan durante
una década para refutar a aquel arrojaran resultados totalmente inesperados.
1.9.5 Nubarrones y tormentas
La debilidad ya señalada del modelo de Rutherford venía a agregarse a la lista de problemas que
se habían empezado a manifestar, no solo con la radiación del cuerpo negro: el panorama de la
física clásica tendía a obscurecerse. En efecto, si se mira en perspectiva, a finales del siglo XIX las
dificultades que enfrentaba la concepción clásica mecanicista de los fenómenos naturales eran
grandes. A pesar de las fuertes evidencias en contra, algunos de los más destacados físicos del
momento creían que eran superables. Es famosa una conferencia de Kelvin en la Royal
Institution, pronunciada en abril de 1900, tal vez más destacable por su ingenuo título que por
su contenido: Nineteenth Century clouds over the dynamical theory of heat and ligh. Afirmaba:
«La belleza y claridad de la teoría dinámica (se refiere a la EDC) que concibe el calor y la luz como
modos de movimiento se ve obscurecida por dos nubes. La primera surgió con el carácter
ondulatorio de la luz, ya resuelto por Fresnel y Young, y tiene que ver con la pregunta: ¿Cómo
podría moverse la tierra a través de un sólido elástico, como debe ser esencialmente el éter
luminífero? La segunda es la doctrina de Maxwell-Boltzmann sobre la equipartición de la
energía.» No viene al caso detenerse en los intentos de Kelvin por subsanar estas dificultades,
puesto que ello no es posible dentro de los esquemas de la física clásica conocida hasta
entonces. Einstein resolvió en 1905 la primera dificultad con su nueva concepción del espacio-
tiempo y los dos postulados que sirvieron de base a la teoría de la relatividad especial. Para la
segunda el camino fue más arduo, pero la solución empezó a vislumbrarse con la hipótesis de
cuantización de la energía propuesta por Planck.
Lo que queremos concluir de esta sección, es que no solamente empañaban el panorama las
dos nubes a que se refería Kelvin. Una fuerte tormenta se avecinaba y habría de derribar toda
la concepción clásica del mundo, empezando por su fundamentación determinista. Podría
afirmarse que las primeras ideas se parecían más a paliativos, remiendos que intentaban
preservar las ideas centrales de las teorías ya establecidas.
1.10 Espectros de absorción, de emisión y en el continuo
Nos hemos referido ya a algunos modelos que explican la materia en torno a la existencia de los
átomos y a los modelos atómicos mismos. Los griegos presocráticos habían intuido que existe
una estrecha relación entre esos átomos y la luz. Era necesario entender que esa luz, la luz visible
a que ellos podían referirse, no es más que parte del denominado espectro electromagnético,
parcialmente mencionado en el apéndice II. Yendo todavía más lejos, era indispensable
entender que en últimas observamos esos constituyentes de la materia por la emisión de luz de
todo tipo, en todo el rango de frecuencias, particularmente en la que más emiten.
Figura 1.9. Espectros de radiación en el continuo, de emisión y de absorción.

Es una ley fundamental de la naturaleza la del equilibrio termodinámico; a él contribuye la


denominada equipartición de la energía, principio o teorema clásicamente establecido que
afirma que la energía de movimiento se reparte por igual para cada grado de libertad,
contribuyendo en cada uno de ellos con la cantidad ½kT (k es la constante de Boltzman y T la
temperatura absoluta): la temperatura de los cuerpos tiende a ser la del medio circundante, a
menos que en su interior se den procesos que produzcan o consuman energía. Dentro de esos
procesos están precisamente los de absorción y emisión de radiación electromagnética, bien
conocidos por los espectroscopistas del siglo XIX en la región visible del espectro. Fue así como
se pudieron identificar muchos elementos y compuestos. Nos referiremos a los espectros de
emisión y absorción en el siguiente capítulo. Lo de grados de libertad lo aclararemos en el
apéndice I.
Más interesante para la discusión que sigue, es la manifestación macroscópica de esa radiación
en la forma de color característico, dependiente de la temperatura, fácil de visualizar en ciertos
cuerpos calientes a medida que se eleva aquella. Es el caso del hierro o el acero a medida que
se funden: es perceptible el cambio de color entre el rojo, al comienzo, pasando por el amarillo
hasta el violeta, al aumentar la temperatura. Como veremos en la sección 2.1 (figura 2.2), dado
que la densidad espectral disminuye a altas frecuencias, es natural suponer que el máximo
ocurre a una frecuencia determinada y es de esperar que dependa también de la temperatura.
En realidad el máximo depende del producto de las dos variables, λT. Ni este desplazamiento ni
las líneas espectrales discretas tienen explicación clásica.

Cuando se mira a la luz de un espectroscopio, la luz emitida por gases excitados no da un


espectro continuo: aparecen franjas discretas, de emisión o absorción según el caso. A esta
anomalía y su posible explicación volveremos en el siguiente capítulo.
2. Los primeros conceptos cuánticos
2.1 Introducción al «Gran Misterio»
«La parte de la física de hoy que en mi criterio sobrevivirá sin modificaciones para una teoría
final es la Mecánica Cuántica.» Esto afirma en su libro Dreams of a Final Theory el laureado Nobel
Steven Weinberg. Los fundamentos de la mecánica cuántica seguramente seguirán inalterados,
aunque una teoría final siga siendo una utopía. En efecto: «Una teoría final puede tardar siglos
en ser elaborada y puede ser totalmente diferente de cualquier cosa que podamos imaginar
ahora…», pero no es concebible, al menos por ahora, otra teoría que mantenga el rigor en la
consistencia de sus postulados y que a la vez pueda dar resultados tan precisos. (Weinberg,
1993.)
Física Cuántica o Teoría Cuántica es el nombre que finalmente se le ha dado a la nueva física, ya
centenaria. Ella, suponemos, es la teoría científica mejor elaborada, la única capaz de darnos
explicaciones cuantitativas, detalladas y conceptualmente coherentes sobre el comportamiento
de la materia, la energía y la información a nivel fundamental o elemental, básico o
microscópico, como suele denominarse, y en la escala universal, en la desmesura cósmica, como
escribiera el filósofo Fernando Urbina. (Urbina, 2006.) Para destacarlo aún más, diremos que es
la Teoría, con mayúscula, aunque suene jactancioso. Para subrayar su impacto en las tecnologías
del presente y del futuro, proponemos abreviarla QT, por sus siglas en inglés. Uno de los textos
que en mayor medida han guiado el curso CPTPT se titula Enigma Cuántico. En su idioma original
Quantum Enigma (QE), el subtítulo sugiere un encuentro entre la física y la conciencia. A este
inquietante asunto volveremos después. (Rosemblum and Kuttner, 2016.)
Hoy podemos hablar con toda propiedad de Ingeniería Cuántica, QE también por sus siglas en
ese idioma por ahora universal. Si en un futuro el idioma universal fuera el mandarín, o alguna
mezcla de lenguas como el esperanto, esa IC, QE o el equivalente en ese idioma del futuro será
la máxima expresión de las aplicaciones que podamos realizar hasta entonces. Esas aplicaciones
incluirán la conexión cerebro-máquina, como lo ha logrado, por ejemplo, el neurólogo brasileño
Miguel Nicolelis (2011) y tal vez cerebro-cerebro, como propone el físico norteamericano, de
origen japonés, Michio Kaku (2013). Puede haber mucho de imaginación en las propuestas de
posibilidades concebidas por este último, pero en principio no violan los principios de la QT.
Hacemos nuestras las palabras de Murray Gell-Mann, Premio Nobel de física en 1969:
«La mecánica cuántica no es una teoría, es más bien el marco en el que debe encajar toda teoría física
moderna. Este marco, como es bien sabido, implica el abandono del determinismo que caracterizaba a la
física clásica, dado que la mecánica cuántica solo permite por principio el cálculo de probabilidades. Los
físicos saben cómo emplearla para predecir las probabilidades de los resultados posibles de un
experimento, y desde su descubrimiento en 1924 (sic) siempre ha funcionado a la perfección dentro de
los límites de la teoría y el experimento considerados en cada caso. Sin embargo, pese a que su exactitud
está fuera de toda duda, aún no comprendemos en profundidad su significado, especialmente cuando se
aplica a la totalidad del universo.» (Gell-Mann, 1994. El subrayado es del autor de este texto.)

Todavía incompleto, el modelo estándar de las partículas elementales, o de la física de las altas
energías, como se denomina hoy, nos habla de la estructura básica de esos ingredientes, materia
y energía, y de la forma en que interaccionan o se entrelazan, mucho de ello contenido en la
información. El perfeccionamiento del modelo, como de seguro tendrá que hacerse, no afectará
a la Teoría. Una de las búsquedas incesantes es la Teoría Unificada de las interacciones.