You are on page 1of 371

LOS DOS MAXIMOS

SISTEMAS DEL MUNDO

Las M atem áticas del Viejo y Nuevo Mundo ¡


ensayo epistemológico j
LOS DOS MÁXIMOS
SISTEMAS DEL MUNDO
Las matemáticas del Viejo y del Nuevo mundo
Marcos Guerrero Ureña

LOS DOS MÁXIMOS


SISTEMAS DEL MUNDO
Las matemáticas del Viejo y del Nuevo mundo

Ensayo epistemológico

C E N T R O DE E S T U D IO S
L A T IN O A M E R IC A N O S

ABVA
VALA

2004
Los dos m áxim os sistem as del m u n d o
Las matemáticas del Viejo y del Nuevo mundo
Ensayo epistemológico

Marcos Guerrero Ureña

la. Edición Ediciones ABYA-YALA


12 de Octubre 14-30 y Wilson
Casilla: 17-12-719
Teléfono: 2506-247 / 2506-251
Fax: (593-2) 2506-267
E-mail: editorial@abyayala.org
Sitio Web: www.abyayala.org
Quito-Ecuador

Pontificia Universidad Católica del Ecuador (PUCE-)


Av. 12 de Octubre 1076 y Carrión
Casilla: 17-01-2124
Teléfonos: 2991700 / 2520947 / 2991581
Fax (593-2) 567117 / (593-2) 2991581
E-mail: ribadeneira@puce.edu.ec
cela@puce.edu.ec
Sitio Web: www.puce.edu.ee
Quito-Ecuador

Impresión Docutech
Quito - Ecuador

ISBN: 9978-22-404-1

Impreso en Quito-Ecuador, 2004


Dedicado ala humanidad entera
A gradecimiento

Extiendo mi más caro agradecimiento a la Universidad Católica del


Ecuador por el franco y decidido apoyo que ha dado al proyecto que
presenté bajo el título de, Máximos Sistemas del Mundo. Debo am ­
pliar el agradecimiento al Centro de Estudios Latinoamericanos, CE­
LA, quién aprobó e impulsó la consecución del proyecto a través de su
Programa de Desarrollo Académico. Así mismo, expreso mi imperece­
dera gratitud con: Emilio Cerezo, Decano de la Facultad de Ciencias
Humanas; Nelson Reascos, Director de la Escuela de Sociología; Mil-
ton Benitez, Director del CELA; Simón Ordóñez, Coordinador; Pabel
Muñoz y Juan Fernando García, Investigadores; Marcela Ordóñez,
Asistente Administrativa; Lucía Mendoza, Documentalista y Astrid
Bucheli, Secretaria.
Índice

Presentación .........................................................................................11
In tro d u c c ió n .........................................................................................15

P r im e r a P arte
C apítulo 1 Fase A n tig u a ....................................................................29
1.1 El nacimiento de la Geometría en el antiguo Egipto ............ 29
1.2 Akenatón y el M onoteísm o........................................................36
1.3 Moisés el egipcio ........................................................................40
1.4 La Geometría en la Grecia Clásica ...........................................43

C apítulo 2 Fase intermedia o Medioevo ....................................... 79


2.1 Las matemáticas del Lejano O rien te......................................... 79
2.2 La Ciencia y el Islám ..................................................................83
2.3 Las matemáticas en la Europa medieval .................................91
2.4 Fibonacci y Paccioli .................................................................. 100

C apítulo 3 Fase M o d e rn a ................................................................ 107


3.1 El R enacim iento.........................................................................107
3.2 Descartes y el Sistema Coordenado de Referencia ............... 114
3.3 Newton y el modelo Mecánico del M u n d o ........................... 128
3.4 Los matemáticos después de N ew to n ......................................141

C apítulo 4 Fase Actual (La crisis delE.M.R.Occ.) ......................... 159


4.1 La revolución de la relatividad ................................................ 160
4.2 La catástrofe C u á n tic a ...............................................................179
4.3 El Caos determinista .................................................................191
4.4 Estructuras disipativas y Catástrofes ......................................203
1 O Marcos Guerrero Ureña

4.5 Teoría de Supercuerdas y Teoría “M ” ...................................... 209


4.6 Espacio-tiempo fra c ta l................................................................221

S egunda Parte
C apitulo 5 El medio geográfico y el sistema
económico Andinos ..................................................... 243

C apitulo 6 El sistema m atem ático de la Cruz C u a d r a d a ..........255

C apítulo 7 El crom ático sistema matemático del Kipu ............263

T ercera Parte
C apítulo 8 El lugar del E.M.R.A.n en las
m atem áticas actuales ...................................................277
8.1 Teoría de nudos ..........................................................................277
8.2 La Geometría Fractal de la N aturaleza....................................282
8.3 El EMRAn y la función “zeta” de E uler-R iem ann.................290
8.4 Las matemáticas p-ádicas y el k ip u .......................................... 295

C apítulo 9 Implicaciones científicas y filo só ficas....................... 301


9.1 Implicaciones lógico-m atem áticas.......................................... 301
9.2 Implicaciones neurológicas y sicopedagógicas ..................... 306

A n e x o s.................................................................................................. 313

Créditos bibliográficos ,363


Presentación

La recuperación de la memoria no va únicamente por el lado del


relato, la fábula de lo que un día fuimos, la rememoración de lo pasa­
do. Desde el punto de vista de la cultura esto es sin lugar a dudas de su­
ma importancia para el desarrollo de los pueblos. Al hacer posible la
distribución del ser en el tiempo, la memoria permite la ubicación de
la vida en las coordenadas de la existencia. Es preciso conocer de dón­
de se viene para saber a dónde se va. Pero la memoria es más que eso.
Desde el punto de vista del presente la m em oria es la urdimbre en la
que el hom bre teje su laborioso obrar en la vida.
La conquista, la colonia, la dependencia, momentos de la histo­
ria de occidente que hicieron posible el surgimiento y desarrollo de la
m odernidad capitalista, no solo buscaron borrar de la memoria de los
pueblos conquistados sus relatos propios para mejor poder dominar­
los, buscaron también suprimir su urdimbre para obligarlos a tejer a
favor de otros. Sin posibilidad de ubicarse en el tiempo, sin posibilidad
de ubicarse en el mundo, enfrentados a la incertidumbre y al sin senti­
do de la existencia, la historia en estos lugares se abre como un largo
proceso de servidumbre. En el plano del pensamiento, esa servidumbre
tiene que ver con la dependencia cultural. No solo los signos, no solo
los símbolos, no solo los relatos nos llegan de allende la m ar para de­
cirnos lo que somos. Nos llegan también las estructuras básicas del
pensar, los sistemas de representación y los contenidos de la concien­
cia. El resultado es lamentable, term inamos convirtiéndonos en un eco,
en una m entira viviente, como habría de denunciar en su momento
Sartre, el filósofo de la descolinización.
Se trata por supuesto de la onda expansiva de la civilización
que hizo posible la universalización del espíritu de occidente. Univer­
salización unilateral, autoritaria, excluyente, que barrió con la m em o­
12 Marcos Guerrero Ureña

ria de los otros pueblos. De ese m odo, el saber de culturas milenarias


como las m esoam ericanas o las andinas dejaron de existir para con­
vertirse en objeto de la m irada arquelógica de ese m undo al que que­
damos enlazados.
Con su libro, La Verdadera Historia del Tiempo, concebido co­
mo diálogo universal de las cuatro culturas fundam entales que han
dado forma a la hum anidad, asistimos al em peño por la resurrección
de lo olvidado para que la escena se complete. El libro nos provoca la
contemplación de un m undo form ado por la unidad de la diversidad.
Con este segundo libro del mismo autor asistim os en cambio a la
puesta en escena del diálogo om itido, que en el contexto de la depen­
dencia cultural no pud o ser, entre la cultura occidental y la cultura
andina. Con intuición clara y profundidad analítica, el autor ubica el
centro de este acontecer intelectual en el cam po de las matemáticas.
Aritmética y geom etría convergen para hacer posible el espacio de la
representación m atem ática como unidad de cuerpo y pensam iento
abstracto. De esta unidad surge lo que Hegel, el filósofo alemán, sin -
tesis de la m odernidad occidental, llama espíritu. Y del espíritu, según
este propio pensador, se desprende el m undo. Esta operación habría
estado ausente en el espacio histórico social de los pueblos coloniza­
dos. De allí su imposibilidad de contar con elementos propios del
pensar que hicieran posible una lectura no sesgada de la realidad. Al
restituir este espacio el autor nos abre la posibilidad de superar esta
ausencia y recobrar el vínculo entre el cuerpo del m undo (la geome­
tría precolombina) y el pensam iento abstracto (sus matemáticas).
Empieza por establecer que el espacio m atem ático de representación
desarrollado por el Viejo M undo, está constituido por puntos-lím ite,
y, por tanto, es de dim ensión cero, mientras que en la América preco­
lombina el espacio de representación desarrollado está constituido
por segmentos, hilos, de dimensión uno. Es esta la gran diferencia no
contem plada hasta ahora. Así, m ientras el prim ero es trascendente y
abstracto, el segundo es sensible y concreto. El abstracto es deductivo,
en cambio, el concreto es inductivo. De este m odo, lo que la depen­
dencia cultural basada en la centralidad occidental impuso como úni­
co, encuentra su com plem ento con aquello que hasta ahora estuvo
oculto y surge a la luz del conocimiento por efecto de la investigación
que el autor del libro pone a nuestro alcance.
Los dos máximos sistemas del mundo 13

El Centro de Estudios Latinoamericanos de la Pontificia Uni­


versidad Católica del Ecuador, al haber hecho suyo el proyecto de in­
vestigación presentado, quiere dar testim onio de su compromiso con
los procesos intelectuales orientados a descubrir nuestra realidad.

Milton Benitez Torres


Director del Centro de Estudios Latinoamericanos de la
Pontificia Universidad Católica del Ecuador
LOS DOS MÁXIMOS SISTEMAS DEL MUNDO
(Las matemáticas del Viejo y del Nuevo mundo)

Ensayo epistemológico

MARCOS GUERRERO URENA


0. 0 INTRODUCCION

La historia de la ciencia se ha ido elaborando bajo la premisa de que la


configuración básica del saber científico es un proceso acaecido dentro de las
fronteras de la Civilización Occidental. Si bien hoy se tiende a admitir que los
importantes y copiosos desarrollos intelectuales de las antiguas culturas egipcia y
babilónica, o de la hindú y china, son progenitores de ese saber, no se les
reconoce, en cambio, como productos científicos propiamente dichos. El
argumento esgrimido es bastante convincente y recoge el hecho de que ninguno
de los antecedentes de la matemática griega alcanzó a sistematizarse como una
geometría -al modo de los Elementos de Euclides, con cuya aparición pudo
cimentarse el escenario para la fluida realización del pensar y el conocer -.
¿Pero fue, en efecto, este hito fundador el acontecimiento del que se ha
desprendido toda ciencia posible, o hubo, en alguna otra parte de nuestro planeta,
una invención equivalente, un desarrollo paralelo de un sistema de referencia
igualmente apropiado para la expresión de las ideas? De dar crédito a esta
posibilidad: ¿Cuál es esa otra ciencia, dónde y cómo se originó?, ¿Fueron sus
condiciones de partida, principios, objetivos y formas constructivas idénticos a los
de la ciencia reconocida? o, ¿Fueron saberes de distinta raíz y tallo, cuyas
diferencias piden explicación? ¿Podrían comunicarse las dos ciencias en pie de
igualdad? ¿Qué consecuencias y beneficios, cabe esperar de aquello?
Antes de contestar estas inquietantes preguntas, voy a poner a consideración de
los lectores el siguiente libro, el cual da a conocer por primera vez el que muy
probablemente fue el sistema matemático que desarrolló el hombre americano
precolombino; haciéndolo esta vez en el marco de los Espacios de
Representación. Una vez que terminemos de recorrer sus páginas, les aseguro,
estaremos en buenas condiciones para contestar satisfactoriamente las
mencionadas preguntas.
Anticipando, lo que debo manifestarles es que estas exóticas matemáticas se
ocuparon tanto de la parte cuantitativa como cualitativa del mundo y consistieron
en dos ramales -dicho con terminología actual-: una Geometría Analítica Fractal,

2
totalmente desconocida hasta la fecha, no consta en los Anales de Matemáticas, y
una Geometría Arborescente o p - ádica. Éstas, al ser combinadas de manera
complementaria, configuraron el Kipu, genuino sistema de coordenadas de
referencia capaz de representar con una alta resolución, tanto la cantidad como la
calidad de los procesos concretos, y útil para realizar predicciones fiables. Como
consecuencia lógica de todo esto tubo lugar el nacimiento de una Cosmovisión,
asimismo, geometrizada.
Para poder comprenderlas a cabalidad es preciso establecer, previamente, el
concepto de:
> Espacio Matemático de Representación (E.M.R.)
Definición: Del modo más general, podemos decir que el E.M.R. es un Cuerpo
topológico (ver recuadro 1) construido según una determinada estructura geométrica.
Así, él puede ser: puntiforme si está constituido por puntos, reticular si es en forma
de malla, ramiforme o en árbol, de cuerdas, etc. (ver recuadro 2 ) El E.M.R consta de
las siguientes partes: un cuerpo numérico, una clase de valor absoluto, una clase
de distancia y un sistema de coordenadas de referencia espacio-tiempo.
El E.M.R. es el dispositivo intelectivo más importante que posee la ciencia actual.
Al científico le ha servido para registrar el rastro que dejan las regularidades que
rigen los procesos de la realidad, lo que le ha sido útil para luego ejecutar
simulaciones, realizar predicciones fiables y efectuar aplicaciones prácticas
exitosas. Para llevar a cabo tan fascinante prodigio, el científico hace uso de las
propiedades que posee dicho espacio, en la medida en que éstas puedan
expresarse por medio de ecuaciones que representen las funciones que
caracterizan al proceso en mención.
El E.M.R. es el mayor logro del pensamiento matemático en la historia del ser
humano, es el medio que permite la creación del discurso científico, el que
deviene mas tarde en tecnología, la cual, a su vez, al incidir en la producción
social, genera significativas modificaciones en el hombre y su entorno natural,
transformándose, finalmente, en fuerza productiva, la que actúa como un
verdadero agente de la evolución.

3
El E.M.R. es el producto final de un largo proceso evolutivo que ha posibilitado la
aparición de la denominada conciencia mental o conciencia espacio-tiemporal o
científica. Se trata de la conciencia histórica que supera a la conciencia mítica, la
inmediatamente anterior, que subyace en su interior, que comenzó a desarrollarse
hace aproximadamente 40.000 años y no ha terminado todavía.
El E.M.R. ha posibilitado la aparición de la comunicación conceptual o científica
gracias a la modelación matemática de los sistemas.
El concepto de EMR, logrado gracias al conocimiento actual sobre el tema, nos va
a permitir realizar un viaje epistemológico a lo largo de la historia de las
matemáticas, tanto las del Viejo Mundo como las del Nuevo y descubrir sus
respectivas especificidades constructivas; así como sus mitos de origen. Por
medio de él nos encontraremos con geometrías "exóticas” apreciadas hasta hoy
con una mezcla de perplejidad y menos precio y trazaremos un nuevo rumbo para
la Ciencia.
> Metodología
En el proceso de presentación de los dos sistemas matemáticos se hará uso del
Principio de Relatividad y del Principio Antrópico.
El Principio de Relatividad, que Galileo Galilei fue el primero en vislumbrar, nos va
permitir colocarnos, alternativamente, en cada uno de esos espacios para mirar el
mundo desde uno u otro, reconociendo factores que no dependen de cada
observación y haciendo deliberado uso de un proceso transformativo. Relatividad
es, por tanto, comunicación entre esos sistemas de referencia dotados de su
propio movimiento.
El Principio Antrópico, que legitima el conocimiento de aquello que es difuso, por
alejado en el tiempo, no a partir de establecer sus hipotéticas características
iniciales, sino de valorar retrospectivamente lo que nos muestra su actual estado
de evolución, hará posible "resucitar” el carácter científico de geometrías tenidas
hasta hoy como un producto exótico y, como ya dijimos, aceptadas con una
mezcla de perplejidad y menosprecio.
Introducido en 1961 por el físico usamericano Robert Dicke, el principio constituye
una manera alternativa de obtener una respuesta a la gran pregunta: ¿por qué el

4
Universo es como es? La respuesta convencional, deductiva, va por la línea de
especificar unas probables condiciones iniciales del universo y, con base en las
leyes de la Física, predecir los estados evolutivos subsiguientes. La respuesta
antrópica es, en contraste, inductiva y se resume en la expresión: el universo es
como es por que existimos nosotros; en otras palabras, la existencia de seres
capaces de preguntarse por el origen del Universo reduce dramáticamente el
número de posibles escenarios evolutivos de éste, a aquellos que desembocan en
la aparición de la vida inteligente y, más restrictivo aún, a aquella variante que
conduce inevitablemente al surgimiento de la vida humana. En el caso del método
deductivo, el pasado explica al presente. En el caso del método inductivo, el
presente explica al pasado. Como si los efectos se tornasen causas, el principio
antrópico invierte la dirección del tiempo. Las ventajas que presenta frente al
método deductivo son ciertamente importantes, ya que este último es mucho más
complicado de aplicarse en la explicación de la cosmogénesis, en vista de que no
se conoce el estado inicial del universo ni existe seguridad sobre el
funcionamiento primigenio de las regularidades físicas. Es decir que, ante una
situación de alta incertidumbre sobre el pasado, el principio antrópico legitima una
búsqueda a partir de las condiciones reconocidas del presente. De hecho, las
exploraciones que se llevan a cabo en la genética mitocondrial1 para establecer
algunas conclusiones sobre la evolución humana, en abierta divergencia con la
paleo-antropología, pueden considerarse como una aplicación no denunciada del
mismo principio.*

'El año 2002 marcó el cuarenta aniversario del nacimiento de la Antropología Molecular.
Esta disciplina se constituyó gracias a la utilización de las técnicas provenientes de la genética
molecular. Su primer objetivo es datar la aparición del primer linaje humano y las diferentes etapas
de su evolución basándose, ya no en fósiles, sino en el análisis del ADN mitocondrial. Fueron Emile
Zuckerkandl y Linus Pauling los primeros en concebir la idea de utilizar la biología molecular para
estudiar la evolución, después de haber establecido que el hombre y el chimpancé están más
cerca, genéticamente, que el chimpancé y el gorila. Los genetistas han concentrado sus esfuerzos
en la datación de dos acontecimientos evolutivos importantes: la aparición del linaje humano y la
de los primeros hombres modernos.

5
Así, entonces, siendo muy difícil o imposible disponer de información sobre el
discurso de las matemáticas de las Américas precolombinas, se puede tratar de
entenderlas con ayuda de las matemáticas de hoy que limitan el diapasón de sus
posibles interpretaciones. El autor de este libro, aplicando este método logró
reducir las posibilidades a UNA.
Finalmente se debe destacar que, la clave del buen uso del principio consiste en el
empleo combinado de los dos métodos, aprovechando de su condición
complementaria, y no en el manejo unilateral y extremado de los mismos.
Además, se considera al conocimiento como lo que resulta de la actividad psíquica
que se produce cuando el ser humano interacciona con el entorno y consigo
mismo, bajo la actitud de conocer. Por tanto éste es susceptible de ser investigado
de manera histórico-universal y abstracta; es decir, prescindiendo de los
procedimientos cognoscitivos particulares, de los que se dispone, tanto fuera
como dentro de la ciencia y aceptando que el objeto inmediato del conocer es sólo
la idea, imagen o representación del objeto concreto. El espacio donde tiene lugar
el acontecimiento de la representación es lo que hemos llamado E.M.R.
Se trata, por tanto, de ver si la imagen corresponde homomorfamente al objeto-
proceso concreto que se investiga y conoce y que acaece fuera de la conciencia.
Dicho de otra manera, de lo que se trata es de construir un símil o análogo o
modelo matemático. La actividad denominada "realidad virtual" es un ejemplo de lo
manifestado.
En estricto apego a la definición que hemos dado de E.M.R. debemos decir que el
único conocido al momento es el que ha desarrollado la Civilización Occidental
con aporte Oriental en sus orígenes, el E.M.R.Occ. Por tanto, lo que vamos hacer,
para poder ver en que consistió el Espacio Matemático de Representación Andino
Precolombino (E.M.R.An) es, ponernos en la perspectiva del E.M.R.Occ. y, luego
de estudiarlo, invertir la mirada, para esta vez observarlo desde el E.M.R.An, pero
con nuevos ojos.
Para lograr lo indicado es menester previamente recordar, en sus grandes jalones,
la historia evolutiva de la conformación de los dos espacios en estudio, siguiendo
la huella dejada por la epísteme matemática.

6
Con este propósito, en la primera parte se relata el origen y desarrollo del
E.M.R.Occ. Comenzando con su nacimiento del vientre agrícola, pasando por su
apogeo y frenético esplendor, hasta su ocaso y crisis final, pero dejando entrever
la posibilidad de la configuración de un nuevo E.M.R. que permita a la especie
humana sortear las difíciles condiciones y circunstancias de la difícil travesía que
le tocará vivir durante el siglo XXI, cuando el estado climático y social del planeta
se vuelva turbulento y global; ahí cuando el E.M.R.Occ. ya no será útil por sí solo.
En la actualidad este espacio se encuentra en pleno colapso; sin embargo, se
espera que entre en una sensata reestructuración si los científicos que lo operan
aceptan que éste no tiene carácter absoluto como lo habían supuesto, ya que sólo
puede representar los procesos laminares con una buena resolución predicativa y
revelar la estructura exterior de los sistemas; pero, es incapaz de hacerlo con los
procesos turbulentos y discretos. Se conoce que Werner Heisenberg ( 1901-1977),
poco antes de morir musitó que, estaba listo para preguntarle a su Dios el porqué
de la relatividad y el porqué de la turbulencia y que abrigaba la certeza de obtener
respuesta sólo al primer interrogante.
El relato de la historia evolutiva del EMROcc continúa con Euclides. Desde que él
lograra axiomatizar la geometría de las figuras planas ésta ha evolucionado a la
par y en correlación con el conjunto de los números, hasta constituirse como una
totalidad sistémica. El espacio euclidiano, como llegó ha llamarse, es por
nacimiento y por naturaleza puntiforme. Esto quiere decir que su unidad
estructural geométrica es el punto. El punto es un objeto indivisible, ya que no
posee partes; es el producto final del proceso de fraccionamiento infinito de un
segmento de recta; es un ente sin extensión y es fiel imagen abstracta del átomo
griego, concepto que ha venido vertebrando a la ciencia occidental a lo largo de su
historia. El punto es un ente trascendente, no se parece en nada a objeto alguno
del mundo real, es totalmente abstracto; y como no tiene extensión, la escala no lo
afecta, es independiente de ella; se mantiene idéntico a sí mismo sea cual sea
ésta.
Fue así, entonces, cómo al comienzo surgió el espacio vacío, carente de
elementos hasta el momento en que advino la Agricultura y sembró, de manera

7
discreta, los primeros componentes en el desolado escenario, en estricta
correspondencia con las regularidades provenientes de figuras generalmente
planas; pues, fueron extensas cuencas hidrográficas y marítimas las que
prodigaron tal escenario que les valió como plataforma de despegue a sus
grandes éxitos, pero también a sus deplorables locuras y desaciertos.
Haber vuelto operable el espacio plano significó para occidente dar el primer gran
paso en la construcción del espacio de representación que le es culturalmente
correspondiente.
El siguiente y final componente lo creó R. Descartes; quién, con el espacio
euclídeo completamente desarrollado en sus manos, estuvo en condiciones de:
dibujar en él un Sistema Coordenado de Referencia Ortogonal, eligiendo
arbitrariamente el punto que servirá como centro de coordenadas y signándolo con
el número cero. La necesidad histórica, en los tiempos de Descartes, de disponer
de un sistema de referencia absoluto que sirva de ordenador, explica por qué la
concepción iluminada de dicho sistema tuvo íntima relación con la geometría del
sagrado símbolo cristiano: la cruz.
De esta manera quedó concluida la construcción del Espacio de Matemático
Representación Occidental. Ahora, por primera ocasión, occidente disponía de un
dispositivo intelectivo con la prodigiosa propiedad de revelar la forma del
movimiento de un sistema de partículas dado. Como por ejemplo el sistema Solar
ó más simple aún el sistema Luna-Tierra, en el cual, para estudiar sus trayectorias
tendremos que, por exigencia inapelable, considerar a los planetas como si fuesen
puntos matemáticos, sin estructura interna, tal como exige el espacio de
representación utilizado.
Valiéndose de este artificio reduccionista, fue como Isaac Newton fundó la
Mecánica Clásica. Ciencia que llegaría a cristalizarse, como si fuese un diamante
de elegante factura, en las llamadas: Ecuaciones Canónicas de Hamilton y que
habría de impulsar el desarrollo y la modelación de los distintos rostros de la
Sociedad Mecanística en el planeta Tierra.
El Sistema del Mundo, que como consecuencia hizo aparición, reinó con carácter
absoluto, cual si fuese doctrina de la monarquía, durante más de 200 años. A.

8
Einstein se vio obligado a relativizarlo, de manera generalizada y para cualquier
sistema de referencia espacio-tiempo, debido a que no fue capaz de explicar el
resultado negativo del experimento Michelson-Morley.
Acto seguido, casi sin darle respiro al espacio de representación reformado, brotó
en su propio interior, la Mecánica Cuántica, como un artilugio algebraico que
permitía prescindir de cualquier sistema de coordenadas espacio-tiempo para dar
cuenta de los fenómenos atómicos de manera satisfactoria y en estricto apego a la
verificación experimental. Como consecuencia, se produjo un sinsabor
epistemológico que atormentó las almas, tanto de los investigadores del
microcosmos como las de los científicos bio-sociales, que no se sintieron
satisfechos, debido a que el discurso científico se veía reducido a una suerte de
representaciones disyuntivas, ambivalentes, paradógicas e indecidibles.
Insistiendo, con el sincero afán de conciliar tan dispares teorías (Teoría general de la

relatividad y Mecánica Cuántica), la una geométrica y la otra algebraica, E. Hawking, en


esfuerzo supremo, logra una "unificación inesperada”: él que había apostado por
la existencia de los agujeros negros, basándose en la demostración de las
singularidades, terminó, a la postre, negándoles la condición de inobjetable
certeza. Comunica, a sus motivados seguidores, que los huecos negros no son
tales, que se evaporan y que no se precipitan de manera inexorable hacia un
hueco, hacia una singularidad, hacia una infernal anomalía de la realidad.
Estos resultados revivieron la vieja esperanza de Einstein manifestada en la carta
dirigida a Wolfang Pauli en 1948: «La descripción completa no podría limitarse a
los conceptos fundamentales que se emplean en la mecánica del punto. Le he
dicho más de una vez que soy un partidario acérrimo no de las ecuaciones
diferenciales, sino del principio de relatividad cuya fuerza heurística nos es
indispensable»
Así es como, en abril de 1997, el físico francés Laurent Nottale anuncia que la
Teoría de la Relatividad de Escala generaliza el principio de relatividad de Einstein,
de tal modo que la T.G. R y la M.C. pasan a ser casos particulares de ésta y,
además, deja establecido que: los conceptos de relatividad de escala y de
espacio-tiempo fractal, junto al método de la covariancia de escala, han permitido

9
derivar las dichas ciencias de las leyes de escala más simples que puedan
construirse. Eliminando de manera definitiva la falsa controversia habida entre lo
que se decía del macro y del microcosmos.
Finalmente, hay que mencionar que el año 1986 el brillante físico usamericano
Edward Witten introdujo por primera vez un cambio sustancial en el espacio de
representación: cambió el punto-límite por la "cuerda” y obtuvo un peculiar espacio
que le sirvió para formular su Teoría de Supercuerdas, que nos da cuenta de los
últimos esfuerzos hechos en pos de lograr la gran unificación de las cinco fuerzas
fundamentales de la naturaleza (eléctrica, magnética, nuclear débil, nuclear fuerte y gravitatoria)

Sin embargo, debo manifestar que el nuevo espacio no es más que el mismo de
puntos, sólo que agujereado (ver recuadro 2 )

La caracterización del EMROcc que se deriva de esta historia es la siguiente:


1) El E.M.R.Occ., al estar constituido por puntos-límite, adquiere carácter
trascendente, infinito, abstracto y sitúa al científico fuera del mundo. Esto le coloca
por encima del objeto que conoce y hace que asuma la condición del dios del
génesis.
2) A esta clase de espacio se lo llamó Analítico, para indicar que es diferenciable.
Este es el espacio que se opera mediante el cálculo diferencial e integral. Las
funciones que le caracterizan se las calcula mediante la resolución de las llamadas
ecuaciones diferenciales.
3) Debido a esto las trayectorias espacio-tiempo de las partículas son descritas
bajo la condición inapelable de estar reducidas a puntos-límite. Esta necesaria
operación hace que la incidencia del aspecto cualitativo de ellas no influya en sus
trayectorias, logrando de esta manera una representación cuantitativamente pura.
4) Por tanto, el E.M.R.Occ. es apropiado para describir y predecir los cambios de
posición que acontece en los sistemas de partículas y tan sólo revela su estructura
externa y su cuerpo cuantitativo.
5) Bajo la misma razón, el E.M.R.Occ. es ideal para la modelación matemática de
sistemas deterministas.
6) Consecuentemente, es totalmente apropiado para estudiar el funcionamiento de
los sistemas mecánicos.

10
7) El EMROcc es deductivo por excelencia. En el segundo capítulo, así mismo, se
relata la historia evolutiva del E.M.R.An, haciéndolo estrictamente apegado a la
información que disponemos hasta el momento.
A diferencia del anterior, el Espacio Andino de Representación tiene como unidad
estructural geométrica al cuadrado en lugar del punto-límite. Este espacio nació,
creció y fructificó antes de la invasión y se ocultó durante el período de la barbarie
y la esclavitud.
El pensamiento Matemático Andino Precolonial entra en escena en calidad de
resucitado. Su renacimiento comienza con el descubrimiento del Geoglifo Estelar
de las Salinas del Chao, situado en el Noroccidente peruano, por el arquitecto
Carlos Milla Villena; quién, con atenta mirada, lo encontró en la fotografía aérea
SAM N° 680-Proyecto 104 1942, en el año de 1976, historia que nos cuenta en su
libro Génesis de la Cultura Andina. El geoglifo está asociado a un complejo
ceremonial, conformado por estructuras rituales correspondientes a las épocas IV
y V del Precerámico Tardío y consta principalmente de cuatro basamentos pétreos
que reflejan proporcionalmente la constelación de la Cruz del Sur.
La Universidad Católica de Lima realizó el fechado por medio del radio carbono,
obteniendo que la fecha en la que se construyó el complejo fue el año 1900 a.C.
Más tarde, el análisis geométrico reveló que se trataba de un observatorio
astronómico construido mediante el método matemático-geométrico de la Cruz
Cuadrada. Este peculiar sistema matemático tuvo ampliada aplicación y extendida
aceptación por parte del Hombre Andino y Americano. El autor nos asegura que a
éste le sirvió como Sistema Operativo de Medidas, a modo de un gran atractor a
cuyas pautas geométricas debió necesariamente estar referida toda medida, todo
símbolo, todo diseño y toda organización espacial, cronológica y social.
Carlos Milla, en su libro Génesis de la Cultura Andina, se propone mostrarnos las
evidencias y la metodología empleada para probar la existencia, en el mundo
andino de hace 4.000 años, de un Sistema Proporcional de Medidas, de un
genuino sistema matemático, típico de los Andes y, que, por extensión lógica, llegó
a ser de todas las Américas. El peculiar espacio, de carácter fractálico, surgido en
los Andes Tropicales, sirvió para modelar los diversos rostros de la Sociedad

íi
Organísmica en el planeta Tierra, ya que evolucionó siguiendo las pautas, los
ritmos y los estertores de la Naturaleza.
Los aspectos que se observa que caracterizan al EMRAn son:
El EMRAn es inductivo.
Es finito y concreto.
Es apropiado para representar funciones discretas o sea curvas fractales
discontinuas.
Finalmente, en el tercer capítulo, se explora y se estudian las sorprendentes
implicaciones que brotan como cohorte de flores de variados colores luego de
tomar plena conciencia del descubrimiento realizado, el EMRAn.
En lo que se refiere al título del libro debo decir que alude a los dos núcleos
civilizatorios donde nacieron las matemáticas en sus dos cuerpos constituyentes:
las matemáticas del infinito proveniente del Viejo Mundo y las matemáticas finitas
oriundas del Nuevo Mundo. Las primeras deductivas y las segundas inductivas.
Las deductivas privilegiaron el desarrollo del hemisferio izquierdo del cerebro y las
inductivas el del derecho. Abstractivos se volvieron los humanos de allende el
océano Atlántico, sensitivos se hicieron los humanos de acá de las américas.
En la elaboración del texto he usado la información proveniente de autores
ampliamente reconocidos en cada uno de los tópicos tratados, cuya bibliografía se
presenta al final. Lo único que el autor ha hecho es seleccionar y organizar dicha
información poniéndola en función del objetivo previamente establecido: describir
el proceso evolutivo de los espacios matemáticos de representación de las dos
grandes civilizaciones habidas, la del Viejo y la del Nuevo Mundos. El autor,
además, introduce por primera vez el concepto de E.M.R., que nos permite
rastrear a la epísteme matemática a lo largo de su historia evolutiva.

Marcos Guerrero Ureña


Quito-Ecuador, 21 de marzo de 2003

12
PRIMERA PARTE

Acerca de cómo se originó y cómo se desarrolló el Espacio


Matemático de Representación de la Civilización Occidental

13
1.1 Fase Antigua

1. 11 El nacimiento de la Geometría en el antiguo Egipto

«Dos grandes fuerzas, el río Nilo y el desierto circundante, dieron forma a una de las civilizaciones más
duraderas del mundo. Cada año el río inundaba sus bancos y depositaba una capa fresca de tierra fértil en los
terrenos anegados, lo que inspiró a los egipcios a llamar a esta región kemet, la tierra negra. Este predecible
ciclo de renovación nutría los campos de los agricultores, llenaba los graneros reales y mantenía una
teocracia, encabezada por un rey con conexión divina, o faraón, cuyos conceptos básicos se conservaron
firmes durante más de tres milenios»
NATIONAL GEOGRAPHIC, Abril de 2001

De hecho, la agricultura fue la actividad humana que inició y modeló la gran


revolución neolítica y el arado el dispositivo tecnológico que la potenció.
Con la irrenunciable decisión de dejar atrás la etapa paleolítica o edad de la
piedra, la especie humana se abrió camino a través de una fase intermedia que le
permitió comenzar una adaptación lo suficientemente robusta para entrar de lleno
en la edad de la agricultura. Por ejemplo, en Monteverde en el sur de Chile y en
Siria hace 15.000 y 8.000 años respectivamente, los primeros cultivadores
realizaron notables experiencias y avances en el cultivo de huerto, al tiempo que
cazaban y recolectaban. Es natural que la especie se haya tomado el tiempo
suficiente para poder sobreponerse al carácter dominante del anterior período y
superar los 100 mil años que duró la etapa de expansión, en la que el hombre
llegó a los más importante lugares del planeta, para comenzar a cultivar y a
construir la civilización.
Y así fue como en el período de hace 10.000-6.000 años, surgieron en el Antiguo
Mundo las tres más antiguas civilizaciones gracias a la creciente disponibilidad del
excedente agrícola. Ellas brotaron en los valles de grandes ríos como: el del Tigris
y Eúfrates en Asia Occidental, el del Nilo en el norte de África y el del Indo en el
sur de Asia.

14
El trigo fue la principal gramínea que dio forma y sostén al régimen agrícola que
se desarrolló a lo largo de la gigantesca y feraz cuenca del río Nilo durante el
período 3100-332 a. C. Este régimen, que apenas comenzaba a crecer, se vio
enfrentado a su más grande obstáculo y desafío: las riadas del Nilo, las cuales
anegaban los terrenos de cultivo. Por un lado, les proveían a los egipcios, en
abundancia y con máxima generosidad, de los nutrientes arrancados por las
aguas desde el corazón tropical del África negra y por otro, les borraba los límites
de las propiedades agrícolas y desataba peligrosos conflictos sociales que a la
postre se transformaron en un obstáculo insalvable para el progreso. Lo benigno y
lo maligno, lo conveniente y lo perjudicial, el día y la noche, Oriente y Occidente
(en el mundo simbólico de la tradición faraónica, la orilla oriental del Nilo estaba asociada con la vida y la
occidental con la muerte, razón por la que Necrópolis fue mandada a construir en el Valle de los Reyes,

situado en la margen occidental del río) He aquí los dos extremos del escenario que sirvió
para que la Civilización Egipcia haya tenido su Nacimiento, su Cúspide y su
Ocaso.
Dadas estas condiciones, es correcto pensar que las demandas de reposición de
los hitos, a las que el Estado egipcio debía atender después de cada inundación, a
fin de restablecer el funcionamiento del sistema tributario y subsanar los conflictos,
hayan sido de magnitud creciente año tras año, a lo largo de miles años de
agricultura y al ritmo del crecimiento demográfico y de la colonización de la
cuenca.
Fue el cálculo de superficies, basado en la observación, registro, sistematización y
generalización de las propiedades de las figuras geométricas planas, la respuesta
a la persistente necesidad de reconstruir el amojonamiento que fijaba los límites
de las propiedades agrícolas (ver recuadro 3) Los encargados de la restitución de los
linderos eran los inspectores territoriales, llamados “extendedores de cuerdas”
pues utilizaban cuerdas con nudos dispuestos a intervalos regulares, en calidad de
señales. Estos primitivos agrimensores, guardianes celosos de las propiedades
geométricas encontradas mediante su imparcial trabajo, fueron transformándose,
poco a poco, en funcionarios estatales y sacerdotes, llegando finalmente a ser
miembros de la alta jerarquía social y política del estado, el propio faraón era

15
considerado como el sumo sacerdote. Ellos atesoraban y veneraban las
generalizaciones alcanzadas para salvaguardia de la justicia; pues, solo así,
pudieron ganarse la confianza de los agricultores y del resto del pueblo y
mantenerla, a lo largo de las edades, como una ofrenda generosa de la Divinidad
para felicidad de los hombres; pero, a cambio aceptaron soportar su
omnipresencia inmutable y escrutadora. En el curso de este proceso debieron
haberse percatado de que las figuras geométricas idealizadas existían en variedad
incontable, también de que un segmento de recta puede fraccionarse
indefinidamente (ver recuadro 4 ) y de que un polígono regular convexo inscrito en un
círculo, al dividirse infinitamente sus lados, llegaba a ser la circunferencia de
dicho círculo. Entonces fue cuando se encontraron con la noción de infinito y lo
identificaron con Dios, como el creador invisible que contiene al mundo creado, y
desde ese momento elevaron al nivel de reflexión teo-lógica todo aquello que
estuviere relacionado con la infinitud. Así, el infinito geométrico con el espacio y la
inmortalidad o eternidad con el tiempo. Es notable que este vínculo religioso en el
nacimiento de la geometría haya sido lo que condujo a la aparición de esa visión
geométrica del universo, tan característico del pensamiento griego y tan propia de
la teoría de la relatividad. Fueron los sacerdotes de Abusir y de On-Helióplis, los
primeros en concebir a todo objeto del mundo circundante como provisto de una
forma esencial y calculable.
Ahora comprendemos cómo la imperiosa necesidad de medir los terrenos de
cultivo, para sostener la vida social, condujo, a la postre, al nacimiento de la
geometría del espacio vacío. Ciencia que estudia a las figuras geométricas en
estado estático, condición en la que el espacio (recipiente que contiene todas las cosas que

existen) no ejerce influencia sobre la rigidez de los objetos geométricos, estos


permanecen sin deformarse.
De la matemática egipcia se conoce gracias a dos papiros auténticos que datan de
los años 2000-1788 a. C. Ambos documentos han sido bautizados con los
nombres de sus primeros propietarios; así, el papiro Golenischev, que es el más
antiguo y que se conservaba en algún museo en Moscú, contiene una colección
de 28 problemas, cuyas reglas de resolución coinciden con las que aparecen en el

16
otro papiro, el que le perteneció al escocés A. Henry Rhind y que fue encontrado
en las ruinas de un pequeño edificio en el antiguo Tebas.
En el primero, los problemas que se destacan son, el del cálculo del volumen de la
pirámide cuadrangular truncada que nos recuerda la fórmula V=(h/3)(a2+ab+b2)
(donde h es la altura y a, b las longitudes de los lados de los cuadrados de la base y del techo de la pirámide)

y el del cálculo del área de un cesto, que nos entrega un valor para n igual al
cuadrado de 16/9 =3.16049...ó lo que es lo mismo: Area=[(8/9)d]2, donde d es el
diámetro.
En contraste, en el papiro de Rhind uno encuentra un auténtico manual práctico de
matemáticas que nos revela cómo hacían los antiguos egipcios para medir, contar
y calcular. Este manual, el más antiguo del mundo, constaba originalmente de 14
hojas y fue escrito en el cuarto mes de la estación de inundaciones del año 33 del
reinado del faraón Apofis ( 1700 a. c .) por el sacerdote egipcio Ahmés (?1800- a. c .),

hombre modesto y sincero, que introduce su escrito manifestando que es copia


textual de un documento aún más antiguo fechado entre 1849-1801 a. C. Pero, lo
que sí es imposible saber es la fecha de origen del contenido; pues, Amhés no nos
confiesa si el documento del cual copió fue, a la vez, copia de otro. Quizás por
esto lo tituló: Orientaciones para conocer todas las cosas oscuras.
En el papiro Rhind constan 85 problemas que nos muestran, el uso de fracciones,
la resolución de ecuaciones simples y de progresiones y la medición de áreas y
volúmenes; esta última constituye la materia central del texto. Así, el autor calcula
áreas de triángulos, trapezoides, rectángulos y círculos y volúmenes de cilindros y
prismas.
En lo que se refiere al contenido aritmético del papiro, en la primera sección del
texto se presenta una tabla en la que se divide 2 para los números impares, desde
2/3 hasta 2/101. Para el 2/3 usaban un signo especial, mientras al resto de
fracciones las expresaban como la suma de fracciones de la unidad. Por ejemplo,
3/4 se escribía: 1/2 y 1/4, 2/61: 1/40, 1/244, 1/488 y 1/610, donde la coma expresa
la operación de suma. Señalemos que este modo de escribir lo heredaron los
antiguos matemáticos griegos; por ejemplo, Arquímedes escribía 1/3=1/2,1/4 y
Herón, 31/51=1/2,1/17,1/34,1/5. De aquí podemos colegir que, la aritmética

17
egipcia era básicamente aditiva: las multiplicaciones y divisiones se reducían a
ejecutar una serie de sumas y restas, tal como lo hacen las calculadoras digitales
de hoy en día.
Puede apreciarse que los resultados geométricos son más admirables que sus
soluciones aritméticas. Esto resulta comprensible ya que en el Egipto antiguo la
geometría era la actividad matemática dominante, por las causas ya indicadas. El
otro factor ha tenerse en cuenta se refiere al sistema de notación, el cual se
mantuvo sin progresar por mucho tiempo, fue muy rudimentario, tosco y de difícil
manejo; demasiado denso para el propósito de elevarse por la vía de la
abstracción.
Es necesario manifestar, aunque muy brevemente, que por aquellos tiempos y a
diferencia de los egipcios, los pueblos mesopotámicos ya habían alcanzado un
grado de simplificación y refinamiento exquisitos en la simbología, lo que les
posibilitó hacer grandes progresos en Aritmética. Por ejemplo, en el texto
cuneiforme "VM 85194”, se pueden leer problemas relacionados con: trabajos
agrícolas, presas, terraplenes, posos y relojes de agua. Todo esto proveniente del
acto práctico de medir superficies agrícolas, de pesar las cosechas, de predecir
los ciclos estaciónales, etc. Práctica que, asimismo, fue haciéndose más compleja
a tenor de la expansión de la sólida agricultura desplegada en las ricas tierras
irrigadas por los ríos Tigris y Eúfrates. Tierra del paraíso, donde Yahvé tomó un
poco de limo, transportado por el Tigris desde las montañas de Armenia, para
esculpir a Adán, el primer agricultor.
A diferencia de lo ocurrido en Egipto, la medición sumeria, tanto la de superficies
agrícolas como la de pesos, se hacía en función de granos y no mediante cuerdas
anudadas. Lo que evidentemente supone que esas ricas tierras poseían un
rendimiento uniforme. A la vez, esto nos indica que se produjo una profunda
transformación de la utilidad que venían dándoles a los cereales, una decidida
abstracción del contenido del grano, la cual deja ver a éstos por el camino que
conduce a la noción de punto y por ende al concepto griego de átomo.
Antes de que los sumerios inventaran la escritura hace unos seis mil años, en Asia
Occidental se llevaban las cuentas mediante fichas de arcilla de diverso formato

18
distintivo. Al principio, fueron unas bolas huecas de arcilla que contenían fichas
con las cuales designaban la cantidad de los bienes; más tarde, estas fichas se
imprimieron en la superficie de la bola, luego ésta se aplanó y finalmente se
trasformó en las conocidas tablillas. Fue entonces cuando, para representar el
número de bienes, el cálamo de caña sustituyó a las fichas y también fue cuando
se disociaron los símbolos que designaban a la cantidad de los que designaban a
la calidad. Muchos arqueólogos están convencidos de que estas fichas fueron las
que dieron origen a los ideogramas sumerios. Ya a finales del cuarto milenio a. C.
protosumerios y protoelamitas poseían sistemas de numeración y medidas bien
desarrollados, entre los que se contaba un antepasado del actual sistema decimal.
Fue así entonces cómo los egipcios llegaron a las matemáticas preferentemente
por medio de la geometría y los pueblos mesopotámicos preferentemente a través
de la aritmética. Los primeros obligados por la práctica agrícola y los segundos
determinados por la actividad mercantil.
No obstante lo hasta aquí indicado, cabe mencionar que existen algunas versiones
con apreciaciones generales sobre el origen de las matemáticas en el antiguo
Egipto en los escritos de Heródoto y otros viajeros griegos de la época.
Así por ejemplo, el "padre de la historia” nos dice del faraón Sesortris: «Este rey
dividió la tierra entre todos los egipcios de tal manera que cada uno recibiera un
cuadrilátero del mismo tamaño y que él pudiera obtener sus rentas de cada uno,
imponiendo una tasa que debía ser pagada anualmente. Pero todo aquel de cuya
parte el río hubiera arrastrado algo, tenía que notificarle lo ocurrido; entonces, él
enviaba a supervisores que debían medir en cuánto había disminuido la tierra
para que el propietario pudiera pagar de acuerdo con lo que le restaba, en
proporción a la tasa impuesta. De esta forma me parece que se originó la
geometría, que luego pasó a Hellas»
Más tarde, Platón (426-348 a. c .) nos cuenta en el Fedro que: «En la ciudad egipcia
de Naucratis había un famoso dios antiguo cuyo nombre era Theuth, a quien
estaba consagrado el pájaro llamado Ibis, y era el inventor de muchas artes tales
como la aritmética, el cálculo, la geometría, la astronomía, el juego de damas y los
dados, pero su gran descubrimiento fue el uso de las letras. »

19
Por su parte, Aristóteles (384 -322 a. c. ) se pronunció sentenciando irónicamente que
las matemáticas egipcias se originaron porque la clase sacerdotal tenía el tiempo
suficiente para dedicarse a su estudio.
De lo citado se desprende que los sacerdotes egipcios y mesopotámicos ya
habían acumulado una gran riqueza de resultados geométricos y aritméticos
mucho antes de que los primeros viajeros griegos se encontraran con las
matemáticas. Pero estos conocimientos, no revelaron sus maravillosos secretos ni
mostraron su naturaleza interna, hasta que la aguzada mente de los griegos se
apercibió de ellos. Y, además, queda establecido que la Civilización Egipcia fue la
sociedad del Viejo Mundo donde nació la Geometría por primera vez.
Condensando lo que hasta aquí hemos revisado, podemos decir que este largo
proceso de iteración continuada de la práctica agrícola, determinó que los
primeros geómetras fueran registrando y sistematizando las diversas propiedades
que iban encontrando mientras reconstruían las figuras geométricas planas; todo
esto, como ya hemos dicho, con el decidido afán de restaurar los límites de las
propiedades agrícolas cada vez con más eficacia. Por lo que, el Saber que fue
construyéndose llegó a constituir la base orgánica primordial del orden social y
político. Se transformó en las raíces mismas de la sociedad egipcia. No podían
prescindir de él so pena de que se derrumbase todo lo establecido, todo lo
alcanzado, todo lo soñado y viniese, en su lugar, la guerra, el hambre y toda clase
de penurias. Este saber, logrado por medio de la sistematización y la
generalización, dio origen a un proceso de abstracción cada vez más amplio y
diverso. Se propagó por todos los ámbitos de la actividad humana, desde la
geometría y la religión hasta la estructura del Estado y las clases sociales,
pasando por la arquitectura y demás artes y ciencias como la astronomía y la
medicina. Llegó a ser el alma de la población; pues, en él habían depositado su
confianza inmortal debido a que descubrieron que era el único verdadero por ser
inmutable y eterno. Estaba constituido por todo aquello que es común a todos, era
el Universal, era Dios.
Ahora bien, como la generalización es un proceso abstractivo los geómetras
egipcios debieron haberse percatado de que algunas propiedades de las figuras

20
geométricas eran comunes sólo a una cierta clase de ellas; por ejemplo, los
ángulos internos de todo triángulo rectilíneo suman dos rectos ó todos los
triángulos que son semejantes tiene sus lados respectivamente proporcionales;
aquí, la primera es más general que la segunda. Luego debieron haber elaborado
una taxonomía, a fin de establecer los grados de generalidad de las propiedades.
Alcanzado este estado habrán podido contemplar que, en el horizonte de este
proceso de abstracción, debía haber un conjunto de propiedades que eran
comunes a todas (infinitas) las figuras geométricas, a partir de las cuales, y yendo
en sentido contrario, se derivarían todo el resto mediante el razonamiento lógico,
que llegó a denominarse: Deductivo. También surgió por primera vez la distinción
entre lo intangible y lo sensible y con ella la idea de que sólo lo intangible es real,
puesto que es permanente y perfecto, mientras lo sensible es aparente, engañoso,
defectuoso y perecedero.
Como puede verse, los antiguos geómetras utilizaron la estrategia de: establecer
lo que es común a todos los conjuntos de objetos considerados, de tal manera que
el proceso nos lleve, convergentemente, a obtener en el límite el conjunto de
propiedades mínimo posible (a imagen y semejanza de las pirámides; esto es, partiendo de la base

y terminando en la punta, mediante un ascenso continuo) Como lo sabemos, este conjunto fue
encontrado por Euclides (? 330-275 a. c .) de Alejandría, siglos más tarde.

1.1 2 Aquenatón y el monoteísmo


El faraón Amenofis III, Rey del Alto y Bajo Egipto, Nebmaatra, Hijo del Sol, terminó
su reinado en el año 1375 a. C. Había gobernado el imperio por casi cuarenta
años de plena prosperidad. Su autoridad se extendió más allá de las fronteras de
Egipto: por el sur, hasta Sudán, y por el este, hasta Palestina, Siria y la frontera
con Mesopotamia.
Después de su muerte, su hijo y sucesor Amenofis IV o Akenatón, se propuso dar
el "paso trascendental” en el proceso de abstracción que hemos señalado. Esto
es, se dispuso a encontrar, el límite en el infinito. Establecer contacto con lo que
es común a todo lo existente, lo que contiene al Mundo, aquello que solo es
inteligible; es decir, Dios. Según el recto razonar geométrico, esto equivale a

21
contestar la pregunta ¿de qué se componen los lados de todas las figuras
geométricas, una vez que han sido idealizadas desde las cuerdas con las que
medían los linderos de los terrenos de cultivo?. La respuesta será: éstas se
componen de unidades últimas, indivisibles, sin extensión ni interior, que son
producto final de un proceso infinito de fraccionamiento al que se ha sometido a la
cuerda idealizada (ver recuadro 4 ) Trasciende pues, lo concreto y es, por tanto, ajeno
al mundo exterior, solo existe en la mente, a la que la constituye y permite que el
alma se separe del cuerpo y que el hombre se extrañe del mundo sensible, de la
naturaleza. Llegó a llamase punto y se convirtió en la unidad estructural del
Espacio Matemático de Representación de Occidente (E.M.R.Occ)
Inmerso en esta estructura lógica Aquenatón se preguntó finalmente: ¿qué es lo
que de común tienen todos los dioses existentes? (Algunos de ellos representaban a los
grandes objetos de la naturaleza, como el Cielo, el Sol, la Luna, la Tierra y, otros, a la Verdad, a la Justicia, a
la Belleza, al Orden, etc.) La respuesta a este gran interrogante está contenida en el
poema de uno de sus himnos, que tal vez él mismo lo escribió: «Glorioso
apareces en el horizonte del firmamento Oh, Atón viviente, creador de vida [...]
¡Oh único dios, sólo tú eres dios! Creaste la Tierra, según tus designios [...] Te
llevo en mi corazón, y nadie te conoce mejor que tu hijo»
Así fue como Aquenatón elevó a Atón por sobre todos los dioses del panteón
egipcio, incluyendo al omnipotente Amón, que había reinado en Tebas como rey
de los dioses, durante muchos siglos. Atón, el único y verdadero Dios, se
comunicaba con él y su familia a través del Sol, y se expresaba por medio de la
palabra, la cual era escuchada en su interior, como puede apreciarse en algunas
esculturas, de hermosa factura, que se encuentran en el Museo Egipcio de Berlín.
Hay que recordar que el Sol cumplía la función de intermediario ya que era el
objeto más poderoso de todos cuantos conocía Akenatón y, lo que es más
importante: era dador de vida y esto lo identificaba con Atón, el máximo creador.
Viendo geométricamente, el disco solar era el círculo perfecto y su circunferencia
(que es el límite en el infinito de un polígono convexo regular inscrito) el lugar de contacto con El.
Akenatón, que significa "el servidor de Atón”, y su esposa, la bella y célebre
Nefertiti, impulsados por esta gran convicción teo-lógica, emprendieron una

22
temeraria y profunda revolución en el Estado Egipcio. Como para bien comenzar,
elevó a su mujer a la categoría de diosa al compartir el poder con ella, privilegio
que no mereció ninguna otra reina tiempo antes. Se adscribieron, conjuntamente
con su hijo Tutancamón, el título de Faraones del Sol, para indicar que la familia
real había llegado al mas alto grado de refinamiento y perfección.
Con gran vigor dio comienzo la transformación teológico-política. Ésta tenía que
ser lo suficientemente enérgica como para poder ir en contra de siglos de tradición
politeísta. Tenía que removerse todo aquello que impedía su realización. Lo
primero que hizo fue abandonar Tebas, bastión principal del antiguo poder
sacerdotal, para lo cual mandó a construir una nueva capital, en un lugar sagrado,
situado en la orilla oriental del Nilo, más cerca de On-Helíopolis que de Tebas, a la
que la llamó Aketatón, que significa "el horizonte de Atón”, a la que no tardó en
mudarse, para políticamente indicar a los sacerdotes de la oposición cual era la
dirección que se debía seguir bajo su mandato. Conocida hoy como Al-Amarna, no
impresiona por sus monumentos espectaculares, como en el caso de Karnak y
Luxor. Se ha interpretado su significado diciendo que la verdadera importancia que
la dio el faraón fue de carácter astronómico, ya que el lugar estaba ubicado justo
donde se puede recibir el primer rayo de luz que des punta en el horizonte
proveniente desde el Sol, justo el rayo que sale del punto de su circunferencia que
primero aparece. Con esto él avisaba que era el primer miembro del reino en
ponerse en contacto con Atón, el dios todopoderoso que se encontraba en el
"límite en el infinito”.
El escenario principal de estos dramáticos acontecimientos fue la sede misma del
poder real: Tebas, capital del reino situada a más de 500 kilómetros al sur del delta
del Nilo.
Durante el primer año de su reinado, las representaciones animales de la divinidad
fueron prohibidas: las cabezas de halcón y las de carnero, sobrepuestas a cuerpos
humanos, no las aceptaba como representaciones del nuevo Dios.
Con más energía y convicción decretó que las rentas de los demás dioses
egipcios fuesen abonadas a un solo tesoro, el del Sol. Como podrá suponerse,
estas drásticas medidas económicas tuvieron la esperada reacción de la clase

23
burocrática sacerdotal, principalmente de los de Amón-ra de Tebas, que habían
sido los usufructuarios financieros de más de un siglo de conquistas y despojo de
los pueblos vecinos.
A medida que el faraón se expresaba mediante decretos y obras, la oposición
crecía muy rápidamente y el descontento hacía presa de su pueblo. Este faraón
gobernó apenas por 17 años, y al poco tiempo de su muerte, ocurrida en el año
-1336, se restauró la antigua ortodoxia. Sus enemigos demolieron sus estatuas,
desmantelaron sus templos y se dispusieron a borrar, de los registros históricos de
Egipto, cuanta huella hayan dejado él y Nefertiti. Por lo visto, la heterodoxa pareja,
empujada por la pasión religiosa, puso al vasto y poderoso reino egipcio al borde
de la catástrofe.
No queda duda de que la gestión teológico-política, llevada a cabo por Akenatón,
constituyó la cúspide del desarrollo de la Civilización Egipcia, de ahí en adelante el
imperio comenzó a declinar. Pero también significa el nacimiento del monoteísmo
y su primer fracaso en el intento de instituirlo como el paso lógico y final del
proceso de abstracción al que me he referido.
Era de esperarse la reacción en contra por parte de la burocracia sacerdotal ya
que sus intereses económicos primaban por sobre los religiosos (como en el caso de la
pirámide, en que lo que está abajo sostiene lo de arriba), por lo que debió parecerles una total
locura la invitación a desprenderse de la tierra y colocarse fuera de ella y todo esto
por una necesidad de orden lógico no tan fácil de aceptar, no tan verosímil. Ya
que: ¿por qué aceptar, que el proceso de fraccionamiento infinito de un segmento
de recta necesariamente termine trascendiendo en un punto?. Y no simplemente,
pensar en que el proceso nunca converge; lo cual significaría que el segmento de
recta nunca dejaría de ser tal. Sin embargo, igualmente es verdad que la
convergencia uniforme observada nos invita a pensar que el fraccionamiento
infinito termina, de manera trascendente, en el punto-límite o en el círculo-límite.
Pero, es igualmente válida la otra alternativa que se sostiene en la propiedad que
dice que: «no todas las series que tienen términos que van disminuyendo, a
medida que aumenta el fraccionamiento, son convergentes»(ver recuadro 4 ) He aquí
la paradoja, he aquí un dualismo peligroso y desgarrante, por ser excluyente. He

24
aquí al sujeto en una situación tormentosamente indecidible. He aquí, el modo
cómo está conformada el alma de los occidentales. Condenados a tener que elegir
uno de los dos extremos, condenados a tener que tomar partido, condenados a
hacer la guerra para solucionar los conflictos, condenados a ser ó no ser.
Queda revelado que, Akenatón, quería transfigurar la representación concreta en
abstracta. Propuso entonces a los sacerdotes, a que pasaran de la cuerda al
punto-límite o del polígono convexo de infinito número de lados al círculo-límite,
del exterior al interior, de la visualización sensitiva a la visualización intelectiva, de
la conciencia mítica a la conciencia mental. Pero todo esto, mediante una
misteriosa operación de trascendencia que permite alcanzar el límite en el infinito.
Cabe insinuar que esto último obliga al sujeto a reducirse a un punto y por tanto a
colocarse por fuera del mundo para, en esta condición, observarlo y conocerlo,
imperturbablemente, y, luego, transformarlo a su antojo cual si fuese el
todopoderoso Dios Atón.
Todo esto fue posible gracias a que el Espacio Matemático de Representación
logrado, el EMROcc., se produce exclusivamente en la mente y ésta lo sostiene.
Con él, es posible realizar simulaciones de la realidad y luego emprender el
Cálculo de las Consecuencias para que, a la hora de tomar decisiones, saber
elegir, sabiamente, la alternativa más conveniente. Por lo visto, es un dispositivo
intelectivo realmente prodigioso, pero, lastimosamente incompleto ya que ha
suprimido en la modelación a la cualidad, como veremos más adelante.

1.1 3 Moisés el egipcio


“El elemento nuclear de nuestro planteamiento, es decir, la conclusión de que el monoteísmo judío depende
del episodio monoteísta en la historia de Egipto, ha sido, presumido y señalado vagamente por distintos
autores ..."

Moisés y la religión monoteísta, Sigmund Freud

El gran intento por llevar a cabo este proyecto teológico-político, cuyo fracaso le
tocó asimilar a Aquenatón, debido a las causas reconocidas, no resultó del todo
estéril. De su mismísimo vórtice nacieron dos ramificaciones claramente
diferenciadas: la una, estrictamente ético-teológica que se dirigió al monte Sinaí y
la otra, rigurosamente científica, que navegó por el Mediterráneo hasta el

25
archipiélago del mar Egeo, en Grecia. Se había fraccionado la unidad teológico-
geométrica original.
En lo que atañe a la vertiente teológica, ésta fue desarrollada por Moisés el
egipcio (seguramente fue un miembro de la escuela sacerdotal de On-Heliópolis), hombre
legendario y Gran Héroe del pueblo judío. Sistematizó su historia e implantó en su
seno un monoteísmo de grandiosa y extrema rigidez, gracias al cual pudo
conformarse la estructura de su espíritu, su alma. La historia de esta gran epopeya
es narrada a lo largo de los cinco primeros libros del Antiguo Testamento, escritos
precisamente por él.
Freud nos dice que en la religión de Moisés «sólo existe un Dios, único,
todopoderoso e inaccesible, nadie puede soportar su contemplación, nadie puede
formarse una imagen de él, nadie puede, ni siquiera pronunciar su nombre [...]»
Se hace evidente que la diferencia básica con la religión de Akenatón consistió en
la supresión radical de la relación privilegiada que mantenía el faraón con Atón a
través del Sol. Para Moisés el privilegio debía tenerlo directamente el hombre, por
haber sido creado a su imagen y semejanza y no el Sol. La relación con Dios no
podía ser un acto exterior sino interior.
Estos decisivos cambios en la estrategia teológico-política, para la implantación
del monoteísmo, fueron los que le permitieron a Moisés culminar su gran hazaña,
con relativo éxito. Pues, al colocar al hombre como el centro de comunicación con
Dios, logró trasladar el privilegio que tenía sólo el faraón y su familia a todos los
seres humanos; a pesar de que él tubo que hacer las de Akenatón durante toda su
vida, hasta ver implantada en el pueblo judío su trascendente fe.
No se puede dejar de reconocer que el instrumento con poder casi divino que le
permitió a Moisés implantar el monoteísmo en la mente del pueblo hebreo fue la
escritura fonética. La inventada en Egipto2, fue obtenida mediante el método de
abstracción revelado por la geometría. Prodigiosa herramienta que consistió y
consiste en un sistema de signos abstractos, en nada parecidos a ningún objeto
del mundo concreto, llamados letras y numerales. Las letras son los signos de los
2Ver los signos fonéticos, cual si fueren rayos que se desprenden de la circunferencia solar, por medio de los
cuales habla Atón a Aquénaton a través del Sol, en las esculturas que he referido se encuentran en el museo
egipcio de Berlín y que fueron publicadas en NATIONAL GEOGRÁFIC DE ABRIL DEL 2001 )

26
sonidos elementales de los que se componen las lenguas naturales (fonemas) y los
numerales los signos de los números. Tal era el prodigio que éstos brindaban, que
con ellos se podía escribir directamente las palabras que uno pronunciaba y a la
vez hacer las cuentas que se precisaba.
Pero, Moisés fue más allá: hizo de la palabra escrita la Palabra de Dios. Ahora, ya
no era necesario intermediario alguno para comunicarse con Él. Era una
verdadera comunión la que se establecía entre el hombre y Dios, cuando el
individuo escuchaba en su interior su Voz. Estableció de esta manera, el "Mito de
la Palabra Escrita”, "El Gran Supuesto” ó ”La Gran Convicción”, según nos cuenta
el mismo en su primer libro, el Génesis: «Y dijo Dios: sea la luz; y fue la luz ... [...]
Dijo Dios: Produzcan las aguas seres vivientes, y aves que vuelen sobre la tierra,
en la abierta expansión de los cielos. Después dijo Dios: Produzca la tierra hierba
verde, hierba que dé semilla; árbol que dé fruto según su género, que su semilla
esté en él, sobre la tierra»
Y así, con su Palabra, fue creando todo lo que existe, hasta que «Finalmente dijo
Dios: hagamos al hombre a nuestra imagen, conforme a nuestra semejanza [...] Y
los bendijo Dios, y les dijo: fructificad y multiplicaos; llenad la tierra y sojuzgadla, y
señoread en los peses del mar, en las aves de los cielos, y en todas las bestias
que se mueven sobre la tierra. »
Según podemos ver, en la religión de Moisés, al mundo le subyace El Verbo Divino
(el xoyoa de los antiguos griegos ) Para entender el mundo, entonces, hay que leer y
comprender la Palabra de Dios. En eso, precisamente, ha consistido la historia de
la ciencia y religión occidentales. Tanto sus científicos como sus sacerdotes han
devenido en el mundo impulsados por la obsesión de leer esa mente. Este ha sido
su sueño conspicuo y su meta final. Así, mientras su ciencia la ha venido
buscando en la Ecuación; su religión ha tenido la esperanza de encontrarla en la
Oración.
Es obligación dejar constancia que la bifurcación mencionada devino en la
necesidad lógica de que el Ser Universal (Dios) se manifieste en el mundo concreto
como el Singular. Como ya habían anunciado los profetas y por que así tenía que
ser, tuvo lugar el advenimiento de Jesús-Cristo, el Verbo Divino Encarnado, lo

27
Abstracto hecho Concreto (Aristóteles, con el “tercero excluido” ó el Universal subsumido en el
Singular, prefigura a Jesús y al cristianismo). Él fue la encarnación del Amor y la Bondad y de
todo cuanto sentimiento y emoción había permanecido oprimido y deformado
durante todo el rígido y rudo período en que había reinado la Ley de Moisés. Fue
el tiempo en que el alma humana perdió la temerosa rigidez mantenida por acción
del mandato despótico y se ablandó con el amor y se enseñoreo con la bondad y
la comprensión, antes que con la obediencia ciega a la vieja Ley patriarcal. Los
Evangelios son, justamente, el Manifiesto de esta necesidad. Fue inevitable que la
racionalidad impuesta por Moisés fuese suavizada con la racionalidad sugerida
por Jesús, aquella que brindan los sentimientos y las emociones, bajo la tolerancia
de la mente absoluta.
Recordemos que en la religión judeo-cristiana hay un conocido pasadizo por
donde transitó el pensamiento griego. Seguramente ésta se apoyó en la corriente
del pitagorismo-platónico en lo que hace relación a la idea de atribuir al “Verbo
Divino” el carácter de única realidad verdadera. «Al principio era el Logos, la
Palabra» nos dice San Juan en los Evangelios.
Por último, hay algo que no puede dejarse suelto y es que, con el cristianismo se
abandona la vieja concepción de que el tiempo es de carácter cíclico (amanecer/
anochecer, nacer/ morir, etc.; patrón de referencia del devenir humano que ha sido común a todas las culturas
de la Tierra, en su primera fase de desarrollo) y se adopta un carácter lineal para el accionar
de éste, introduciendo el concepto de la resurrección, que de alguna manera ya
fue sugerida por los egipcios cuando de la inmortalidad hablaban. De aquí en
adelante la determinación de que a la vida le sigue la muerte se ve transcendida
por el acto de la resurrección. De esta forma quedó establecido el carácter
métrico-lineal del tiempo; así por ejemplo, las fases de un proceso pasaban a ser
vistas como sucediéndose una detrás de otra, alineadas según una recta que
nunca se deforma. Con ello, apareció un nuevo sentido para el concepto que se
alude con la palabra superación: dejar atrás, olvidar todo aquello que produce
sufrimiento y procurar que el “pasado deje de existir” y, preocuparse sólo del futuro
e ir “siempre adelante”. Es la misma imagen del dios Cronos de los griegos, el

28
primer rey de los dioses, el dios del tiempo, despiadado y absolutista, capaz de
devorar a sus propios hijos, tal como lo pintó Don Francisco de Goya.

1.1 4 La Geometría en la Grecia Clásica


Hemos visto cómo los egipcios hicieron grandes progresos en la ciencia de las
medidas exactas usando tan solo cuerdas anudadas. Con estos medios
elementales fueron capaces de construir ángulos rectos; pues sabían que tres
cuerdas, de tres, cuatro y cinco unidades de longitud respectivamente, formaban
un triángulo rectángulo. Este resultado, que proviene de la actividad práctica, no
se lo encuentra sólo en Egipto sino también en Mesopotamia, en China y, con
seguridad, en otros lugares de la Tierra habitados por pueblos notables. Pero,
¿sabían ellos que el triángulo en mención tenía exactamente un ángulo recto? ; en
otras palabras, ¿lo sabían por que lo habían demostrado ó solo lo tenían como
una conjetura surgida de la experiencia práctica?. La respuesta es: lo sabían, pero
la tenían, aún, como una conjetura. Una conjetura es una proposición que se
construye experimentalmente, de modo inductivo; mientras que el teo-rema es una
proposición que se la obtiene deductivamente como resultado de la operación de
máxima generalización, como la de punto o círculo-límites, la que excluye al
sujeto, pues no es necesario para que sostenga la verdad enunciada, ésta se
sostiene por sí sola. La conjetura es válida para un número finito de casos; el teo­
rema lo es para infinito número. Así por ejemplo, el teorema de Pitágoras es válido
para el infinito número de triángulos rectángulos que existen ó como suele decirse
académicamente: «es válido para todo triángulo rectángulo»
Este es el momento de la historia de Occidente cuando los griegos entran en
escena, capacitados y decididos a continuar con el trabajo comenzado por los
egipcios y dispuestos a establecer las bases de la cultura europea.
Resientes investigaciones nos han informado al respecto que «en romería
académica viajaron a Egipto filósofos e historiadores. Allí recalaron matemáticos
de Samos para aprender el secreto de los números y las proporciones. Acudieron
médicos de Jonia en busca de remedios para las enfermedades...» {Investigación y

Ciencia, 04/1998 ) En efecto, entre los años 650 y 200 a. C., el mundo griego, con la

29
riqueza de sus democracias y con la amplia apertura hacia otros países que le
brindaba su comercio, abundaba en sabios viajeros que sabían mezclar culturas e
ideas.
Entre los primeros estuvo Tales (6 2 5 -5 4 7 a. c), rico comerciante de Mileto, héroe
legendario, cuyo perfil personal ha sido dibujado principalmente con anécdotas
enriquecidas por la imaginación popular. Al mismo tiempo fue consejero político,
ingeniero militar, hombre de negocios, filósofo, y astrónomo. Siendo ingeniero del
rey Creso de Lydia, se dice que desvió el curso de un río para que pasara el
ejército. Su actividad como mercader le llevó a visitar muchos países y su genio
natural le permitió aprender toda cuanta novedad conocía. Como empresario ganó
una fortuna creando un monopolio de prensas para la extracción de aceite de oliva
a raíz de una abundante cosecha de aceitunas. Fue reconocido por sus
compatriotas de posteriores generaciones, como uno de los Siete Sabios de
Grecia. A diferencia de otros comerciantes, al retirarse de su actividad, se entregó
por entero a la filosofía y las matemáticas. Particularmente, y de manera seria y
profunda, meditó sobre las conversaciones que tuvo con los sacerdotes egipcios,
cuyo saber pudo valorarlo en su verdadera importancia y justa medida, llegando a
ser el primer europeo en poner en alto relieve su magnífica ciencia.
Entre sus proezas más famosas se encuentran, el cálculo de la altura de la Gran
Pirámide y la predicción del eclipse solar del año -585. A él le son atribuidas las
demostraciones de las célebres proposiciones que dicen: «Los ángulos de la base
de un triángulo isósceles son iguales; los ángulos opuestos por el vértice son
iguales; dos o más triángulos que tengan los ángulos iguales son semejantes; el
ángulo inscrito en un semicírculo es recto; etc.» Todas estas propiedades, como
hemos visto, ya fueron encontradas por los geómetras egipcios de forma práctica,
pero fueron probadas, en su validez general, mediante el método deductivo, por
Tales (ver recuadro 5)
En su geometría uno encuentra auténticas expresiones algebraicas. Por ejemplo,
el teorema que reza que el diámetro biseca al círculo, constituye una verdadera
ecuación tanto como la igualdad establecida para el cálculo de la altura de la Gran
Pirámide, realizado, como dice Plutarco, «tan sencillamente, sin ningún alboroto ni

30
instrumento alguno» Éstas se construyeron mediante la noción de razones iguales
o proporciones. La idea de abstraer ó idealizar la figura de un objeto material,
como un triángulo o un cuadrado, y considerarla como una función de línea, lo
debemos por entero a Tales. Es decir, él consideró que toda recta ó curva es el
rastro dejado por el movimiento de un punto que se desplaza según una ley bien
definida. De este modo, llega a establecer el concepto de lugar geométrico (el que
tendrá decisiva incidencia en la evolución del E.M.R.Occ.) Se lo conoce como el padre de las
matemáticas, la astronomía y la filosofía griegas.
Por aquellos tiempos los hábitos del pensamiento pagano envolvían el alma de su
pueblo y la tenían subyugada bajo la influencia de distintos grupos de dioses, cada
uno más "universal” que otro; hasta que su llegada iluminó el nuevo camino, aquel
que debía conducir a la libertad "definitiva” del espíritu. Según indicaba el nuevo
método, él determinaba el campo de investigación, formulaba las preguntas
correctas e iniciaba la búsqueda de la ley trascendente subyacente a todo lo que
es efímero, transitorio y finito. Tales fue quien postuló por vez primera que lo
abstracto y más general es más valioso que lo intuitivo y sensible. Pues, las
imágenes sensoriales son aparentes, engañosas. Entonces, por necesidad, las
imágenes en la mente debían ser producidas por vía de la abstracción, buscando
aquello que de común tiene todo lo que existe e inhibiendo la acción de aquellas
que se producen por vía de los sentidos. Consecuentemente es adecuado
denominar al nuevo espacio de representación como trascendente, ya que esta
formado por puntos-límite, objetos que supuestamente constituyen la esencia de
las cosas que integran el Mundo y las trasciende en su apariencia.
Es importante recordar que Tales nunca olvidó la deuda que contrajo con los
sacerdotes egipcios, y cuando ya era anciano aconsejo con vehemente
insinuación a su discípulo Pitágoras a que les visitara y bebiera de su sabiduría.
Éste acogió de buena gana la sugerencia y no tardó en realizar el histórico viaje.
Pero, viajó también a Babilonia donde conoció la "proporción perfecta”:
a:V2 (a + b)=2ab/(a+b):b que representa los aspectos aritmético y armónico de los
números enteros a y b. Dicho sea de paso, los griegos también tomaron de los

31
babilonios el conocimiento de hechos astronómicos y el método sexagesimal de
contar por unidades de sesenta en aritmética.
Se sabe que Pitágoras (569-500 a.C) fue oriundo de Samos y así como Tales
perteneció a la colonia de griegos jónicos establecidos en las costas e islas
occidentales del Asia Bitinia, actual Asia Menor. En el año -529 se instaló en
Crotona, ciudad de la colonia dórica en el sur de Italia, y comenzó a disertar sobre
filosofía y matemáticas. Su público fue de lo mas variado, desde gente pudiente
hasta mujeres, pese ha estar prohibido por la ley el que ellas asistieran a
reuniones públicas. Entre las más entusiastas se encontraba Theano, joven y bella
mujer, hija de su huésped Milo, con la que se casó. Se sabe que ella escribió una
biografía de él, pero desgraciadamente se ha perdido.
La influencia de este gran matemático y filósofo fue tan poderosa, que no sólo
llegó a ser más conocido que su maestro; si no que, no tardó en rodearse de sus
discípulos más interesados, para luego constituirse muy comprometidamente en
una secta o hermandad. Propiamente era un partido político de elite, que
pretendía imponer un régimen de gobierno y una organización social basados en
el modelo de la sociedad patriarcal y militar de los Dóricos. Para el propósito
elaboraron una ideología inspirada en la idea de que era preciso realizar en el
Estado (microcosmos) el orden perfecto y la bellísima armonía que reinaban en el
Universo (macrocosmos) Se la conocía como la Orden de Pitágoras y llegó a influir
política y religiosamente más allá de Grecia. Los miembros de la secta compartían
las mismas creencias filosóficas, se dedicaban a las mismas investigaciones y se
comprometían a no revelar los secretos y enseñanzas de la hermandad. Se
cuenta que en cierta ocasión, cuando aconteció el ahogamiento de uno de sus
miembros, Hipaso, se preguntaron: ¿no es cierto que se encontró con la muerte
debido a que había roto el juramento? Si contestó la Orden; pues, «¡había
divulgado el secreto de la esfera con sus doce pentágonos!» En otras palabras, se
lo acusaba de haber divulgado la inscripción del icoságono ó dodecaedro en la
esfera. El pentágono fue elevado a símbolo distintivo de la hermandad y tal vez
representaba a la estrella Polar que caracteriza al Hemisferio Norte Celeste y a la

32
Cultura Occidental. A medida que la Orden se extendía iban escribiéndose todos
los hermosos hallazgos que ésta realizaba.
Los pitagóricos hicieron grandes progresos en la teoría de los números y en la
geometría de áreas y volúmenes. La autoría personal de los teoremas
demostrados no se conoce debido a que la hermandad lo atribuía todo lo que se
descubría al gran Maestro Pitágoras. Su pensamiento estuvo animado por la
magia del método demostrativo de Tales y fascinado por las sorprendentes
propiedades geométricas que éste permitía establecer con los teoremas y
descubrir mediante los corolarios; así como encontrar los escollos que resaltan las
limitaciones del enunciado demostrado.
Cuando del cuadrado hablamos, inmediatamente se nos viene a la memoria su
nombre ligado al famoso gran teorema que lo ha inmortalizado. Su enunciado
revela que, «en todo triángulo rectángulo el cuadrado construido sobre su
hipotenusa es igual a la suma de los cuadrados construidos sobre sus catetos»
(ver recuadro 6) Como ya indicamos, la verdad de lo rezado ya era conocida por
algunas culturas de la Tierra y desde hace mucho tiempo; pero, su validez estaba
verificada sólo para un número finito de casos, sólo era una conjetura.
Precisamente, el prodigio de Pitágoras consistió en probar que era válida para
todos (infinito) los triángulos rectángulos, convirtiendo, de esta manera, la conjetura
en teorema y el enunciado relativo en absoluto. Apolodoro el aritmético nos
cuenta que al encontrar la demostración del gran teorema, tal fue su alborozo, que
decidió realizar un glorioso sacrificio a los dioses y faenó un buey.
A él le debemos el nombre de Matemáticas para la ciencia que estudia por un lado
a las magnitudes discretas y por otro a las continuas. De la primera rama nacen
aquellas que son absolutas y también las que son relativas; de aquellas se
encarga la Aritmética y de éstas la Música. La segunda, en cambio, se bifurca en
estables y dinámicas; de las que se encargan la Geometría y la Astronomía
respectivamente. Esta primera clasificación dio origen a su famoso Quadrivium de
las ciencias.
Pitágoras y sus discípulos también se empeñaron en desarrollar la teoría de las
figuras que llenan el espacio. Al tratar esta materia debieron preguntarse ¿es

33
posible llenar completamente una superficie plana con repeticiones de figuras
unitarias como, triángulos, cuadrados, pentágonos, etc.? Pregunta íntimamente
relacionada con la que se hicieron para demostrar el teorema que asevera que:
«la suma de los ángulos internos de un triángulo rectilíneo es igual a dos rectos»
El mismo modo de pensar se extendió a la geometría del espacio, comenzando
por el estudio de los cuerpos geométricos regulares. Aquí se hace necesario
destacar que es realmente sorprendente que en la geometría tridimensional haya
sólo cinco sólidos regulares: el tetraedro, el cubo, el octaedro, el dodecaedro y el
icosaedro, ni uno más ni uno menos. Se les conoce con el nombre de, "los cinco
sólidos perfectos” y ellos constituyen la expresión de la simplicidad, la precisión y
la belleza. Los tres primeros ya fueron conocidos por los egipcios, los pitagóricos
encontraron a los dos últimos: Pero, la demostración de que no puede haber más
de cinco tendría que esperar hasta el advenimiento del gran Leonado Euler ( 1 7 0 7 ­
1783)
Otro de los temas que interesó al gran Maestro de Samos fue el del método de
aplicación de áreas. Su solución fue brillante: encontró un procedimiento
geométrico equivalente a la resolución de una ecuación de segundo grado. El
problema consistía en trazar, sobre una línea recta de referencia, una figura dada.
La base de dicha figura podía ser menor, igual o mayor que la longitud de la recta,
presentándose, por tanto, tres alternativas de solución, a las que denominó: elipse,
parábola e hipérbola. Algunos años más tarde esta nomenclatura fue adoptada por
Apolonio de Perga, el admirable estudioso de las secciones cónicas, por que la
triple característica se presentaba también en la generación de estas curvas. En la
historia de las matemáticas esta clasificación ha mostrado ser clave para
descubrimientos importantes; por ejemplo, se halla ligada con al teoría de los
números irracionales (aAoyoo), cuyo descubrimiento constituyó una de las
mayores realizaciones de Pitágoras. Todo sucedió el día en que aplicó el gran
teorema al caso particular del diagonal del cuadrado unitario, inesperadamente se
encontró con un número nuevo: V2 =1.4142135... Puesto que éste contiene
infinitos decimales no periódicos, es inconmensurable y por tanto no puede ser
expresado mediante el cociente de dos números enteros. El vértigo producido por

34
lo inesperado le impulsó a demostrar que no siempre es posible encontrar una
medida común para dos longitudes dadas a y b definidas para todo número
entero. El alborozo inicial que recordamos se transformó en desagradable
sorpresa y, esta vez, los que sacrificaron al buey y festejaron fueron sus enemigos
políticos. Él, que había supuesto que su demostración fuera válida para todos los
triángulos rectángulos, se encontró con que sólo lo era para un conjunto particular
de ellos, aquel que puede ser expresado mediante los números racionales,
definidos como la totalidad de aquellos que puedan escribirse como el cociente o
razón de dos enteros. Hoy día se escribe en notación conjuntista:
Q = {X |X = a/b; a,b e Z }. El teorema, por tanto, era aplicable sólo a magnitudes
conmensurables.
El sueño pitagórico de un Mundo absolutamente racional se había esfumado para
siempre, apareciendo en su lugar, otro, más amplio, el de lo Real, que incluye lo
que no es racional, lo irracional.
Su apasionado interés por la relación que encontró entre la geometría y la música
le condujo al descubrimiento de las maravillosas progresiones armónicas de las
notas de la escala musical, al hallar la relación proporcional entre la longitud de
una cuerda y el tono de la nota producida al vibrar. Conmovido por este
descubrimiento, vio en los números la sustancia de todas las cosas, de ellos dijo
que no eran meros atributos de éstas, si no que eran su esencia misma, lo que
equivalía a postular que todo lo que existe tiene una racionalidad absoluta que
está implícita y que se la puede revelar mediante el cálculo proporcional.
Siguiendo la guía de esta convicción identificó al uno con el punto, al dos con la
línea, al tres con la superficie y al cuatro con el volumen. Con esta designación
geométrica daba origen a la noción de Dimensión Topológica. Más tarde, con la
aparición del número cero, ésta fue reasignada para quedar finalmente así: el
punto con dimensión topológica cero, la línea con uno, la superficie con dos, el
volumen con tres, el hipervolumen con cuatro, etc.
Es de rigor manifestar que los pitagóricos son los primeros en dar comienzo al
establecimiento de un sistema de conocimiento geométrico como un cuerpo
teórico. Anteriormente las proposiciones de las matemáticas se encontraban en

35
estado particular, faltaba elevarlas al estado de máxima generalidad para disponer
de una teoría sobre el espacio geométrico, para ello, prodigiosamente, ¡asociaron
los puntos con los números!. Fue así cómo los pitagóricos pusieron a la geometría
en el camino de la perfección, al completarla con el estudio de su aspecto
aritmético, cuantitativo, gracias al refinamiento del método lógico deductivo. Ahora,
el concepto de lugar geométrico dado por Tales quedaba completo; esta vez, la
trayectoria que describe el punto acaece siguiendo una línea numerada. Como se
descubrirá más tarde, tenían en sus manos un incipiente espacio de
representación apropiado para describir los cambios de posición de los objetos, la
estructura externa de los sistemas.
No está por demás recordar algo de lo manifestado por los comentadores más
cercanos, en el tiempo, acerca de la magnífica obra pitagórica y, en particular, a
cómo entendían la noción de número.
Estobeo dice que «Ciertos pitagóricos vinculan directamente al número con el
alma» Moderato, «que tiene en sí mismo las relaciones»; el pitagórico acusmático
Hipaso, «que constituye el órgano definitorio de dios que ordena el Universo»,
Jámblico que: «Los acusmáticos, seguidores de Hipaso, sostenían que el número
viene a ser, en primer término, arquetipo de la construcción del universo y órgano
de distinción del dios que lo ordena» El fuego constituye, para Hipaso, el núcleo
del Cosmos, la Madre de los dioses o el trono de Zeus. El romano Porfirio afirma
que Pitágoras explicaba su doctrina a dos clases de discípulos: los matemáticos
que tenían acceso a la parte más importante y profunda de ésta, y los acusmáticos
que sólo aprendían las reglas generales.
Aristóteles dijo de la Orden que: «Ellos se dedicaron primero a las matemáticas,
ciencia que perfeccionaron, y, compenetrados con ésta, imaginaron que los
principios de las matemáticas eran los principios de todas las cosas» Y, Eudemo
los acusó de «haber convertido a la geometría en una ciencia liberal y haber
desviado a la aritmética del noble servicio que prestaba al comercio» Tolomeo se
expresó diciendo que...«para ellos, los acordes musicales correspondían a las
relaciones numéricas en las cuales un término viene a ser divisor del otro en una

36
unidad; así, en 2/1, en 3/1, en 4/1 ó un término supera al otro en una unidad: 3/2,
4/3, 9/8; estos últimos se denominan números epimorios o superparticulares»
El empeño vanguardista de los últimos pitagóricos fue la formación de números
irracionales como valores de puntos-límite de las series fraccionarias infinitas. Sin
embargo no pudieron formular una teoría aritmética completa de este tema. Por
esta causa no dispusieron de una explicación aritmética de las proporciones, pues
todavía no comprendían, con la profundidad suficiente, la noción de número
inconmensurable. Es crucial anotar que los últimos pitagóricos eligieron el camino
de la armonía y no el del número como lo hizo su maestro y, con él, la cultura
Occidental.
Hasta aquí hemos descrito la manera como comenzó la construcción del Espacio
Matemático de Representación de occidente (EMROcc) Los componentes que
hasta aquí han entrado en escena son: la noción de infinito inferida del proceso
inacabable de fraccionamiento de un segmento de recta ó del perímetro de un
polígono convexo regular inscrito en un círculo o de la inconmensurabilidad o de la
inmortalidad. El punto-límite, objeto trascendente, es la unidad estructural del
EMROcc, imaginado como una totalidad repleta de ellos. Como consecuencia
lógica sigue el concepto de lugar geométrico, como la trayectoria de un punto-
límite moviéndose según una ley bien definida. Por primera vez se ensayaba una
asociación entre números y puntos.
El método lógico-deductivo completa el conjunto de componentes que han nacido
hasta la época. De ahí en adelante la actividad de los matemáticos se encaminará
por la exploración y descubrimiento de las propiedades del EMROcc en pleno
desarrollo.
Como hemos podido constatar, la práctica científica libre de las ataduras políticas
y religiosas, posibilitó a estos primeros científicos un desarrollo amplio de sus
capacidades abstractivas. Ellas, por primera vez, se encontraban fuera del control
del Estado, a diferencia de lo acontecido en Egipto. Sin duda, ellos habían logrado
estabilizar y gobernar, individualmente, la conciencia mental ó conciencia espacio-
tiempo, (entendida en el sentido de que su representación tiene lugar en la trama del espacio y el tiempo),
poniéndola a salvo de la influencia de la conciencia mítica ancestral. Había nacido,

37
pues, la ciencia propiamente dicha; pero, solo su cuerpo cuantitativo. El cuerpo
cualitativo todavía se encontraba en estado mítico y así ha permanecido hasta
nuestros días.
Una segunda fase del desarrollo de la geometría en la época de la Grecia Clásica
tiene lugar en la Magna Atenas durante los siglos V y IV a. C. Convertida ésta en
el centro comercial, político e intelectual de Grecia, atrajo a notables matemáticos,
astrónomos y filósofos de muchos lugares. Entre los más importantes estuvieron
Hipócrates (4 7 0 -a. c), Platón (4 2 9 -3 4 8 a. c), Eudoxo (4 0 8 -3 5 5 a.C) y Menecmo(375-325 a.C)
La escuela de Atenas se ocupó especialmente de tres problemas: La duplicación
del cubo ó la construcción de un cubo cuyo volumen sea el doble del de un cubo
dado, la trisección de un ángulo dado y la cuadratura del círculo, o sea, la
construcción de un cuadrado de área igual a la de un círculo dado. Naturalmente,
éstos problemas surgieron en el curso de la investigación sistemática de la
geometría que venían haciendo los griegos, desde Tales. Sin embargo, no fue sino
hasta el siglo XX cuando se obtuvieron soluciones satisfactorias, en especial para
el último.
Al igual que Tales, Hipócrates de Quíos (4 7 0 -a. c) (distinto de Hipócrates de Cos, el médico)
primero fue comerciante y luego matemático. Fue quién encontró el primer
ejemplo de una solución de cuadraturas (se denominaban así a los problemas que consisten en
construir un área rectilínea equivalente a un área limitada por una o más curvas), para lo cual inventó
las lúnulas (objeto en forma de luna menguante determinado por dos círculos que se cortan) para
alcanzar tal fin; mientras que Menecmo, en su intento por resolver el problema de
la duplicación del cubo, descubrió la parábola. Hipócrates también es el primer
autor conocido que haya escrito un tratado de matemáticas elementales; dedicó su
talento, de manera especial, al estudio de las propiedades del círculo. La mayor
parte de su trabajo ha permanecido en los libros III y IV de los Elementos, debido
a la pérdida de su libro original. Su mayor logro es la demostración del teorema
que dice que «los círculos se hallan entre sí en la misma razón que los cuadrados
de los diámetros», lo que equivale al descubrimiento de la fórmula nr2 para el
cálculo de la superficie del círculo. Se dice que llegó a esta conclusión,
considerando a la circunferencia como límite ad infinitum de un polígono regular

38
convexo cuyos lados se fraccionan indefinidamente, sea inscrito o circunscrito
(tomado de la sabiduría egipcia)
Ésta fue la primera aplicación del método exhaustivo, el cual alcanza su
excelencia en la obra de Eudoxo y Arquímedes. Su utilización permitió
desentrañar, en parte, el misterio de los números irracionales, que tan
desconcertados habían dejado a los matemáticos pitagóricos.
Así, el proceso impulsado por el afán de resolver los problemas mencionados,
condujo al descubrimiento de otras curvas nuevas, como la elipse, la hipérbola, la
concoide, la cisoide, algunas espirales y otras clasificadas como lugares
geométricos en superficies. Una vez alcanzado este estado de desarrollo, los
griegos consideraron útil implementar una clasificación especial para los
problemas. Los llamaron "planos, sólidos y lineales”. Planos eran aquellos cuya
solución dependía de la intervención de líneas rectas y círculos, sólidos si
dependían de las secciones cónicas y lineales si eran función de curvas aún más
complicadas. Hoy día los problemas planos son abordados por el álgebra y se
resuelven mediante ecuaciones de segundo grado. Los griegos, de manera
natural, postularon que los tres problemas referidos podían resolverse por
métodos planos. Esto no resultó ser verdadero, pues no eran necesariamente
insolubles por métodos sólidos o lineales. Al parecer esto se debió a que el
impacto de la impronta pitagórica fue tan poderoso que les indujo a reducir las
soluciones de todos los problemas a métodos planos. Nada raro éste
comportamiento reduccionista en la Civilización Occidental, ya que ha sido
peculiar expresión de su modo de ser.
Alrededor del año 495 a. C. nació en Elea el filósofo Zenón (4 9 5 -4 3 5 a. c.) Este
original y perspicaz pensador, desempeñó el papel de crítico de los matemáticos y
formuló sendos y sutiles argumentos con el propósito de probar que el movimiento
es inherentemente imposible, basándose en la evanescente noción de
infinitesimal, que ya tenía historia reconocida desde su nacimiento en Egipto. Por
ejemplo, criticó a la progresión geométrica infinita proponiendo el famoso acertijo
que alude a la competencia de velocidad que libran Aquiles, el más veloz de los
mortales y, la proverbialmente lenta tortuga, una vez que éste le ha concedido una

39
razonable ventaja. Platón, en su Parménides, nos cuenta que Zenón presentó sus
inolvidables argumentos en contra de los fundamentos del movimiento, en la
célebre reunión que tubo lugar en Atenas hacia el año -445, a la cual asistieron,
entre otros, su maestro y compatriota Parménides (primera mitad del siglo v a. c.) y
Sócrates (4 7 0 -3 9 9 a. c.)
Recordémoslos: la primera paradoja dice que, sí Aquiles parte del punto A y la
tortuga del punto B, cuando Aquiles llegue a B la tortuga estará en C, y cuando
Aquiles alcance a C la tortuga se hallará en D y así infinitamente (recuadro 4 ) Ahora
bien, si nos situamos en la óptica de nuestra percepción sensorial, Aquiles gana la
contienda, evidentemente; en cambio, si nos ponemos de parte del intelecto,
Aquiles no gana la carrera. Nos encontramos, pues, en una situación de conflicto
entre equipotentes, en una posición tormentosamente indecidible, en medio de
una letal paradoja que separa al intelecto de los sentidos y desgarra el cuerpo del
alma. He aquí, el núcleo de la argumentación de Zenón, la cual sirvió para
sustentar el punto de vista parmenidiano sobre el carácter engañoso de la
percepción sensorial del movimiento, condenada a vivir en el desconfiable mundo
de las apariencias. De esta histórica escisión se ha desprendido el tradicional
antagonismo entre idealismo y materialismo que, ha modelado y fraccionado en
dos el pensamiento occidental. El holismo estático e indivisible de los eleatas
introdujo, pues, una indecisión, un dualismo trascendente, al considerar el
concepto de movimiento3.
Para apuntalar la argumentación de Parménides acerca de la noción de espacio
vacío, Zenón aseveró que «si el espacio existe, ha de estar contenido en algo, y
este algo sólo puede ser más espacio, y así ad infinitum» Sin embargo, él no está

3 Es muy importante recordar que al fragor de la batalla teórica librada por Parménides y sus
discípulos en contra de los seguidores de Heráclito de Efeso (siglo V I a. C.), en torno a si el
movimiento es una ilusión ó un hecho concreto, independiente de la conciencia, nacieron los cuatro
principios sobre los que se ha ido construyendo la ciencia occidental, a saber: 1° principio de
unidad y comunidad de lo real. 2° principio de unidad y comunidad de la razón. 3° principio de
racionalidad de lo real. 4° principio de temporalidad de lo real. Heráclito fue el primero en
formularlos.

40
de acuerdo con el razonamiento y termina negándole la existencia al espacio
infinito.
Ahora estamos seguros que Zenón estuvo convencido de que la distancia que
deba ser recorrida por un móvil, puede ir dividiéndose en una infinidad de
segmentos, cada uno de los cuales representa un espacio por recorrer. Por tanto
de ello infirió que, no puede acaecer ningún movimiento, pues siempre queda una
distancia por recorrer, sin que importe cuán pequeña sea. En otras palabras, que
el móvil tenga que pasar por una infinidad de puntos en un tiempo finito equivale a
que no se mueva. ¡He aquí la ambigüedad, he aquí la paradoja!
Ahora sabemos que todo esto se debió a que él no reparó en el hecho de que
para pensar en el cambio de posición de los cuerpos hay que a éstos,
obligadamente, reducirlos a puntos; ya que así lo exige el Espacio de
Representación en uso, que tiene a este objeto trascendente como unidad
geométrica.
En esta situación, Aquiles y la tortuga han perdido la condición de tales, han
trascendido y se han convertido en dos entidades intrínsecamente idénticas, en
dos puntos, donde el uno se mueve detrás del otro sin llegar a alcanzarlo nunca.
Hasta aquí hemos mostrado que, el EMROcc tiene su principal limitación,
justamente, en el obligado uso de este artificio reduccionista. En esta condición
éste sólo es capaz de reflejar la estructura externa de los sistemas, como sería el
caso del sistema solar, por ejemplo. De él solo serían observables las trayectorias
espacio-tiempo de los planetas, siempre bajo el supuesto que su estructura interna
no incida en ellas.
La segunda paradoja repite la primera argumentación; pero, esta vez, sin
dramatizar, lo hace directamente con el objeto matemático en cuestión: la
progresión geométrica (recuadro 4 ) Dice así: antes de que un móvil alcance el punto
medio de su hipotético recorrido, es preciso que cubra la cuarta parte de dicha
distancia y antes la octava y así ad infinitum. Las conclusiones que arroja son las
mismas que las primeras, como es de esperarse.
En la formulación de la tercera paradoja Zenón cambia el modo de la
argumentación, nos asegura que el concepto mismo de movimiento carece de

41
sentido. Nos invita a considerar al móvil como si estuviera "congelado”, a ensayar
una mirada "estroboscópica” en un instante arbitrario de su trayectoria. En dicho
momento éste ocupará una región del espacio igual a su propia longitud, y no
evidenciará movimiento alguno. Y, puesto que esta observación es válida para
todos los instantes, se concluye que el objeto no se mueve.
Las objeciones citadas en contra de la idea de movimiento, en lo que se refiere al
cambio de posición de los objetos, obtienen su fuerza en la obligación de explicar
cómo completar, en una sucesión, un número infinito de pasos que se deben
ejecutar al recorrer cualquier segmento de recta dado. Finalmente podemos
advertir que todas las paradojas provienen de la evidente incongruencia que
mantienen las categorías de finito e infinito, las cuales no son conciliables, al
contrario, son absolutamente excluyentes, se repelen mutuamente, ya que la
primera alude a lo que está definido y la segunda, en cambio, a lo que no lo está,
a lo indefinido. La única forma de poner en correlación a las dos ha sido mediante
el misterioso "salto” que se da al realizar la operación de punto y circunferencia
límites. Pero, por ser éste un acto trascendente las categorías quedan totalmente
desarticuladas y cada una pasa a actuar en su propio ámbito. Este manifiesto
dislocamiento en ellas ha sido la causa de las ambigüedades y de las
alucinaciones que hemos recordado a propósito del pensamiento de Zenón.
Así fue entonces cómo los matemáticos griegos se encontraron con el infinito al
tratar de contar sin fin, de medir magnitudes, como la diagonal del cuadrado o el
arco de parábola, y de descubrir y desarrollar las propiedades del EMROcc,
llamado también continuo de puntos.
Para Aristóteles, primer teórico del infinito y del continuo, el infinito era «lo que no
se deja recorrer y carece de límite» Al carecer de límite, no está definido ni
tampoco determinado y, por tanto, no existe en sí mismo. En efecto, si un objeto
fuese infinito, uno se vería obligado a reconocer que también lo serán, sus partes.
Pero, entonces, habría que aceptar que el infinito del todo sería mayor que el de
las partes. Con esto, se pone al descubierto los dos principios que impidieron a los
griegos concebir un infinito en sí ó, como dice Aristóteles, un infinito en acto: por
un lado el axioma enunciado por Euclides que «el todo es mayor que cualquiera

42
de sus partes», y por otro el supuesto de que no existen infinitos mayores que
otros. Por ello, el parecer de Arquímedes según el cual la idea de infinito es
geométricamente demostrable y está físicamente concretada en el número de
granos de arena existentes en la Tierra, no resistió el análisis de Aristóteles, que
concebía el infinito como una pura negación de lo finito. Y se manifestó
exclamando que, en primer lugar admitía la necesidad de pensar en el infinito,
pero le negaba toda existencia física o matemática. Para él el infinito matemático
está íntimamente relacionado con la categoría de cantidad y sólo tiene que ver con
el infinito potencial, cantidad que puede volverse más grande o más pequeña sin
que dicho devenir llegue acaecer. Esta brillante solución dada por Aristóteles, al
introducir los conceptos de infinito potencial e infinito actual, ha perdurado por
varios siglos hasta llegar a nosotros, pese a la transformación producida por
acción de la Teoría de los Conjuntos construida por Georg Cantor (1 8 2 9 -1 9 2 0 )
Demócrito (470-?a. c), el gran filósofo de Abdera, contemporáneo de Arquitas el
geómetra (4 0 0 -? a. c) y Platón, conocido conjuntamente con Leucipo (mitad del siglo v a.
c.) y Epicuro (3 2 4 -2 7 0 a. c.) como el creador de la teoría atómica, formuló
inquietudes de parecido talante respecto del infinito. Empero, su obra matemática
solo pudo ser conocida gracias al libro de Arquímedes titulado, Método. En éste se
descubre que Arquímedes consideraba a Demócrito como el primer matemático
que llegara a establecer la fórmula para el cálculo del volumen del cono y de la
pirámide. Para ello se valió de su método de las capas, que consistía en
considerar a estos sólidos como si estuviesen formados de innumerables capas
paralelas a la base, a manera de escalinatas. Cuando se aplica este método al
caso del cilindro no se encuentra dificultad alguna, pues las superficies de las
capas son iguales; pero, para el caso de la pirámide y el cono, las cosas se
complican ya que éstas van disminuyendo hasta converger en un punto. Es
pertinente recordar que los tamaños menguantes de los infinitésimos le
confundían y le hacían preguntarse: «¿son iguales o desiguales? ; pues si son
desiguales, el cono será irregular como si tuviera muchas incisiones, como
escalones, y asperezas; pero si son iguales, las secciones serán iguales y el cono
tendrá la propiedad del cilindro y estará formado por círculos iguales, y no

43
desiguales, lo cual es totalmente absurdo» Este trabajo realmente fue crucial ya
que, anunciaba la gran labor de Arquímedes y, siglos más tarde, la de Cavalieri,
Newton y Leibniz. Había sembrado la primera semilla del cálculo infinitesimal.
El postulado de Demócrito y Epicuro de que la materia se encuentra formada por
partículas indivisibles en movimiento, los últimos constituyentes de la materia,
llamados átomos, resulta de la aplicación del método a la realidad concreta. En
éste, como se puede advertir, se ha reducido los átomos a puntos al dotarles de la
propiedad de indivisibilidad, única forma en que pueden ser pensados. Dicho de
otra manera: es de rigor reducir las partículas, de las que se halla formada la
materia, a la calidad de puntos para que tengan imagen en el E.M.R.Occ. Pero,
esta imagen sólo constituye la estructura externa de los objetos en movimiento.
Siglos más tarde Isaac Newton hará lo propio, al introducir el concepto de punto
material en la construcción de la ciencia de la Mecánica ó teoría cuantitativa del
cambio continuo. Esta teoría es apropiada para describir y predecir, de manera
absoluta, los cambios de posición de las partículas materiales (previa reducción a
puntos), mediante las funciones continuas o analíticas que contiene el E.M.R.Occ.
Regresando al tema que estuvimos recordando cuando hablábamos del aporte
que la escuela de Atenas hizo al desarrollo del EMROcc., debemos decir que
Sócrates y Platón, maestro y discípulo, fueron matemáticos competentes; sin
embargo, su contribución no fue directamente al corazón de esta ciencia. Así, en
Platón encontramos a un investigador original en esta materia; empero, la enorme
influencia que ejerció en el curso histórico que tomarían las matemáticas, la
despliega al fundar y dirigir su famosa Academia en Atenas. Sobre la puerta de
entrada a su cátedra escribió: «Que nadie que no sepa geometría traspase mis
puertas» Decía, que un hombre no debe adquirir simplemente un fardo de
conocimientos, sino que debe capacitarse para poder ver con la mente, única
capaz de descubrir lo que hay detrás de la apariencia que presentan las cosas,
aquello que los sentidos no pueden revelarnos; o sea, la realidad eterna y el Bien.
Para poder alcanzar tan elevado propósito, es indispensable el estudio de las
matemáticas, ya que éstas nos permitirán desarrollar las estructuras mentales
apropiadas para tener tan inaudita experiencia, como ésta de ver con la mente.

44
La palabra griega api0^oi, de la que se deriva "aritmética”, originalmente sólo
servia para significar al conjunto de los números naturales; hasta que vino Platón e
incluyó al conjunto de los irracionales entre los números, realizando con ello un
gran progreso académico-científico. La importancia que Platón concedió a la
aritmética en la formación del intelecto tiene una grandeza que se equipara a sus
opiniones acerca de la geometría. Sin embargo, no le agradaba la etimología de la
palabra, ya que alude a la medición de terrenos (Yeo^expia), manifestando así, la
intención de olvidar el verdadero origen de ésta, con el sincero afán de concederle
un noble lugar de origen no terreno.
En el Timeo, donde manifiesta dramáticamente su convicción pitagórica a través
de su personaje Timeo, se alude a los cinco sólidos prefectos cuando se establece
una correspondencia biunívoca con los cuatro elementos de la naturaleza. Nos
enseña cómo, el aire, la tierra, el agua y el fuego tienen formas características,
así, el octaedro se adecua al aire, el cubo a la tierra, el icosaedro obtuso al agua,
la pirámide aguda o tetraedro al fuego, en tanto que el Creador empleó el quinto,
el dodecaedro, para el propio Universo. De esta manera, prefigura la ciencia de la
cristalografía que enseña que las sustancias, en el nivel molecular, se cristalizan
siguiendo patrones geométricos muy precisos; así por ejemplo, el cloruro de sodio
lo hace en cubos perfectos, el agua en innumerables formas estrelladas, el dióxido
de silicio o cuarzo en un mosaico de prismas irregulares y el resto según un
amplio abanico de variedades prismáticas.
Proclo, comenta que «Platón produjo un gran progreso en las Matemáticas en
general y en geometría en particular, a causa de su entusiasmo por ella, lo que se
evidencia en la forma en que llenaba sus libros con ilustraciones matemáticas, e
intentaba, en todas partes, encender la admiración por estos temas en aquellos
que hacían de la filosofía una ocupación» Platón, ante al pregunta ¿qué hace
Dios? respondió: «Dios es un geómetra, Él siempre hace geometría»
Entre sus discípulos se encontraba un joven estudiante, que sorprendió por su
capacidad para las matemáticas y la astronomía, llamado Eudoxo de Cnido (408­
355 a. c) Viajó mucho y estudió en Egipto, Italia y Sicilia donde conoció a Arquitas,
el geómetra. Hacia el año -368 regresó a Atenas, a la edad de cuarenta años, en

45
compañía de un considerable número de discípulos, justamente en la época en
que Aristóteles, muchacho de diecisiete años, atravesaba por primera ves el mar
para estudiar en la Academia de Atenas.
Su gran obra en astronomía fue su teoría de las esferas concéntricas, que daba
cuenta, con precisión admirable, de los extraños recorridos de los planetas. Así
como Ptolomeo (7 1 0 0 -1 6 8 d. c) y todos los demás astrónomos hasta Kepler (1 5 7 1 ­
1630), encontró en el movimiento circular, una base satisfactoria para una teoría
planetaria completa.
Pero, la obra mayor lo hace como matemático, al alcanzar la cúspide del
esplendor griego, con su teoría de los irracionales sobre una base firmemente
sólida, la que aún permanece fresca como siempre, después de las definitivas
reformulaciones que hicieran Dedekind (1 8 3 1 -1 9 1 6 ) y Weierstrass (1 8 1 5 -1 8 9 7 ) en la
segunda mitad el siglo XIX. La inmediata consecuencia que tuvo su trabajo fue
devolver la confianza en el método geométrico-proporcional y completar las
demostraciones de algunos teoremas, que habían quedado pendientes. El método
exhaustivo, que sirvió a Demócrito e Hipócrates para que establecieran
conclusiones sobre el volumen del cono y el área del círculo, fue perfeccionado y
explicado a plenitud y de manera definitiva por Eudoxo (ver recuadro 7 )
En este recuadro podemos observar, sin embargo, que por muy pequeño que sea
el segmento b, éste siempre tendrá una longitud finita. Aquí es cuando, la
convicción de Eudoxo en la existencia de los infinitesimales, le impulsa ha que
deseche el caso de una razón a/b cuando a o b son 0, para evitar caer en la
trampa que ya había advertido Zenón, la cual fue llenándose de víctimas a lo largo
de la historia de la noción de infinito. Así, el axioma ha quedado como una alerta
sobre el hecho de que existen dos clases de infinito, el actual y el potencial, y que
hay que tener cuidado en el manejo de estas categorías, pues engendran letales
paradojas que nos sumergen en tormentosas, desafortunadas y peligrosas
alucinaciones. También tuvo otra utilidad al definir a y b como magnitudes de la
misma clase, ya que si a representara una longitud y b un volumen o un peso,
ningún número de kilos podría decirse que excede a la longitud de un metro.

46
Finalmente, mencionemos que los brillantes logros en la lógica de la matemática
griega de este período arrojaron a la sombra progresos menos espectaculares que
se hicieron en la notación numérica y en la música. Como sabemos, desde los
primeros tiempos, la importancia que se concedió a los números 5 y 10, como
base de un sistema de numeración útil para contar, ya había sido reconocida en
Babilonia, Egipto y China. Los griegos utilizaron el cinco, y esto ha quedado
indeleble en el verbo contar, Homero nos dice que el verbo rce^arc^eiv (cinquear)
significa contar. El aporte griego consistió en haber sistematizado su notación
empleando las letras del alfabeto para designar números bien definidos (a=1, p=2,
7=3,...) En música, Arquitas elaboró las razones numéricas para los intervalos del
tetracordio de tres escalas: la enarmónica, la cromática y la diatónica. Sostenía
que el sonido es producido por la fuerza de impacto y que, en virtud de esto, sabía
que las notas mas altas correspondían a movimientos más rápidos transmitidos al
aire, y las bajas a movimientos más lentos.
Como se ha visto, la ciencia clásica griega evolucionó durante los siglos VI y IV a.
c , gracias al gran impulso recibido por la geometría egipcia y a la conjugación que
el genio griego hiciera con las condiciones históricas ideales que se presentaron a
comienzos de la fecha señalada.
Los griegos fueron los herederos del saber del Próximo Oriente que se había
desarrollado por miles de años. Su aportación a la ciencia no terminó con la edad
de oro griega; las civilizaciones egipcia y babilónica estaban saludablemente vivas
y durante estos tres siglos coexistieron con la civilización griega y se influenciaron
mutuamente. Grecia perdió su independencia cuando en el año -338 Macedonia
destruyó las armadas ateniense y tebana en Queronea. Esta derrota produjo el
hundimiento de las ciudades-estados y con ello llegó a su término la edad de oro
de la ciencia griega.
A finales del siglo IV a. C. da comienzo la época helénica y es cuando, el
escenario del que hacer matemático se traslada de Grecia a Egipto, a la ciudad de
Alejandría, fundada muy cerca de la desembocadura del río Nilo por el joven
príncipe guerrero Alejandro de Macedonia, a quién Aristóteles había indoctrinado.
Murió muy joven, a los treinta y tres, sólo dos años después del nacimiento de la

47
ciudad que habría de inmortalizar su nombre. Esta hermosa ciudad se transformó
en el lugar ideal para la reunión de griegos, árabes y judíos. No tardó en tener
presencia como una de las comunidades mercantiles más importantes del
Mediterráneo. Situada en las puertas de Oriente llegó a ser el lugar de contacto
entre Occidente y Babilonia y Persia, favoreciendo así un florido mestizaje cultural.
Allí se conservó en grandes bibliotecas lo más rico, lo magnífico y admirable del
pensamiento griego. Se sistematizó y perfeccionó la matemática de los antiguos;
el genio intelectual griego entró en vivo contacto con el genio moral y religioso de
los judíos; se realizó la traducción de la versión bíblica de los Setenta de las
escrituras del Antiguo Testamento; más tarde allí sería donde pensaron y
prosperaron los primeros padres de la iglesia cristiana. Pero, también sufrieron
profundamente los habitantes de la ciudad con la quema de libros cuando las
legiones de Julio César tomaron la ciudad en el año 47 a. C. Fue cuando se perdió
valioso material escrito de los grandes pensadores griegos de la edad de oro. La
ciudad permaneció con vida por seiscientos años, pero sufrió sensibles pérdidas
en los violentos tiempos que siguieron. Su muerte se produjo en el año 642,
cuando una gran oleada de invasiones árabes surgidas en el oeste, finalmente
culminaron con la toma de Alejandría por el califa Omar. La Gran Biblioteca que
contenía unos 700.000 volúmenes, fue destruida casi en su totalidad,
sobrevivieron unos pocos ejemplares gracias a que fueron apreciados en su gran
valor por los árabes que siguieron a la envestida destructiva de las primeras
hordas guerreras. La biblioteca fue fundada durante el reinado de Ptolomeo,
sucesor de Alejandro, hacia el año 300 a. C. Realmente se trataba de una
verdadera universidad y tubo a Euclides (3 3 0 -2 7 5 a. c.) entre los primeros maestros.
Se desconoce casi totalmente de cómo fue su vida y su carácter; sin embargo, se
sabe que sus primeros años de instrucción los pasó en Atenas antes de aceptar la
invitación del rey para instalarse en Alejandría. Impartió enseñanza por casi treinta
años, durante los cuales escribió una inmensa obra, de ella se han perdido
trabajos de importancia como un tratado sobre cónicas, otro sobre los errores en
la geometría y un libro de aplicaciones de las matemáticas a la música. De ella
felizmente nos han quedado los trece libros de su inmortal obra, Elementos.

48
Es obra de la fortuna que hayan sobrevivido sus escritos que tratan de
astronomía, música y óptica, además de numerosas formas de abordar el estudio
de la geometría en sus Datos División de figuras. Lamentablemente se han
perdido su Libro de las apariencias y los Corolarios, sólo sabemos indirectamente
de ellos a través de Papo (? - 3 0 0 d. c) Descubrir lo que decían los corolarios es uno
de los desafíos que está pendiente para los historiadores de las matemáticas. Se
ha dicho que muy probablemente hablaban de las propiedades relativas a la
descripción orgánica de figuras, un tipo de geometría que atrajo a Newton, a
MacLaurin y a los que trabajan en geometría proyectiva. Debido a que el cultivo de
la geometría fue una actividad muy difundida en Alejandría, incluso se ha llegado a
decir que algunos de los Corolarios contenían un método analítico que anunciaba
la geometría coordenada de Descartes.
Como frutos de la enseñanza impartida por este gigante de las matemáticas están
las enormes obras de Arquímedes (2 8 7 -2 1 2 a. c.) y Apolonio (2 6 2 -2 0 0 a. c.), dos de los
más destacados miembros de la nueva Academia.
Los Elementos, que son matemáticas puras en el sentido moderno, llegaron a ser
uno de los grandes monumentos de la ciencia griega. En ellos se expone, al modo
axiomático-deductivo, la primera teoría sobre el espacio vacío. A lo largo de la
historia de occidente ha sido el mayor de sus paradigmas; así, a B. Espinosa (1632­
1677) le sirvió de modelo para la construcción de su Etica y a Newton (1 6 4 2 -1 7 2 7 )
para la formulación de sus Principia.
En los Elementos Euclides se propuso escribir una descripción completa de las
matemáticas, lo cual implicaba un colosal trabajo aún en su tiempo. El plan de la
obra contemplaba trece libros, cuyos temas son ampliamente conocidos. Los
libros I, II, IV, VI, tratan sobre líneas, áreas y figuras planas regulares simples, son
en su mayor parte textos pitagóricos, mientras que en el libro III, sobre círculos,
sigue a Hipócrates. El libro V, menos conocido, elabora el trabajo de Eudoxo sobre
proporciones, que era necesario para justificar las propiedades de las figuras
semejantes de las que se habla en el libro VI. Los libros VII, VIII y IX tratan de la
Aritmética y una embrionaria teoría de los números, con franco espíritu pitagórico.
Se introducen los números primos y se demuestra su infinitud; además, se

49
establece por primera vez el M. C. D. y el m. c. m. de los números, la teoría de las
progresiones geométricas, donde ensaya el método de las razones iguales para
obtener la suma y el teorema am.an=am+n. El libro X está dedicado a la teoría de los
números irracionales, especialmente a los de la forma (Va+Vb)1/2, donde a y b son
enteros positivos. En éste desarrolla la parte aritmética del trabajo de Eudoxo,
mediante un tratamiento cuidadoso del método exhaustivo. Después del libro XI
sobre geometría elemental del espacio está el XII que ilustra el método exhaustivo
y demuestra formalmente el teorema de Hipócrates, aquel que da nr2 para el área
del círculo.
Finalmente, en el capítulo XIII nos enseña cómo construir los cinco sólidos
perfectos de Pitágoras y cómo demostrar sus propiedades.
Euclides se ha ganado la admiración de la humanidad y ha inmortalizado su
nombre por haber realizado una de las grandes hazañas del intelecto humano:
lograr sistematizar las propiedades de las figuras geométricas planas y rectilíneas
de manera completa; esto es, haber construido un sistema axiomático-deductivo
por primera vez en la historia. De esta manera Occidente dejó firmemente
cimentado el escenario para la fluida realización del pensar y el conocer que
prodigaría éste maravilloso método. Con este logro, Occidente estuvo en
adecuadas condiciones para despegar en su vuelo evolutivo y dar origen a la
sociedad mecanística en el planeta Tierra, estructurada a base del espacio
matemático de representación trascendente resultante del grandioso trabajo de
Euclides. Él construyó una taxonomía de las propiedades de este espacio
encontradas hasta su época y logró estructurarlas en un conjunto mínimo de
definiciones, axiomas y postulados.
En su parte formal los Elementos están elaborados con admirable maestría; pues,
con rigor y claridad, primero establece cuidadosamente las definiciones, luego los
supuestos y axiomas generales y finalmente los postulados, antes de proceder
con el orden derivativo de sus implicaciones. No obstante, no pudo evitar algunas
lagunas y tautologías entre estos preliminares a su obra. Éstas no aparecen en las
partes eudoxianas de sus libros, sino en las geométricas. De hecho, en sus
páginas se encuentran algunos fallos lógicos y escollos sin salvar, los resabios de

50
siglos de incesante crítica; pero, lo que realmente importa y sorprende es que su
teoría geométrica del espacio vacío haya permanecido como la única válida por
más de dos mil años, hasta el advenimiento de las geometrías no-euclideanas.
En el aspecto metodológico impresiona su forma honesta de trabajar con las
líneas paralelas; pues, nunca intentó encubrir por medio de un axioma plausible su
incapacidad para demostrar cierta propiedad de las líneas coplanares. Muchos de
sus otros supuestos, o bases necesarias para sus argumentos, fueron tales que
recibieron inmediata aprobación general. Pero en el caso de las líneas paralelas
comenzó con el supuesto denominado "postulado de las paralelas”, que reza así:
«Si una línea recta corta a dos líneas rectas, de manera tal que los dos ángulos
interiores que se formen en el mismo lado no sumen más de dos ángulos rectos,
estas líneas rectas prolongadas continuamente se cortarán a la larga en el lado en
el cual los ángulos son menores que dos ángulos rectos»
Al dejar el postulado sin demostrar, Euclides quedó expuesto a la acción perversa
y corrosiva de la crítica de sus adversarios. Exclamaron que éste no es un
supuesto adecuado, que de hecho debe ser susceptible de demostración. Se
hicieron cientos de vanos intentos para eliminar este postulado valiéndose de la
demostración de su equivalente; pero cada una de las supuestas demostraciones
llevaba consigo una apariencia engañosa, una letal paradoja. El triunfo de
Euclides llegó con la aparición de la geometría no-euclídea, siglos más tarde,
cuando se hallaron las razones fundamentales de dicho postulado. Hay mucha
dignidad en la forma en que Euclides dejó este inevitable escollo, como una
terrible anomalía del espacio absolutamente continuo.
Pero el nombre de Euclides no sólo es mencionado cuando se alude a su
monumental obra, se habla también de su algoritmo para determinar el máximo
común divisor de dos enteros, de su anillo, de su distancia, del espacio vectorial,
nociones todas ellas de las que no fue necesariamente su inventor pero sí su
iniciador.

Arquímedes de Samos (2 8 7 -2 1 2 a. c.) es el matemático con el cual continúa el


desarrollo del EMROcc después de Euclides. Casi toda su vida transcurre en
Siracusa, en ese tiempo fue una ciudad independiente con población griega de

51
origen dórico. Por lo que sabemos sólo viajó en su juventud y de los prefacios de
sus propias obras y de otras fuentes conocemos que se radicó por un buen tiempo
en Alejandría, donde mantuvo contacto con los discípulos de Euclides y trabajó
fructuosamente como todos sabemos. Y, fue también allí donde conoció a
Eratóstenes (2 7 6 -1 9 5 a. c .); pudiendo verse, en el modo con el que se expresa en la
carta en la que le dedica su magnífico escrito Método, que Arquímedes compartía
la opinión de los alejandrinos de apodarlo como beta (B^xa), pues se decía que en
todo era el segundo. Se sabe también que Arquímedes le enviaba los enunciados
de los teoremas; pero, sin la demostración, a modo de un problema planteado
para resolverlo públicamente. La tradición nos da a conocer que durante su
estadía en Alejandría perfeccionó algunos de sus inventos mecánicos, como la
bomba helicoidal, por ejemplo. Es que es con Arquímedes que tiene comienzo
franco la mecánica como ciencia técnica derivada directamente de la geometría.
Con él el EMROcc mostró ser capaz de describir el movimiento que cambia de
posición a los objetos del mundo, y comenzó a cimentar, así, el desarrollo de la
estructura mecánica de la Civilización Occidental.
Conocemos con exactitud la fecha de su muerte, fue el año 212 a. C, ya que
pereció, a manos de un soldado, en la toma de Siracusa por las huestes romanas.
Cuando esto ocurrió él tenía 75 años, lo que sitúa su nacimiento hacia el año -287.
Según nos dice el mismo en su obra Arenario, su padre fue Fidias el astrónomo,
quién intentó determinar los tamaños del Sol y la Luna. También es conocido, que
mantuvo relaciones de amistad con el rey Hierón II y su hijo Gelón, a quien dedicó
su Arenario y que eran parientes lejanos.
La vida de Arquímedes en Siracusa transcurrió apacible y sosegadamente; no
obstante, terminó de manera violenta, trágica.
Las fuentes que no se refieren a su trabajo científico, sólo nos relatan algunas
anécdotas significativas, referentes a su personalidad y a sus inventos. Pese a
esto, lo que nos ha sido referido perfila su personalidad más claramente que la de
cualquier otro matemático que le precedió o que fue su contemporáneo. Así,
ciertas anécdotas lo pintan como un hombre abstraído en sus reflexiones,
dibujando figuras geométricas en la arena o sobre su propio cuerpo, dominado por

52
el acto creador del hallazgo científico, como en el caso del “eureka, eureka”. En
cambio, hay otras que se refieren a sus sorprendentes inventos, que causaron la
admiración de la corte y de la población, en tiempos de paz primero y en la
desesperada defensa de su ciudad después. Así por ejemplo, es harto conocido
que durante el sitio de Siracusa, el poderoso genio de Arquímedes salió en
defensa de la ciudad mediante la construcción de sorprendentes artilugios, como
los grandes espejos parabólicos en cobre bruñido, con los que quemó los barcos
del centurión Marcelo o el uso del tornillo sin fin para templar las cuerdas de
enormes catapultas que lanzaban sus cargas a distancias increíbles, que dejaron
atónitos a los soldados romanos; pues, éstos fueron de tal magnitud y sencillez
que infundieron pánico en el invasor. Son muy conocidas las circunstancias de
este episodio de las guerras púnicas, que libraron cartagineses y romanos, gracias
a los relatos clásicos de Plutarco, Polibio, Tito Livio y Vitruvio.
Por ejemplo, Plutarco en su obra Vida de Marcelo nos cuenta al respecto que «En
cuanto a Arquímedes, fue tanto su juicio, tan grande su ingenio, y tal su riqueza en
teoremas, que sobre aquellos objetos que le habían dado el nombre y gloria de
una inteligencia sobrehumana, no permitió dejar nada escrito; y es que tenía por
innoble y ministerial toda ocupación en la mecánica, y todo arte aplicado a
nuestros usos; únicamente puso su deseo de sobresalir en aquellas cosas que
llevaban consigo lo bello y excelente, sin mezcla de nada servil» Sin embargo,
tales inventos no fueron sino los frutos de su trabajo como geómetra, como
científico.
Poco conocemos de cómo sus contemporáneos conceptuaron sus trabajos, ni la
magnitud de la difusión que tuvieron en su época. Tal es el caso de su principal
obra el Método, cuyo texto original se lo encontró recientemente, antes de esto
sólo se tenía un par de vaguísimas referencias en los trabajos de Suidas y Herón y
nada más.
Finalmente debo señalar cuán simbólico es el concepto que Arquímedes tenía de
su propia obra, al expresar el deseo de que sobre su tumba fuera grabado el
dibujo de una esfera inscrita en un cilindro, en alusión a uno de sus más
importantes descubrimientos.

53
Apolonio de Perga (2 6 2 -2 0 0 a. c.) fue el tercer gran matemático de este primer
período alejandrino que obtuvo el título de "gran geómetra”. Poco se sabe de él,
salvo que llegó a Alejandría cuando era joven, permaneció allí mucho tiempo, viajó
a otros lugares, y visitó Pérgamo donde conoció a Eudemo, uno de los primeros
historiadores de la ciencia. Apolonio escribió prolíficamente y muchos de sus libros
aún existen. Sus prefacios son admirables y muestran cuán refinado y exquisito
era el estilo de los grandes matemáticos cuando se hallaban libres de las trabas
de la terminología técnica. Habla con evidente placer de algunos de sus
resultados: «La mayor parte y los más hermosos de estos teoremas son nuevos»
Decir que lo que hizo Euclides por la geometría plana, lo hizo Apolonio por las
secciones cónicas, siguiendo el camino abierto por Menecmo, es una verdad
histórica. Él definió a estas curvas como secciones de un cono de base circular,
tanto recto como oblicuo y se esforzó en señalar que no sólo había secciones
circulares paralelas a la base, sino que también existía un segundo grupo de
secciones circulares.
Es por experiencia sabido que es más fácil estudiar al círculo que a la elipse; pese
a que, toda propiedad del círculo determina una propiedad correspondiente de la
elipse; ya que por deformación topológica continua del círculo obtengo la elipse y
viceversa. Por ejemplo, si se mira oblicuamente un círculo y su tangente, lo que
vemos es una elipse y su tangente. Esta incursión de la perspectiva nos lleva
directamente a la geometría proyectiva, y Apolonio simplificó sus problemas de
esta manera: obtuvo, mediante la geometría pura, las propiedades de las cónicas
que expresamos actualmente por ecuaciones como: x2/a2±y2/b2=1 ó
ax2+bxy+cy2=1 ó Vax+Vby=1. En la segunda ecuación a, b y c representan
múltiplos dados de ciertos cuadrados y un rectángulo, cuya área total es
constante. Como podemos ver poco tenía que aprender de la actual geometría
analítica de cónicas, exceptuando el sistema de coordenadas y la notación que se
perfecciona a sí misma con el transcurrir del tiempo. Además, logró resolver el
difícil problema que consiste en encontrar las distancias máxima y mínima de un
punto dado P a una cónica. Dichas líneas cortan a la curva en ángulo recto y se
denominan normales. Descubrió que desde posiciones adecuadas de P podían

54
encontrarse cuatro normales, y menos desde otras posiciones. Esto le condujo a
considerar una curva más complicada, denominada evoluta, a la cual le investigó
completamente. Trabajó con lo que virtualmente es una ecuación de sexto grado
en x e y, deducida de su equivalencia geométrica, lo cual resulta una hazaña
maravillosa para su tiempo.
Otra realización de Apolonio fue la resolución completa de un problema referente a
un círculo que satisfacía tres condiciones. Cuando un círculo pasa por un punto
dado, o corta a una línea ó a un círculo dados, se dice que satisface una
condición. Así, el problema de Apolonio implicaba, en realidad, nueve casos que
se extendían desde la descripción de un círculo que pasaba por tres puntos dados
a un círculo que cortaba a tres círculos dados. Los más simples de estos casos
probablemente fueron muy conocidos; de hecho, uno de ellos aparece en los
Elementos.
Apolonio fue también un aritmético y un astrónomo competente. Se afirma que
escribió sobre irracionales no ordenados e inventó un método rápido para el

cálculo del número n. Dando con este trabajo nacimiento a la teoría de la


convergencia uniforme.
La obra de estos dos gigantes de las matemáticas sería completa si no fuese
porque faltan llenarse algunas lagunas triviales, tales como la inclusión de un foco
a la parábola o una directriz a la curva, propiedades que Apolonio parece haberlas
pasado por alto.
La edad de oro de las matemáticas griegas había llegado a su fin con la muerte de
Apolonio. Desde los tiempos de Tales se había desarrollado una pléyade casi
continua de matemáticos importantes; pero, desde Apolonio hasta el siglo III d. C.
cuando Herón, Papo y Diofanto dieron una vez más fama a Alejandría, parece que
no surgió ningún matemático destacado. Durante este intervalo de casi quinientos
años, la acción de la cultura romana había marginado a los matemáticos griegos,
si bien mantuvo un cierto interés por la mecánica y la astronomía.
En esta época alejandrina tiene lugar el nacimiento del gran astrónomo Hiparco
(1 6 0 -? d. c.), y de dos notables comentaristas, Menelao (? -1 0 0 d. c.) y Ptolomeo (1 0 0 ­
168 d. c.) Menelao vivió hacia el año 100 d. C. y Ptolomeo tal vez era cincuenta

55
años más joven que él. De la vida de estos notables científicos poco se sabe,
aparte de lo que consta en sus propios escritos.
Igual carencia aparece en Herón (¿? - 2 5 0 ), Papo (¿? - 3 0 0 ) y Diofanto (¿? - 3 2 0 ), cuyos
nombres se han asociado entre sí para formar la segunda escuela alejandrina,
pues, vivieron hacia el año 300 d. C. Sin embargo, Papo y Diofanto se hallan
sumergidos en el misterio, cada uno parece estar cautivo de días pasados, más
cerca de Pitágoras y Arquímedes que de sus contemporáneos, o incluso entre sí.
Menelao es más conocido por los geómetras por su significativa contribución a la
trigonometría esférica. En sus escritos aparecen muchos teoremas nuevos, pero
ha sido de aceptación generalizada que la mayor parte de los resultados se
iniciaron con Euclides, Apolonio e Hiparco. El bien conocido teorema que trata de
los puntos en los cuales una línea trazada a través de un triángulo se cruza con
los lados, aún lleva su nombre. Algunos autores, a menudo clasifican su geometría
como "geometría moderna”, descripción que difícilmente va con su anciana
condición. El motivo de la aparición en su obra cobra sentido porque lo utiliza para
demostrar el teorema semejante para un triángulo trazado sobre una esfera.
Menelao formuló varios teoremas que eran igualmente válidos para triángulos y
otras figuras, tanto si se los trazaba sobre una esfera como sobre una superficie
plana. Incluían un teorema muy importante conocido como la propiedad razón en
cruz de una transversal trazada a través de un haz de rectas. Formuló también el
famoso teorema de que la suma de los ángulos de un triángulo esférico es mayor
que dos ángulos rectos.
Ptolomeo (?1 0 0 -1 6 8 d. c.), que fue un buen geómetra, siempre será recordado por
su célebre trabajo en astronomía. Trató este tema con una perfección comparable
a la alcanzada por Euclides en geometría. Su obra, que consiste en una
compilación, se conoce como Almagesto, nombre que se supone es una
abreviación árabe del título original griego. Su obra sedujo de lleno a los árabes
que se interesaron por la geometría y a través de ellos finalmente encontró un
puerto de llegada en la Europa medieval. De esta forma es que su teoría
planetaria, denominada sistema "ptolemaico”, fue ampliamente aceptada por parte
de la Iglesia Católica y mantenida como dogma de fe durante muchos siglos hasta

56
que fue reemplazada por el sistema copernicano.
Siguiendo el camino de Hiparco, escogió una o varias explicaciones concurrentes
del movimiento planetario e interpretó las observaciones mediante una ingeniosa
combinación de órbitas circulares y desplazamientos, llamados epiciclos (la curva
generada se llama epicicloide) El supuesto de que la Tierra se halla suspendida en el
espacio era fundamental para su teoría; pero, había otras explicaciones tales
como la de Aristarco de Samos (3 1 0 -2 3 0 a. c ), el amigo de Arquímedes, que suponía
que la Tierra gira alrededor del Sol. Por ello, cuando Copérnico ( 1 4 7 3 -1 5 4 3 ) sustituyó
la teoría ptolemaica por su conocido sistema centrado en el Sol, simplemente
estaba poniendo en vigor una teoría muy antigua.
Herón (? -2 5 0 d. c) de Alejandría fue un genio muy práctico con considerables
virtudes matemáticas. Generalmente se da por sentado que todos los grandes
matemáticos del mundo helénico fueron griegos; pero, hay indicios que permiten
suponer que Herón fue probablemente egipcio. En todo caso, en su obra
manifiesta una decidida inclinación hacia las aplicaciones prácticas antes que a las
abstracciones matemáticas, lo que se halla en congruencia con las características
históricas de Egipto, que hemos tenido a bien recordar. Ciertamente, Herón mostró
ser un sutil seguidor de Arquímedes, al aplicar sus matemáticas a la ingeniería y a
la agrimensura. No sólo hizo descubrimientos en geometría y en física, sino que
también inventó una máquina de vapor. No cave duda de que su teorema más
famoso es aquel que permite calcular el área de un triángulo en función exclusiva
de sus lados. En cambio, el más potente es el que demuestra que cuando la luz
procedente de un objeto se refleja en un espejo, la trayectoria del rayo entre el
objeto y el ojo, es mínima. Éste es un ejemplo del principio de mínima acción, que
más tarde Pierre-Louis de Maupertuis(1698-1759) lo convertirá en ley universal de la
naturaleza. Luego fue formalmente adoptado por Hamilton(1805-1865) para deducir
las ecuaciones canónicas del movimiento de un sistema de partículas y para
aplicarlo a la óptica.
A comienzos del siglo IV se produjo un renacimiento de la matemática pura,
cuando el entusiasmo pitagórico por la geometría y el álgebra volvió a cobrar vida
en Alejandría con la obra de Papo y Diofanto.

57
Papo (? -300 d. c) de Alejandría, último gran matemático griego de la Antigüedad. De
él se han conservado muchos de sus libros, entre ellos el gran comentario titulado
Colección, compilación de todos los conocimientos griegos de geometría. Se
aprecia sin dificultad que su obra mantiene íntimo contacto con fuentes muy
antiguas, especialmente con los trabajos perdidos de Euclides y Apolonio. Como
expositor, Papo se mantiene en pie de igualdad con el propio Euclides, tanto en
claridad mental como en riqueza prospectiva. Pero debo advertir que pretender
conocer, a partir de la lectura de la Colección, lo que se proponían Euclides y sus
seguidores, es lo mismo que intentar reproducir una partida clásica de ajedrez
magistral escuchando los comentarios de un ajedrecista profesional.
Las figuras que llenaban el escenario de la geometría pitagórica le maravillaron y
le hicieron meditar sobre lo sorprendente que es la geometría que practican las
abejas; pues, «Dios les había dotado a estas astutas y pequeñas criaturas con la
capacidad de construir sus celdillas con la mínima superficie límite» Se podrían
haber agrupado celdillas triangulares o cuadradas, conteniendo cada una la
misma cantidad de miel que la celdilla hexagonal, ¡pero las celdillas hexagonales
requieren menos cera!. Como en el caso de los espejos de Herón; aquí, vemos a
la naturaleza mostrándonos el mínimo esfuerzo que realiza y a Papo abriendo otra
importante rama de investigación. Situado en esta perspectiva formuló la pregunta
¿cuál es el volumen máximo contenido en una área superficial dada?. Con esta
interrogante se inscribía la partida de nacimiento de la rama de las matemáticas
que nos enseña a calcular las funciones máximas y mínimas de un sistema dado,
denominada Cálculo Variacional
Más asombroso, y en auténtico estilo arquimediano, es su famoso teorema que se
refiere al volumen de una superficie de revolución. Su idea central era averiguar
qué se puede saber sobre el volumen de un cilindro recto si se dan su sección
recta S y su longitud l; pues, el volumen es el producto SxI. Papo generalizó este
resultado elemental, considerando que un tubo como éste ya no fuera recto, sino
circular. Se suponía que la sección recta S era la misma en todas partes; pero la
longitud del tubo requeriría una definición ulterior. Por ejemplo, la longitud de una
llanta de bicicleta inflada es menor si se mide en torno al círculo interior, en

58
contacto con el aro, y es mayor en torno al círculo exterior. Esta ilustración sugiere
que puede existir una longitud I promedio o principal, para la cual la fórmula SxI es
válida. Papo descubrió que, para un tubo circular como ése, ocurría así, y fijó su
longitud media como la del círculo que pasaba a través del centroide de cada
sección recta S. Por centroide se entiende aquel punto particular de una área
plana denominado, centro de gravedad. Dado que el contorno de la sección S es
indiferente respecto al resultado, el teorema es una de las conclusiones más
generales de la matemática antigua.
Papo sobresalió en aquellas ramas de la geometría que trabajan con figuras
constituidas de puntos y líneas rectas. En esta materia dio una enumeración
completa de las propiedades connotadas, relacionadas con el cuadrilátero, y
particularmente con la agrupación de seis puntos sobre una línea recta dividida en
tres pares.
En un significativo pasaje del comentario sobre Apolonio, Papo aclara que,
ciertamente, fue un problema muy famoso: «el lugar geométrico de tres y cuatro
líneas», ya que resume lo mejor del pensamiento griego sobre las cónicas y nos
acerca con buena aproximación a la geometría analítica. Según nos dice Papo,
Apolonio consideraba el lugar geométrico o la traza que deja un punto P en
movimiento en relación con tres o cuatro líneas rectas fijas. Supongamos que P se
halla a una distancia x de la primera línea, y de la segunda, z de la tercera y t de la
cuarta. Supongamos también que estas diferencias se miden en direcciones espe­
cíficas, pero no necesariamente formando ángulos rectos con sus diversas líneas.
Entonces, al moverse P, los valores de x, y, z, t variaran; sin embargo, siempre
será posible construir un rectángulo de área xy, o un cuerpo rectangular de volu­
men xyz. Pero, como el espacio es tridimensional, aparentemente no hay nada en
geometría que corresponda al producto xyzt derivado de las cuatro líneas. Por otra
parte, la razón x/y de dos líneas es un número y nada nos impide multiplicar entre
sí tantas razones como queramos. Así, a partir de las cuatro líneas x, y, z, t,
podemos formar dos razones x/y y z/t, y multiplicarlas luego entre sí, xz/yt. Si la
razón resultante se toma como constante, e igual a c, entonces tendremos:
xz/yt=c ó xz=cyt. Ésta es una forma de enunciar el problema apoloniano sobre las

59
cuatro líneas. Indica que el rectángulo de las distancias x, z, de P a dos de las
líneas, es proporcional al de las distancias y, t, a las otras dos. Cuando ocurre esto
describe una cónica, como demostró Apolonio. El mismo análisis puede aplicarse
si se dan tres o seis líneas. Papo continúa su comentario, generalizando el
resultado para cualquier número de líneas. Con ello había dado comienzo a la
teoría de curvas planas de orden superior; pues, el número de razones implicado
define el llamado orden o grado de la curva. Así, una cónica es de grado dos,
porque implica dos razones, como se ve en el caso apoloniano anterior. En el caso
más sencillo, cuando sólo se emplea una razón x/y, el lugar geométrico es una
línea recta. Por este motivo, a veces se denomina curva de primer grado a la línea
recta. Papo había descubierto curvas de grado más elevado que el segundo que,
actualmente, se les denomina cúbicas, cuárticas, quínticas, etc. Es muy seguro
que haya descubierto casos particulares de cúbicas y otras curvas que los
antiguos las habían utilizado para trisecar un ángulo y por el estilo. Pero lo cierto
es que los matemáticos tuvieron que esperar a que Descartes inventara un
sistema de coordinación de variables para confirmar la veracidad de lo dicho.
Diofanto (? -3 2 0 d. c) fue el otro gran matemático que brilló junto al faro de
Alejandría. Es famoso por sus escritos sobre álgebra, y vivió por la época de
Papo. Esto se sabe gracias a una carta de Pselo, en la que menciona que
Anatolio, obispo de Laodicea hacia el 280, dedicó a Diofanto un tratado conciso
sobre el método de cálculo egipcio.
Uno queda convencido de ello al leer los términos de un epigrama griego, que nos
relata esquemática pero concisamente la historia de su vida de esta manera: «Su
infancia duró 1/6 de su vida; su barba creció después de 1/12 más; se casó
después de 1/7 más, y su hijo nació cinco años más tarde; el hijo vivió hasta la
mitad de la edad de su padre, y el padre murió cuatro años más tarde que su
hijo».
Si x es la edad a la cual murió, entonces:
1/6 x + 1/12 x+ 1/7 x + 5 +1/2 x + 4 = x
Resolviendo la ecuación sabemos que Diofanto debe haber vivido hasta los
ochenta y cuatro años de edad.

60
Los principales escritos de Diofanto que se conservan son seis de los trece libros
que conformaban la Arithmética, y fragmentos de sus Números Poligonales y
Porismas. Estos libros comenzaron a atraer la atención de los doctos de Europa
mil doscientos años después de haber sido escritos. De ellos Regiomontano
comenta en 1463 que: «en estos libros antiguos se halla oculta la flor y nata del
conjunto de la aritmética, el ars rei et census que actualmente conocemos por el
nombre árabe de álgebra»
Esta obra de Diofanto es doblemente importante, por un lado produjo un gran
progreso en la simbología matemática y por otro, abrió amplias perspectivas al
objetivo del álgebra tal y como existía en aquel entonces. El significado pleno de
sus aportaciones a la matemática sólo llegó a ser observable con la aparición de la
primera escuela francesa, durante los siglos XV y XVI.
Su estudio sobre la notación es muy importante, y cubre una región más amplia de
lo que se podría suponer a primera vista; pues, el estudio de los símbolos abarca
hasta a la propia literatura, puesto que las palabras son los símbolos del
pensamiento. Ahora, concentremos nuestra atención en el símbolo literal, tal como
aparece a la vista en toda fórmula matemática y en una frase impresa; o bien
sobre la cosa representada, sobre el sentido del párrafo o sobre el pensamiento
que yace detrás del símbolo. Una buena notación es por tanto un instrumento muy
valioso pues permite precisar y destacar lo que se representa; debe llevar su
propia adecuación y sugestión y debe ser fácil de reconocer y cómoda de usar.
Una vez dados este instrumento y el material sobre el cual trabajar, uno puede
esperar que se concrete un progreso en la ciencia.
Los griegos estuvieron bien dotados en su propio lenguaje y en su notación geo­
métrica; pero, su aritmética y su álgebra avanzaron muy lento debido a la poco
apropiada notación; así por ejemplo se vieron entorpecidos por el uso de las letras
a, p, y en lugar de los números 1, 2, 3, y esto inhibió la flexibilidad de los cálculos
aritméticos ordinarios. Antes de que la notación fuera ampliamente conocida,
incluso la simple adición era una tarea que requería cierta habilidad, si no se
contaba con la ayuda de un ábaco. Los méritos principales de esta notación son el
signo 0 para el cero, y el uso de un mismo símbolo, cuyo significado viene

61
determinado por su contexto, para designar varias cosas distintas, como, por
ejemplo, la notación 11 para significar diez y uno, ya sean manzanas o cualquier
otra cosa. Se ha reconstruido la historia de esta utilización y se ha llegado hasta
una fuente, en el sur de la India, que data de poco después de la época de
Diofanto. De allí debió haberse extendido al mundo musulmán y a la Europa
medieval.
En lo que va del relato hemos escrito algunas fórmulas algebraicas. Desde luego,
no son una trascripción literal de las griegas, pero son explicaciones simbólicas
concisas de teoremas griegos, presentados originariamente en frases verbales, o
en forma geométrica. Por ejemplo, a2 ha sido empleado en vez de "el cuadrado
sobre AB”. Los primeros ejemplos de esta álgebra simbólica aparecen en la obra
del matemático francés Vieta (1 5 4 0 -1 6 0 3 ), no obstante, sólo pasaron a ser de uso
general hacia el año 1650. Hasta aquella época, la notación de Diofanto era la
universalmente adoptada.
Una antigua clasificación nos habla de las categorías Álgebra retórica, Álgebra
sincopada, Álgebra simbólica. Entienden a la primera como aquella que expresada
en el lenguaje común. La segunda es la que se expresa por medio de las iniciales
o abreviaciones y semejantes de las palabras. El que más ha contribuido a dar
este decisivo paso evolutivo en la notación matemática ha sido precisamente
Diofanto. La tercera, el álgebra simbólica, se instituyó finalmente, una vez que
Vieta la hubo inventado, gracias a la influencia de Napier ( 1 5 5 0 -1 6 1 7 ), Descartes
(1569-1650) y Wallis (1616-1703)
Una expresión típica de álgebra simbólica es (2 5 0 x2+ 2 5 2 0 ) - (x4+ 9 0 0 - 6ox2) y sirve
para ilustrar la dimensión de la complicación a la que Diofanto se enfrentó con
éxito. Sus síncopas le permitieron escribir, y trabajar, con ecuaciones que
implicaban éstas u otras expresiones parecidas. Por 250 x2escribió A ¥ av: aquí,
la letra v significaba 50, y a=200, de acuerdo con la práctica griega corriente. Pero
el A¥ era una abreviación de la palabra griega que significa potencia; y potencia

representaba el cuadrado del número desconocido. Diofanto empleó la letra £


para la primera potencia de la incógnita, y la abreviación de la palabra cubo para

62
la tercera potencia. No empleó ningún signo para más, pero sí una especie de
invertida para menos, la letra t para igual, y una frase especial para designar la
división de una expresión por otra. Es interesante que su idea de adición y
sustracción fuera "venidero” y "deficiente”, y que la palabra griega para deficiente
se halle relacionada con el término pitagórico elipse.
Los que han resuelto ecuaciones cuadráticas, recordarán el corto aforismo que
dice: «El cuadrado de la mitad del coeficiente de x» Es una cita de Diofanto, quién
trabajó con dichas ecuaciones con maestría sin par, llegando a incursionar en los
casos más sencillos de ecuaciones cúbicas. No obstante, habla de «a imposible
solución de la absurda ecuación 4=4x+20» Alude a que una ecuación como ésta
requiere una solución negativa, números que hasta mucho tiempo después no se
consideraron como verdaderos números. Pero las fracciones y las raíces alternas
de las ecuaciones cuadráticas no significaron ninguna dificultad para él.

Diofanto, al abordar tales problemas haciendo uso únicamente de su símbolo £,


puso de manifiesto la principal limitación de su notación. No obstante, resolvió
hábilmente ecuaciones simultáneas, tales como: yz=m(y+z), zx=n(z+x), xy=p(x+v).
Este ejemplo, pone en evidencia que él tubo conciencia del valor que la simetría
desempeñaba en álgebra y, además muestra su gran talento para la misma.
Pero alcanzó alturas mucho mayores, y su obra inmortal lo realizó en los dominios
de la teoría de los números y de las ecuaciones indeterminadas. Ejemplos de esta
última aparecen en el problema del ganado planteado por de Arquímedes y en la
ecuación 2x2- y2=1.
Hasta hoy en día con su nombre se alude a ecuaciones sencillas, como las que
forman parte del problema del ganado, aunque parece que nunca se interesó por
ellas. Se interesó, más bien, por las cuadráticas y otros tipos más elevados, más
difíciles, como por ejemplo la ecuación: x4+y4+z4=u2. Encontró cuatro números
enteros, x, y, z, u, para los cuales esta afirmación era cierta. Siglos más tarde, sus
textos, traducidos al latín por Bachet de Méziriac, fueron ávidamente leídos por
Pierre D’Fermat (i60i-i665)(ver recuadro 6), quién se apresuró a preguntar: «¿Por qué
Diofanto no buscó dos cuartas potencias tales que su suma fuese un cuadrado?»
Y luego sentenció «De hecho, este problema es imposible, como puedo demostrar

63
con todo rigor mediante mi método» Sin duda, Diofanto había experimentado lo
suficiente con la ecuación, aparentemente más sencilla, x4+y4=u2, para demostrar
que no había solución.
Así fue cómo, con Diofanto, la geometría griega alcanzó su máxima realización, en
el sentido de que ya no era productivo seguir explorando y encontrando las
propiedades del EMROcc, mediante técnicas solamente geométricas, ya que
éstas se acercaban al agotamiento epistemológico. En su trabajo se puede
apreciar claramente la necesidad creciente que tiene por realizar operaciones
algebraicas para lograr demostrar los teoremas y, su preocupación constante por
la inadecuada notación con la que tenía que operar; la cual, después de todo,
constituía la herencia histórica llegada desde el antiguo Egipto, tal como lo hemos
podido referir. Y, como todo termina en tragedia en Occidente, debido al dualismo
letal que alberga su corazón, es triste recordar que la fecha que verdaderamente
marca el fin de la ciencia helénica y de la fase antigua del desarrollo del EMROcc,
es el año +412 en que la matemática alejandrina Hypatia (3 7 0 -4 1 2 ) es asesinada de
forma lapidaria. Esta excepcional mujer griega, hija del matemático Teón se hizo
célebre por su talento matemático, su elocuencia y su belleza. Estudió en la
academia de Atenas y a su regreso a Alejandría fundó una escuela en la que
enseñó las doctrinas de Platón y Aristóteles. Se distinguió por los comentarios a
los trabajos de Apolonio y Diofanto.
Había llegado el momento de entregar la tea del progreso de las matemáticas a
las ciencias abstractas como la aritmética y el álgebra y de poner en manos de la
civilización islámica parte de la realización de esta obra. El turno de la geometría
llegó a su término, ésta se encontraba fatigada; pero, no sin antes haber
entregado todo cuanto fue posible dar de sí, dentro del marco histórico que
limitaba su generosidad infinita.
Hasta aquí hemos aprendido cómo la geometría, surgida en el escenario de la
práctica agrícola y desarrollada en la cuenca del río Nilo, llegó a vertebrar el
cuerpo histórico de las sociedades egipcia, griega y judía.
A diferencia, sólo hemos aludido muy ligeramente a la evolución del pensamiento
matemático producido por las sociedades mesopotámicas, aquellas que cultivaron

64
el trigo en el fértil valle del Tigris y el Eúfrates, aquél lugar situado en el Asia
Occidental que Alejandro Magno helenizó, pero que sin duda lo orientalizó. Como
ya dijimos estos pueblos se vieron impelidos a desarrollar la Aritmética con
carácter dominante sobre la Geometría. Ellos, obligados por la acción de las
fuerzas del mercado, llegaron a implementar un apropiado sistema simbólico para
escribir con precisión las palabras mediante las letras y los números mediante los
numerales, de tal manera que facilitara la realización de los contratos y la
contabilidad que exigían las transacciones comerciales.

65
1. 2 F a s e I n t e r m e d ia o M e d io e v o

1. 2 1 Las matemáticas del lejano Oriente


En los escritos religiosos hindúes se puede encontrar un germinal pensamiento
geométrico, a la manera de los egipcios y babilonios. En ellos hay cálculos
geométricos para la construcción de templos y altares. Allí constan los primeros
métodos de cuadratura del círculo, aplicaciones del teorema de Pitágoras y
funciones trigonométricas.
Y geometría práctica hindú se puede hallar mucho antes, en una fecha tan antigua
como es la que corresponde al esplendor de las ciudades de Mohenjo-Daro y
Harappa, en el valle del Indo, hace 5.000 años; ciudades cuyos vestigios todavía
evidencian el magnífico alcantarillado y el trazo cuadriculado de las
urbanizaciones, que las acredita como las primeras localidades levantadas con un
plan geométrico, que coincide con la edad de los primeros escritos geométricos
cuneiformes.
La relación de India con Babilonia seguramente data de aquellos tiempos.
Amuletos encontrados en Mohenjo-Daro, con motivos de culto a los animales
sagrados, son muy parecidos a varios de los sellos mesopotámicos que contienen
grabados de animales tales como el elefante, el rinoceronte y el cocodrilo
ictiofágico, todos de procedencia indostánica.
¿Y qué podemos decir de los antiguos vínculos de India con la China?
El destacado nexo sino-hindú en la conceptualización de espacio no fue, en modo
alguno, una excepción. Los vínculos fueron muy importantes, naturalmente; y las
influencias, de doble dirección.
Está documentado en la historia oficial de la dinastía Sui, el conocimiento, en
China, de astronomía, matemática, cronometría y medicina hindúes. El aceite
chalmugra, por citar un caso, de arraigada tradición en la farmacopea china para
el tratamiento de la lepra, es de muy probable origen hindú, igual que la técnica de
trepanación.

66
La matemática hindú recibió, por su parte, una significativa contribución de los
antiguos matemáticos chinos. Así, en la obra de Bháskara, de hace 850 años, se
cita una prueba utilizada por Chao Chun Chhing, en el siglo II, en su comentario al
más antiguo clásico de matemática china que se conoce: el Chou Pei (Horas solares)
El algoritmo para el cálculo del área de un segmento de círculo, recogido en el
Chiu Chang Suang Shu o Aritmética de nueve secciones, reaparece en la obra de
Mahávíra del siglo IX. Y así se puede referir otros ejemplos.
Según lo investigado por el historiador contemporáneo Ling Wang, el desarrollo de
la matemática china empezó hace aproximadamente unos 33 siglos. En la
Aritmética de nueve secciones, escrita por Chuan Tsanom en el año 132, a
manera de una enciclopedia, se sintetiza el saber matemático conseguido por los
chinos hasta esa fecha. Destinada al consumo de diferentes tipos de funcionarios
del servicio civil -como agrimensores, astrónomos o ingenieros-, la obra consta de
nueve libros y en ellos se formulan y resuelven unos 250 problemas, agrupados en
clases y presentados con la respectiva regla de resolución.
Igual que en el Papiro Rhind, los problemas son de índole muy práctica. Por
ejemplo, el libro 1 trata de la "medición de campos” y allí se calculan áreas de
figuras rectilíneas planas y de círculos; el libro 2 es una "relación entre diferentes
formas de cereales” y versa sobre el cobro de impuestos al grano -que se mide en
unidades de volumen- y otros cálculos agrícolas; el libro 5, de "estimación de los
trabajos”, contiene estudios para la ejecución de proyectos tales como: paredes
fortificadas, murallas, diques, torres y faros, con cálculos de requerimientos de
equipos, materiales y mano de obra. El Libro 7, sobre el "exceso y defecto”, refiere
problemas de intercambio entre lingotes de oro y de plata, que llevan a ecuaciones
lineales y al método de sus soluciones.
Llama la atención el que este desarrollo algorítmico no hubiera desembocado en
demostraciones axiomático-deductivas, en geometría propiamente dicha. Según
conozco, los chinos tuvieron que esperar al siglo XVII para tener a Euclides, y ello
gracias a la famosa misión de jesuitas europeos encabezadas por Matteo Ricci.
Me parece, por lo demás, que a esta intrigante carencia se debe el que la
astronomía china permaneciese limitada como astrología y nunca alcanzase a

67
evolucionar en una visión geométrica de los cielos, al modo de la que se observa
en Eudoxo, Aristóteles y Ptolomeo.
Por algún motivo, insuficientemente aclarado, la ciencia pura de Asia Oriental no
penetró en Occidente, en la misma medida en que varios de los descollantes
inventos chinos pasaron a Europa siguiendo la ruta de la seda. Esto ha sido causa
de un viejo y arraigado prejuicio: la ponderación, unilateral, del empirismo de los
antiguos chinos, en desmedro de su capacidad de abstracción.
Es por demás conocido que los chinos se adelantaron a Europa en líneas de
producción tan maestras como la fabricación del papel, la invención de la
imprenta, de la pólvora y de la brújula. Junto a estos artificios tenemos, la
fundición del hierro en altos hornos (en Europa surgió a fines del Siglo XIV, como base de la
revolución industrial), que se viene practicando en China desde hace veintitrés siglos; la
carretilla y la técnica de perforación profunda, que se idearon hace 2.100 años; el
sismógrafo de Chang Heng, invento del siglo II, que fuera diseñado para localizar
la dirección azimutal del epicentro y la magnitud de la sacudida; el empleo de
minerales para el tratamiento de dolencias orgánicas, mucho antes de Paracelso;
la rueda hidráulica y los puentes colgantes con cadenas de hierro. Y se puede
alargar y endulzar la lista, si se quiere, con los tallarines y el helado.
Si varios inventos chinos pasaron a Europa, no menos importantes fueron las
exportaciones europeas a la China. Los jesuitas del siglo XVII llevaron el tornillo
de Arquímedes y el sinfín, la bomba doble de Ctesibio, la manivela y el molino
vertical de torre. Ello, sin contar la notación algebraica de Viéta, los logaritmos de
Napier y la mecánica de Kepler y Galileo. Pero, sobre todo, insisto, la geometría
de Euclides, cuya aparición en Alejandría marcó, a mi entender, el punto crítico de
divergencia entre los dos saberes: el Occidental y el Oriental.
La polis griega, ciudad de navegación y comercio, abierta al mundo, brinda un
contraste por demás sugestivo con el hsien chino, ciudad de encierro feudal,
sujeta al poder omnipresente del mandarinato e íntimamente vinculada con la
agricultura. Me parece que por aquí se puede explicar la divergencia, tal como ha
sugerido Joseph Needham.

68
El desarrollo independiente y temprano del álgebra china: el método de las
potencias y coeficientes radiantes, nos hace notar que los ritmos evolutivos del
saber no tienen por qué ser necesariamente uniformes o simultáneos.
No estamos inquiriendo sobre la causa de adelantos y atrasos relativos,
únicamente quisiéramos saber la causa no del rezago chino en la generación
indígena de un discurso geométrico, sino el por qué nunca los chinos llegaron a
producir este discurso.
Ensayando una respuesta podemos decir que hubo dos escuelas, en la antigua
filosofía china, capacitadas como para llegar a elaborar algo equivalente a la
geometría euclidiana: el confucianismo y el legalismo.
El confucianismo, igual que el pitagorismo, menospreciaba el trabajo manual,
poseía la misma afición por el cultivo de la espiritualidad separada de la naturaleza
y mantenía la misma actitud de sumisión frente al poder político establecido.
El legalismo, por su parte, profesaba la misma fe pitagórica, o pitagórico-platónica,
en el poder real y sustitutivo de los códigos y las representaciones formales; tanto
así que fueron legalistas los primeros en postular que las conductas humanas
debían juzgarse no por el mérito de los hechos sino según lo prescrito en los
arreglos jurídicos. Tal vez fue esta pretensión lo que impidió que el legalismo
alcanzase resonancias entre la intelectualidad china, más proclive al sereno juicio
de las evidencias.
Ahora bien, ni los confucianos ni los legalistas llegaron a tener intereses por la
astronomía o por la matemática. Filosofía social y derecho, bien acotados, fueron
las materias de sus reflexiones, en tanto que sería la filosofía taoísta el
pensamiento que penetró y dominó la ciencia natural china, la cual surgió de la
asociación entre los shamanes y los criteriosos hombres que consideraron más
importante el estudio de la naturaleza.
En agudo contraste con esas inclinaciones "formalistas”, si así pudiéramos
llamarlas, el taoísmo nunca llegó a despreciar el trabajo manual ni jamás estuvo
por abandonar la realidad para sumergirse en el océano de la mente.
Según ha recordado el mismo Needham, la actitud del taoísta fue, siempre, la del
respetuoso seguidor de las leyes de la naturaleza. Su objetivo: transformarse, por

69
medio de una considerable variedad de técnicas, en un ser etéreo, purificado y
libre, capaz de vagar eternamente a través de montes y valles, regocijándose ante
la infinita belleza de la naturaleza y entendiendo su armonía y orden fundamental:
el Tao.
Como podemos ver, y a pesar de que en China estuvieron presentes condiciones
y actitudes propicias como para elaborar por cuenta propia una geometría
semejante a la euclidiana (incluyendo el concepto de espacio vacío), nunca hubo un
discurso geometrizador indígena, por el sencillo motivo de que los espíritus
acondicionados para lograrlo-confucianos y legalistas- caminaron por senderos
distintos a los transitados por los matemáticos griegos, y tampoco tuvieron, jamás,
fuerza y razón suficientes como para cuestionar la empresa taoísta.
Cuando Alejandro conquistó los países orientales, llegó ciertamente hasta la India,
estableciendo de hecho contacto entre Oriente y Occidente. Este acontecimiento
tuvo lugar hacia el año 300 a. c., mientras que el primer trabajo matemático de la
India vio la luz en un período posterior, 450-650 d. c.; pero, es indiscutiblemente
aborigen, espléndida muestra de la original cultura matemática hindú, la cual no ha
dejado de brillar hasta nuestros días.
Esta historia comienza con los trabajos de Aryahbata en el siglo V. A él le debemos
las reglas para operar con números fraccionarios, la regla para la extracción de la
raíz cuadrada -que son las mismas que empleamos hoy día- y el haber
establecido el valor de 3.14159...para el número n. Pero, su trabajo más
importante fue la resolución completa de la ecuación de segundo grado, que es la
misma que aprendemos en el colegio. La magnífica obra matemática hindú
continúa con su alumno, Brama-Gupta (598-660) en el siglo VI con sus obras Ganita
y Cattaca en las que discurre sobre la resolución de las ecuaciones
indeterminadas. Culmina esta pléyade de matemáticos con Mahavira en el siglo IX
y Bháskara en el siglo XII con su libro Sidhanta Ciromani. Ellos nos ofrecen un
estudio más amplio, sistemático y definitivo de las operaciones con quebrados.
Pero no olvidemos mencionar que el mayor servicio que prestó la cultura hindú fue
la entrega al mundo la notación decimal y los signos numéricos (numerales), cuyo
uso se ha universalizado plenamente en la sociedad humana.

70
En conclusión podemos decir que el aporte hindú a las matemáticas ha sido
verdaderamente significativo, principalmente en álgebra y trigonometría.
1. 2 2 El Islam y la Ciencia
El intervalo histórico que va desde la Antigüedad hasta el Renacimiento es
denominado período Islámico y transcurrió entre los siglos VIII y XIV. Durante este
lapso de tiempo la mayor parte de la actividad científica se distribuyó en el Oriente
medio, en el norte de África y en la España musulmana. A medida que la cultura
greco-latina languidecía, la llama del conocimiento era transferida a manos
musulmanas. Los sabios del Islam la mantuvieron encendida y la avivaron para
luego transmitirla a la Europa del Renacimiento.
Dos circunstancias propiciaron el desarrollo de las ciencias en los dominios del
Islam. Una fue la proximidad geográfica a los grandes centros culturales de la
Antigüedad y la tolerancia que la religión de Mahoma prodigaba a sabios y
eruditos pertenecientes a otras convicciones religiosas. Y la otra, proviene de las
prácticas religiosas musulmanas que planteaban muchos problemas relacionados
con la astronomía matemática, principalmente los que tenían que ver con la
determinación del tiempo.
Para resolver estos problemas los científicos musulmanes concibieron métodos
que fueron más allá que los de los sabios griegos, sobre todo en el campo de la
trigonometría esférica. Esta fue utilizada más tarde para crear la astronomía del
Renacimiento. La huella que dejó en la ciencia occidental ha sido indeleble, la
tenemos presente hoy día cuando utilizamos las palabras de origen árabe cero,
cifra, guarismo, cociente, cenit, acimut o mencionamos los nombres de las
estrellas Vega, Al-tair, Deneb, etc.
La parte del rol desempeñado por los científicos musulmanes en lo que tiene que
ver con la reelaboración de la ciencia antigua y su transferencia al occidente latino,
es historia que apenas se está conociendo, restan millares de documentos
manuscritos por examinar. No obstante, puede ofrecerse un breve esquema del
proceso.
Los fundamentos de la ciencia islámica se colocaron dos siglos después de la
emigración del profeta Mahoma desde La Meca hasta Medina en el año 622. Este

71
hecho conocido como la Hégira, marca el punto de partida del calendario
musulmán.
Los primeros siglos del Islam se caracterizaron por una rápida y turbulenta
expansión del Imperio. Durante este tiempo la Hégira no había creado todavía las
condiciones suficientes para el florecimiento de las ciencias. Pero esta situación
no duró mucho tiempo y la nueva dinastía de los abbasí, que tomó el poder del
Califato en el año 750 y fundó Bagdad en el 762, empezó a promover con pujanza
las traducciones de los textos griegos y en unas pocas décadas las grandes obras
científicas de la Antigüedad, como la de los fundadores de la medicina occidental,
Galeno, Hipócrates y Dioscórides, y las de Aristóteles, Euclides, Ptolomeo,
Arquímedes y Apolonio, se podían leer en lengua árabe. Este magnífico trabajo
fue realizado tanto por eruditos cristianos y paganos como por sabios
musulmanes. El más entusiasta promotor de ésta fue el califa al-Ma’mún (813- 833)
que llegó al poder en el año 813 y fundó la academia llamada Casa de la
Sabiduría, la que puso a cargo del cristiano nestoriano Hunayn ibn Isaaq al- cIbadi,
el cual se convirtió en el más célebre de los traductores de textos griegos.
Es historia cierta que durante los siglos IV y V el cristianismo se esforzaba por
implantarse en el Cercano Oriente y por resolver el conflicto con el helenismo
pagano. El historiador actual Ibn Khaldún es su libro Al-Muqaddina escribe al
respecto que: «Cuando los emperadores adoptaron el cristianismo y abandonaron
las ciencias racionales para obedecer a las Escrituras y a las doctrinas de la
religión, la ciencia reunida en los manuscritos quedó encerrada en los cofres
imperiales, donde permaneció durante todo el tiempo de la soberanía de aquellos
sobre Siria, hasta la llegada del Islam»
Mientras tanto, los sabios se empeñaban en permanecer siendo paganos, les
disgustaba sobre manera tener que aceptar la nueva religión y abandonar el
helenismo, hecho que forzó a Justiniano a cerrar las puertas de la emblemática
Academia ateniense en el año 529, poniendo término a la época helénica.
Acto seguido se produce la diáspora intelectual y algunos de los maestros de la
Academia se refugian en la corte de Cosroes I, rey de Persia y enriquecen las filas
de la comunidad de los sabios de Yundisapur. Por el estilo, muchos hombres de

72
ciencia se fueron exiliando a Oriente fundando núcleos intelectuales como los de
Edesa y Nísibis. A estos centros les cupo el papel motor en la traducción de los
textos griegos y siríacos a la lengua árabe. En el Próximo Oriente, al lado de estos
focos cristianos se fueron desarrollando otros no cristianos. Uno de ellos se
encontraba en Harrán, lugar poblado por una comunidad de religión sabea. Los
harranianos eran los custodios de los conocimientos de astronomía tomados de
los babilonios, así como también del neopitagorísmo y del hermetísmo; además,
como eran conocedores de ciertos fundamentos de la ciencia islámica
contribuyeron a su traducción al árabe.
En los albores del Islam, los árabes, originarios de Arabia, no poseían estas
tradiciones que eran indispensables para el florecimiento de la ciencia islámica y
sólo constituían un grupo demasiado reducido como para llegar a influir en las
demás comunidades. En las tierras conquistadas la masa de la población todavía
no había sido convertida al Islam y ni siquiera estaba arabizada. Pero los árabes
llevaban consigo tres componentes potentes: la lengua árabe, el Islam y un
gobierno fuertemente centralizado. Solamente hacía falta una sociedad
musulmana con tradiciones profundamente enraizadas en alguna cultura.
Así pues, la role que la civilización islámica ha desempeñado en la historia de la
ciencia y la técnica ha sido decisiva. Para alcanzar tan grande objetivo fue preciso
que siguiera un determinado patrón evolutivo. El patrón de conversión fue sin duda
el Islam, el cual obró como un poderoso atractor. Así fue como, Irán, Irak, Siria,
Egipto y al-Andalus entran en el gran tornado de conversión islámica. La conquista
del sur de Mesopotamia acaece en el año 633 y la de Damasco en el 635.
Cuando el proceso de conversión se había estabilizado, el ochenta por ciento de
la población de estas naciones se habían convertido al Islam y el veinte por ciento
restante se quedaron como minorías religiosas. Es, desde esta época que en el
Próximo Oriente existe una sociedad típicamente musulmana cuyas instituciones
reflejan las necesidades de la población de modo mayoritario.
La ciencia islámica comenzó ha expandirse durante la fase de vendaval que fue la
de las conversiones, sin haber podido hacerlo antes a causa de la ausencia de
una sociedad musulmana. Este proceso duró casi dos siglos, desde el comienzo

73
de la era islámica hasta el reinado de al-Ma’mún, quién permitió el florecimiento de
la ciencia islámica, en lo relacionado con la actividad de las traducciones, como ya
indicamos.
Así pues, el despliegue ascendente de la civilización islámica tuvo que pasar por
la conversión de todas las sociedades aborígenes de los países de civilización
preislámica, incluyendo el Cercano Oriente helenístico y Persia, en una sola
sociedad islámica. Simultáneamente, la lengua de la ciencia que había sido el
griego, el siríaco o el pehlevi, sufrió un profundo y definitivo cambio: todos los
textos científicos se tradujeron al árabe. Este progreso alcanzado le permitió
situarse en un nivel desde el cual estaba en condiciones de hacer importantes
aportes a la ciencia. A todos nos es evidente que la ciencia no puede progresar si
el ambiente social no es propicio, ya que los valores culturales, en determinados
momentos de su evolución, se convierten en insalvables obstáculos para su
desarrollo, como es el caso de la lengua.
Ha quedado establecido que el Islam se alimentó de dos fuentes: el Sagrado
Corán y la sabiduría del Profeta Mahoma. En el Corán se venera y exalta a los
sabios, así se dice que: «Quienes poseen el saber y quienes no lo tienen ¿han de
ser iguales?» Por su lado el Profeta insinuaba que «la búsqueda del conocimiento
es una obligación de todo musulmán y debe buscarlo desde la cuna hasta la
tumba; ya que el que viaja en pos del saber, viaja por el sendero de Dios hacia el
paraíso» y finalmente sentenció que «La tinta de los sabios vale más que la
sangre de los mártires»
La clasificación de las ciencias se constituyó en tema de central preocupación por
parte de los sabios y pensadores islámicos, por ejemplo al-Farabirte (?-950), autor
de la obra conocida en la Edad media con el título latino de De scientíis. Según
estas clasificaciones las ciencias filosóficas o racionales comprendían la lógica, la
metafísica, las ciencias de la naturaleza y las matemáticas. Las ciencias
matemáticas en el pensar de Ibn Sina o Avicenas, comprenden cuatro disciplinas
fundamentales: aritmética, geometría, astronomía y música y otros temas
derivados, como las "cuatro reglas” y el álgebra, como el arte de reducir y

74
simplificar. Por su parte las ciencias técnicas se expresaron en la agrimensura, la
mecánica, el arte de los pesos, la ciencia de los espejos y la mecánica de fluidos.
Como podemos apreciar, la ciencia islámica formaba parte de la filosofía. Esta
visión, que se remonta a los tiempos de Aristóteles, guió a los sabios musulmanes
y cristianos a lo largo de toda la Edad Media. Es de recordar que antes de éste
apogeo de la filosofía, los sabios meditaban en los significados teológicos
implícitos en el Corán y de su naturaleza. Lo que en suma ellos buscaban eran las
soluciones islámicas correctas de los problemas que surgían en la relación entre
la ley divina y las acciones de los hombres.
Como producto de este proceso surgió la ciencia del Kalám que tenía como
objetivo central «fundamentar sólidamente la fe religiosa aportando pruebas y
aclarando dudas»
Las vertientes más importantes del Kalám adquieren poder al comenzar el califato
abasí de Al-Ma’mún. Este califa impuso su propia doctrina del Corán como
teología oficial de su gobierno, una vez que derrotara al gran pensador sunita Ibn
Hanbal. La doctrina triunfante se mantuvo en el poder por sólo dieciséis años, para
luego pasar a manos de Al-Mutawakkil. Los seguidores del nuevo califa fueron
más hombres de religión que filósofos; invocaban la razón para defender el dogma
y al mismo tiempo la aducían como criterio de la Ley.
La otra vertiente del Kalám hizo aparición gracias a la acción de un antiguo
mutazilí Al-As’carí (?-935) y dio nueva orientación a esa ciencia. Los ascaríes se
fundamentaban en el conocimiento y en el juicio racional, pero siempre con una
perspectiva religiosa. Se considera que desarrollaron la escuela del Kalám mejor
aceptada y la más oficial durante el largo período que fue desde el siglo X al XIX.
A diferencia de la opinión de los teólogos o mutakallimún, en esta rama, los
filósofos eran considerados primero como pensadores y luego como hombres de
religión y únicamente se ocupaban de ésta «cuando su razonamiento filosófico no
coincidía con aquélla y tan sólo obraban para armonizar uno con otra»
El período culmina con el apostolado del sabio Ibn Sina, conocido en occidente
como Avicenas (?-i.037) En su metafísica discurre sobre todos los temas revelados

75
en el Corán y propone, mediante el razonamiento filosófico, redescubrir sus
prescripciones sociales positivas.
En el periodo que sigue se configura un nuevo ciclo de predominio de lo teológico
sobre lo filosófico a través de Al-Gazzali (?-i.iii) con su célebre libro La
incoherencia de los filósofos aparecido por el año 1095, en la cual refuta muchas
creencias establecidas de manera demoledora; pues, como erudito conocedor del
Kalám y de la filosofía que era, estaba al tanto de las falencias y flaquezas de sus
adversarios. Él fue al mismo tiempo un filósofo y un mutakallim; sin embargo,
rechazaba la autoridad de Aristóteles así como las antiguas ideas metafísicas. En
su Libro del conocimiento se propone destacar la importancia de la función social
de la ciencia. En esta obra las ciencias de la naturaleza y las matemáticas son
consideradas iguales y no estaban prohibidas por la ley religiosa. Entre las
ciencias él distingue las lícitas y las que no lo son y dice: «Las ciencias lícitas son
aquellas sobre cuyo conocimiento se fundamentan las actividades de esta vida,
tales como la medicina y la aritmética. Comprenden, por una parte, las ciencias
cuyo conocimiento es obligatorio para la comunidad y, por otra, aquellas cuyo
dominio es meritorio pero no obligatorio» Las primeras comprenden todas las
ciencias que permiten la reproducción de la vida, en cuya ausencia la comunidad
viviría de modo muy precario. Las segundas son las ilícitas, como la magia, la
ciencia de los talismanes, la prestidigitación, el ilusionismo y otras.
La ciencia del Kalám de carácter filosófico, alcanzó a desarrollarse muy
robustamente con el paso del tiempo. Recordemos que cuando el proceso de
conversiones alcanzó un estado crítico, la traducción al árabe de los textos
científicos griegos y helenos, alcanzó también su clímax. Por ello, inevitablemente,
el Kalám adoptó un carácter filosófico predominante sobre la religión.
La contraofensiva cíclica vendría un siglo más tarde con Ibn Rusd (? -1 1 9 8 ), llamado
Averroes en occidente, con su libro “Incoherencia de la incoherencia”, en el que
refuta los argumentos de Al-Gazzali y justifica el acuerdo entre la filosofía y la
doctrina corámica. En sus demás obras, Averroes, critica la ciencia del Kalám y
llega incluso a poner en duda su legitimidad. También es importante recordar que

76
la Iglesia Católica intervino para prohibir la difusión de las doctrinas filosóficas de
Averroes con su célebre condena de 1277.
Este diálogo filosófico, que duró varios siglos, constituyó un largo e interesante
ejercicio intelectual que luego fructificó con la aparición de eminentes filósofos
islámicos y grandes hombres de ciencia. Esta actividad filosófico-científica se
mantuvo con pleno vigor hasta el siglo XVI y dejó establecido que, en el dominio
de las ciencias de la naturaleza, la botánica y la zoología son fundamentales,
mientras que la medicina es ciencia dependiente. En matemáticas, la aritmética y
la geometría son fundamentales, siendo la ingeniería una derivada de éstas. El
estrecho lazo que llegó ha establecerse entre ciencia y técnica y entre teoría y
práctica, reflejó la unidad que tenían ellas en la civilización islámica. Como tan
arraigados estaban en la población los principios islámicos, los distintos sectores
de la ciencia se desarrollaron íntimamente ligados a la vida cultural, social y
económica y fueron instrumentos eficaces para el progreso científico durante
varios siglos, hasta el despertar de Occidente con el Renacimiento.
A quedado establecido en los anales de historia que los árabes fueron verdaderos
maestros en la sistematización del álgebra, esta palabra árabe alude, «a la
ciencia de la reducción y la cancelación»
Todo comenzó a finales del siglo VIII cuando floreció la denominada Escuela de
Bagdad, a la que pertenecieron Mamad ibn Müsa al-Khwarizmi, al-Batani y Omar
Khay-yam. Al-Khwarizmi, persa del siglo IX, escribió el primer libro de Álgebra de
la historia. El sirio Al-Batani (858-929) aplicó el álgebra a la resolución de problemas
astronómicos. Y, finalmente está, el persa Omar Khayyam del siglo XII que escribió
un Tratado de Álgebra; pero, que es más conocido por sus poemas escritos en
lengua rubayat.
Durante los siglos VIII al XV se desarrolla la matemática Hispano-Árabe. Los
matemáticos más representativos fueron: Geber Ibn-Aphla, en Sevilla, en el siglo
XI, que realizó correcciones a las Tablas astronómicas de Ptolomeo; Arzaquel, en
Toledo, en 1080, autor de Tablas astronómicas; y el rabino de Toledo Ben Ezra, en
Calahorra, en 1089. Sus ámbitos de trabajo estuvieron radicados principalmente
en las universidades de Sevilla, Córdoba y Toledo, desde las cuales se

77
propagaron sus obras en toda Europa, gracias a las traducciones de eruditos que
se trasladaron a éstas. Entre los más destacados estuvieron Juan de España,
quién puso en latín la obra de al-Khwarizmi; Juan de Sacrobosco y el más
distinguido de todos, Abelardo de Bath, que tradujo la obra de Euclides al latín.
Debido a que hasta ahora subsiste la popular creencia de que los árabes son los
inventores de los numerales y del álgebra, hay que insistir y dejar bien establecido
que cerca del año 825, en Bagdad, al-Khwarizmi reveló al mundo ilustrado el
contenido de los tratados hindúes de aritmética y álgebra, en los que se
representaban a los números con nueve cifras y un cero. Esto siempre nos va a
recordar que el conocimiento matemático pasó a Europa occidental por medio de
los árabes. Así pues, por lo manifestado, queda claro que los árabes no fueron, en
ningún sentido, los creadores, ni del álgebra, ni de los signos numéricos. No
obstante, rindieron homenaje a las matemáticas, valoraron el saber antiguo, tanto
si provenía de Grecia como de la India. Dieron muestras de ser discípulos
competentes; y pronto tradujeron laboriosamente al árabe aquellos valiosos
manuscritos antiguos que sus predecesores no habían destruido. Mostraron su
habilidad en el cálculo y en la confección de tablas, pero les faltó la originalidad y
el genio de Grecia y la India. Basta saber que grandes partes del álgebra
diofántica y de la geometría les dejaron completamente anonadados. Empero,
debemos reconocer que durante largos y difíciles siglos fueron los leales custodios
de la ciencia matemática.1

1. 2 3 Las matemáticas en la Europa medieval


Durante el Medio Evo europeo las matemáticas se desarrollaron en un ambiente
cultural condicionado por una visión simbólica del mundo, impartida
dogmáticamente por la Iglesia Católica.
Sabemos desde los tiempos de Pitágoras y Platón que el número quedó envuelto
en una aureola simbólica que le hacía parecer como si tuviera existencia propia y
estuviese dotado de propiedades intrínsecas y trascendentes, independientes de
la conciencia del sujeto, las cuales intervendrían incluso en la propia creación del

78
Mundo. Desde entonces, el número ha sido determinado por tres dimensiones que
lo definen: una matemática, otra filosófica y una mística.
Por lo indicado, los primeros Padres latinos, sobre todo San Agustín ( 3 5 4 -4 3 0 ), se
vieron obligados a recurrir a lo establecido por el pitagorismo-platónico, cuyo
sistema del mundo era el que más se parecía a la cosmología cristiana. Según la
doctrina de Platón y sus seguidores el número está en el origen de la Creación. En
esta línea, San Agustín, en su Libro de la Sabiduría, nos indica que el creador ha
obrado según el número y la medida. Y nos enseña que, no es porque la creación
se haya realizado en seis días que el seis es el primer número perfecto; sino, al
contrario, es porque el seis es perfecto que la creación se obró en seis días.
Pero, el escenario que conformó la época medieval estuvo integrado también por
otras corrientes procedentes del Mundo Antiguo, de las culturas paralelas como la
bizantina y árabe que, al confluir, cada una aportó con lo suyo.
Lo que por su parte hizo Occidente en el campo de las ciencias fue realizar una
relectura sistemática de lo heredado, pero siempre haciéndolo en función de lo
que entendían acerca de Dios y su obra. Se dijo por ejemplo que: para ver más
lejos, hay que apoyarse en el inmenso saber de los Antiguos. San Agustín en su
tratado De la doctrina cristiana nos confiesa que fue preciso conocer el saber de
los paganos para comprender bien la palabra bíblica y la Creación. Entonces, en
la lectura y en el comentario de la Biblia, es necesario poner el saber antiguo al
servicio de la exégesis. Así, él se basará en la aritmética de los griegos para
emprender el descifrado de los números omnipresentes a lo largo del texto
sagrado. Por tanto, en lo que tiene que ver con aritmética y aritmología, la Edad
Media recibe una triple herencia: filosófica, con los pensamientos pitagórico y
neoplatónico; matemática, con el sistema geométrico transmitido desde la
Antigüedad y simbólico-religioso bajo la presión de la tradición cristiana de
interpretación de los textos que los Primeros Padres habían instituido. Estos tres
ejes coordinados crearon una simbólica de los números, la cual llegó a su cumbre
en el siglo XII.
Todo simbolismo numérico elemental, como el que generalmente se atribuye a la
Edad Media, descansa sobre un sustrato de carácter erudito formado por diversos

79
conceptos cuya elaboración y configuración consciente y organizada constituyen
precisamente su simbólica.
He aquí una de las innovaciones de aquella época: el intento de proponer una
verdadera teoría aritmológica o mejor dicho, una aritmética especulativa cristiana
para la cual la denominación de simbólica estaría suficientemente justificada.
La aritmética especulativa, que bebió en las fuentes del pitagorismo y en ciertos
manantiales orientales, se inscribió en el pensamiento occidental a través de las
consideraciones cosmogónicas del Timeo de Platón. Según lo dicho en este texto,
el mundo está organizado a partir de los cuatro elementos, de acuerdo con unos
principios aritméticos fundamentados en progresiones aritméticas y en
proporciones. En ellas intervienen los números enteros a los cuales se los
considera existentes en sí mismos en tanto que entidades superiores,
trascendentes.
Recordemos que esta aritmología se desarrolló durante la época helenística con
los neoplatónicos como Proclo (4 1 2 -4 8 5 ), con los neopitagóricos, como Nicomaco
de Gerasa en el siglo I y Teón de Esmirna en el siglo II, y entre los seguidores del
hermetismo estuvo la corriente difusa que participa del platonismo, del esoterismo
y de la magia oriental.
Pero, realmente, la simbólica medieval comienza con el sabio Boecio (4 8 0 -5 2 4 ),
consejero del rey ostrogodo Teodorico I. Este gran erudito, experto conocedor del
griego, traductor de la lógica de Aristóteles, autor de obras científicas y teológicas,
ha sido caracterizado como el último hombre docto de la Antigüedad y el primero
de la Edad Media, ya que su papel como sabio de dos mundos en la historia del
conocimiento ha sido decisivo.
En su obra de juventud, De institutione arithmetica, traduce y comenta el trabajo
de Nicomaco de Gerasa, quién fue el que estructuró la aritmología medieval; por lo
que, puede considerarse a Boecio como el que introdujo a la Edad Media la mayor
parte de las propiedades de los números enteros, algunas de ellas ya establecidas
por Euclides. A la vez nos proporciona una clasificación de los números; así por
ejemplo, él relaciona los enteros con figuras geométricas, planas y sólidas, y se
interesa por las desigualdades y las proporciones. Recordemos que este cálculo

80
se refiere a los enteros naturales y a las operaciones elementales de suma y
multiplicación, que se efectuaban con numerales romanos. Las cifras, nombre
árabe de los numerales hindúes, no se conocieron en Europa sino hasta finales
del siglo XII y sólo en el siglo siguiente lograron adaptarse en los medios más
doctos.
Boecio coloca a los números enteros en dos categorías, los pares y los impares, y
a éstos a su vez los subdivide en números de la forma 2k y 2m(2k + 1), donde k y m
son enteros. En los impares él distingue a los primos de los compuestos, que son
simplemente los enteros descomponibles en productos de factores primos
diferentes de 1 y del propio entero. Esto lo lleva a definir, según Euclides y
Nicomaco, al número perfecto. Se dice que un número es perfecto si es igual a la
suma de sus divisores como 6 (1+2+3), 28 (1+2+4+7+14), 496, etc.
Boecio define también los promedios o medias, según tres tipos: aritmética,
geométrica y armónica. Traducido a notación moderna, esto significa que tres
números enteros {a, b, c} forman una media aritmética si a-b=c-b. Una media
geométrica es tal que b2=ac; o bien, si hay cuatro números {a, b, c, d}, entonces
ad=bc ó a/b=c/d. Finalmente, la media armónica o musical, la más compleja, está
formada por tres enteros {a, b, c} tales que c/a=(c-b)/(b-a), como son los números
{6,8,12}
Boecio menciona entonces que, lo que él llama la máxima perfecta que harmonia
que, en Nicomaco de Gerasa, era la proporción musical, es decir, un conjunto en
el que las tres medias, simultáneamente, tienen el mismo valor. Este es el caso del
conjunto {6,8,9,12} que le sirve de ejemplo: {6,9,12} es aritmética, mientras que
{6,8,9,12} es geométrica y {6,8,12} es armónica.
Lo que es muy importante dejar claramente manifestado es que, el objetivo de
Boecio no fue en absoluto exegético. Tampoco pretendió entregarnos la clave de
la interpretación de los números. En realidad, lo que nos proporciona es el máximo
de propiedades matemáticas, con el franco propósito de que se comprenda bien
cuál es el poder del número. Ahí no hay simbolismo, pero sí la conciencia de que
el número posee una enorme y evidente dimensión científico-filosófica.

81
A la influencia de Boecio hay que añadir la de textos que se escribieron con una
decidida orientación inclinada hacia una simbólica cristiana. En el siglo VII, Isidoro
de Sevilla (560-636), primer enciclopedista medieval, deseoso de recoger todos los
restos del saber antiguo que habían sobrevivido a las invasiones, escribe el Libro
de los números que se encuentra en las Santas Escrituras. El texto es corto y
enuncia unas propiedades simbólicas de los principales enteros: del 1 al 20; luego,
24, 30, 40, 46, 50. 60. Isidoro se basa en los conceptos de número par, impar o
primo perfecto, pero apenas nos ofrece la técnica de cálculo. En realidad, Isidoro
busca en la Biblia y en sus diversas fuentes párrafos donde son aludidos estos
números y recalca al lector diciéndole: «Abraham vio tres ángeles; la Tierra está
dividida en tres partes; hay cuatro vientos, siete planetas, diez Mandamientos,
etc» Este tipo de ejercicio se encuentra en múltiples comentarios exegéticos de la
Edad Media.
La obra de Boecio será comentada varias veces antes del siglo XII, y puede
decirse que si bien en éste se produce una eclosión de tratados más
evolucionados, la tradición de la aritmología permanece aún viva, en especial con
Jean Scot Engéne (800-877) y Gerbert d’Aurillac (9 4 0 ? - 1 0 0 3 )
Pero en el siglo XII, en el que se desarrollan ciudades y escuelas, donde los
comentarios sobre los textos de la Antigüedad son una práctica habitual, se
cultivan las letras latinas y se inventa la literatura en lengua romance, los clérigos
toman conciencia de la necesidad de construir realmente una ciencia aritmológica
cristiana. Se siente el deseo de escribir con el mayor rigor posible tratados en los
que la aritmética y la práctica exegética se reúnan en una teoría única que permita
interpretar los textos sagrados.
Las obras de Odon de Morimond y de Geoffroy d’Auxerre nos revelan que los
monjes de la abadía de Cister no rechazaban en su totalidad el conocimiento
científico. Para ellos, se trataba más bien de volver a centrar las cosas en torno a
lo que San Agustín ya había aconsejado dicho «La ciencia ha de entrar
exclusivamente al servicio de la sabiduría cristiana» En este contexto es donde se
sitúan sus tratados de simbólica: la ciencia aritmética, empleada con rigor, sirve
para desarrollar una teoría útil en la lectura de los textos sagrados. Odon escribe

82
un tratado analítico de los números y de las cosas para la “teografía”; Geoffroy, un
tratado sobre el carácter sagrado de los números; Thibaut, una obra sobre las
cuatro maneras de significar que tienen los números.
Aparentemente, frente a tan insalvable obstáculo, los autores hubieron de recurrir
a los únicos conocimientos disponibles en la tradición cristiana, a la De institutione
arithmetica de Boecio. Con el afán de disponer de un sistema que les permitiera
hacer aportaciones significativas en esta materia se dedican a la reorganización y
a ciertos desarrollos que les parecen susceptibles de aportar significativos
resultados. Para ello, trabajan en las categorías numéricas (números pares, impares,
perfectos, primos, deficientes, abundantes, etc), en las operaciones con números (agregación,
partición, multiplicación), en la codificación de los números (relación entre letras latinas, griegas y
números), del cómputo digital (figuras de cuenta con los dedos), de las proporciones, etc.
Además, añaden categorías y se permiten ciertos refinamientos a partir del
antecedente proporcionado por Boecio. Según ellos, para estudiar a los números
hay que “triturarlos”, descomponerlos de cualquier modo. Evidentemente, este
enfoque se apoya en la conciencia de un realismo de los números, los cuales
existen en tanto que tales y poseen propiedades trascendentes. Así entonces,
mientras más “materia" se pueda extraer del propio número, más cosas se
comprenderán de lo que él significa.
Resumiendo, el método general de los tratados más refinados, los de Odon y
Thibaut, resultó ser el siguiente: los autores elaboran un conjunto de datos
aritméticos que los clasifica en dos categorías. La primera es el orden de la
clasificación de los números: obrando en función de las propiedades aritméticas
de los enteros (paridad, perfección), dan un conjunto de categorías. La segunda se
refiere a las operaciones, esto es, la suma, la multiplicación, el establecimiento de
proporciones y la utilización de reglas basadas en la progresión aritmética o
geométrica. Un matemático moderno se contenta con una fórmula general que dé
la suma de los n primeros números de una serie. En cambio, los referidos autores
proceden por fragmentación. Se estudian, siempre con el ejemplo de la agregatio,
unas series pares de números pares, impares de números pares, pares de
números impares, etc. En este turbulento escenario se puede ver la diferencia

83
fundamental entre aritmética y aritmología: en el primer caso, se trata de
establecer una fórmula, en el segundo, de extraer el máximo de información
posible que pueda utilizarse para construir sus correspondientes simbólicas.
Por ejemplo, en aritmética, 3 es primo e impar. En aritmología, como 3 es primo y
por tanto no descomponible él se corresponde a una perfección que nos remite a
la divinidad. Así, 3=1 +1+1 representa el misterio de la Santa Trinidad. De igual
modo, 3=1+2 es la unión del par y del impar. En cambio, el par es divisible en dos,
es menos perfecto, procede del dos, símbolo de la dualidad del hombre, cuerpo y
alma, y está relacionado con lo terrestre. Por tanto, el impar está asociado al cielo,
tanto más cuanto que 3 representa al número n, es decir, al círculo, relacionado
con el movimiento del cielo y de los planetas. 3=2+1, por tanto, es la unión de lo
terrestre y de lo celeste. Hugues de Saint-Victor (?-1141), autor de uno de los
primeros tratados del siglo XII, utiliza las potencias de 3 para explicar que 3 vuelve
siempre a la unidad y por tanto está asociado con Dios, ya que 32 = 9, 33 = 27, y
34 = 81, y 81 = 80+1, de ahí el retorno a la mónada inicial. Por otro lado, recalca
que el proceso puede continuar indefinidamente, lo que es obvio según las reglas
de la multiplicación. Recordando que escribían con numerales romanos se
comprende que generalmente, los autores, se limitaran a temas elementales,
cuando se trataba de progresiones de los números. Ahora puede, comprenderse la
gran importancia que tenía para los simbolistas el hecho de aportar el máximo de
componentes posibles.
En arreglo a este ejemplo, para ver como se construye una teoría simbólica,
desagregaré algunos grandes principios que rigen la práctica aritmológica
medieval.
El primero de los elementos que siempre aparece en estos autores es el sim­
bolismo directo. Pese a que realizan prácticas aritméticas meticulosas, Thibaut,
Odon y Geoffroy actualizan las equivalencias numéricas tradicionales que los
textos exegéticos habían podido propagar o bien proponen nuevos códigos. El
procedimiento es muy sencillo: dado un número cualquiera el autor busca en una
amplia red de referencias religiosas o no, la presencia de este número. En la
clasificación de los números, Thibaut construye una categoría especial según lo

84
sagrado, que divide en tres subcategorías. La primera hace una lectura de los
enteros en los textos sagrados según la cardinalidad: el 2 alude a las dos tablas
de Moisés a los dos Testamentos, etc. La segunda corresponde a la búsqueda de
enteros que son ordinales en las Escrituras; en este caso, el simbolismo se
establece como correspondencia entre la jerarquía y la cosa jerarquizada.
Finalmente, la tercera implica una lectura de los textos-fuente referentes a la
cronometría y el cómputo, es decir el cálculo de las fechas de las fiestas religiosas
en el calendario juliano.
Enterémonos de lo que dijo Tbibaut del número 14: «Como en los muchachos la
capacidad de procrear empieza a manifestarse en el transcurso del año
decimocuarto este número simboliza la generación. Esto explica que la Escritura
haga venir a Cristo después de tres veces catorce generaciones. De igual modo,
las leyes santas han estimado que el matrimonio no puede celebrarse antes de los
catorce años del muchacho. Los hebreos quisieron también derivar su nombre de
Heber, que perteneció a la decimocuarta generación después de Adán»
El segundo componente, el más importante, se asienta en las reglas aritméticas,
que condujeron a la clasificación detallada de los números, para ofrecer
codificaciones simbólicas. Así, según Thíbaut, 7 es virgen puesto que, dentro de
los diez primeros números enteros, no engendra, ya que no hay ningún múltiplo
de 7 inferior a 10; pero tampoco es engendrado por ser primo. Puede, por tanto,
ser atribuido como obra del Espíritu Santo.
Cuando considera el proceso de la agregatio, Thibaut hace notar que la suma de
los siete primeros números naturales es igual a la duración del curso de la Luna,
esto es 28 días.
Retomando a Ovidio, que atribuye a la Luna el nombre de Diana, Thibaut propone
el siete como un número que simbolice a la diosa. Comienza con un cálculo
aritmético, obtiene un número del cual halla un valor científico en el campo de la
astronomía, y luego busca una nueva correspondencia en la mitología, ésta última
independiente de la aritmología, para obtener finalmente por composición una
correspondencia entre el número y el último elemento hallado, en este caso la
diosa cazadora.

85
Hemos descrito ligeramente cual fue el camino que siguió el proceso de creación
del simbolismo, el cual parte necesariamente de alguna propiedad matemática.
Una vez establecida ésta se busca el número correspondiente en diversos textos y
se construyen relaciones a partir de dicho número, hasta obtener un valor
satisfactorio, mitológico, bíblico o científico.
La construcción de la red consiste, pues, en elegir un número y aplicarle un
proceso aritmético que permita establecer una correspondencia numérica. Esta
primera fase es neutra, en tanto que la correspondencia creada no depende de
una elección textual, excepto para su punto de partida. El número-objetivo no es
más que el resultado de una investigación aritmética. A partir de este segundo
número, se produce un corte escénico que en gran medida sobrepasa el marco
del texto inicial. A partir de esta operación transversal se establecen nuevas
correspondencias, cuya virtud esencial es el dinamismo. Cada una de ellas puede
generar otra. En resumen, el proceso interactivo no se detiene si no es de una
manera arbitraria, es decir, en el punto en que el autor desea fijarse. El dinamismo
del procedimiento es también el de la autogeneración, una especie de tornillo sin
fin. Se extraen términos de una infinidad de textos, y allí donde un autor se
detiene, otro añade eslabones a la cadena. En el ejemplo antes citado, basta
volver a partir de Diana para establecer una nueva correspondencia. En el
extremo de cada cadena, y por el único procedimiento de la composición de las
aplicaciones, es posible también unir las etapas intermedias y obtener un símbolo
complejo, del tipo 7 ^ Diana, cuyo descifrado resulta imposible. El último tipo de
simbolismo está construido a partir de propiedades aritméticas más elaboradas.
«Se habla de agregación interescalar o de progresión cuando un número, por
adición de los números pares o de los números impares que le preceden,
engendra otro número, a condición de que si es par se une a los pares y si es
impar se une a los impares como si se tratase de éstos con el fin de generar un
número mayor. Por ejemplo, 5 se eleva a 9 porque 1,3,5 sumados dan 9; 6 salta a
12 porque 2,4,6 tienen como suma 12, En este modo de agregación, el
simbolismo se expresa también de dos maneras: a partir del número tomado
como origen y a partir del número obtenido al final. [...] Por esto se celebra el

86
trigésimo día del mes de los muertos porque, por agregación interescalar de 10,
se obtiene 30. En efecto, la suma de 2,4.6,8,10 es igual a 30. Se celebra, pues, el
trigésimo día de los muertos porque éstos, en el orden de los santos que es el
décimo, sean hallados dignos, gracias a nuestras plegarias y a nuestras ofrendas,
de recibir el denario cotidiano para la observación del decálogo» (Thibaut de Langres,
l,12.)
Este ejemplo revela dos cosas: la primera es la convicción y la conciencia efectiva
que tiene el autor de construir un método simbólico a partir de un dato matemático.
Se trata de construir una serie de números pares o impares inferiores o iguales a
un número dado, de calcular la suma de esta serie y de establecer una relación
entre los dos números obtenidos. El segundo elemento muestra la preocupación
del autor por hallar una explicación "racional” a una práctica litúrgica corriente en
la Edad Media. Juega con la palabra denarius, que significa a la vez 10 y denario,
es decir, la moneda que daba el fiel el día de la celebración. 10 corresponde a una
división monetaria y a una jerarquía de los adoradores de Dios, entre los cuales el
hombre ocupa el décimo rango.
Estos juegos, a veces complejos, escritos en un latín técnico, con fórmulas
farragosas impuestas por los numerales romanos, nos parecen fútiles, superfluos
y a veces henchidos de humor. Pero situándonos en el siglo XII, en que se vivía
una verdadera eclosión de la cultura occidental, un desarrollo de la curiosidad
intelectual aplicable a todos los campos del conocimiento y una sed enorme de
conocer mejor la naturaleza, es comprensible lo obrado. Fue también la época en
que empezó a germinar el espíritu científico moderno. Si bien Dios es la causa
primera, hay también una serie de causas segundas en las cuales el Creador no
interviene directamente, pero que son accesibles a la inteligencia del hombre. En
consecuencia, la naturaleza puede ser estudiada por sí misma, sin que sea sola­
mente un espejo en el que el hombre se limita a contemplar la obra de su creador.
En este contexto, las apuestas de los tratados de simbólica de los números son
importantes, y no es por azar que los cistercienses y los victorinos se dedicaron a
este estudio. En efecto, se trata del recentrado entre una exégesis tradicional,
empírica, sometida al único simbolismo directo y a la palabra autorizada de los

87
Padres, y una filosofía naturalista que concede siempre más importancia a la
razón humana. En este marco, hay que poner la razón al servicio del
ordenamiento de la exégesis. Las especulaciones aritmológicas constituyen la
evidencia de que la ciencia, para el hombre medieval, tenía legitimidad absoluta,
en la medida en que podía ser explotada en todas las direcciones posibles, a
condición de que contribuyera a apuntalar el dogma cristiano.
Finalmente, recordemos que en la segunda mitad del siglo XII, cuando se produce
la llegada a Occidente de las traducciones árabes y latinas, que pusieron al mundo
cristiano en contacto con Aristóteles, Euclides, Arquímedes y los matemáticos
árabes, como Al-Khwárizmi, los simbolistas no musitaron ni una sola palabra, no
hicieron nada, puesto que existe una fractura entre la simbólica de los números y
la matemática árabe. Ésta se refería a ciertas técnicas operatorias que orientaban
la manipulación de los números hacia una verdadera matemática en el sentido
moderno, y no hacia la fiera explotación filosófica y religiosa del poder del número.
Cautivados por el vehemente deseo de creer en la virtud de los números, Odon,
Geoffroy, Thibaut e incluso su sucesor oxfordiano del siglo siguiente, John
Pecham, realizaron un meritorio trabajo en bien de las matemáticas. Pero, también
se debe decir que no lograron ejecutar una auténtica ciencia del número, pues el
criterio de ordenamiento utilizado fue defectuoso y les impidió arribar a una
sistematización completa.1

1. 2 4 Fibonacci y Pacioli
El curso del pensamiento matemático medieval se vio inmerso, a mediados del
siglo XII- cuando tuvieron lugar las primeras traducciones latinas de los tratados
árabes de aritmética- en una situación conflictiva surgida de la disputa entre los
partidarios de la aritmética de fichas y dedos y los de las cifras en tablillas de
polvo.
Después de la decadencia del Imperio Romano, como hemos aprendido, los
matemáticos occidentales se concentraron en una aritmética especulativa
inspirada por Nicómaco de Gerasa, la cual alcanza su mayor lustre con la obra De
institutione arithmetica de Anicio Masilio Severino, más conocido por Boecio. Al

88
igual que Euclides en los Elementos, Boecio estudia principalmente las
propiedades de los números pares e impares; pero también, una aritmética
paralela, de tipo práctico, ligeramente mencionada en los libros de los
agrimensores romanos.
En 1558, en pleno Renacimiento, Pierre Forcadel, colaborador del humanista
francés Pierre de la Ramée y titular de la cátedra de matemáticas del College
Royal, publicó una Arithmétique par les gects es decir, por medio de fichas, y Jean
Trenchant el mismo año una Arithmétique... avec l ‘art de calculer aux getons, que
fue reeditada repetidas veces. La técnica de cálculo se mantuvo en plena vigencia
hasta los tiempos de Leibniz, quién hacía largos cálculos con el ábaco. Silvestre II,
el primer Papa francés, muerto en 1903, utilizó un ábaco de columnas, de origen
árabe-español, cuya práctica exigía reglas tan difíciles que apenas comprendían
incluso los abaquistas consumados. El nombre verdadero del Papa fue Gerbert de
Aurillac y bajo éste se ha conservado el conjunto más completo de textos
medievales relativos al ábaco.
Con el nombre latino de apices, las fichas del ábaco marcadas con los signos
numéricos romanos estuvieron en uso durante toda la Edad Media. Sin duda se
requería de numerosos ejercicios de aprendizaje, especialmente para las incó­
modas operaciones de multiplicación y división. Ventajosamente, su difusión
durante los siglos X y XII coincidió con los periodos en que proliferaron las
escuelas catedralicias y abaciales. La división de 6258 para 283, por ejemplo, se
realizaba con un método de diferencias en el que el cero venía representado por
columnas vacías. No es posible precisar, por falta de documentos, cuándo nació
un sistema de numeración con los dedos, impropiamente llamado "digital”. En todo
caso, desde la alta Edad media existía una forma práctica de representar los nú­
meros mediante posiciones especiales de los dedos de ambas manos, que fa -
cilitaba la memorización de las cantidades llevadas en las operaciones de cálculo
mental y tal vez de ábaco, por lo menos cuando en las fichas no había indicación
de números.
Así, Leonardo de Pisa (1 1 7 0 -1 2 5 0 ), en su Liber abaci de 1202, propone "guardar en
mano” las cantidades llevadas en las operaciones. Por su lado, Luca Pacioli (1 4 4 5 -

89
1515) utilizaría la misma expresión en la Summa de arithmetica de 1494. Hasta
ahora se conserva un notable grabado en madera donde se muestra, cómo
conviene representar con los dedos los números comprendidos entre 1 y 9.999.
Este ligero recordatorio sobre el ábaco y la numeración con los dedos nos empuja
a que analicemos con mayor precisión una tercera forma de cálculo ligada a las
primeras traducciones latinas de los tratados árabes sobre el cálculo hindú o
Hisab al-Hindi. Estas obras, en las que se utilizan nueve cifras y el cero,
aparecieron en España pocos años después de la Reconquista, en el momento en
que, por insinuación de Pedro el Venerable, abate de Cluny, se realizaron la
Collectio Toledana y la primera traducción latina del Corán, también se llevaron a
cabo en 1143 traducciones o adaptaciones, a partir de una primera traducción
latina perdida, de los libros de aritmética de al-Khwárizmi. Como ya señalamos,
fue por el año 825, en Bagdad, que este destacado astrónomo y matemático puso
a la consideración del mundo ilustrado no sólo obras astronómicas y una primera
álgebra, donde se resolvían las ecuaciones de segundo grado reducidas a su
forma canónica, sino también el contenido de los tratados hindúes de aritmética,
de origen pobre y mal conocido. Los números se representan allí con nueve cifras
y el cero y las operaciones fundamentales se realizan sobre unas "tablillas de
polvo”, que eran tablillas cubiertas con arena, polvo o tiza sobre las cuales se
escribían y se borraban fácilmente con los dedos.
Con el nombre de "algorismo”, derivado del nombre del matemático árabe, se
escribieron durante el siglo XII cuatro obras fundamentales cuyos manuscritos
latinos nos permiten comprender mejor cómo fueron recibidos y transformados en
Occidente los numerales hindúes, tradicionalmente divididos en una serie llamada
oriental y otra llamada gubár {polvo)
Dado que los copistas occidentales escribían de izquierda a derecha, las cifras
sufrieron unas transformaciones parecidas a las previamente experimentadas por
las fichas del ábaco (apices) A partir de su forma arábiga primitiva orientada de
derecha a izquierda evolucionaron rápidamente hasta adquirir su forma occidental
casi definitiva. Estos primeros trabajos ponen de manifiesto el carácter
revolucionario de las nueve cifras para expresar un número entero o fraccionario

90
cualquiera, todo al precio de introducir un cero hasta entonces inusitado, llamado
circular o ’’círculo pequeño”. Así, la obra de “algorismo” más elaborada del siglo
XII, Liber algorismi, se basa en una reflexión sobre los valores aproximados de V2
expresada en fracciones sexagesimales para definir por primera vez en Occidente
las fracciones decimales, aunque sin aprovechar todo lo que había brindado el
descubrimiento.
Tanto las fuentes árabes desde el siglo IX como sus sucesoras occidentales ex­
ponen anecdóticamente fórmulas de las que no está totalmente ausente el re­
cuerdo del ábaco. Así ocurre, por ejemplo, en la multiplicación de unidades:
si a < 10 y b < 10, ab = 10b - b(l0 - a) = 10a - a(10 - b)
Pero, sobre todo, estas obras describen cuidadosamente operaciones para las
cuales es muy cómodo borrar los números con los dedos en la “tablilla de polvo”
Muchos ejemplos concretos, que indican un empleo no reservado exclusivamente
a los astrónomos, muestran, por ejemplo, cómo realizaban la multiplicación de dos
números enteros.
Este método, aparentemente destinado a desaparecer por el uso corriente de la
tinta y el papel, resistió durante bastante tiempo pese a la competencia de otros
sistemas más adaptados al nuevo entorno. Hay que ver en ello la influencia de dos
tratados en forma de manuales escolares, Carmen de algorismo, de Alexandre de
Villedicu, escrito hacia 1203, y sobre todo el Algorismus vulgaris de Juan de
Sacrobosco escrito pocos años después. La amplia difusión de estas dos obras
fue favorecida por la enseñanza del algorismo en las primeras universidades. En
1495, en su obra impresa Aritmética práctica, Pedro Sánchez Ciruelo describía
todavía con mucha exactitud el procedimiento, lo mismo que Peter Benewitz en
1527, quién sugería la imagen de los bancos de una galera y recomendaba el uso
del método a los mercaderes.
Esta resistencia sorprende tanto más cuanto que en 1202, Leonardo de Pisa,
conocido como Fibonacci, en su Libro de ábaco, aprovechando probablemente su
estancia en Bejaia y sus viajes a Egipto, Siria, Grecia, Sicilia y Provenza, describió
unos notables métodos de cálculo llamados “indios”, sobre todo métodos de
multiplicación que opuso a los usos, para él superados del ábaco y del algorismo

91
por borrado. Sin embargo, el autor describe todavía brevemente la numeración
con los dedos, ligada para él a las prácticas de los abaquistas. Fibonacci escribe
que todavía está en uso «una tablilla donde los números se borran fácilmente»
Hubo que esperar casi tres siglos para que este método, que presupone un cierto
virtuosismo en el manejo de los números, por no decir una cierta familiaridad con
el álgebra, llamara la atención de los autores italianos de aritmética,
especialmente de Luca Pacioli por el año 1494, quien lo retomó bajo el nombre de
“crucecita” o "casilla”. Hay sin embargo una brillante excepción a este retraso: un
tratado anónimo griego de «cálculo según los indios» (1 2 5 2 ) describe fielmente,
bajo la influencia de Fibonacci, la “multiplicación en cruz”. Inspirándose en ese
texto, el polígrafo bizantino Máximo Planudo hizo otro tanto en 1282 en términos
casi idénticos. Hay que ver en esta influencia de Fibonacci una consecuencia de la
presencia occidental en Bizancio durante el reino franco surgido de la cuarta cru­
zada (1204-1261)
Fibonacci conocía otro método de multiplicación, llamado “en forma de damero”,
especialmente apropiado para operar con números grandes, ilustrado con un solo
ejemplo y curiosamente incluido en el capítulo del Liber abaci dedicado a la suma.
Con pequeñas diferencias, que podrían estribar en la mera escritura de los nú­
meros, el método ya era conocido en el siglo X por los árabes. Por ejemplo, al-
Uqlidisi lo describe como “método de las casas”. El procedimiento tuvo un éxito
considerable bajo formas diversas a menudo con nombres muy gráficos citados
cuidadosamente por Luca Pacioli: todas las obras aritméticas de los siglos XV y
XVI lo asimilaron. En los autores árabes posteriores al siglo XIII figura un
desarrollo particularmente interesante del método, llamado chabaka (red), que
aparece igualmente en el Imperio Bizantino en el siglo XIV y que también describe
Pacioli bajo el nombre de getosia o graticola (celosía)', varios autores occidentales,
en este caso no exclusivamente italianos, lo recomendaron especialmente. Pero
parece ser que el método “en forma de damero” se impuso ampliamente en Oc­
cidente bajo la influencia del Liber abaci; su desarrollo ulterior en forma de
“celosía” es imputable, al parecer, a fuentes árabes.

92
Esta superioridad no escapó a los sucesores del matemático pisano y fue defini­
tivamente reconocida en la Summa arithmetica de Luca Pacioli di Borgo. En un
largo capítulo sobre la multiplicación, Pacioli describe no menos de ocho métodos
más o menos dispares. A la postre prevaleció el primero de ellos gracias al
merecido éxito de la Summa impresa en 1494 y sobre todo a la difusión de los
tratados de aritmética comercial italianos y alemanes en el siglo XVI. Pacioli
informa de que, en Florencia, mediante un procedimiento llamado "del damero de
Venecia”, se multiplica 8.876 por 6.789, lo que da como resultado 67.048.164. No
cabe duda que, a causa de la difusión de la aritmética comercial por medio de
textos impresos, fue por lo que este método, que exigía una alineación rigurosa de
las cifras para evitar todo error, se quedó instalado definitivamente de manera
exclusiva en la enseñanza del cálculo elemental.
Estas consideraciones sobre el humilde cálculo, guiado por la multiplicación,
podrían dar a entender cómo que en la Edad Media y después en el
Renacimiento, a menudo ingrato con ella y con todas aquellas fuentes no
procedentes de la Antigüedad grecolatina, sé limitaron al manejo de los números y
las cifras como un modo de liberarse de la servidumbre de los métodos me­
cánicos. La realidad es que, de la práctica constante del cálculo surgió toda una
reflexión sobre los números. Para convencerse de ello, basta ver cómo Fibonacci,
utilizando los textos de sus predecesores árabes sobre los números congruentes,
defendió los métodos de prueba por 7, 9, 11 y 13 en las operaciones aritméticas.
O también en el problema que le hizo famoso, aquel que dice: «Dada una pareja
de conejos. ¿ Cuántas parejas de conejos habrán nacido al cabo de n meses, si
cada pareja da origen cada mes a una nueva pareja y éste no se reproduce hasta
pasados dos meses?» El problema dio la vuelta al mundo y ahora todos
conocemos a los "números de Fibonacci” Fn, con su relación de recurrencia
Fn=Fn-1+Fn-2 que nos dice que estos números resultan de la suma de los dos
precedentes y las condiciones iniciales Fo =F1=0 , que predice el número de parejas
de conejos nacidas al cabo de n meses.
Estos números sucesivos son F={1, 1, 2, 3, 5, 8, 13,...} y tienen propiedades
asombrosas como las siguientes:

93
a) La sucesión de los cocientes Fn-i/Fn tiene por límite, cuando n tiende a infinito, el
número aúreo o divina proporción; o sea, aquel que es la raíz positiva de la
ecuación X2-X-1=0 y vale (1+V5)/2=0,61803398... Este número ha desempeñado
un extendido papel en la estética clásica y en el terreno de las interpretaciones
místicas y simbólicas. Pero el hecho realmente sorprendente es que el número
aúreo se encuentra presente en la filotaxia, es decir en la disposición de las hojas
alrededor del tallo de las plantas.

b) Fn x Fn+2 - (Fn+1)2 = (-1)n. Lewis Carroll la utilizó para construir su famoso


rompecabezas "64=65” y otros por igual han explotado las singulares propiedades
de esta sucesión.
En esta breve descripción hemos podido ver cómo se pasó de una aritmética del
ábaco o de fichas a la de las tablillas de polvo y de cómo los matemáticos
Fibonacci y Pacioli, apoyados en la traducción al latín de los libros de al-
Khwarizmi, pusieron las bases de la aritmética moderna.

94
1 .3 F ase m o d e rn a

1. 3 1 El Renacimiento
El siguiente gran paso hacia adelante que dieron las matemáticas occidentales se
produjo en el siglo XVI, cuando el norte de Italia y las naciones del otro lado de
los Alpes comenzaron a sentir la fuerza vivificante del cambio revolucionario. Al
mismo tiempo fueron conmovidos el corazón y la mente por los grandes
movimientos intelectuales y espirituales del Renacimiento y la Reforma. Las mate­
máticas eran trabajadas nuevamente con algo de la antigua sutileza, y su estudio
se vio estimulado y amplificado con la aparición de la imprenta. Hubo centros de
estudio, en contacto con la próspera vida ciudadana de Venecia y Bolonia y otras
famosas ciudades de la Europa medieval. Italia abrió el camino; Francia, Escocia,
Alemania e Inglaterra la siguieron pronto. Es el período de la historia occidental en
el que cada uno de estos países produce matemáticos descollantes, que
extendieron los límites de la ciencia matemática alcanzados hasta el momento,
como no se había visto desde el tiempo de los griegos clásicos.
Scipio Ferro (1465-1526), recogió el tema allí donde lo había dejado Diofanto y
realizó el primer progreso significativo después de lo aportado por griegos y
orientales al encontrar una solución para la ecuación cúbica, problema que había
desconcertado a los matemáticos griegos. Fue hijo de un papelero de Bolonia,
cuya casa aún puede localizarse con precisión. Llegó a ser "Lector de
Matemáticas en la Universidad”, en 1496, y continuó en ejercicio hasta su muerte,
excepto durante su corta estadía en Venecia. Por aquellos tiempos, los
descubrimientos matemáticos eran conservados como secretos de familia y
divulgados sólo a unos pocos interesados íntimos.
La solución del problema mencionado fue cuidadosamente guardada durante
treinta años, y sólo llegó a conocerse gracias a una disputa científica. Tales

95
altercados se hallaban muy de moda; eran las justas y torneos del mundo intelec­
tual, y los inventos matemáticos fueron armas, a menudo, de doble filo. En un
primer momento algunos protagonistas preferían combatir con hojas más livianas,
desenvainando sus espadas más poderosas sólo en último caso.
Los más famosos de estos personajes son Tartaglia y Cardan que figuran, junto a
Scipio, como los principales protagonistas en el drama de la resolución de la
ecuación cúbica.
Nicolo Fontana (1 5 0 0 -1 5 5 7 ), apodado "Tartaglia” debido a que tartamudeaba,
siendo todavía un niño pequeño, por causa de una herida en la cabeza, quedó
afectado permanentemente en su habla. Esto ocurrió en la matanza, realizada por
los soldados franceses, que siguió a la toma de Brescia, su ciudad natal. Su
padre, un empleado postal, se contó entre los muertos, pero su madre huyó y
salvó al niño. Aunque vivieron en una gran miseria, Tartaglia estaba decidido a
estudiar. A falta de materiales corrientes para escribir, incluso empleó lápidas
como pizarras, pero no tardó en alcanzar una posición destacada, por su
indudable talento matemático. Emuló a Ferro, al resolver el nuevo tipo de ecuación
cúbica x3+mx-n=0 y, cuando escuchó hablar del problema originario, se vio
impelido a redescubrir la solución de Ferro. Tartaglia fue el primero en aplicar las
matemáticas a problemas militares de artillería.
Girolamo Cardan (1 5 0 1 -1 5 7 6 ) fue un hombre de genio que estuvo envuelto en un
tornado, fue muy conflictivo, muy poco escrupuloso y muy indiscreto, pero con un
imponente talento matemático. Con extraña adaptabilidad, era astrólogo y filósofo;
jugador y algebrista; físico, médico y, no obstante, padre y defensor de un asesino;
hereje, y, sin embargo, receptor de una pensión del Papa. Ocupó la Cátedra de
Matemáticas en Milán, y también practicó la medicina. En 1552 visitó Escocia,
respondiendo a la invitación de John Hamilton, arzobispo de St. Andrews, al cual
curó del asma. Un buen día se interesó en descubrir qué clase de solución de la
ecuación cúbica había encontrado Tartaglia. Cardan imploró para que le contaran
los pormenores, y, finalmente, obtuvo lo que deseaba, bajo promesa de secreto.
Después de sosegado estudio lo publicó como su propio trabajo independiente en
su libro Ars Magna, que apareció diecinueve años después de su muerte, en 1595;

96
en otras palabras, usurpó el trabajo de Tartaglia. Este acontecimiento es
lamentable, ya que empaña su magnífico trabajo, auténticamente original, hecho
en álgebra y publicado en el mismo libro.
Se cuenta que fue igualmente injusto en el trato dado a su discípulo Ferrari, quién
fue el primero en resolver una ecuación de cuarto grado. No obstante, Cardan
conjugó la piratería con una jornada de labor honesta; y tuvo suficiente genio
matemático para optimizar estos resultados. Estableció la teoría general de las
ecuaciones de tercero y cuarto grados, discutiendo cuántas raíces podía tener una
ecuación. Se dio cuenta de la necesidad de los números, no sólo negativos, sino
también imaginarios y complejos para obtener soluciones completas. También
descubrió las relaciones más importantes entre las raíces.
Entonces, los matemáticos italianos al concertar un progreso sustancial mediante
estas realizaciones, llevadas a cabo de formas muy diversas, hicieron posible
expresar en una fórmula algebraica la solución de la ecuación:
ax4+ bx3+ ex2+ dx + e = 0.
El tema había avanzado paso a paso, desde la ecuación simple a la cuadrática, de
la cúbica a la cuártica. Por lógica y de manera natural surgió la necesidad de
resolver las ecuaciones de quinto y más grados, pero tuvieron que pasar dos
siglos antes de saber más sobre ellas. Fue el joven matemático noruego Niels H.
Abel (1802-1829), quién descubrió la verdad final sobre dichas ecuaciones.
Resultaban ser irresolubles por el método de los radicales, tal como las que
habían empleado los italianos. ¡Todo parecía como si Cardan hubiera conducido,
sin saberlo, la teoría algebraica de las ecuaciones hasta un violento punto final!
La última mitad del siglo XVI también presenció el nacimiento de las matemáticas
en Francia con Vieta ( 1 5 4 0 -1 6 0 3 ) y en Escocia con Napier (1 5 5 0 -1 6 1 7 ) La obra de
estos dos grandes matemáticos nos recuerda cuán profunda fue la influencia de la
antigua Grecia sobre las primeras figuras de este renacimiento científico.
Ya mencionamos la parte que le correspondió a Vieta en el perfeccionamiento de
la notación algebraica. Además demostró que el famoso problema de trisecar un
ángulo dependía, en realidad, de la solución de una ecuación cúbica. También
redujo el problema de la cuadratura del círculo a la evaluación de la elegante

97
expresión: 2/n =(1/2),/2 [%+%(%)^|^ {%+%[%+%(%)^]^}^ . . .
Aquí había una innovación considerable: la primera forma positiva de la época que

consideraba el número n que Arquímedes había situado en algún lugar entre 3 1/ 7

y 3 1 0 /7 1 . Vieta también fue el primero en hacer un uso explícito de aquel


maravilloso principio de dualidad, o reciprocidad, que había dejado indicado Papo.
John Napier (1 5 5 0 -1 6 1 7 ), barón de Merchiston, que descubrió los logaritmos
naturales, es el más destacado de todos estos matemáticos eminentes. Su original
trabajo descubrió un terreno completamente nuevo y tuvo grandes consecuencias,
tanto teóricas como prácticas. No sólo proporcionó una maravillosa herramienta
para ahorrar trabajo en el cálculo aritmético, sino que sugirió varios principios
importantes de análisis superior.
Cuando perdió a su madre tenía trece años, y, ese mismo año, le enviaron a la
Universidad de St. Andrews, donde se matriculó en colegio de St. Salvator. En
aquella época éste no era un lugar para realizar tranquilos estudios académicos;
motivo por cual, el Obispo, que siempre mostró un amable interés por el
muchacho, escribió al padre de John diciéndole: «Os ruego señor, mandéis a
vuestro hijo John a la escuela; o bien a Francia o a Flandes; pues no puede apren­
der nada en casa, ni sacar ningún provecho de este mundo sumamente
peligroso» Acto seguido, sin pérdida de tiempo, salió al extranjero; pero volvería
pronto a Merchiston, su hogar, cerca de Edimburgo, donde debió pasar tantos
años de su apacible vida.
Durante el corto año de estancia en St. Andrews se despertó su interés por la
aritmética y por la teología. El prefacio de Plain Discoverv of the Whol Revelation
of St. John, que fue publicada en 1593, contiene una referencia a sus tiernos años
y estancia en Sanct Androis, donde primero se le obligó a dedicar sus talentos al
estudio del Apocalipsis. Su libro está lleno de especulaciones profundas, pero, a la
postre, infructuosas; no obstante, en cuanto a la forma, sigue los ejemplos más
sutiles de la argumentación matemática griega, en la cual era maestro, en tanto
que en la forma desapasionada de interpretación aventajaba en mucho a su
tiempo. A diferencia de Cardan, antes, y de Kepler, después, nunca se le acusó de

98
hacer magia ni astrología.
Napier adquirió gran reputación como inventor, pues unía a sus dotes intelectuales
una fecunda destreza para hacer máquinas. Sus constantes esfuerzos para
elaborar formas más sencillas de cálculo aritmético le condujeron a crear una di­
versidad de artificios. Uno era una especie de ajedrez aritmético, donde los dígitos
se movían como torres y alfiles sobre el tablero; otro sobrevive bajo el nombre de
"esqueleto de Napier”. Pero lo que impresionó a sus amigos fue una pieza de arti­
llería, de una eficacia tan espantosa que podía matar todo el ganado, en un radio
de una milla. Napier, horrorizado, se negó a desarrollar este invento terrorífico, del
que muy pronto se olvidó. Durante su estancia en el extranjero, estudió
ávidamente la historia de la notación indo-árabe, que reconstruyó hasta su fuente
hindú. Meditó acerca de los misterios de la aritmética y, en particular, sobre el
principio subyacente a la notación numérica. Se interesó, no sólo en el sistema
decimal de numeración, sino también en el de base dos. Napier comprendió muy
bien el valor de una escala binaria, en la cual un número se divide en las partes, 1,
2, 4, 8, etc. Así, habla con interés del hecho de que cualquier número de libras
puede pesarse poniendo uno o más de los pesos 1 lb., 2 lb., 4 lb., 8 lb., y así
sucesivamente, en el otro platillo de la balanza.
Cuando regresó a Escocia, escribió sus pensamientos sobre aritmética y álgebra,
y se conservan hasta ahora muchos de ellos. Éstos son muy sistemáticos y mues­
tran una curiosa mezcla de teoría y práctica; la ocupación principal es la teoría,
pero, con cierta persistencia, aparecen ilustraciones que «agradarían más a los
mecánicos que a los matemáticos» En una de sus páginas aparece la siguiente
tabla:
I II III INI V VI VII
1 2 4 8 16 32 64 128
Puede parecer que esto es sencillo y evidente; no obstante, encierra gran
profundidad, a la luz de las consecuencias. En aquel tiempo aún buscaban una
notación exponencial, y las implicaciones totales de la notación decimal hindú
apenas habían sido comprendidas. Napier contemplaba, con la mente de un mate­
mático con formación griega esta notación, como si se tratara de algo realmente

99
nuevo. Vio en las series paralelas de números citadas el apareamiento de una pro­
gresión aritmética con una geométrica. Una feliz inspiración le hizo pensar que
estas dos progresiones aumentaban continuamente término a término. La tabla
citada se convirtió, para él, en una especie de registro cinematográfico lento,
señalando que las cosas tienen lugar entre los términos registrados.
Hacia el año 1590, o tal vez antes, descubrió los logaritmos; o sea el artilugio que
permite reducir la multiplicación a la adición, la división a la sustracción y la
potenciación a la multiplicación. El modo en el que considera esta materia muestra
un conocimiento íntimo de la correspondencia entre progresiones aritméticas y
geométricas.
Así es como pudo, prever tan claramente la utilidad práctica de los logaritmos en
astronomía y trigonometría, apartarse deliberadamente de sus especulaciones en
álgebra e imponerse la tarea, de toda una vida, de producir las apetecidas tablas,
que ya habían creado agitación en el extranjero, mucho antes de ser publicadas.
Por aquel tiempo vivía en una isla de Dinamarca, el famoso astrónomo Tycho
Brahe (1 5 4 6 -1 6 0 1 ), que reinaba con gran pompa sobre su dominio rodeado por el
mar. Este sitio era denominado Uraniburg -el castillo de los cielos- y le había sido
donado por el rey Federico II, con el sólo propósito de que hiciera astronomía. Allí
prosiguió sus observaciones y efectuó muchas crónicas muy precisas sobre
ciertas estrellas; pero las estrellas en sus trayectorias iban siendo demasiadas y
por tanto cada vez más difíciles de manejar para Tycho. Como un agradable
susurro venido del cielo tomó las noticias que le llegaron acerca de un portentoso
descubrimiento aritmético, realizado en Escocia. El astrónomo danés esperó con
ansiedad una primera publicación de las mencionadas tablas logarítmicas, pero
pasó mucho tiempo antes de que fueran completadas. Las primeras aparecieron
en 1614, e inmediatamente atrajeron la atención de los matemáticos de Inglaterra
y del continente, especialmente las de Briggs y Kepler ( 1 5 7 1 -1 6 3 0 ). La amistad de
Napier con Briggs creció rápidamente, pero muy pronto se vio interrumpida por
causa de su muerte en 1617, agotado por su incesante trabajo. Uno de sus
últimos escritos explica cómo, «debido a nuestra debilidad corporal dejamos la
computación real de la nueva regla a otros, especializados en este tipo de trabajo,

100
muy particularmente al muy erudito letrado, mi querido amigo Henry Briggs»
Durante la visita que Briggs hiciera a Napier a Edimburgo le dijo: «Milord, he
emprendido este largo viaje para ver a vuestra persona, y para saber mediante
que mecanismo de inventiva o ingenio pensasteis por primera vez en esta ayuda
tan excelente para la astronomía, a saber, los logaritmos. Pero, Milord, me extraña
que, habiéndolos descubierto vos, nadie los haya descubierto antes, cuando
ahora que los conocemos parece tan fácil»
La rápida difusión de los logaritmos de Napier por el continente europeo se debió
a la entusiasta acción desplegada por Kepler como astrónomo reconocido. En
relación con esto es interesante recordar que, extrañamente, fue en el año de su
muerte en que Kepler descubrió su tercer gran canon planetario que publicó en las
Ephemerides de 1620 y que la dedicó a él. En la portada aparecen, un telescopio
de Galileo, la órbita elíptica de un planeta, el sistema de Copérnico y una figura
femenina, con el logaritmo neperiano de la mitad del radio de un círculo colocado,
como una aureola en torno a su cabeza y como símbolo del mayor e imperecedero
elogio.
Bueno, según el enfoque utilizado por Napier, ¿cuál es la idea de logaritmo?. Para
bien comprender esto, imaginemos un punto P que se mueve describiendo una
línea recta AB con velocidad decreciente, retardándose cada vez en dirección a su
destino B, de tal manera que la velocidad sea siempre proporcional a la distancia
que le resta por recorrer. Así, cuando el punto P se halle en el lugar Q, su
velocidad será proporcional a la distancia QB. A este movimiento Napier lo
denominó geométricamente decreciente. Ahora imaginemos en paralelo a AB una
recta A’B’ sobre la que se mueve uniformemente un punto P’. A ésta, Napier la
denominó aritméticamente creciente. El recorrido de los puntos móviles P y P’ se
supone que comienza en A y A’, partiendo ambos a la misma velocidad; y, luego,
se registran los lugares alcanzados por éstos en cualquier instante subsiguiente.
Supongamos ahora que P ha alcanzado Q, cuando P’ ha alcanzado Q’. Entonces,
Napier llama al número que mide el segmento A’Q’, logaritmo del número que
mide el segmento QB. O sea que la distancia que ha recorrido P’ es el logaritmo
de la distancia que le falta por recorrer a P.

101
Napier, basándose en este experimento mental, estableció la definición de
logaritmo y con ella no sólo halló las propiedades teóricas, sino que también
construyó sus tablas, con siete cifras. De hecho, la definición mencionada es el
planteamiento de una ecuación diferencial, y su superestructura proporciona la
solución completa. Incluso sugiere una teoría de funciones, sobre una base
genuinamente aritmética.
Ésta fue una sensacional hazaña, ya que se realizó antes de que se hubieran
inventado la teoría de exponentes y el cálculo diferencial.
Napier fue también un geómetra con gran imaginación. Inventó nuevos métodos
en trigonometría esférica. Es particularmente hermosa su forma de considerar un
triángulo esférico rectángulo como parte de una figura quíntuple, reminiscencia del
simbolismo pitagórico.
La historia de Napier muestra cómo la época estaba madura para la invención de
los logaritmos, por tanto no nos sorprenderá que otro pudiera haberlos descubierto
de manera independiente. En efecto, éste fue su contemporáneo Bürgi, un relojero
suizo, que llegó a tiempo y a las mismas conclusiones mediante el concepto de
índices. Los resultados los publicó en 1620.
Briggs es ampliamente conocido por haber construido las tablas de logaritmos en
base decimal y por los rápidos progresos que hizo en la construcción de éstas.
Nadie, sino un experto matemático de gran originalidad como él, podría haber
realizado el trabajo con tanta celeridad.1

1. 3 1 Descartes y el Sistema Coordenado de Referencia


Lo revisado hasta aquí ha sido el preludio de la denominada Edad Moderna del
pensamiento. Los matemáticos de talento relevante, cuyos legados ya son
históricos, han sido, como hemos podido ver, muy pocos. Pero, al comenzar el
siglo XVII se produjo una prolífica eclosión, su número aumentó tan rápidamente,
que es casi imposible hacer justicia a todos ellos en un breve estudio. Sólo en
Francia, hubo tantos matemáticos de genio como todos los que había producido
Europa en los últimos mil años. Por ello, examinaremos la obra de sólo tres
matemáticos representativos de su época, Descartes (1596-1650) de entre los

102
franceses, Newton (1 6 4 2 -1 7 2 7 ) por los ingleses y Leibniz ( 1 6 4 6 -1 7 1 6 ) por los
alemanes.
En esta época heroica, que es la que siguió a las realizaciones de Napier, las
matemáticas alcanzaron un prestigio descollante. La época era matemática, los
hábitos de pensamiento eran matemáticos, y sus métodos eran juzgados
necesarios para una filosofía exacta o cualquier otra cosa exacta. Era el comienzo
del periodo denominado de la filosofía moderna; y las más destacadas figuras de
entre sus filósofos fueron expertos matemáticos, así como los filósofos griegos de
la antigüedad. Ellos fueron Descartes, Newton y Leibniz.
René Descartes (1 5 9 6 -1 6 5 0 ) fue hijo de padres bretones y nació en La Haya, cerca
de Tours en el año 1596. Su familia perteneció a la nobleza baja, siendo su padre
consejero del Parlamento de Bretaña. Desde 1604 hasta 1612, asistió al colegio
jesuita de La Fleche, donde, recibió la tradicional educación escolástica de
matemáticas, física, lógica, retórica y lenguas antiguas, en las cuales fue un
alumno competente; pero, su educación en el dominio de las matemáticas fue la
mejor posible de la época. Al salir de este colegio declaró que no había obtenido
otro beneficio de sus estudios que la convicción de su ignorancia total y un
profundo desprecio por los sistemas filosóficos entonces vigentes. «Por este
motivo, tan pronto como mi edad me permitió dejar a mis preceptores, abandoné
totalmente el estudio de las letras; y, habiendo decidido no buscar otra ciencia que
aquella que podía encontrar en mi mismo, o en algún otro lugar en el gran libro del
mundo, dediqué el resto de mi juventud a viajar, a contemplar cortes y campos, a
frecuentar personas de distinta índole y condición,.... y, sobre todo, a procurar
sacar reflexiones provechosas de lo que veía. Pues me parecía que podría
encontrar mayor verdad en los razonamientos que cada hombre hace en sus
propias ocupaciones, y que si son erróneos rápidamente se ven castigados por el
fracaso, que en aquellos razonamientos realizados por el filósofo en su estudio»
(Discurso del Método)
Acompañado de este estado de ánimo llevó una vida errante e inestable, a veces
sirviendo en la armada, otras permaneciendo solo. En 1619, cuando la guerra de
los Treinta Años empezó en serio y él, deseoso de participar en ella, no dudó y se

103
enroló en el ejército bávaro que estuvo bajo el mando del Duque de Baviera, uno
de los jefes del partido católico. Fue en el invierno de aquel año, en los cuarteles
de Neuberg, situados a orillas del Danubio, que descubrió los principios y el
sistema de coordinación que inspiraron su filosofía, que le sirvieron para la
construcción de su sistema del mundo y que por ende le permitió concebir la idea
de una reforma de la filosofía. En el ejército se mantuvo hasta el año de 1622,
fecha en que regresó a París. La experiencia de lo referido está descrita en su
Discurso del Método.
Siendo por naturaleza un tanto retraído y deseando trabajar en un ambiente
tranquilo partió a Holanda en 1628. Habiendo vendido su pequeña heredad tubo
para vivir independientemente y con razonable comodidad los veintiún años
siguientes. Durante este tiempo fue desarrollando su filosofía sobre las líneas que
había trazado en aquella ocasión en que concibió su método.
Como ante todo deseaba permanecer ajeno a cualquier controversia, pues la
consideraba como una pérdida de tiempo, no publicó un importante trabajo de
física, en el que adopta el sistema de Copérnico ( 1 4 7 3 -1 5 4 3 ), a causa del célebre
juicio seguido en contra de Galileo (1564-1642) en 1633 por el Santo Oficio. Aquí
debemos recordar que, según todas las apariencias, él era un fiel católico, pero
hasta que grado de pureza doctrinal llegó, es algo que de seguro jamás se podrá
saber.
Se limitó a publicar una colección de tres tratados sobre Dióptrica, Meteoros y
Geometría. El Discurso del Método fue publicado en 1637 y constituye una
introducción a estos trabajos. Sin duda, el más célebre es el de la Geometría en el
que se exponen y se aplican los principios de la geometría analítica. En 1641,
publica las Meditaciones y en 1644, los Principios de Filosofía, dedicados a la
princesa Isabel, hija del elector palatino.
El Discurso, con un importante contenido matemático, produjo un gran impacto en
el público y causo sensación. Como consecuencia el nombre de Descartes llegó a
ser conocido en toda Europa, los príncipes le buscaban; y sólo el estallido de la
guerra civil en Inglaterra le impidió aceptar una generosa renta de Carlos I. A
cambio se fue a Suecia respondiendo a la invitación de la reina Cristina. Llega a

104
Estocolmo en 1649, donde se esperaba que fundara una Academia de Ciencias,
como una réplica de la escuela platónica de Atenas. Pero su salud cedió bajo la
severidad del clima, y murió de pulmonía poco tiempo después de su llegada, en
febrero de 1650, a causa del carácter vigorosamente obstinado de la reina, la que
exigió que Descartes le enseñase filosofía a una hora tan antifilosófica como son
las cinco de la mañana.
Regresemos al día 10 de noviembre de 1618 cuando Descartes se encontró con
un grupo de gente que estaba arremolinada ante un cartel que se hallaba
expuesto en la calle. El cartel estaba escrito en flamenco y él, dirigiéndose a una
de las personas del grupo, le pidió que lo tradujera al latín o al francés. En el cartel
se proponía un problema matemático y se instaba al público a que lo resolviera. La
persona a quién se dirigió era Isaac Beeckman, uno de los matemáticos más
eminentes del país. Descartes, resolvió el problema y entregó la solución a
Beeckman, el cual no tardo en percatarse que estaba frente a un auténtico genio
matemático y se propuso avivar el interés del joven por esta ciencia.
El 26 de marzo de 1619 Descartes le escribe a Beeckman «acerca de una ciencia,
enteramente nueva, que le iba a permitir resolver todos los problemas que se
pueden proponer acerca de cualquier clase de cantidades, continuas o
discontinuas, cada una de acuerdo con su naturaleza..., de forma que, en
geometría, casi nada quedaría ya por descubrir» De esta manera Descartes
anunciaba el descubrimiento de la geometría analítica o, como lo describiría muy
acertadamente Voltaire, «del método que permite asignar ecuaciones algebraicas
a las curvas» Se refería al método que usa el sistema de coordinación y de
referencia, que tiene la forma de la cruz cristiana y que permite obtener las
funciones continuas por coordinación de las variables que las definen. En el siglo
XVII, Pierre de Fermat (1601-1665), contemporáneo de Descartes, había hecho el
mismo descubrimiento de forma completamente independiente, pero por motivos
desconocidos no lo desarrolló de manera completa. Sin embargo, Descartes no
publicaría el suyo sino hasta el año 1637 cuando, en su ensayo Geométrie incluyó
una exposición de los principios y de algunas de sus aplicaciones. En este texto
Descartes nos ofrece la demostración de que las secciones cónicas de Apolonio

105
se hallan todas contenidas en un único conjunto de ecuaciones cuadráticas,
poniendo con ello de manifiesto el carácter general de su descubrimiento. Pero, en
vista de que las secciones cónicas comprenden a las circunferencias de los
antiguos astrónomos, a las elipses de Kepler y a la parábola utilizada por Galileo
para describir la trayectoria de un proyectil, es claro que, con esta primera
invención Descartes brindaba a los físicos una poderosa herramienta; sin ella,
incluso Newton se habría visto severamente limitado.
En el invierno de ese mismo año, Beeckman le propuso que encontrase la ley
matemática que gobierna la caída libre de los cuerpos. Ninguno de ellos sabía que
Galileo ya había resuelto el problema y cuya solución fue publicada en 1632 en su
libro Dialogui. Descartes construyó un juego de soluciones basadas en diferentes
hipótesis. Desgraciadamente ninguna de ellas estuvo en concordancia con el
modo como caen realmente los cuerpos, pero esto no le preocupó en absoluto.
Por aquel entonces aún no sabía conjugar el análisis matemático con la
experimentación.
La estructura esencial del contenido de la física y de la cosmología cartesianas
descansan en las conclusiones revolucionarias que estableció poco después de
haberse retirado a Holanda, en el año 1628. Fundamentó la posibilidad y la
certeza del conocimiento en el hecho mismo del pensamiento. Este hecho
elemental, aprehendido con suma claridad y distinción, se convirtió en su criterio
para saber si algo era cierto o falso. Afirmaba que las "cualidades” de la filosofía
clásica, aprehendidas por la simple sensación, no eran ni claras ni distintas. «Así
pues, eliminé del mundo exterior todo salvo la extensión» Suponiendo
audazmente con esto, que la res es el único aspecto mensurable de las cosas y,
por tanto, su propia esencia. Esta división del mundo en dos ámbitos mutuamente
excluyentes y conjuntamente exhaustivos, el del entendimiento y el de la
extensión, permitió a Descartes ofrecer lo que para él constituía una ciencia
verdadera de la naturaleza. Así, la tarea de la ciencia consistía en deducir, a partir
de estos primeros principios, las causas de todo lo que acontece, de la misma ma­
nera que en las matemáticas los teoremas se deducen de sus axiomas.

106
Fue la ambiciosa amplitud del programa -ya que de hecho declara que la
naturaleza física entera se puede reducir y ser comprendida por las leyes del
movimiento- lo que confirió a Descartes su importancia científica y revolucionaria.
El propio Descartes dio explicaciones, en términos de los movimientos de
partículas de formas y tamaños diversos, de las propiedades químicas y sus
combinaciones: gusto y sabor, calor y magnetismo. Trata del funcionamiento del
corazón y del sistema nervioso como fuente de acción del mecanismo del cuerpo
humano, y de muchos otros fenómenos que investigó por medio de experimentos
algunas veces realmente ingenuos. La amplitud del programa conllevaba su propia
perdición ya que no tuvo tiempo suficiente para poder abordar con suficiente rigor
y de forma cuantitativa todas las cuestiones que se propuso. Por ello su física y
cosmología son casi totalmente cualitativas. Se vio forzado a acudir a la
especulación mucho más allá de lo que le permitía «el pequeño alcance de mi
conocimiento», con lo cual consiguió lo que tanto temía: que lo que había
producido, no fuese más que un bello «romance de la naturaleza»
Su mayor fracaso tuvo lugar en el corazón mismo de su programa, en las propias
leyes del movimiento. Por medio de un proceso de análisis puramente racional,
había llegado a la conclusión de que la propiedad esencial de la materia era su
extensión espacial. Puesto que, a priori, se excluían otras posibilidades, no dejó
ningún lugar para la constatación empírica. Y entonces, a partir de esta base
supuestamente sólida, procedió a construir un sistema de mecánica que dejaba
fuera de todo análisis hechos importantes, especialmente aquellos que se
hallaban relacionados con lo que llegaría a ser la noción newtoniana de " masa”.
Su mecánica contiene ciertamente algunas conclusiones valiosas como, por
ejemplo, la que se refiere a la conservación del movimiento y su enunciado de un
principio equivalente al de inercia. Sin embargo, cuerpos geométricamente
idénticos, si tienen masas diferentes, no se comportan de forma idéntica cuando
colisionan o interactúan de otras formas. El tratamiento que Descartes dio a este
tema resultó ser del todo incorrecto a causa de que el análisis precedente de la
materia como mera extensión era así mismo erróneo.
A fin de explicar cómo es que los planetas se mantienen en su órbita, Descartes

107
propuso su famosa teoría en que la imperceptible materia del éter forma grandes
torbellinos o vórtices alrededor del Sol y de las estrellas. Los planetas son
transportados por el vórtice del Sol, al igual que una colección de barquichuelos de
niños lo son en el estanque celestial, y la Luna se ve obligada a moverse alrededor
de la Tierra por la misma causa. Lo más sorprendente es que Descartes no se
preocupó en absoluto de comprobar si esta importante parte de su física se
ajustaba o no a los hechos explicados por las leyes de Kepler del movimiento
planetario. Sería Newton quién daría muerte a la famosa teoría de los vórtices de
éter de Descartes. Él trató la teoría de los vértices como un problema serio de la
dinámica de fluidos y la desmoronó completamente.
La reputación que Descartes ha conseguido como mero especulador se debe, en
gran medida, a los historiadores de la mecánica que han escrito bajo la influencia
de la polémica con Newton. Pero, si pasamos de la mecánica de Descartes a su
fisiología, podemos observarle en un ámbito de estudio en el que las hipótesis
cualitativas en las que se sustentó para tratar las demás cuestiones le permitieron
obtener resultados más dignos de él.
Descartes moviéndose "centrífugamente” desde sus turbulentos principios cen­
trales, logró apreciar la crítica de Pascal ( 1 6 2 3 -1 6 6 2 ) y de Huygens ( 1 6 2 9 -1 6 9 5 ) y darse
cuenta de que su ideal matemático de deducción rectilínea chocaba frontalmente
con la dificultad de poner en contacto principios generales abstractos con hechos
particulares concretos. Con todo, en cuanto pensador científico positivo, quizá no
fuese tan diferente de sus sucesores actuales. Su investigación abarca nada
menos que las primeras causas y el significado de todo lo que acontece.
Es indudable que la obra de Descartes cambió el rumbo evolutivo de las
matemáticas; así, la geometría alcanzó una universalidad no conocida hasta
entonces y prodigó las bases del cálculo diferencial, el descubrimiento inevitable
de Newton y Leibniz.
Descartes se vio impelido a su geometría analítica al adaptar sistemáticamente los
símbolos algebraicos a la geometría retórica que aún estaba de moda. Aquellos
ejemplos fueron expresados en fórmulas algebraicas, a fin de transmitir más rápi­
damente el sentido de las proposiciones al lector. Es en este momento en que

108
nace su idea de expresar las leyes mediante fórmulas, de algebrizar la geometría.
Su paso siguiente fue emprender la resolución del famoso problema apoloniano
locus ad tres et quattuor lineas, expuesto por Papo. Se recordará que un punto se
movía de manera tal que el producto de sus distancias oblicuas a ciertas líneas
dadas era proporcional al de sus distancias a otras líneas. Aquí, lo primero que
hace Descartes es dejar sentado el hecho de que la geometría plana es
bidimensional. Así expresó todo lo perteneciente a la figura en términos de dos
longitudes variables, x e y, junto a cantidades fijas. Esto dio, al mismo tiempo, una
explicación algebraica a los resultados de Papo, los expresó en una forma
actualmente tipificada como f(x,y)=0, una ecuación donde sólo x e y son de
importancia fundamenta, ya que este resultado tiene como consecuencia ulterior
de que una ecuación de este tipo puede ser considerada como la definición de y
en términos de x. Al definir y como una función de x, hizo geométricamente mucho
más de lo que la definición de Napier de un logaritmo había hecho dinámicamente.
También dio una nueva significación al método de Arquímedes para el cálculo del
área de una curva utilizando una abscisa ON y una ordenada NP; en la notación
de Descartes, ON pasó a ser x, y NP, y. Así fue cómo enlazó la riqueza de la
geometría apoloniana con lo que Arquímedes había descubierto. Descartes, al
crear por primera vez en la historia de la ciencia el Sistema Coordenado de
Referencia que ha inmortalizado su nombre, lo que realmente hizo fue crear el
primer Espacio Matemático de Representación de la cultura occidental (EMROcc.),
apto para el estudio generalizado de las funciones continuas y apropiado para
describir los cambios de posición de las partículas. Por ello sólo permite
representar el aspecto cuantitativo de la realidad, su estructura externa. Este
sistema está definido en un espacio que tiene como unidad estructural al punto-
límite, consiste pues en una totalidad compacta de estas unidades trascendentes
que se extiende infinitamente.
Si bien Descartes, al culminar la construcción del EMROcc con la creación de su
sistema coordenado, merece todo el reconocimiento por esto, tuvo considerables
dificultades para indicar su significación, no fue el único en el descubrimiento.
Entre otros que llegaron a lo mismo se encontraba Fermat, otro de los grandes

109
matemáticos franceses, un hombre con una imaginación matemática más
profunda que Descartes. Pero Fermat estaba afectado de la nada recomendable
costumbre de ocultar sus descubrimientos, causa por la cual su trabajo al respecto
no llegó ha conocerse sino años más tarde.
Antes de indicar algunas de las principales consecuencias de este nuevo método
en geometría, debe mencionarse otros aspectos de la notación. La letra x se ha
hecho mundialmente famosa; y fue el metódico Descartes quien primero implantó
la moda de designar a las variables por x, y, z, y a las constantes por a, b, c.
También introdujo los exponentes para designar productos reiterados del mismo
factor, un paso de gigante que completó los perfeccionamientos en la notación que
se originaron con Diofanto. Poco después siguió la fructífera indicación de
exponentes negativos y fraccionarios; se debió a Wallis (1616-1716), uno de los
primeros grandes matemáticos ingleses. También se dio un paso profundo en la
clasificación cuando Descartes distinguió entre dos clases de curvas, geométricas
y mecánicas, o, como Leibniz prefería denominarlas, algebraicas y trascendentes.
La última designa una curva, tal como la espiral de Arquímedes, cuya ecuación
cartesiana no tiene grado finito.
Recordemos que Apolonio había resuelto el problema que consistía en hallar la
distancia mas corta desde un punto dado a una elipse dada, o a otra cónica.
Descartes siguiendo este camino llegó al mismo problema general; ideó un
método para determinar la línea más corta PQ, desde un punto P a una curva
dados. Una línea así corta a la curva en ángulo recto en el punto Q, y a menudo
se la denomina la normal en Q a la curva. Descartes tomó un círculo y convino en
que el radio debía ser lo suficientemente largo para que el círculo tocara la curva.
El punto donde tocaba a la curva le daba Q, el pie de la normal buscada. Su forma
de obtener el radio adecuado era interesante, dependía de la resolución de cierta
ecuación, dos de cuyas raíces eran iguales. El lector que se halle algo
familiarizado con la geometría analítica y haya trazado la tangente a un círculo o a
una cónica por el método de las raíces iguales, realmente ha utilizado el mismo
principio general. Si Descartes hubiera hecho aquello, se le habría ocurrido
utilizarlo para hallar una tangente a una curva, por ejemplo una línea PQ que toca

110
a la curva dada en un punto Q. Éste es uno de los primeros problemas del cálculo
diferencial; y una de las primeras soluciones fue hallada por Fermat, y no por
Descartes. Fermat había descubierto cómo trazar la tangente a ciertos puntos de
la curva, particularmente a puntos Q que se hallaran en la cresta de la curva. Eran
puntos a una distancia máxima o mínima de cierta línea base fija, denominada el
eje de las x. Al hacer esto, Fermat había seguido la sugerencia indicada por
Kepler, relativa al comportamiento de una cantidad variable cerca de sus valores
máximos o mínimos.
Descartes, descubrió una curva muy interesante denominada óvalo cartesiano,
que ha conducido a investigaciones de largo alcance, en geometría y en análisis.
Fue hallada en una tentativa para mejorar la forma de una lente, de manera tal
que condensara un haz de luz en un foco muy preciso. Si bien una lente de esta
forma enfocaría adecuadamente un haz de luz con un ángulo abierto, si éste
partiera de cierta posición particular la lente no tendría ninguna utilidad en los
demás casos. Pero esto tiene un interés físico, además del matemático; pues el
principio fundamental de su construcción es idéntico al que observó Herón de
Alejandría en el caso de los espejos planos. Es el principio de mínima acción,
expuesto de manera generalizada por Hamilton.
Toda esta obra matemática no era sino parte de un amplio programa filosófico, que
culminaba en la teoría de las vorticidades (turbulencias), con la cual Descartes
intentaba explicar los movimientos planetarios. Así como Kepler había pensado en
los cometas como peces vivos precipitándose a través de un mar celestial,
Descartes imaginó a los planetas como objetos que se arremolinaban en amplios
remansos. A Newton no sólo le restó señalar que esta teoría era incompatible con
las leyes planetarias de Kepler sino también proponer una mejor solución.
En filosofía, Descartes hizo un esfuerzo serio para erigir un sistema, de la única
manera que llamaría la atención de un matemático: construyendo, primero sus
axiomas y postulados. El hacer esto era un símbolo efectivo de una época, llena
de seguridad en sí misma, después de los triunfos de Copérnico, Napier y Kepler.
No podemos por menos de admirar la fuerza intelectual de un hombre que
emprendió una revisión global de la filosofía y logró tanto. No obstante, le faltaron

111
ciertas dotes, que podríamos creer indispensables para tener éxito en la empresa.
Era frío, prudente y egoísta y presentaba un gran contraste con su
contemporáneo, más joven, el matemático y filósofo Blaise Pascal.
El método de Descartes es, en definitiva el resultado de su interés por las
matemáticas. En el campo de la geometría, ya había mostrado cómo éste podía
conducir a consecuencias trascendentales. Porque con el método analítico, era
posible describir las propiedades de familias enteras de curvas por medio de
simples ecuaciones. Estuvo convencido que el método, que tanto éxito había
tenido en el campo de las matemáticas, podía extenderse a otros campos,
permitiendo al investigador alcanzar la misma clase de certidumbre que
experimenta cuando trabaja en el dominio de las matemáticas. El Discurso
pretende mostrar cuáles son los preceptos que habremos que seguir con objeto de
hacer buen uso de nuestra mente. En cuanto a la razón en sí sostiene que todos
los hombres son iguales a este respecto, que tan sólo diferimos en que unos la
utilizan mejor que otros. Pero el método es algo que sólo se adquiere
practicándolo, por esto lo reconoce de manera implícita, ya que no desea
imponernos un método sino más bien mostrarnos como él mismo ha utilizado con
éxito su propia razón. La exposición tiene carácter autobiográfico y relata la
temprana insatisfacción del autor con respecto a la charla insegura y no
concluyente que se aprecia en todas las esferas de la vida social. De la filosofía
dice que ningún criterio es tan absurdo, que no haya sido sostenido por alguien.
Las matemáticas le impresionaron por la seguridad que brindan las deducciones,
pero no alcanzó a ver todavía su uso adecuado. Dejó el estudio de los libros e
inició sus viajes, pero descubrió que las costumbres diferían entre sí tanto como
las opiniones de los filósofos. Al final, resolvió que debía mirar a su interior si
quería descubrir la verdad.
Observando que sólo una obra completamente acabada por un solo autor
proporciona alguna satisfacción, decidió rechazar todo lo que le habían enseñado
y que había tenido que aceptar al fiado. Unicamente la lógica, la geometría y el
álgebra quedaron en pie, y de ellas extrae cuatro reglas. La primera consiste en no
aceptar nunca nada, salvo ideas claras y distintas. En segundo lugar, debemos

112
dividir cada problema en tantas partes como sean necesarias para resolverlo. En
tercer lugar, los pensamientos deben seguir un orden de lo simple a lo complejo, y
allí donde no exista orden hemos de suponerlo. O sea que seguirá un proceso de
carácter integrativo, equivalente a la determinación de las funciones a partir de las
variables. La cuarta regla establece que siempre hemos de comprobar
meticulosamente todas las cosas para asegurarnos de que no se ha pasado nada
por alto. Este es el método que utilizó Descartes para aplicar el álgebra a los
problemas geométricos creando así lo que ahora llamarnos geometría analítica.
En cuanto a su aplicación a la filosofía, pensó que debía posponerlo hasta que
fuese un poco más viejo. Con respecto a la ética nos topamos con un dilema. Es
la última en el orden de las ciencias, pero en la vida tenemos que adoptar
decisiones inmediatas. Por tanto, Descartes adopta un "código provisional de
conducta”, que, con un criterio pragmático, le proporcionará las mejores
condiciones de existencia. En consecuencia, decide respetar las leyes y
costumbres de su país y permanecer fiel a su religión; actuar con determinación y
perseverancia una vez que haya adoptado una línea de conducta, y, finalmente,
esforzarse por dominarse a sí mismo más que tentar a la fortuna, así como
adaptar sus deseos al orden de las cosas más que obrar a la inversa. A partir de
entonces decidió dedicarse a la filosofía.
El método le conduce a la duda sistemática y, repitiendo el temerario supuesto de
Thales, nos dice que la evidencia que nos entrega los sentidos es insegura y debe
ser puesta en tela de juicio. Hasta las matemáticas, aunque menos cuestionables,
deben ser objeto de sospecha, ya que Dios podría estar extraviándonos de
manera sistemática. En definitiva, lo que debe admitir que duda es su propia
actitud dubitativa. Esta es la base de la fórmula cartesiana fundamental: «Pienso,
luego existo» Él consideró que en ella radicaba el punto de partida, claro y distinto,
de la metafísica. Y concluye que él es un ser pensante, en total independencia de
las sustancias naturales, y, en consecuencia, igualmente independiente del
cuerpo. Pasa después a la existencia de Dios, y repite esencialmente la prueba
ontológica. Puesto que Dios es la verdad, no puede engañarnos respecto a la
claridad de nuestras propias ideas. Puesto que tenemos tal idea de los cuerpos, o

113
extensión, como dice él, significa que existen. Luego viene un esquema de las
cuestiones físicas en el orden en que habrían sido expuestas en el tratado no
publicado. Todo se explica en función de la extensión y su movimiento. Esto se
aplica incluso en biología, y nos explica la circulación de la sangre diciendo que el
fenómeno se debe a que el corazón actúa como un calentador, que expande la
sangre que penetra en él. Naturalmente, como esto estaba en desacuerdo con las
observaciones de su contemporáneo Harve, dio lugar a una viva controversia.
Pero, volviendo al Discurso esta teoría mecánica lleva a adoptar el punto de vista
de que los animales son autómatas, carentes de alma, lo cual, por otra parte, se
supone desprenderse del hecho de que no hablan y, por consiguiente, deben
carecer de razón. Esto refuerza el criterio de que el alma humana es
independiente del cuerpo, y, puesto que no hay otras fuerzas destructivas, nos
lleva a la conclusión de que es inmortal. Finalmente, el Discurso alude al juicio
contra Galileo y discute la conveniencia de publicar o no publicar. Al final, el
compromiso consiste en publicar el Discurso y los tres ensayos de los cuales
constituye el prefacio. He aquí una síntesis del mensaje del Discurso, trazada en
función de los principios de la filosofía cartesiana.
Lo importante de esta doctrina, por encima de todo, es el método de la duda
crítica. Como procedimiento, conduce a un escepticismo universal, como le ocurrió
posteriormente a David Hume ( 1 7 1 1 -1 7 7 6 ) Pero Descartes se salva de la conclusión
escéptica por sus ideas claras y distintas, que él encuentra en su propia actividad
mental. Las nociones generales como la extensión y el movimiento, siendo
dependientes de los sentidos, constituyen para Descartes ideas innatas,
cualidades que a su vez son los componentes últimos del genuino conocimiento.
La percepción sensorial pertenece a las cualidades secundarias como el color, el
gusto, el tacto y demás, pero estas cualidades no están realmente en las cosas.
En las Meditaciones, nos presenta el famoso ejemplo del trozo de cera y sus
aspectos cambiantes para ilustrar este punto. Lo que permanece constante en
todos los casos es la idea innata de extensión, conocida por la mente.
La filosofía cartesiana considera, pues, a los pensamientos como los indudables
puntos de partida, y ello ha influido desde entonces en la filosofía europea, tanto

114
en el campo racionalista como en el empírico. Esto sigue siendo verdad, aun
cuando la fórmula «Pienso, luego existo», en la que se basa este desarrollo no
sea suficientemente sólida. Porque la afirmación es plausible sólo si admitimos
una oculta presuposición: que el pensar es un proceso autoconciente. De otro
modo, igualmente podríamos decir: «Ando, luego existo», ya que si ando, es cierto
que tengo que existir. Esta objeción la presentaron Hobbes (1558-1679) y Gassendi.
Pero, naturalmente, yo puedo creer que ando cuando en realidad no estoy
andando, mientras no podría creer que pienso si de hecho no estuviese pensando.
Es esta autorreferencia, que se supone ocurre en el proceso de pensamiento, lo
que confiere a la fórmula su carácter aparentemente indubitable. Suprímase la
autoconciencia como hizo Hume, y el principio desaparece. Sin embargo, queda
en pie la verdad de que nuestras propias experiencias mentales comportan una
peculiar seguridad no compartida por otros hechos.
Profundizando el antiguo dualismo entre mente y materia, la filosofía cartesiana
situó en primer término el problema que semejante teoría debe abordar lo
referente a las relaciones entre la mente y el cuerpo, ya que los mundos material y
mental parecen ahora discurrir por sus distintos cauces, contenidos en sí mismos
y regidos por sus propios principios. En particular, resulta imposible sostener,
desde semejante punto de vista, que operaciones mentales como la de la volición
puedan alguna vez afectar al mundo físico. El mismo Descartes hizo aquí una
excepción, admitiendo que el alma humana pedía alterar el movimiento de los
espíritus vitales en cuanto a la dirección, aunque no con respecto a la cantidad.
Sin embargo, esta salida artificial se hallaba en desacuerdo con el sistema.
Además, no coincidía con las leyes del movimiento. Acto seguido sus seguidores
le abandonaron y sostuvieron que la mente no puede mover al cuerpo. Para
explicar la relación existente entre ambos, dijeron que hay que suponer que el
mundo esta preordenado de tal modo que, siempre que se produce cierto
movimiento corporal, lo que pasa por el oportuno concomitante mental sobreviene
de hecho en el mismo momento en la esfera mental, sin que exista una conexión
directa.

115
Sea cual fuere el punto de vista que se adopte, no se acomodaba a los principios
cristianos, principalmente al libre albedrío y por ello no es sorprendente que las
obras de Descartes hayan tenido reservado un puesto seguro en el Índice de los
libros prohibidos. Al final, el rígido determinismo de la explicación cartesiana del
mundo material, tanto físico como biológico y la física newtoniana determinaron el
carácter del materialismo de los siglos XVIII y XIX.
El dualismo cartesiano es en suma, el resultado de una concepción
completamente convencional del problema de la sustancia, en el sentido técnico
en que los escolásticos utilizaron el término. Una sustancia es una totalidad
portadora de cualidades, pero en si misma es independiente y permanente.
Descartes, reconoció la materia y la mente como dos sustancias diferentes que,
siendo cada una de ellas autosuficiente, no pueden actuar entre sí en modo
alguno. Por tanto, tendrá que tratarse a cada mente como una sustancia propia e
independiente. Moviéndose en esta dirección, Leibniz, con su teoría de las
mónadas, desarrolló una teoría en la que las sustancias son infinitamente
numerosas, todas independientes, pero coordinadas. Lo alternativo sería retornar
al punto de vista de Parménides y sostener que no hay sino una sustancia. Este
último camino fue el que emprendió Espinosa, cuya teoría constituye quizá el más
consecuente e inflexible monismo que se haya elaborado jamás, escrito al modo
de los Elementos de Euclides, como un sistema lógico-deductivo.
Ahora podemos ver con más claridad cómo, en los tiempos de Descartes, la
necesidad histórico-social de disponer de un sistema de referencia absoluto que
sirva de ordenador de la vida de los hombres, explica por qué la ocurrencia
iluminada de concebir dicho sistema tuvo íntima relación con la geometría del
sagrado símbolo cristiano, la cruz. O sea, todas las condiciones estaban dadas
para que en la mente de Descartes brotara, como si fuese una iluminación o un
prodigio, el sistema que permitía coordinar las ideas a partir de sus componentes
más elementales. Aquel que proyecta imágenes en la mente que son
independientes de los sentidos, se trata de imágenes virtuales.
Ahora el EMROcc estaba completo, por primera ocasión occidente disponía de un
dispositivo intelectivo con la prodigiosa propiedad de revelar la forma del

116
movimiento de un sistema de partículas dado. Como por ejemplo el sistema Solar.
En el cual, para estudiar sus trayectorias tendremos que, por exigencia inapelable,
considerar a los planetas como si fuesen puntos-límite, sin estructura interna, tal
cual exige la estructura del espacio de representación utilizado. Sólo restaba
desarrollar un método capaz de calcular directamente las funciones que
caracterizan el EMROcc.

1. 3 3 Isaac Newton y el modelo mecánico del mundo


«Hay algo de lo que Newton es responsable (y con él la ciencia moderna en general). Se trata de la división del
mundo en dos partes. He dicho que la ciencia moderna había destruido las barreras que separaban los cielos
de la Tierra, que ha unido y unificado el universo. Eso es cierto. Pero, también lo he dicho, esto lo ha
conseguido sustituyendo nuestro mundo de calidades y de percepciones sensibles, mundo en el que vivimos,
amamos y morimos, por otro mundo: el mundo de la cantidad, de la geometría deificada, un mundo en el que
cabe todo excepto el hombre. Yasí, el mundo de la ciencia - el mundo real- se aleja definitivamente del mun­
do de la vida que la ciencia ha sido incapaz de explicar. De hecho, estos dos mundos se unen cada día más
por la praxis pero están separados por un abismo en lo que a la teoría se refiere. En esto consiste la tragedia
del espíritu moderno que sabe resolver el enigma del universo, pero sólo a costa de reemplazarlo por otro
enigma: el enigma de sí mismo»
A.Koiré, Estudios
Newtonianos
Si pudiésemos regresar en el tiempo, a la época en que ocurrió la muerte del
revolucionario Oliverio Cromwell, en la región cercana a Grantham podríamos ver
a un niño jugar de una manera curiosa. De espaldas al viento, da un salto largo.
Luego se vuelve de cara al viento, y da otro salto, no tan largo como el primero.
Luego mide cuidadosamente ciertas distancias y así averigua la fuerza del viento.
El niño es Isaac Newton y un día logrará medir la fuerza de la gravedad que
impulsa a un planeta en su órbita.
Siendo aún niño, su madre lo sacó de la escuela de Grantham para que vigilara
las ovejas y fuera regularmente al mercado. Pero como estudiaba matemáticas en
lugar de atender su negocio decidieron devolverlo a la escuela, y de la escuela al
colegio. En la escuela, se hospedó con el farmacéutico "mister Clark”, y paso
mucho tiempo en ese alojamiento construyendo toda clase de ingenios. En su
habitación había cuadros y pinturas hechas por él, retratos, barcos y dibujos de

117
pájaros y otros animales. En otro lugar de la casa puede verse un reloj accionado
por agua y un molino que tenía un ratón por molinero. Hizo un carro que era
impulsado por el pasajero, y un reloj de sol, que estaba colocado en el patio. Era
un buen amigo de las damitas de la casa, y fabricaba mesas y sillas para sus
mucamas. Sus compañeros de colegio le consideraban un mecánico experto, sin
saber aún que era la encarnación misma de la mecánica.
Cuando llegó al colegio mostró ser algo perezoso, pero una pelea que tuvo un día
lo despertó, y, a partir de entonces ya no fue él mismo e hizo grandes progresos.
Este niño tranquilo era portador de grandes cualidades, que se manifestarían más
tarde.
Al cumplir los veinte años fue a Cambridge, al Trinitv College, donde vivió hasta
cumplidos los cincuenta. El ingreso lo hizo como becario, pues, al ser demasiado
pobre no podía vivir a la manera de los no graduados.
En cierta ocasión su tutor le invitó a dar una clase leyendo la Óptica de Kepler. Sin
pérdida de tiempo adquirió una copia del libro, y pronto sorprendió a su tutor al
mostrar que dominaba completamente el contenido del texto. Luego siguió un libro
de astrología; pero éste contenía algo que le confundía. Era un grabado de los
cielos. Creía que, para comprender el diagrama, primero debía entender la
geometría. Por tanto, compró los Elementos de Euclides, pero se desilusionó al
encontrarlo demasiado sencillo y lo desdeñó, pero más tarde tuvo que
arrepentirse. Al volver su interés hacia la obra de Descartes encontró a su
verdadero contrincante y, luchando paciente y constantemente, le ganó la
contienda.
Isaac Newton continuó aprendiendo, aun después de graduarse, todas las ma­
temáticas y filosofía natural que podía enseñarle Cambridge, y descubriendo por si
mismo cosas nuevas, hasta que el Lucasian Professor de matemáticas de la
universidad se convenció tanto del genio de este hombre joven que, por increíble
que parezca le cedió su profesorado. Fue Isaac Barrow quién se resignó de este
modo. Fue un matemático que no tuvo cualidades importantes, pero como teólogo
ganó considerable reputación.
Newton hizo tres célebres descubrimientos: uno en matemáticas, uno sobre la luz

118
y uno en astronomía. Fueron preparados a lo largo de un proceso de profundo
estudio. «Mantengo -decía- el objeto de mi investigación constantemente
presente, y espero hasta que la alborada se abra gradualmente, poco a poco, en
una luz clara y total»
En los albores mismos de su carrera descubrió, al descomponer un rayo de luz
solar y hacer que los rayos separados llegaran a una pantalla formando una cinta
en arco iris, que la luz blanca estaba compuesta de siete colores básicos. Este
descubrimiento tuvo lugar gracias a la imperfección de las lentes de los
telescopios que se fabricaban entonces. Intentó subsanar el defecto inventando un
telescopio reflector, con una lente que ocupara el lugar de la lente principal,
porque creía que los espejos no producían esta aberración de las lentes. Uno de
sus distintivos, compartido con Arquímedes y otros gigantes intelectuales, es la
excelencia de su propio trabajo manual.
En la capilla de su colegio existe una estatua con esta leyenda: «Newton, con su
prisma y su rostro impasible; la señal en mármol de una mente que viaja sola y
para siempre, a través de extraños mares de pensamiento»
En matemáticas, su descubrimiento más portentoso y famoso fue el cálculo
diferencial e integral, que lo nombró método de fluxiones, y en astronomía, la
concepción y elaboración de la gravitación universal. Estos trabajos estuvieron tan
entrelazados, tan ínter penetrados entre sí, que cada uno reforzaba al otro.
A los veintitrés años de edad, cuando el colegio fue cerrado a causa de la peste
bubónica de los años 1665 y 1666, regresó a su tranquilo hogar campesino donde
estableció los principios de la gravitación y, para manipular mejor las intensas
dificultades matemáticas que implicaban, trabajó en el cálculo diferencial. Tres
años después de su primera lectura de geometría, dominaba tan bien el campo de
las matemáticas, desde Arquímedes a Barrow, que había transformado su
maravillosa geometría infinitesimal en una disciplina sistemática, dando al análisis
la misma universalidad que había dado Descartes a la geometría.
El prodigio de Newton consistió en configurar un solo enfoque, a partir de los
puntos de vista de Napier y Descartes. Recordemos que por su lado Napier
consideró puntos P y P’, móviles a lo largo de dos rectas paralelas OX y OY,

119
moviéndose P con velocidad variable y P’ con velocidad constante. En cambio las
coordenadas de Descartes mejoran notablemente la representación ya que
proporcionan un plano del recorrido del siguiente modo: las líneas OX y OY
pueden situarse, no ya paralelamente, sino perpendicularmente, y puede dibujarse
la curva trazada por un punto Q, que se halle simultáneamente al nivel de los
puntos M y N. De esta forma pueden trazarse dos figuras, la neperiana y la
cartesiana. Las figuras son expresión de dos líneas de pensamiento: el de la
cinemática y el geométrico. Tal vez Newton no haya trazado nunca realmente tales
figuras, una junto a otra, pero, ciertamente, tuvo los dos órdenes de pensamiento.
«Caí gradualmente en el método del cálculo diferencial», señala, y por
diferenciales se refería, simplemente, a lo que nosotros llamamos velocidades
instantáneas de los puntos P y P’. Luego ideó, al intentar comparar la velocidad de
P con la de P’, el método que sugiere la figura geométrica. Descubrió lo que
nosotros llamamos cálculo diferencial e integral, pero lo guardó bastante tiempo
sólo para sí.
En años posteriores, Leibniz anunció que él había descubierto este nuevo método
matemático. Entonces surgió una disputa que, como todos sabemos, tuvo
repercusiones internacionales. En este ámbito del pensamiento se enfrentaron los
seguidores de Newton y los seguidores de Leibniz, Inglaterra contra Alemania.
Creo que basta decir que el momento histórico estaba maduro para tal
descubrimiento; y tanto Newton como el filósofo alemán estaban suficientemente
dotados para efectuarlo. Newton fue el primero en hacerlo y sólo se procuró malos
ratos al abstenerse de publicar sus resultados, pues cayó victima de su propio
egocentrismo. También es muy probable que Pascal y Barrow hayan influido sobre
Leibniz más que el propio Newton. Este hecho resultó ser de mucho provecho
pues Leibniz, a cambio, nos entregó escritos de partes de la obra de Pascal que,
de otra manera, se habrían perdido para siempre, dicho sea de paso.
En esta época fue fundada por el rey Carlos II la Royal Society de Londres. Ésta
se correspondía con la Academia de París, y proporcionaba un lugar de reunión
para los matemáticos y filósofos naturalistas más importantes del país. Gregory y
Newton, que se habían hecho amigos a través de su interés común por el

120
telescopio reflector, fueron dos de los miembros de esta sociedad. Además de
mantener una correspondencia, es posible que realmente se encontraran. De
hecho, se pusieron en contacto con otros matemáticos y astrónomos importantes,
como Robert Hooke y Edmund Halley.
Cuando Newton descubría algo, Hooke, generalmente, señalaba: «Es
precisamente lo que yo descubrí antes» Pero fue un gran inventor, cuyas
intrépidas especulaciones estimularon a la gente a que pensara sobre las
cuestiones que Newton resolvería. Halley fue un astrónomo muy activo, siempre
estaba viajando por el mundo para alimentar a su ciencia. El descubrimiento del
cometa que lleva su nombre puso a prueba la teoría de gravitación de Newton,
motivo por el cual tuvo el honor de presentarlo ante el mundo como el descubridor
de la gravitación. El paso decisivo en busca de la gravitación universal se dio entre
1679 y 1680 cuando Hooke introdujo a Newton en un nuevo modo de analizar el
movimiento de un cuerpo a lo largo de una trayectoria curva. Hooke pudo observar
que el movimiento de un cuerpo que gira tiene dos componentes: una inercial y
otra centrípeta; esto es, dirigida hacia el centro. La inercial tiende a lanzar el
cuerpo a lo largo de una recta tangente a la curva descrita, mientras que la
componente centrípeta aparta continuamente el cuerpo de esa trayectoria
rectilínea inercial. En una órbita estable, como la de la Luna, ambas componentes
se hallan combinadas de forma que la Luna ni se aleja siguiendo un camino
tangencial, ni se acerca a la Tierra describiendo una espiral.
Descartes y Huygens habían analizado el movimiento curvilíneo en función de la
fuerza centrífuga. Pero equivocaron el enfoque, ya que la ilusión de una fuerza
centrífuga surge siempre que se observa el objeto desde un sistema de referencia
en rotación. Así fue cómo el análisis "centrífugo” fijó su atención en el objeto en
rotación, cuya tendencia a apartarse del centro parece no tener nada que ver con
las propiedades del cuerpo central. Por el contrario, el concepto de fuerza
centrípeta atiende al cuerpo central, hacia el cual es impulsado o traído el objeto
que gira. Con este cambio de perspectiva, de fuerza centrífuga a fuera centrípeta,
se llegó ha apreciar de correcta manera el papel que desempeña el cuerpo
central. Por consiguiente resulta obvio esperar que la interacción entre el cuerpo

121
central atrayente y el objeto circundante atraído haya desempeñado un papel
crucial en el descubrimiento de la gravitación universal. Pero, Descartes, Newton y
Huygens estaban tan determinados por el concepto centrífugo, que todas las
implicaciones de la física inercial no les resultaban obvias. Hooke escribió a
Newton el 24 de noviembre de 1679 que hay que «componer los movimientos
celestes de los planetas a partir de un movimiento rectilíneo a lo largo de la
tangente y un movimiento atractivo, hacia el cuerpo central» En esta misma carta
Hooke aventura sugerirle que la fuerza centrípeta hacia el Sol varía en razón
inversa del cuadrado de la distancia. Para Newton esta frase fue una suerte de
boya salvavidas que le permitió escapar del vórtice cartesiano.
Pasó el tiempo y un día Halley decidió ir a Cambridge y consultar a Newton: «Si
un planeta fuera atraído por el Sol con una fuerza que varía inversamente al
cuadrado de la distancia entre ellos ¿qué tipo de curva recorrería el planeta?.»
Newton respondió, para gran asombro y alegría de Halley: «Una elipse. ¿Cómo
sabe esto?. Porque lo he calculado. ¿Dónde están los cálculos?» Debían estar en
algún lugar entre sus papeles, los buscaría y se los enviaría. Resultó que Newton
lo había desarrollado mucho antes, y sólo de esta forma casual la cuestión pasó a
conocimiento del mundo. Entonces Halley convenció a su modesto amigo de que
desarrollara todo el problema, explicando todo el complicado sistema del
movimiento planetario. Newton lo hizo y fue una tarea enorme, que lo tomó cerca
de tres años y cuyo producto final fue el famoso libro titulado Los Principios
Matemáticos de la Filosofía Natural o, más brevemente, los Principia, una de las
realizaciones supremas del intelecto humano. Según el modelo mecánico del
mundo que surgiría de aquí se decía que todo lo que aconteció y acontecerá en el
universo está prefigurado en sus Principia. Tal fue la importancia del libro, que
atrajo enseguida la atención no sólo en Inglaterra, sino en toda Europa. Era una
obra maestra tanto de matemáticas como de filosofía natural. La parte más
sorprendente no fue tanto la concepción de que el Sol atrae al planeta, sino la de
que el planeta atrae al Sol y lo que es más sorprendente aún, ¡lo atrae con la
misma fuerza!. Y de que todo el universo está lleno de cuerpos que caen; y todo
atrae a todo lo demás; literalmente todo, hasta la más diminuta mota de polvo. Los

122
amigos de Newton, al estudiar el efecto de la atracción solar sobre un planeta,
habían conjeturado correctamente que la fuerza buscada está determinada por lo
que se denomina la ley de la inversa del cuadrado. Newton ya había adoptado
esta ley para la fuerza en sus primeras hipótesis, durante las largas vacaciones de
1666, más de veinte años antes de la publicación de los Principia, que fue en
1687. A ésta fecha corresponde también la conocida leyenda de la manzana. Se
dice que la visión de una manzana que caía puso en movimiento el pensamiento
que condujo a Newton a su descubrimiento de la gravitación universal (aunque, más
bien, la imagen de campo gravitatorio estuvo nítidamente sugerida en la de campo magnético, cuando se
hace visible al esparcir finas limallas de hierro sobre un papel que está en la cercanía de un imán) Pero,
después de elaborar las consecuencias matemáticas de su teoría y de haberlas
encontrado en desacuerdo con los hechos observados, había echado sus papeles
a un lado. Sólo después de muchos años tuvo conocimiento de cálculos
posteriores y más cuidadosos de las observaciones. Esta vez, para su
satisfacción, se ajustaban a su teoría matemática y por esto Newton tenía a punto
su respuesta cuando Halley le hizo la memorable pregunta.
En los Principia, Newton demostró que si su ley de la gravitación se aplica
universalmente, es capaz de describir todos los movimientos celestes. No se pudo
probar la verdad del asunto, pues en aquel tiempo no se conocían todos los
movimientos celestes. Casi todos los que se han descubierto a partir de entonces
contribuyen a probar que estaba en lo cierto, pero no de manera absoluta. Así por
ejemplo, la Luna se niega a girar en torno a la Tierra según una elipse exacta, y
tiene toda clase de pequeños recorridos caprichosos que le son peculiares. Este
fue el motivo por el que la Luna le resultó muy molesta a Sir Isaac.
El gran libro de Newton estaba en latín, y fue redactado al estilo de los Elementos
de Euclides, a fin de hacerlo comprensible para los hábitos de pensamiento a la
sazón vigentes. Newton había elaborado, desde luego, la matemática mediante el
concepto de fluxión o derivada, pero prefirió lanzar el principal descubrimiento
gravitacional solo, para no confundir más a sus lectores con el uso del nuevo
método. Fuera de su cátedra de Cambridge, no se supo de sus demás
realizaciones matemáticas. Su Arithmetica Universalis fue publicada en 1707, y

123
otras obras importantes sobre álgebra y geometría aparecieron, aproximadamente
en la misma época. Newton imprimió la impronta de su genio en todas las ramas
de la matemática que topó; en realidad existen pocas partes que escaparon a su
atención. Ya se ha mencionado su trabajo en interpolación y álgebra. Puede
juzgarse el valor de sus métodos por un célebre teorema, que formuló sin
demostrar, para determinar las posiciones de las raíces de una ecuación.
Transcurrieron unos ciento cincuenta años antes de que Silvestre(1814-1897)
descubriera cómo demostrar su teorema.
La publicación de los Principia obligó a Newton a abandonar su vida retirada. En
1689 fue nombrado miembro del Parlamento, y pocos años mas tarde jefe de la
Casa de la Moneda. En 1705 fue ennoblecido como caballero por la reina Ana.
Murió en 1727, a los 85 años, y fue enterrado en la abadía de Westminster.
Voltaire expresó su orgullo de haber vivido durante algún tiempo «en un país
donde se entierra a un profesor de matemáticas, sólo porque fue grande en su
vocación, como a un rey que ha hecho el bien a sus súbditos» Esto era de esperar
pues la monarquía recibió de su obra muchos beneficios, como el de haber
construido un modelo del mundo de carácter absoluto, ideológicamente favorable
al gobierno de la nobleza y de la Iglesia Católica. Los científicos se manifestaron
muy tarde a rendirle pleitesía a Sir Isaac, fueron doscientos años más tarde, en
1927, cuando el mundo matemático inglés hiciera una primera peregrinación a
Grantham para manifestar su respeto y admiración por el genio de Newton. No
obstante, el evento pone en evidencia de que la enorme reputación que siempre
disfrutó, era totalmente merecida.
Es importante mencionar la relación de Newton con el gran filósofo natural danés
Huygens (1629-1693), que se hallaba en estrecho contacto con los científicos de
Inglaterra y que hizo mucho para estimular sus maravillosos progresos. Fue un
potentado astrónomo que construyó su propio telescopio y descubrió la galaxia
más cercana a la nuestra, Adrómeda. Su propio trabajo en física es tan importante,
que sus matemáticas suelen ser pasadas por alto. Logró muchos resultados
elegantes en las aplicaciones del cálculo diferencial a la descripción de fenómenos
mecánicos como las oscilaciones de un péndulo, la forma de una cuerda colgante,

124
y otros parecidos; pero, es más conocido por su teoría ondulatoria de la luz. Esta
teoría ha llegado a ser un hito en la historia de la física, y es particularmente
interesante porque dio gran relieve a la gravitación universal de Newton. Newton
creía que la luz estaba formada por minúsculas partículas, que fluían
rectilíneamente; Huygens, por el contrario, supuso que la luz se propagaba por
ondas. Las consecuencias han mostrado que de estas teorías rivales la última es
la más valiosa. No sólo proporcionó un nuevo enfoque para los problemas ópticos,
sino que también solucionó muchas cuestiones de la teoría electromagnética. Los
fenómenos naturales iban siendo descritos, uno a uno, por esta teoría ondulatoria
general, pero la gravitación presentó una resistencia al parecer insalvable. Este
comportamiento no ondulatorio de la gravitación, esta aparente acción a distancia,
lamentablemente confundió a Newton mucho antes de que estos casos
posteriores de fenómenos hicieran del movimiento ondulatorio el más verosímil, el
más acercado a la realidad.
Por supuesto que estos hechos no dejaron el campo libre para que la teoría ondu­
latoria reinara de manera absoluta y despótica. Otras dificultades se fueron
presentando y reuniendo tranquila y discretamente, y no tardaron en hacer
aparición motivos en favor de la teoría corpuscular de la luz de Newton, cuando
Einstein lograba dar una explicación para el fenómeno fotoeléctrico, introduciendo
la noción de fotón o partícula de luz. Hasta el presente ninguna de las dos ha
cedido ni un palmo de su terreno a favor de la otra. La obra de Newton y Huygens,
ha quedado plenamente realizada en la teoría cuántica y en la mecánica
ondulatoria.
El espacio concebido como el recipiente que contiene a todos los objetos del
mundo es característico de la física de Newton y en ésta alcanza, a no dudarlo, su
mayor lustre. El espacio se considera como el escenario donde transcurren los
procesos físicos, un escenario que existe independientemente de la materia,
eternamente igual e imperturbable. Es el soberbio concepto de espacio absoluto.
La implantación de este concepto fue una reacción portentosa a la relatividad de
Galileo. Me pregunto, ¿cómo fue posible que se produjese a pesar del poder
persuasivo de la argumentación galileana, que puso en tela de duda el concepto

125
de "espacio absoluto” ? ¿Cómo fue posible que el "espacio absoluto” renaciera de
las cenizas tras la crítica galileana a Aristóteles? Para preguntarlo más
sueltamente todavía: ¿de qué artimaña se valió Newton para conseguir superar a
Galileo en una batalla librada sin su presencia?
Con frecuencia se tiende a asumir, con ligereza, que entre Galileo y Newton hubo
una continuidad o una hermandad de pensamiento, a través de la cual se habría
conformado el paradigma de la física renacentista. Así, se ha enfatizado su interés
recíproco y complementario en el estudio de la gravitación. O se los ha presentado
como las eminencias capaces de haber elucidado el comportamiento inercial de
los cuerpos. Pero lo que puede ser cierto en lo que respecta a la teoría de la
gravedad, no lo es en lo que respecta a la de la inercia. Pues, la física de Galileo
es, ante todo, la física de la caída de los cuerpos. En ella no hubo una preferencia
por el estudio del movimiento inercial, el cual fue por primera vez conceptualizado
y estudiado, a la manera axiomático-deductiva, por la física de Newton, al ser
formulada la ley de la inercia, aquella que establece que todo cuerpo entregado a
sí mismo permanece en su estado de reposo o de movimiento rectilíneo y
uniforme. Con la introducción de esta ley, y en lealtad con el espíritu pitagórico de
trascender el mundo de las apariencias, pudo Newton restablecer el espacio
absoluto.
Resulta paradójico, puesto que del movimiento inercial se extrae precisamente
una noción de espacio relativo... Este espacio relativo es concebido por Newton
como una medida sensible del absoluto, una medida que tiene para él un valor de
simple apariencia y una característica plebeya, frente a la realidad matemática y
verdadera del espacio absoluto. Por lo qué, no deja de parecer arbitraria la
intromisión del espacio absoluto en la física de la inercia.
Newton sostuvo todo lo contrario, pues sólo presuponiendo un espacio absoluto
puede ser justificada la ley de la inercia. Ya que, ¿con respecto a qué cosa es
concebible un estado de permanente reposo?. Sin embargo, no tuvo a su alcance
la manera, en el movimiento inercial, de encontrar evidencias del espacio
absoluto.

126
Precisamente fue esta imposibilidad lo que llevó a Newton a interesarse por el
estudio de la dinámica. Como bien se conoce, él adujo en calidad de prueba del
movimiento absoluto, y por tanto del espacio absoluto, la existencia de "fuerzas
centrífugas” internas en un recipiente en rotación (su famoso experimento del “balde”)
Se ve claro en esta evolución del pensamiento de Newton, la realización de su
programa intelectual: restituir, lógica y ontológicamente, el absoluto espacial. Pero,
¿cuál pudo haber sido la poderosa “fuerza” que lo impelió tenazmente, a lo largo
de su vida intelectual, con este propósito? ¿Por qué esta extrema y aristocrática
reacción de Newton a la relatividad de Galileo?
Una respuesta satisfactoria fue encontrada por Max Jammer y dada a conocer en
su magnífica obra Conceptos de espacio, que es el primer estudio epistemológico
sobre los conceptos de espacio utilizados en la física y la filosofía, razón de sobra
como para haberle interesado vivamente a Albert Einstein (1 8 7 9 -1 9 5 5 ) en sus
últimos años de vida, y como para haber llegado a ser, con tan meritorio
antecedente, la obligada fuente del saber actual sobre tal materia. En esta obra,
Max Jammer puso en claro que aquel interés de Newton estuvo cautivo del afán
por demostrar la existencia de Dios, empresa que, al parecer, fue un resultado de
la influencia ejercida por reputados cabalistas ingleses sobre el genio de
Woolsthorpe. Lo cual contradice lo que todos sabemos, esto es, que Newton
separó perfectamente los dos campos: el teológico y el científico. Tanto así que
dejó exclamar «yo no hago hipótesis», aserto que condensa su oposición a
mezclar física con metafísica. Sin embargo, tuvo para sí que «la verdadera
filosofía natural constituye un apoyo para la religión verdadera»
Aparece evidente que el concepto de espacio fue una clara excepción a esa
prevenida actitud mencionada. No otra cosa se desprende de la definición
newtoniana de espacio absoluto, como él «sensorio de un ser incorpóreo, vivo,
inteligente, capaz de ver en toda su intimidad las cosas, de percibirlas en
profundidad, de comprenderlas íntegramente en la inmediatez de sus
presencias», que parece más sentencia de teólogo que aseveración de físico;
identificación de Dios con el espacio, a partir de la cual quedó firmemente
restablecido el vínculo de la ciencia con la religión, que la polémica desatada por

127
el "caso Galileo Galilei” había hecho saltar por los aires de la recíproca
intolerancia.
¿Esta identificación de Dios con el espacio fue una inédita propuesta de Newton o
él se limitó a brindarle una resonancia "científica”?
Su origen se encuentra en la religión judía, exactamente en el punto en que un
adecuado o consecuente desarrollo de la idea monoteísta, le condujo a sostener la
"omnipresencia Divina”, la idea de que Dios existe y está presente aquí y allá, en
todas partes y al mismo tiempo. Esta noción se esparció y prosperó en los
cenáculos intelectuales de la Europa renacentista, a través de las enseñanzas de
la cábala, cuya irrupción en el panorama de la ciencia europea se decidió al
producirse la caída de Constantinopla, una vez que connotados sabios griegos y
judíos encontraron refugio en Italia. En lo que a Newton respecta, estas influencias
le llegaron de su profesor de Cambridge, Joseph Mede, de la filosofía natural de
Gassendi, de su maestro Isaac Barrow y, sobre todo, de Henry More, dirigente
espiritual del Christ’s College y uno de los principales divulgadores de las ideas
cabalísticas y neoplatónicas.
Es muy extraño que esta conclusión de la necesaria ubicuidad Divina no hubiese
generado un temprano desarrollo panteístico entre exponentes y defensores de la
religión judía. No obstante se produjo, y el mérito corresponde a Nicolás de Cusa
y, especialmente, a Baruch Espinosa, en cuya obra se incluye no sólo a la
extensión como un atributo de Dios -tal cual había pensado Henry More- sino
también a la materia.
La imagen espinosiana de la naturaleza, una naturaleza en la que Dios está
difundido, es la de un mundo de objetos en interacción causal, susceptible de
comprenderse a través de la geometría. Y aquí, con Espinosa, estamos situados
en los prolegómenos del concepto de espacio que rivalizó con el de Newton: el
espacio definido como la red de relaciones entre los cuerpos, concepto que
Leibniz sería el encargado de caracterizar y defender ante Newton, con resultados
favorables en lo que concierne a la argumentación de la cinemática, pero adversos
en lo que respecta a la conceptualización de la dinámica; fracaso que habría de
mantenerse, como se sabe, hasta la aparición de la teoría general de la

128
relatividad, cuando Einstein consiguiera relativizar el movimiento acelerado
uniforme.
Este concepto de espacio relacional, estuvo igualmente impregnado, en sus
orígenes, de inspiración religiosa. Pues, en lo que toca al espacio definido como el
sistema de relaciones entre los objetos, es la cosmovisión musulmana la que se
lleva el mérito de haberla inicialmente sustentado. Aquí cabe la pregunta ¿hubo
influencia musulmana en Leibniz?
El ambiente intelectual que rodeaba las cavilaciones de gente como Newton y
Leibniz, fue acusadamente hermético. Se puede aseverar, a pesar de ello, que
entre la monadología de Leibniz y el atomismo del Kalám hay una fuerte
semejanza, y que Leibniz conoció la Guía de perplejos, obra de Moisés
Maimónides donde se expone el sistema Kalám del mundo. Nacido en la España
morisca en el siglo XII, o sea descendiente judío en cuna mahometana,
Maimónides no sólo influyó en Leibniz, sino que se lo recuerda como un inspirador
de la filosofía panteísta de Espinosa.
En la base del sistema está la idea de que los átomos son partículas indivisibles,
iguales entre sí y desprovistas de toda extensión; o sea, puntos-límite, cuyas
combinaciones recíprocas dan lugar a los cuerpos. El espacio es pensado no
como el "lugar” que ocupan los objetos, sino como el conjunto de relaciones entre
los átomos que les constituyen. Por tanto, en el primero tienen predominancia los
elementos del sistema, mientras que en el otro son las relaciones entre ellos las
que prevalecen. Son los dos únicos enfoques posibles que permite el EMROcc
por estar constituido de puntos-límite: las individualidades y la red de las
relaciones entre ellas.
Igual que lo acontecido con tantos otros conceptos usados en las religiones, el
atomismo kalámico tiene un origen profano. Su incorporación al pensamiento
musulmán se produjo para subsanar el conflicto imperante entre la filosofía de
Aristóteles, de honda influencia en la historia de las ideas mahometanas, y el
dogma coránico de la creación Divina. Aristóteles, como bien se sabe, fue de la
opinión de que el movimiento y el lugar presuponen la existencia de los cuerpos
que pueblan el cielo finito: fuera de éste no hay objeto alguno y, por lo mismo, ni

129
lugar ni tiempo pueden ser concebidos como realidades infinitas. Ahora bien, la
sustancia tiene para Aristóteles -en clara reminiscencia parmenidiana- una
condición eterna, mientras que para el Corán la sustancia es producto de la
creación divina. Si debía darse crédito a esta idea teística o no, fue algo que
surgió inmediatamente de la cuestión de si el espacio y el tiempo existieron antes
de la creación. El pensamiento musulmán respondió negativamente, basándose, a
su vez, en la dependencia del espacio y el tiempo con respecto a la materia
-formulada por el estagirita- y en el concepto kalámico de espacio. El espacio y el
tiempo no existieron antes de la creación, sostuvo el pensamiento musulmán, por
la sencilla razón de que espacio y tiempo son las relaciones entre los cuerpos
creados.
Con la obra de Newton quedó establecido de manera inequívoca el horizonte de
trabajo de los matemáticos que le sucederían. Ellos irán desarrollando el
prodigioso método para calcular las funciones que regulan un sistema dado
cualquiera, mediante la resolución de las ecuaciones diferenciales. Irán
encontrando sus fundamentos lógicos y conceptuales y labrarán un peldaño más
de la abstracción al inventar el cálculo diferencial absoluto o cálculo tensorial que
permite encontrar ciertas funciones del sistema que resultan ser invariantes al
cambio de coordenadas. R. Descartes al crear el sistema de coordenadas hizo
entrar en escena al último componente del EMROcc y quedó completo por primera
vez como un sistema de referencia y coordinación. Pero estaba limitado a
representar sólo el movimiento uniforme del punto-límite para generar las curvas
continuas y nada más; a diferencia, con Newton se hizo dinámico y por tanto
aplicable a la realidad con la máxima eficacia, a la vez que se lograba modelar el
proceso concreto con una alta resolución.
Así fue cómo el EMROcc llegó a la conformación terminal de su estructura, sólo
restaba completar su cuerpo. Esta magnífica tarea estuvo a cargo de una pléyade
de brillantes matemáticos que estaban convencidos de que el supuesto pitagórico-
platónico era correcto y del carácter absoluto y único del espacio puntiforme.
Recordemos el trabajo de los más importantes.

130
1. 3 4 Los matemáticos después de Newton
Leonhard Euler (1707-1783) fue hijo de un clérigo, que vivió en los alrededores de
Basilea. Su talento natural para las matemáticas se hizo patente pronto por el afán
y la facilidad con que dominaba los temas en estudio, bajo la tutela de su padre. A
edad temprana fue enviado a la Universidad de Basilea, donde atrajo la atención
de Jean Bernouilli (1667-1748) Inspirado por un maestro así, maduró rápidamente, y
a los 17 años de edad, cuando se graduó de Doctor, provocó grandes aplausos
con un discurso probatorio, el tema del cual era una comparación entre los
Sistemas cartesiano y newtoniano.
De inmediato decidió dejar su país natal, al no lograr un profesorado vacante en
Basilea, y partió en 1727 a San Petersburgo, para reunirse con sus amigos, los
jóvenes Bernouilli, que le habían precedido allí algunos años antes. Euler obtuvo
la cátedra de filosofía natural en 1730 y en 1733 le sucedió a su amigo Daniel
Bernouilli.
En el verano de 1741, el rey Federico el Grande invitó a Euler a residir en Berlín.
Esta invitación fue aceptada, y Euler se trasladó a Alemania y vivió aquí hasta
1766. Aquí fue que intimó con M. de Maupertuis, presidente de la Academia, un
francés de Bretaña, que favorecía especialmente a la filosofía Newtoniana de
preferencia a la cartesiana. Su influencia fue importante, puesto que la ejerció en
una época en que la opinión continental aún dudaba en aceptar las opiniones de
Newton. Maupertuis impresionó mucho a Euler con su principio favorito del mínimo
esfuerzo, que Euler empleaba con buenos resultados en sus problemas
mecánicos.
Euler era, como Newton y muchos otros, un hombre capacitado, que bahía
estudiado anatomía, química y botánica. Al igual que Leibniz, podía repetir la
Eneida, del principio hasta el fin, e incluso podría recordar las primeras y las
últimas líneas de cada página de la edición que solía utilizar. Esta capacidad
parece haber sido el resultado de su portentoso poder de concentración y
visualización, poder de la destreza inventiva, que el mismo Newton ha dado
testimonio, cuando los sentidos se encierran en intensa meditación y ninguna idea
externa puede introducirse, cuando el sujeto se sumerge en la más profunda

131
a b s tr a c c ió n . La a p a c ib ilid a d de á n im o , la m o d e r a c ió n y la s e n c ille z de la s

c o s tu m b r e s fu e r o n s u s c a r a c te rís tic a s .

S u la b o r e n p r o b le m a s d e fís ic a fu e g ra n d e , s ó lo p o rq u e s u s m o d e lo s m a te m á tic o s

a tra ía n y r e te n ía n su a te n c ió n . Su p la c e r e ra e s p e c u la r e n lo s d o m in io s del

in te le c to p u ro , y a q u í s e e n s e ñ o r e a c o m o p r ín c ip e d e lo s a n a lis ta s . N i ta n s ó lo la

g e o m e tría , ni e l e s tu d io d e lín e a s y fig u ra s , le d is tra ía n ; s u ú ltim o y c o n s ta n te

o b je tiv o fu e e l p e r fe c c io n a m ie n to d e l c á lc u lo y d e l a n á lis is . S u s id e a s d is c u rría n

c o n ta n ta n a tu r a lid a d p o r e s te c a u c e q u e e n c o n tra b a , in c lu s o e n la p o e s ía d e

V irg ilio , im á g e n e s que s u g e r ía n una in v e s tig a c ió n filo s ó fic a , c o n d u c ié n d o le a

nuevas a v e n tu r a s m a te m á tic a s . E ra n a v e n tu r a s que sus s e g u id o re s m ás

p r u d e n te s a v e c e s a c la m a b a n c o n p la c e r, y q u e , o c a s io n a lm e n te , c o n d e n a b a n .

A q u í s e d e s p le g a b a to d o e l e s p le n d o r d e lo s p r im e r o s g r ie g o s y d e la s o b ra s

p o s te r io r e s d e N a p ie r, N e w to n y L e ib n iz .

E u le r e s r e c o r d a d o p o r la f a m o s a ig u a ld a d : em+ 1 = 0 , s o b r e la q u e F é lix K le in

(1849-1925) lla m ó la a te n c ió n d ic ie n d o q u e to d o e l Análisis s e h a lla b a c e n tr a d o a q u í.

C ada s ím b o lo tie n e su h is to ria : lo s p rin c ip a le s n ú m e ro s e n te ro s , O y 1; lo s

n ú m e r o s tr a s c e n d e n te s m á s im p o r ta n te s d e la s m a te m á tic a s e y n e i el s ig n o d e

la r a íz c u a d r a d a " im p o s ib le ” d e m e n o s u n o .

Joseph-Louis Lagrange (1736-1813), n a c id o en el s e n o de una ilu s tre fa m ilia

p a r is ie n s e , q u e te n ía a ñ e jo a r ra ig o e n C e rd e ñ a , y a lg o d e n o b le lin a je ita lia n o ,

p a s ó s u s p r im e r o s a ñ o s e n T u rín , s u p r o lífic a m a d u r e z e n B e rlín , y s u s ú ltim o s

a ñ o s e n P a rís , d o n d e lo g ró s u m a y o r fa m a . Q u e d ó a b a n d o n a d o a s u p ro p ia s u e rte

a te m p r a n a e d a d ; p e ro , e s te c a m b io d e fo r tu n a n o re s u ltó s e r u n a g ra n c a la m id a d ,

«pues de otro modo -dijo él- tal vez nunca hubiera descubierto mi vocación» E n la

e s c u e la s u s in te r e s e s in fa n tile s fu e r o n H o m e ro y V irg ilio y c u a n d o u n a m e m o ria d e

H a lle y lle g ó a s u s m a n o s , s e in fla m ó s u g e n io m a te m á tic o . C o m o N e w to n , p e ro a

m ás c o r ta edad, lle g ó al c o ra z ó n de la m a te ria en un e s p a c io de tie m p o

in c r e íb le m e n te c o rto . A lo s d ie c is é is a ñ o s d e e d a d , fu e n o m b r a d o p r o fe s o r d e m a ­

te m á tic a s e n la E s c u e la R e a l d e A r tille r ía d e T u rín . P ro n to c o n d u jo u n jo v e n g ru p o

de c ie n tífic o s , que fu e r o n lo s p r im e r o s m ie m b r o s de la A c a d e m ia de T u rín .

L a g ra n g e s e t r a n s fig u r a b a c u a n d o te n ía u n a p lu m a e n s u s m a n o s ; y, d e s d e un

132
principio, sus escritos fueron la elegancia misma. Transcribía a las matemáticas
todos los pequeños temas sobre sus investigaciones físicas que le traían sus
amigos, de la misma manera que Schubert ponía música a cualquier ritmo perdido
que trastornaba su fantasía.
A los diecinueve años de edad, obtuvo fama resolviendo el llamado problema
isoperimétrico, que había desconcertado a los matemáticos durante medio siglo.
Comunicó su demostración a Euler, el cual se interesó por la solución, de modo
especial porque concordaba con lo que él mismo había encontrado. Euler, con
admirable tacto y amabilidad respondió a Lagrange, ocultando deliberadamente su
propia obra, de manera que todo el honor recayera sobre su joven amigo. En
realidad, Lagrange no sólo había resucitado un problema, también había
inventado un nuevo método, el cálculo de variaciones, que sería el tema central de
la obra de su vida. Este cálculo pertenece a la historia del mínimo esfuerzo, que
comenzó con los espejos reflectores de Herón y continuó cuando Descartes
estudiaba la curiosa forma de sus lentes ovales. Lagrange demostró que los
postulados newtonianos de materia y movimiento, modificados adecuadamente,
se adaptaban al amplio principio de economía de la naturaleza. Desde ahí el
principio ha conducido a resultados aun más fructíferos como los de Hamilton y
Maxwell, en la obra de Einstein y en la mecánica ondulatoria, como ya tendremos
oportunidad de conocer más adelante.
Lagrange siempre estuvo dispuesto a apreciar el trabajo de los demás, pero
estaba igualmente capacitado para descubrir un error. En una temprana memoria
sobre las matemáticas del sonido, señaló defectos, incluso en la obra de su reve­
renciado Newton. Exentos de envidia otros matemáticos le reconocieron, primero
como su compañero, y, más tarde, como el mayor matemático viviente. Después
de varios años del mayor esfuerzo intelectual, sucedió a Euler en Berlín. Debido a
que algunas veces enfermó gravemente por el exceso de trabajo, el rey Federico
le recriminaba por su intemperancia en el estudio, que amenazaba con desquiciar
su mente; pero, a la vez, el rey adoptaba gustoso sus modestos modales. Las
amonestaciones hicieron algún efecto, porque Lagrange cambió sus hábitos, e
hizo cada noche un programa de lo que debería leer al día siguiente, sin exceder

133
nunca la proporción. Siguió residiendo en Prusia durante veinte años, produciendo
obras de alta distinción, que culminaron en su Mécanique Analytique. Decidió
publicarla en Francia, adonde fue llevada a salvo por uno de sus amigos.
La publicación de esta obra maestra despertó gran interés, que aumentó con­
siderablemente en 1787, con su llegada a París, después de dejar Alemania a raíz
de la muerte del rey Federico. Una multitud de matemáticos acudieron a recibirle y
a rendirle todos los honores, pero se desanimaron al encontrarle perturbado,
melancólico e indiferente a lo que le rodeaba. Peor aún: ¡su talento para las
matemáticas se había apagado! Los años de intensa actividad producían su
efecto, Lagrange se había desgastado matemáticamente. Durante dos años no
abrió ni una sola vez su Mécanique Analytique; por el contrario, dirigía su
pensamiento a cualquier otro punto, a la metafísica, la historia, la religión, la filolo­
gía, la medicina, la botánica y la química. Como ha dicho Serret, «aquel cerebro
especulativo sólo podía cambiar los objetos de sus meditaciones» Cualquiera que
fuera el tema que escogiera, sus amigos se veían impresionados por la
originalidad de sus observaciones. Su expresión de que la química era «tan fácil
como el álgebra» les asombró sobre manera. En aquellos días, se examinaban
agudamente los primeros principios de la química atómica; pero parecía extraño
establecer una comparación entre cosas tan palpables como las químicas, que
pueden ser vistas y tocadas, y abstracciones tales como los símbolos
matemáticos.
Lagrange siguió durante dos años en este estado filosófico y no matemático,
cuando de pronto el país se precipitó en la Revolución. Muchos evitaron la prueba
huyendo al exterior, pero Lagrange se negó a marcharse. Permaneció en París
preguntándose cuando le llegará su turno, cómo le llegó a su amigo Lavoisier, el
gran químico. Inesperadamente, en años posteriores, su habilidad matemática
volvió nuevamente, y produjo muchas joyas de álgebra y análisis.
Como sabemos una consecuencia matemática de la Revolución fue la adopción
del sistema métrico decimal. Cuando alguien hacía objeciones a este sistema
prefiriendo el de base doce, porque tiene más factores, Lagrange señalaba que

134
era una pena que no se hubiera escogido el número once como base, ya que es
primo.
Otro de sus grandes aportes fue la creación de la geometría simpléctica derivada
de su trabajo sobre el movimiento de los planetas. Durante todo el siglo XIX esta
nueva rama de la geometría creció gracias al desarrollo del formalismo
matemático de la mecánica. Por los trabajos de Newton, en la época de Lagrange,
era bien conocido el modelo de los movimientos de un planeta sometido
exclusivamente a la atracción del sol. Si se desprecia la influencia de los demás
planetas, la trayectoria de un cuerpo celeste atraído por el sol es siempre una
cónica, es decir una elipse, una parábola o una hipérbola. Pero si no se desprecia
¿cómo influencia el resto de los planetas en su trayectoria?. He aquí un problema
complejo que no puede resolverse de manera exacta debido al grueso número de
variables que entran en juego. Lagrange ideó un método simple para calcular
aproximadamente las órbitas reales. Si despreciamos la influencia del resto de
planetas, la órbita alrededor del Sol es una elipse. Pero, ¿cómo hacemos para
determinar la trayectoria real, la que incorpora la deformación causada?. El punto
de partida de Lagrange consiste en caracterizar la trayectoria elíptica no
perturbada, por medio de seis parámetros a, b, h, i, k, c, que definen la geometría
de la elipse, su orientación en el espacio y la posición del planeta sobre dicha
curva en un instante dado. Luego consideró que la perturbación, debida a la
acción gravitatoria del resto de planetas, puede hacerse equivaler a una variación
de los parámetros a lo largo del tiempo. O, lo que es lo mismo, ¡la trayectoria no
elíptica equivale a una elipse que varía con el tiempo¡ Gracias a este artificio
obtuvo para el movimiento del planeta un sistema de ecuaciones diferenciales con
respecto al tiempo que relacionan los parámetros de la órbita con respecto a la
velocidad y a la posición y lo que es más, resultan fáciles de resolver. La solución
a(t), b(t),...k(t) de este sistema de ecuaciones entrega el valor de los parámetros
en cada instante t y describe el movimiento real del planeta. Este método de
cálculo, que considera a las constantes variando con el tiempo se lo denomina
método de variación de las constantes y se lo utiliza para resolver ecuaciones
diferenciales no lineales. En estas manipulaciones matemáticas aparecieron los

135
primeros elementos de lo que hoy día se conoce con el nombre de geometría
simpléctica. El éxito del método fue pleno cuando en 1846 el astrónomo Le Verrier
logró calcular la posición de un planeta cuya existencia suponía, lo cual permitió el
descubrimiento inmediato de Neptuno.
De la música decía que ésta le aislaba y le ayudaba a pensar, ya que interrumpía
la conversación general. «La escucho durante los tres primeros compases; luego
no distingo nada, pero me entrego a mis pensamientos. De esta manera he
resuelto muchos problemas difíciles» Feliz en su vida hogareña, sencillo y
bastante austero en sus gustos, pasó muchos años tranquilos y fructíferos, hasta
su muerte a los 76 años de edad.
Lagrange es uno de los grandes matemáticos de todos los tiempos, no sólo por la
abundancia y originalidad de su obra, sino también por el porte y la belleza
escritos. Poseen la grandeza y la sencillez de los textos de los geómetras anti­
guos. En consideración a lo dicho, Hamilton describió su Mécanique Analytique
como «un poema científico» Se colocó a la misma altura que Fermat en teoría de
números, y que Newton en mecánica analítica. Gran parte de la obra contempo­
ránea y posterior de Laplace, Legendre, Monge, Fourier y Cauchy, fue resultado
del trabajo de su grande genio.
A no dudar el siglo XIX es el período más brillante de la larga historia de las
matemáticas del Viejo Mundo. El tema alcanzó una grandeza en la que se
recuperó todo lo que había de grande en las matemáticas griegas; la geometría se
impuso nuevamente, el análisis continuó extendiendo sus límites, y la salida para
sus aplicaciones aumentaba constantemente. Este siglo que liga la obra de
Lagrange con la de nuestros días se destacó en tres aspectos muy notables: hubo
una visión más profunda de las propiedades usuales del número; hubo un
descubrimiento positivo de nuevos procesos de cálculo, que residían en "reino de
Álgebra II”; y también hubo una filosofía de las matemáticas. Durante estos años,
Inglaterra volvió a rivalizar matemáticamente con Francia, y Alemania e Italia
alcanzaron posiciones de relevancia científica; si bien encima de todas se halla el
genio de un hombre, un matemático merecedor de un lugar de honor en la escala
suprema, junto a Arquímedes y Newton.

136
Carl Friedrich Gauss (1 7 7 7 -1 8 5 5 ) fue hijo de un obrero, y el deseo de su padre fue
que él heredada su oficio. Pero, a una edad muy temprana, el niño manifestó un
talento poco común. Al contrario de Newton y Lagrange, mostró la precocidad de
Pascal y Mozart. Se dice que Mozart escribió un minueto a los cuatro años, en
tanto que Gauss señaló a su padre un error en un cálculo cuando tenía tres y sin
haber aprendido aritmética. Y cuando tuvo diez deslumbró a su maestro al
encontrar la fórmula de la suma de una progresión aritmética, cuando él apenas
había terminado de plantear el problema, que pedía saber la suma de los 100
primeros números enteros y positivos. En la escuela, su inteligencia atraía la
atención, y no tardó en llegar a oídos del propio duque de Brunswick, quién se
interesó por el muchacho. El duque le envió durante algunos años al Collegium
Carolinum y, en 1795, a Gottingen, a pesar del desacuerdo manifiesto de su
padre. Gauss, aún indeciso sobre si estudiaría matemáticas o filología, aceptó
gustoso la tutoría de Kaestne «aquel primer geómetra entre los poetas, y primer
poeta entre los geómetras», como observaba orgulloso su discípulo. En el
transcurso de su carrera escolar, Gauss llegó a ser conocido por su maravillosa
intuición en aritmética superior. «Matemática, la reina de las ciencias y aritmética,
la reina de la matemática»dijo y éstas se convirtieron en la actividad central de su
vida intelectual. Esta trascendental decisión la tomó cuando contaba con 18 años,
tras realizar uno de sus descubrimientos más sorprendentes, la construcción, con
regla y compás, de un polígono regular convexo de 17 lados. En primer lugar
demostró que la construcción equivalía a resolver la ecuación X 16+X15 +X14 +...+ X
+1=0. Como 17 es primo y 16 es potencia de 2, resulta que esta ecuación puede
reducirse a un conjunto de ecuaciones de segundo grado y como éstas pueden
resolverse con regla y compás, la demostración está completa. La técnica utilizada
por Gauss a partir de entonces se ha trasformado en una de las más fecundas de
las matemáticas: trasladar un problema desde el dominio inicial, la geometría, a
otro en el álgebra y resolverlo en este último.
Él escribió que a la edad de 20 años estaba tan sobrecargado de ideas
matemáticas que no tenía tiempo de trabajar sino una pequeña fracción de ellas.
Entre éstas se encuentra su tesis doctoral de 1799, en al que la que presenta la

137
primera demostración del Teorema Fundamental del Álgebra, que nos asegura
que toda ecuación polinómica tiene una raíz compleja. Tan profundamente sentía
la importancia de este teorema que lo trabajó durante toda su vida, llegando a
encontrar cuatro formas diferentes de demostrarlo. Una de ellas, la tercera, es
particularmente característica de su estilo matemático. Ésta comienza suponiendo
una ecuación polinómica a partir de la cual Gauss construye una complicada
expresión en forma de una doble integral, de tal forma que si el polinomio carece
de raíces, la integral doble entregará el mismo valor que si la calculásemos por
integración iterada respecto de una variable y luego de la otra al invertir el orden
de integración. Él demuestra que esto es falso, ya que los distintos órdenes de
integración dan distintos valores. Por lo tanto la ecuación necesariamente tendrá
una raíz compleja. La demostración que efectuó se basa en la trascripción de las
técnicas teoría de variable compleja a otras adaptadas para variable real. Otras
ideas que pudo desarrollar aparecieron en sus Disquisitiones Arithmeticae en
1801.
Después de declinar el ofrecimiento de una cátedra en la Academia de San
Petersburgo, Gauss fue nombrado primer director del nuevo observatorio de
Gottingen en 1807, y allí vivió una vida sencilla y estudiosa, feliz en su ambiente y
bendecido por una buena salud, hasta poco antes de su muerte. Se dice que
hasta el último año de su vida no durmió nunca bajo ningún otro techo que no sea
el de su propio observatorio.
Gauss, al igual que Euler, Lagrange y Laplace escribió copiosamente, pero con
una diferencia. Euler nunca condensó su obra; se deleitaba recreándose en la
riqueza de sus ideas, Lagrange tenía el estilo fácil de un poeta y el de Laplace era
cortante y difícil de leer. En cambio Gauss condujo sus escritos con austeridad,
eliminándolo todo aquello que no fuera los resultados esenciales, después de un
trabajo fatigoso para ajustar los detalles. Sus páginas estimulan, pero exigen gran
paciencia por parte del lector.
Manifestaba, como Fermat, aquel genio desconcertante que capta globalmente y
de golpe la conclusión verdadera, dejando la prueba deductiva para que la hagan
otros. Gracias a este don se labró una temprana reputación con su obra sobre

138
teoría de números. El Teorema de los Números Primos, que tardó un siglo en ser
demostrado, es el mejor ejemplo. Los números primos, que ya fueron estudiados
por Euclides como recordamos, siguen siendo un inagotable manantial de interés
para los orfebres de la aritmética. Como todos sabemos son los números enteros
2, 3, 5, 7, 11,..., que no pueden ser descompuestos en factores enteros; son los
números atómicos, extraños e improbables, irreductibles a cualquier sistema o
sucesión, pues no siguen ningún orden cuando hacen aparición. Existen en
número infinito, tal como lo demostró el propio Euclides, y aparecen esparcidos a
lo largo de la recta numérica, con su identidad bien oculta, con una irregularidad
que, al mismo tiempo, desconcierta y cautiva a los matemáticos. Dado este
escenario, surge de manera natural la pregunta ¿cuán a menudo, o cuán
raramente aparecen los números primos como promedio? O, lo que es lo mismo,
¿cuál es la probabilidad de que un número específico sea primo?. Este problema
fue estudiado por Gauss y se lo conoce como el Teorema de los Números Primos.

Se enuncia diciendo que, si la función n(x) de Gauss nos da el número de


números primos menores que x. Entonces, cuando x tienda a infinito, el cociente

entre n(x) y x/logx tenderá a 1. No se sabe si demostró su proposición; la cita está


tomada del reverso de una copia de la tabla de logaritmos que heredó de su
maestro Schulze, cuando tuvo catorce años.
La demostración final del este Teorema la dieron en el año 1896 los matemáticos
Hadamard y de la Vallée Poussin en forma independiente. La prueba fue
construida con la moderna teoría analítica de números, que es uno de los
asombrosos desarrollos del siglo XX y que progresó notablemente gracias a los
trabajos de Landau, Hardy y Littlewood.
Gauss también elaboró un método para descomponer a los números primos en
productos de números complejos. Así, el 2 puede expresarse como (1 +i)(1 -i); el 5
como (2+i)(2-i); el 29 como (5+2i)(5-2i), etc. Sin embargo ciertos números primos
no pueden descomponerse de este modo, como el 7, 11, 19, etc. Gauss demostró
que con excepción de 2 los primos expresables de manera única como producto
de números complejos son los de la familia 4n+1.

139
Desde la época de Gauss, las matemáticas han aumentado tan copiosamente que
ningún individuo puede esperar dominar su totalidad. Gauss fue el último
matemático completo, y de él puede decirse realmente que nutrió todas las ramas
de la ciencia y dio vida a otras totalmente nuevas. Los inicios de casi todos sus
descubrimientos se encuentran en las notas de juventud que apuntó en un diario
que felizmente se ha conservado. Éste revela hechos de primera línea en
trigonometría superior, un tema generalmente conocido como funciones elípticas;
también contiene ciertos aspectos de geometría no euclideana.
Es un hecho histórico el que Gauss se haya interesado por la geometría gracias a
la influencia de Kaestner, su maestro, el cual escribió sobre los fundamentos de
ésta. Otra fue la de Legendre, cuyo libro, los Eléments de Géometrie, había
aparecido en 1794. Estos autores se interesaron por un problema que había sido
discutido muy a menudo, especialmente por Wallis, y Saccheri, un monje italiano
de comienzos del siglo XVIII. Se refería al postulado de las paralelas de Euclides,
aquel serio obstáculo epistemológico en la fluida lógica de los antiguos, cuya elimi­
nación era ampliamente deseada por todos. Gauss fue, tal vez, el primero en
ofrecer una explicación satisfactoria de la anomalía, y en su diario consta cuán
pronto ocurrió esto en su carrera. Pero, al igual que Newton, era un hombre
prudente, especialmente cuando trabajaba con novedades extrañas, inauditas y
desconcertantes. Durante algunos años guardó el asunto para sí (siguiendo esa vieja
costumbre que viene desde los antiguos egipcios y que les sirvió para preservar su imparcialidad cuando
restablecían los límites de las propiedades agrícolas), hasta que descubrió que otros estaban
pensando sobre los mismos tópicos. El interés se extendió, y surgió una rama de
la geometría, denominada geometría hiperbólica. Cuando traemos a la mente esta
rama del tema, recordamos los nombres de Gauss y de sus dos amigos, los
Bolyai, padre e hijo, y de Lobatchewski que escribió unos veinte años más tarde.
Es otro caso de varios descubrimientos independientes sobre un mismo tema que
tienen lugar en la misma época.
La geometría hiperbólica no fue simplemente una novedad; fue una revolución.
Era sustancialmente diferente de la de Euclides, incluso se mostraba más práctica.
Y en forma aún más práctica a las opiniones corrientes sobre lo que se suponía

140
enseñaba Euclides. Por ejemplo, la ley que dice que la suma de los tres ángulos
de un triángulo es igual a dos ángulos rectos. Y también la que reza que la suma
de dos ángulos adyacentes, formados por líneas que se cortan, es igual a sí
mismo a dos ángulos rectos. Como bien demostró ambas propiedades se hallaban
implicadas en sus axiomas y postulados fundamentales. Para Gauss y Bolyai, la
afirmación sobre las líneas que se cortan es verdadera, pero la que se refiere al
triángulo no lo es. Ellos construyeron, de hecho, un triángulo tal que la suma de
los ángulos sea menor que dos rectos. Luego, como hermosa compensación,
Riemann y otros hicieron lo mismo, un poco más tarde, para un triángulo en el cual
la suma es mayor que dos ángulos rectos. A la suya la denominaron geometría
analítica; es la geometría que conocen también los navegantes que viajan en
trayectos directos sobre los océanos curvos del globo. Menor, igual y mayor: he
aquí las tres alternativas de configuración del EMROcc, las cuales se muestran
aparentemente contradictorias. Éstas originaron tres cuerpos de doctrina
geométrica: elíptica, parabólica e hiperbólica, siendo la parabólica la euclideana, y
con ello se gestó una controversia de primera clase, no entre campos científicos
opuestos que sostenían hipótesis contradictorias relativamente vagas, sino en el
cuerpo mismo de la argumentación lógica, en el dominio que cada uno había dado
por supuesto que se hallaba establecido y seguro. Como una contienda de tres
vértices, todas las partes perdieron, en el sentido de que ninguna de las opiniones
pudo reducir a las otras dos a la suya, ya que se trataba de geometrías
independientes entre sí, con axiomáticas diferentes; pero las tres eran ramas de
una geometría aún más general.
Ilustremos a cada una de ellas para bien comprender esto. Todos hemos
experimentado que es fácil fijar un pequeño trozo de cinta adhesiva sobre el dorso
de la mano, pero que es difícil fijarlo sobre los nudillos. En estos casos, la cinta
debe ser contraída o estirada para que se adhiera. Esto tiene una explicación
matemática. El dorso de la mano presenta una superficie plana conforme a la
geometría euclídea, pero los nudillos y los huecos, no. Los nudillos aluden a la
geometría elíptica y los huecos a la hiperbólica. En el hueco, un trozo de cinta
triangular tendría sus ángulos contraídos y, por ello, menores que dos ángulos

141
rectos; tendría que ser elástica y estirarse para adaptarse a un nudillo. En este
sentido estas geometrías aparecen excluyentes, cada una actuando en su propio
ámbito y con sus propias reglas. Desarrolló la teoría de las superficies, centrando
su atención en su curvatura y en las condiciones que ésta requiere para adaptarse
a otra. Se cuenta que dejó de lado algunos temas que trató analíticamente, a los
cuales esperaba aplicar métodos geométricos en algún momento futuro, cuando
sus concepciones sobre el espacio hayan progresado.
Gauss fue en muchos aspectos una personalidad contradictoria y enigmática. En
su vida diaria era un hombre modesto, de suaves modales, rehuía el contacto
directo con el público; era un hombre distante, abstraído, políticamente
reaccionario y frecuentemente testarudo, que sólo quería continuar con su trabajo
creativo sin ser molestado. Un aspecto especial que caracterizó su personalidad
fue su rotunda negativa a presentar parte alguna de su trabajo que no hubiere
pulido hasta la perfección, nada publicó sin antes considerarlo completamente
terminado. Tan elaboradas son sus demostraciones que el camino seguido se
pierde al punto que sus ideas más fecundas no aparecen en sus libros, y es
preciso inferirlas reconstruyendo los pasos que debieron llevarlo a su
descubrimiento. En consecuencia muchas nociones importantes construidas por él
han sido descubiertas por otros. Durante su vida publicó unos 155 títulos y dejó
muchos otros inéditos.
Berhard Riemann (1 8 2 6 -1 8 6 6 ), uno de sus muchos y célebres discípulos, hizo suyo
el programa y las aspiraciones de Gauss. Por ejemplo mejoró notablemente el
análisis mediante una ingeniosa interpretación geométrica de la teoría de funcio­
nes. En una disertación de pocas páginas, que hizo época, no sólo consideraba la
geometría de un espacio de un número cualquiera de dimensiones, sino que
demostraba que los primeros tres tipos de geometría eran casos particulares de
una geometría aún mas general, llamada hoy día métrica de Riemann. Esta teoría
que estudia a las superficies como variedades multidimensionales servirá más
tarde para la formulación de la Teoría de la Relatividad de Einstein.
También incursionó en el dominio de los números primos llegando mucho más

lejos que su maestro. Habíamos dicho que la función n(x) de Gauss era

142
aproximadamente igual a x/logx cuando x era un número "muy grande”. El paso
siguiente fue dado por el matemático ruso Pafnouti Chebychev, quien demostró

que existen dos constantes positivas c <1 y c2 >1 tales que: c x /logx < n(x) < c2
x/logx.
Pero fue Riemann quien realizó el descubrimiento más espectacular hacia el año

1859. Su idea central fue considerar a la función Z(s) =1+1/2s+1/3s+1/4s+..., conocida


como función "zeta”. Esta función ya fue estudiada por Bernoulli y Euler, pero sólo
para valores reales de s. La gran visión de Riemann consistió en generalizarla
para valores complejos por medio del su revolucionario método de la continuación
analítica, el cual le permitió obtener información más refinada sobre los números

primos. Así por ejemplo logró demostrar que n(x) está íntimamente ligada a la
función "zeta” para valores complejos de s y que la función logaritmo integral

(Li(x)=J cft/lnt) constituye una mejor aproximación. Este método ha sido completado
por sus sucesores hasta nuestros días y ha brindado más incógnitas de las que ha
despejado. Fue en medio de estas investigaciones que formuló su famosa
hipótesis, la cual ha sido considerada como la hipótesis del milenio, puesto que es
la más importante de las Matemáticas, ya que a ella confluyen casi todas sus

ramas y está sin demostrarse. Su enunciado dice que los ceros de la función Z(s),
esto es, los valores de s que anulan la función, exceptuando los triviales (-2, -4,
-6,...), tienen la forma % + iy. Aunque ahora se sabe que éstos existen, no sólo
sobre la recta de ecuación u=%, sino también en la banda 0<Re(s)<1.
Ahora bien, debido a que la función "zeta” expresa la unicidad de la
descomposición en factores primos, la hipótesis puede ser enunciada en términos

de números primos así: la función [n(x)-Li(x)], que mide la distancia entre el valor

exacto de n(x) y la predicción de Gauss, no crece más deprisa que xa para todo

a>%. Dicho de otro modo, la conjetura de Riemann equivale a afirmar que para

todo a>% el límite, cuando x tiende a infinito, de la expresión [n(x)-Li(x)]/xa es

143
igual a cero.
Su demostración tendría repercusiones no sólo en aritmética sino también en
física teórica, puesto que muchos enunciados matemáticos dependen de ella. El
interés que ha despertado el problema no radica en el mayor o menor grado de
curiosidad que suscita, sino en las estructuras, ocultas o manifiestas, que lo
envuelven y a las que apunta. Tal ha sido la fascinación por ésta que se la ha
llamado el opio de los matemáticos.
Los medios que se han empleado, intentando la ansiada demostración, se
caracterizan por su extremada complejidad técnica, al punto que el famoso
matemático francés André Weil ( 1 9 0 6 -1 9 9 8 ), mientras estuvo prisionero de los nazis,
escribió: «Cuando era joven, confiaba en demostrar la hipótesis de Riemann. Ya
mayor, conservé la esperanza de poder leer y comprender una demostración de la
hipótesis de Riemann. Ahora me contentaría con saber que existe una
demostración»4
Después de Gauss, tuvieron lugar prodigiosos progresos. Sin duda el más impor­
tante de ellos fue el de Weierstrass y la escuela de Berlín, que resolvieron final­
mente la controversia Newton-Leibniz, volviendo a los antiguos métodos de Eudo-
xo. Recordemos que en geometría, Papo y Desargues habían dado explicaciones
erróneas para resultados correctos, y lo mismo sucedió, frecuentemente, en el
Cálculo. Traigamos a la memoria el hecho de que Zenón curó a los griegos de
todo razonamiento indeterminado, con lo que su crítica condujo a la obra de
Eudoxo. Pero esta experiencia no fue adecuadamente asimilada desde el
Renacimiento, si bien Newton se aproximó a ella. La tarea de reconciliación fue
emprendida por Weierstrass, y también por Richard Dedekind ( 1 8 3 1 -1 9 1 6 ) Dijeron
que el análisis, al tener que ver con el número y no con la geometría, debía
aceptar una explicación estrictamente aritmética. En esto tuvieron éxito, tanto para
el Cálculo como para la teoría de los números irracionales. Dos de los medios
principales empleados para alcanzar este fin fueron las definiciones de irracionales
debidas a Eudoxo y las de límite dadas por Wallis y Newton.

4 El 24 de Mayo de 2000, en la secular reunión anual, en el College de France, el Clay


Mathematical Institute incluyó a ésta entre los “las hipótesis del milenio” y ha ofrecido pagar un
millón de dólares a quién logre demostrarla.

144
Euler y sus contemporáneos habían proporcionado las herramientas analíticas;
ahora éstas se estaban volviendo agudas y refinadas. Más de un problema
antiguo y famoso cayó ante las contundentes y hábiles arremetidas de los
analistas. Uno de los resultados más espectaculares fue el de Lindemann, que de­
mostró que ningún número irracional satisface ninguna ecuación algebraica con
coeficientes enteros. Esto resolvió, de una vez y para siempre, la cuestión de la
cuadratura del círculo por medio de la resolución de ecuaciones. La acumulación
de medios analíticos fue tan copiosa que resultaba razonable pensar que toda
simplicidad había abandonado a las matemáticas. Pero este estado de cosas fue
descongestionado por el trabajo de un genio que pudo prescindir de todas estas
refinadas elaboraciones y encontrar, no obstante, algo nuevo que decir. Esto tuvo
lugar de modo dramático en la India cuando comenzó la carrera del matemático
Srinivasa Ramanujan ( 1 8 8 7 -1 9 2 0 ), que marcó una nueva época en la historia de las
matemáticas. A lo largo de su historia, la India ha producido matemáticos de
grande talante, auque son abundantes, puede conocerse sus orígenes y su
evolución, hasta el último período griego. Pero, juzgado de entre todos los
matemáticos orientales de talento, el genio de Ramanujan resulta ser supremo.
Nació en Erode, ciudad cercana al puerto de Madrás. En la escuela, su
extraordinaria capacidad fue reconocida, pero a causa de su poca preparación en
inglés, no logró matricularse en la Universidad de Madrás. Esto le obligó a trabajar
en matemáticas por su cuenta, aprovechando al máximo la ayuda que pudo
brindarle el texto de Carr, Synopsis of Pure Mathenralics. Después de trabajar
durante algunos años en la oficina de aduanas de Madrás, fue conocido de
alguien lo suficientemente interesado por el contenido de sus desconcertantes
libros de notas, como para ponerle en contacto con los expertos matemáticos. Era
conocido como el amigo de todos los números enteros. La talla matemática de
Ramanujan nos deja todavía más asombrados cuando consideramos la reducida
formación que recibió. Una vez que su trabajo fue reconocido por el matemático
de Cambridge H. Hardy, fue invitado a trabajar junto a él. Ramanujan aceptó y a
su debido tiempo fue el primer hindú miembro del Trinity College y de la Royal
Society, en reconocimiento de su mérito evidente. Desgraciadamente, la estancia

145
en Inglaterra destrozó su salud, debido a la clase de dieta que tuvo por necesidad
que adoptar, y murió al año siguiente de su retorno a la India a causa de una grave
deficiencia vitamínica. Cuando H. Hardy fue a visitarlo en su lecho de muerte en
un hospital de Putney, él recuerda vivamente que había tomado el taxi n° 1729 y
que le comentó que el número le parecía bastante feo, y que esperaba que no sea
de mal augurio. A lo que Ramanujan replicó, al contrario, es un número muy
interesante por ser el más pequeño expresable como la suma de dos cubos en
dos formas diferentes: (1729 = 13+123= 93+io3)
Siendo, como es, difícil formarse un juicio acerca de la mayor parte de las obras
contemporáneas, no puede haber discusión de que fue un matemático ex­
cepcional; pese a todas las desventajas de su educación matemática, con su
escasa disponibilidad de material, logró un dominio tal de ciertas ramas del
análisis y de la teoría de números, que le situó en primera línea, aun antes de que
fuera descubierto por Occidente.
A propósito del prodigio y manifestando evidente disgusto y reproche Sylvester y
Huxley se unieron para decir que «las matemáticas son el estudio que no sabe
nada de observación, nada de experimentación, nada de inducción, nada de
causalidad» Una concepción tan fanática como ésta desfigura totalmente el
espíritu de las matemáticas que requiere incesantemente la entrega de los
mayores esfuerzos de la imaginación y de la invención. No existe un ejemplo más
maravilloso del uso maestro de la inducción, que el de Ramanujan. Uno de sus
problemas resultó estar resuelto independientemente por Landau; no obstante,
como ha insinuado Hardy, Ramanujan «no tenía ninguna de las armas de Landau
a su disposición; no había visto nunca un libro francés o alemán. Es su­
ficientemente maravilloso que incluso pudiera haber soñado en problemas como
éste, problemas que los matemáticos más sutiles de Europa han tardado cien
años en resolver, y cuya solución sigue siendo incompleta hasta nuestros días»
Fiel a las matemáticas hasta el fin, no desmayó pese a los sufrimientos de los
últimos meses de su vida y produjo una notable obra recogida en el llamado
“Cuaderno perdido”. En estos apuntes el tema que abunda y el que más a
conciencia está trabajado es el relacionado con las ecuaciones modulares. Una

146
función modular es una función X(q) que puede relacionarse con la función X(qp)
mediante una expresión algebraica llamada ecuación modular, aquí p es un entero
y determina el orden de la ecuación modular. En relación a este tema Ramanujan

es famoso por haber ideado un método para calcular el valor de n con varios

millones de cifras decimales, que hace uso de la solución singular -2/ Vp log(kp/4)

de la ecuación modular [A,(q).A,(q7)]1/8+{[1-A,(q)][1-A,(q7)]}1/8 =1, por ejemplo. Estos


valores tienen la extraordinaria propiedad de coincidir con muchísimas de las

primeras cifras decimales de n, debido a que el número de cifras que tienen en


común aumenta al crecer el valor de p.
Empero, en su obra hubo curiosos huecos ciegos, donde se equivocó definitiva­
mente. Al atravesar muchos de los caminos seguidos por Euclides, Wallis, y los
Bernouilli que, ocasionalmente, se lanzaron por la ruta equivocada en sus
temerarias aventuras, Ramanujan repitió, en su propia y breve carrera, las
experiencias de tres siglos de matemáticas. No obstante, dijo Hardy, «con su
memoria, su paciencia y su capacidad de cálculo combinaba un poder de
generalización, un sentido de la forma y una capacidad para la modificación rápida
de sus hipótesis, que a menudo era realmente alarmante, y le convirtió, en su
propio campo peculiar, en alguien sin rival en sus días»
Para muchos su mayor logro es un teorema que descubrió junto con Hardy, que
trataba de las particiones de un número n. El teorema determina el número de
formas en que puede expresarse n como suma de números enteros; y,
nuevamente, la sencillez del enunciado enmascara completamente la profunda
dificultad de la demostración. El teorema fue un ejemplo genuino de colaboración,
implicando saltos característicos en la oscuridad, que bordean lo maravilloso, se­
guidos de aplicaciones del análisis matemático. Como ha dicho Littlewood:
«Debemos el teorema a la feliz colaboración de dos hombres de dotes totalmente
distintas, en que cada uno contribuyó con la obra mejor, más característica y más
afortunada que había en él. El genio de Ramanujan tuvo esta oportunidad, digna
de él»
Hubo conceptos más generales, que fueron desarrollados en la historia de las

147
matemáticas durante la última mitad del siglo XIX, especialmente en la teoría de
números, que data de los días de estudiantes en París de dos amigos, Sophus Lie
y Félix Klein; y la teoría de conjuntos, creada por Georg Cantor. Estas dos
ideaciones han incidido fuertemente sobre la dirección del pensamiento reciente y
contemporáneo. Basta con decir que presentan, en diversas formas, el aspecto
más matemático de aquella investigación filosófica de los principios de esta
ciencia que ha marcado la etapa más reciente de su historia. Pues las
matemáticas habían alcanzado un grado de desarrollo en el cual era posible
hacer, lo que Euclides hizo para la geometría al encontrar los axiomas básicos o
proposiciones primitivas. Con este propósito, en 1910 se publicó la investigación
más paciente, donde los autores estuvieron convencidos de haber alcanzado a
formular la Matemática como una ciencia construida para que funcione
exclusivamente como un sistema axiomático deductivo. Me refiero a la magnífica
obra de los escoceses B. Russell y A. Whitehead: Principa Mathemática y luego al
trabajo de Kurt Godel realizado sobre los propios conceptos que rigen el tema
principal de este gran intento. Puesto que todo esto fue concebido a una escala
sublimemente universal y realizado mediante un proceso auto alusivo era de
esperarse que hayan aparecido insuperables paradojas, que finalmente
constituyeron la señal de que el E.M.R.Occ había entrado en una profunda crisis.
Se había presentado el fin de la idea que tenía como meta final alcanzar ha
pensar como su propio dios. El trabajo de Godel constituyó la lápida de este
conspicuo sueño de Occidente; puesto que descubrió para todos que, el espacio
en mención, era incompleto, ya que, en su pretensión universalista, no podía dar
cuenta de sí mismo; y, cuando se intentaba hacerlo surgían insuperables
paradojas. Este fenómeno, denominado "efecto Godel” tiene lugar en todo sistema
formal que ejecute la operación de auto referencia o auto alusión. El sujeto que lo
lleve a cabo se encontrará inesperadamente en una situación indecidible; o sea,
un estado tal en el que no puede saber si una proposición es verdadera o falsa.
Como por ejemplo en la vieja y conocida paradoja del mentiroso que dice que
«Epiménides el cretense asegura que todos los cretenses son mentirosos. ¿Dice
él verdad o mentira?» La respuesta es, no podemos saber pues nos encontramos

148
en una situación en la que la proposición puede ser cincuenta por ciento
verdadera y cincuenta por ciento falsa.

1 .4 F A S E A C T U A L ( L a c r i s i s d e l E .M .R .O c c )

Durante el reinado intelectual de Newton, que se extendió por más de doscientos


años, todos los científicos se desarrollaron guiados por su mano tutelar, como
hemos podido enterarnos. Esto sucedió así, por que él inventó el prodigioso
método universal para calcular las funciones que en número infinito caracterizan al
E.M.R.Occ, técnica que permitía profundizar y ampliar su estudio con una enorme
eficacia. Con este acto de creación casi epopéyico, Newton había superando con
largueza el trabajo realizado por todos sus predecesores.
Lo que había sucedido en el pasado y lo que debía acaecer en el futuro del
Mundo, estaba prefigurado en sus Principia, razón por la cual llegaron a ser los
fundamentos de la ciencia llamada Mecánica Clásica o Mecánica Analítica o
Mecánica Racional. En su modelo del mundo, que de ésta se desprende, el
espacio y el tiempo son considerados como entes separados y con carácter
absoluto y consisten en el sensorio de Dios. Así, mientras el espacio es el
recipiente que contiene a la materia, el tiempo es el medio por el cual Él expresa
su voluntad creadora, marcando implacable e inexorablemente el acontecer del
Mundo. Ahora, por primera vez, desde los tiempos de los griegos clásicos, se
podía calcular la palabra de Dios, o sea, el acontecer del Mundo, gracias a las

149
ecuaciones diferenciales y, por fin, llegar a estar seguros que Él se expresa
mediante funciones, que resulta ser el modo en que se formulan las “Leyes de la
Naturaleza”.
El aporte de Newton hecho al progreso del EMROcc. es, sin duda, el mayor de su
historia. Descubrió su carácter Analítico o diferenciable al encontrar que su
estructura estaba constituida por puntos-límite. El pensamiento científico
occidental se volvió analítico diferencial, parecía como si el conspicuo sueño del
pitagorismo platónico se hubiese hecho realidad. Al fin el hombre había aprendido
a calcular la palabra de Dios, a pensar como Él. Pero claro esto no era mas que
una alucinación.

1. 4 1 La revolución de la Relatividad
Este era el estado de cosas hasta la realización del célebre experimento
“Michelson-Morley” que tuvo lugar entre 1880 y 1881 y fue repetido en 1887. El
experimento tenía como finalidad medir la velocidad absoluta de la Tierra con
respecto al éter. El éter era una “sustancia” hipotética que prodigaba materialidad
al espacio. Era, tal como lo imaginó Newton: el espacio constituido por puntos
materiales. Era el “fundamento ontológico” de su Sistema Absoluto del Mundo.
El experimento fue efectuado a diferentes horas del día y en distintas épocas del
año y, con inusitado asombro encontraron que, al girar el interferómetro5, las
franjas del espectro luminoso permanecían siempre fijas, inmóviles. Todo
acontecía como si el laboratorio y la Tierra entera estuvieran en reposo con
respecto al éter. Este resultado obligaba a pensar que la categoría éter no tenía
contenido ontológico sino tan solo gnoseológico, era nada más que un artificio de
la modelación matemática. Así fue como se puso en evidencia que el modelo
newtoniano del Mundo sólo era una de las representaciones que se pueden hacer

5El interferómetro es el aparato que utilizó Michelson en su célebre experimento. Está compuesto
de dos espejos semitransparentes a 45° y dos intransparentes a 90°, además de un anteojo por el
cual se observa cualquier corrimiento de las franjas de luz al incidir paralela y perpendicularmente
en los espejos para luego juntarse en el foco de él. Los dos rayos convergen en el anteojo
simultáneamente si no hay éter, y si lo hay éstos entrarán desfasados.

150
de él. En este caso se trata de un modelo mecánico del Mundo, en el que las
partículas que componen el sistema, están animadas por bajas velocidades,
comparadas con la de la luz.
Las implicaciones más significativas que se derivaron del experimento que resultó
ser el más "negativo de la historia” -ya que se encontraron con el extremo de lo
inesperado- son las siguientes:
a) La velocidad de la luz es independiente de la velocidad de la fuente e igual a
c = 3 x 105 Km/seg en el vacío.
b) La longitud de un móvil que se desplaza con una velocidad cercana a la de la
luz se ve modificado según la relación: D'= D[1- v2/c2]1/2, donde D es el largo del
móvil cuando está en reposo y D' cuando viaja con velocidad v.
c) Ahora, cuando v es muy pequeña con respecto a c el término (v/c)2 = 0 y por lo
tanto D'= D ; pero, si v = c entonces D'< D.
Centremos la atención en que lo sorprendente de esto es que la contracción que
experimentan los brazos del interferómetro no depende para nada de la calidad
del material del cual están hechos. Es, pues, un hecho puramente cuantitativo.
d) Esto quiere decir que el espacio que contiene a la materia interacciona con ella.
Este hecho no tardó en modificar de manera definitiva la vieja noción de espacio
que Occidente tenía desde la época de los antiguos egipcios. Dejó de ser el
recipiente contentivo de la materia (como suponía el modelo de Newton), y se convirtió en
el conjunto de las relaciones o conexiones entre los cuerpos que lo componen.
Graficando podemos decir que es, como si las partículas estuviesen sumergidas
en una suerte de sustancia gomosa, de la cual no pueden desprenderse por más
que se estiren. Se concluía que el concepto de espacio recipiente tendría que
ceder el lugar al concepto de espacio relacional, aquel compuesto por el conjunto
de las relaciones que mantienen los cuerpos entre sí. Esto tendría que ser así
debido a que el segundo, luego del experimento de Michelson, resultó ser más
general que el primero. O, mejor dicho, el primero resultó ser un caso particular del
segundo, cuando la velocidad v es pequeña comparada con la de la de la luz, c.
Por ello el modelo de Newton es válido sólo para velocidades "galileanas” y el otro
para velocidades "relativistas”.

151
En la vena que hemos explorado fue que se propuso la primera hipótesis
explicativa. Ésta fue formulada, de manera independiente por Fitz-Gerald y H. A.
Lorentz poco tiempo después del experimento. A propósito de esto hay que decir
que en aquellos días se pontificó que esta teoría electrónica nos dice que la
naturaleza no "juega del todo limpio” ya que la tal contracción es sólo una treta
que oculta al movimiento absoluto que, no obstante, existiría realmente. Como
puede verse la mente de los científicos occidentales estaba dogmatizada, no eran
capaces de cambiar, aunque sea por breves momentos, su postura trascendente,
culturalmente conformada a lo largo de miles de años, que les colocaba en la
perspectiva del Dios del Génesis. Todo esto debido a la profunda convicción que
tienen de que, sólo situándose así, el hombre es capaz de "Ver la Verdad del
Mundo”.
e) La velocidad de la luz en el vacío como límite máximo del movimiento de los
objetos obligó necesariamente a relativizar el concepto de simultaneidad.
Recordemos que en el modelo de Newton la simultaneidad era absoluta, pues las
fuerzas que coaccionan a las partículas que componen al Universo,
supuestamente, se transmitían a una velocidad infinita, instantánea. Siendo así,
dos acontecimientos A y B que eran simultáneos para determinados observadores
lo eran para todos. Pero, después del experimento de Michelson, si dos
acontecimientos A y B son simultáneos para un grupo de observadores, no
necesariamente lo serán para otros. Así entonces, si se utilizan en la formulación
ideas como la simultaneidad relativa, hay que probar que la teoría es en realidad
independiente del cualquier observador inercial que se elija para definirla. Obrando
de este modo, no violentaremos el principio de relatividad.
Si bien en la parte experimental el trabajo de Michelson cuestionó el modelo de
Newton, en la parte teórica fue la teoría electromagnética de J.C. Maxwell (1831­
1879) la que no satisfizo las transformaciones de Galileo, pero sí las de H. A.
Lorentz, en las que se introduce la velocidad de la luz como una constante
universal (ver recuadro 1 2 ) Es verdad que sobre Einstein pesaron más los resultados
que obtuvo del análisis de las ecuaciones de Maxwell y sus predicciones acerca

152
de la propagación de las ondas electromagnéticas, como la luz por ejemplo, a la
hora de formular la Teoría Especial de la Relatividad (T.E.R)
Este decisivo experimento fue repetido en 1905 por Morley y Miller y produjo los
mismos resultados. Ese mismo año, en el mes de junio, dio comienzo la
remodelación definitiva de la Física cuando un joven de 26 años de edad, llamado
Albert Einstein (1 8 7 9 -1 9 5 5 ), conmovió a un pequeño grupo científicos con la
publicación de una monografía aparecida en la revista alemana Annalen der
Physik titulada Sobre la electrodinámica de los cuerpos en movimiento, en la que
con asombrosa maestría se resuelve el problema del "medio” (éter) en el que tienen
lugar los fenómenos electromagnéticos y ópticos. La solución del problema
requirió de una nueva y profunda reflexión del sabio sobre el significado de lo que
es un sistema coordenado de referencia espacio-tiempo o continuo
tetradimencional; ya que en el nuevo modelo, el espacio y el tiempo tenían que
estar coordinados formando un solo término, a diferencia del newtoniano, en el
que estos actuaban por separado, con independencia absoluta. Esta necesidad lo
condujo a utilizar el concepto de distancia cronotópica o distancia espacio-tiempo
entre dos acontecimientos, que se define como:
[1 a] ds2= du2-d o 2, donde s es la distancia cronotópica, u = ct y o 2= x2 +y2+z2.
El término ds representa un elemento infinitesimal de la distancia cronotópica, d u
un elemento de la distancia temporal y do uno de la distancia espacial, son las
cuatro dimensiones que se necesita para que un evento quede perfectamente
ubicado en el instante de su acaecimiento. Esta definición fue introducida por el
matemático alemán Hermann Minkowski ( 1 8 6 4 -1 9 0 9 ) en 1909 y, en cierto modo,
parece una extensión del teorema de Pitágoras pero con signo menos.
Precisamente, la coordenada temporal se distingue de la espacial por el signo
menos. Poco antes de morir él dijo al respecto que, «...a partir de ahora el espacio
en sí y el tiempo en sí se hunden por completo en las sombras y sólo algo que es
como una unión de ambos conserva una existencia propia». Esta nueva clase de
distancia, resultó ser un término invariante al cambio del sistema de coordenadas
de referencia, era el mismo en todos.

153
Einstein, valiéndose de esta variedad semieuclidea construyó el modelo
matemático apropiado para describir a los cuerpos en movimiento absolutamente
uniforme o inercial. Esta teoría fue denominada "Teoría Especial de la Relatividad
(T.E.R)”. La premonición por ésta realizada, que al comienzo fue impresionante y
después fatal, fue la conocida fórmula E = mc2 que representa la equivalencia
entre la masa y la energía mediante la velocidad de la luz c y que llegó a ser
conocida popularmente como la "fórmula de la bomba atómica”. El descubrimiento
de esta regularidad de la naturaleza permitió contestar de manera convincente a
las preguntas: ¿qué son las estrellas?, ¿de donde sale la energía del Sol?, ¿son
las estrellas otros soles?. La respuesta no se hizo esperar y se dijo con aplomo
que son hornos termonucleares, en los que la energía que se produce por síntesis
nuclear está gobernada por la fórmula de Einstein, E = mc2. Por fin los hombres
habían sido liberados del cautiverio ejercido por el misterio. El alma humana
experimentó por primera vez una satisfacción enormemente grande al sentirse
más libre, pues se había contestado a una pregunta así mismo grande, que había
intrigado al hombre desde que éste se preguntó a cerca de los cielos.
La otra sorprendente implicación fue la de tiempo propio, que recoge el hecho de
que un mismo suceso pueda acaecer en el futuro respecto de un sistema y en el
pasado con respecto a otro. Debiéndose esto a que la luz, que nos transporta la
imagen de un acontecimiento, tiene velocidad finita. Para bien comprender esto
enterémonos de lo que dijo cierta persona, ante lo mencionado: «Pienso casarme
dentro de un año y si es cierto que lo que es futuro para mí puede ser pasado
para otro, resulta que para él, ¡yo ya estoy casado!. ¿Cómo puede ser esto
posible?"»
El sujeto del caso en mención se quedó tranquilo al enterarse que su casamiento
estaba forzosamente en el futuro de todos los sistemas de referencia, pues ni para
ir a casarse, podría recorrer en un año una distancia mayor de un año luz. La
distancia espacial entre el lugar donde se encuentra "hoy” y donde se encontrará
el día de su casamiento tendrá que ser menor que el recorrido que efectúe la luz
durante la espera. Por eso, nuestro futuro es un futuro absoluto y también lo es
nuestro pasado; respecto de ningún sistema la muerte es anterior al nacimiento.

154
De igual modo, si un átomo emite una partícula a y después una p, para todos los
sistemas de observadores la emisión a siempre será anterior a la emisión p.
Así entonces, recibe el nombre de tiempo propio el intervalo de tiempo t que
separa dos acontecimientos vinculados a una determinada partícula, desde un
sistema respecto del cual está en reposo. Para ese sistema, que se llama propia
también, a la distancia espacial entre los dos acontecimientos considerados es
nula; por tanto, según [1a] la distancia cronotópica s será: s = ct. Como s es
invariante, así como c, resulta que el tiempo propio t también lo será. Ahora, si
medimos el tiempo t desde un sistema S, respecto del cual la partícula se mueve
con velocidad constante v, en la [1a] podemos escribir que c2t2-v2t2 = c 2t 2, de donde
t = t /(1-v2/c2)1/2. Aquí fácilmente se puede apreciar que el tiempo t siempre será
mayor que el tiempo t y que ambos, siempre tendrán el mismo signo. Así pues, el
orden de sucesión de ambos acontecimientos ligados a determinada partícula no
cambia, ya que coincide dicho ordenamiento con el tiempo propio.
Si ahora suponemos que la partícula considerada se mueve con velocidad variable
v(t) respecto del sistema S, vemos que nuestra última ecuación sigue siendo
válida para un intervalo de tiempo dt, durante el cual pueda considerarse v como
una constante; por tanto, dt = dT/(1-v2/c2)1/2y, consecuentemente, t =I(1-v2/c2)1/2 dt,
integrando desde la posición A a la B que toma la partícula. Si la aceleración es g
entonces t =1/gI(1-v2/c2)1/2 dv, integrando desde cero hasta v. Finalmente,
t =%tc/v[arcsenv/c+v/c(1-v2/c2)1/2]. Ejemplo, para t=1 año y g=950cm/seg2, resulta
que t = 0.85 años.
Insistiendo, el tiempo t es el medido desde un sistema respecto del cual la
partícula está en reposo, por lo que será el tiempo que indique un reloj que,
considerado desde S, se mueve junto con la partícula. Véase que la última
ecuación vincula la marcha de un reloj fijo al sistema inercial S (tiempo t) con otro
que se mueve aceleradamente (tiempo t ). Este resultado es sumamente
importante puesto que liga las dos clases de tiempos, el sugerido por el cambio de

155
posición (t)y el sugerido por el cambio de estado (t ), que dio origen a famosa
paradoja de los gemelos.
Otro de los cambios importantes que produjo la TER fue el referente al observador
o sujeto. Recordemos que en el modelo newtoniano el observador se encuentra
en la condición del dios bíblico del génesis; esto es, está ubicado por fuera del
mundo y al escrutarlo y conocerlo no influencia en su curso histórico. En cambio,
en el nuevo modelo el observador se encuentra incluido en el experimento; pero,
el resultado de éste no se ve necesariamente modificado por su presencia. La
Mecánica Cuántica (MC), que hará aparición veinte años más tarde, precisará este
resultado al encontrar que el modelo de la relatividad, sólo es válido a escala
macroscópica, pero no a escala microscópica; en ésta, la incidencia del
observador en el fenómeno que estudia es inevitable.
Al haber perdido el éter toda realidad física, se comprende con suma claridad que
no tenga sentido seguir hablando de un movimiento con respecto a la nada, y se
comprende así la necesidad de aplicar el principio de relatividad. Pero, lo que no
quedaba claro es que este principio fuera válido sólo cuando los cuerpos se
mueven rectilíneamente y de manera uniforme. Aparecía una paradoja
aparentemente insuperable, pues, aun cuando no tenga sentido hablar de un
movimiento acelerado y uniforme en el espacio, sí tendría, en cambio, un
significado bien preciso, hablar de una rotación o de un movimiento acelerado
respecto de ese mismo espacio que se supuso como del todo vacío, inmaterial.
Así por ejemplo, los observadores del interior de un móvil no pueden determinar
su velocidad con respecto a ese espacio vacío, según la TER. Pero, en cambio, sí
pueden determinar su aceleración absoluta. En consecuencia, el espacio absoluto
de la mecánica newtoniana tendría que descartarse cuando se trate de describir
movimientos rectilíneos y uniformes, pero tendrá que usarse si queremos describir
movimientos acelerados. Se trata de la típica experiencia que viven los ocupantes
de un vehículo cuando, estando en marcha rectilínea y con velocidad uniforme, les
parece que todo ocurre como si los objetos exteriores se movieran en sentido
contrario y a la misma velocidad; pero, cuando el conductor aplica los frenos, los

156
ocupantes experimentan los efectos de la aceleración o cambio de velocidad,
mientras que los observadores externos no notan absolutamente nada.
Newton se sintió enormemente intrigado por éste fenómeno y realizó el famoso
"experimento del balde”, que consiste en tomar un recipiente con unas dos
terceras partes de agua y suspenderlo con una cuerda que la retorcemos, de
modo que al desenrollarse, el recipiente adquiere un movimiento rotatorio. Al
comenzar el movimiento las paredes de éste giran con bastante velocidad y la
superficie del agua sigue siendo casi plana, como en el reposo, pero
paulatinamente el agua es arrastrada y su superficie plana se convierte
aproximadamente en un paraboloide de revolución. Ahora, si detengo el
movimiento del balde bruscamente, observo que el agua sigue moviéndose y
mostrando su superficie de forma paraboloide. Esto prueba que la fuerza
centrífuga se origina por la rotación del agua, no con respecto a las paredes del
balde, sino a la rotación de la misma "en el espacio”.
Si la concavidad se formara por acción del movimiento relativo entre el agua y las
paredes del recipiente, tendría que observarse lo mismo cuando el balde girara
respecto del agua; pero, lo que en la realidad acontece es justamente lo contrario.
Debido a esto Newton introdujo el concepto de espacio absoluto en el que no es
representable la velocidad, pero sí la aceleración. Dicho matemáticamente: el
espacio absoluto sólo es capaz de representar su segunda derivada con respecto
al tiempo (aceleración) y no la primera derivada con respecto a ese mismo tiempo
(velocidad)
Con la intención de superar esta paradoja Ernest Mach (1838-1916) dijo que la
superficie cóncava que observamos gira con respecto de las paredes de la
habitación y del conjunto de las estrellas. Según la interpretación de Mach, la
inercia de los cuerpos sería producida por el efecto gravitatorio causado por el
conjunto de todas las estrellas del Universo. Por tanto, lo que causa la concavidad
en el agua del experimento del balde es el movimiento relativo de rotación de la
misma con respecto al conjunto de todas las masas del Universo. Según esto, si
hiciéramos girar rápidamente alrededor del balde un enorme cilindro de gruesas
paredes observaríamos cómo la superficie del agua se vuelve cóncava. Debe

157
advertirse que para que éste fenómeno sea observable se necesitaría una masa
tan grade como la de todo el Universo. No obstante, un experimento de ésta clase
fue llevado a cabo en 1894 por los hermanos I. y J. Friedlander. Ellos sustituyeron
el balde con agua por una balanza de torsión para aumentar la sensibilidad y
como cuerpo giratorio se usó el volante de una gran máquina, pero el "efecto
mach” no llegó a observarse. Nunca nadie volvió a repetir el experimento.
Empero, lo más importante en la interpretación de Mach es que se hace aparecer
en ella, como causa de fenómenos observables (fuerzas de inercia), otros fenómenos
también observables (movimientos relativos) y no un "movimiento en el espacio”
totalmente inobservable.
En procura de encontrar una solución a este problema, viene al caso mencionar
que, debido a la estrecha semejanza entre la ecuación que expresa la ley
newtoniana de la gravitación y la que expresa la ley electrostática entre dos
cargas, difiriendo solo en el signo que tienen estas fuerzas, les cupo a los físicos
abrigar la esperanza de formular una teoría relativista especial de la gravitación
que sería muy semejante a la de Maxwell sobre el electromagnetismo.
En la memoria de Einstein publicada en 1911 y titulada Sobre la influencia de la
gravitación en la propagación de la luz, él da su interpretación del problema
planteado utilizando el primer enunciado del principio de equivalencia y siguiendo
la indicación de E. Mach.
Veamos en que consistió. Para ello, consideremos una región inercial y en ella un
sistema inercial S (fig. 1 .4 1 a) Supongamos también un sistema S' que se traslada
respecto de S con movimiento acelerado y en línea recta.
El sistema S' está constituido por una caja o "ascensor de Einstein” sobre la que
actúa una fuerza F en el sentido del eje Z que hace que éste se mueva con
movimiento uniformemente acelerado respecto de S.
Z▲ F
iL

S'

158

s X
Fig 1.41a.- La “caja de Einstein” al moverse aceleradamente, produce en su interior efectos idénticos a los de
un campo gravitatorio
Comparemos ahora, lo que sucede en el interior de la caja, con lo que ocurre en
una pequeña región de un campo gravitatorio auténtico, tal como aquel que
observamos en cualquier región de la Tierra. Pero, primero hagamos que la caja
se mueva con aceleración g bajo la acción de la fuerza F, para que las cosas
ocurran de la misma manera que en el pequeño campo gravitatorio que tiene
también aceleración igual a g. En estas condiciones es posible describir los
fenómenos observados de dos maneras diferentes:
El sistema S' se mueve respecto de un sistema inercial con aceleración constante
g ó el sistema S' se encuentra en reposo en un campo gravitatorio de aceleración
constante g.
Ahora bien, como existe una rigurosa proporcionalidad entre las masas pesantes e
inertes de todos los cuerpos, esto permite establecer una equivalencia entre una
pequeña región de un campo gravitatorio y un sistema que se mueve con
aceleración uniforme con respecto de un sistema inercial. Con la palabra
equivalencia queremos significar igual comportamiento en los sistemas en estudio.
La necesidad de considerar una pequeña región del campo gravitatorio es
evidente, ya que si fuera una región algo extensa, las líneas de campo no serían
paralelas y llegarían a cortarse, perdiéndose de este modo la constancia de g;
ésta ya no tendría el mismo valor en toda la región. Hoy día nos es familiar
observar por TV a los astronautas de la NASA entrenarse en máquinas
centrifugadoras que dotan de un campo gravitatorio artificial a una pequeña región
del espacio como es la cámara donde ellos se encuentran; llegan incluso a anular
la fuerza de un campo de gravedad auténtico, creando así un espacio local de
ingravidez.
Este ingenioso y persuasivo supuesto tomó el nombre de principio de equivalencia
de Einstein y se lo enuncia de la siguiente manera:

159
Una pequeña región R de un campo gravitatorio, donde los cuerpos caen con
aceleración g, es equivalente a un sistema S' que se mueve con aceleración
uniforme g respecto de un sistema S.
Llegado este momento del relato estimado lector, permítame una corta digresión
epistemólogica.
Recordemos que las verdades geométricas que aprendimos en la escuela con el
nombre de teoremas y que expresan las propiedades que caracterizan a las
figuras, gozan de total y absoluta confianza de todos los que las conocen. ¿Quién
puede dudar del hecho geométrico de que la suma de los ángulos internos de un
triángulo rectilíneo es igual a dos rectos o que en todo triángulo rectángulo el
cuadrado que se construye sobre la hipotenusa es igual a la suma de los
cuadrados que se construyen sobre los catetos?, ¿de dónde proviene la inmortal y
total confianza en la validez absoluta de estas proposiciones?. Ellas han sido
establecidas por vía puramente racional a partir de un pequeño número de otras
proposiciones, llamadas axiomas, tan simples y tan evidentes, que nadie sería
capaz de dudar de su veracidad. Así pues, si los axiomas son verdaderos, es
absolutamente necesario que lo sean también sus derivaciones lógicas llamadas
teoremas. Pero lo persuasivo y sorprendente de esto es que, si construimos un
triángulo físico, por medio de cuerdas tirantes o rayos de luz, y efectuamos sobre
ellos las mediciones correspondientes, observamos que los teoremas de la
geometría se "cumplen” sobre los mismos en forma casi perfecta. Parecería como
si el hombre tuviera la prodigiosa facultad de extraer del interior de sí mismo
verdades del mundo exterior referentes al comportamiento de cuerdas tirantes o
rayos de luz.
Como ya hemos visto a lo largo de la historia de Occidente, el fruto obtenido por el
cultivo de la geometría constituyó el argumento de base de las corrientes
filosóficas denominadas racionalistas. Por ejemplo, para Descartes, algo es
verdadero si se presenta a su espíritu en forma clara y distinta, es el momento en
que las palabras evidente y verdadero se confunden en su significado.
En juicio de Kant, el espacio de la geometría euclideana es una forma de nuestro
propio pensamiento y sus proposiciones son juicios sintéticos a priori. Él agrupa

160
los juicios que formulamos con relación a determinado sujeto, en juicios analíticos
y juicios sintéticos. En los juicios analíticos, necesariamente verdaderos, el pre­
dicado afirma algo que ya está contenido en el concepto que porta el propio
sujeto. No se agrega a ellos nada nuevo y en el fondo se trata de puras
trivialidades, como cuando afirmamos: los muertos no hablan, el sol brilla, etc. A
diferencia, en un juicio sintético se afirma del sujeto algo nuevo, que no está
contenido en el concepto del mismo, como cuando se dice: el Sol es un horno
termonuclear. Proposiciones de esta clase se obtienen de la observación y de la
experimentación, y pueden ser verdaderas o falsas, pero nunca triviales.
Los juicios involucrados en las proposiciones matemáticas serían para Kant juicios
sintéticos, pues nos dicen algo nuevo que no está contenido en el sujeto, pero
éstos son obtenidos a priori; o sea que son alcanzados prescindiendo de toda
experiencia. En el concepto de triángulo está contenido, por su propia definición,
que aquél es una figura formada por tres ángulos o por tres lados (juicios analíticos),
pero no que la suma de sus tres ángulos sea dos rectos, siendo esta última
aseveración un juicio sintético y a priori. La aparición de las geometrías no
euclideanas arrojó total claridad sobre esta temática, ya que al disponer de varias
geometrías tan lógicas y coherentes en sí mismas como la euclídiana, se puso de
manifiesto que las aserciones geométricas -y, en general, todas las proposiciones
de la matemática pura- son verdaderas con respecto al grupo de axiomas que han
servido de base para establecerlas. Así por ejemplo, si a este grupo de axiomas lo
llamamos A y a 1 es una proposición que se deduce lógicamente de aquellos, la
cuestión acerca de la validez de a1 tiene la forma: si se admite A, entonces vale ai.
Así por ejemplo, los axiomas de la geometría de Euclides definen indirectamente a
objetos tales como puntos, rectas, planos, etc. Las proposiciones euclídianas
mencionadas son verdaderas y sólo tienen sentido si son una consecuencia lógica
de ellos. El más conocido de estos supuestos lógicos es el famoso V postulado
acerca de las paralelas, según el cual, desde un punto exterior a una recta, se
puede trazar una y sólo una recta paralela a la recta dada.____________________

161
La métrica de B. Riemann ( i 8 2 6 -i 8 6 6 )(ver recuadro 13 ) fue la matemática apropiada
para empezar a construir el modelo que Einstein necesitaba para representar el
fenómeno gravitacional de una manera superior a cómo lo había hecho Newton;
fue a partir de ella que él comenzó a tejer su T.G.R. Esta geometría constituye, en
lo que respecta al concepto de espacio, el lugar donde confluyen los desarrollos
intelectuales del Viejo Mundo, ya que en ella se sintetizan las nociones euclidianas
y no-euclidianas del espacio, vale decir las que corresponden a los espacios de
curvatura constante nula (plano), positiva (esférico) y negativa (hiperbólico) n-
dimensionales. Son sólo estos tres, según ha demostrado la teoría de Lie de los
grupos continuos, los únicos tipos de espacio congruentes con la geometría del
espacio métrico continuo y diferenciable. A la función que cumple esta condición
se la llama: variedad riemanniana de curvatura constante generalizada (ver [46] en el
recuadro 14)
Siguiendo en esta línea y como consecuencia, el problema se reducía a
determinar, para un campo dado, las diez funciones g¡k;. por ejemplo, para el
campo originado por la masa solar. Estos coeficientes variables intervienen en el
cálculo de la distancia cronotópica entre dos eventos infinitamente cercanos y son
llamados potenciales gravitatorios de Einstein, son funciones de las coordenadas y
sirven para calcular la curvatura del espacio-tiempo al topologizar la métrica
euclidiana; lo cual lo logran haciendo intervenir la condición de covariancia de
Riemann. Físicamente la curvatura del espacio-tiempo representa a la densidad
energética de la materia. Una vez que logramos conocer estas funciones, el
problema físico se reduce al cálculo de las geodésicas de la variedad [46] (ver
recuadro 14) y a comparar los resultados obtenidos con las trayectorias calculadas a
partir de la ley de gravitación de Newton que, como se sabe, da cuenta de manera
satisfactoria de las observaciones.
Pero, ¿cómo obtener esas funciones?. Ante todo, recordemos el primer enunciado
del principio de equivalencia según el cual, si la caja S’ se mueve con movimiento
uniformemente acelerado respecto del sistema inercial S, se comporta como cierto
campo gravitatorio Q. Esto permite describir lo que pasa en S’ -como ya lo
indicamos- de dos modos diferentes:

162
a) S’ se mueve con movimiento acelerado respecto de S.
b) S’ está en reposo en un campo gravitatorio de ciertas características.
Si fijamos nuestra atención en la segunda manera de describir las cosas, llegamos
a la conclusión de que, con toda razón, los observadores de S’ pueden suponerse
en reposo. Desde allí, desde S’, verán que los cuerpos fijos respecto de S se
mueven con movimiento acelerado y dirán: claro, esos cuerpos caen por la acción
del campo gravitatorio. En la TER todos los sistemas de referencia que se
trasladan unos respecto de otros con movimiento uniforme son equivalentes, pues
cualquiera de ellos puede suponerse en reposo. Las leyes deben conservar la
misma forma cuando se pasa de un sistema a otro aplicando las ecuaciones de
transformación de H. Lorentz ( recuadro 1 2 )
Aquí nos encontramos con el hecho de que los observadores del sistema S’
(no inercial), pueden suponerse en reposo por la misma razón que los
observadores del sistema S. El pasar de S’ a S implica un cambio de coordenadas
que, en general, no será lineal, y, no obstante, tanto S’ como S pueden
considerarse en reposo. ¿Qué significa esto de que pueden considerarse en
reposo? Significa que ambos sistemas son igualmente apropiados, igualmente
válidos. Y, para que esto sea así es necesario que la expresión matemática de las
regularidades observadas en la naturaleza, tengan la misma forma, tanto referidas
a S como a S’.
Por lo tanto, el segundo enunciado del principio de equivalencia puede escribirse
de la siguiente manera:
El sistema inercial S y el sistema S’, que se mueve respecto de S con movimiento
uniformemente acelerado, son entre sí equivalentes.
En este enunciado la palabra equivalencia6 no tiene el significado de
"comportamiento idéntico” que tenía en el primer enunciado. En el primer
enunciado se relaciona S’ con la región Q del campo gravitatorio, en tanto que en
el segundo enunciado se relaciona S’ con el sistema inercial S. Al afirmar que
ambos sistemas son equivalentes, se afirma que las ecuaciones que representan6

6 El principio fue publicado por A. Einstein en el artículo titulado Los fundamentos de la T.G.R
aparecido en 1916.

163
las regularidades de la naturaleza deben tener la misma forma tanto referidas a un
sistema como al otro. El segundo enunciado del principio de equivalencia es la
generalización lógica del principio de relatividad utilizado en la TER.
Entonces, las regularidades de la naturaleza pueden expresarse de manera tal
que conserven su forma para cualquier cambio de coordenadas. Éste es el
principio de covariancia universal ó invariancia relativista que deben satisfacer
todas las leyes de la física frente a cualquier cambio del sistema de referencia.
Pero para poder expresar las leyes de la naturaleza de modo tal que conserven su
forma frente a cualquier sustitución de coordenadas, es necesario que las mismas
sean formuladas tensorialmente.
Lo que hemos expuesto en el recuadro 13 nos enseña cómo se puede hacer
"geometría interna”, que es lo que de hecho hacían sobre una superficie aquellos
geómetras planos habitantes de Planilandia en la ampliamente conocida novela de
Edwin A. Abbot. Ellos, sin salir de su mundo de dos dimensiones, podían
reconocer interpretando sus medidas si se encontraban viviendo sobre un plano,
sobre una superficie esférica o sobre otra de curvatura negativa. En un mundo de
tres dimensiones se puede en principio, proceder de la misma manera y estudiar
la estructura geométrica del mismo sin apelar a una cuarta dimensión. Piénsese,
por ejemplo, en la geometría esférica de Riemann de tres dimensiones.
Si pensamos en una superficie de dos dimensiones y elegimos para el estudio de
la misma un sistema particular de coordenadas (la red de meridianos y paralelos sobre la
superficie de la Tierra, por ejemplo), nos encontramos con que ciertas propiedades son
independientes del sistema de coordenadas elegido. La curvatura de la superficie
en un punto determinado, si ésta es un elipsoide, será variable punto a punto y se
expresará en función de las coordenadas, pero al pasar de un sistema a otro, la
curvatura seguirá siendo en cada punto la misma. Igual ocurre con la línea
geodésica que une dos puntos de la superficie. Esta línea, en el caso de una
superficie plana es una recta y su ecuación en coordenadas cartesianas es bien
diferente a su ecuación en coordenadas polares. Pero, la línea mas corta que une
dos puntos determinados de una superficie es independiente del sistema de
coordenadas, es una propiedad intrínseca de la superficie misma y el cálculo

164
diferencial absoluto o cálculo tensorial procura dar una ecuación general de la
misma tal que sea válida en cualquier sistema de coordenadas.
Si en un sistema particular de coordenadas se tiene un ente llamado tensor,
definido por cierto número de funciones de esas mismas coordenadas, funciones
que se llaman componentes del tensor (un campo de vectores, por ejemplo), al efectuar un
cambio de coordenadas existen ciertas reglas que permiten calcular las
componentes de aquel ente en el nuevo sistema. Las nuevas componentes se
expresan en forma lineal y homogénea en función de las antiguas, por lo que, si
todas las componentes de un tensor son nulas en un sistema de coordenadas, lo
serán también en cualquier otro. De aquí que si determinada ley física se expresa
por la articulación de todas las componentes de un tensor, esa ley será válida para
cualquier sistema de coordenadas. Para satisfacer el principio general de la
relatividad, o sea para que las leyes se expresen de idéntico modo en todos los
sistemas de referencia, será suficiente, entonces, expresar las mismas como la
anulación de las componentes de determinado tensor. El cálculo tensorial
proporciona de este modo, el instrumento matemático necesario para satisfacer la
exigencia de la covariancia universal de las leyes naturales frente a cualquier
cambio en el sistema de las coordenadas. Casi inmediatamente después de haber
dado a conocer su teoría especial de la relatividad, en 1905, Einstein procuró
generalizarla para toda clase de movimientos, pero no poseía en aquel entonces
la matemática adecuada que le hacía falta. En el año 1911 siendo profesor de
física teórica en la universidad de Praga, estableció amistad con el profesor de
matemática de la misma universidad, Georg Pick, que en su juventud había sido
ayudante de E. Mach en la cátedra de física experimental. Y fue Pick quién le dio
ha conocer la memoria de los matemáticos italianos Ricci y Lévi Civita, aparecida
en el año 1900 y titulada Métodos de Cálculo Diferencial Absoluto y sus
aplicaciones que proporcionaba de un modo completo y perfecto el lenguaje
matemático adecuado para generalizar la teoría de la relatividad a cualquier clase
de movimientos.
En la teoría de Newton un campo gravitatorio queda totalmente determinado si se
conoce el potencial 9 , que en el vacío satisface la ecuación de Laplace. En

165
cambio, en la nueva teoría deben calcularse las diez funciones g¡k que son los
coeficientes del diferencial de la distancia cronotópica, como ya señalamos. Ahora
bien, ¿a qué ecuaciones satisfacen estos gik en el espacio libre de materia?. Lo
primero que salta a la vista es que, como se debe satisfacer el principio
generalizado de la relatividad, esas ecuaciones deben tener una forma tensorial.
Lo segundo es que estamos al tanto de que la teoría de Newton da cuenta
satisfactoriamente de las observaciones y que en la ecuación de Laplace figuran
derivadas segundas de la función escalar 9 . Las ecuaciones que buscamos deben
ser, entonces, análogas a la de Laplace y podrán ser obtenidas mediante la
anulación de las componentes de cierto tensor; por lo que, éste tendrá que estar
expresado en función de los gik y de sus derivadas primeras y segundas con
respecto a las coordenadas. Estos resultados se consiguen si se anula el tensor
de cuarto orden de Riemann-Christoffel, pero la anulación de todas las
componentes de éste conduce, necesariamente, a una variedad euclídea en la
cual las geodésicas son rectas. Este modelo deberá ser descartado, pues no es
congruente con la realidad; por ejemplo, en el campo de gravedad del Sol, los
planetas siguen trayectorias curvas. A diferencia, la anulación de las componentes
del tensor contraído de Ricci, no conduce a ese extremo, por lo cual Einstein
postuló que las ecuaciones a las que deben satisfacer los gik en el vacío, son:
[A] Rik = 0
Pero estas diez ecuaciones no son suficientes para determinar los gik, así como en
la ecuación de Laplace, que por sí sola, no permite determinar el potencial 9 . Se
hace imperioso, por tanto, encontrar ecuaciones que sean análogas a las de
Poisson, en las que el potencial 9 queda determinado por la densidad p de la
materia y su distribución. Sabemos que las ecuaciones tendrán que ser tensoriales
y que en el primer miembro aparecerá un tensor constituido exclusivamente por
los gik y sus derivadas, de carácter puramente geométrico. Este deberá igualarse a
otro tensor que exprese la parte física del modelo, correspondiente a la materia
que genera el campo. Este desempeñará el mismo papel que el segundo miembro
de la ecuación de Poisson, igual a 4 nGp. Pero, debido a que la masa y la energía
son, según la TER, conceptualmente lo mismo (E = mc2), los efectos gravitatorios

166
deben tener como fuente al conjunto materia-energía. En otras palabras, los g¡k
deben estar determinados tanto por la distribución de las masas como por la
distribución de la energía. Este tensor de segundo orden lo han llamado tensor
materia-energía, T< y como él satisface a un principio de conservación, el tensor
geométrico deberá tener el mismo carácter.
Por tanto, las ecuaciones de Einstein, análogas a las de Poisson y que satisfacen
el principio de conservación de la materia-energía, son:
[B] Rik-% gikR =-KTik, donde K = constante de gravitación de Einstein = (8n/c2) G
ó Rik = -K (Tik -% gik T)
Estas son las ecuaciones de campo de Einstein que, en el espacio vacío, se
reducen a las [A], debido a que en una región así todas las componentes del
tensor Tik son nulas, al igual que el escalar T.
De esta manera Einstein nos brindó una teoría de gravitación universal notable y
hermosa, en la cual los efectos provocados por la gravitación son descritos en
función de la estructura del espacio-tiempo y, se la relaciona con la distribución de
la materia-energía. Con esta realización, Einstein había logrado lo que Newton en
su tiempo; esto es, construir un modelo del mundo con la misma capacidad de
predicción, solo qué, más general que el otro. Con este magnífico trabajo él había
llevado al EMROcc a su extremo desarrollo. Todo parecía como que si el ser
humano estuviese a un paso de leer la mente de Dios de manera total y definitiva
y de permanecer sentado a su diestra por siempre. Sólo faltaba crear la Teoría del
Campo Unificado (T.C.U) para alcanzar tan sublime objetivo. Esta teoría ha
pretendido reunir en un solo modelo matemático a las cinco fuerzas
fundamentales de la naturaleza: la eléctrica, la magnética, la débil, la fuerte y la
gravitacional. Einstein, después de la publicación de la TGR en 1916, ocupó todo
el resto de su vida tratando de construir su TCU y no lo consiguió, nadie lo ha
hecho hasta la fecha de manera totalmente satisfactoria. Como hemos visto, llegar
a ésta cúspide ha sido el conspicuo sueño de la Civilización Occidental. El mismo
sueño lo abrigó la Civilización Oriental, sólo que por otro camino: el de la
meditación trascendental que se expresa por medio de mantras o "vibraciones
mentales” y no por ecuaciones. Mientras Occidente ha desarrollado la matemática

167
del infinito de manera extroversial, Oriente lo hizo de modo introversial; pero, los
dos han buscado trascender el Mundo tomando el camino de la abstracción, con la
finalidad de conseguir la condición de la conciencia divina. Los primeros por la vía
del reduccionismo analítico y los segundos por la vía del holismo contemplativo.
No cave duda que Einstein estuvo convencido de que su teoría tenía la
inconfundible señal de la presencia divina cuando dijo que «Dios no juega a los
dados»; sin embargo, cuando se sumergía en el estado de ánimo que le producía
la contemplación de los terribles sucesos que aparecían diariamente en el
escenario presentado por la primera guerra mundial, su alma se trizaba y esto le
provocaba nauseas y fuertes depresiones. Él veía que su teoría le revelaba la más
profunda racionalidad subyacente al Mundo y, sin embargo, la guerra, como un
suceso del Mundo, le mostraba todo lo contrario. El se confesó incapaz de poder
dar una explicación de la guerra en función de la racionalidad occidental que él
practicaba y más tarde le dirigió la pregunta a Sigmund Freud en una célebre
carta7. He aquí, al más refinado de los modelistas matemáticos de la historia,
sufriendo los tormentosos efectos letales de la gran paradoja que dio origen a la
Civilización Occidental, aquella que descasa en la operación de punto o círculo-
límite, en el acto de trascendencia que ha configurado de manera plena al
EMROcc.
Finalmente, para no dejar suelto el problema del "balde de Newton”, manifestemos
que había recibido contestación final con la explicación dada por Einstein al
popular experimento de las hojas de té, que consiste en revolver en un recipiente
con agua trocitos de hojas de té (situación análoga a la del balde). Al suspenderse la
agitación, las partículas caen agrupándose en el centro de la tasa, y no
dispersándose por acción de la fuerza centrífuga, conforme lo esperado por el
sentido común y por las leyes de la física conocidas hasta el momento. Einstein
atribuyó este comportamiento anómalo, a los flujos que se producen en el líquido
cuando éste gira y observables cuando tiende ha subir por los bordes y ha bajar

7 En 1931, el Comité de las Letras y de las Artes de la Sociedad de Naciones promovió un


intercambio de cartas entre destacados intelectuales. Einstein, a quien se le invitó a buscar un
colega para tratar un tema importante del momento, escogió a Freud y se dirigió al él con esta
pregunta: «¿Por qué hay guerra?»

168
en el centro, siguiendo la forma de un torbellino, la cual decide el patrón de caída
de las partículas.
Tal explicación permaneció incuestionada hasta cuando Nikolái Koroviakov de
Tula, por el año 1986 obtuvo idéntico resultado, pero usando un recipiente
hermético y totalmente lleno de agua, donde no había lugar para los flujos. Y, un
resultado aún más sorprendente consiguió al sustituir el té por partículas de
plástico de distinto color y peso. En este caso, en el centro se forma una ¡figura
pentagonal! Para entender este fenómeno, explica Koroviakov, es necesario dejar
de reducir a puntos las masas de los cuerpos. Haciéndose necesario, por tanto,
incluir el conocimiento sobre la estructura interna de la Tierra en la construcción
del modelo explicativo. Este acontecimiento nos muestra una limitación más del
EMROcc que aumenta la expectativa y profundiza el misterio a cerca del
movimiento del "balde de Newton”
Hemos descrito brevemente, interpretando su huella histórica, lo que tienen en
común la mecánica clásica, la teoría especial de la relatividad, y la teoría general
de la relatividad, y también hemos visto cómo llegaron ha configurarse en un solo
sistema del mundo, debido a que fueron construidas en una misma clase de
espacio de representación: el puntiforme o analítico diferencial. Siendo ésta la
razón por la cual, los tres sistemas conciben a los objetos, cuyos cambios de
posición recíproca describen y predicen, como si fuesen partículas sin estructura
interna, todos los objetos son asumidos como intrínsecamente idénticos. Esto
hace que los tres sean aptos para calcular los cambios que experimentan las
relaciones de posición de los cuerpos sometidos tanto a fuerzas de inercia como a
fuerzas gravitatorias; vale decir, cambios de la estructura externa de los sucesos.
Así mismo los tres son útiles para establecer la métrica del movimiento de los
cuerpos y realizar predicciones deterministas; para esto, incluyen una sola
coordenada temporal y tres espaciales; ésta es su característica fundamental.
Así, dadas unas condiciones cualesquiera, ese espacio de representación puede
revelarnos el pasado y el futuro del proceso cuya evolución se describe. Para
lograrlo, el "demonio de Laplace” está condenado a utilizar una sola coordenada
del tiempo, aquella que corresponde a la noción de "tiempo reversible”. Es la

169
expresión cuantitativa del tiempo; es aquel que se representa en el espacio
métrico; es el tiempo sugerido por el movimiento de los astros, causa por la que
está espacializado; por ejemplo, en el reloj de manecillas que funciona cuando
éstas se mueven de manera continua, señalando en una regla circular el momento
en que acaecen los eventos.

1. 4 2 La catástrofe Cuántica
La teoría cuántica nació al despuntar el siglo XX, fue enunciada en el año 1900 en
su forma primitiva por su fundador, Max Planck (1858-1947), quién la construyó para
explicar el raro fenómeno que encontró al estudiar la radiación electromagnética
emitida por un cuerpo radiante (cuerpo negro) Descubrió que la luz que emerge a
través de un orificio practicado en éste, no presenta las líneas de emisión típicas,
sino una distribución uniforme de la intensidad en función de la longitud de onda.
Además observó que ésta era una característica exclusiva de la temperatura,
estrictamente cuantitativa, no dependía en absoluto de la calidad del cuerpo
caliente.
Se observa que a bajas temperaturas, inferiores a 4000°K, la mayor parte de la
energía se concentra en la región infrarroja y sólo una pequeña cantidad co­
rresponde a la banda visible, entre 4000 y 8000 Angstroms (Á). A 6000°K, la longi­
tud de onda correspondiente a la máxima cantidad de energía es de 5000 Á,
aproximadamente, y una fracción grande de la energía emitida se encuentra en la
región visible.
Debo advertir que los físicos teóricos se interesaron por el problema de la emisión
de la luz por los cuerpos incandescentes con anterioridad a 1900 y llegaron a la
conclusión de que eran incapaces de explicar estas observaciones basándose en
la absorción y emisión de luz por las moléculas vibrantes de un cuerpo
incandescente; o sea, según la teoría cinética del movimiento molecular.
Más tarde, descubrió que se podía formular una teoría satisfactoria si suponía que
el cuerpo incandescente no emite ni absorbe luz de una determinada longitud de
onda en una cantidad arbitrariamente pequeña (infinitesimal), sino que debe emitir
o absorber un cierto cuanto (finitesimal) de energía luminosa, de esta longitud de

170
onda. A pesar de que su teoría no exige que la luz misma sea considerada como
compuesta por porciones de energía -cuantos de luz o fotones-, él encontró que la
cantidad de energía luminosa de longitud de onda X, absorbida o emitida de una
vez por un cuerpo incandecente era directamente proporcional a la frecuencia v:
E=hv ó E=hc/X. Donde, E es la energía luminosa de frecuencia v y emitida o
absorbida de una vez, y h, la constante de proporcionalidad. Esta constante h es
una de las constantes fundamentales de la Naturaleza y componente fundamental
de toda la teoría cuántica. Se la conoce como la constante de Planck, y tiene un
valor h=6,6238x10"27erg.seg. Según la ley de Planck, se observa que la luz de
longitud de onda corta consta de porciones grandes de energía y la de longitud de
onda larga, de porciones pequeñas.
En 1887, el físico alemán Heinrich Hertz (1857-1894), quién descubrió las ondas de
radio, observó que cuando se iluminan con luz ultravioleta dos electrodos me­
tálicos se necesita un voltaje inferior para producir la chispa entre ellos que
cuando no se iluminan. Después, J. J. Thomson (1856-1940) descubrió, en 1898,
que la superficie de un metal sobre la que incide luz ultravioleta emite cargas
eléctricas negativas, pudiendo probar que la carga eléctrica negativa que
abandona la placa de cinc bajo la influencia de la luz ultravioleta está formada por
electrones. La emisión de éstos por la acción de la luz ultravioleta o de los rayos X
se denomina efecto fotoeléctrico.
El estudio del efecto fotoeléctrico fue de gran utilidad, pronto observaron los
científicos que la luz visible, al incidir sobre una placa de cinc, no produce la
emisión de fotoelectrones, mientras que la luz ultravioleta de longitud de onda
inferior a 3500 A da lugar a dicha emisión. A la longitud de onda máxima que
resulta efectiva para arrancar electrones se la llama umbral fotoeléctrico. Además,
se encontró que los fotoelectrones son emitidos con un exceso de energía
cinética, que depende de la longitud de onda de la luz incidente.
Estos fenómenos fueron explicados por Einstein en 1905, mediante su teoría del
efecto fotoeléctrico. Él supuso que la luz que incide sobre la placa metálica consta
de cuantos de luz o fotones de energía hv, y que cuando la luz es absorbida por el
metal, toda la energía de un fotón se convierte en energía de un fotoelectrón. No

171
obstante, el electrón debe utilizar una parte Ei de su energía para abandonar el
metal, la energía de ionización del metal. La restante es la energía cinética del
fotoelectrón. La ecuación fotoeléctrica de Einstein es, por tanto, hv =E¡ + y mv2.
Esta famosa ecuación establece que la energía del fotón, hv, es igual a la
necesaria para arrancar un electrón del metal Ei más la comunicada al electrón. El
éxito de esta ecuación en la explicación de los fenómenos del efecto fotoeléctrico
fue, en gran parte, la causa de que se aceptase la idea del cuanto luminoso.
La mayor parte de los conocimientos acerca de la estructura electrónica de los
átomos se obtuvieron estudiando la luz que emiten éstos cuando se excitan por
diversos medios: alta temperatura o haciendo saltar un arco o chispa eléctricos. La
luz emitida por los átomos consta de líneas de frecuencias determinadas, que se
llama espectro de líneas del átomo.
El estudio minucioso de los espectros de líneas comenzó hacia 1880. Los
primeros investigadores comenzaron con la interpretación de los espectros
reconociendo las regularidades que existen en las frecuencias de las líneas:
aquellas correspondientes al espectro del átomo de hidrógeno. Sin embargo,
hasta 1913 nadie consiguió la interpretación del espectro del hidrógeno en función
de la estructura electrónica de su átomo. En dicho año, el físico danés Niels Bohr
(1885-1964) aplicó satisfactoriamente la teoría cuántica a este problema y estableció
las bases que condujeron al extraordinario avance del conocimiento sobre la
naturaleza de la materia en los años venideros.
Según el modelo el átomo de hidrógeno consta de un electrón y un protón. La
interacción de sus cargas eléctricas, -e y +e, respectivamente, de tipo
electrostático, es análoga a la interacción gravitatoria de la Tierra y el Sol. Si se
aplicasen al átomo de hidrógeno la leyes del movimiento de Newton, debería
esperarse que el electrón, que es muy ligero comparado con el núcleo, girase
alrededor de éste según una órbita elíptica, de la misma forma que la Tierra lo
hace alrededor del Sol. La órbita más sencilla para el electrón alrededor del núcleo
debería ser un círculo, y las leyes del movimiento de Newton permitirían que
tuviese cualquier tamaño, determinado por la energía del sistema.

172
A partir del descubrimiento del electrón y del protón, los físicos que estudiaban la
estructura atómica aceptaron este modelo, y resultó evidente que las teorías
clásicas (incluida la tgr) del movimiento de las partículas o leyes del movimiento de
Newton y de la electricidad y magnetismo no podían aplicarse al átomo. Si el
electrón girase alrededor del núcleo, según la teoría electromagnética, produciría
luz, de frecuencia igual a la correspondiente a la rotación del electrón en el átomo.
Esta emisión de luz por el electrón en movimiento es análoga a la emisión de
ondas hertzianas por los electrones que oscilan en una antena de radio o TV. Sin
embargo, si el átomo emitiera energía en forma de luz de manera continua, el
electrón debería moverse en un círculo que iría aproximándose cada vez más al
núcleo, y la frecuencia de su movimiento en torno del mismo sería cada vez
mayor. Según esto, las teorías clásicas del movimiento y del electromagnetismo
exigirían que los átomos de hidrógeno produjesen un espectro luminoso con todas
las longitudes de onda (espectro continuo). Esto es contrario a lo observado: el
espectro del hidrógeno, producido en un tubo de descarga que contiene átomos
de hidrógeno, consta de líneas dispuestas a saltos ( || | | | ), como un código de
barras. Además, se sabe que el volumen ocupado por el átomo de hidrógeno en
una sustancia sólida o líquida corresponde a un diámetro de 1 A,
aproximadamente, mientras que en la antigua teoría nada había que impidiese
que el electrón se aproximase cada vez más al núcleo, llegando así el átomo a
tener un diámetro menor que 1 A,
La teoría de Planck sobre la emisión de luz por un cuerpo incandescente y de
Einstein del efecto fotoeléctrico y del cuanto luminoso proporcionaron a Bohr las
bases teóricas suficientes para resolver aquella dificultad. Al momento, tanto
Planck como Einstein ya habían admitido que la luz de frecuencia v no es
absorbida ni emitida por la materia en cantidades arbitrariamente pequeñas
(infinitesimales), sino solamente en forma de diminutos paquetes o cuantos de
energía hv. Por tanto, el modelo por ser discreto no era representable en el
EMROcc. He aquí el obstáculo epistemológico que inopinadamente se presentaba
en la ciencia occidental: el EMROcc no era capaz de describir los fenómenos
cuánticos, ya que éstos no se adaptaban a su carácter diferencial. Este hecho si

173
que era verdaderamente revolucionario, el corazón de las matemáticas
occidentales acababa de sufrir el primer infarto de su historia. Es muy fácil
entender que algo que es continuo no puede dar cuenta de algo que no lo es.
Si un átomo de hidrógeno, en el que el electrón gira alrededor del núcleo en una
órbita circular grande, emite un cuanto de energía hv, el electrón debe "saltar” a
una órbita circular menor, correspondiente a un valor de la energía del átomo hv,
menor que la inicial. Esto llevó a Bohr a concluir que el átomo de hidrógeno sólo
puede existir en determinados estados, llamados estados estacionarios. Admitió
que uno de estos estados, el estado fundamental o normal, es el más estable y
corresponde a la mínima energía del átomo. Los otros estados, con un exceso de
energía respecto del normal, se llaman estados excitados. Más tarde, en acuerdo
con los trabajos de Planck y Einstein, escribió que cuando un átomo pasa de un
estado excitado de energía, E”, a otro de energía inferior, E’, cuya diferencia E ­
E’, es igual a la del cuanto luminoso emitido. Esta ecuación, hv= E ’-E, se llama
ley de la frecuencia de Bohr.
La misma ecuación se aplica para la absorción de luz por los átomos. Así mismo,
la frecuencia de la luz absorbida al pasar de un estado inferior a otro superior es
igual a la diferencia de energías de ambos estados, dividida por la constante de
Planck. Esta ecuación también se aplica a la emisión y absorción de luz por
moléculas y sistemas más complejos.
Bohr también descubrió un método para calcular las energías de los estados
estacionarios del átomo de hidrógeno, utilizando la constante de Planck. Encontró
que los valores correctos de éstas se obtenían admitiendo que las órbitas de los
electrones son circulares y que el momento cinético del electrón vale: para el
estado normal, h/2n; para el primer estado excitado, 2h/2n; para el siguiente,
3h/2n, y así sucesivamente. En general, el momento cinético del electrón que
describe una órbita circular alrededor del núcleo (órbita de Bohr) viene dado por la
expresión: momento cinético = nh/2% . El número n, introducido de esta forma en
la teoría de Bohr, se llama número cuántico principal de la órbita de Bohr. El radio
de esta órbita se encontró que era igual a rn=n2ao, donde ao =h2/4n2me2=0,530 A.

174
Según esta ecuación, m es la masa del electrón, e su carga y el radio ri de la
órbita de Bohr para el estado normal (n=i) del átomo de hidrógeno es 0,530 A;
para el primer estado excitado, cuatro veces mayor; para el siguiente, nueve
veces, y así sucesivamente. La energía del átomo en el n-ésimo estado
estacionario viene dada, según la teoría de Bohr por la ecuación En= -2n2me2/n2h2.
Cuando en 1913 Bohr dio a conocer esta teoría suscitó gran interés, ya que
permitía calcular totalmente las líneas espectrales del hidrógeno a partir de
magnitudes físicas que habían sido determinadas por otros experimentos.
Recordaremos que la carga del electrón había sido determinada por el método de
la "gota de aceite”, ideado por Millikan; la masa del electrón por medio del
experimento el de J. J. Thomson ( 1 8 5 6 -1 9 4 0 ); la constante de Planck, por medidas
experimentales de la distribución de la intensidad de la energía radiante en función
de las longitudes de onda, en la luz emitida por un cuerpo incandescente, y más
exactamente por Millikan, mediante sus experimentos sobre el efecto fotoeléctrico
y la velocidad de la luz, por Albert Michelson. Inmediatamente muchos
investigadores comprobaron la teoría con otros experimentos más sensibles, pero
también más difíciles de realizar.
Durante los años 1924 y 1925 la teoría de la estructura atómica realizó un gran
progreso al disponer de elementos nuevos para el desarrollo de una nueva teoría
de la Mecánica Cuántica. Se descubrió el spin del electrón, Wolfgang Pauli ( 1 9 0 0 ­
1958) formuló el principio de exclusión y se descubrió el carácter ondulatorio del
electrón. Los experimentadores descubrieron que las líneas de la serie de Balmer
del espectro del hidrógeno, no son, en realidad, líneas sencillas, sino que se
componen de pares de líneas que se diferencian sólo muy ligeramente en sus lon­
gitudes de onda. La explicación que dieron los que descubrieron este
desdoblamiento de los niveles de energía en dobletes, fue que podría interpretarse
cuantitativamente sí se suponía que el electrón gira alrededor de su eje. A causa
de que el electrón está cargado negativamente, el giro alrededor de su eje le dota
de un momento magnético análogo al de un diminuto imán que posee un polo
norte y un polo sur. La teoría cuántica exige que este pequeño imán se oriente en
un campo magnético en una de estas dos formas: o bien paralelamente al campo,

175
u opuesto a él. En el movimiento del electrón en torno del núcleo, la órbita
electrónica equivale a un circuito eléctrico y produce un campo magnético que
interacciona con el campo magnético del electrón que gira, de forma tal que hace
variar la energía del sistema. Las dos orientaciones del spin electrónico corres­
ponden entonces a dos niveles energéticos muy próximos entre sí.
En 1925, Wolfgang Pauli propuso un sencillo principio de gran importancia, que ha
llegado a ser conocido como el principio de exclusión de Pauli. Supuso que dos
electrones no pueden tener exactamente el mismo conjunto de números
cuánticos. Es decir, dos electrones no pueden estar en el mismo estado. Así, por
ejemplo, en el átomo de helio los dos electrones podrían ocupar la órbita más
estable, la correspondiente a n=1. No obstante, según el principio de exclusión de
Pauli, únicamente pueden ocuparla si sus spines son opuestos. Por otra parte se
observa que el litio, el tercer elemento, no puede tener sus tres electrones en la
órbita n=1, ya que el tercer electrón tendría que tener su spin paralelo al del
primero o al del segundo, lo cual contradice el principio de exclusión. Por tanto, el
átomo de litio en su estado normal debe tener dos electrones en la órbita n =1, la
más estable y otro en una menos estable, n =2.
La gran variedad de propiedades químicas de los noventa y ocho elementos y la
periodicidad que ha permitido formular el sistema periódico son consecuencia de
la propiedad de la Naturaleza expresada por el principio de exclusión de Pauli. Si
no fuera por él -si pudiera introducirse en la órbita más estable, n=1, de cada
átomo cualquier número de electrones-, las propiedades físicas y químicas de las
sustancias variarían sólo uniformemente al aumentar el número atómico, y el
mundo no mostraría la gran variedad de estructuras y composiciones que
presenta.
Durante los doce años siguientes a la formulación por Bohr de la teoría orbital del
átomo, se realizó un gran avance en la interpretación de los espectros observados
y de otros resultados experimentales, tales como los obtenidos por el método del
impacto electrónico. Especialmente importante fue el descubrimiento por Arnold
Sommerfeld ( 1 8 6 8 -1 9 5 1 ) de que la teoría cuántica podía aplicarse lo mismo a las
órbitas elípticas que a las circulares.

176
Surgieron muchas dificultades, sin embargo, al interpretar los hechos observados
basándose en la teoría cuántica, éstas sólo fueron superadas en los años 1924 y
1925. Durante estos años, se reconoció que los electrones y otras formas de
materia tienen propiedades análogas a las de las ondas, así como otras que nor­
malmente se adscriben a las partículas.
El carácter ondulatorio del electrón fue descubierto por el físico francés Louis de
Broglie (1892-1987) mientras trabajaba en la teoría cuántica. Estos resultados le
sirvieron como tesis para obtener el doctorado en la Universidad de París.
Reconoció que podían obtenerse sorprendentes analogías entre las propiedades
de los electrones y las de los cuantos luminosos si se asociaba una longitud de
onda a los electrones en movimiento. Esta longitud de onda se denomina
actualmente longitud de onda de De Broglie del electrón y viene dada por la
ecuación X=h/mv. En ella, X es la longitud de onda del electrón; h la constante de
Planck; m, la masa del electrón, y v su velocidad. Nótese que X va disminuyendo
al aumentar la velocidad del electrón, y para el caso extremo en que el electrón se
encuentre en reposo esta será de longitud infinita.
La argumentación desarrollada por De Broglie en su descubrimiento de la longitud
de onda del electrón dice que, por una parte, la energía de un fotón de frecuencia
v es hv y por otra, que la masa del fotón está relacionada con la energía por la
ecuación de Einstein E=mc2, lo que nos lleva a igualar las dos ecuaciones y ha
obtener: mc2=hv, donde m representa la masa del fotón. Ahora, si en la ecuación
reemplazo v por c/X se tiene que X=h/mc, que se la conoce con el nombre de
ecuación de De Broglie. Él señaló que la misma ecuación puede aplicarse a un
electrón siendo m la masa del electrón en lugar de la del fotón, y sustituyendo c,
velocidad del fotón, por v, la del electrón. Además, observó que la longitud de
onda del electrón, tal como viene dada por su ecuación, tiene exactamente el valor
necesario para producir refuerzo de las ondas electrónicas en las sucesivas
órbitas circulares de Bohr. Por ejemplo la órbita circular de Bohr de número
cuántico total n=5. La longitud de la misma, 2n veces el radio, es igual a cinco
veces la longitud de onda de De Broglie de un electrón que se mueva con la

177
velocidad dada por la teoría de Bohr para dicho electrón en esta órbita. De este
modo, puede considerarse que las ondas electrónicas se refuerzan entre sí
siempre que el electrón gire alrededor del núcleo en esta órbita, mientras que en
órbitas ligeramente mayores o menores, las ondas interferirían.
Los cálculos que justifican estas afirmaciones se realizaron y dieron resultados
como el de que la energía cinética de un electrón en la primera órbita de Bohr,
estado normal del átomo de hidrógeno, es 13.6 ev. Al resolver este ejemplo se ha
encontrado que la longitud de onda del electrón es 3,33 A. El radio de la primera
órbita de Bohr es 0,530 A; cuando este valor se multiplica por 2 n, se obtiene 3,33.
Por tanto, en la primera órbita de Bohr, según los cálculos de De Broglie, hay
exactamente una longitud de onda en la circunferencia de la órbita. De acuerdo
con la teoría de Bohr, la velocidad de un electrón en la n-ésima órbita de Bohr es n
veces menor que la velocidad en la primera órbita de Bohr y la longitud de onda
será n x3,33 A. Sin embargo, la circunferencia de la órbita de Bohr es proporcional
a n2, siendo igual a n2x3,33 A. Por consiguiente, este cálculo demuestra según
descubrió De Broglie, que existen n longitudes de onda electrónicas en la
circunferencia de la n-ésima órbita de Bohr.
El carácter ondulatorio de los electrones en movimiento fue establecido como
consecuencia de los trabajos de los físicos C. J. Davisson y G. P. Thomson. Estos
investigadores encontraron que los electrones difractados por los cristales
producen diagramas de difracción análogos a los producidos por los rayos X
difractados por los cristales, y, además, que estos diagramas de difracción,
interpretados con arreglo a la ley de Bragg, corresponden a la longitud de onda
dada por la ecuación de De Broglie.
Hacia 1925 la teoría cuántica, que incluía el carácter ondulatorio del electrón, fue
perfeccionada hasta convertirse en lo que se denomina Mecánica cuántica (M.C) o
Mecánica ondulatoria, fue desarrollada principalmente por los físicos Werner
Heisenberg, Erwin Schródinger y Paul Adrien Maurice Dirac. La M.C parece estar
totalmente de acuerdo con los datos experimentales acerca de la estructura de los
átomos y moléculas; pero los físicos tuvieron que hacerle algunas adiciones y
adecuaciones antes de aplicarla a la estructura de los núcleos atómicos.

178
La MC no describe el movimiento de los electrones en torno al núcleo del átomo
de forma tan precisa como lo hizo la teoría Bohr. Sin embargo, las propiedades del
átomo que pueden ser medidas vienen correctamente expresadas por sus
ecuaciones. Estas propiedades comprenden, por ejemplo, la distancia media del
electrón al núcleo en un estado cuántico particular, y también la velocidad media
con que dicho electrón se mueve. Se observó que la distancia media entre el
electrón y el núcleo es igual a la calculada por Bohr, y que la velocidad media
cuadrática es también la misma. Sin embargo, el momento cinético es diferente y,
en particular, el electrón del átomo de hidrógeno en su estado normal no se mueve
alrededor del núcleo en una órbita de momento cinético h/2n, sino que lo hace
acercándose y alejándose del núcleo en una órbita de momento cinético nulo.
Los electrones que giran alrededor del núcleo se describen en MC por ciertas
funciones matemáticas llamadas funciones de onda. La función de onda para un
electrón se llama función de onda orbital y el electrón se dice que ocupa un orbital,
antes que una órbita. El empleo de un nombre diferente indica que el movimiento
de un electrón, según la MC, difiere un poco del movimiento según una órbita de
Bohr, que es el análogo del sistema solar. Sólo hay un orbital que posee el número
cuántico principal n=1 se le denomina orbital 1 s y se dice que constituye la capa
K. Para n=2, hay cuatro orbitales; uno de ellos posee una gran excentricidad, pero
no tiene momento cinético: se llama orbital 2s; los otros tres corresponden a una
órbita aproximadamente circular: orbitales 2p. Los tres orbitales diferentes 2p
representan distintas orientaciones de la órbita en el espacio. Estos cuatro
orbitales, un orbital 2s y tres orbitales 2, constituyen la capa L. La capa M está
constituida por un orbital 3s, tres orbitales 3p y cinco orbitales 3d.
Durante los años que siguieron a la aparición de la MC, mucha gente se ha hecho
las siguientes preguntas: ¿Consta la luz, realmente, de ondas o de partículas?
¿Es el electrón, en realidad, una partícula o una onda?
Estas cuestiones no pueden ser contestadas por una de las dos alternativas, no
aceptan una explicación mediante la lógica binaria ordinaria. Luz es la palabra que
usamos para describir una parte de la Naturaleza. El nombre se refiere a todas las
propiedades que tiene la luz, a todos los fenómenos que se observan en un

179
sistema en el que interviene la luz. Algunas de sus propiedades son semejantes a
las de las ondas, pudiendo ser descritas en función de una longitud de onda. Otras
son análogas a las de las partículas, y pueden describirse en términos de cuantos
luminosos, que tienen una cierta energía, hv, y una cierta masa, hv/c. Un rayo de
luz no es ni una sucesión de ondas ni un haz de partículas, es una combinación de
ambas.
Así mismo, un electrón no es ni una partícula ni una onda, en el sentido ordinario.
En muchos aspectos, el comportamiento de los electrones es análogo al que se
espera de las partículas pequeñas, de masa m y carga eléctrica e. Pero los
electrones difieren de las partículas ordinarias, tales como las bolas de billar, en
que también se comportan como si tuviesen carácter ondulatorio, con una longitud
de onda muy larga, dada por la ecuación de De Broglie. Al electrón y al fotón, ha
de considerarse como provistos de ambos caracteres, corpuscular y ondulatorio.
Durante el tiempo que tomó la asimilación de estas nuevas ideas acerca de la
naturaleza de la luz y de los electrones, los científicos llegaron a familiarizarse con
ellas y se apercibieron que por lo general, podía predecirse cuándo en un cierto
experimento el comportamiento de un rayo de luz podía determinarse
principalmente por su longitud de onda y cuándo por la energía y la masa del
fotón; es decir, conocieron cuándo es conveniente considerar la luz como formada
de ondas, y cuándo considerarla formada de partículas, los fotones.
Análogamente, aprendieron cuándo conviene considerar el electrón como
partícula y cuándo como onda. En algunos experimentos, ambos caracteres,
ondulatorio y corpuscular, contribuyen de forma apreciable, y entonces es necesa­
rio efectuar un razonamiento teórico cuidadoso, utilizando las ecuaciones de la MC
para predecir cómo se comportarán el fotón o el electrón.
De esto se desprenden dos preguntas: ¿Existen los electrones?. ¿A qué se
asemejan?.
La respuesta a la primera pregunta es que el electrón existe: electrón es la palabra
que los científicos han utilizado al tratar fenómenos, tales como la radiación del
tubo de descarga eléctrica, estudiada por Thomson; el portador de la unidad de
carga eléctrica en las gotas de aceite del aparato de Milikan, y la parte que se

180
adiciona al átomo neutro de flúor para transformarlo en ión fluoruro. A la segunda
pregunta -¿a qué es semejante un electrón?- no se puede contestar. Nadie conoce
su aspecto; es demasiado pequeño para ser visto por difracción de la luz visible
ordinaria y, a menos que alguien descubra algún procedimiento para estudiar la
Naturaleza, mejor que los conocidos actualmente, esta pregunta quedará sin
respuesta.
Finalmente he de resaltar que la MC ha sido capaz de modificar ese lugar que la
física anterior le había asignado al observador o sujeto, como ser extraño al
mundo que conoce y describe. Con la MC se puso de manifiesto la imposibilidad
de aislar al observador de la descripción y predicción del proceso físico. Y resulta
que éste, su nuevo papel, produjo el cisma epistemológico más significativo en la
historia de la ciencia occidental, desde los tiempos de Galileo. Luego de este
suceso el desarrollo de la física y el resto de ciencias transcurrió impulsado por un
feroz enfrentamiento entre los físicos, agrupados fundamentalmente en dos
bandos: el grupo dirigido por Einstein y el grupo de Copenhague encabezado por
Niels Bohr. ¿Cuáles fueron los principales motivos de tan acalorada
controversia?. Mencionemos primero la certera objeción de Enistein: «...la MC no
permite una directa descripción de las trayectorias cuánticas, esto es, hace caso
omiso, del sistema de coordenadas espacio-tiempo de referencia». En otras
palabras, la mecánica del átomo sólo es posible mediante la descripción del
cambio de estado que este sufre y no con la descripción del cambio de las
trayectorias de los electrones.
Esta insatisfacción del marco de referencia espacio-tiempo para la descripción del
mundo fue pronunciado, con dramática elocuencia, por Luois de Broglie en el
congreso de filosofía de Amsterdam, realizado en 1948, cuando dijo: « ... los
datos de nuestras percepciones nos llevan a construir un cuadro del espacio y el
tiempo en el que todas nuestras observaciones pueden localizarse. Pero el
progreso de la física cuántica nos lleva ha pensar que nuestro cuadro del espacio
y el tiempo no está adecuado a la verdadera descripción de las realidades en
escala microscópica. Sin embargo, no podemos pensar de otra manera que no
sea en términos de espacio y de tiempo, y todas las imágenes que podemos

181
evocar están ligadas a ellos. Además, todos los resultados de nuestras
observaciones, incluyendo los que nos proporcionan el reflejo de las realidades
del mundo microscópico, se expresan necesariamente en el cuadro del espacio y
del tiempo. Es por ello que tratamos, bien que mal, de representarnos las
realidades microscópicas (corpúsculos o sistemas de corpúsculos) en el seno de este
cuadro al que no se adaptan»
Es fácil percatarse que este sinsabor epistemológico yace en el fondo de la crítica
einsteniana a la MC. Teoría que, por lo mencionado, no es un sistema sólidamente
construido; ya que, el único pilar ontológico en el que descansa (el principio de
incertidumbre), que mide el grado de deformación o perturbación que sufre la imagen
del hecho atómico por acción de observador, expresa sólo el esfuerzo que éste
hace para aumentar la incertidumbre sobre el futuro y no el esfuerzo que hace por
disminuirla. Hay que tomar en cuenta que en el primer caso el observador perturba
lo que observa a través de una extensión mecánica (instrumentos de medición) y no
directamente con sus propios sentidos, haciendo que el sujeto permanezca como
si tuviese la condición del Dios del Génesis y actúe persistiendo en el deliberado
propósito de representar los hechos cuánticos que son discretos, en un espacio
continuo diferenciable como el E.M.R.Occ. Hacer lo otro, esto es, concretar el
esfuerzo para disminuir la incertidumbre sobre el futuro, implica la participación
total del sujeto en el fenómeno estudiado, él tendrá que estar difundido, inmerso
en la totalidad sujeto-objeto, teoría-práctica. Hay que aclarar que cualquier
observador no estará en condiciones de realizar esta práctica científica, tendrá
que ser un individuo especial, que haya desarrollado un sistema sensitivo de
manera consciente, científica; así como lo hizo la ciencia americana precolombina,
por ejemplo. Entonces, cabe concluir diciendo que el dualismo onda-partícula que
la mecánica cuántica atribuye a la naturaleza misma de la luz, es una
consecuencia de esta señera dificultad que hemos señalado y que recordamos
cuando del pensamiento de Zenón estuvimos hablando.
Podemos considerar, el punto de partida del histórico debate sobre este
monumental tema, el Congreso Solbay de 1927. De aquí en adelante la ciencia

182
occidental ha realizado extremados esfuerzos para superar esta poderosa
antinomia.
Fue, justamente, Werner Heisemberg uno de los principales interesados. Él
introdujo el concepto de "longitud más pequeña” o cuanto de longitud para resolver
ciertos problemas de la electrodinámica cuántica, concepto que sugiere un
referente espacial de carácter discreto, en contraste con el de la teoría
electromagnética de Maxwell. ¡El EMROcc se había convertido en un verdadero
obstáculo epistemológico!. Los científicos occidentales se encontraban
desconcertados, desanimados y tristes. Era una situación de absoluto vértigo,
donde la luz que iluminaba la mente se había apagado. De aquí al futuro ellos
buscarán espacios alternativos de representación para poder continuar con sus
respectivos trabajos y ya no creerán en el carácter absoluto y único del EMROcc.

1. 4 3 El Caos Determinista
Con este nombre, en sí mismo paradójico, se alude al comportamiento errático
que presentan ciertos procesos llamados "caóticos”, que en general pueden ser
descritos mediante ecuaciones diferenciales no lineales y tienen la peculiaridad de
ser muy sensibles al cambio de las condiciones iniciales que originan su evolución,
ya que son procesos muy inestables, demasiado frágiles. En el estricto orden de
los conceptos, la palabra caos suscita en nuestra mente una situación aleatoria en
la cual toda previsión es imposible y donde no hay cabida para el determinismo.
Sin embargo, hay situaciones en las que el proceso, pese a estar regida su
evolución por leyes estrictamente definidas, deterministas, se muestra, a largo
plazo, extremadamente desordenado. Este comportamiento presentan no sólo los
sistemas complejos sino también los sistemas mecánicos más simples. El
descubrimiento de comportamientos erráticos en sistemas que no están sometidos
a fuerzas irregulares o estocásticas, sino por el contrario regido por leyes
deterministas, ha dado ocasión a que se ensaye un "nuevo paradigma” en el
escenario ideológico de Occidente, llamado "caos determinista”. Veamos su
historia.

183
Fue el gran matemático francés Henri Poincaré ( 1 8 5 4 -1 9 1 2 ), a fines del siglo XIX,
quién colocó la primera semilla que dio origen a esta nueva vena investigativa que
indaga los sistemas dinámicos, sean cuánticos o no, que evolucionan del régimen
laminar al régimen turbulento. En el estudio de los sistemas dinámicos Poincaré
fue un gigante, abordó los problemas clásicos con enfoques totalmente
innovadores, logró desentrañar cuestiones hasta entonces inextricables haciendo
intervenir a la intuición geométrica en la aprehensión de la situación; así fue cómo
desarrolló la Topología o geometría cualitativa (cuyos primeros elementos fueron colocados
por b. Riemann en 1851) que estudia los conceptos de contigüidad, adyacencia, punto-
límite o punto de acumulación, conexión, etc. que entran en juego en las
matemáticas que describen las leyes que rigen las deformaciones continuas que
sufren las estructuras geométricas.
Jacques Hadamard (1865-1963) nos cuenta que Poincaré eligió sus temas de
estudio considerando las necesidades de la ciencia y no sus deseos personales.
En su tiempo era imperativo encontrar soluciones generales a las ecuaciones
diferenciales; puesto que, los matemáticos, de Cauchy a Weierstrass, sólo habían
creado métodos locales de cálculo; así, situándose en el entorno de un punto
determinado del EMROcc, demostraban la existencia de soluciones en las
proximidades de dicho punto y, luego, unían estos fragmentos de solución para
obtener soluciones completas. A diferencia, H. Poincaré hizo uso de la Topología
para alcanzar este objetivo, cuando adoptó un enfoque cualitativo del problema.
Veamos en que consistió.
Consideremos la ecuación diferencial de primer orden: dX/X(x,y)=dY/Y(x,y) donde
X e Y son polinomios en x e y. Las curvas-solución o curvas integrales de esta
ecuación son curvas del plano, tales que en cada uno de sus puntos (x 0 , y0 ), la
recta tangente tiene por pendiente Y(x0 ,y0 )/X(x0 ,y0 ). Poincaré comenzó estudiando
sistemáticamente las singularidades de las funciones o curvas-solución, como son
las situadas en la intersección de las curvas X(x,y)=0 e Y(x,y)=0. Entonces, según
la configuración de las curvas integrales en las proximidades de éstas, distinguió
cuatro tipos: los nodos, las ensilladuras o puertos, los focos, y los centros.

184
Una vez que hubo precisado estas distintas clases de singularidades de la
solución de una ecuación diferencial, procedió a determinar las posiciones
relativas de las curvas-solución. Introdujo para tal propósito la noción de arco
transverso, o arco de curva que no es tangente en ningún punto de la curva. Esta
sucesión de intersecciones de una curva integral con un arco transverso, redujo el
estudio de la curva en el plano al de la sucesión de puntos en una línea.
El teorema que demostró y que rige esta técnica de cálculo reza: « Toda curva
integral que no tiende hacia un punto singular, es un ciclo, una espiral que se
enrolla asintóticamente alrededor de un ciclo-límite» Los ciclos-límite y los arcos
transversos dividen el plano o la esfera en regiones y conducen, partiendo del
comportamiento en las cercanías de los "puntos singulares”, a un retrato
cualitativo global bastante preciso de las curvas integrales. Este teorema es válido
para el plano y la esfera y el concepto de ciclo límite es la primera semilla, distinta
de un punto-límite, de lo que actualmente se denomina atractor. Poincaré había
concebido el estudio cualitativo de las ecuaciones diferenciales en relación con la
estabilidad de nuestro sistema solar. Esta estabilidad es una determinación
cualitativa global de las trayectorias espacio-tiempo de los planetas que no puede
ser establecida únicamente con los métodos analíticos cuantitativos. Él abordó el
problema en su célebre memoria Sobre el problema de los tres cuerpos y las
ecuaciones de la dinámica y Los nuevos métodos de la mecánica celeste. El
problema de los N cuerpos consiste en el estudio de N masas puntuales
moviéndose en un campo gravitatorio homogéneo. Si hacemos abstracción de la
acción de lunas, asteroides y cometas, el caso de nuestro sistema solar se reduce
a nueve planetas y el Sol, o sea, N=10; empero, el problema se torna
extremadamente difícil de resolver. Desde Newton se sabe que el problema para
N=2 se resuelve explícitamente y conduce a las leyes deterministas de Kepler. En
el caso siguiente, para N=3, como hubo que considerar la influencia mutua de los
planetas, el problema se complicó demasiado y resistió a los esfuerzos
desplegados por los matemáticos que no consiguieron descubrir un número
suficiente de "integrales primeras” (o sea, de funciones que conservan el mismo valor a lo largo de
las trayectorias) a fin de reducirlo a integraciones ordinarias. Hay que aclarar que

185
Poincaré comenzó a resolverlo, dejando sentado que las únicas "integrales
primeras” son las que corresponden a las leyes de conservación de la energía, de
la cantidad de movimiento y del momento cinético. Así planteado el problema, es
irresoluble, pues no es integrable. Ahora bien, en vista de que el estudio de los
"puntos singulares” resultó ser insuficiente para resolverlo, Poincaré decidió partir
de las soluciones periódicas (en las que los distintos puntos móviles describen trayectorias cerradas,
desde un sistema de coordenadas de referencia apropiado) y, luego, utilizarlas para estudiar las
demás soluciones. Se trata, dijo, «de la única brecha por la cual podamos intentar
penetrar en una plaza hasta ahora considerada como inexpugnable» Estudió qué
ocurría en las proximidades de una trayectoria T de manera análoga a cómo lo
había hecho en las cercanías de los "puntos singulares”. Su enfoque metodológico
era local, ya que se mantenía en las proximidades de T; pero a la vez global, ya
que se desplazaba a lo largo de T.
Así fue cómo combinó las ventajas de ambos métodos, articulando de manera
complementaria las categorías de cantidad y calidad. Eliminó de este modo todo
primado cuantitativista de las matemáticas y llamó la atención a cerca de que la
ciencia, hasta el momento, ha abordado el estudio de dos clases de movimientos:
el de cambio de posición y el de cambio de estado. El primer tipo de movimiento
nos sugiere una noción cuantitativa del tiempo (t). En esta dimensión él se
encuentra espacializado, al modo de una regla circular graduada, ya que lo que
varía es el espacio. Es el tiempo sugerido por el movimiento de los astros, es
aquel que marca el reloj mecánico o electrónico. A diferencia, el segundo, suscita
en la conciencia una noción cualitativa de él (t ). En contraste, en esta dimensión
se halla temporizando al espacio, cambiándolo de aspecto, como por ejemplo en
el cambio climático, en el envejecimiento, en la maduración de las frutas, etc. El
uno cambia con el espacio, el otro cambia al espacio. El cuantitativo es reversible
y se lo expresa como una cantidad escalar, razón por la que hay simetría entre el
pasado y el futuro. En cambio, el cualitativo se expresa como un vector, es
irreversible y pasado y futuro son asimétricos. Cuando a los procesos nos
referimos, el reversible marca la duración y el irreversible la sucesión de éstos.

186
Como por ejemplo en el cambio climático, en el envejecimiento, en la maduración
de las frutas, etc.
En los procesos reales las dos clases de movimiento se encuentran actuando
conjugadamente. Esto obliga a que en la modelación matemática de los procesos
deba incluirse las dos clases de espacio-tiempo para tener una imagen completa y
una buena resolución del modelo y, así, estar en buenas condiciones de realizar
predicciones confiables. Hoy podemos comprender porqué los puntos de vista
innovadores de Poincaré están en el centro de las actuales investigaciones sobre
los sistemas dinámicos.
La historia evolutiva del "nuevo paradigma” continúa con el significativo aporte de
A.M. Lyapunov (1 8 5 7 -1 9 1 8 ) sobre la estabilidad estructural de los sistemas
dinámicos. Así por ejemplo, el concepto de exponente de Lyapunov se ha
convertido en fundamental para la teoría del caos. Este exponente mide la rapidez
con la que aumenta o disminuye una fluctuación que acaece en un sistema
dinámico. Vale decir también, que señala la diferencia entre orden y caos.
Con los trabajos del matemático Andrei Kolmogórov ( 1 9 0 3 -1 9 8 7 ) y del físico Lev
Landau sobre el fenómeno de la turbulencia se impulsa la investigación de los
sistemas caóticos durante los años treinta y cuarenta.
Kolmogórov hizo un aporte de gran magnitud a las ciencias al axiomatizar la teoría
de probabilidades y así posibilitar la teoría de la medida, de la integración y de los
procesos estocásticos o aleatorios. Pero al modelar matemáticamente la
turbulencia sólo vio homogeneidad en ésta.
A diferencia, L. Landau propuso un modelo que explicaba la relación entre un flujo
regular y otro completamente turbulento: en el fluido aparecían unas nuevas
frecuencias de oscilación, correspondientes a numerosos grados de libertad, que
compiten entre sí y se acumulan una sobre otra, hasta que el movimiento estalla
en una cohorte de flujos desordenados e incoherentes, bien como nudos, bien en
zig-zag, bien en varicosis sesgada. Para Landau se trataba de un modelo
universal, así, todo sistema que se volvía turbulento tendría que seguir el mismo
camino. Esta imagen, muy clara, tuvo una duradera aceptación en el mundo
científico. Se comprende que el modelo de Landau, elegante y todo, resultase

187
inútil a la hora de la aplicación práctica, ya que, si las ecuaciones que caracterizan
el comportamiento de los fluidos son diferenciales parcialmente no lineales, por lo
común insolubles explícitamente, ni siquiera cabe imaginar la magna complejidad
de todo un gran paquete de diferenciales correspondientes a las sucesivas
frecuencias de oscilación que se traslapan. Para el caso ni un ordenador
supergigante sería de utilidad.
Sin duda, la dificultad señalada no hace sino advertirnos que estamos frente a una
importante limitación a la modelación que trabaja con espacios métricos
diferenciables. De aquí que, para progresar en la comprensión del fenómeno de la
turbulencia haya sido preciso sustituir el enfoque y empezar por entender el
tránsito del flujo laminar al turbulento como una transición de fase, de modo que la
simulación disfrute de soporte en las técnicas constructivas del espacio de fases.
A simple vista parece que no fuera posible hablar de transición de fase ya que la
sustancia del fluido permanece inalterada al pasar de una situación regular a una
turbulenta. Es verdad que no hay ningún cambio en la calidad del fluido, pero sí lo
hay en la calidad del movimiento. Más todavía, fue el haber entendido que la
aparición de la turbulencia significaba, de hecho, la irrupción de un nuevo orden
dinámico, lo que llevó a los metereólogos David Ruelle y Floris Takens a proponer
un modelo diferente al de Landau, en el que bastan tres grados de libertad para
conseguir generar la turbulencia, y en el que el movimiento turbulento deja de
obedecer al atractor periódico presente en el flujo laminar para organizarse según
un nuevo atractor, extraño, que emerge como alguien que no ha sido invitado a la
reunión y cuya irregular figura se hace visible sólo en el espacio de fases. Este
espacio permite visualizar la forma que tiene la historia evolutiva del sistema, para
ello se almacena toda la información acerca del él en un punto del espacio de
fases, donde cada punto representa el estado en el que se encuentra el sistema
en ese preciso momento. Por ejemplo, el trazo dejado por un péndulo oscilante
que se mueve sin fricción será una curva cerrada que se repite una y otra vez.
Pero, si el péndulo se mueve con fricción, la curva resultante será una espiral cuyo
diámetro va disminuyendo de manera continua, hasta agotarse en un punto

188
interior, como si fuera atraído por él. Es el atractor periódico de la trayectoria
espacio-tiempo del sistema.
Este agrietamiento en el pensamiento de Occidente se mostró en toda su
gravedad al despuntar la década de los sesenta, (con los trabajos de Edward Lorenz del
M.I.T en 1963 y luego con los de David Ruelle y Floris Takens del Bures-sur-Yvette en 1971, sobre el tiempo
climático y sobre la turbulencia), cuando un gran número de científicos se convencieron
de que en la realidad existen sistemas de los que se espera describir sus
trayectorias espacio-tiempo mediante unas pocas ecuaciones diferenciales muy
simples y, sin embargo, no se puede, por que éstas presentan, a largo plazo y por
contra, una evolución errática e impredecible. Supongamos por ejemplo, los
movimientos de un sistema formado por tres cuerpos celestes, bajo el efecto
exclusivo de las fuerzas gravitatorias. En el observaremos que, a largo plazo, las
trayectorias espacio-tiempo se van deformando hasta el rompimiento de la
simetría del sistema (singularidad) y éstas se vuelven tan imprevisibles como lo son
en los sistemas más complejos. O, el caso de un cigarrillo humeante que está
descansando en el borde de un cenicero donde no hay agitación del aire. El
experimento nos muestra que el flujo de humo atraviesa por tres estados distintos
claramente visibles: el primero, es el tramo de flujo laminar (el más largo y el que más
dura) donde las moléculas de humo se mueven una detrás de otra casi con
velocidad uniforme y en línea recta y se extiende desde la punta del cigarrillo
hasta el lugar en que el flujo cambia la calidad de su movimiento y se vuelve
turbulento. El tramo turbulento, a su vez, cambia la calidad de su movimiento y se
vuelve disperso, verdaderamente caótico. El tercer tramo será entonces una
totalidad con características estadísticas.
Los sistemas donde rige el "caos determinista”, se comportan de este modo si al
menos se cumplen tres condiciones:
La primera es su dependencia sensitiva a las condiciones iniciales, que hace que
un mismo experimento evolucione de distinta manera si es realizarlo en dos
instantes distintos del tiempo. En un proceso determinista si se empieza con unas
condiciones iniciales próximas y gobernadas por el mismo atractor, las trayectorias
en el espacio de fases acaban convergiendo hacia el mismo punto fijo o ciclo

189
límite, y las distintas trayectorias se encuentran desfasadas en el tiempo unas con
respecto a otras. En cambio, en los procesos caóticos las trayectorias se separan
muy rápidamente y al cabo de un tiempo bastante corto parecen no tener nada en
común, excepto su proximidad al atractor extraño. Este fenómeno en meteorología
ha recibido el nombre de "efecto mariposa” y consiste en que la perturbación que
provoca el aleteo de una mariposa en China podría modificar la evolución del
clima hasta el punto de producir una tormenta al otro lado del mundo. O, si en la
Tierra hubiera nacido la vida minutos antes o minutos después, ésta no sería como
es hoy.
La segunda condición consiste en el comportamiento no-lineal de la dinámica, que
hace que los efectos no sean proporcionales a las causas y que por tanto el
sistema tenga un amplio espectro de creatividad (la no-linealidad conlleva un escollo
imposible de salvar para el determinismo y consiste en que a las ecuaciones diferenciales no-lineales no
podemos encontrarlas soluciones que sean únicas. Resulta por ejemplo que la suma de las soluciones
particulares no es necesariamente una solución, más bien se obtienen soluciones inesperadas. Así, los
sistemas lejos del equilibrio termodinámico suelen ser inestables, no-lineales y es la sinergética la que nos
permite clasificar sus posibles inestabilidades con ayuda de la noción de parámetro de orden) y, por
último, el hecho de que la geometría apropiada para describir el cambio de estado
o fase de transición pueda ser representada por funciones de dimensiones
fraccionadas. Se alude a la geometría fractal o geometría de la naturaleza. Se
trata de la física de los seísmos y de los meandros del tracto digestivo, de la
evolución de los precios de las mercancías y del ritmo cardíaco, de los
desplazamientos nubosos, los copos de nieve, los despliegues arborescentes, el
rompimiento de las olas, los torbellinos y la morfogénesis. Al fin, se trata, de la
familiar, inmediata y circundante naturaleza, tal como se presenta, con su
indomable textura y sus sorpresivos sobresaltos.
El "caos determinista” es, el hallazgo del caos en medio del orden; es el estado
turbulento en medio del estado laminar del fluido. Perturbadora constatación que
ha despertado el interés de los investigadores a orientar sus acciones en pos de
encontrar el orden subyacente a ese caos.
Es preciso anotar que la diferencia con la MC consiste en que, en el caos
determinista, falta la presencia del observador para alcanzar más precisión en la

190
predicción, las ecuaciones diferenciales no son suficientes por si solas; mientras
que en aquella sobra su presencia para lograr lo mismo. Este hecho muestra que
en el corazón del paradigma de Occidente se ha producido un infarto, al unísono y
en el mismo espectro del determinismo. Ambas dificultades borrascosas
ocasionaron igual reacción de sorpresa y vértigo, pues, en las dos teorías fallaba
su capacidad predictiva. Es decir, había sido cuestionada su condición de teorías
científicas. Tuvo que también modificarse el sistema de referencia, particularmente
en el concepto de tiempo. Esto debido a que al atractor periódico y atractor
extraño les correspondían
dos clases de tiempo. Así, durante la fase laminar el movimiento transcurre de
manera natural, ligado a las propiedades del fluido, y la periodicidad del atractor se
revela si empleamos el tiempo marcado por un reloj. Pero, si en la fase turbulenta
insistimos en entender de la misma manera, sólo hallaremos ruido incomprensible,
ritmos trastrocados, nada del orden que se revela. En cambio, bajo la forma de
atractor extraño, figura que posee la propiedad de homotecia8 (fractal), las
fluctuaciones del movimiento, características de la turbulencia, tienen el mismo
aspecto observadas desde cualquier escala del tiempo métrico, no dependen de
éste.
Como es de esperarse, los movimientos caóticos ponen en juego de varias
maneras a la dimensión fractal: la evolución temporal tiene propiedades fractales y
el atractor extraño es autosimilar y por tanto de estructura geométrica fractal
debido al repliegue que sufren las trayectorias.
Por consiguiente, éstas propiedades universales constituyen un medio para
reconocer el caos y caracterizar éstos fenómenos que resultan incomprensibles si
hacemos uso del E.M.R.Occ. Así, cuando el investigador está ante un sistema del
que sospecha tiene carácter caótico, trata de dar con un atractor extraño, pues es
la huella que deja el caos determinista. Pero cómo reconocer al atractor extraño y
su dimensión cuando no se conocen los parámetros de orden y todavía menos su
dinámica.
8 Se dice queun cuerpo tiene una estructura geométrica fractal (usando el término introducido en
1975 por el matemático francés B. Mandelbrot) cuando posee la propiedad de autosimilitud u
homotecia.

191
Con el propósito de resolver éste problema, F. Takens desarrolló un método para
reconstruir las elusivas trayectorias en el espacio de las fases. Este autor de­
mostró que se obtienen las propiedades principales sustituyendo el espacio de las
fases por un espacio de N dimensiones cuyos ejes representan una sola de las
variables accesibles a la experiencia, pero medida en N instantes sucesivos
separados por un tiempo fijo dado. El punto que representa al sistema en este
espacio describe en el tiempo una trayectoria de la que Takens ha demostrado
que posee las mismas propiedades topológicas que la trayectoria en el espacio de
las fases. La dimensión N de este espacio, claro está, se elige a priori. Lo fun­
damental para que los investigadores sean capaces de encontrar el atractor, hacia
el cual tienden las trayectorias, es que el espacio sea de dimensión superior al
espacio de las fases real, una dimensión que no se conoce al principio, pero que
se descubre examinando las propiedades de las trayectorias en dimensiones cada
vez mayores.
Es un método que se ha aplicado al análisis de los electroencefalogramas, por
ejemplo. Éstos, compuestos por trazados irregulares que dan las variaciones del
potencial eléctrico en diversos sitios de la superficie del cráneo, reflejan la
actividad cerebral. En 1986, A. Babloyantz, de la universidad libre de Bruselas,
estudiando estos trazados, encontró una dimensión de cinco para el espacio de
las fases, la cual es relativamente baja. Desde otro punto de vista, el análisis ha
partido de la idea de que el cerebro es un sistema complejo que en determinadas
circunstancias puede regirse por algunos parámetros de orden. Ello significaría
que los distintos estados eléctricos del cerebro en distintos lugares no son
independientes, sino que están fuertemente correlacionados. Por esto podemos
representar el estado eléctrico del cerebro como la superposición de algunas
distribuciones globales de potencial eléctrico, cada una de las cuales
correspondería a un cierto parámetro de orden.
Pero quedan todavía en el camino varios obstáculos muy importantes. El primero
es la determinación precisa de la dimensión del espacio de las fases. J.P.
Eckmann, de la universidad de Ginebra, y D. Ruelle han demostrado
recientemente que la dimensión podía subestimarse si no se tomaban suficientes

192
puntos experimentales. Pero si se toman muestras con intervalos de tiempo de­
masiado cortos se puede creer detectar unas oscilaciones coherentes que en
realidad no existen. El único método consiste en proceder a realizar medidas para
largos períodos de tiempo. Sin embargo, no dejan de producirse nuevos efectos a
causa de que el sistema ya no es realmente estacionario y se muestra sensible a
una actividad neuronal a nivel microscópico. Ello obligaría a que los parámetros de
orden saltaran de un atractor a otro de un modo más o menos aleatorio.
Aunque la comprensión de la actividad eléctrica del cerebro, en términos de siste­
mas dinámicos, plantea todavía muchos problemas, pudiera ser que suministran
un armazón interpretativo de su funcionamiento y tal vez de diagnóstico de
determinados trastornos. En otros campos, y especialmente en física, la utilización
de la teoría del caos, mucho más desarrollada, ha producido descubrimientos
mucho más interesantes como el caso de los láseres y de las reacciones químicas
oscilantes.
Desde que inventaron el láser, los investigadores han constatado que en su
funcionamiento se presentan ciertas inestabilidades cuyo origen permaneció largo
tiempo sin explicar. El caos de un láser puede aparecer simplemente cuando uno
de los espejos está un poco desajustado y no refleja exactamente la luz hacia el
interior del tubo. A partir de 1982 varios grupos, actuando sobre los parámetros
más fiables, consiguieron estudiar el caos en los láseres mediante el método de
las series temporales que describimos, estos grupos lograron trazar el atractor
extraño que sigue el láser, en un espacio de sólo tres dimensiones, de confor­
midad con la teoría que prevé tres parámetros de orden. Se han observado
distintas formas de caos en los láseres, que parecen ser sistemas apropiados para
el estudio de este fenómeno debido a que los parámetros de orden son bien
conocidos teóricamente y fáciles de controlar.
En un campo cercano, se encuentran las reacciones químicas oscilantes, des­
cubiertas por Belusov y Zhavontinsky en 1950, que también son sistemas abiertos
alejados del equilibrio termodinámico. Imaginemos una reacción química en la que
se combinan dos sustancias, una compuesta por moléculas de color azul y la otra
con moléculas de color rojo. Si la mezcla se encuentra en equilibrio termodinámico

193
ésta mostrará una coloración pardusca, como un resultado estadístico; pero, si
ésta se encuentra suficientemente alejada del equilibrio termodinámico,
sorpresivamente, se mostrará como una mezcla que se torna, sucesiva y
periódicamente, ora del rojo al azul, ora del azul al rojo, como si fuese un reloj
químico, como si las moléculas se comunicasen entre sí y decidieran sincronizarse
en bandas cromáticas alternantes. Este fenómeno en su tiempo resultó
impactante, parecía ser una suerte de arte de taumaturgia, pero es un magnífico
ejemplo donde la no-linealidad y la irreversibilidad del tiempo se hacen evidentes,
muestran sus huellas en un mismo paisaje. En éste caso la irreversibilidad se
revela bajo una configuración espontánea, bajo una autoorganización de la
materia.
Basándose en la teoría del caos, los investigadores han mostrado que las
irregularidades que aparecían de vez en cuando en los osciladores químicos eran
manifestaciones del caos determinista. Pero hacen falta no menos de siete
parámetros de orden para obtener una representación satisfactoria de la realidad
química. Estos ejemplos, tomados de campos muy distintos, muestran hasta qué
punto el concepto de caos determinista ha pasado del estadio de teoría ma­
temática con aplicaciones hipotéticas al de instrumento de diagnóstico que sirve
para la caracterización de sistemas complejos en términos de exponentes de
Liapunov, dimensiones fraccionadas, atractores, etc. Los estudios de vibración de
motores, de carrocerías de automóviles o de alas de avión, lo mismo que de
ciertas fluctuaciones de circuitos electrónicos, también pueden beneficiarse en
gran medida de un análisis basado en la teoría del caos. Si la física abunda en
fenómenos potencialmente caóticos, y que sólo recientemente empiezan a
comprenderse bien, hay otros muchos dominios igualmente involucrados, como
las ciencias de la tierra y del espacio, la dinámica de los océanos, el clima, el
estudio de las manchas solares o la dinámica de las poblaciones animales y
humanas. En medicina y fisiología se han encontrado comportamientos caóticos
no sólo en los trazados electroencefalográficos, sino también en los ritmos
cardíacos, en las variaciones de la presión sanguínea o de la concentración
hormonal y ello, sorprendentemente, en sujetos sanos.

194
En economía, como en otros tantos campos, nos vemos obligados a renunciar a la
predicción a largo plazo. No obstante, la teoría del caos puede ayudar a evaluar la
capacidad predictiva de un sistema: ¿para cuánto tiempo podremos realizar
predicciones?, ¿qué desviaciones se esperan alrededor de un cierto valor medio?,
o ¿cuál será el comportamiento del sistema promediado en un determinado
periodo de tiempo?. Podemos también aprender a dirigir los sistemas ya no
mecánicamente sino utilizando sus propias facultades de autoorganización y
ajustando unos adecuados parámetros de control. Así, compenetrándose más
profundamente con las regularidades de la naturaleza, los científicos se ha
encontrado con las limitaciones fundamentales para su comprensión y para la
previsión cuando usamos el E.M.R.Occ.
De lo examinado podemos concluir diciendo que el “caos determinista” ha
penetrado con fuerza corrosiva el paradigma epistemológico de Occidente, aquel
que le legara la Grecia Clásica, haciéndonos pensar que nadie escuchó, que en
medio de la imperturbable melodía del determinismo trascendente y celestial,
crepitaba un ruido telúrico desconcertante. También hemos podido ver que el
científico occidental está obligado ha realizar una traducción para entender el
caos, cuando hace uso del espacio de fases, el cual ha sido definido en el
E.M.R.Occ y permite representar el hecho caótico de manera indirecta, mediante
gráficas complicadas totalmente abstractas que hay que interpretar. Resulta pues,
que la turbulencia es caos sólo si se la observa desde el orden laminar.
Conclusión que nos lleva a la necesidad de relativizar la Teoría General de la
Relatividad en cuanto ésta ha atribuido como propio de la naturaleza, de la
materia, un concepto de espacio-tiempo que hoy se nos muestra afincado en el
observador Occidental, como culturalmente relativo.
Hemos constatado que los comportamientos físicos que han escapado a la
modelación métrica continua y absoluta, han sido catalogados bien como
singularidades, bien como caos. Sin embargo dichos comportamientos son los del
mundo inmediato, directo y tangible; frente a ellos, la geometría euclidiana y el
orden reversible aparecen como una extraña, alucinante y enajenante ficción.
Pues, ¿donde podemos encontrar triángulos perfectos? ¿dónde podemos

195
observar el retorno a la exacta situación inicial?, ¿no es fundamentalmente distinto
el ayer del mañana?, ¿no se frenan los péndulos y caen las cosas con desigual
aceleración? ¿no resulta absurdo entonces, querer hacer justicia entre los
hombres con la Ley Divina?

1. 4 4 Estructuras disipativas y Catástrofes


Surgieron varias teorías junto a las de Takens y Ruelle durante los años sesenta y
setenta que intentaron explicar los conceptos de turbulencia, orden y organización.
Por lo menos, dos de ellas (nacidas, la una de la física y la otra de las matemáticas) han
conseguido concitar el interés de la comunidad científica y producir un volumen
notable de literatura de investigación. Hacemos alusión a la termodinámica no
lineal de los procesos irreversibles (TNLPI) y a la teoría de catástrofes (TC). Ilya
Prigogini es el autor de la primera y recibió el premio Nobel de química en 1977
por este meritorio trabajo, mientras que René Thom es el autor de la segunda y
recibió, el premio equivalente al Nobel en matemáticas: la medalla Fields. A pesar
de ciertas semejanzas entre ambos modelos, existe una total discrepancia en
cuanto al verdadero papel que juega el incidente azar en sus respectivos modelos.
La TNLPI es la continuación lógica de la termodinámica lineal y describe la
aparición de nuevos estados de la materia en unas condiciones especiales de
disipación y no-Iinealidad de las fenomenologías. Las nuevas y sorprendentes
organizaciones espacio-temporales, se llaman estructuras disipativas y
constituyen aquellos sistemas dinámicos situados lejos del equilibrio
termodinámico y mantenidos por el consumo y la disipación constante de energía.
Éstas pueden visulizarse como auténticas rebeliones contra las ligaduras
exteriores, en contraste con la adaptación a ellas que caracteriza el orden
termodinámico lineal de Boltzmann. Esto, en principio, justifica el uso del término
“auto-organización” que suele aplicarse a este caso.
Hay que señalar que, al considerar sistemas disipativos que dependen de
parámetros y bajo condiciones adecuadas, se pasa de atractores extraños a
atractores periódicos con sólo ejecutar pequeñas variaciones de los parámetros.

196
Existen numerosos campos de aplicación científica donde el modelo
termodinámico construido por Prigogine ha tenido ampliado uso y un éxito
realmente descollante. Así, por ejemplo, en la cinética química, con la reacción de
Belusov-Zhabotinsky, en la bioquímica del metabolismo, con el Brusselator, en
hidrodinámica con la convección de Bénard, en ecología, en la organización de
insectos sociales, en el urbanismo, en lo que tiene que ver con el crecimiento de
las ciudades, en ciertos modelos prebióticos como el de Eigen. Esto ha llevado a
que se acreciente continuamente el interés de los científicos por esta descripción
termodinámica.
En lo que atañe a la TC, ésta nace de la conjugación de varios precedentes
matemáticos y se trata de un método más descriptivo y taxonómico antes que
predictivo. Es un legado de la teoría de aplicaciones diferenciales fundada por
Wigner en 1964 y desarrollada posteriormente por René Thom, uno de los
protagonistas del "boom” de la topología algebraica de los años 50 y, sobre todo,
de la teoría de la estabilidad estructural o dinámica cualitativa, creada en 1935 por
Andronov y Pontriaguin y desarrollada más tarde por Lefshetz y Peixoto. Esta dis­
ciplina es capaz de describir los procesos morfogenéticos de la naturaleza (los de
embriología en especial) en los casos en los que un flujo continuo de causas (laminar)
produce efectos de cambio brusco y discontinuo (turbulento). Estas situaciones
fluctuantes, que sorprenden nuestra intuición (sino estamos culturalmente habituados a ellas),
reciben el nombre de catástrofes y se encuentran situadas en las proximidades de
alguna singularidad del EMROcc.
R. Thom, al comenzar la elaboración de TC, previamente deja establecida una
decisiva aclaración: «El enfoque que considera que los procesos subatómicos
requieren de modelos indeterminados y los macroscópicos de modelos clásicos,
deterministas, es producto de una visión libresca y esencialmente falsa»
Bajo esta premisa desarrolla la TC basándose en profundos e intrincados
teoremas de la geometría de muchas dimensiones y ofrece una eficaz clasificación
de estos casos críticos en siete tipos primordiales de catástrofes, llamados las
siete catástrofes elementales.

197
Recordando que a escala macroscópica, gran número de fenómenos presentan
una cierta inestabilidad debida al hecho de que las simetrías iniciales se deforman
tanto que se desvanecen. Así, un disco homogéneo abandonado en caída libre en
el aire a partir de una posición horizontal describe al final del trayecto, una hélice;
una bañera llena de agua, al destapar el desagüe central, da origen a la rotación
del líquido cuyo sentido es imprevisible desde la óptica de lo laminar. En todos los
casos de este género, ínfimas variaciones de las condiciones iniciales pueden
conducir a variaciones muy grandes en la evolución posterior, como ya nos
enteramos. En todos estos casos es posible postular que el fenómeno está
determinado; pero esta es una posición francamente metafísica, inaccesible a toda
verificación experimental. Pues, si nos contentamos con propiedades
experimentales controlables, nos vemos obligados a reemplazar la hipótesis no
comprobable del determinismo por la propiedad experimentalmente verificable de
la “estabilidad e s t r u c tu r a lPor esto, decimos que un proceso P es
estructuralmente estable si una leve variación de las condiciones iniciales da
origen a un proceso P’ isomorfo con P (en el sentido de que una pequeña transformación en el
espacio-tiempo -un pequeño homeomorfismo geométrico- devuelve el proceso P’ al proceso P) Esto nos
conduce del modo más natural a la noción de creodo9 de Waddington, de campo
morfogenético en general.
Dicho de la manera más general un campo morfogenérico sobre un abierto U del
espacio-tiempo consiste en un modelo universal del que está copiado el modelo
dado. Por esto es estructuralmente estable y expresa simplemente el hecho de
que un proceso acontece conforme a un modelo concebido a priori, y ello de modo
estructuralmente estable. Así, el científico obra ante todo proceso natural
primeramente aislando las partes del dominio en las que se presenta como
estructuralmente estable, los creodos del proceso, islotes de determinismo separa­
dos por zonas estructuralmente inestables de incertidumbre. Así, mediante el uso
de modelos dinámicos, intentamos dividir cada creodo en creodos elementales
asociados a lo que Thom ha llamado catástrofes elementales, y después organizar9

9 Creodo, en la obra de C. H. Waddington Introduction to Modern Genetics, significa “vía de


desarrollo” en el sentido de que un creodo estará asociado con un atractor de la cinética
bioquímica.

198
estos creodos elementales en una estructura global, estable, mediante la acción
de una singularidad implícita de la dinámica, el centro organizador. En cuanto a la
organización de los creodos que son distintos entre ellos el problema es más
complejo, ya que en principio es indeterminado. Entre todas las configuraciones
posibles de los diversos creodos, algunas son más estables que otras; este difícil
problema es cualitativamente bastante semejante a aquél de descifrar un mensaje
en una lengua desconocida.
¿Son estos modelos susceptibles de control experimental?. Teoría de catástrofes
responde que no.
En efecto, sea (P) el proceso natural estudiado; dos casos son posibles.
a) Cuando (P) es estructuralmente estable, y todo él está contenido en un creodo,
admite un modelo cualitativo dado de una vez y para siempre, y difícilmente se ve
qué podría aportar la experiencia en este caso, que no sea la confirmación de la
estabilidad estructural del creodo. Sin duda, podemos esforzarnos por abordar el
estudio interno del creodo, descomponiéndolo en catástrofes elementales y re­
firiendo después la configuración de éstas a la acción de un centro organizador o
atractor, podemos tratar de analizar los procesos dinámicos que aseguran su
estabilidad. Pero este análisis es, con frecuencia, arbitrario; conduce a menudo a
varios modelos entre los cuales no se puede elegir más que por razones de
economía o de elegancia matemática. Por otra parte, la TC no está lo bastante
avanzada como para que sea posible la construcción de un modelo cuantitativo: el
único caso conocido es el de la catástrofe elemental definida por la evolución de
una onda de choque en Dinámica de Fluidos. Este caso fue suficiente ya que
mostró por sí solo las enormes dificultades del problema.
b) Cuando (P) es estructuralmente inestable, y contiene varios creodos (por ejemplo,
dos creodos (C3 ), (C5 ) separados por regiones de inestabilidad o de incertidumbre); en este caso, se
podría atribuir la fluctuación producida, a una catástrofe generalizada, no
formalizable en sí misma. La única esperanza de obtener un modelo es considerar
todo un conjunto de procesos y elaborar una estadística de las apariencias
morfológicas. Desde este punto de vista, la mecánica cuántica ordinaria, resulta
ser nada más que una estadística de las catástrofes Hamiltonianas.

199
Ante la imposibilidad de poder controlar un modelo por medio del experimento R.
Thom presenta dos razones para pensar que a largo plazo su teoría de
catástrofes podrá enfrentar el desafío:
«La primera razón es que todo experimentador trabaja en una especialidad dada;
admitimos como establecidos a priori estos troceamientos, esta taxonomía de la
experiencia fenomenológica en grandes disciplinas: física, química, biología, etc.
Ahora bien, ¿de dónde proviene esta división de la experimentación, sino de una
descomposición de nuestro campo perceptivo en creodos aparentemente
disjuntos? Bien en vano se opondrían a nuestro modelo cualitativo los modelos
cuantitativos, considerados como los únicos científicos y útiles. Pues todo modelo
cuantitativo presupone un troceamiento cualitativo de la realidad, el aislamiento
preliminar de un sistema considerado como estable y experimentalmente repro­
ducible. Los modelos estadísticos presuponen ellos mismos la definición de
conjuntos de procesos estables y reproducibles. Esta descomposición que nos
trae, casi inconscientemente, nuestro aparato perceptivo, la utiliza todo
investigador, aunque no lo quiera, de la misma manera que Jourdain hacía prosa
sin saberlo. ¿No sería interesante, en estas condiciones volver a considerar esta
descomposición e integrarla en el cuadro de una teoría general y abstracta, más
bien que aceptarla ciegamente como una condición irreducible de la realidad?
La segunda razón es que el fin último de la ciencia no es amontonar
indiferenciadamente los datos empíricos, sino organizar estos datos en
estructuras más o menos formalizadas que den cuenta de ellos. En orden a este
fin hay que tener ideas a priori sobre la manera cómo ocurren las cosas; hay que
disponer de modelos. Hasta el presente, la construcción de modelos en la ciencia
ha sido ante todo una cuestión de suerte, de feliz idea. Pero llegará el momento
en que la construcción de modelos se hará ella misma, sino una ciencia, cuando
menos un arte; mi tentativa, que consiste en tratar de describir los modelos
dinámicos compatibles con una morfología empíricamente establecida, espero
constituya un primer paso en la edificación de esta “teoría general de modelos”
que habrá de ser construida, sin duda, algún día» (René Thom, Una teoría dinámica de la
morfogénesis)

200
La forma más elocuente de aludir a ambas teorías, y la que mejor escenifica el
tema que aquí nos ocupa, es la llamada dinámica de reacción-difusión.
Supongamos un sistema descrito por un vector de n componentes X[Xi...Xn]
función del espacio y del tiempo (las componentes pueden ser concentraciones químicas, especies
biológicas, poblaciones humanas, etc.) La evolución de este vector se controla por medio de
un sistema de ecuaciones no lineales en derivadas parciales del tipo,
3X/3t=F(X)+DV2(X), donde F es una función no lineal de reacción, D la matriz de
difusión y V2el conocido operador laplaciano.
Este tipo de ecuaciones, completadas con las condiciones de contorno, describe
un considerable número de fenómenos en una gama muy amplia de niveles de
observación. La llamada teoría de bifurcaciones sirve para analizar el conjunto de
singularidades que prevé dicha dinámica. El concepto de bifurcación se expresa
fácilmente por medio de un sencillo ejemplo. Consideremos la siguiente reacción
unidimensional y sin difusión: dX/dt=k(X-A)X, donde X es una concentración
química cualquiera y por lo tanto una cantidad no negativa y A una constante.
Para A<O, la única solución es X=O. Para A =O encontramos una bifurcación de la
solución, ya que para A<O coexisten las soluciones X=O y X=A. El sistema no
tiene elección para A<O, pero tiene dos alternativas para A>O. ¿Por qué camino
se decide el sistema?. Para los valores negativos de A, las fluctuaciones acaban
siempre por regresar, son intrascendentes. En la vecindad de la bifurcación, en
cambio, interviene puntualmente el azar y son precisamente las fluctuaciones las
que se erigen en protagonistas arrastrando al sistema por uno u otro camino. Con
la variación de un cierto parámetro q del sistema, es posible obtener una
estructura arbórea de bifurcaciones en cascada.
Según Prigogine, esta visión introduce un concepto nuevo de historia en la física,
un concepto en el que azar y necesidad determinan la evolución: el azar
decidiendo en las bifurcaciones y el determinismo en el tramo que media entre
cada dos de ellas. La sugerencia es persuasiva puesto que tal comportamiento
parecía reservado a fenómenos biológicos, sociales o culturales. La misma teoría
de Darwin, con mutaciones y todo, se acomoda satisfactoriamente en este
esquema.

201
El modelo alostérico de la glucólisis, que tiene crucial importancia en la transición
de un conjunto de células independientes a un nivel jerárquico superior, como un
agregado o un tejido, sirve para destacar el papel que desempeñan las
ecuaciones de reacción-difusión.
En la TC no se consideran efectos de transporte y las funciones de reacción
deben derivarse de funciones potenciales como: 3X¡/3t =-3V/3X¡. Por esta razón,
Prigogine considera a esta teoría como un caso particular que raramente se da en
la naturaleza. Y para Thom, toda generalización que en este sentido vuelva
particular su teoría, «no es más que alocada y gratuita especulación»
Pero lo que aquí nos interesa comprender es la nueva relación entre el azar y la
necesidad como continuación de una primitiva contraposición y una posterior
subyugación. Lo que Thom y Prigogine representan son justamente las dos
posturas diferentes que se pueden adoptar para abordar el análisis de la inédita
cooperación azar-necesidad. Las fluctuaciones internas y externas del sistema y el
esquema de las bifurcaciones se influyen mutuamente dejando el concepto de
evolución abierto a cualquier innovación, cuya persistencia puede luego discutirse
en virtud de una selección darwiniana. Prigogine opina que una estadística de las
fluctuaciones podría informar sobre el esquema de las bifurcaciones. Al contrario,
Thom cree que la estadística de las fluctuaciones debe quedar fijada por un patrón
determinista, desconocido quizá, pero subyacente. En esta última actividad de la
ciencia que triunfa en la descripción de las estructuras más sofisticadas, el azar
recupera su libertad de acción, pero no hay razonamiento ni circunstancia
experimental que, por el momento, nos indique si el azar es algo que escapa a la
mente del observador o es una acción de la propia naturaleza. Temas como la
irreversibilidad, la completitud de la MC o la evolución biológica siguen encerrando
cada uno su propio misterio.1

1. 4 5 Teoría de Supercuerdas y Teoría M


La Teoría de Supercuerdas (T.S.C) ha resultado ser la idea más revolucionaria en
física desde la teoría de la relatividad y la mecánica cuántica.

202
Como ya estamos enterados, ha sido bajo el amparo tutelar de Newton que los
físicos teóricos han tratado de construir modelos matemáticos globales que sean
capaces de describir las interacciones de las denominadas fuerzas fundamentales
de la naturaleza (eléctrica, magnética, débil, fuerte y gravitatoria) La TSC fue el modelo más
novedoso que ambicionó alcanzar esta meta. Fue novedoso por que se lo
construyó en un espacio en el que se sustituyó, por primera vez en la historia de
Occidente, su unidad estructural, en lugar del punto-límite se puso a la "cuerda”,
objeto vibrante 100 trillones de veces más diminuto que un protón; cada vibración
expresa una resonancia o partícula distinta. Si ampliásemos de algún modo la
partícula podríamos ver que no es en absoluto un punto, sino un modo de una
cuerda vibrante.
Esta teoría nació en el año 1968, cuando los físicos G. Veneciano y M. Susuki se
quedaron sorprendidos al ver que la función beta de Euler se ajustaba muy bien a
casi todas las propiedades requeridas para describir las interacciones entre las
partículas elementales.
Al momento, el físico usamericano Edward Witten ha surgido como el principal
representante de esta teoría y ha logrado obtener una representación del Universo
que da cuenta desde el funcionamiento interno del átomo hasta la estructura del
cosmos. Para ello, supuso que éste está constituido no de partículas elementales
sino de diminutos lazos o "cuerdas” que vibran en diez dimensiones (ver recuadro 2 )
Pero, por ser una teoría unificada del universo, no es posible someterla a la
prueba experimental dirimente, ya que el científico tendría que transformarse en el
Dios del Génesis para repetir la creación del Mundo tal como lo hizo Él. Otro
aspecto original del trabajo de E. Witten ha sido la inversión hecha en el modo
tradicional de proceder de Occidente en la modelación matemática. Para el
científico ha sido una costumbre modelar desde la matemática hacia la física, él lo
hizo al revés, pues, según dijo, la física le ha proporcionado nuevas percepciones
en las matemáticas. Así, entonces, la TSC nos invita a apartarnos de la imagen
familiar que teníamos del universo cuando éste estaba compuesto de puntos
materiales impulsados y atraídos tanto por las fuerzas de gravedad como por las
electromagnéticas. Además sabemos, desde la catástrofe cuántica, que estos

203
puntos materiales tienen propiedades ondulatorias que se parecen más a
vibraciones que a puntos bien definidos en el espacio. Las cuerdas vibran en
sutiles resonancias y representan la estructura del universo, desde la luz hasta el
campo gravitatorio. Debe decirse que el término "cuerda” no es muy apropiado
para aludir a lo que esta teoría se refiere, pues evoca sólo el carácter vibratorio de
ésta y no su forma geométrica. No son por tanto los cordeles corrientes, sino, una
analogía, una metáfora habría dicho Niels Bohr, pues, «cuando se trata de los
átomos, el lenguaje sólo puede emplearse como en la poesía...el poeta, lejos de
preocuparse por la descripción de los hechos, se dedica a crear imágenes»
La TSC resulta de la combinación de la teoría de cuerdas con una estructura
algebraica llamada supersimetría, la cual dota de coherencia a la teoría. Al obrar
de esta manera los físicos pudieron evitar los viejos problemas que aparecían
cuando se trataba de fusionar la TGR y la MC. La TSC permitió integrar a las cinco
fuerzas fundamentales en una sola y también logró establecer, de una manera
maravillosa, el precepto lógico de coherencia interna que toda teoría científica
debe guardar.
Según la TSC, las "leyes de la física” son versiones aproximadas de otra teoría
mucho más general y más rica, que involucra a la estructura de la materia a una
escala de distancias pequeñísima. Las cuerdas postuladas por la teoría miden
unos 10-35 metros, es decir son unas 1020 veces más pequeñas que el diámetro del
protón. Las diferencias entre la TSC y las otras teorías, a estas escalas tan
pequeñas, resultan primordiales para la coherencia interna y el poder predictivo de
la teoría.
Al construir modelos de unificación prescindiendo de la gravedad, los físicos han
encontraron que la imagen unificada de las fuerzas restantes proviene de la
simetría subyacente en la teoría. Pero, también encontraron que no hay una sola
simetría subyacente y como no existe criterio físico válido para preferir una u otra,
ahí terminó la vida del modelo. A diferencia, en la TSC la fuerza de la gravedad no
puede excluirse, y la clase de simetría que exige su inclusión en la teoría conduce,
de manera natural, a una predicción relacionada con la simetría implícita que
unifica a las fuerzas restantes.

204
Recordemos por un momento que en la TGR la trayectoria de una partícula es
influenciada por un campo de gravedad y se mueve siguiendo una trayectoria
sobre la línea geodésica más corta en el espacio-tiempo, ejerciendo, a la vez,
influencia sobre la estructura del espacio-tiempo y produciendo ondas gravitatorias
que perturban las propias geodésicas a lo largo de las cuales se mueve la partí­
cula.
En cambio, en la TSC la gravedad se define en un espacio ampliado a nueve
dimensiones espaciales y una temporal, 10 en total. Así mismo, el movimiento se
realiza a lo largo de las geodésicas, pero éstas son ahora superficies de área
mínima en 10 dimensiones. Seis de las 10 dimensiones son inobservables,
dejando ver sólo a las conocidas cuatro del espacio-tiempo. Estas seis
dimensiones, para estar fuera de la vista del experimentador, deben curvarse
sobre si mismas y formar una estructura tan pequeña que escape a su alcance
directo. Par bien entender la idea de dimensiones “inobservablemente pequeñas”,
apoyémonos en una sencilla analogía bidimensional. Todos sabemos que un tubo
es una superficie bidimensional que aparenta tener una sola dimensión cuando se
le mira desde lejos o a una escala poco precisa e incapaz de distinguir su grosor.
En la TSC es probable que el tamaño de las seis dimensiones curvadas sea apro­
ximadamente el mismo que la longitud de la cuerda. De este modo el mundo
parece tener tres dimensiones espaciales en que la cuerda actúa como un punto
material. Igualmente, la equivalencia de ondas y partículas en mecánica cuántica
exige que una onda gravitatoria o perturbación del campo gravitatorio, se iden­
tifique con la partícula puntual que se conoce con el nombre de gravitón. Así como
la TGR se define en un “campo de puntos materiales” (EMROcc.), análogamente,
en teoría de cuerdas, debe haber un campo que dependa de las configuraciones
de ésta, se le ha llamado “campo de cuerdas”. Además, se ha encontrado, en el
difícil camino de la modelación matemática, que el número de todas las
configuraciones posibles de una cuerda en el “campo de puntos materiales” es
mucho mayor que el número de puntos que lo constituyen. El campo de cuerdas
debe estar relacionado, pues, con una nueva clase de geometría, la cual cobraría
existencia si lográsemos ampliar la idea de espacio, definida por todas las posibles

205
configuraciones de una cuerda. Una vez que construyamos esa geometría, habrá
que imaginarse la partícula tipo cuerda como una perturbación ondulatoria en éste
enorme espacio, igual que el gravitón en una onda en el espacio ordinario.
Hay que recalcar que la supersimetría tiene el poder de transformar las
coordenadas del espacio y del tiempo de manera que las leyes físicas sean las
mismas para todos los observadores, al igual que se hace en la TGR. De esta
manera, a la supersimetría le corresponde la supergravedad en la cual transmite
las interacciones gravitatorias el gravitón, partícula de espín 2 que tiene como
campanero al gravitino de espín 3/2.
Sabemos que la TGR no impone límites a las dimensiones posibles del espacio-
tiempo: sus ecuaciones pueden, en principio, formularse en cualquier número de
dimensiones. No pasa esto con la supergravedad, que impone el límite superior de
11al número de dimensiones del espacio-tiempo.
La historia de las dimensiones comienza a principios de los años veinte del siglo
XX, cuando Theodor Kaluza y Oskar Klein sugirieron que el espacio-tiempo podría
tener una quinta dimensión oculta. No sería infinita como las otras, sino que se
cerraría sobre sí misma y formaría una circunferencia donde podrían residir ondas
cuánticas, que la colmarían perfectamente. En este círculo sólo cabrían números
enteros de ondas; cada uno correspondería a una partícula con una energía
diferente; por tanto, las energías serían discretas debido a que estarían
"cuantizadas". Pero un observador que viviese en las otras cuatro dimensiones
vería un conjunto de partículas, no con energías, sino con cargas cuantizadas. La
unidad o cuanto de carga dependería del radio de la circunferencia. También en el
mundo real está la carga eléctrica cuantizada, en unidades de e, la carga del
electrón. Para obtener el valor correcto de e el círculo tendría que ser de unos
10-33 centímetros de radio. El exiguo tamaño de esta dimensión lo hace invisible, lo
que explicaría por qué a las personas, o incluso a los átomos, se les escapa su
existencia, se desintegran. Aun así nos daría el electromagnetismo, con el cual la
gravedad, ya presente en el mundo tetradimensional, se integraría.
Ya en 1978 Eugene Cremmer, Berard Julia y Joel Scherk comprendieron que la
supergravedad no sólo permite hasta siete dimensiones adicionales, sino que es

206
más elegante en un espacio-tiempo de 11 dimensiones, diez espaciales y una
temporal. El tipo de mundo real, de cuatro dimensiones, definido finalmente por la
teoría dependerá de cómo se enrollen, a la manera de Kaluza y Klein, las
dimensiones extra. Con varías dimensiones cerradas sobre sí mismas podrían en
principio obtenerse, además del electromagnetismo, las fuerzas nucleares fuerte y
débil. He aquí la razón por la que los físicos empezaron a abrigar, en la su-
pergravedad de 11 dimensiones, la esperanza de una teoría unificada. Pero, en
1984 ocurrió que la supergravedad de 11 dimensiones se derrumbó, sin
vacilaciones ni contemplaciones, de su pedestal. La TSC en 10 dimensiones pasó
ha ocupar su lugar. En realidad lo hicieron cinco teorías competidoras, bautizadas,
en razón de sus características matemáticas, como de cuerdas heteróticas E8xE8,
heteróticas SO(32), de tipo I SO(32), de tipo IIA y de tipo IIB. Las cuerdas de tipo I
son "abiertas", es decir, constan de sólo un segmento, las otras son "cerradas" y
forman bucles.
En especial, la cuerda E8xE8 mostraba poder suficiente para explicar las fuerzas y
las partículas elementales conocidas, quiralidad incluida. Asimismo, a diferencia
de la supergravedad, parecía que las cuerdas proporcionaban una teoría de la
gravedad congruentes con los fenómenos cuánticos. Con este cúmulo de virtudes
la teoría de cuerdas dejó cautivados a los físicos y puso a la supergravedad de 11
dimensiones en el lugar donde se depositan las cosas que ya no sirven.
Así pues, la mayor esperanza de una teoría que integre la TGR y la MC y describa
todos los fenómenos físicos, estaba depositada en la TSC. Pero, a lo largo de los
últimos años, ésta ha sido subsumida por la denominada teoría M (TM) De ella
Edward Witten ha dicho que «esa M significa, según los gustos, magia, misterio o
membrana» Cada día se obtienen nuevas pruebas en favor de esta teoría. Desde
el tiempo en que hizo aparición la de cuerdas no se había registrado tanto
despliegue teórico.
Debemos poner en relieve que, tanto para la TM como para la de cuerdas, la
noción de supersimetría es de central importancia. Así, por ejemplo, ésta
establece que para cada partícula conocida de espín entero, 0, 1, 2, etc., -medido

207
en unidades cuánticas-, haya una partícula de la misma masa y espin semientero
1/2, 3/2, 5/2, etc. y viceversa.
Hasta ahora los físicos no han encontrado todavía ninguno de esos supercom-
pañeros. Tendría que romperse esa simetría, si es que existe, para que las partí­
culas propuestas no tengan las mismas masas que las conocidas, sino masas
mayores, que no serían visibles en los actuales aceleradores.
A pesar de todo esto los teóricos han seguido siendo fieles al concepto de
supersimetría debido a la fortísima creencia de que, gracias a esta estructura,
lograrán subir un peldaño más en la generalización y así unificar a las
interacciones eléctricas, magnéticas, débiles y fuertes con la más reacia de todas
ellas: la gravedad.
Pero, aparejadas al entusiasmo eufórico con las cuerdas llegaron también
inquietantes dudas. En primer lugar, los problemas de cierta entidad -en especial
el de cómo contrastar la teoría con experimentos- se escapaban a una resolución
con los métodos tradicionales de cálculo. Demandaban técnicas radicalmente
nuevas y complejas. En segundo lugar, ¿por qué había cinco teorías diferentes?. A
quien aspira hallar una teoría unitaria, semejante sobreabundancia le abruma, le
desconcierta y le aplasta. En tercer lugar, si la supersimetría permite 11
dimensiones, ¿por qué las supercuerdas se quedan en 10?. Por último, si hemos
reemplazado las partículas puntuales por cuerdas, ¿por qué no por membranas o,
de una manera general por objetos de p dimensiones, por p-branas?. En
correspondencia con esto, una partícula, de dimensión topológica igual a cero,
describe en su movimiento por el espacio-tiempo una trayectoria unidimensional, o
"línea de mundo”. Una cuerda -que tiene dimensión igual a uno- barre una "hoja
de mundo" bidimensional; una membrana que tiene dos, la longitud y la anchura,
genera un "volumen de mundo" tridimensional y así sucesivamente. En general,
una p-brana barre un volumen de mundo de p+1 dimensiones, donde p+1 no
puede ser mayor que el número de dimensiones del espacio-tiempo.
La historia de la TM se remonta a 1962 cuando Paul A. Dirac construyó un
imaginativo primer modelo que se basaba en una membrana. Propuso que el
electrón no fuera un punto, sino una suerte de burbuja minúscula, una membrana

208
cerrada sobre sí misma. Sus oscilaciones, sugirió, generarían otras partículas
entre ellas el muón (la versión pesada del electrón) Aunque Dirac fracasó en su intento,
las ecuaciones que formuló para la membrana son, en esencia, las mismas que se
usan hoy en día. La membrana puede tomar la forma de una burbuja o extenderse
en dos direcciones, análogo a una plancha de caucho.
La supersimetría impone fuertes restricciones a las dimensiones posibles de las p-
branas. Así por ejemplo, en el espacio-tiempo de 11 dimensiones flota una mem­
brana que sólo tiene dos dimensiones espaciales y es como una hoja. También se
ha probado que si una de las 11 dimensiones fuese una circunferencia, podíamos
envolverla con la membrana una vez y pegando los bordes formar un tubo, si el
radio de la circunferencia decrece en cuantía suficiente, la membrana enrollada
acabará pareciéndose a una cuerda en 10 dimensiones, específicamente la
supercuerda del tipo II A.
Pese a estos resultados los científicos adictos a la TSC prestaron poco interés al
proyecto de las membranas. Pero las cosas estaban a punto de cambiar gracias a
un avance en un campo muy distante. Amalie Emmy Noether había demostrado
en 1917 que la masa, la carga y otras propiedades de las partículas elementales
se conservaban gracias a alguna simetría. La conservación de la energía, por
ejemplo, nos induce a suponer que las leyes de la física no cambian con el tiempo,
o que son simétricas bajo el paso del tiempo. Así mismo, la de la carga eléctrica es
consecuencia de una simetría de la función de ondas de la partícula.
No obstante, hay casos en los que las propiedades podrían conservarse gracias a
las deformaciones de los campos. Correspondientemente a estas leyes de
conservación se las ha llamado “topológicas”. Cabría pensar, por ejemplo, que un
nudo de un conjunto de líneas del campo, un solitón, no pudiera deshacerse: el
solitón no se disiparía y se comportaría de forma muy semejante a una partícula.
Un ejemplo muy conocido de ello es el monopolo magnético (o sea un polo de imán
suelto), que si bien no se lo ha encontrado en la naturaleza, aparece como una
configuración retorcida en algunas teorías de campos. De ser cierta la conjetura,
llevaría a una profunda simplificación matemática. En la teoría de los quarks,
apenas si se pueden hacer cálculos cuando los quarks interaccionan fuertemente;

209
pero los monopolos deben entonces interaccionar débilmente. Cuando uno
imagina la ejecución de los cálculos con una teoría dual basada en los monopolos,
observa claramente que se obtendrían todas las soluciones para los quarks de
manera automática y que la teoría dual daría los mismos resultados finales. Dos
obstáculos importantes se oponían a esta dualidad.
Primero, no se había demostrado todavía la dualidad (propuesta por Montonen y Olive)
entre la electricidad y el magnetismo en las cuatro dimensiones ordinarias;
resultaba, pues, más frágil aún la dualidad entre las cuerdas y las pentabranas en
10 dimensiones. En segundo lugar, todavía nadie se había puesto de acuerdo en
el método para hallar las propiedades cuánticas de las pentabranas y, por tanto,
en como probar la nueva dualidad.
Ashoke Sen acabó con el primer obstáculo al establecer que las teorías
supersimétricas requerían la existencia de ciertos solitones dotados de carga
eléctrica y magnética. La conjetura de Montonen-Olive había predicho la
existencia de esos objetos. Ese resultado que tan poco llamativo parecía convirtió
a muchos escépticos, desencadenó una cascada de artículos e inspiró en
particular a Nathan Seiberg y a Edward Witten. Los dos empezaron a buscar la
dualidad en versiones más realistas (todavía supersimétricas) de la teoría de los quarks
y aportaron información sobre los campos cuánticos de un tipo inconcebible pocos
años antes. Varios teóricos generalizaron en 1990 la idea de la dualidad de Mon­
tonen-Olive para las supercuerdas en cuatro dimensiones, en cuyo dominio la idea
encaja con mayor soltura. Se la conoce con el nombre de dualidad S.
Pero la verdad era que los teóricos de las cuerdas se habían acostumbrado a la
dualidad T, que relaciona los dos tipos de partículas que se producen cuando una
cuerda forma un bucle en torno a una dimensión compacta. Un tipo de éstas, las
partículas vibrantes, son análogas a las predichas por Kaluza y Klein y son
generadas por las vibraciones de la cuerda que ciñe a la dimensión. Tendrán más
energía si el círculo es pequeño. La cuerda puede además dar muchas vueltas al­
rededor del círculo; cuantas más veces lo haga y mayor sea el círculo, mayor será
su energía. Cada nivel de energía representa además una partícula nueva, las
denominadas partículas de arrollamiento.

210
La dualidad T dice que para una circunferencia de radio R, las partículas de
arrollamiento son las mismas que las "vibrantes" para un círculo de radio 1/R, y
viceversa. El físico no distingue entre ambos conjuntos de partículas: una
dimensión compacta gruesa da aparentemente las mismas partículas que una
delgada.
Esta dualidad comporta una consecuencia profunda. Los físicos se han esforzado
durante decenios por conocer la naturaleza de las escalas pequeñísimas,
próximas a la longitud de Planck, 10-33 centímetros. Siempre han supuesto que, a
distancias menores las leyes de la naturaleza se desvanecen. Pero lo que la dua­
lidad T nos dice es que a esas escalas y a las grandes el universo no parece
distinto.
Hasta podríamos imaginar que, si el universo hubiera de encogerse hasta ser
menor que la longitud de Planck, se transformaría en un universo dual que
crecería conforme el original se contrajese.
Sin embargo, la dualidad entre las cuerdas y las pentabranas seguía siendo sólo
una conjetura, debido al problema de la cuantización de las pentabranas. Más,
desde 1991 un equipo de físicos resolvió el problema obviándolo. En efecto, si se
enrollaban cuatro de las 10 dimensiones y las pentabranas las envolvían, éstas
acababan constituidas en objetos unidimensionales, como cuerdas (solitónicas) en
un espacio-tiempo de seis dimensiones. Además, una cuerda fundamental en 10
dimensiones retiene su carácter fundamental incluso en seis. Así pues, la idea de
una dualidad entre las cuerdas y las pentabranas daba paso a otra conjetura: la
dualidad entre cuerdas solitónicas y fundamentales.
La ventaja era que sí se sabía cuantizar una cuerda, por tanto, cabía contrastar las
predicciones de la dualidad cuerda-cuerda. Podíamos demostrar, por ejemplo, que
la intensidad con la que interaccionaban las cuerdas solitónicas venía dada por el
inverso de la intensidad de la interacción de la cuerda fundamental, en completo
acuerdo con la conjetura. Se apostó a que una cuerda heterótica que interaccione
débilmente podía incluso ser la dual de una cuerda del tipo IIA que interaccione
fuertemente, en el caso de que ambas estuvieran en seis dimensiones. Las
barreras entre las diferentes teorías de cuerdas empezaban a deshacerse.

211
Si reducimos el espacio-tiempo de seis dimensiones a cuatro enrollando dos,
sucede que lo mismo la cuerda fundamental que la solitónica adquieren una
dualidad T. Pero ahora viene el milagro: la dualidad T de la cuerda solitónica es
precisamente la dualidad S de la cuerda fundamental, y viceversa. A este fenó­
meno -en el cual el intercambio de cargas en una de las imágenes es justo la
inversión de la Iongitud en la imagen dual- se le llama dualidad de dualidades.
Sitúa la dualidad S, hasta ahí conjetural, en una posición tan firme como la de la
bien establecida dualidad T. Además, predice que la intensidad con la que in­
teraccionan los objetos -sus cargas- está relacionada con el tamaño de las
dimensiones invisibles. Lo que en un universo es carga puede en otro ser tamaño.
Witten, en una publicitada disertación que dio en la Universidad del sur de
California en 1995, puso de pronto todo lo hecho sobre las dualidades T, S y
cuerda-cuerda bajo el techo de la TM en 11 dimensiones. En los meses siguientes
aparecieron cientos de artículos en Internet que confirmaron que, sea lo que sea la
TM, no cabía duda de que en ella las membranas desempeñan un papel
importante.
Hasta la cuerda E8 x E8, cuya quiralidad se creía era imposible de derivar de las 11
dimensiones, encontró un origen en la teoría M. Witten y Petr Horava revelaron el
mecanismo por el que la dimensión extra de la teoría M se contraía a un segmento
de línea. La imagen resultante consistía en dos universos de 10 dimensiones (cada
uno en un extremo de la línea) conectados por un espacio-tiempo de 11dimensiones.
Este orden de cosas puede tener consecuencias importantes en la constatación
experimental de la TM. Se sabe, por ejemplo, que las intensidades intrínsecas de
todas las fuerzas cambian con la energía de las partículas pertinentes. En la teo­
ría supersimétrica, se tiene que a una energía E de 1016 gigaelectrónvolt las
intensidades de las fuerzas fuerte, débil, eléctrica y magnética convergen.
Además, esa intensidad de interacción es casi igual al número adimensional GE2
donde G es la constante de gravitación de Newton. Ese "casi”, que exige una
explicación, ha sido otro motivo de frustración para los físicos.
En el peculiar espacio-tiempo concebido por Horava y Witten se puede elegir el
tamaño de la undécima dimensión de manera que las cinco fuerzas converjan en

212
esa escala común. Es mucho menor que la energía de Planck, 1019 gigaelectrón-
volt, valor en que se esperaba antes que la gravedad se volviese fuerte. Las
energías elevadas están vinculadas a las pequeñas distancias por medio de la
MC. Así por ejemplo, la energía de Planck es simplemente la longitud de Planck
expresada como energía. En lo que a la energía se refiere, los fenómenos
gravitatorios cuánticos podrían hallarse mucho más cerca de los sucesos diarios
de lo que se ha estado creyendo, y esto tendría todo tipo de consecuencias
cosmológicas.
En fecha reciente, Joseph Polchinski advertía el parecido entre algunas p-branas
y cierta superficie descubierta en el siglo XIX por Peter G. L. Dirichlet (1805-1859)
Imaginemos branas negras que pueden equipararse a agujeros negros: objetos de
los que nada, ni la luz siquiera, podría escapar.
En este escenario, las cuerdas abiertas pueden considerarse cerradas con una
parte oculta detrás de las branas negras. Tales planteamientos innovadores han
llevado a una interpretación nueva de los agujeros negros definiéndolos como
intersecciones de branas negras que envuelven siete dimensiones enrolladas. De
ahí vienen fuertes indicios de que la teoría M podría incluso resolver las paradojas
de los agujeros negros encontradas por Stephen W. Hawking.
Hawking demostró en 1974 que los agujeros negros no eran tales ya que irradian
energía, se evaporan. Han de tener pues, una entropía que mida el desorden de
un sistema contando el número de estados cuánticos disponibles. Pero el origen
microscópico de estos estados cuánticos era un misterio. Strominger y Cumrun
Vafa han contado gracias a la técnica de las membranas de Dirichlet el número de
estados cuánticos de las branas negras y han obtenido una entropía que
concuerda perfectamente con la predicción de Hawking. Este resultado es un
nuevo logro para la TM.
Las branas negras prometen además resolver uno de los mayores problemas de
la teoría de cuerdas: parece que hay miles de millones de formas diferentes de
contraer 10 dimensiones en cuatro. Son, pues, muchas las predicciones
contradictorias sobre cómo opera el mundo real, o, lo que es lo mismo, no hay
predicción que valga. Ahora bien, la masa de una membrana negra puede

213
desaparecer si se contrae un agujero al que envuelva. Esto hace con el propio es­
pacio-tiempo un número de materia: un espacio-tiempo dotado de cierto número
de agujeros internos (como un queso Gruyére), que se convierte en otro con un número
de agujeros diferente, violando las leyes de la topología clásica.
Si todos los espacio-tiempo están relacionados de esta forma, dar con el bueno se
vuelve una tarea viable: la cuerda puede elegir finalmente el espacio-tiempo que
tenga digamos, la menor energía y habitar en él. Sus ondulaciones producirán
entonces las partículas elementales y las fuerzas que conocemos, es decir, el
mundo real.
Pese a estos relativos éxitos, los científicos nos comunican que, hasta ahora sólo
se han explorado pequeños rincones de la teoría M, no hemos llegado ha disponer
todavía de una mirada global. Hace poco un grupo de físicos proponían una
definición rigurosa de la teoría M mediante una teoría “matricial" que se basa en
un número infinito de cerobranas (es decir, partículas puntuales). Las coordenadas, o
posiciones, de estas partículas no son números corrientes, sino matrices cuyo
producto no es conmutativo; es decir que, AxB^BxA . En este cuadro, el espacio-
tiempo es un concepto difuso donde las coordenadas no se pueden definir con los
números, sino con matrices.
No es de hoy la sospecha de los científicos occidentales de que la unificación de
la gravedad (es decir, la geometría del espacio-tiempo), con la física cuántica hará que el
espacio-tiempo deje de estar bien definido, al menos mientras no se descubra una
nueva definición. El enfoque matricial ha provocado mucho revuelo, pero parece
que ha corrido la misma suerte que los modelos anteriores, ha fracasado en su
capacidad predictiva.
Es notable observar que todos los modelos revisados hasta aquí y que han
fracasado, tienen como factor común haber utilizado espacios diferenciables.
¿No será acaso que en este factor se encuentra el talón de Aquiles de la teoría?
¿No será acaso que la modelación matemática en espacios diferenciables ha
encontrado sus propias limitaciones y que se hace necesario sustituirlos por
espacios discretos, es decir cuánticos?. El haber utilizado espacios analíticos para
describir procesos cuánticos, ha quedado en evidencia, ha sido el más terrible de

214
los errores cometidos por los científicos de occidente, pues resulta ser un
contrasentido en si mismo tratar de representar los procesos discretos en espacios
continuos. Es como si quisiéramos obtener una imagen fotográfica infrarroja en
una placa con una emulsión apropiada para obtener una imagen ultravioleta. Por
eso es que no han podido unificar la TGR y la MC. Claro está que a Occidente no
le quedó otro camino histórico que éste, como ya nos hemos enterado, por tanto
no podemos reprocharles haber cometido el fatal error, pero tampoco podemos
quedarnos callados ante tan peligroso obrar.

1. 4 6 Espacio-tiempo fractal
Ya tenemos en nuestra memoria que es con Newton que se comienza a utilizar el
método diferencial para describir los fenómenos físicos mediante ecuaciones. Éste
consiste en descomponer el objeto-proceso que se estudia en sus partes más
simples. A su vez, la simplificación permite realizar una descripción local, dife­
rencial de éste, que, tras la integración, aportará las propiedades globales del
mismo.
Empero, este método pierde toda su eficacia si las partes, en lugar de hacerse
cada vez más simples a medida que aumenta la simplificación, son diferentes o
más complejas que el objeto del que se ha partido. Esto es lo que sucede en la
física de las micropartículas cuando se las observa mediante un acelerador,
aparecen estructuras nuevas a medida que decrece la escala.
Recordemos que el principio de la relatividad general de Einstein (que establece
que,"las leyes de la naturaleza se apliquen en todos los sistemas de coordenadas sea cual sea su clase de
movimiento"), ha sido aplicado suponiendo la diferenciabilidad del espacio y que en
consecuencia es incapaz de dar cuenta de los fenómenos cuánticos, que implican
la no diferenciabilidad. Teniendo esto en cuenta, en 1997 el físico francés Laurent
Nótale nos comunica que ha abierto un inesperado camino basado en el principio
de la relatividad de la escala.
El principio de la relatividad de escala generaliza el enunciado de Einstein y ahora
nos dice que «las leyes de la naturaleza se aplican sea cual sea el movimiento, y
también sea la que sea la escala del sistema de coordenadas» En la relatividad

215
de escala, se reemplazan las magnitudes físicas, como la velocidad y la longitud,
por funciones que dependen explícitamente de la precisión de la observación, es
decir, de la resolución. Esta se vuelve una variable imprescindible, inherente al
espacio-tiempo, que caracteriza la escala del sistema de coordenadas de la
misma manera como la velocidad caracteriza su movimiento. Las resoluciones
espacio-temporales poseen la misma relatividad que el movimiento: así como no
se sabría definir un intervalo de longitud o de tiempo de manera absoluta, sólo una
relación entre dos escalas tiene sentido.
Cuando se aplica al espacio-tiempo la idea de que las magnitudes físicas
dependen explícitamente de la resolución, se llega al concepto geométrico de
fractal (ver recuadros) De esta manera las propiedades cuánticas son el resultado de
la naturaleza fractal del espacio-tiempo microscópico. He aquí, en síntesis, el
aporte de L. Notalle.
Para una mejor comprensión de este decisivo trabajo es preciso que realicemos
una sinopsis de lo presentado en el ramal 1.4.
Los filósofos de la Edad Media se preguntaban: ¿por qué se creó el universo en
un lugar y momento preciso, y no un poco más allá y algo después?. El principio
de relatividad de Einstein dio la respuesta a esta pregunta anunciando que: «no
hay un sistema de referencia absoluto en el Universo, ni temporal, ni espacial, que
permita localizar nuestra presencia»
Dada una clase de espacio de representación determinada, la definición de un
sistema de coordenadas pasa en primer lugar por la elección de un origen, que
resulta ser la unidad geométrica del espacio en mención. Para el caso del
EMROcc, al ser equivalentes todos los puntos-límite del espacio, la posición del
origen de un sistema de coordenadas sólo tiene sentido físico con respecto a otro.
Ocurre lo mismo con la orientación de los ejes: sólo se pueden definir ángulos
relativos. Estas propiedades del EMROcc desempeñan un papel fundamental en
física a la hora de ser aplicadas: se traducen en forma de simetrías espacio-
temporales, la invariancia bajo las traslaciones, temporales y espaciales, y las
rotaciones. De estas simetrías se deduce que permanecen constantes, a lo largo
del tiempo, la energía, la cantidad de movimiento y el momento cinético.

216
La velocidad caracteriza el movimiento del sistema de coordenadas, pero sólo
tiene sentido una diferencia de velocidades, no hay cabida para una velocidad
absoluta. A esa diferencia sólo cabe definirla mediante un par de objetos, la
velocidad, por ejemplo, de una bola con respecto a un plano inclinado, jamás una
velocidad absoluta.
Con Henri Poincaré, y sobre todo con Einstein, el concepto de la relatividad toma
una nueva amplitud: la física parece capaz de responder, por primera vez, no sólo
al cómo, sino, en ciertos problemas, al porqué. Así, por ejemplo, la TER es la
solución general al problema relativista del movimiento inercial, tal y como se pudo
plantearlo ya en los tiempos de Galileo: ¿cuáles son las leyes de transformación
de los sistemas de coordenadas inerciales que satisfacen el principio de la
relatividad? ¿Cómo ya indicamos son las transformaciones de Lorentz (recuadro 1 2 ),
que ligan las cuatro coordenadas (x, y, z, t) en un sistema S animado de una
velocidad v con respecto a las cuatro coordenadas (x ’, y ’, z’, t’) en un sistema S’?
Para deducir esas leyes no hace falta considerar la invariancia de la velocidad de
la luz, como lo hizo Einstein en 1905, pues en su forma más general aparece
como una constante c, luego, en su aplicación, es que se la define como una
velocidad límite.
Para ir más afondo en el tema recapitulemos lo fundamental de la TGR y la MC.
Hagamos memoria del hecho de que el principio de equivalencia propuesto por
Einstein en 1907 enuncia la relatividad del propio campo gravitatorio: un campo de
gravitación es localmente equivalente a un campo de aceleración uniforme. La
existencia misma de un campo de gravitación no es absoluta, sino que depende
del movimiento del sistema de coordenadas considerado. En las propias palabras
Einstein: «en un sistema de caída libre en ese campo, la fuerza de gravedad
desaparece por completo» (es lo que los astronautas experimentan como ingravidez) Mientras
que la teoría newtoniana describe cómo obra la gravedad, la relatividad general
intenta explicar por qué existe y qué es. Como esto exigía una mayor generalidad
de la descripción, obligó a pasar de un espacio-tiempo plano, euclídeo, a un
espacio-tiempo curvo. El caso euclídeo es un caso particular que corresponde a la

217
ausencia de gravitación (sistemas inerciaies) Finalmente, la gravitación se pasó a
entender como el conjunto de deformaciones de la curvatura.
Las ecuaciones de Einstein que relacionan la curvatura del espacio-tiempo con la
distribución de la energía y de la materia son las más generales de las ecuaciones
más simples que son invariantes bajo las transformaciones continuas y
doblemente diferenciables de los sistemas de coordenadas: la relatividad impone
la existencia de la gravitación así como la forma de las ecuaciones que la
describen.
Por su parte la MC se basa en unos axiomas inducidos de las experiencias de la
microfísica, de las que no se puede dar cuenta utilizando los conceptos clásicos.
Las trayectorias de las partículas ya no son observables y por tanto ya no se
toman en cuenta. En numerosas ocasiones se torna imposible predecir la evo­
lución de un sistema. En cambio, se sabe calcular la probabilidad de obtener tal o
cual resultado: la teoría, por tanto, es probabilista. El experimento de las dos
ranuras y otros de ese tipo imponen otra propiedad fundamental: la dualidad onda-
partícula.
Así pues, la teoría cuántica conjuga los componentes probabilidad, onda y
partícula en un solo objeto teórico, la función de onda. Las ecuaciones y el
principio de correspondencia, que asocia a las magnitudes observadas los
operadores que actúan sobre la función de onda, no se deducen a partir de un
primer principio, sino, se los supone a priori.
En la MC actual, el espacio-tiempo es plano, lo mismo que en la relatividad
restringida. Sin embargo, gracias a las obras de Leibniz, Mach y al portentoso
trabajo de Einstein, se ha retirado todo sentido físico a la vieja idea de espacio
vacío que nació en las orillas del río Nilo cuando los primeros agricultores
restauraban los linderos de sus propiedades, espacio que fue considerado como el
recipiente que contiene a la materia sin interaccionar con ella, como un espacio
independiente de su contenido, la geometría euclidiana es la teoría de esta clase
de espacio.
Finalmente nos preguntamos, ¿acaso no resulta contradictorio, de una parte,
admitir la universalidad de las leyes cuánticas, no clásicas, de los objetos mi­

218
croscópicos, y por otra parte, mantener que lo que contiene esos objetos no se
modifica por ello en nada?. ¿No estamos acaso en las redes mismas de la letal
paradoja engendrada por el dualismo trascendente que a caracterizado a la
cultura de Occidente? ¿Ser o no ser?
Fue Richard Feynman (1918-1988), a finales de los años cuarenta, el primero que
intentó una vuelta parcial a la representación espacio-temporal, rehabilitando así el
concepto de trayectorias cuánticas y tratando de cumplir la exigencia de Einstein
para que la MC sea aceptada como una verdadera teoría científica. De este modo
se acercó a una concepción más geométrica de la realidad cuántica, sin
abandonar por ello, su indeterminismo. En su libro de 1965, escrito con A. Hibbs,
describe las trayectorias virtuales típicas de una partícula cuántica: «Para una
partícula cuántica, los caminos importantes no son los que tienen una pendiente
(o velocidad) bien definida en todas partes, sino los que, por el contrario, son muy
irregulares en cualquier escala pequeña [...] Así, aunque se pueda definir una
velocidad media, la velocidad cuadrática media no existe en ningún punto. En
otras palabras, las trayectorias no son diferenciables»
En términos actuales, esta descripción de los caminos cuánticos posibles significa
que, aunque sean diferentes y en número infinito, todos son curvas fractales que
tienen una propiedad geométrica común: su dimensión fractal "patológica” igual a
dos. Esta intromisión de la no diferenciabilidad en la física es tanto más notable
por cuanto Einstein ya había considerado explícitamente que un enfoque realista
del problema cuántico podría pasar por ahí, cuando en 1948 escribió a Wolfgang
Pauli: «La descripción completa no podría limitarse a los conceptos fundamentales
que se emplean en la mecánica del punto. Le he dicho más de una vez que soy
un partidario acérrimo no de las ecuaciones diferenciales, sino del principio de la
relatividad general, cuya fuerza heurística nos es indispensable»
Una vía hacia una comprensión de los fenómenos cuánticos se abre en tal caso.
¿Será acaso posible proseguir la evolución hacia un espacio-tiempo más universal
y generalizar el principio de la relatividad a un espacio-tiempo no diferenciable,
fractal?. La idea de buscar las estructuras generales de un espacio-tiempo no
diferenciable que satisfaga el principio de relatividad, y de deducir de ellas las

219
leyes físicas del movimiento, es sin duda seductora: tales leyes, estructuradas por
un principio de relatividad más generalizado, se impondrían como inevitables. La
clave del enfoque es comprender que lo discreto o cuántico es una manifestación
de la no diferenciabilidad.
Para el científico occidental el problema que le origina abandonar la
diferenciabilidad es de dificultad extrema, pues no es un acto volitivo, es un acto
cultural, ya que significa abandonar el EMROcc; esto es, abandonar las
ecuaciones diferenciales, la herramienta básica de la física desde los tiempos de
Leibniz y Newton, con la cual han venido modelado, tanto el mundo socio-cultural
como el natural. Felizmente, aunque de manera parcial, fue posible otra vía que,
de manera asombrosa, se reduce a la precedente al prodigar una matemática que
permite describir la no diferenciabilidad con la ayuda de ecuaciones diferenciales.
Digo de manera parcial porque sólo se consideran funciones no diferenciables
pero continuas o sea definidas en EMROcc (como por ejemplo una curva quebrada o aserrada
cualquiera), dejando a un lado las funciones discretas, las que verdaderamente se
ajustan a la noción cuántica de proceso discontinuo o de cambio de estado.
Por tanto la clave de la solución consiste en traducir a lógica fractal los trabajos de
Feynman. Partamos de una función continua y no diferenciable casi totalmente,
trazada entre dos puntos del plano. Cabe aproximarse a ella con sucesivas
divisiones en dos segmentos que van construyendo aproximaciones cada vez más
precisas. La longitud de las diferentes aproximaciones depende explícitamente de
la resolución; es creciente, divergente incluso, cuando el grosor de la medida
tiende a cero. Ello es consecuencia de un teorema establecido por el matemático
Henri Lebesgue que nos asegura que una curva de longitud finita es diferenciable
casi por doquier; en cambio, si una curva continua es no diferenciable casi por
doquier, su longitud, necesariamente, será infinita.
Abandonar la arbitraria suposición de que una curva del espacio-tiempo es
diferenciable absolutamente, y al mismo tiempo conservar su continuidad,
establece automáticamente una dependencia explícita en función de las
resoluciones.

220
No hace falta añadir la hipótesis de que el espacio-tiempo es de naturaleza fractal
a escala microscópica, eso ha sido suficientemente demostrado. Por tanto, la
relatividad extendida al movimiento no diferenciable resulta ser equivalente a la
relatividad de escala. No se trata de una generalización arbitraria y sin res­
tricciones; pues, las ecuaciones que se escriben en tal espacio-tiempo no di­
ferenciable deben verificar el principio de covariancia, expresión matemática del
principio de relatividad, que exige que éstas mantengan la misma forma que en el
caso diferenciable.
Así pues, en la relatividad de escala, las leyes que rigen el movimiento se com­
plementan con las leyes de escala que gobiernan las transformaciones entre las
resoluciones. Consecuentemente, las magnitudes físicas pasan ha depender
también de la resolución. Lo primero que uno debe hacer, para descubrir la forma
de esas leyes de escala, es establecer que sean lo más simples posibles. Luego
se escribe de esa forma una ecuación diferencial de primer orden respecto a un
cambio infinitesimal de la resolución: su solución será la longitud de una curva
fractal de dimensión constante (D=2). Así, las funciones fractales de dimensión
constante, que divergen según una ley de potencia en función de la resolución,
son las formas más simples de leyes que dependen explícitamente de la escala.
Éste fue el comportamiento que encontró Feynman para las trayectorias cuánticas.
Esta vez los principales axiomas de la MC se derivan del concepto de espacio-
tiempo fractal. Para empezar, la no diferenciabilidad impone el carácter
probabilista de la descripción. En la teoría de Einstein, la trayectoria de una
partícula libre es una geodésica del espacio-tiempo; en el espacio-tiempo fractal,
también lo será. Sin embargo, la aparición de fluctuaciones en las escalas
pequeñas hace infinito el número de geodésicas, que son por definición, todas son
equiprobables; resultando así, que la única predicción posible es que la partícula
"seguirá" una geodésica de una familia infinita, lo cual es una trivialidad.
Es obvio que éste enunciado es incompleto, pues el enfoque fractal transforma
también el concepto de partícula elemental. En la MC actual, el electrón, desde el
punto de vista de su naturaleza corpuscular, es asumido como un punto material.
Posee propiedades intrínsecas como el momento cinético o espín, la masa y la

221
carga. El espín está ligado a una simetría del espacio-tiempo pero no tiene
contraparte clásica. La carga y las otras magnitudes cuánticas están asociadas a
simetrías internas que tampoco tienen homólogas en el espacio-tiempo.
En el espacio-tiempo fractal se abandona la idea de punto material y se considera
a las masas como el conjunto de las propiedades de las geodésicas.
La descripción del espacio-tiempo fractal obliga a tomar en cuenta las nuevas
estructuras ligadas a las transformaciones de las resoluciones. Estas son vistas
como internas, pues las estructuras fractales se desarrollan hacia las pequeñas
escalas, esencialmente por debajo de la longitud de De Broglie asociada a la
partícula (que es igual al cociente de la constante de Planck y la cantidad de movimiento de la partícula: X
= h/vm) Esta longitud de onda realiza la transición entre el comportamiento fractal y
el no fractal; o sea, entre el comportamiento independiente de la resolución, a las
escalas grandes, y el que depende de ella explícitamente, a las pequeñas. La
esperanza que suscita este comentario es que las propiedades "internas" surjan
finalmente de simetrías ligadas a las transformaciones de escala y que tengan un
significado geométrico en el ámbito de la geometría no diferencial. El concepto de
partícula dejaría entonces de referirse a un objeto que poseería un espín, una
masa o una carga, y se reduciría a las estructuras geométricas de las geodésicas
fractales de un espacio-tiempo no diferenciable. Un programa así está lejos de
haberse realizado hasta el final, pero hay ya algunos resultados que son
estimulantes.
Para empezar, la longitud de la onda y el período de De Broglie asociados a una
partícula se interpretan geométricamente mediante una transición entre el
comportamiento fractal y el no fractal: son las escalas más allá de las cuales
aparecen los retrocesos de las trayectorias, espaciales para la longitud,
temporales para el período, respectivamente. La energía, la cantidad de
movimiento, la velocidad clásica, la velocidad de fase y la masa de la partícula
pueden calcularse con facilidad como funciones de esas escalas. Pasando de este
modo, las características geométricas de las trayectorias fractales, a expresar a
todas estas magnitudes físicas. Lo mismo sucede con el espín: no existe en la
teoría clásica, pues es proporcional, en el caso del electrón, por ejemplo, lo es al

222
cuadrado del radio de la partícula, que es nulo. No obstante, es proporcional
también a la velocidad de rotación, que puede ser infinita sobre una trayectoria
fractal.
Pero, lo que realmente resulta sorprendente es que la multiplicación de cero por
infinito es siempre cero cuando la dimensión fractal de la trayectoria es menor que
dos, es siempre infinito cuando es superior a dos, pero es finito, y puede ser no
nulo cuando la dimensión es dos. ¡Precisamente, la dimensión dos corresponde a
la de las trayectorias fractales que Richard Feynman calculó a partir de las
relaciones de incertidumbre de Heisenberg!. La carga también se puede
interpretar como una magnitud geométrica invariante, que surge de las simetrías
de escala.
La franca imposibilidad que tiene el experimentador de observar a las micro-partí­
culas sin perturbar sus trayectorias es una consecuencia inmediata de su
identificación con las geodésicas fractales. Estas sendas no poseen ninguna
característica propia que permita distinguirlas. Un conjunto de varias partículas no
se identifica con una colección de objetos individuales en el sentido clásico: es un
objeto nuevo, una madeja de geodésicas que posee sus propiedades geométricas
propias.
El sentido de la dualidad onda-partícula cambia con el enfoque fractal. En la MC la
función de onda se identificaba con la onda-partícula. En la relatividad de escala,
por un lado, una geodésica en particular (que es fractal por cuanto es función de la resolución)
se identifica con la naturaleza corpuscular de la partícula, como nos la descubren
las medidas de la posición y, de otra parte, la madeja de geodésicas posibles,
único dispositivo que permite hacer predicciones, es portadora de las propiedades
ondulatorias. Reintroducir la especial geodésica que habría "seguido" la partícula,
¿no es acaso volver al determinismo, reintroducir los parámetros ocultos,
excluidos por varios experimentos cruciales de la MC?. No, pues se abandona
totalmente la diferenciabilidad entendida en el sentido de que ya no se trabaja en
un espacio constituido por puntos-límite, generados por series convergentes; sino
en otra clase, la formada por series de fracciones que son divergentes, aquellas
que no tienen límite en el infinito: no existe ninguna escala, por pequeña que sea,

223
por debajo de la cual se reencuentren las propiedades clásicas que transformarían
los parámetros ocultos. Por tanto, es imposible predecir qué trayectoria geodésica
seguirá la partícula.
A la inversa, ¿qué nos permite establecer la existencia de una tal geodésica
particular?. El punto de vista de Bohr y de Heisenberg, que se funda sobre la
imposibilidad de predicción de una trayectoria particular para deducir su
inexistencia, parecía la única respuesta lógica a este problema antes del año
1931, fecha de la publicación del teorema de la incompletitud de Godel.
Este teorema dice que, en toda axiomática no contradictoria que contenga la
teoría de números, hay enunciados verdaderos aunque indemostrables.
Enunciado de otra manera, pero equivalente a la anterior, dice que todo sistema
formal que autorefiramos nos coloca en una situación indecidible, paradójica, que
finalmente desemboca en la alucinación. La física es una ciencia altamente
formalizada, cuyas teorías una vez construidas pueden compactarse en un
reducido grupo de axiomas matemáticos, como empezó haciéndolo el propio
Newton en sus Principia. Consecuentemente, al contener siempre implícitamente
la teoría de números, se sigue que la física descansa en los resultados de las
mediciones. En física, una predicción no es sino un teorema construido a partir de
los axiomas de la teoría considerada y se lo verifica con el experimento. De este
modo, el teorema de Godel advirtió que tarde o temprano los investigadores se
encontrarán con enunciados indecidibles no sólo en lógica sino también en física y
en otras ciencias. Y así fue, la MC es la ciencia que contiene tales enunciados.
En el experimento de las dos ranuras de Young, donde se crea una figura de
interferencia al hacer que un haz de partículas atraviese una pantalla donde hay
abiertas dos ranuras, la imposibilidad, en presencia de las interferencias, de
predecir por qué rendija ha pasado una partícula y la destrucción de las
interferencias por toda medida de la posición han conducido a la conclusión según
la cual la investigación de la trayectoria de las partículas carecería de sentido.
Según el teorema de Godel, puede ser verdad que la partícula haya pasado por
una de las dos rendijas, cosa que toda medición explícita nos confirma, y que, al

224
mismo tiempo, sea, sin embargo, imposible predecir por cuál: debe distinguirse
entre el acto mostrativo y el demostrativo.
Las trayectorias posibles de una partícula constituyen un conjunto infinito de
curvas fractales (cuyo número crece al aumentar la resolución). La descripción de una de
esas curvas hace que intervengan las coordenadas medias, macroscópicas, que
se corresponden con la trayectoria clásica, en el caso de que exista, y las
fluctuaciones que en depende la escala, y que dominar los desplazamientos
medios a muy pequeña escala. Una parte de los efectos cuánticos procede de
esas fluctuaciones. Así, los comportamientos clásicos y cuánticos son una cues­
tión de escala. El carácter relativo de la transición, que depende de la masa y de
'la velocidad, o, más generalmente, de la temperatura, explica que existan efectos
cuánticos macroscópicos, como la superconducción.
Como nos resulta evidente, con el desdoblamiento de las variables en clásicas y
cuánticas no queda resuelto el problema completamente. El carácter complejo de
la función de onda que se halla bajo lo esencial de las paradojas de la MC recibe
ahora explicación: proviene de una rotura de la invariancia por reflexión temporal,
que también es consecuencia directa de la no diferenciabilidad del espacio-tiempo.
Por primera vez en la historia de la física las ecuaciones no son invariantes al
cambio del signo del tiempo. Con esto queda al descubierto que el carácter
reversible del tiempo estuvo relacionado con la diferenciabilidad y que el tiempo de
carácter irreversible está relacionado, en cambio, con lo fractal. Los dos se
encuentran integrados en una expresión de variable compleja, con la parte real
para el reversible y con la parte imaginaria para el irreversible.
Era de esperar que la velocidad, derivada de la posición, sea la primera variable
afectada por esta nueva estructura del espacio. Así, para una geodésica fractal
que llega a un punto dado en determinado instante, hay una infinidad de geodési­
cas de salida a partir de las que se puede calcular una velocidad media "hacia
delante”. Se trata de un proceso fundamentalmente irreversible: si remontamos el
curso del tiempo por la geodésica que ha "escogido" la partícula, encontraremos
una infinidad de geodésicas "entrantes" en el mismo punto. Se calcula una
velocidad media "hacia atrás" para este proceso inverso. A causa de la no

225
diferenciabilidad del espacio-tiempo, no hay ninguna causa por la que tenga que
ser idéntica a la velocidad "hacia delante”. Por lo que se refiere a la descripción de
los desplazamientos elementales considerados, los dos sentidos del transcurso
del tiempo son igualmente válidos para la descripción de las leyes físicas. Ello
conduce a combinar esas dos magnitudes en una velocidad compleja a fin de
definir un nuevo proceso doble que sí es reversible. La semisuma de las
velocidades hacia delante y hacia atrás constituye la parte real de la velocidad
compleja, y la semidiferencia, la parte imaginaria.
Introduciendo una mayor generalidad, se construye un nuevo operador de deriva­
ción compleja a partir de las derivadas medias "hacia delante" y "hacia atrás", que
va a realizar la covariancia de escala. En éstas condiciones se puede retomar
todas las grandes líneas de la mecánica clásica, y generalizarla con la no
diferenciabilidad, gracias a esta técnica que hace complejas todas las magnitudes
que fueron antes reales. El operador de derivación compleja con respecto al
tiempo se construye explícitamente al considerar a las trayectorias de las
partículas como curvas fractales de dimensión dos. La dimensión dos es un valor
particular, para el cual toda dependencia explícita en función de la escala queda
"oculta" en el formalismo de los operadores diferenciales de la MC. El principio de
correspondencia para el momento y la energía puede ser demostrado, y la
ecuación fundamental de la dinámica se transforma en la ecuación de
Schrodinger; o sea, esta ecuación puede escribirse de manera covariante como la
ecuación de las geodésicas para el movimiento inercial en el vacío. Cuando se la
resuelve, el comportamiento cuántico aparece como la manifestación del carácter
fractal del espacio-tiempo.
Empero, los conceptos de relatividad de escala y de espacio-tiempo fractal
permiten ir más allá de la mera reestructuración que han suscitado en la com­
prensión que se tenía de la MC. Con el método de la covariancia de escala se ha
podido deducir la MC a partir de las leyes de escala más simples que pueden
construirse. La más simple posible de las leyes de escala es una función fractal de
dimensión constante y desempeña el papel de invariante de escala. Una ley así
permitió deducir la MC estándar cuando la dimensión fractal es dos. Si se quiere

226
conseguir una formulación covariante más general es de rigor que la dimensión
fractal deje de ser invariante y pase a depender de la escala.
Ahora bien, una vez que nos encontramos en este nuevo y ampliado escenario, el
primer objetivo consiste en encontrar las formas posibles de esa nueva variable de
escala que sean compatibles con el principio de la relatividad. La ley de dimensión
constante (de la que se deduce la mc) es la única que satisface dicho principio, por lo
qué debe ser demostrable. Pero si se encuentran otras posibilidades, de hecho
permitirán una generalización de la MC. Se trata de saber cómo la longitud
curvilínea definida sobre una curva fractal, así como la dimensión fractal
generalizada que la caracteriza, se transformarán en un cambio de resolución.
Al igual que en la relatividad del movimiento, la dificultad que se encuentra al tratar
de resolver el problema de manera general, obliga a primero tratar con el caso
restringido de las transformaciones lineales. La solución particular de éste, que
corresponde al comportamiento fractal de dimensión constante, es el grupo de
transformaciones de Galileo. En cambio, su solución general es el grupo de
transformaciones de Lorentz, con las que Einstein dio forma a la TER. Es preciso
observar, que el problema de la inercia es para las leyes del movimiento lo que
éste es para las escalas. Así como la solución galileana describiría con exactitud
las regularidades de la naturaleza sólo sí la velocidad de la luz fuese infinita; en el
caso de las escalas, las leyes de dilatación y contracción no serían más que
aproximaciones (a escala infinita), de leyes más generales.
En éstas, la dimensión fractal desempeña el papel de una variable básica, que
representa para las escalas el mismo papel que el tiempo para el movimiento.
Esta variable al representarla en las coordenadas fractales forma un vector en un
espacio de cinco dimensiones. En la nueva situación hay que tener siempre
presente que la solución general del problema de las transformaciones de escala
es la transformación de Lorentz.
Las nuevas propiedades que estas nuevas leyes presentan y que las distingue de
las de escala habituales, pueden emparejarse con las propiedades
correspondientes ya conocidas en relatividad del movimiento. La principal es la
aparición de una escala de longitud mínima insuperable, invariante a la acción de

227
las dilataciones y contracciones. Esta escala realiza, para las resoluciones, el
mismo papel que la velocidad de la luz para las velocidades. Reemplaza al valor
cero, que deja de tener sentido físico. No es ni una barrera ni una cuantización del
espacio-tiempo: la naturaleza de esta escala límite es la de un horizonte. No pone
en entredicho la no diferenciabilidad del espacio-tiempo, ni la existencia sin fin de
estructuras tras los aumentos sucesivos: es el efecto de tales magnificaciones el
que ha cambiado.
De la misma manera que se puede ir añadiendo indefinidamente la velocidad sin
sobrepasar jamás la de la luz, un número arbitrariamente grande de contracciones
sucesivas, aplicadas a una escala inicial cualquiera, conduce a una escala relativa
siempre superior a la longitud límite.
¿Cuál es el valor de esa longitud límite? Es la longitud de Planck, construida en
función de las tres constantes fundamentales de la física: G, la constante de la
gravitación, h, la constante de Planck, y c, la velocidad de la luz, y tiene un valor
de 1,6 x 10-35 metros. A partir de estas mismas constantes se construyen la masa y
el tiempo de Planck. La longitud de Planck representa el límite más allá del cual
los efectos de la gravitación se vuelven tan importantes como los cuánticos.
El continuo espacio-temporal se agujerea en las tentativas de construcción de una
teoría de la gravitación cuántica, que describiría los fenómenos físicos a esas
energías. Este problema ha sido planteado, por supuesto, en la relatividad de
escala, pero de otra forma.
El cambio más inmediato concierne a la relación entre escala de masa, energía y
momento, y escala de longitud y tiempo. En la teoría cuántica, estas dos escalas
son inversas entre sí. Cada vez que un resultado se expresa mediante una
longitud, un radio, un parámetro de impacto característico, lo que se mide
explícitamente es una energía y un momento, retraducidos a una escala de
longitud, supuestas correctas las relaciones cuánticas usuales. Según las
relaciones de incertidumbre, la cantidad de movimiento tiende hacia el infinito
cuando el intervalo de tiempo métrico tiende hacia cero. En las leyes relativistas
de escala, ese intervalo no puede ser inferior a la escala de Planck. Sorprendente,

228
ahora, la escala de longitud y de tiempo de Planck poseen las propiedades físicas
antes atribuidas a las longitudes y tiempos nulos.
Un cambio tan profundo tiene numerosas consecuencias en física y deben
estudiarse una a una. Uno de los primeros resultados obtenidos con esta teoría no
es el menos sorprendente. Las escalas de masa y de longitud dejan de ser
directamente inversas: a la escala de la longitud de Planck le corresponde ahora
una energía infinita. ¿Cuál es entonces, ahora, la escala de longitud que le
corresponde a la escala de la energía de Planck?. Se ha encontrado que es una
escala universal un billón de veces menor que la de los bosones que transportan
la energía electromagnética. Esta escala es, precisamente, la de la gran
unificación, descubierta en física de partículas.
Este resultado significa que, desde el punto de vista de la energía, la unificación
de las cinco interacciones fundamentales (eléctrica, magnética, nuclear débil y nuclear fuerte)
se efectúa, en el nuevo marco, cuando alcanza la energía de Planck. Que es
precisamente la energía a la que la gravitación se vuelve del mismo orden que las
otras fuerzas, la unificación de las cinco interacciones sólo puede ser simultánea.
Si este resultado es más satisfactorio que la unificación en dos tiempos de la
teoría actual, no por ello facilita el problema de construir una teoría unificada.
Tendría, en todo caso, la ventaja de poner fin a una de las preguntas
fundamentales de la física: ¿por qué la constante de gravitación tiene el valor
encontrado?. Remitiéndonos a la expresión cuántica de dicha fuerza, se halla que
la unidad natural de las masas es la masa de Planck. En efecto, se puede
considerar que las partículas fundamentales de la naturaleza son las que
transportan la interacción totalmente unificada, una gran parte de esas partículas
tendrán la masa de Planck y crearan concretamente esta unidad universal de
masa.
Finalmente podemos decir que la fase crítica del EMROcc ha consistido en la
angustiosa búsqueda de un sistema de representación que de sosiego al alma del
científico que se halla sufriendo los terribles tormentos tantálicos, que sin piedad
castigan su mente. Lo que hemos visto es cómo han modelado llevando las cosas
hasta el extremo, agotando el sentido científico del empeñoso trabajo, cuando

229
acaban produciendo teorías imposibles de comprobar. Esto simplemente es
marchar en el mismo terreno, patinar sin darse cuenta. El espíritu que ha animado
este vano trabajo es el de restablecer el carácter absoluto del EMROcc tan venido
a menos desde la catástrofe cuántica. Pertinaz insistencia que anhela seguir
escribiendo las ecuaciones de la realidad en un espacio de puntos-límite y sólo en
el dominio de la cantidad. Sin embargo, esta tendencia reduccionista ha si
superada luego del atinado y definitivo acierto de Notale y el descubrimiento de la
Geometría Analítica Fractal por parte del autor de este libro. Creo que el futuro de
la modelación matemática está asegurado y se extiende en el dominio de la
intersección de la cantidad y la calidad. A continuación presento el otro sistema
matemático producido en la historia, el EMRAn.

230
SEG U N D A PARTE

Acerca de cómo surgió y cómo evolucionó el Espacio Matemático de


Representación de la Civilización Andina Precolonial

Ha sido tema de discusión recurrente el establecimiento de la fecha de arribo de


los primeros humanos a las Américas. Pero sólo últimamente a recibido la
atención debida, gracias al magnífico descubrimiento de un campamento
paleolítico en Monte Verde10 en el año 1976. Hemos podido saber que el poblado

10 Monte Verde es el primer yacimiento del pleistoceno en las Américas que proporciona en
abundancia los restos de las plantas que desempeñaron una función económica. Entre ellas
tenemos restos de tubérculos, incluidos los de la patata silvestre; pero además, una gran variedad
de semillas comestibles, tallos, hojas, frutas, nueces, bayas y raíces. Es clave señalar que estas
plantas maduraban en todos los meses del año y provenían de distintos ambientes, pues nos
revela que aquellos aldeanos eran sedentarios y que permanecían a lo largo de todo el año en un
campamento bien dotado de una base orgánica rica y fiable.

231
estuvo acampado en las ciénagas del extremo sur de Chile (lugar equidistante entre
los Andes y el Océano Pacífico) y compuesto por una treintena de personas hace
14.700 años. Ellos tal vez fueron descendientes de los primeros hombres que
atravesaron el fondo helado de Bering. No obstante, otras evidencias que se han
encontrado, aunque dispersas y menos contundentes, sitúan la fecha de llegada
hace 20.000 años.
Los resultados de los estudios realizados nos informan también de otros aspectos
de la vida de estos hombres, que van más allá del momento mismo en que se
asentaron en América. Los arqueólogos, a medida que han ido interpretando los
nuevos artefactos encontrados y recomponiendo el diario vivir de aquellos
pioneros, nos han ido enterando acerca de sus hábitos de caza, de las plantas que
comían, de los medios de transporte que utilizaban para realizar largas travesías y,
en general, del modo de vida que llevaban cuando llegaron al Nuevo Mundo. Así
sabemos, por ejemplo, que los primeros colonos, durante sus desplazamientos por
tierras templadas, pusieron mayor empeño en la caza menor, en la pesca y en la
recolección de plantas, que en la caza mayor, como se había supuesto.
Fue así entonces cómo ciertos emigrantes procedentes del noreste de Asia
cruzaron el istmo que existía entre Siberia y América del Norte durante la baja
Edad del Hielo, cuando los niveles marinos estaban mucho más bajos que los
actuales. Desde allí se desplazaron hacia lo que hoy es Canadá a través de un
corredor abierto entre dos glaciares que, por entonces, cubrían la mitad
septentrional del continente. Esta ruta los llevó a lo que hoy es EEUU y desde allí
avanzaron hacia las Américas del Centro y del Sur.
Como vemos, ellos atravesaron todo el continente, desde Alaska hasta Tierra del
Fuego.
Sin embargo, los estudiosos del tema nos aseguran que éste no fue el único
camino seguido para entrar al nuevo continente, sino que hubo otras rutas que
tomó el hombre para llegar a las Américas en distintos momentos del tiempo.
Así, parece ser que ciertos exploradores del este de Asia pudieran haber costeado
en pequeños y frágiles botes hasta arribar a América del Norte, para luego bajar
bordeándola hasta alcanzar el Sur en sólo un centenar de años.

232
Otra ruta fue la que tomaron algunos habitantes de Australia, Indonesia,
Melanesia, Micronesia y Polinesia, quienes navegaron por el Pacífico Sur cada
vez más hacia el este hasta llegar finalmente a Sudamérica, utilizando las
corrientes marinas y la constelación de la Cruz del Sur para guiar su travesía.
Finalmente diremos que se ha encontrado evidencia muy controvertida en el
caucásico "hombre de Kennewuick” de hace 9.500 años, que nos indica que los
humanos llegaron también procedentes de Europa, navegando por el perfil
costanero de Groenlandia y bordeando el límite de los glaciares que en ese
entonces cubrían el Mar del Norte.
Como resultará evidente para el lector, el Nuevo Mundo ha venido funcionado a lo
largo de milenios como un gigantesco crisol donde se han ido fundiendo los mas
diversos pueblos del mundo que fueron llegando a distintos sitios y en diversos
tiempos, para luego, paulatinamente y de modo no uniforme, ir entrando en un
gran proceso de transculturación que aún no termina y que apenas ha comenzado
a dar sus primeros frutos.
Así pues, el conocimiento obtenido desde el descubrimiento de Monte Verde nos
ha conducido a una cascada de nuevas revelaciones e implicaciones que por fin
sientan una sólida base para proseguir con la reconstrucción del pasado del
hombre en América.

2. 1 El medio geográfico y el sistema económico andinos


El continente Americano acabó de integrarse hace apenas tres millones de años
por medio del istmo de panamá y labró como su sistema vertebral a la gigantesca
Cordillera de los Andes que se extiende de sur a norte a lo largo de 7.200
kilómetros. Este sistema montañoso que es el mayor del mundo y que se ha
conformado a lo largo de las edades por la actividad litosférica, no ha dejado de
crecer, siempre se encuentra en constante cambio geológico y climático, es la
sede misma de la inestabilidad, de la turbulencia.
Al irrumpir transversalmente en la Zona Tropical del planeta, con su colosal
presencia, la Cordillera de los Andes da origen a un fenómeno muy singular al

233
producir una síntesis climática mundial, pero distribuida de manera altitudinal y no
latitudinal, como lo está en la superficie del globo terrestre. Así, comenzando en el
nivel del mar tenemos, el clima tropical basal, luego el subtropical, el templado, el
frío de páramo y finalmente el polar de los nevados11. Esto dio lugar a que los
países se distribuyeran también de manera superpuesta; así fue, el país de abajo,
el del medio, el de arriba y el de lo alto; claro está, que esto era de este modo
antes de la invasión europea. Luego de ella los conquistadores implantaron su
cultura y los países se redistribuyeron de modo yuxtapuesto, como ha sido muy
propio del Viejo Mundo.
En este escenario geobioclimático brotaron dos grandes núcleos civilizatorios, el
de los cultivares de Mesoamérica y el de los de Sudamérica andina, en medio de
un conjunto multiforme de pequeños espacios naturales distribuidos de modo
discreto y sujetos a una condición de asiduo cambio climático. Esto hacía del
escenario agrícola un flexible conglomerado de micro ecosistemas, capaces de
proveer múltiples oportunidades para la adaptación de los mutantes creados, con
generosidad extrema, por obra de la enérgica radiación del sol tropical sobre las
hélices génicas de animales y plantas. Estos pequeños espacios son los espacios
producidos por las colosales fuerzas geológicas que han dado origen a la gran
cadena montañosa de los Andes y que moldean la faz oeste de Sudamérica:
llanuras y laderas, agudas pendientes, altas cumbres, ondulaciones suavizadas y
quebradas cortantes.
Son, en América del sur, el producto de la subducción de la placa tectónica de
Nazca en la placa Sudamericana, al que hay que añadir el proceso de acreción del
litoral ecuatoriano, originado de las emanaciones del manto producidas en el
"punto caliente" del Pacífico ecuatorial que dio origen al Archipiélago de las
Galápagos. Más tarde, los materiales que emergen de la actividad eruptiva se
convierten en litosferoclastos y se trasladan hacia el este, para henchir, finalmente,
las costas y elevar las cumbres.

11 Según la clasificación de las Zonas de Vida hecha por L. R. Holdridge los pisos ecológicos
altitudinales correspondientes serían: premontano y montano bajo, montano, subalpino, alpino y
nival.

234
Los desbalances subsecuentes a las presiones geológicas desatadas en varias
direcciones, con diversa intensidad y en diferentes momentos, por la dinámica de
la corteza y el manto, han hecho que la superficie continental se deforme en
arrugas o pliegues de centenares o miles de metros de altura, dispuestos no sólo
en el sentido longitudinal del Cinturón de Fuego del Pacífico, del cual forman
parte, sino en direcciones latitudinales y mixtas.
Así pues, el paisaje orográfico andino se presenta como un arreglo de grandes y
pequeñas cordilleras, que se encadenan en nudos, formando aquí y allá
ecosistemas tan variados como: los glaciares permanentes y estacionales, en las
mayores alturas, donde florece la tundra del trópico; el páramo frío, húmedo y nu­
boso, en el nivel orográfico inferior, que aloja en su lecho ondulado a bromelias
gigantes, plantas almohada, gumifloras de los pajonales, algún que otro maíz de
altura, varios tipos de musgo y donde, a decir verdad, la cebada y el trigo muy a
gusto se han sentido; la puna, situada en la misma cota de los páramos, tierra de
menor humedad y más luminosa, propicia para los tubérculos; la ceja andina, en el
escalón inferior; y a continuación el altiplano, hogar del maíz, llanura rodeada de
volcanes y nevados que enmarcan paisajes engalanados por capulíes, sauces
blancos y negros, cabuyas verdes y azules, arupos rosados y blancos, algarrobos,
guarangos, molles, ovos y cactos; el piso del bosque nublado, de vegetación
exuberante y mucha lluvia, morada de begonias, orquídeas y helechos arbóreos;
luego, los valles de las cuencas hidrográficas, colonia de las frutas mediterráneas;
y, finalmente, las extensas llanuras tropicales donde caña de azúcar y arroz han
enraizado con lujuria.
Ninguno de estos ecosistemas podría abastecer por sí solo de todos los alimentos
requeridos para una nutrición balanceada. Son territorios cuyas vocaciones
agrícolas están netamente trazadas, a menos que se produzca una conmoción
externa que las modifique. Una constelación de espacios disímiles determinada,
como se ha dicho, por la magnitud de las elevaciones sobre el nivel del mar. Esta
es la base de la diversidad, ciertamente. Pues el cambio de altura implica
diferencias de presión atmosférica, insolación, temperatura, evapotranspiración y
afecta el régimen de lluvias. Pero el factor altitudinal no es el único, junto a él debe

235
considerarse una influencia de carácter latitudinal, que se manifiesta en
mesuradas oscilaciones estacionales del clima, tanto más acusadas cuanto mayor
es la distancia respecto del ecuador terrestre.
Cuando ocurren las conmociones externas, que alteran el paisaje y las vocaciones
agrícolas, las variables que modifican la calidad de los suelos y trastornan los
períodos climáticos dados según la altitud y la latitud son: las erupciones
volcánicas, los grandes terremotos, vaivenes y perturbaciones hidrográficos y las
fluctuaciones de los sistemas de vientos. Pero el mayor agente de variación es el
sistema de las corrientes oceánicas que dan origen al llamado fenómeno de "El
Niño”, cuyas alternativas marcan los grandes sobresaltos de los climas andinos.
Dado este escenario, la estrategia agrícola desarrollada por el hombre en los
Andes precolombinos se fundamentó en la explotación simultánea de varios
ambientes que, localizados en distintas altitudes (pisos ecológicos), le proveían de los
recursos necesarios para una alimentación balanceada. Estos, al formar
verdaderos "archipiélagos verticales” de zonas de vida, hicieron que la estrategia
fundamental de los pueblos andinos haya consistido en alcanzar el control vertical
de un máximo de estos pisos ecológicos, guiados por el despliegue generoso del
genoma del maíz a medida que éste conquistaba un nuevo piso, un nuevo nicho
ecológico, con la aparición de una nueva variedad que enriquecía aún más su ya
portentosa prosapia. La conquista de este sistema ecológico altitudinal se dio de
abajo hacia arriba, o sea, comenzando en el nivel del mar en la primera etapa,
hasta lograr alejarse lo suficiente de su dependencia de los frutos del mar y
comenzar ha desarrollar una incipiente agricultura asentada principalmente en el
cultivo del maíz.
En este gran objetivo se fundamentó su economía política y se desarrolló el
Estado. La percepción y el conocimiento sistematizado que el hombre andino fue
adquiriendo de sus múltiples ambientes naturales a través de los milenios le
permitió combinar tal versatilidad de ambientes en un solo macro-sistema
económico-político.
Por tanto, el control simultáneo de tales "archipiélagos ecológicos verticales” se
constituyó en un ideal andino compartido por etnias geográficamente muy

236
distantes entre sí, y muy distintas en cuanto a la complejidad de su organización
económica y política. Esto impulsó el desarrollo de una organización social basada
en la autosuficiencia, cuya consecuencia más importante consistió en que, para
adquirir los recursos que necesitaban, los miembros de una comunidad tenían que
distribuirse eficientemente en el territorio. La zona donde se daban tales recursos
podían estar ubicadas próximas una de otra o a grandes distancias, según los
patrones ecológicos que regían en su territorio.
La repuesta precisa, a la imperiosa necesidad de hacer cada vez más eficiente al
sistema, fueron las terrazas agrícolas, construidas en los flancos de las montañas:
plataformas dispuestas a manera de gradientes orográficos.
Su utilización supuso beneficios sustanciales, ya que por medio de las terrazas fue
posible aprovechar las ventajas comparativas de la diversidad y la variabilidad de
los ambientes, para la aclimatación de las especies mutantes. Es decir que las
terrazas fueron la obra física que viabilizó el gran proyecto de fitomejoramiento
desarrollado por la sociedad andina hasta el aciago fin del siglo XV.
Obras maestras de ingeniería, la forma de las terrazas dependía de la localización
e inclinación del terreno, del tipo y profundidad del suelo, de la frecuencia y
cantidad de lluvia. Las terrazas planas, por ejemplo, eran las adecuadas para
climas secos o poco lluviosos, pues evitaban el drenaje de los sedimentos y
optimizaban la infiltración del agua. Las inclinadas permitían, en contraste, una
eficiente escorrentía donde más frecuentes y masivas eran las lluvias.
Los muros de soporte brindaban una natural protección contra los rigores del
clima, en particular contra las heladas inclemencias de los páramos y valles de
altura; las variaciones de curvatura de los perfiles permitían, por su parte,
canalizar el curso de los vientos; y la planitud del piso, dado el caso, ayudaba a
una mejor fijación de las raíces de las plantas y al ahorro de energía en las faenas
agrícolas.
Las terrazas fueron sólo uno de los representantes de la singular tecnología
andina. A decir verdad, la andina no fue una tecnología agrícola tan singular. De
hecho varias técnicas, incluyendo las terrazas, fueron compartidas con la
agricultura Mesoamericana.

237
Por ejemplo, tenemos el arte de los canales de irrigación y el de los camellones o
ingahuachos (surcos del Inca) Estos eran montículos de tierra, cuyas formas y
dimensiones variaban según condiciones e intenciones, tal como en el caso de las
terrazas. Las formas podían ser rectanguloides o en damero, en abanico, en
espiga o en cáscara de cebolla. Se utilizaron con varios propósitos: permitir
siembras en terrenos muy húmedos y pantanosos, impedir el anegamiento durante
la época lluviosa, para hacer agricultura de humedad y almacenar el agua
excedente en surcos y pequeños embalses, para hacer agricultura de secano.
Facilitar el riego y controlar la temperatura, fueron otras de sus finalidades.
En lo que atañe a la biotecnología tenemos el arte del cultivo asociado, el de la
rotación de cultivos, el del control de plagas y enfermedades y el del
fitomejoramiento. Estas fueron tecnologías complementarias: el cultivo asociado
maíz-fréjol era seguido, tras la cosecha y la preparación del terreno, por el cultivo
de la patata y luego de la quinua. La combinación maíz-fréjol dejaba enriquecida la
tierra con el nitrógeno necesario para la patata y ésta entregaba, por su parte, el
potasio requerido por la quinua y el maíz. Una manera muy ingeniosa de
proveerse de abono orgánico y de acortar, por lo mismo los periodos de barbecho,
cuyas duraciones extremas afectaban el ecosistema. Y una manera, sin duda
elegante, de dar abasto a una dieta diversificada.
En lo relacionado con el fitomejoramiento, la humanidad debería lamentar la
pérdida definitiva, a causa de la invasión europea, de muchas especies y
variedades vegetales estabilizadas por la acción selectiva de los agricultores
amerindios. Esto impide saber la exacta magnitud del gran proyecto andino. Sin
embargo, gracias a los testimonios recogidos por los botánicos europeos que
vinieron durante los siglos XVIII y XIX, y merced a los testimonios de otros
informantes, se sabe que entre los varios centenares de plantas domesticadas
deben incluirse géneros de alimenticias, condimenteras, medicinales,
estimulantes, forrajeras, textileras y madereras.
La tecnología agrícola que someramente hemos descrito asienta con total
propiedad el concepto andino de «respuesta adaptada a las condiciones naturales
imperantes», un plan basado en la flexibilidad o topologización de las acciones

238
según las sinuosas características del ambiente, y una clara orientación para
aprovechar las ventajas de la diversidad y la variabilidad.
A diferencia de lo acontecido en la agricultura andina, los campesinos del Antiguo
Mundo no precisaron entregar todo su tiempo de trabajo a la agricultura. La
regularidad del clima y la ayuda de los animales de tiro hicieron posible que los
labriegos pudieran dedicarse a la ganadería, al comercio y, por cierto, al cultivo del
espíritu. Propiamente la filosofía, las matemáticas y la astronomía del Antiguo
Mundo le deben su ser a las ventajas comparativas del sistema agrícola, a la
relativa simplicidad de su manejo y a los altos rendimientos obtenidos gracias a
que la fertilización de los suelos fue trabajo aportado por los grandes ríos. Los
desarrollos de las ciencias citadas requirieron de una casta de profesionales por
completo separados de la labor agrícola. Sólo una importante generación de
excedentes pudo haber provisto las facilidades para la actividad de un numeroso
grupo conformado por filósofos, sacerdotes, científicos, libre pensadores y artistas.
Sólo una agricultura como la del Cercano Oriente pudo haber brindado el sostén
terrenal al gran vuelo del pensamiento griego.
En cambio, en la América precolombina, el trabajo dominante fue la agricultura.
Hay que recordar que la actividad ganadera fue muy reducida. Ese escaso
desarrollo es explicable si se toma en cuenta el inmejorable código de conducta de
los auquénidos o camellos americanos: no copular en cautiverio. O sea, preferir la
muerte a la esclavitud. Por ello es que la ganadería de alpacas, wanacos, llamas
y vicuñas fue una ganadería nómada. El pastoreo consistía en recorrer y dirigir al
ato a través de grandes distancias.
En todo caso queda muy en claro que los andinos fuimos y somos agricultores.
Una mirada a alguna zona de la actual serranía andina, bastaría para formarse
una impresión de nuestra agricultura en funcionamiento. Allí se vería trabajo
simultáneo en varios micro ambientes contiguos, cada uno con su pequeño plantío
situado en una fase del ciclo agrícola. En un piso podríamos observar a los
labriegos en faena de siembra; en otro, en la de desyerbar y no muy lejos, en
tarea de cosecha. Es decir, una yuxtaposición de diversos ciclos productivos, dota­
dos con sus propios tiempos y características.

239
Otro componente fundamental del sistema económico andino fue la industria del
tejido. Todos los que conocemos la excelencia, tanto técnica como artística del
tejido andino, sabemos además, que hubo intenso interés y gran preocupación,
que perduró durante milenios, por el desarrollo de la mita textil, que casi igualaba
en rendimiento al trabajo agrícola. Haciendo abstracción de los aspectos técnicos
y artísticos del tejido, que han sido objeto de amplios y ricos estudios, quedan
todavía sin responder preguntas como: ¿cuál fue la función de este componente
de la organización social andina dedicado a una enorme producción textilera?,
¿quiénes fueron los tejedores?, ¿cómo estaban caracterizados? , ¿cuál era la
finalidad de su trabajo? , ¿cómo se integraba el tejido con tantos e inesperados
componentes políticos y religiosos?
Yo estoy seguro que estas preguntas tendrán respuestas satisfactorias una vez
que de a conocer cuál fue la matemática que utilizaron los andinos. Adelantando
una respuesta puedo decir que no sólo fue económica la función del tejido, sino
que tenía otro papel fundamental: en él se escribía el discurso geométrico-
matemático, el religioso y el político. En él se escribían las funciones que tenían
que realizar los dignatarios del Estado, incluido el Inca.
En el conjunto que comprende a las primeras culturas agrícolas americanas que
surgieron en el seno de los conglomerados humanos con tradición lítica, se
encuentra Tiwanaku. El escenario geográfico donde tubo su origen y desarrollo es
la actual Bolivia. Menos conocida que otras contemporáneas como la Maya, es sin
embargo de similar importancia histórica. Su cronología es todavía discutida, pero
parece imponerse la fecha 1580 a. C. para los inicios y 1172 para su declive final
cuando fue absorbida por la cultura Mollo en la zona de La Paz y por otros pueblos
en las zonas de expansión.
La estructuración temporal dada a conocer por los arqueólogos, revela tres
grandes períodos que abarcan cinco épocas, a saber: el período aldeano, que va
de 1580 a. C. a 43 d. C. y abarca las épocas I y II; el período urbano de 133 a. C.
a 724 d. C que cubre las épocas III y IV y el imperial de la V y última época que va
desde 724 d. C. hasta el 1172 d. C.

240
No se conoce con precisión cuando se dio el paso del período aldeano al urbano;
no obstante, se sabe que está relacionado con la aparición de construcciones
dedicadas al aprovechamiento de los recursos hidráulicos.
Ante el fiero rigor del clima del Altiplano, la primera civilización que floreció buscó
la zona más propicia, o sea, un lugar con abundante agua y donde las diferencias
climáticas fuesen atemperadas. Ese escenario fue el SE del lago Titicaca,
alimentado por los glaciares de la Cordillera Real.
Durante las épocas I y II Tiwanaku no estaba constituido como una ciudad, era
más bien como una aldea importante. Ya en estos tiempos se practicaba el
laminado de oro y la fundición de plata, oro, y cobre. La uniformidad en la vivienda,
con casas de planta rectangular adosadas unas a otras en forma de colmena,
parece indicar la ausencia de clases sociales durante el período aldeano, gracias
a la existencia de una economía autosuficiente con una estructura comunitaria y
una agricultura de secano que les permitía la obtención de patatas, quinua y coca.
En estas condiciones su arquitectura llegó a ser doméstica, sin pretensiones
suntuarias en adobe quemado o revestido de una fina capa de arcilla. En los
muros de algunas de las viviendas, el arqueólogo Max Portugal ha encontrado pin­
turas rituales, lo que constituiría la única decoración arquitectónica del primer
período.
Debe mencionarse también que hubo un comercio incipiente que probablemente
se limitó a intercambiar minerales, como la obsidiana y la sodalita, para la
obtención de puntas y cuentas o el hialobasalto que obtenían en las canteras de
querimita.
La ganadería fue básicamente de camélidos, dada la frecuencia de huesos tra­
bajados que se han encontrado. Probablemente se empezó a almacenar carne
para la obtención de charki, carne deshidratada. Otro tanto hacían con la patata,
empleando una técnica muy peculiar y laboriosa que aún perdura y lleva a la
obtención del chuño.
En el plano religioso predominaba una teología meteorológica, con la lluvia en la
cumbre de la pirámide de las deidades, como ha sido muy propio de las
sociedades agrícolas. Algunos enterramientos (probablemente de las castas superiores) se

241
realizaban en las llamadas Chullpas, construcciones en forma de torreón, en cuya
base se inhumaba al difunto en posición fetal y acompañado de un ajuar
compuesto en su mayor parte de cerámica y algún objeto metálico de uso
personal.
En el primer siglo de nuestra era aparecieron ya los síntomas inequívocos que
impulsaron en la época III la organización de un aparato estatal dirigido y bien
delimitado, y la aparición de clases sociales dentro de una estructura piramidal
encabezada por una aristocracia administradora de la producción agraria y una
casta sacerdotal con importantes conocimientos de matemáticas y astronomía.
La economía pasó de la producción autosuficiente a la superproducción,
apartando un tercio de ella para la manutención de los campesinos y dos tercios
para la aristocracia y las monumentales obras arquitectónicas que marcan este
periodo. El resultado de esta empresa son los grandes templos de Kalasasaya y
Pumapunku, cuyas estructuras religiosas estaban dedicadas a los dioses, que
consolidaban el poder de la casta sacerdotal, y sincretizaban aspectos
astronómicos orientando a los puntos cardinales sus partes más importantes.
También pertenece a esta época la pirámide en forma de terraza de Akapana. El
templo de Kalasasaya, que está parcialmente excavado, es el mejor conocido y
parece ser el núcleo del cual irradió la cultura tiwanakota.
Los componentes más importantes del templo de Kalasasaya son, la «Puerta del
Sol» con un calendario solar en sus relieves; el «Monolito Ponce», «Monolito Ben-
net» con un calendario lunar, etc. Todo el conjunto está intercalado con
construcciones de canalización y aprovechamiento del agua que prueban el
carácter marcadamente hidráulico de esta civilización. Estas grandes obras
favorecieron a una burocracia agraria ubicada en la cumbre de la pirámide social
que pronto se convirtió en una aristocracia monopolizadora de conocimientos
técnicos y que se benefició de la producción doméstica de las clases inferiores, lo
que le permitió dedicarse a guerrear, gobernar, mantener el culto, planear
ciudades. La ciudad se convertiría así en residencia de la casta dirigente. Las
castas guerreras que hicieron aparición tuvieron que ocuparse de buscar recursos

242
externos, comenzando por las tribus vecinas de Chiripa y Wankarani que fueron
anexionadas a Tiwanaku, generándose así un sentimiento expansionista.
Es característico de la época IV un fino trabajo en piedra dura, sobre todo andesita
traída del lago Titicaca. A este periodo corresponde la "pared balconera” del
Kalasasaya. La cerámica es mucho más fina y mejor cocida, apareciendo formas
nuevas como el vaso Keru. También aparece la figura humana, los grifos, las
esfinges y las quimeras.
El conocimiento de la metalurgia, que ya importante en la época III, es
perfeccionado en la IV, con hachas de bronce de filo en media luna y aletas, y una
gran perfección en la joyería del oro y la plata. En general, todo el arte mejora en
esta época, debiendo añadir a lo mencionado un espectacular avance en el
dominio de las leyes de simetría.
El comercio conoció también un gran impulso gracias a los enclaves militares
establecidos en la costa y la zona montañosa. La estructura social era la clásica,
las civilizaciones antiguas: un gran sustrato campesino que sustentaba una clase
media artesana, comerciante y guerrera, por debajo de una aristocracia política y
religiosa.
Por esta época, la ciudad de Tiwanaku alcanzaba más de 400 ha, con una
población cercana a los 50 000 habitantes cuyas viviendas rodeaban el núcleo de
templos y fortalezas con el Kalasasaya a la cabeza. Todas las construcciones sun­
tuarias estaban orientadas astronómicamente, la ciudad fue construida siguiendo
señidamente un plan geométrico, para que contara con amplios espacios abiertos
en torno a los edificios y con un minucioso y complejo sistema de canales
superpuestos. Otras ciudades menores fueron las de Wankani, Ojje, Lukurmata y
Pajchin.
Ya a finales de la época IV da comienzo la política expansiva de Tiwanaku. Sus
objetivos eran de conquista, avasallamiento, imposición religiosa e implantación de
una administración propia. Fue ocupado el territorio de la región sur de Perú, la
Sierra y la costa central norte de Chile, norte de Argentina y, en Bolivia, los
departamentos de La Paz, Oruro, la montaña de Cochabamba y el norte de
Potosí. En los lugares donde se encontraban con culturas de alto nivel, como por

243
ejemplo la Nazca, el resultado era un meztizaje cultural de lo aportado por
Tiwanaku y la tradición local; en cambio en los pueblos débiles, las formas
culturales aportadas por el invasor permanecían tan puras como en su propia
capital. Es preciso señalar que hubo una cierta unificación del espectro cultural ti-
wanakota que abarcó unos 600.000 km2 y una población superior a los 3.5 mi­
llones de habitantes.
No se conocen edificios de importancia en toda el área dominada. Sí se extiende,
en cambio, el uso de la figura central de la «Puerta del Sol» como símbolo del
poder.
La cerámica es de menor calidad artística que en la época anterior aunque conser­
va la misma tipología. Su decadencia es manifiesta pese ha ir aumentando la
calidad cuanto más cerca de la capital se fabricase. Aflora en abundancia en el
valle de Cochabamba y en la zona de Mizque. Los colores de la decoración son el
rojo, negro, marrón, ocre y blanco aunque en el periodo decadente se utilizaba el
negro sobre la arcilla. También el trabajo en piedra manifiesta una decadencia
total. Parece como si todo el esfuerzo del pueblo tiwuanacota se hubiese
concentrado en una empresa militar.
Pese a la diversidad de la población, consecuencia del enorme territorio ocupado,
se generalizó el uso de una sola lengua, antepasado del actual Aymara. Otra
consecuencia fue una gran variedad de recursos generados según las
características de cada zona ocupada.
Entre las causas más importantes que llevaron a la decadencia y a la posterior
desaparición de la cultura Tiwuanaco fue la prolongada sequía que asoló al
altiplano al comenzar el siglo XII. Esta hizo que el nivel del agua del lago
disminuyera tanto que se volvió insostenible la vida social de la ciudad. Al dejar de
funcionar el sistema hidráulico por la falta de agua vinieron las malas cosechas y
la disgregación política. Esta se abrió paso y dio origen a núcleos sociales
menores de lengua aymara. Entre los más importantes se encontraban los
pueblos: Kolla al noroeste del lago, Umayasa al este, Lupaka al oeste Pachusa y
Karduka al sur, Charca en Cochapamba, Karakara y Chicha en Potosí que luego
dieron pie a la formación de las culturas Mollo y Yanpará. A su vez, estos pueblos

244
evolucionaron y dieron origen a la civilización Inca con la que se inicia el segundo
ciclo de la Cultura Andina.
Lo que recientes investigaciones revelan sobre los factores que intervinieron en el
gran impulso que tomó la ciudad en el siglo I d. C., nos muestran cómo los
tiwuanacotas aprovecharon la humedad de las cercanas capas freáticas y cómo
conducían el agua de las inundaciones por medio de canales excavados a los
lados del río Chakamarka con el propósito de elevar la temperatura de los terrenos
de cultivo, gracias a la energía solar acumulada debido a la gran capacidad
calórica del agua, para así poder enfrentar a las heladas que amenazaban
diezmar las siembras. También nos enteran que éllos construyeron canales en la
zona montañosa de los Yungas aprovechando el río Chouqeyapu para irrigar
grandes terrazas agrícolas. Pero el mayor logro tiwuanacota consistió en el
sistema de camellones, verdaderos andenes de cultivo formados por capas de
diferentes materiales sobre una base de piedras y separados por canales
inundables que creaba un microclima húmedo en los cultivares de papa y quinua.
Está documentada una extensión de más de 80.000 hectáreas de camellones
alrededor del lago Titicaca.
Los colonos tiwuanacotas se establecieron en lugares cuyo clima variaba desde el
clima tropical, en zonas como la selva de los Yungas, hasta zonas muy frías como
las laderas del Nevado Illimani. Aquí, las aguas de los riachuelos que descendían
producto de la fusión de la nieve eran conducidos mediante canales hasta los
cultivares de Cohoni, lugar reconocido por sus abundantes cosechas.

2.2 El sistema matemático de la Cruz Cuadrada


El distinguido antropólogo holandés R. Thom Zuidema en su artículo titulado La
cuadratura del círculo nos dice que denominó a su estudio así «... con el fin de
insistir en un proceso y no solamente en una oposición. [..] Menon dice que en la
India y en otros lugares las ideas cosmológicas más antiguas explicaban el mundo
como un cuadrado, y que la astronomía y el calendario se basaban en las
propiedades de éste. [...] Puede que los incas hayan jugado numéricamente con
estas ideas, pero entonces lo hicieron en el marco de la oposición interior/exterior

245
y Sol redondo/Tierra cuadrada, con la tierra dividida en cuatro suyos. Los Incas
expresaban en forma de ecuación el concepto de organización jerárquica de
unidades territoriales y la organización administrativa de unidades territoriales
familiares. Así, un ayllu, como la unidad local más pequeña, equivalía a una
pachaca o grupo de 100 familias; el suyo de una provincia equivalía a 10.000 y la
provincia en sí a 40.000.»
A diferencia de él, el Arq. peruano Carlos Milla sugiere que el antiguo hombre
andino derivó sus matemáticas jugando geométricamente con el cuadrado y el
círculo y no aritméticamente. Para fundamentar su hipótesis el autor nos presenta
abundante evidencia arqueológica, arqueo-astronómica y documental en su libro,
que ya mencionamos en la introducción, Génesis de la cultura Andina. En ella uno
puede apreciar la persistente presencia del símbolo de la Cruz Cuadrada en
muchas de sus representaciones. Pero, lo que realmente sorprende de toda esta
información es su difundida presencia en el tiempo y el espacio a lo largo de las
Américas precolombinas. Este símbolo tuvo un profundo significado matemático-
religioso y fue venerado durante los seculares rituales como símbolo ordenador
del mundo andino, cual si fuese un gran atractor. Ante esto uno se queda
sorprendido e intuitivamente piensa que en efecto debió, por necesidad histórica,
haber habido un sistema matemático que haya posibilitado la construcción de la
urdimbre y la trama del tejido social andino. Quiero decir que sin un E.M.R un
pueblo jamás puede evolucionar de manera sostenible y a largo plazo, hasta
alcanzar complejidades sociales de las dimensiones de una civilización, como en
efecto llegó a ser la América India. Esto se debe a que sin una lógica-matemática
en la comunicación social, ésta estará privada de estructura, por lo que la
dinámica social no alcanzaría estabilidad y, consecuentemente, la sociedad no
progresaría. Empero, por más abundante que sea la información, no se puede
inferir la clase de sistema que fue, por la inexistencia de un discurso matemático
escrito (a la manera del papiro Rhind); para, según esta constancia poder decir: "este
fue el E.M.R.An.”

246
Llegado este momento interviene el autor de este libro, portando el concepto
moderno de E.M.R. en la mente, como instrumento técnico de punta, para tratar
de dar respuestas satisfactorias a las preguntas que encierra este enigma.
Entonces, doy comienzo al juego del cuadrado y el círculo en el recuadro 16. Este
gráfico se ha construido en un espacio cuya unidad estructural geométrica es el
cuadrado. El procedimiento constructivo consiste en elegir un cuadrado unidad y
luego circunscribirle un círculo. De aquí en adelante, se debe repetir el proceso,
ora circunscribiendo un cuadrado, ora circunscribiendo un círculo a ese cuadrado,
generándose así un espacio exterior macro. Pero si procedo a la inversa, esto es,
dado el cuadrado unitario le inscribo un círculo y a éste le inscribo un cuadrado,
etc, en cambio genero un espacio interior micro (ver recuadro 1 6 .1 )
Al pensar detenidamente sobre éste juego, caemos en la cuenta que nos conduce
a la rama de las matemáticas que estudia los procesos iterativos en sistemas no
lineales discretos. Como se puede apreciar, la función que se configura en el caso
macro es V2n (donde n es el número de iteraciones) y en el caso micro es V2-n. Esta
relación nos entrega la longitud del lado del cuadrado tras cada iteración, ya que
es la ley del crecimiento y decrecimiento del lado del cuadrado. Al comparar los
dos espacios salta a la vista que el uno es exactamente el inverso del otro, lo cual
prueba que la forma de la estructura externa es la misma que la interna, o sea que
ésta permanece invariante al cambio de escala que implica éste proceso. Esta
propiedad se conoce con el nombre de homotecia o autosimilitud y nos coloca,
inopinadamente, en territorio fractal.
Es importante percatarse de que se puede utilizar de manera equivalente tanto el
espacio conformado por cuadrados como el constituido por círculos. En el primero
la variable es el lado del cuadrado, mientras en el otro es su diámetro, cuya ley de
crecimiento es dn=V2n+1 y la de decrecimiento, dn=V2-n.
Esto permite que este espacio pueda ser usado como pantógrafo, para ampliar el
tamaño de un rostro por ejemplo, como parece ser el caso de los antiguos
constructores de las gigantescas esculturas de la pampa colorada de Nazca.
Ahora bien, con la esperanza de encontrar alguna regularidad y mirando entre la
tercera y cuarta iteración me apercibo de que puedo construir un cuadrado por

247
cada uno de los lados del cuadrado unitario u origen y formar, así, una cruz
cuadrada unitaria. Acto seguido, al inscribir y circunscribir un círculo en esta cruz,
se forma un anillo comprendido en el intervalo [3,V10], que da lugar a un
fenómeno geométrico muy hermoso, este anillo resulta ser la morada inaccesible
del número n (ver recuadro 17) Continuando con el proceso, circunscribo un
cuadrado a la circunferencia mayor del anillo y comparo su perímetro con la
circunferencia de la cuarta iteración y así obtengo un valor aproximado, para este
número mágico, igual a V10 =3.1622...(ver recuadro 18) A ésta operación se la
conoce como rectificación de la circunferencia, ya que por medio de ella se
consigue obtener un cuadrado con un perímetro aproximadamente igual al
perímetro de un círculo dado. Aquí llegado, debo señalar que la andina, sería la

primera cultura de la Tierra en expresar n mediante un número irracional como lo

es V10; aunque, no sea un trascendente. A diferencia, las culturas del Viejo Mundo
lo han hecho sólo mediante números racionales. Por ejemplo, para los autores
bíblicos valía 3, los babilonios usaron 25/8, 256/81los egipcios, 355/113 los chinos
y 22/7 los griegos.
Ahora observemos el recuadro 19, en él se ha repetido el proceso inicial tomando
como cuadrado base al cuadrado que circunscribe a la cruz unitaria del recuadro
18 y se ha obtenido una ampliación de ésta en el orden de 3 veces, en la siguiente
crece a 9, en la subsiguiente a 27 y así sucesivamente. La función que rige este
proceso iterativo se la infiere fácilmente: sea Ln= lado del cuadrado de la cruz a
cada iteración, entonces L n={3°, 31, 32, 33 ,... 3n} que es la ley de crecimiento de la
cruz con base 3. Observemos que cuando no hay ninguna iteración todavía, o sea
cuando n=0, se tiene Lo=1, que es la longitud del lado del cuadrado unitario del
cual se parte.
Antes de llegar hasta aquí no habíamos encontrado algo verdaderamente
extraordinario, pero si miramos el recuadro 20 nos topamos con una gran
sorpresa: ¡el objeto geométrico que hemos construido es un auténtico sistema de
coordenadas de referencia, un verdadero espacio matemático de representación,
por tanto, la función que se halla representada describe el crecimiento del lado del

248
cuadrado y es: Ln=n, la cual es la progresión aritmética de los números naturales
N. Resulta evidente que se trata de un sistema coordenado de cuerdas o hilos (no
de puntos como el cartesiano), apropiado para representar funciones discretas, o sea,
funciones en números enteros. Estas funciones aparecen representadas en el
EMROcc como una distribución estadística, por lo que no se pueden estudiar sus
propiedades.
Dado este escenario, que es el dominio de la matemática inductivo-constructiva, el
autor de este libro da a conocer al lector el descubrimiento de un sistema de
coordenadas de referencia de carácter fractal, equivalente al sistema de
coordenadas cartesiano, pero definido en un espacio de hilos, cuya unidad
estructural es el cuadrado, a diferencia del otro que está definido en un espacio
constituido por puntos-límite (ver recuadro 21)
Se observa que el único elemento en común que tienen los dos espacios de
representación es el punto 0 y, también se advierte que, cuando los lados
exteriores de la cruz tienden a cero, este sistema coordenado tiene como límite al
cartesiano. Se prueba fácilmente que los dos por igual son cuerpos topológicos,
espacios matemáticos de representación, pero con distinta clase de topología.
Mientras en el primero se realiza una topología de puntos-límite o diferencial, en el
otro se ejecuta una topología de hilos.
Con este descubrimiento se ha dado origen a una genuina Geometría Analítica
Fractal, que permite estudiar las propiedades de las funciones discretas y de las
series divergentes. Lo he denominado Sistema de Coordenadas de la Cruz
Cuadrada y sirve para representar funciones cuya variable independiente n, es un
número Z (ver recuadros 21 y 2 2 ) Su parte exterior-macro es útil para la graficación de
funciones crecientes y la interior-micro para funciones decrecientes, escritas como
sucesiones fraccionarias infinitas. Observemos que los valores de la función
aparecen expresados por los lados de la cruz, mediante la curva fractal de
dimensión D=1.4649735... En otras palabras, la familia de curvas fractales
cuadradas concéntricas representan los valores numéricos sucesivos que toma la
función.

249
He aquí pues, un sistema apropiado para representar y estudiar las propiedades
de las funciones discretas, y útil por tanto, para describir los cambios de estado
que sufren los procesos concretos, a diferencia del espacio de puntos-límite que
sólo es apropiado para describir los cambios de posición de las partículas.
Es de sumo interés hacer notar que la distribución de las curvas fractales
cuadradas concéntricas vista en tres dimensiones es una pirámide escalonada,
cuya altura es una dimensión libre y continua (ver recuadro 2 1 . 1 ) Esto hace que resulte
apropiada para definir en ella un sistema de coordenadas espacio-tiempo, con el
espacio discreto y el tiempo continuo, que permitirá describir la duración de los
cambios de estado, por ejemplo. En ella también se puede representar a los
números complejos de la forma s=f(n)+g(t)i, con f(n) discreta y g(t) continua.
Resaltemos esta bondad del sistema que me permite coordinar las funciones
discretas y continuas, cualidad que no posee el sistema cartesiano; puesto que, al
estar conformado por puntos-límite, es trascendente y por tanto resulta
absolutamente excluyente, sólo se lleva consigo mismo.
De manera general, el sistema se opera como sigue:
a) Dado un espacio de cuerdas Ec, -definido en el espacio métrico que tiene como
unidad estructural al cuadrado- elijo convenientemente al cuadrado unidad que
será el centro de coordenadas. Acto seguido construyo la cruz cuadrada unitaria y
trazo las diagonales del cuadrado central y las de la cruz (que son los ejes de
coordenadas), dejando así el sistema listo para ser utilizado (ver recuadro 2 0 )
b) Ahora, supongamos que quiero representar la función f(n), definida en el
conjunto de los números enteros positivos, Z+. Para ello, comenzando siempre en
el centro 0, voy colocando en el eje d 1 los valores del producto cn=V2/2xf(n) tras
cada iteración, de tal manera que por cada valor de n=1,2, 3,... se tendrá un valor
para la cuerda C (aquí V2 /2 es la cuerda unidad)
De inmediato, hago lo propio en el eje D 1 con los valores del producto Cn=V10/2 x
f(n) (esta vez V1 0 /2 es la cuerda unidad) Luego, uno los extremos de estas dos cuerdas; o
sea, realizo su producto topológico. Así pues, al poner en coordinación d 1 con D1,
obtengo como resultado una cuerda que es el lado de la cruz. Para bien
comprender esto recordemos que en el espacio diferenciable el producto

250
topológico de dos puntos o producto cartesiano es otro punto al que le
corresponde un par ordenado de números definidos en el conjunto RxR, y así
mismo se lo consigue poniendo en coordinación dos puntos cualesquiera de los
ejes de coordenadas. Es clave indicar aquí, que en el sistema de la cruz cuadrada
la coordinación se realiza entre dos cuerdas para un mismo valor de f(n) y un solo
valor de n, pero se lo hace mediante un desplazamiento proporcional la una de la
otra, mientras que en el carteciano se lo hace entre un valor de la variable
independiente y el valor correspondiente de la función evaluada para dicha
variable.
La demostración de que la función f(n) siempre vendrá expresada por el lado de la
cruz se presenta en el recuadro 3.
c) Finalmente, hago lo mismo en los cuatro ejes restantes y obtengo las curvas
cuadradas cerradas que representan los valores que toma de f(n) después de
cada iteración.
Veamos unas aplicaciones:
Como ya vimos, en los recuadros 21 y 22 están representadas la función f(n)=n y
su inversa f(n) =1/n que sigue la ley armónica {1, 1/2, 1/3, 1/4, 1/5,...}. Ahora, si
f(n)=(Vl0)n obtenemos la ley de crecimiento del lado de la cruz: Ln=(V10)n (donde V10
es la diagonal de la cruz unitaria)(ver recuadro 24). O, si f(n)=(V2)n, la ley de crecimiento del
lado de la cruz: Ln=(V2)n.
Por último debo manifestar que el sistema opera para el requerimiento inverso,
esto es, dada una regularidad cualquiera, escrita como una sucesión, yo puedo
encontrar la función que se distribuye según el lado de la cruz (ver recuadro 2 5 ).
Es importante observar que, cualquier distribución de cruces cuadradas que siga
una ley determinada, tiene su equivalente en la distribución de sus respectivos
círculos circunscritos e inscritos, cuyos diámetros expresan la función que deseo
representar. Así, dada la función f(n), el lado de la cruz será Ln = f(n), el diámetro
del círculo circunscrito Dn= V10 f(n) y el diámetro del círculo inscrito dn=3 f(n). Ahora,
en tres dimensiones, la pirámide escalonada se trasformará en un cono recto
circular trunco y escalonado. Por último debo manifestar que en este sistema de

251
coordenadas se desarrolla de manera natural la geometría vectorial
correspondiente.
Con este objeto, que es un EMR fractal por poseer la propiedad de autosimilitud u
homotecia, se encontró el antiguo hombre andino, descubrió sus propiedades y las
utilizó para orientar evolución de su magnífica y peculiar Civilización. Toda esta
gran realización tubo lugar en un medio montañoso, con una distribución climática
altitudinal y una elevada biodiversidad, donde éstas matemáticas le sirvieron de
maravilla para ejercitar la difícil labor de la agricultura. Le indicó cómo era la
distribución de los pisos climáticos, cómo tenía que ser la construcción de las
terrazas y cómo tenía que distribuir la tierra de cultivo y la propiedad. Debemos
advertir que el sistema fue usado de manera preferente en tres dimensiones,
teniendo a la coordenada altura como dimensión de libre ajuste (ver recuadro 21.1)
Al compararlo con el E.M.R.Occ., que sabemos es de carácter métrico
diferenciable, vemos que, al cambiar la unidad estructural geométrica del espacio,
cambian radicalmente todas sus propiedades, excepto las de cuerpo topológico,
que son comunes a todo sistema coordinado de referencia. También se conserva
la métrica; ya que la clase de distancia que hemos definido es la misma en ambos,
lo cual implica que la matemática geométrica andina, en lo que se relaciona con el
espacio de la Cruz Cuadrada, es de carácter métrico fractálico.
Podemos decir, entonces, que mientras el uno está repleto de puntos, el otro lo
está de cuadrados; mientras el uno es continuo absoluto e infinito, el otro es
discreto, relativo en la escala y finito; el primero es axiomático-deductivo, el
segundo es inductivo; el uno es diferenciable y abstracto, el otro es fractal y
concreto; el continuo permite que el observador se escinda de la realidad, el
discreto exige de éste más sensibilidad; el que es infinito es apropiado para
describir el cambio de posición de los cuerpos, el finito lo es para dar cuenta de los
cambios de estado que estos sufren; mientras el uno es libre, el otro es
condicionado por la escala; El de Occidente es estático, el Andino es dinámico; en
el uno se hace topología diferencial o de puntos, en el otro se practica topología
de cuerdas. Finalmente, el que es absoluto dio origen e impulsó el desarrollo de la

252
sociedad mecanística, en cambio el que fue relativo permitió el surgimiento de la
sociedad organísmica.
En contraste, la más importante semejanza que los unifica, consiste en que los
dos sistemas fueron utilizados con idéntico fin: establecer regularidades, realizar
predicciones fiables y efectuar aplicaciones prácticas. Para lo cual, en los dos, se
definieron sus correspondientes sistemas coordinados de referencia espacio-
tiempo, los que servirán para representar las variables que sean del interés del
investigador. Otra importante semejanza, es la de que los dos están bajo la
definición de espacio métrico; pero, el de occidente solo revela la dimensión
cuantitativa de los objetos, mientras el andino revela tanto lo cuantitativo como lo
cualitativo.
Otra implicación importante a la que se arriba es la de que el espacio matemático
en el que occidente ha venido representando el mundo, ya no sería el Universal (el
único capaz de reflejar la realidad en su totalidad) como se había supuesto y como se había
establecido. Con esto se ha puesto en evidencia que, en otras condiciones
geográficas y climáticas, como las andinas, se ha desarrollado otra clase de
espacio en el cual representar el mundo y se descubre que la principal diferencia
entre los dos radica en la clase de unidad estructural geométrica con la que está
construido cada uno.
Pero, las diferencias no son tales que lleven al antagonismo irreductible a los dos
sistemas; mas bien, éstos resultan ser complementarios, se necesitan
mutuamente, lo que le falta al uno le sobra al otro y viceversa.
Finalmente, debo manifestar que la matemática de la Cruz Cuadrada es solo la
parte métrica de las matemáticas andinas. La otra parte está relacionada con el
Sistema del Kuipu, el que a su vez, se relaciona con las matemáticas de la
descendencia o matemáticas genealógicas. Estas debieron haber sido utilizadas
para dirigir los procesos reproductivos de plantas y animales incluyendo al
hombre, para de ésta manera influir en el mejoramiento genético de las especies.

2. 3 El cromático sistema matemático del Kipu

253
«En cómputos y divisiones no se, a la verdad, si nuestra escritura da a los matemáticos más
seguridad que a estos hombres esos signos suyos. Y es de todo punto sorprendente ver con que fidelidad
guardan aún de las cosas más menudas durante muchísimo tiempo con ayuda de sus khipus....[] Por que
para diversos géneros como la guerra, había diversos quipos o ramales. Yen cada manojo de estos ñudos,
ñudicos, e hilillos atados, unos colorados, otros verdes, otros azules, otros blancos, y finalmente tantas
diferencias, que así como nosotros de 24 letras, guisándolas en diferentes maneras, sacamos tanta infinidad
de vocablos, así estos de sus ñudos y colores sacaban innumerables significaciones de cosas».
(Historia natural y moral delasindias por JosédeAcosta S.J.)

El amplio público dice acerca del kipu que, desde que llegaron los conquistadores
han escuchado hablar de ellos como si hubieren sido objetos dotados de
misteriosas y extravagantes propiedades, capaces de sugerir increíbles y
románticas imágenes de lo que fue el idílico mundo de los incas.
Ya en el siglo XVIlI, la novelista Francois Grafigny contó acerca de una princesa
enamorada que tenía un kipu en calidad de sortilegio de amor. En ese mismo el
siglo, el Documento sobre Idolatrías, que se conserva en el Archivo Arzobispal de
Lima, expresó la típica sorpresa de los europeos ante el gran conocimiento que a
los indios les proporcionaba el kipu, diciendo no saberse la ciencia de cómo lo
obtenían. Recuerdo que el kipu fue incluso tema de una novela de ciencia ficción
donde se le equipara con una tarjeta de la IBM, nada más ni nada menos.
Los occidentales nunca entendieron bien de lo que se trataba el kipu; pero les
fascinó, les intrigó y les molestó. Como todos sabemos, casi todos los kipus fueron
quemados por los inquisidores españoles, quienes justificaron la destrucción
arguyendo que éstos contenían recetas mágicas y relataban historias diabólicas.
Pocos se salvaron de las hogueras, y esos ejemplares fueron pasando a manos
de distantes coleccionistas, públicos y privados, merced a un laberíntico tráfico
mercantil no exento de escándalo y fraude. Hoy por hoy, los kipus de probable
autenticidad, no pasan del medio millar, se hallan diseminados en varios museos
del mundo y no se puede acceder a su contenido debido a que no se conoce el
código de colores usado.
Como se ve, la historia de la reacción europea ante el kipu está trágicamente
marcada por la actividad inquisitorial y mercantilista, que ha mantenido en una
gran pobreza su comprensión.

254
Con el afán de enriquecer el tema debo mencionar que el uso de un sistema de
nudos para almacenar información no fue de utilización exclusiva de los incas. Por
ejemplo, el historiador griego Heródoto refiere que Darío de Persia poseía un
cordón anudado que le servía para registrar el paso de los días. También en la
antigua China se usó el cordón anudado. Los nudos se usaron como intentos de
escritura fonética. En el análisis del budismo zen de Okanisama realizado por el
matemático Douglas Hofstadter, se ha recogido esa tradición para intentar
establecer, mediante la manipulación de cordeles, la autenticidad de un koan. En
la Alemania preindustrial, el número de la medida de trigo en un saco, se
representaba por medio de nudos. Y, lord Kelvin intentó deducir la estructura de la
tabla periódica de los elementos químicos suponiendo que los átomos son anillos
de remolino anudados en el éter.
En el epígrafe anotado, el cronista José de Acosta nos enseña que tantos nudos,
nudicos e hilillos atados, colorados unos, verdes, azules y blancos otros, y tan
diferentes entre sí, significaban varias cosas y cuanto los libros pueden decir de
historias, leyes, ceremonias y cuentas de negocios, con admirable puntualidad y
para distintos géneros de asuntos. Sin embargo, nunca refirió cómo hacían los
kipucamayoc para codificarlas en nudos.
Por su parte, Sarmiento de Gamboa atribuye a los kipus gran capacidad de
representación y destaca la importancia que los colores tenían en el proceso
semántico:
«En el cual quipo dan ciertos ñudos, como ellos saben, por los cuales y por
diferencia de los colores distinguen y anotan cada cosa como con letras. Es una
cosa de admiración ver las menudencias que conservan en esos cordalejos, de
los cuales hay maestros como entre nosotros del escribir» [La literatura de los Quechua,
por Jesús Lara 1969]
Bernabé Cobo nos cuenta que el enviado del Virrey Cañete, Polo de Ondegardo
convocó a los amautas y kipucamayos para que les dieran a conocer acerca de
su historia y, éstos lo hicieron leyendo los memoriales de sus kipus y pinturas que
aún estaban vivas. Además manifiesta que los kipukamayoc llevaban la
contabilidad exacta de muchos años atrás, de llamas, y otros ganados que eran

255
entregados al Inca. Cristóbal de Molina nos dice que «por medio de los kipus los
indios, dan razón de más de 500 años de todas las cosas que en esta tierra en
este tiempo han pasado»
La función semántica más resaltada por los cronistas es la de que el kipu fue un
dispositivo técnico apropiado para realizar censos político-administrativos y llevar
la contabilidad de los recursos económicos de las comunidades. En efecto, en
1547 Pedro Cieza de León observó a los encargados de los silos de Xauxa
anudando en sus kipus todo lo que entraba y salía de ellos. En su dibujo, Guamán
Poma de Ayala, al representar al kipukamayoc al lado de los tambos reales, nos
sugiere esta función del kipu. Aprovechando estas capacidades de registro, el kipu
fue usado por el estado inca para llevar censos exactos de la población, lo que
favoreció al establecimiento de un orden matemático que le facilitaba la
recaudación de los tributos. Así mismo este sistema les permitió llevar una
contabilidad altamente confiable que mucho la precisaban, ya que la plusvalía que
extraían provenía mayormente de la utilización de la mano de obra gratuita
captada por medio de la mita.
Alrededor de 1560 buena parte de la información almacenada en los kipus
estatales empezó a traducirse a escritura alfabética en las declaraciones que los
indios rendían a los funcionarios de la colonia.
La traducción de uno de ellos ha sido estudiada por el prestigioso etnohitoriador
John Victor Murra (Formaciones económicas y políticas del mundo Andino, 1975), se trata del
khipu-memorial de los señores de Hatún Xauxa, presentado a la Audiencia de
Lima en 1561. En él está documentada la cantidad de varones, mujeres, ojotas,
cántaros etc. que los españoles habían tomado desde la época de Francisco
Pizarro en 1532, hasta lo que el ejército del presidente La Gasca se llevó en 1548.
Otro khipu de este orden contiene información acerca de los tributos de los indios
de Chucuito entregados a la corona española. Fue presentado al visitador Garci
Diez de San Miguel en 1567 y, en él consta la cantidad exacta de ropa y los
18.000 pesos que pagaron como tributo, así como, el número exacto de habitantes
que tenían los pueblos de Chucuito, Acora, Ilave, Juli, Pomata, y Zepita que
trabajaban en la mita de Potosí. Aquí se puede observar nítidamente que la

256
estructura es en forma de árbol, que nos revela la lógica de los nudos y cómo
operaba el sistema decimal de numeración12.
Estos kipus en particular, vistos matemáticamente, aparecen como un sistema
para el registro estadístico, con una estructura sintáctica en forma arborescente o
enramada, por tanto de carácter jerárquico, parecido al de la pirámide. Muy
diferente a la matriz rectangular usada por occidente; ya que, mientras ésta tiene
como sistema ordinal al conjunto de los números enteros, aquella en cambio tiene
al conjunto de los números decimales.
De aquí se infiere que este ingenio consistió en un sistema gráfico de notación que
combinaba un sistema decimal de numeración con una lógica de colores que
servía para determinar los grupos semánticos que luego serían sistematizados y
contados por el kipu.
El kipu fue instrumento inseparable de la tradición oral, no sólo por la
complementariedad que guardan, sino también porque constituye un sistema de
notación, que les sirvió para establecer las estructuras narrativas de la tradición
oral andina, las cuales se reorganizaron una vez que fueron difundiéndose más
ampliamente durante el incario. El ejemplo más elocuente de que el proceso
civilizador iba en esa dirección lo encontramos en la narración de Guamán Poma
de Ayala, quién estructura su historia según las categorías de los antiguos kipus.
Lo advertimos cuando describe la historia de los incas explicándola según la
sucesión numérica de los doce incas y las doce coyas, los quince capitanes y, en
referencia directa al sistema decimal, cuando describe la población según las diez
calles en las cuales, según las edades, la distribuyeron los incas.
Es preciso conocer que el kipu fue un dispositivo intelectivo de carácter concreto
que evolucionó a partir de una lógica semántica que ya existía en otros sistemas
como el killkay, los pallares, los tocapus, los kerus y los chuis.

12 Bernabé Cobo escribe con relación al sistema decimal que «A cada diez indios tributarios o
vecinos tenía puesto el Inca un superior que cuidaba de los nueve; y en cada cinco decurias
déstas, otro que tenía cuenta con cincuenta; otro gobernaba una centuria, que constaba de las dos
decurias de a cincuenta; en cada cinco centurias, ó cada quinientos, había otro; y dos superiores
de a quinientos con sus súbditos, reconocían a un milenario, que mandaba a mil, diez déstos
estaban sujetos a otro más principal, que tenía bajo su obediencia diez mil, que hacían una
gobernación llamada Hunu»

257
Los incas, al combinar la lógica semántica con la potente lógica espacial de la cruz
cuadrada dieron origen al sistema de ceques que permitió el desarrollo de una
organización social de la tenencia de la tierra, de los usos del agua, de los centros
ceremoniales o huacas y de sus dioses. Esto se pudo realizar escribiendo
geométricamente las características ecológicas de cada etnia en su vestimenta.
Cieza de León nos confirma esto diciendo que cuando el gobernador inca visitaba
las provincias del imperio, además de mirar si las etnias poseían ganado o
metales y de fijar un tributo acorde a sus posibilidades y medio ecológico,
observaba con detenimiento el traje que portaban. Nos detalla escribiendo: «Cada
uno de los naturales désta provincia, y todos los más linajes de gentes que
habitan en aquellas partes tienen una señal muy cierta y usada, por la cual en
todas partes son conocidos» [Crónica del Pirú, Pedro Cieza de León]

Además debemos manifestar que el sistema de ceques estaba también constituido


en atención a las normas religiosas provenientes del mito de origen de los indios.
El mito afirma que Wiracocha habría creado a los indios en el Tiahuanaco
«pintándoles los trajes y los vestidos que cada uno había de traer y tener» (Critobal
de M olina, 1 5 5 3 ) De esta manera, el acto de la creación quedaba vinculado a un
profundo acto semántico de comunicación, el cual era reprisado cíclicamente en
las prácticas rituales. De este modo, las huacas, que simbolizaban el origen mítico
de cada ayllu, determinaban, no solamente la tenencia colectiva de las tierras y el
uso del agua, sino también el modo en que debían ataviarse las comunidades. Por
esto, las etnias eran reconocidas fácilmente por las insignias y señales que traían
en la cabeza y por la clase de los trajes que ceñían sus habitantes, lo cual permitía
a los kipukamayos llevar un registro preciso de las variables fundamentales del
sistema de ceques. Lo propio sucedía con el sistema jurídico, Gumán Poma
hablando de la estadística judicial nos cuenta que: «...los nudos de tales y tales
colores decían los delitos que se habían castigado y ciertos hilitos de diferentes
colores que iban asidos a los cordones más gruesos decían la pena que se había
dado y la ley que se había ejecutado»
Estas muestras de la condición altamente expresiva del kipu en su aspecto
cuantitativo, no debe llevarnos ha concluir que éste fue solamente un sistema

258
decimal-contable apropiado para la administración estatal y útil para dar cuenta de
la historia económica del incario, por que sería no entenderlo en su integridad
funcional, sería verlo solamente a través de una de las funciones que brindaba.
Su capacidad de representación sobrepasaba la dimensión meramente aritmética
y mnemotécnica y se extendía hacia dominios de la Matemática totalmente
desconocidos en el Viejo Mundo. Su potencia expresiva lo había colocado en la
calidad de atractor, destinado a construir el orden espiritual de la sociedad andina
bajo el proyecto teológico-político cusqueño del Tawuantinsuyo.
Es ampliamente conocido que los cientistas sociales de cultura occidental,
durante largo tiempo, han tratado de entender el kipu bajo la falsa suposición de
que era una tosca aproximación a la escritura fonética, que ellos desde tiempos
bíblicos la han considerado como la Escritura, por ser la Palabra de su Dios, el
Logos. Y, prevalidos por esto y por haber sido el pueblo escogido por Él han
nublado su mente y mantenido en la extrema pobreza el entendimiento científico
del kipu. Como es conocido, el proyecto teológico-político de Occidente desde su
llegada a las Américas fue el de imponer el monoteísmo universal a sangre y
fuego, avasallando a todos los pueblos de la Tierra que no poseían un sistema
alfabético de escritura, para luego, aprovechándose de su candidez, irles
entregando los 24 signos "sagrados” como si fuesen una ofrenda divina.
Lo mencionado hasta aquí acerca del kipu es un resumen de lo que ha sido dicho
verbalmente y por escrito por todos los estudiosos que se han dedicado al tema.
Pero claro, esto ha sido antes del descubrimiento de la Matemática de la Cruz
Cuadrada o Métrica Andina por parte del autor de este libro. Como ya pudimos
enterarnos ésta matemática consistió en una Geometría Analítica Fractal,
exactamente la correspondiente a la Geometría Analítica Continua desarrollada
por Occidente, aunque definidas en dos clases distintas de espacio, la primera en
uno discreto o cuántico cuadriculado y la segunda en uno continuo absoluto o de
puntos-límite (ver recuadro 2 0 ), pero las dos con la misma capacidad de representar
geométricamente las funciones algebraicas, la una apta para curvas fracturadas o
fratales y la otra útil para curvas lizas o diferenciables.

259
Esto es precisamente lo que no conocían los autores dedicados al estudio del
kipu. Es decir, no conocían que el antiguo hombre andino construyó desde hace
por lo menos 4.000 atrás una matemática tan avanzada como la que tubo el
hombre europeo en el siglo XVII cuando Descartes inventó el sistema de
coordenadas que lleva su nombre. Dispusieron, entonces, de un sistema de
coordenadas de referencia métrico tridimensional de carácter fractal (ver recuadro
2 1 .1 ) apto para representar funciones discretas, lo que les permitió viajar en los
distintos ritmos de la naturaleza, desde los telúricos hasta los sociales y
espirituales. De esta forma orientaron la producción agrícola y el desarrollo del
Sistema de Terrazas Agrícolas asentado en el control vertical de un máximo de
pisos ecológicos, gracias a que pudieron, desde un comienzo, distribuir
matemáticamente la tierra de cultivo, la de pastoreo y la población humana, para
sobre esa base cultivar y echar a crecer los otros subsistemas sociales: el
económico, el jurídico, el religioso, etc., mediante la combinación balanceada con
el otro sistema matemático desarrollado en los Andes, el de la geometría de las
descendencias, que finalmente resultó en el kipu, hasta alcanzar su objetivo
supremo: la constitución del Tahuantinsuyo como una totalidad de la diversidad
bio-cultural de los Andes y bajo el gobierno de la Capacuna.
Sistema de Coordenadas que llegó a ser el Espacio Matemático de
Representación Andino (EMRAn) o kipu, del cual derivaron pujantes una ingeniería
agronómica, una genética, una hidráulica y una de caminos que puso en marcha
este gran proyecto Panandino. Todo en forma análoga a cómo sucedió con el
sistema cartesiano, del que derivó la ingeniería mecánica que puso en marcha el
proyecto capitalista occidental, al posibilitar la construcción de las máquinas, que
pasaron a constituir la base mecánica de la producción social que impulsó la
revolución industrial. Luego hizo presencia la ingeniería química desde la teoría
atómica de Dalton, y más tarde la ingeniería electrónica basada en la idea de
electrón, partícula supuesta elemental, puntiforme. Así, mientras el EMRAn
impulsó el desarrollo de ciencias biológico-sociales, el EMROcc hacía lo propio
con las ciencias físico-químicas, electrónica e informática.

260
En lo relacionado con la estructura arbórea del kipu se puede ver que se trata de
otra clase de espacio de representación, el cual fue sugerido al hombre andino,
sagaz observador de su entorno, por las ramas o raíces de una planta y por el
proceso reproductivo en lo relacionado con el árbol de descendencias o
genealógico. A éste le sirvió en las operaciones del cruzamiento genético de los
cultivos para la producción de mutantes, pues se podía simular el proceso
mediante el sistema de nudos y ramas y calcular las características de los
descendientes por medio de la distancia genética ó p-ádica que determina el
grado de parentesco entre los descendientes y está dada por el número de ramas
que separan a éstos de su progenitor. El antiguo hombre andino no debió tardarse
en descubrir inductivamente los propiedades de este espacio en forma enramada.
Entre ellas tenemos a una de inmenso alcance gracias a la geometría causal que
brinda para ser usada en la clasificación jerárquica, por ejemplo. Es el mas
potente método de clasificación usado por el cerebro humano para crear la mente
mediante la organización de la información que proviene de la experiencia
sensible. El primer occidental en utilizar este espacio de representación a la
manera del kipu fue el filósofo austriaco Ludwig Wittgenstein ( 1 8 8 9 -1 9 5 1 ) en su obra
Tractatus logico-philosophicus, discurso en el que las proposiciones que lo
componen están articuladas mediante una sintaxis arborescente y donde es
usado, por primera vez en Occidente, la numeración decimal para marcar las
ramas del árbol. Su anterior sistema ordinal era el de los números enteros. Pero
es, sin duda alguna, la posibilidad que se tiene de definir un sistema de
coordenadas espacio-tiempo la bondad más prominente que adquiere cuando se
combina con la métrica fractal de la cruz cuadrada. La variedad espacio-tiempo
que se puede definir es de cinco dimensiones: tres espaciales que determinan la
forma del nudo y expresan cantidades y dos temporales, una para el tiempo
métrico reversible y otra para el tiempo cualitativo irreversible, como el que marca
el clima. La primera representada por las ramas en las distancias entre nudos y la
otra expresada con el color del nudo. La aplicación más sencilla que se puede
realizar es la del kipu agrícola.

261
figura 2.3a
En la figura 2.3a el nudo rojo representa a la superficie sembrada ( s.s), tanto la
cantidad por la forma del nudo, cuanto el tiempo climático que hizo cuando se
sembró por el color de éste, luego sacamos un ramal con un pequeño nudo en la
punta para registrar con su forma la cantidad de superficie perdida por la acción de
una plaga y con el color la clase de ésta, la fecha en que esto sucedió se marca
en la cuerda principal, allí donde nace el pequeño cordel. Supongamos que más
tarde el sembrío es asolado por una helada, entonces, repetimos el procedimiento
y documentamos el acontecimiento. El siguiente nudo (amarillo) expresa la
superficie cosechada (s.c). El nudo de color marrón que sigue registra el volumen
final de la producción. Pero, como durante el trayecto de la cosecha al
almacenamiento en los tambos reales había pérdidas por otras causas se anota el
acontecimiento de la misma manera anterior. De igual modo, en el trayecto de los
tambos al consumidor final también habrá pérdidas, éstas serán registradas.
El kipu originalmente fue inventado como un instrumento de predicción de los
cambios experimentados por un sistema agrícola, a consecuencia de las
catástrofes climáticas- fenómenos impredecibles según la pauta de los calendarios
astronómicos- en un ambiente como el de los Andes, donde esas fluctuaciones no
son la excepción. Sin embargo, como hemos visto su uso trascendió, ciertamente,
el dominio agrícola. Lo manejaron: astrónomos, astrólogos, historiadores, curacas,
jueces, chasquis, gobernadores, inspectores y otros.
Como podrá ver estimado lector el kipu fue un sistema de coordenadas de
referencia espacio-tiempo pentadimensional apropiado para describir y predecir
los cambios de estado que sufre un sistema dado.

262
Hay que empezar por señalar que el kipu tiene al menos tres variables de estado:
el tipo de nudos, sus colores y la distancia entre anudamientos. Para
caracterizarlas usaré como referencia el kipu agrícola de la figura 2.3a y
empezaré por la variable "tipo de nudos” que representa la forma de la función, ya
sea de siembra o ya de cosecha realizadas en una superficie agrícola dada.
Hemos podido constatar que no es difícil levantar una función de siembra por
medio de nudos. Ya la topología ha probado que en la forma de los nudos yacen
intrínsecas funciones algebraicas. Basta, entonces, que transformemos en un
nudo -a través de un algoritmo convencional- el valor correspondiente a la solución
de la función -nudos de ciertos tipos para valores comprendidos en ciertos rangos-
para que el nudo exprese automáticamente la forma funcional. A este
procedimiento lo denominaremos levantamiento de funciones por medio de nudos.
A diferencia, la cultura occidental ha privilegiado el entendimiento de los cambios
de posición como su idea central de movimiento, por lo qué, levantar un suceso
para Occidente es medir con exactitud arbitraria la cantidad de movimiento de una
partícula y, simultáneamente, su posición en el espacio. La condición de
simultaneidad desaparece en la mecánica cuántica, como se recordará. A
consecuencia de ello, la predictiva se vuelve de carácter estadístico, o sea,
probabilístico. Por tanto para el hombre occidental, el levantamiento de un suceso
consiste en establecer su métrica espacio-tiempo. En el kipu debemos ver en
consecuencia una modalidad que combina tanto el espacio métrico, cuantitativo,
como el espacio p-ádico, cualitativo (ver en el ramal 3.3, las matemáticas p-ádicas)
La segunda variable es el color de los nudos. Colores no sólo homogéneos y
básicos, como los referidos por el cronista de indias José de Acosta, sino de
diferentes tonos y combinaciones, tales como los que se ven en un paisaje de la
serranía andina o en una mazorca de maíz. El color simbolizaba la característica
climática prevaleciente en el suceso agrícola registrado.
La tercera variable, la distancia entre anudamientos de las trenzas, encarnaba, por
su parte, el tiempo medido en días terrestres de duración, como se puede apreciar
en el kipu interpretado por John Murra.

263
Es decir que en el kipu se incorporaron dos dimensiones del tiempo: la del tiempo
climático -fluctuante- y la del tiempo métrico o calendárico o astronómico -estable-.
La del tiempo registrado con colores y distancias cualitativas medidas por el
número de ramas y la del tiempo registrado con la medición de distancias por
medio de segmentos, sugerida por la geometría de la cruz cuadrada. Ambas
dimensiones del tiempo formaban parte del mismo conjunto y se hallaban
correlacionadas. Si a la cuerda del kuipu le considerásemos como el "vector
tiempo”, entonces podríamos ver, a partir de un cierto punto de la misma, que el
tiempo astronómico transcurre linealmente, siguiendo la pista recta del hilo
extendido, hasta que éste se anuda y cambia de color, que es el momento en que
el tiempo pasa a formar parte del espacio cualitativo -torciéndose y retorciéndose-
y expresa la "dimensión” climática. A distancia de los nudos de la siembra, según
el período transcurrido, se formaban los nudos de la cosecha.
El kipu agrícola describía, entonces, la transformación de la siembra en cosecha
bajo una característica climática dada. Con los kipus de siembra y cosecha
obtenidos de un gran trabajo de levantamiento histórico en muchas localidades
agrícolas de la sierra andina y reunidos en kiputecas de celosa conservación, los
kipucamayoc pasaban, entonces, a la operación topológica propiamente dicha. El
interés se concentraba en identificar los invariantes de los nudos del registro
agrícola correspondiente a una catástrofe climática. Una vez hallados los
invariantes, o leyes del cambio de estado, la predicción agrícola podía disfrutar de
una firme base, allí donde no servía el determinismo del calendario astronómico.
Existe una contundente evidencia del empleo de una matemática de funciones en
el caso de la ciencia de la hidráulica, en la costa norte del actual Perú (entre la frontera
con el Ecuador y la ciudad de Lima y entre la Cordillera Negra de los Andes y el Océano Pacífico), donde
se desarrolló la sociedad hidráulica chimú en el siglo XII, cuya economía agrícola
dependió, casi por completo, de la irrigación artificial de los suelos facilitada por
las aguas del río Moche.
En el siglo indicado el fenómeno de El Niño desencadenó una devastadora
inundación que destruyó gran parte del sistema de canales que los chimúes
habían heredado de sus antepasados mochicas. El desastre brindó la oportunidad

264
para reconstruir la red sobre la base de nuevos principios y utilizando otras
técnicas. Tras producirse la conquista inca de Chan Chan -la capital chimú- el
nuevo sistema fue abandonado y permaneció en el olvido hasta los años mil
novecientos ochenta, cuando un grupo de investigadores de la universidad
norteamericana de San José pudo analizar, en su laboratorio, el comportamiento
hidráulico del modelo de un segmento del canal chimú de Entrevalles, más
parecido a una estructura ósea que a un producto ingenieril.
Para sorpresa de los estudiosos, la forma en cruz de la sección transversal del
canal, junto a las variaciones de su anchura y de la rugosidad de las paredes,
mostraron que la obra fue expresamente diseñada para seguir las pautas de
distintos regímenes hidráulicos comprendidos en una gama de números de
Froude. El canal tiene, en su conjunto, una geometría variable, según las curvas
de nivel correspondientes a la topografía del terreno.
Es decir que los ingenieros chimúes habían podido construir un sistema hidráulico
flexible, capaz de resistir y acoplarse a los cambios provocados, en el terreno y en
el clima, por los espasmos sísmicos y por las virulencias de El Niño.
Según el informe presentado por Charles Ortloff, jefe del equipo, el refinamiento
conceptual que suponen estas innovaciones y el hecho de que el diseño responda
a estándares de la actual ingeniería, indican que los chimúes poseían, seis siglos
antes que los occidentales, una ciencia hidráulica sistemática, basada en la
observación, el registro, la generalización y la representación analítico-geométrica.
Por tanto, debemos concluir que la sociedad andina poseyó un pensamiento
algebraico cuya notación fue geométrica y no era conocida hasta el trabajo
realizado por el autor de este libro. Me refiero al descubrimiento de la geometría
analítica fractálica de la cruz cuadrada que es la que prodiga la representación
geométrica de funciones discretas o cuánticas, mediante la posición de las
cuerdas, así como a la geometría arbórea que registra las funciones que rigen las
descendencias.
Yo no encuentro manera más natural de explicar el genio chimú, si no es
suponiendo que su modelación hidráulica transcurrió apoyándose en el kipu.
Después de todo, y según el recto pensar matemático, las ecuaciones de los

265
gases y de la hidrodinámica son enteramente deducibles de la mecánica
estadística, promisorio lugar de los invariantes núdicos.
Esta magnífica complementación entre las matemáticas de la cruz cuadrada y la
de los árboles dio origen al kipu como un sistema de coordenadas espacio-tiempo
de cinco dimensiones, capaz de representar simultáneamente la cantidad y la
calidad. Y, por tanto, útil para dar cuenta tanto de los cambios de posición como de
los cambios de estado que acaecen en un determinado proceso.

266
TERCERA PARTE

267
3.1 E L L U G A R D E L E .M .R .A n E N L A S M A T E M Á T IC A S

ACTUALES

3.11 Teoría de nudos


Para poder comprender y apreciar a cabalidad la potencia expresiva del kipu en lo
relacionado con los nudos, es preciso enterarnos de lo que las matemáticas
actuales han encontrado hasta ahora acerca de este difícil tema. Comencemos
por una muy breve caracterización de la topología.
Toda transformación de una figura que no destruye la adyacencia entre sus partes,
se llama continua; si además de ello, no se crean nuevas adyacencias, la
transformación se llama topológica. La topología o geometría cualitativa se ha
encargado del estudio de las transformaciones continuas que sufren los cuerpos
geométricos, cuando no se producen roturas ni soldaduras, y trabaja en procura
de identificar las propiedades que permanecen siendo las mismas ante estos
cambios: los invariantes topológicos. Indiscutiblemente, entonces, la topología es
solidaria del movimiento. Ella es una geometría dinámica con fuerte incidencia de
la dimensión cualitativa, a diferencia de la euclidiana que es estática y
cuantitativamente pura.
Cabe añadir que en topología no importa que al distorsionarse el cuerpo
geométrico no se conserve la distancia entre cualquier par de sus puntos, como en
el caso de una cuerda de goma que se estira sin romperse. Lo que quiere decir
que las transformaciones topológicas son indiferentes a la métrica; así como lo
son a las transformaciones propias de la geometría proyectiva; por ejemplo, una
distorsión topológica puede muy bien no conservar los invariantes del grupo de
transformaciones proyectivas.
De esta manera la topología ha hecho surgir una nueva clasificación de las figuras
geométricas. Así por ejemplo, dos superficies se consideran topológicamente
idénticas si la una puede transformarse en la otra por medio de una deformación
uno a uno, bicontinua. Dentro del tema de la clasificación topológica de las
superficies cerradas se presentó, hace algún tiempo, un pequeño problema que se

268
ha burlado con persistencia del buen juicio de los topólogos amigos del Viejo
Mundo. Me refiero al famoso problema de los nudos. Pocas cosas pueden ser tan
familiares como un nudo. Un nudo se hace curvando un trozo de cuerda; luego,
ligándolo; y, finalmente, uniendo sus extremos. La curva cerrada resultante,
proyectada en un plano, es una curva de Jordan, que lo divide en un par de
dominios: uno exterior y otro interior. Ahora bien, los nudos pueden tener varias
formas y orientaciones, como el trifolio dextrógiro y el trifolio levógiro o el nudo
llano y el de rizo, que son nudos simples. También hay nudos compuestos, como
el enlace de Whitehead o los aros de Borromeo. Y hay nudos cromáticos, como
los del kipu.
Desde el punto de vista topológico, dos nudos de diferente forma se consideran
equivalentes sólo si es posible que ofrezcan el mismo aspecto, ora tensando, ora
aflojando la cuerda. En tal caso, los nudos comparten un invariante; es decir, una
expresión algebraica que describe la propiedad nodal que se conserva tras
producirse la deformación.
Los matemáticos que se han dedicado a la búsqueda de nudos equivalentes se
han encontrado con algunos inconvenientes. Sólo pensemos en el número de
posibles deformaciones continuas que se podrían hacer de un nudo dado
cualquiera. ¿Cuántas y cuáles permitirían convertir a ese nudo en otro de distinta
forma? A decir verdad, una búsqueda de carácter tan individualizado representaría
un trabajo largo y sofocante. Para simplificar, la tarea ha sido asumida por medio
de procedimientos matemáticos abstractivos, bajo un programa de identificación
de los invariantes correspondientes a las transformaciones topológicas de los
nudos, para clasificar, con su ayuda, los nudos equivalentes y los que no lo son.
Las dificultades acaecidas en el desarrollo de este programa taxonómico,
constituyen, precisamente, el famoso problema de los nudos.
El camino que conduce desde un nudo tridimensional hasta su invariante
algebraico, empieza con la obtención del llamado "complemento del nudo”, que no
es otra cosa que un diagrama planar del bucle. Luego, el "complemento” se
somete a deformaciones continuas arbitrarias, cuyas funciones se codifican en un
polinomio, según el número de cruces de las curvas que integran el complemento.

269
Cabe hacer historia, aquí, y señalar que estas investigaciones llevan relativamente
muy poco tiempo de haberse iniciado. En efecto, son estudios realizados en el
siglo XX. Uno de los progresos significativos fue alcanzado en 1928, por el
matemático norteamericano James Alexander. El invariante que él descubrió es un
polinomio que permite hacer una interesante pero incompleta, o quizás fallosa,
clasificación de los nudos. Los nudos que tienen distintos polinomios de Alexander
no son equivalentes, como es de esperar. Pero los nudos que poseen el mismo
polinomio de Alexander, no necesariamente son equivalentes.
Más allá de este pionero trabajo y de estas dificultades de parto, tengo la
impresión de que los avances registrados en la materia no fueron sustanciales.
Este famoso problema ha sido abordado con éxito por Vaughan Jones. Él es
neocelandés y ha sido profesor de matemáticas en Berkeley de California y en el
Instituto de Altos Estudios Científicos de París.
En su vida hay un episodio anecdótico, narrado por él mismo, que marcó el
nacimiento de su mayor contribución científica. Ocurrió una buena noche de mayo
de 1984, cuando poco después de haber mantenido una reunión más bien
desalentadora con un matemático experto en teoría de trenzas, saltó de su cama
tras advertir, en ese estado de seudovigilia o transición al sueño, que su trabajo y
sus intuiciones en el mundo intrincado y serpentino de los nudos, estaban
originando un nuevo invariante, hoy llamado "polinomio de Jones” o invariante
polinómico, el cual permite una mayor generalización que el de Alexander. Y, fue
en 1990 que este aporte inclinó la balanza de los jueces del Tribunal que concede
la Medalla Fields, el mayor premio mundial a los matemáticos, a su favor.
El "polinomio de Jones” es resultado de un fructuoso acercamiento entre dos
ramas de las matemáticas, aparentemente muy alejadas entre sí: la teoría de las
transiciones de fase y la teoría de los nudos. La primera, desarrollada en el
contexto de la mecánica estadística, ofrece modelos de simulación del proceso de
cambio de fase o de estado que experimentan sistemas como el agua, al variar
condiciones como la temperatura. Uno de esos modelos, llamado de Ising, es
capaz de mostrar, en efecto, una transición de fase bajo la forma de la relación
estrella-triángulo.

270
Lo sorprendente de todo esto, aquello que en definitiva deseaba resaltar, es que al
efectuarse una cierta operación en el complemento de un nudo -denotada como
"movimiento de Reidemeister de tipo III”-, se obtiene de inmediato la transición
estrella-triángulo. Es decir que un mismo invariante interviene, tanto en el dominio
de la "transición de fase”, como en el de la transformación de un nudo: el
invariante descubierto por V. Jones.
En buenas cuentas esto significa que la transición de fase puede ser descrita con
ayuda de la topología de nudos. Y hay algo más todavía: tal conexión íntima fue
posible merced a la participación de otra teoría matemática: la teoría de álgebras
de Von Newman (sustento de la mecánica cuántica, y donde la dimensión es
tratada como una variable continua), que han hecho ver que los invariantes de los
nudos aparecen también en la teoría cuántica de campos, nada más ni nada
menos.
Y para mostrar otra de las sorpresas que alborotan la caja musical abierta por
Vaughan Jones, es necesario decir que en el interior de una célula viva, las dobles
hélices de ADN se anudan y encadenan al realizar los movimientos de
recombinación y replicación genética. Una vez más, los invariantes nodales
resultan fértiles, ahora para nutrir a la biología molecular. Finalmente, en 1998 es
alcanzado un de los resultados más espectaculares: fue estudiada una variante de
la TGR que no utiliza el concepto de curvatura del espacio-tiempo, sino el de
torsión del mismo. Y al intentar cuantizar la TGR, con esta versión de espacio-
tiempo con torsión, se han encontrado cantidades llamadas "rizos de Wilson” que
están relacionadas con las matemáticas de los nudos. Se comunicó de inmediato
que estas cantidades han hecho posible encontrar otro invariante núdico, el
"invariante de Vassiliev”. Así pues, en la TGR cuántica con torsión, los estados
pueden clasificarse por medio de los invariantes de los nudos, aquí la materia
produce torsión y no curvatura. En el proceso gravitacional la masa produce
curvatura hasta determinada densidad, pero sobrepasado este límite la materia
empieza ha contorsionarse formando finalmente un torbellino o agujero negro.
Aquí es cuando el proceso adquiere características cuánticas y su descripción sólo
es posible mediante ecuaciones diferenciales no lineales.

271
C a b e a m p lia r u n p o c o e l te m a y d e c ir q u e s e g ú n la s e c u a c io n e s d e E in s te in -
C a r tá n , e l e s p a c io -tie m p o p u e d e e s ta r c u r v a d o y to rc id o a l m is m o tie m p o . S i é s te
tie n e c u r v a tu r a y to rs ió n n u la s s e tie n e e l e s p a c io d e c u r v a tu r a c e r o d e M in k o w s k y ,
si la c u r v a tu r a e s n u la y la to rs ió n n o , s u a s p e c to e s e l d e u n a d is lo c a c ió n , y si
tie n e s ó lo c u r v a tu r a n o s e n c o n tr a m o s c o n e l e s p a c io -tie m p o c u rv o o rig in a l d e la
T G R d e E in s te in .
C o m o c a s i e s n a tu ra l s u p o n e r lo , to d o e llo h a o rig in a d o u n a v a lio s ís im a
g e n e r a liz a c ió n d e lo s in v a r ia n te s n ú d ic o s a e s p a c io s tr id im e n s io n a le s , d o n d e é s to s
s e m u e s tr a n c o n u n b a r r o q u is m o d e b u c le s , to rb e llin o s y h u e c o s .
Q u is ie r a ta m b ié n a ñ a d ir q u e r e c ie n te m e n te s e h a n e fe c tu a d o , e n e l J a p ó n ,
d e s c u b r im ie n to s m u y im p o r ta n te s e n e s ta p r o m e te d o r a v e n a te m á tic a , p e ro p o r u n
c a m in o d is tin to . M e re fie ro a l tr a b a jo d e F u k u h a r a , d e l C o le g io d e T o k io , q u ie n a l
tr a ta r lo s n u d o s c o m o si s u s c u e r d a s tr a n s p o r ta s e n c a r g a s e le c tr o s tá tic a s q u e s e
r e p e le n e n lo s c r u c e s , h a c o n s e g u id o d e m o s tr a r la e x is te n c ia d e u n u m b ra l d e
" e n e r g ía ” p a r a la e s ta b ilid a d d e u n n u d o , y ta m b ié n q u e d o s n u d o s
to p o ló g ic a m e n te e q u iv a le n te s tie n e n la m is m a e n e r g ía m ín im a . M e h e in fo rm a d o
q u e s ig u ie n d o e s ta s p is ta s , Z h e n g -X u H e , d e la U n iv e r s id a d d e P rin c e to n , y u n
g ru p o d e m a te m á tic o s d e la U n iv e r s id a d d e S a n D ie g o , e n C a lifo r n ia -e n tr e lo s q u e
d e s ta c a Z h e n g h a n W a n g -, h a n lo c a liz a d o u n u m b ra l c r ític o d e " e n e r g ía ” , c o n v a lo r
d e "2 n + 4 ”, p o r d e b a jo d e l c u a l n o h a y n u d o s . E n c o n s e c u e n c ia , lo s n u d o s p u e d e n
c la s ific a r s e s ig u ie n d o u n o r d e n c r e c ie n te a p a rtir d e s u energía m ínim a.
T o d o lo q u e h e m e n c io n a d o a c e r c a d e lo s n u d o s c a r e c e r ía , a q u í, d e m a y o r in te ré s
si n o fu e r a p o r q u e e s ta r e c ie n te s o lu c ió n d e l fa m o s o p r o b le m a d e lo s n u d o s ,
b rin d a u n a s h e b r a s d e p r e c io s a in fo rm a c ió n q u e c o m u n ic a n e l s ig n ific a d o d e l k ip u
c o m o e x p o n e n te d e u n s is te m a e s p e c ia l d e c o o r d e n a d a s d e r e fe r e n c ia , y lo
r e s u c ita n c o n e s ta c a lid a d . P u e s , lo s tr a b a jo s m e n c io n a d o s h a c e n n o ta r q u e e n
to p o lo g ía d e n u d o s n o s ó lo e s p o s ib le h a lla r, p o r m e d io d e s e n c illo s
p r o c e d im ie n to s a lg e b r a ic o s , e s tr u c tu r a s m a te m á tic a s q u e p e r m a n e c e n c o n s ta n te s
a n te u n c a m b io d a d o , s in o q u e ta le s e x p r e s io n e s s o n p o r c o m p le to ú tile s p a r a
d e s c r ib ir e l c o m p o r ta m ie n to d e u n c r e c ie n te n ú m e r o d e fe n ó m e n o s . E n o tra s
p a la b r a s , e l s is te m a fo r m a d o p o r r a m a s y n u d o s p u e d e s e rv ir, ta n to c o m o la s

272
coordenadas de Gauss, en calidad de sistema de referencia para representar por
medio de funciones algebraicas las regularidades de la naturaleza.
A través del kipu los indios podían hacer predicciones sobre el comportamiento de
los objetos en movimiento cualitativo, lo cual exigía que el sujeto se encuentre
difundido sensiblemente en la totalidad concreta. No es casual, por ello mismo, el
inesperado vínculo hallado por Jones entre una rama tan cualitativa de la física-
matemática, como es el estudio de las transiciones de fase -con sus
inestabilidades sorprendentes, con su tiempo irreversible-, y una rama tan
cualitativa de la matemática, como es el estudio de los nudos.
Un científico occidental, al enterarse de que el kipu fue un sistema de
coordenadas de referencia de carácter concreto, va a decir que le parece una idea
disparatada. Esto sería así si se aceptara la opinión de que para formular las
regularidades de la naturaleza es preciso seguir una sola y recta vía de
abstracción, desde la sencilla aritmética hasta el cálculo diferencial absoluto. Sin
embargo, todo indica que es indispensable escalar por estos sucesivos peldaños
cuando se trata del estudio de sistemas dinámicos deterministas, basados en el
espacio métrico diferenciable y el tiempo reversible.
Por contra, y como ha mostrado la topología de nudos, las regularidades del
cambio cualitativo no requieren del nivel de abstracción en el que opera el cálculo
tensorial para poder expresarse. Esta es, por otra parte, una conclusión hasta
cierto punto natural si se admite que el conocimiento de lo cualitativo requiere de
una permanente aproximación a las particularidades de los procesos concretos.

3.1 2 La Geometría Fractal de la Naturaleza


Recordemos que cuando hablamos de la teoría del "caos” mencionamos a los
objetos fractales como una clase de formas geométricas que poseen la propiedad
de autosimilitud u Homotecia y tienen dimensión fraccionaria. Dijimos además que
estos objetos se encontraban en la difusa frontera que existe entre el cosmos y el
caos. Así entonces, mientras la característica de autosimilitud nos indicaba que la
estructura de la figura fractal permanece siendo la misma a cualquier escala, la
dimensión fractal (D) en cambio nos expresaba el grado de fraccionamiento o

273
irregularidad o interrupción que ésta tiene (ver recuadro 2 6 ) La geometría fractal es
una rama de las matemáticas de reciente formación, su historia comienza con la
publicación de: Los objetos fractales en 1975, y La Geometría Fractal de la
Naturaleza en 1982, por el matemático francés Benoit Mandelbrot13. En estos
trabajos el autor introduce al lector en un mundo geométrico totalmente nuevo y
sorprendente para los occidentales. Esto debido a que la cultura de Occidente
desarrolló una geometría totalmente orientada al estudio de figuras idealizadas,
absolutamente lizas, como el círculo, la elipse, la parábola, el cono, la esfera, etc.,
y no al de las complejas formas quebradas y aperiódicas que ofrece la naturaleza.
Recordemos que el que así fuera se debió a que la agricultura de la cuenca del río
Nilo, que dio origen a la geometría de Occidente, fue realizada por hombres
totalmente concentrados en resolver el problema de la restauración de los límites
de las propiedades agrícolas en superficies planas. Entonces, por fuerza se
toparon y trataron con esta clase de figuras geométricas de las que desentrañaron
sus más profundas propiedades a lo largo unos cinco mil años y crearon una
Teoría del Espacio Puntiforme o EMROcc, espacio homogéneo, isótropo y
diferenciable. Por el contrario, el espacio fractal es heterogéneo, anisótropo y no
diferenciable, parece ser el EMROcc pero agrietado, como si fuese espejo trizado,
tal como aparece en las primeras pinturas de Picasso o en los magníficos
grabados de M. Echer. B. Mandelbrot, para elaborar su obra, partió de trabajos
anteriormente realizados por los matemáticos George Cantor, Giuseppe Peano,
Helge Von Koch y Félix Hausdorff, y luego fue desarrollando la madeja fractal con
para finalmente proporcionarnos una primera sistematización de las figuras
fractálicas, hollando el mismo camino que siguió la geometría nacida en el antiguo
13B.Mandelbrot y René Thom son los más destacados continuadores del trabajo de H. Poincaré en el siglo XX
y tienen el mérito de haber dado una batalla triunfal y terminante al intento de imponer la suposición fanática
de que la verdad única y última de las matemáticas se la alcanza prescindiendo de la geometría y buscando
en los números, en las estructuras algebraicas y diferenciales. El intento fue emprendido por David Hilber al
formular sus famosos “ veinte problemas” y por el grupo N.Bourbaky al publicar Eléments de Mathématique,
Este movimiento fue apoyado por el pitagórico-platónico y por los que creen que las matemáticas tienen una
“esencia”. Pero felizmente fueron detenidos con la publicación del teorema de K.Godel en 1931, en el que
demuestra que la vía de la abstracción absoluta conduce a situaciones indecidibles, paradójicas, sin salida,
que finalmente nos llevan a experimentar alucinaciones fatales.

274
Egipto; esto es, yendo desde lo particular hasta alcanzar una máxima generalidad,
con la esperanza de llegar algún día a encontrar un mínimo número de axiomas y
postulados al modo como lo hizo Euclides. Mandelbrot comienza su trabajo con el
estudio de la superficie de la Tierra. Los resultados que obtuvo le sirvieron para
introducir una primera clase de fractales: las curvas conexas con dimensión mayor
que 1.
Inicia eligiendo un trozo de perfil costanero en una región accidentada cualquiera y
se propone medir su longitud efectiva. Para ello toma un compás con abertura a y
comienza a medir clavando la aguja en el punto del paso anterior una y otra vez.
Multiplicando a por el número de pasos dados se tiene una longitud aproximada
L(a). Si repetimos el proceso disminuyendo cada vez el ángulo a se encuentra
que L(a) tiende a aumentar sin límite. Los datos recogidos en la medición revelan
que L(a) aumenta hasta que la unidad disminuye a 20 metros; pero luego varía
muy poco, y no vuelve a aumentar hasta valores de a menores que 20
centímetros, cuando la longitud empieza a ser sensible a las irregularidades de las
rocas. Si trazamos una gráfica coordenada de este proceso aparece un dibujo en
forma de una terraza, irregularidad que no se conocía y que se debe a la
intervención inevitable del sujeto en la medición, allí está su huella antropomorfa.
La variación de la longitud aproximada de L( a) fue estudiada empíricamente por
Lewis Fry Richardson en 1961. Estos resultados nos dicen que L( a) es
proporcional a a-n donde n depende de la costa elegida. La interpretación de
Richarson fue de que n era simplemente un exponente cualquiera. Mandelbrot nos
cuenta que el exhumó de este trabajo el verdadero significado del exponente
1+n=D, interpretándolo como una dimensión fractal. La regularidad detectada
empíricamente por Richarson en la costa de Bretaña fue: L(a) « a 1-D y coincidió
asombrosamente con la ley de formación de la curva fractal de Von Koch, que
tiene una D= log4/log3 ~ 1.2618.
Así quedó probado que el significado de D trascendía el modo en se ejecutaba la
medición y se constituía en un concepto puramente matemático. La definición
precisa de D la dio el matemático Félix Hausdorff en 1919.

275
Él continúa con el estudio del movimiento browniano definiendo como P(t) la
función que la expresa a este: la sucesión de pequeños desplazamientos
mutuamente independientes e isótropos que tienen lugar. Luego establece que
para cualquier par de instantes t y t’ (siendo t’>t) se considera al vector
desplazamiento como el que va de P(t) a P(t’) y asume que:
La dirección y longitud de este vector son independientes de la posición anterior
P(t) y de las posiciones anteriores a t.
Es un vector isótropo cuya longitud es tal que la proyección sobre un eje
cualquiera sigue una distribución gaussiana, con una densidad de probabilidad de
(2n 11 - t’ | )-1/2 exp(-x2/2 11’- 11)
La curva fracturada trazada por el movimiento browniano pasa ha ser considerada
en la categoría de los “azares primarios”, caracterizados estos por estar ubicados
en la intersección entre la teoría y su aplicación práctica, y cuyo papel consiste en
sustituir formas que se presentan al azar, por otras, con las que uno ya está
familiarizado. También nos presenta curvas del movimiento browniano con
distintas D.
Como el lector podrá percatarse, la diferencia fundamental que existe entre la
curva de Koch y la del movimiento browniano es que la primera se fractura en
segmentos iguales mientras que la otra lo hace en cuerdas desiguales que van
produciéndose al azar. La una, por tanto, es apta para describir procesos
causales, deterministas y la otra, apropiada para representar procesos
estocásticos o aleatorios.
Sigue con el análisis de los fractales encontrados en la distribución de las galaxias
en el espacio, ya que ésta contiene una amplia zona de homotecia interna con una
D próxima a 1. En observaciones resientes realizadas por los astrónomos se ha
puesto en evidencia que la distribución de la materia estelar en la realidad no está
hecha de modo uniforme, como muchos físicos, desde Einstein hasta Hawking,
habían supuesto al construir sus modelos del mundo, obligados por la clase de
espacio en uso: el EMROcc., que es puntiforme y diferenciable.
Para comprender bien acerca de esto es menester examinar de cerca el concepto
de densidad media global de la materia contenida en el Universo. De entre los

276
tantos métodos que existen para definir y medir esta densidad, el más directo
consiste en medir la masa M(R) contenida en una esfera con centro en la Tierra y

de radio R. Su densidad será M(R)/(4/3TCR3) y cuando R tienda a cero obtendremos

como límite la densidad media p.


Sin embargo, lo que los astrónomos han descubierto, a medida que los
telescopios han sumergido su mirada el lo profundo del Universo, ha sido que la
convergencia no es uniforme y que M(R) <^RD, con D<3. Lo que nos indica que,
conforme el observador se va alejando de la Tierra, los objetos celestes se van
agrupando de manera jerárquica, formando abigarrados racimos galácticos.
Otra clase de los fractales investigados es la que se presenta en el fenómeno de
la turbulencia, cuya característica primordial es su comportamiento violentamente
intermitente. Mandelbrot ubica al flujo turbulento con una fractalidad 2<D<3 y
define su dimensión D= logN/log(1/r) con la condición de que N>>1/r. Y resalta que
uno de los logros de las visiones fractales del universo y de la turbulencia ha
consistido en haber impulsado la necesidad de demostrar que para el primer caso,
D<2 y para el segundo, D>2, a partir del mismo hecho geométrico.
Cuando hablamos de la mecánica de los fluidos no es posible dejar de mencionar
a las ecuaciones diferenciales de Navier-Stokes y Euler (éstas describen el movimiento de
los fluidos de régimen laminar principalmente) y preguntarnos: ¿Son fractales las
singularidades que éstas presentan? Como ya dijimos, las singularidades son los
lugares donde el EMROcc. presenta agujeramientos, ausencia de puntos-límite
debido a que las funciones en esos sitios dejan de existir y por tanto desaparece la
imagen en él. O sea que no es capaz de representar la función para ciertos
valores especiales de las variables llamados polos. Mandelbrot, espera con mucha
seguridad la confirmación positiva de esta hipótesis.
Finalmente veamos lo que Mandelbrot nos da a conocer acerca del espacio
arborescente.
No hay nada más familiar para el ser humano que un árbol: el tronco que se
subdivide en N ramas de primer nivel, y cada una de ellas que se subdivide a su
vez en N ramas de segundo nivel, y así sucesivamente. Éste sería un espacio

277
ramificado apropiado para construir el árbol lexicográfico por ejemplo, acordando
que la codificación de las palabras sea hecha por medio de letras y espacios en
blanco. De esta manera, cada palabra puede ser representada por una de las
ramificaciones, a cada una de las cuales se le asocia un peso que es la
probabilidad de empleo de la palabra correspondiente y se iguala a cero todas las
sucesiones de letras que no tengan significado. Para que las frecuencias de las
palabras se ajusten a la codificación de letras y espacios en blanco es condición
necesaria que el árbol lexicográfico sea regular, esto es, que cada ramificación
represente a una palabra y que los pesos-probabilidad correspondientes al nivel k
sean todos de la forma U=UOrk, donde Uo está tomado de tal manera que permita
que la suma total de probabilidad sea igual a uno. Ahora, para deducir la
distribución de frecuencias de las palabras a partir de la regularidad del árbol, se
las ordena según frecuencias decrecientes.
Suponiendo que p sea el rango de una palabra de probabilidad P, se tiene que:
U=P(p+V)-1/D y D= logN/log1/r , donde P,V y D son constantes. Esta función
obtenida por razonamiento lógico-deductivo ya fue encontrada empíricamente por
Zipf en 1949 y expresa eficazmente los datos empíricos acerca de las frecuencias
de las palabras en los idiomas más diversos. Aquí, la dimensión fractal D expresa
lo que se conoce como la "temperatura del habla”.
Continúa con la "ley de Pareto” acerca de la distribución de la renta salarial,
mostrándonos cómo otra clase de árbol es apropiada para representar esta
función. Esta vez aprovecha de la propiedad de jerarquía que todo árbol posee y
supone que una jerarquía es regular si sus componentes están distribuidos por
niveles, de tal manera que cada miembro tiene el mismo número N de
subordinados; y que estos últimos tienen el mismo peso U, igual a r veces el peso
de su superior inmediato. Lo más adecuado es considerar el peso como si se
tratase de un salario (Es pru de nte acla ra r que las rentas no salaria le s no com p ortan ninguna je ra rq u ía

susce ptib le de ser rep rese ntad a por un árbol, por lo que no pueden co n sid erarse com o pesos en la presente

fo rm u la c ió n )
Por tanto, cuanto más rápido decrece la renta al aumentar el rango p, tanto mayor
será el grado de desigualdad. El razonamiento utilizado anteriormente en el árbol

278
lexicográfico se aplica exactamente igual, siempre y cuando el rango p del
individuo sujeto de renta U venga dado por la función hiperbólica p=-V+U-DPD.
Relación que nos da ha conocer que D incide fuertemente en el grado de
regularidad y viene dada por D=logN/log(1/r), en la cual si crece r también lo hace
D, además se advierte que el número de niveles jerárquicos crece como el
logaritmo del número total de miembros de la jerarquía. Esta regularidad fue
descubierta por el economista italiano Vitali Pareto a finales del siglo XIX.
Desde su aparición hasta la fecha, la geometría fractal se ha difundido
profusamente en la actividad científica, tanto en el campo teórico como en el de la
aplicación práctica.
En cuanto al primero debo decir que, con base en el concepto de dimensión de
homotecia o de autosimilitud, se ha conseguido caracterizar a las curvas fractales
como aquellas que poseen dimensión fraccionaria. Las funciones que las
expresan se encuentran definidas en el espacio métrico y pueden ser continuas
no-diferenciables y discretas. Esta estricta especificación de las funciones ha
quedado firmemente establecida y ha llegado a constituir el fundamento ontológico
de esta nueva ciencia.
Entre las variadísimas aplicaciones prácticas, los fractales han revolucionado las
técnicas de generación y reproducción de imágenes con ordenador gracias a la
trascripción de la lógica fractal, que permite transitar de las ecuaciones a las
imágenes. Pero los investigadores no sólo han aplicado estas formas geométricas
al grafismo informático, sino también al diseño de antenas, que ha provocado una
impresionante explosión en el mercado de las telecomunicaciones al posibilitar el
desarrollo de la telefonía celular móvil gracias a los diseños fractales que
permitieron la miniaturización de éstas (com o por ejem p lo antenas con un diseño según el

triá n g u lo o cua dra do de S ie rp in s k i ) Antes de este acontecimiento los proyectistas, debido a


la prácticamente imposible aplicación de las ecuaciones diferenciales de Maxwell
para el electromagnetismo, se vieron obligados a proceder por tanteos, en su
mayoría erróneos. Pero ahora, la utilización de diseños fractales ha permitido
alcanzar una gran optimización de los sistemas de comunicación ( el ren dim ien to de las

an tena s fractale s es un 25 po r ciento m ayo r que las d ife re n c ia le s ) ya que en ellos se han

279
c o m b in a d o la r o b u s te z d e lo s q u e e s tá n a le a to r ia m e n te d is p u e s to s c o n e l b u e n
r e n d im ie n to d e lo s q u e e s tá n o r d e n a d o s , to d o e s to c o n s ó lo la c u a r ta p a r te d e lo s
e le m e n to s . O fr e c ie n d o a s í, d e s o r d e n e n la p e q u e ñ a e s c a la y o r d e n e n la g r a n d e .
E s r e a lm e n te im p r e s io n a n te c ó m o , e n m u y p o c o tie m p o , la g e o m e tr ía fr a c ta l h a
p e n e tr a d o d e m a n e r a p r o fu n d a e n lo s m é to d o s d e tr a b a jo d e fís ic o s , q u ím ic o s ,
b ió lo g o s , fis ió lo g o s , e c o n o m is ta s , s o c ió lo g o s y a r tis ta s , p u e s le s h a n p e rm itid o
r e fo r m u la r v ie jo s p r o b le m a s e n té r m in o s n u e v o s , y tr a ta r p r o b le m a s c o m p le jo s d e
m a n e r a s im p le . L o s o b je to s fr a c ta le s , q u e p o r m u c h o tie m p o fu e r o n c o n s id e r a d o s
c o m o m e r a s " m o n s tr u o s id a d e s g e o m é tr ic a s ” ó s im p le m e n te c o m o m o tiv o s p a r a e l
d is e ñ o p o r p a r te d e lo s a r tis ta s d e lo s te s e la d o s , s u b y a c e n e n fe n ó m e n o s ta n
v a r ia d o s c o m o la d is trib u c ió n d e l g a s in te re s te la r , d e la s e s tr e lla s y d e la s g a la x ia s ,
la ra m ific a c ió n a lv e o la r d e lo s p u lm o n e s , e n la s n u b e s , e n lo s m e a n d r o s d e lo s
río s , e n e l tra c to d ig e s tiv o , e n la s o la s d e l m a r, e n la s flu c tu a c io n e s d e lo s p re c io s
e n e l m e r c a d o , e n la d in á m ic a p o b la c io n a l d e la s b a c te r ia s , e n lo s d e p ó s ito s
e le c tr o q u ím ic o s , e n la s e r u p c io n e s v o lc á n ic a s y te r r e m o to s , e n to d a c la s e d e
fe n ó m e n o s tu rb u le n to s , e tc .
A l p r o m e d ia r lo s a ñ o s 1 9 8 0 la g e o m e tr ía fra c ta l y a h a b ía a s is tid o a m u c h a s d e la s
r a m a s d e la c ie n c ia o fr e c ie n d o u n n u e v o e s p a c io m a te m á tic o d e r e p r e s e n ta c ió n
d e s tin a d o a r e e m p la z a r a l E M R O c c , p u e s , d e s c r ib ía d e m a n e r a to ta lm e n te
s a tis fa c to r ia a la n a tu r a le z a , a llí d o n d e e l o tro h a b ía fr a c a s a d o , a llí d o n d e p ro b ó
s e r a p r o p ia d o s ó lo p a r a d e s c r ib ir a lo s s is te m a s m e c á n ic o s . E s to e r a d e e s p e r a r s e
y a q u e la n u e v a g e o m e tr ía lo q u e s im p le m e n te h a c ía e r a in d u c ir la c la s e d e fra c ta l
q u e o fr e c ía la p ro p ia n a tu r a le z a . Y a n o s e o p e r a b a c o m o a n te s ; e s to e s , p rim e r o
s e le c c io n a n d o u n m o d e lo id e a liz a d o p r e v ia m e n te c o n c e b id o a priori, p a r a lu e g o
a p lic a r lo a l o b je to c o n c re to , p u e s , p o r fin h a b ía q u e d a d o c la r o p a r a lo s c ie n tífic o s
q u e a la n a tu r a le z a n o p o d e m o s c o n s id e r a r la c o m o u n s is te m a m e c á n ic o ( to d o s los

sistem a s naturales son p ro c re a d o s y to d o s los sistem a s m ecá nicos son c r e a d o s )

E s ta h a s id o u n a s e m b la n z a d e l e n c u e n tr o d e l h o m b r e o c c id e n ta l c o n la g e o m e tr ía
d e la n a tu r a le z a , lo h a h e c h o c u a l si f u e s e u n e x tr a -te r r e s tr e , d e s p u é s d e h a b e r
p e r m a n e c id o e n a je n a d o d e e lla p o r m á s d e c u a tr o m il a ñ o s . T o d o p o r h a b e r s e
v is to a b o c a d o s a to m a r c o m o ú n ic o , e l c a m in o q u e c o n d u c e a l d e s a r r o llo d e la s

280
m a te m á tic a s in fin ita s , tr a s c e n d e n te s . D e s c o n o c ie n d o q u e , a d ife r e n c ia , a q u í e n la s
a m é r ic a s , s e h a b ía u tiliz a d o la g e o m e tr ía fr a c ta l c o n id é n tic o p ro p ó s ito ( describir las
regularidades observadas en la realidad y realizar predicciones fiables) a s í m is m o p o r u n o s c u a tr o
m il a ñ o s , p e ro c o n u n g r a d o d e d e s a r r o llo c o m p le ta m e n te s u p e r io r a l a lc a n z a d o
p o r o c c id e n te c o n e l tr a b a jo d e M a n d e lb r o t. C o m o y a in d ic a m o s lo a lc a n z a d o
h a s ta a q u í h a s id o u n s ig n ific a tiv o g r a d o d e g e n e r a liz a c ió n , p e ro to d a v ía n o a lg o
p a r e c id o a lo s E le m e n to s d e E u c lid e s . E n c a m b io a c á e n lo s A n d e s , c o m o h e
m o s tr a d o a l le c to r c o n m i d e s c u b r im ie n to , s e m a n e jó u n a g e o m e tr ía a n a lític a
fr a c ta l p r o p ia m e n te d ic h a , g r a c ia s a q u e s e d is p u s o d e l s is te m a d e c o o r d e n a d a s
d e la C r u z C u a d r a d a , h a c e c u a tr o m il a ñ o s p o r lo m e n o s .
E l h o m b r e o c c id e n ta l n o c o n o c ía q u e e s ta s m a te m á tic a s e x ó tic a s le s irv ie ro n a l
h o m b r e a m e r ic a n o p a r a d e s a r r o lla r s u p e n s a m ie n to c ie n tífic o -té c n ic o y c o n s tru ir
s u c iv iliz a c ió n d e m a n e r a s e m e ja n te a c o m o é l lo h iz o c o n e l s u y o , s ó lo q u e p o r u n
c a m in o d is tin to . E l h o m b r e o c c id e n ta l ta m p o c o c o n o c ía q u e s u s is te m a
c o o r d e n a d o , e l c a r te s ia n o , e s e l lím ite e n e l in fin ito d e l s is te m a c o o r d e n a d o d e la
c r u z c u a d r a d a ; p o r e llo , m ie n tr a s e l s u y o e s a b s tr a c to e l d e l o tro e s c o n c re to ;
m ie n tr a s e l c a r te s ia n o d a o rig e n a la G e o m e tr ía A n a lític a P untiform e, e l o tro fo rja
la G e o m e tr ía A n a lític a d e C uerdas o Fractal; e l p rim e r o c o n d u c e a u n a to p o lo g ía
d e p u n to s-lím ite e l o tro lle v a a u n a to p o lo g ía d e c u e r d a s . P o r ú ltim o , n o d e b e m o s
o lv id a r q u e la s d o s m a te m á tic a s , d e l in fin ito la u n a y d e lo fin ito la o tra , tie n e n s u
r e s id e n c ia e n e l e sp acio m étrico, e s d e c ir, e n e l e s p a c io d o n d e s e h a d e fin id o la
d is ta n c ia m é tric a , a q u e lla q u e c u m p le c o n la p r o p ie d a d tr ia n g u la r ( ver recuadro ) 1

H e a q u í d o s e s p a c io s m a te m á tic o s e q u iv a le n te s y a la v e z c o m p le m e n ta r io s , e l
p u n tifo rm e a p to p a r a d e s a r r o lla r e l p e n s a m ie n to a b s tr a c to y e l in te g r a d o p o r
c u e r d a s d is p u e s to s e n fo r m a d e re d c u a d r ic u la d a b u e n o p a r a fo r ja r e l
p e n s a m ie n to c o n c re to , s e n s ib le .

3.12 El E.M.R.An y la función “zeta" de Euler - Riemann


«¿Son fractales las singularidades de la ecuación de Navier-Stokes?»
Lo sobjetos fractales, Benoit Mandelbrot, 1984

281
E n e s te ra m a l v o y a n a liz a r a la fu n c ió n " Z e ta ” Z(s), h a c ie n d o u s o d e l s is te m a d e
c o o r d e n a d a s d e la c r u z c u a d r a d a , p a r a m o s tr a r la s b o n d a d e s q u e é s te tie n e . L o
v a m o s a v e r e n p le n a a c c ió n c u a n d o n o s r e v e le c a r a c te r ís tic a s d e s c o n o c id a s d e
e s ta e x tr a o r d in a r ia fu n c ió n q u e n o s o n o b s e r v a b le s d e s d e e l E M R O c c . P a r a e llo ,
p r e v ia m e n te , c o n o z c a m o s a e s ta s o r p r e n d e n te fu n c ió n q u e s e e n c u e n tr a e n la
in te rs e c c ió n d e l e s p a c io m é tric o y e l e s p a c io p -á d ic o h a c ie n d o d e fu n c ió n -
c o n e x ió n e n tr e é s to s g r a c ia s a s u e x c e p c io n a l p r o p ie d a d q u e e x p r e s a la e x is te n c ia
y u n ic id a d d e la d e s c o m p o s ic ió n d e lo s n ú m e r o s n a tu r a le s e n s u s fa c to r e s p rim o s
y q u e le p e r m ite ir d e l u n e s p a c io a l o tro e n lo s d o s s e n tid o s . E l q u e p o r e s ta
p r o p ie d a d fa c ilite o b te n e r r e s u lta d o s p u r a m e n te a r itm é tic o s e s e l m o tiv o p o r e l c u a l
la n o ta b le fu n c ió n e s m u y a p e te c id a p o r lo s m a te m á tic o s d e s d e h a c e c ie n to
c u a r e n ta y c u a tr o a ñ o s .
U n a d e la s ta n ta s fo r m a s d e o b te n e r la e s la s ig u ie n te : d a d o e l c o n ju n to d e lo s
n ú m e r o s n a tu r a le s N = {1 , 2 , 3 , 4 ,.. }, s e p u e d e c o n s tru ir e l c o n ju n to d e s u s
in v e rs o s : N-1 = { 1 /1 , 1 /2 , 1 /3 , 1 /4 ,...} y, si a h o r a e le v a m o s c a d a u n o d e lo s té r m in o s
a la p o te n c ia c o m p le ja s = a + ib , d o n d e a ,b e R e i= V- 1 , y lu e g o le s s u m a m o s d e s d e
1 h a s ta in fin ito s e o b tie n e la e x p r e s ió n :
[1 ] s s s s
C (s) = 1 + 1/2 + 1/3 + 1/4 + 1/5 + ... = L 1/q
s
E s ta s e r ie e s la e x p r e s ió n d e la fu n c ió n " z e ta ” e n e l e s p a c io m é tric o , e n la c u a l la
v a r ia b le q e s u n n ú m e r o e n te r o p o s itiv o . E lla e s c o n v e r g e n te a b s o lu ta y
u n ifo r m e m e n te p a r a to d o s lo s n ú m e r o s r e a le s R > 1 , o s e a q u e e s d ife r e n c ia b le a lo
la rg o d e l s e m ip la n o R e { s } > 1 y p o r co n tinu a ción analítica, a to d o e l p la n o c o m p le jo
C . R ie m a n n d e m o s tr ó q u e “Z ” s e e x tie n d e a C c o m o u n a fu n c ió n m e r o m ó r fic a c o n
u n p o lo s im p le p a r a s = 1 y r e s id u o ig u a l a 1 y, a d e m á s s a tis fa c e la e c u a c ió n
fu n c io n a l
[2 ] n-s/2 r (s/2) Z(s) = n-(1-s)/2 r [(1-s)/2] Z( -s) 1

P e r o p r e c is a m e n te , c u a n d o s = 1 a p a r e c e u n a sin g u la rid a d o h u e c o e n e l e s p a c io
m é tric o d ife r e n c ia b le ; fe n ó m e n o q u e n o s d ic e q u e “Z ” n o tie n e im a g e n e n e l
e s p a c io d e p u n to s-lím ite p a r a d ic h o v a lo r, p u e s d e s a p a r e c e e n u n b o u q u e t d e l

282
EMROcc. Más adelante voy ha probar que Mandelbrot tiene razón al sentenciar
que detrás de una singularidad hay una estructura fractal. Aunque más preciso
sería decir que detrás de cada singularidad del espacio puntiforme hay otra clase
de espacio de representación, con otra estructura geométrica, en este caso en
particular sería un espacio métrico fractal.
Reparemos en que la imagen [1] de la función es en forma de suma y está en
función de los números naturales, pero tiene otra en el espacio p-ádico, que es en
forma de producto y está escrita en términos de números primos consecutivos
exclusivamente:

[3] Z (s) = (2 s / s2 - 1 ) (3 s / s3 -1) (5 s / s5 -1 )...= n„ sp lps -1 donde p es un primo consecutivo.


¡He aquí! la imagen métrica y p-ádica de la función "zeta”, la suma y la
multiplicación, lo cuantitativo y lo cualitativo y un modo de cómo coordinarlos.
Para pasar de una forma a la otra debemos expresar a la primera en sus factores
primos y luego, mediante una sencilla transformación algebraica o diferencial,
obtener "zeta” en función de los números primos, exclusivamente.
La función tiene también una expresión analítica, en términos de un parámetro t y

la función gama de Euler, r (s):

[4 ] Z
(s) = 1 /r (s) I [t s 1/(e - 1)]dt válida para s >0 y 1.
o

Ahora, cuando s es un entero positivo n, ésta se transforma en:

[5] Z(n) = 1/(n-1)! J ( t n-1/e t- 1 > dt

La secuencia de valores de “Z” para n = 1,2, 3, 4,...será:

[6 ] Z ( 1) = 1/(0)! I(1 /e t- 1)dt

283
o

(e )
Z (2 ) =1/(1)! ! t/ ‘- l dt = 1 .n2/6
o

( e )
Z (3 ) =1/(2)! i t2/ t- i dt =1/2 .C3n3
o

Z (4 ) =1/(3)! i t3/( e - ) dt = / .n4/


1 1 6 15

Z (m) = 1/(m-1)! i tm ( e )
-1/ t- 1 dt =1/(m -1)! cm.rcm
o

R e g r e s e m o s a l r e c u a d r o 2 2 y p o n g a m o s n u e s tr a a te n c ió n e n la d is trib u c ió n
f(n )= 1 /n . N ó te s e q u e e l p e r ím e tr o d e c a d a c u r v a c u a d r a d a , q u e tie n e 1 2 la d o s ,
v e n d r á e x p r e s a d o p o r P n= L n= ( 1 /n ) , a s í m is m o , c a d a c írc u lo c irc u n s c rito te n d r á
12 12

u n a c ir c u n fe r e n c ia C n= V n .1 /n y c a d a c írc u lo in s c rito u n a C n= n .1 /n . S i e le v o a l
10 3

c u a d r a d o e l la d o d e la c r u z te n d r é s u á r e a , S n= ( L n) 2= /n 2 (
5 5 cinco por que son 5 los

cua dra dos de los que se com p on e cada c ru z ) L u e g o s ig o c o n e l v o lu m e n V n= ( L n) 3= /n 3 y a s í


5 5

s u c e s iv a m e n te p a r a m d im e n s io n e s . L o p ro p io h a g o c o n lo s c írc u lo s in s c rito s y
c irc u n s c rito s .
C o m o p o d e m o s c o n s ta ta r h e m o s g e n e r a d o u n a va rie d a d fra c ta l m ultidim ensional,
p o r e s ta r fo r m a d a p o r u n a fa m ilia d e c u rv a s fr a c ta le s q u e e x h ib e n la p r o p ie d a d d e
h o m o te c ia . L e in v ito a m a b le le c to r a v e r e l d e s a r r o llo c o m p le to d e é s ta e n lo s
re c u a d ro s 2 7 y 2 8 .
D e s u le c tu ra , lo m á s s o r p r e n d e n te e s e l in u s ita d o e n c u e n tr o c o n la fu n c ió n Z (s) d e
E u le r -R ie m a n n , a l s u m a r la s d is trib u c io n e s d e la va rie d a d d e s d e n = 1 h a s ta L o
p rim e r o q u e s a lta a la v is ta e s q u e e l p e r ím e tr o r e s u lta n te P e s in fin ito y, s in
e m b r a g o , s u á r e a , s u v o lu m e n , h ip e r v o lu m e n , e tc . s o n fin ito s . E s to n o s p o n e e n

284
evidencia que este proceso de fraccionamiento infinito de los lados de la curva es
análogo al que sucede en la curva de Von Koch, lo cual pone en evidencia que se

trata de una curva fra c ta l . La serie que lo describe es la función Z(i) para m=1,
justamente el valor para el cual ésta no tiene p u n to -lím ite puesto que es
divergente, no tiene imagen ni analítica ni geométrica pues ha "caído en un
hueco”, en una singularidad.
El matemático francés Benoit Mandelbrot en su libro L o s O bjetos F ra cta le s se
preguntó: «¿S on fra cta le s la s s in g u la rid a d e s de la s e cu a cio n e s de N avie r-
S tokes?» Ahora, yo contestaría diciendo que sí, que los "infinitos” que aparecen
en las ecuaciones diferenciales son curvas fractales, al igual que todas las series
fraccionarias infinitas que son divergentes, pues no tienen imagen en el espacio
analítico-diferencial; pero sí lo tienen, en cambio, en el espacio de cu e rd a s , y
constituyen los perímetros infinitos de todas las variedades fractales que se
puedan construir con ellas. También vale decir que se consigue una verdadera e
inédita cuadratura del círculo, al haber construido mediante el fraccionamiento
infinito de la cruz cuadrada una resultante que tiene como unidad a un cuadrado
de lado igual a n (v e r recuadro 2 8 )
En lo relativo al cálculo de las integrales de la función "Z”, desde los tiempos de
Riemann se conoce que para valores pares de la dimensión m,

Z(2k)=2 2k-1n2k B2k/(2 k)!, donde los B2k son los n ú m e ro s de B e rn o u lli y k=1,2, 3..; pero
para los impares de m todavía no se conoce una fórmula general que genere

todos los valores Z(2k-i), sin embargo puede decirse que tienen la forma

Z(2k-i)=i / [ 2 (k- i ) ] ! C2k-iTC2k-1, donde la constante C2k-i no se conoce todavía. Me he

atrevido a postular el término n 2k-1 fundamentalmnte por dos razones: por un lado,

por que ya fue probado después de 1982 por R. Apéry que Z(3) es un número
irracional y por el otro por que aparece sugerido en la construcción del cubo de
lado igual a n, a partir del cuadrado de lado n, en el recuadro 28.

285
A q u í c a b e la p r e g u n ta ¿ tie n e s e n tid o a b r ig a r e s p e r a n z a s d e q u e e s te p r o b le m a
te n g a s o lu c ió n a n a lític a ? . L a p o s ib ilid a d m á s p r o m e te d o r a p a r e c e s e r la d e
c a lc u la r d ic h o s lím ite s p o r c o n v e r g e n c ia p -á d ic a . D e te n e r é x ito e s te c o m e tid o ,
m o s tr a r ía p a r a s a tis fa c c ió n d e to d o s q u e la fu n c ió n ”Z ” o b r a c o m o u n a s u e r te d e
fu n c ió n d e p a s o e n tr e e l e s p a c io m é tric o y e l p -á d ic o , c o m p u e s ta p o r p u n to s-lím ite
p r o v e n ie n te s d e e s ta s d o s c la s e s d e e s p a c io s , lo s p a r e s d e l p rim e r o y lo s im p a r e s
d e l s e g u n d o . T o d o e s to , g r a c ia s a s u e x c e p c io n a l p r o p ie d a d q u e e x p r e s a la
e x is te n c ia y u n ic id a d d e la d e s c o m p o s ic ió n e n fa c to r e s p rim o s q u e p e r m ite ir d e l
u n e s p a c io a l o tro e n lo s d o s s e n tid o s , tr a n s fo r m á n d o s e d e s u m a e n p ro d u c to y
v ic e v e r s a .
E s d e p a r tic u la r im p o r ta n c ia o b s e r v a r e n e l r e c u a d r o 2 8 q u e e n tr e la d im e n s ió n 3 y
4 p u e d e c o n s tru irs e u n s u p e r v o lu m e n fr a c ta l d e d im e n s ió n 3 ,4 .
F in a lm e n te , p u e d o d e c ir q u e te n e m o s e n tr e m a n o s u n a Topología de C uerdas o
h ilo s q u e e s tá p o r d e s a r r o lla r s e y q u e s e r ía a n á lo g a a la Topología D iferencial. E n

la p r im e r a s e d e fo r m a n la s c u e r d a s , e n la s e g u n d a s e d e fo r m a u n c o m p a c to d e
p u ntos-lím ite. L a d e h ilo s e s la c ie n c ia d e l te je d o r y la d e p u n to s-lím ite e s la

c ie n c ia d e l p a n a d e r o .

3.1 3 Las matemáticas p-ádicas y el kipu


E n e l a ñ o 1 9 0 2 e l m a te m á tic o a le m á n K u rt H e n s e l ( ) c o n c ib ió lo s n ú m e r o s
1 8 6 1 -1 9 4 1

p -á d ic o s a l in te n ta r r e p r e s e n ta r lo s n ú m e ro s a lg e b ra ico s ( lo s n ú m e ro s a lg e b ra ic o s so n la s

s o lu c io n e s de la s e c u a c io n e s p o lin ó m ic a s co n ) p o r m e d io d e s e r ie s d e
c o e fic ie n te s e n te r o s

p o te n c ia s d e u n n ú m e r o p rim o p, y d io a s í o rig e n a lo q u e h o y d ía s e d e n o m in a n
la s m a te m á tic a s p -á d ic a s . E l e s p a c io e n e l q u e s e d a n e s ta s m a te m á tic a s
c u a lita tiv a s e s tá c a r a c te r iz a d o p o r u n a e s tr u c tu r a g e o m é tr ic a e n fo r m a d e á r b o l y
e l c o n ju n to d e n ú m e r o s a s o c ia d o s e d e n o m in a p -á d ic o , Q ( ). C o m o
p v e r re c u a d ro 2 9

r e s u lta e v id e n te , é s ta s m a te m á tic a s s e r e la c io n a n c o n la s p r o p ie d a d e s d e lo s
n ú m e r o s p rim o s y la s d e lo s á r b o le s d e d e s c e n d e n c ia s y s irv e n p a r a r e p r e s e n ta r
lo s a s p e c to s c u a lita tiv o s d e lo s p ro c e s o s : s u s c a m b io s d e e s ta d o . P a r a q u e e s to
s e a p o s ib le , e n e s te e s p a c io s e h a n d e fin id o : la d is ta n c ia c u a lita tiv a p -á d ic a ( la

286
) y o tra c la s e d e v a lo r a b s o lu to , m u y d is tin to s d e lo s d e fin id o s
d is ta n c ia g e n é tic a del K ip u

e n e l e s p a c io m é tric o ( )
v e r recu ad ro 1

A n te s d e 1 9 0 2 y a e r a s a b id o q u e e l c u e r p o d e lo s n ú m e r o s r a c io n a le s Q e r a
in co m p le to y q u e e l m o d o d e c o m p le ta r lo , b a s a d o e n la n o c ió n d e distancia

m étrica y e n e l u s o d e s e r ie s in fin ita s d e n ú m e r o s fr a c c io n a r io s ( com o es el elocuente

ejem plo de la fun ción “Z ” que ge ne ra de m anera a b solutam en te con tinu a to d o s los R > 1 ) p a r a e l c á lc u lo
d e lo s p u n to s -lím ite c o r r e s p o n d ie n te s , d a b a o rig e n a l c u e r p o d e lo s r e a le s R. A q u í
d e b e m o s e n te n d e r “in c o m p le to ” e n e l s e n tid o d e q u e lo s n ú m e r o s Q n o b a s ta n
p a r a c u b rir to ta lm e n te e l c o n tin u o d e p u n to s d e l E M R O c c c o n s ó lo lo s e n te r o s y
s u s c o c ie n te s .
P e r o , fu e K . H e n s e l q u ié n d e s c u b r ió q u e h a y o tro m o d o q u e p e r m ite c o m p le ta r lo ,
e l c u a l d a o rig e n a l c u e r p o d e lo s n ú m e r o s p -á d ic o s Qp. P a r a lo g ra r e s te o b je tiv o é l
s u s titu y ó tre s d e lo s c o m p o n e n te s fu n d a m e n ta le s q u e c o n fig u ra n u n e s p a c io d e
r e p r e s e n ta c ió n , a s a b e r: la e s tr u c tu r a g e o m é tr ic a , la d is ta n c ia e n tr e d o s
c u a le s q u ie r a d e s u s e le m e n to s d (x ,y ) y s u v a lo r a b s o lu to | x | . A h o r a , a d ife r e n c ia
d e l E M R O c c , lo s n u e v o s c o m p o n e n te s s o n : u n a e s tr u c tu r a a r b o r e s c e n te , la
d is ta n c ia p -á d ic a o g e n é tic a y e l v a lo r a b s o lu to p -á d ic o | x | p. E s ta d is ta n c ia e s
d e s c o n c e r ta n te si la c o m p a r a m o s c o n la m é tric a , y a q u e la p r o p ie d a d q u e lo
c a r a c te r iz a n o s d ic e q u e p a r a lo s n ú m e r o s r a c io n a le s x , y, z la d is ta n c ia d (x ,z )
e n tr e x y z e s in fe rio r o a lo s u m o ig u a l a la m a y o r d e la s o tra s d o s , la d is ta n c ia x e
y y la d is ta n c ia e n tr e y y z .

V is u a lic e m o s lo d ic h o e n e l á r b o l g e n e a ló g ic o d e la s ig u ie n te fig u ra :
A nto nio

la d is ta n c ia q u e s e p a r a a d o s h e r m a n o s d e la m is m a g e n e r a c ió n c o m o J o s é y
M e r c e d e s s e o b tie n e c o n ta n d o e l n ú m e r o d e r a m a s q u e lo s s e p a r a n d e s u
p ro g e n ito r (J u a n ), e s d e c ir v a le 2 y la d is ta n c ia e n tr e M e r c e d e s y E lv ira s e r á ig u a l

287
a 4. Por tanto, la distancia entre José y Elvira (4) debe ser, según la propiedad
mencionada, menor o igual que la mayor de las otras dos (4).
Más tarde, en 1935, el matemático Alexander Ostrowski demostró que las únicas
clases de distancias con real importancia matemática con las que se puede dotar
al conjunto de los racionales Q son la métrica y la p-ádica.
Las matemáticas p-ádicas surgieron, entonces, del cuerpo topológico constituido
por un árbol y unas desconocidas relaciones con los enigmáticos números primos
p. La clase de árboles involucrada en este nuevo espacio matemático de
representación es aquella que sigue el orden de los números primos en su
ramificación. Así se tendrá entonces, los árboles infinitos 2-ádicos, 3-ádicos, 5-
ádicos,..., p-ádicos, los cuales son regulares, simétricos, infinitos y tienen en lugar
de punto-límite, “hoja-límite” ( v e r recuadro 2 9 )
En el cuerpo de los reales R -generado en función de la distancia métrica - se ha
definido el sistema de numeración decimal que permite expresar cualquier número
real como: aq 10q +...+ a3 1 0 3+ a2 1 0 2 + a11 0 1+ ao 10o + a-11 0 -1 + a-21 0 -2 +... donde q es
un entero positivo y los ai son enteros comprendidos entre 0 y 9. Usualmente, los
coeficientes ao, a1, a2 , etc. corresponden a las cifras que van antes de la coma y
los coeficientes a-1,a-2 , etc. a las que van después de la coma. Así, el 53,64 = 5 x
101 +3 x 10o + 6 x 10-1 + 4 x 10-2.
Hensel logró demostrar que hay un desarrollo análogo para los números p-ádicos:
a-n p'n +...+ a-n+1 p '"+1+ ...+ ao po + a1 p1 + a2 p2 +..., donde n es entero positivo y cada
coeficiente entero ai está comprendido entre 0 y p-1. El desarrollo de Hensel de un
número p-ádico puede constar de infinitas potencias de p, o sea, los ramales de
los ramales de los ramales... Esto no significa que los números sean infinitamente
grandes, sino que los coeficientes a i se repiten a partir de cierto punto de igual
forma a como sucede en el cuerpo de los R cuando los decimales de un número
racional se repiten periódicamente infinitamente.
Veamos un ejemplo: Suponiendo que p=7 busquemos el desarrollo de Hensel de
-1/6. Para ello utilizo la identidad 1/(1 -x) =1+x+x2+x3+..., válida siempre y cuando el
valor absoluto de x sea menor que 1, o sea, I x| <1. Como -1/6 =1/(1 -7) se tiene
que x=7, por tanto el valor absoluto 7-ádico de siete es hl p =l 7| 7 =1/7 (ver

288
recuadro valor absolu.). Como 1/7 es menor que 1 es aplicable el desarrollo 1/
(1-7) = -1/6 =1+71+73 +73.., donde los coeficientes ai = 1.
Hay dos maneras de emplear el espacio p-ádico, bien eligiendo una sola distancia,
en cuyo caso el número primo p va a caracterizar a todo su cuerpo ramiforme, o
bien poniendo en juego simultáneamente todas las distancias que es posible
definir en el cuerpo de los racionales Q, incluida la métrica. El interés que
despierta la segunda alternativa se debe a la extraordinaria propiedad que
aparece, llamada "fórmula del producto”, la cual relaciona a todas estas distancias:
el producto de todos los valores absolutos p-ádicos de un número racional m/n es
igual al inverso del valor absoluto métrico de m/n, o sea, n |m/n|p = |n/m|M . Este es
el invariante que junto a la función "Z” permite realizar la traducción de una
proposición enunciada en términos p-ádicos, a una en términos métricos y
viceversa.
Otra característica encontrada se relaciona con las ecuaciones diofánticas. Desde
la secundaria sabemos que muchas de las ecuaciones polinómicas con
coeficientes enteros no tienen soluciones en números reales, como es el caso de
x2 + 1 =0 , pero en cambio tiene en números complejos: 0 ± V-1 = 0 ± i.
Lo manifestado ya era conocido desde el siglo XVI, pero no sabíamos que también
tiene una raíz en los p-ádicos. Se ha demostrado que si p es un primo de la forma
4n+1 existe un número x tal que x 2 +1=0. Así es como, eligiendo p=5, los cálculos
nos dicen que dicho número tiene un desarrollo de Hensel x=2+5+2 x52 + 53 +3 x
54 + 4 x 55. El método usado para este cálculo forma parte de los llamados "lemas
de Hensel”, he aquí uno: Dado el polinomio de coeficientes enteros P(X),
suponemos que existe un número entero n tal que P(n) sea divisible por p, pero no
por su derivada P(n). Si es así, entonces existe un número p-ádico x tal que
P(x)=0. En el caso anterior, P(x)=x2+1, tiene como derivada P’(x)=2x, entonces
P(2)=5 y P’(2)=4. Debido a que el número 4 no es divisible por 5, se concluye que
P(x) = x2 + 1 tiene una raíz en el cuerpo Q5 de los números 5-ádicos.
De aquí se desprende que para que una ecuación diofántica admita una solución
entera es necesario -pero no suficiente- que también admita una solución p-ádica.

289
C o n té c n ic a s p a r e c id a s e v e n tu a lm e n te s e p u e d e e n c o n tr a r u n n ú m e r o p rim o p
para e l c u a l la e c u a c ió n c a r e c e d e r a íc e s e n e l c u e r p o d e lo s p -á d ic o s , q u e e s lo

m is m o q u e d e c ir q u e é s ta n o tie n e s o lu c io n e s e n te r a s .
P e r o , la u tilid a d m á s a s o m b r o s a p r e s ta d a p o r e l c u e r p o d e lo s p -á d ic o s h a s id o la
e n tr e g a d a a l m a te m á tic o b ritá n ic o A n d r e w W ile s d e la u n iv e r s id a d d e P rin c e to n
q u e le p e rm itió c u lm in a r, e n ju n io d e 1 9 9 5 , d e m a n e r a e s p e c ta c u la r , la
d e m o s tr a c ió n d e la fa m o s a c o n je tu r a d e P ie r r e d e F e r m a t ( ) fo r m u la d a
1 6 0 1 -1 6 5 5

h a c e m á s d e tr e s c ie n to s a ñ o s ( v e r recuadro 1 0 ) E s d e h e c h o u n a c e r te z a q u e e l lo g ro
m a s d ifu n d id o d e la m a te m á tic a d e l s ig lo X X h a y a s id o la d e m o s tr a c ió n d e l " ú ltim o
te o r e m a d e F e r m a t” .
L o s m a te m á tic o s d e h o y d ía e s tu d ia n e l c u e r p o d e lo s p -á d ic o s d e m a n e r a
a n á lo g a a c o m o lo h ic ie ro n c o n e l m é tric o ; e s to e s , a n a liz a n o b je to s ta le s c o m o
s u c e s io n e s , s e rie s , fu n c io n e s , e c u a c io n e s d ife r e n c ia le s , e tc , e n e l n u e v o e s p a c io ,
a p r o v e c h a n d o la s d is tin ta s n u e v a s p r o p ie d a d e s q u e o fr e c e s u e s tr u c tu r a a r b ó r e a .
E s d e s d e 1 9 6 0 , g r a c ia s a lo s tr a b a jo s d e B . D w o r k s o b r e la fu n c ió n " Z ” a s o c ia d a a
v a r ie d a d e s a lg e b r a ic a s (
con ju nto de solucio ne s de una fam ilia de po lin om ios de q v a ria b le s ), q u e e l
a n á lis is p -á d ic o h a c o b r a d o g r a n im p u ls o y, m e r e c id a m e n te s e h a h e c h o d e u n
lu g a r im p o r ta n te e n e l c u e r p o d e la s m a te m á tic a s .
C o m o y a c o n o c im o s , la fu n c ió n " Z ” s e e n c u e n tr a ín tim a m e n te lig a d a c o n e l c u e r p o
d e lo s p -á d ic o s .
A s í m is m o h a y u n c o n ju n to d e fu n c io n e s q u e e s tá n b a jo la m is m a r e la c ió n y s e
lla m a n fu n c io n e s "L ” d e D iric h le t ( con ceb ida s por el m atem á tico P e te r D irichlet (1805-1859) en el

siglo X IX cuando estu dia ba los núm eros prim os con tenido s en las p ro gre sion es a ritm é tic a s ), la s c u a le s
s o n m u y ú tile s p a r a lo s o r fe b r e s d e la a r itm é tic a . A s í fu e c o m o , e n 1 9 6 4 lo s
m a te m á tic o s T o m io K u b o ta y H e in ric h L e o p o ld c o n s tru y e ro n a n á lo g o s p -á d ic o s d e
la s fu n c io n e s " Z ” y "L ” . E s to s n u e v o s o b je to s q u e s o n fu n c io n e s d e v a r ia b le
p -á d ic a y q u e c o n s ig u ie n te m e n te to m a n v a lo r e s n u m é r ic o s p -á d ic o s , h a n p e rm itid o
o b te n e r in fo rm a c ió n n u e v a a c e r c a d e é s ta s .
L a s a p lic a c io n e s p r á c tic a s n o s e h a n h e c h o e s p e r a r , p r in c ip a lm e n te e n la fís ic a ,
d e b id o a la s b o n d a d e s q u e b rin d a s u e s tr u c tu r a a r b o r e s c e n te . P o r e je m p lo , e n la
m o d e la c ió n m a te m á tic a d e la s p r o p ie d a d e s te r m o d in á m ic a s d e lo s v id rio s d e

290
espín cuya orientación debe ajustarse para minimizar las interacciones
magnéticas, se aplica la llamada “técnica de las réplicas”, que consiste en
considerar n muestras idénticas, calcular la energía de interacción magnética y
hacer tender n a cero. Esto equivale a considerar una serie de enteros que tienda
p-ádicamente a cero para todos los números primos p a la vez. Así, la sucesión
Sn = {1 x 2 x 3 x 4 x.. (n -1) x n } = n! posee esa propiedad ya que para todo primo
p , n! es divisible por potencias de p cada vez mayores al tender n a infinito.
Obviamente el nuevo espacio de representación resulta muy prometedor, han
dicho los científicos occidentales pensando en las aplicaciones del análisis
p-ádico a la física teórica en lo relacionado con el sistema de coordenadas
espacio-tiempo que en éste se puede definir a muy pequeñas escalas y, abrigan la
esperanza que a escalas cúanticas su estructura última pueda describirse con
ayuda del cuerpo de los p-ádicos, ya que no ha sido posible hacerlo mediante el
cuerpo métrico.
Como era de esperarse, en el mundo occidental de hoy día estas nuevas
matemáticas han sido recibidas por parte de los científicos, de manera análoga a
como lo hicieron sus colegas del siglo XIX con las geometrías no euclideanas;
esto es, con gran extrañeza y anhelando que éstas tengan la misma suerte que
aquellas. O sea, llegar ha describir la realidad concreta de manera más
satisfactoria a como lo ha hecho el modelo anterior, tal como reza el ideal
einsteniano.

3. 2 IM P L IC A C IO N E S C IE N T ÍF IC A S Y F IL O S O F IC A S
Una vez que hemos presentado a los dos máximos sistemas matemáticos del
mundo, que la especie humana ha desarrollado a lo largo de su historia, nos

291
q u e d a p o r ú ltim o e x p r e s a r la s im p lic a c io n e s d e m a y o r im p o r ta n c ia q u e s e
d e s p r e n d e n d e é s to s c u a n d o s e lo s c o m p a r a .
P r im e r o d ig a m o s q u e e l c o n te n id o d e la p r e s e n ta c ió n n o s h a p e rm itid o e s ta b le c e r ,
c o n s u fic ie n c ia d e c a u s a y p ro lija e v id e n c ia , c ó m o e s v e r d a d q u e e n fu n c ió n d e
d is tin ta s c o n d ic io n e s d e c lim a y a g r ic u ltu r a h a n p o d id o s u rg ir y d e s a r r o lla r s e , d e
m a n e r a e s p o n tá n e a y c o n in d e p e n d e n c ia d e la d e c is ió n d e lo s p r o ta g o n is ta s d e l
p e n s a m ie n to , d o s e s p a c io s m a te m á tic o s d e r e p r e s e n ta c ió n d ife re n te s ; p e ro n o
in c o n e x o s s in o c o m p le m e n ta r r io s .

3. 2 1 Implicaciones lógico-matemáticas
A l te n e r p r o y e c ta d a s e n la m e n te la s h is to r ia s r e s p e c tiv a s d e lo s d o s m á x im o s
s is te m a s m a te m á tic o s d e l m u n d o , lo p rim e r o q u e s e o b s e r v a , p o r la e n o r m e
im p lic a c ió n q u e c o n lle v a , e s q u e la ló g ic a d e v ie n e h is tó r ic a m e n te d e la s
m a te m á tic a s y n o a l r e v é s c o m o s e h a b ía s u p u e s to e n e l V ie jo M u n d o , c u y o s
h a b ita n te s e d ific a r o n s u fe a s e n tá n d o la e n la s u p o s ic ió n d e q u e e l M u n d o fu e
c r e a d o p o r e l V e r b o D iv in o , p o r e l L ó g o s . D e ja n d o c o n e llo e s ta b le c id o q u e p rim e r o
e s tu v o la L ó g ic a , la R a z ó n y d e s p u é s la m a n ife s ta c ió n c o n c r e ta d e é s ta e n
le n g u a je m a te m á tic o . P o r e s to , ta n to s u s c ie n tífic o s c o m o s u s s a c e r d o te s
m o n o te ís ta s , h a n e la b o r a d o s u d is c u rs o te o ló g ic o -c ie n tífic o , m a n te n id o a lo la rg o
d e to d a s u h is to ria , c o n b a s e a la c r e e n c ia d e q u e e l U n iv e r s o e s tá re g id o p o r u n a
r a c io n a lid a d im p líc ita , p o r le y e s in m u ta b le s q u e le s u b y a c e n y h a n tr a ta d o d e le e r
e l te x to e n e l q u e e s tá e s c r ito é s te , lo s p rim e r o s m e d ia n te la s e c u a c io n e s
d ife r e n c ia le s y lo s o tro s p o r m e d io d e la s o ra c io n e s . E s ta g ra n c o n v ic c ió n e s tá e n
e l fo n d o m is m o d e s u c u ltu ra , c o n s titu y e s u " e s e n c ia ” m is m a , s u m o d us
p r o c e d e n te , c o m o lo d ir ía c u a lq u ie r filó s o fo o c c id e n ta l, p u e s , e l s u p o n e r d e b a s e
q u e e l u n iv e rs o s e rig e p o r le y e s in m u ta b le s s e c o n v irtie r o n e n p e n s a d o r e s q u e
b u s c a n la " e s e n c ia ” d e la s c o s a s , a q u e llo q u e e s tá d e tr á s d e lo a p a r e n te , a q u e llo
q u e e s e te r n o e in m u ta b le .
L a ló g ic a m e d ia n te la c u a l e la b o r a r o n s u d is c u rs o c ie n tífic o lo s h o m b r e s d e l V ie jo
M u n d o e s d e c a r á c te r b iv a le n te , e s d e d u c tiv a y p e r m ite e n u n c ia r p ro p o s ic io n e s
a c e r tó r ic a s , o s e a , o r a c io n e s g r a m a tic a le s d e l tip o s u je to -p r e d ic a d o ; la s c u a le s

292
s ó lo p u e d e n s e r v e r d a d e r a s o fa ls a s . P a r a q u e e s to s u c e d a , e n e s ta ló g ic a s e h a
e x c lu id o a l s u je to y s e h a d a d o lu g a r a q u e s e a la " p a la b r a d e s u d io s ” la q u e s e
e x p r e s e . E s p u e s u n a ló g ic a tr a s c e n d e n te q u e e n tr a e n a c c ió n c a d a v e z q u e
r e a liz a m o s la o p e r a c ió n d e p u nto-lím ite. A s í p o r e je m p lo , e l e n u n c ia d o d e u n te o ­
r e m a c u a lq u ie r a e x p r e s a u n a v e r d a d a c e r c a d e la c u a l e l s u je to s ó lo h a p o d id o
c o n je tu r a r e n c u a n to a s u v e r d a d o fa ls e d a d . A l d e m o s tr a r lo lo ú n ic o q u e é l h a c e
e s d e s c u b r ir e s a v e r d a d q u e e s tá in fin ita m e n te m á s a llá d e s u c a p a c id a d d e
c r e a r la . S ó lo D io s h a c r e a d o e s ta s v e r d a d e s y c o n e lla s a l M u n d o , e l h o m b r e
a p e n a s p u e d e h ip o te tiz a r s u v e r a c id a d o fa ls e d a d y a l h a c e r lo q u e d a a tr a p a d o e n
la in c ó m o d a s itu a c ió n d e n o s a b e r si e s v e r d a d e r a o fa ls a , lo c u a l le o b lig a a
b u s c a r la s a lid a q u e fin a lm e n te lo lib e r a r á d e l m a rtirio ta n tá lic o , e n c a s o d e
e n c o n tr a r la a n s ia d a d e m o s tr a c ió n . Q u e d a c la ro , p u e s , q u e e s te m o d o d e re fle x ió n
p o r s u c a r á c te r tr a s c e n d e n te , c o n v e r g e n te , c o r r e s p o n d e a lo q u e A r is tó te le s
d e n o m in ó in fin ito actual.
A d ife r e n c ia , a q u í e n la s A m é r ic a s p r e c o lo m b in a s la ló g ic a q u e s e d e s a r r o lló fu e
tr iv a le n te , in d u c tiv a , d e c a r á te r d iv e r g e n te y n o tr a s c e n d e n te , d o n d e e l s u je to
s ie m p r e e s tu v o in c lu id o e n la p ro p o s ic ió n q u e e n u n c ia b a e l a s e r to c ie n tífic o . P o r
ta l c a u s a é s ta c o r r e s p o n d e r ía a l in fin ito potencial.
O b s e r v e m o s e s tim a d o le c to r c ó m o c a d a m a te m á tic a d e te r m in ó la d ir e c c ió n d e la
a c titu d d e l h o m b r e fr e n te a la n a tu r a le z a . A s í, m ie n tr a s e l V ie jo M u n d o s e v io
o b lig a d o a d e s a r r o lla r u n a m a te m á tic a d e l in fin ito , c u a n tita tiv a y a x io m á tic o -
d e d u c tiv a , e n c a m b io , e l h o m b r e a n d in o s e v io fo r z a d o a c o n s tru ir u n a m a te m á tic a
d e lo fin ito , ló g ic o -in d u c tiv a
L a p r im e r a c o n d u jo a l h o m b r e o c c id e n ta l p o r e l c a m in o d e la c e le s tia l a b s tr a c c ió n ,
la s e g u n d a g u ió a l h o m b r e a m e r ic a n o p o r e l s e n d e r o d e la a b r u p ta c o n c re c ió n .
E s to h iz o q u e e l u n o v a y a a d q u ir ie n d o u n a ló g ic a d e d u c tiv a d e c a r á c te r a b s o lu to y
u n a ló g ic a in d u c tiv a p ro b a b ilita ria , s u b o r d in a d a . M ie n tr a s e l o tro d e s a r r o lló u n a
ló g ic a d e d u c tiv a re la tiv a s u b o r d in a d a a u n a ló g ic a in d u c tiv a d e te r m in is ta .
L a u n a e x ig ía h a c e r a u n la d o a la n a tu r a le z a , a d e s p r e c ia r la , p a r a a c a m b io ,
d e g u s ta r d e l in fin ito p la c e r in te le c tu a l q u e b rin d a c u a n d o u n o s e lib e r a d e la s
a ta d u r a s s e n s o r ia le s y a l fin p u e d e s e n tir la " v e r d a d e r a lib e r ta d ” . E n c a m b io la o tra

293
matemática obligaba a percibir ver cada vez con mayor intensidad las
complejidades de la naturaleza, para ser finalmente seducido por ella y condenado
a amarla cada vez más profundamente, con mayor entrega, a cambio de sentir su
pulso y saber que será de ella en el futuro.
El hombre occidental, prevalido de su supuesta condición de ser hijo elegido de su
dios, cree que la naturaleza es infinita, inagotable, pues Él la regaló para su
inacabable e indiscriminado gozo. Este accionar ha llevado a transformarla en una
cantera de donde se obtienen los recursos materiales y energéticos que consume
el sistema. Por el contrario el amerindio cree que Ella es finita y agotable y que
dios les entregó para que la cuidaran del mismo modo como se cuida el propio
hombre.
La una encaminó a occidente a crear la ciencia de la Mecánica, para con ella
construir la sociedad mecanística, complejo social-industrial que funciona sobre
la naturaleza de modo artificial y en desmedro de ella. En cambio las otras
matemáticas impulsaron el desarrollo de una sociedad organísmica, ecológica,
construida en función de la naturaleza de forma tal que trabaje en su propio
beneficio.
Consecuentemente la primera dio origen a un ser humano arrogante, que presume
controlar a la naturaleza como si fuese uno de sus juguetes, pues está imitando a
su dios que a la vez es su padre. En contraste el otro hizo que brotara un hombre
sumiso y cándido, pero afable y con una sensibilidad enormemente organizada
según un orden matemático que le permitía sentir el acontecer del mundo,
enteramente.
Luego hemos puesto en evidencia cómo estas dos matemáticas fueron
vertebrando el cuerpo social de sus respectivas civilizaciones, dotándoles de
estabilidad estructural y permitiéndoles una evolución progresiva, a medida que se
desarrollaban. Pudiendo decirse entonces que la matemática y la lógica han
forjado el orden de las relaciones sociales que nos ha traído hasta donde estamos
hoy día.
La principal diferencia entre ambos sistemas ha sido el carácter abstracto del uno
y concreto del otro. Como ya lo indicamos, el OMROcc es un espacio

294
tr a s c e n d e n te , p o r e s ta r c o n s titu id o e s tr u c tu r a lm e n te p o r p u nto s-lím ite , a l ig u a l q u e
la ló g ic a q u e s e d e s p r e n d e d e é l y q u e p e r m ite n v e r e l m u n d o d e s d e s u " e x te r io r” ,
s in p e rtu rb a r lo . P e r o e s ta a p a r e n te v e n ta ja tu v o u n a lto p re c io : p e r d e r p o r
c o m p le to la p o s ib ilid a d d e u tiliz a r la m a te m á tic a in d u c tiv a , d e já n d o la r e d u c id a a la
te o r ía d e p r o b a b ilid a d e s y p r o d u c ie n d o c o n e llo u n flu jo e r rá tic o d e im á g e n e s a la
m e n te .
L o q u e n o s lle v a a a fir m a r q u e h a n e x is tid o d o s g r a n d e s v ía s , d e u tilid a d
e q u iv a le n te , p a r a e l c o n o c im ie n to d e la s c o s a s : e l d iá fa n o c a m in o d e la
a b s tr a c c ió n y la e s c a b r o s a ru ta d e la c o n c re c ió n . Y , s i e l p r im e r o h a p a s a d o p o r e l
ú n ic o v e r d a d e r o , h o y e s v is ib le , a s u la d o , o tro d e n o m e n o s in g e n io y
p e rs p e c tiv a .
In d is c u tib le m e n te e l k ip u e s p r u e b a d e q u e n o tie n e c a r á c te r n e c e s a r io e s a
m a n e r a d e d a r c u e n ta d e la r e a lid a d c o n c r e ta a p a rtir d e e s q u e m a s m a te m á tic o s
p r e e x is te n te s , ta l c u a l h a o c u rrid o c o n c a d a g ra n a v a n c e d e la m o d e lís tic a
m a te m á tic a O c c id e n ta l. C o m o h a n s id o lo s c a s o s r e le v a n te s d e la c o s m o lo g ía d e
K e p le r , q u e fu e u n a a p lic a c ió n d e la s s e c c io n e s c ó n ic a s d e s c u b ie r ta s p o r A p o lo n io
d e P é r g a e n e l s ig lo III a . C ., d e la r e la tiv id a d g e n e r a l q u e s e s irv ió d e l c á lc u lo
te n s o ria l y, d e la m e c á n ic a c u á n tic a q u e e m p le ó e l á lg e b r a d e m a tr ic e s y lo s
e s p a c io s d e H ilb e rt; p e ro , e s p re c is o d e s ta c a r a lg u n a s e x c e p c io n e s n o ta b le s ,
c o m o la te o r ía d e la s s e r ie s d e F o u rie r, in s p ir a d a e n e l e s tu d io d e la s c u e r d a s
v ib r a n te s o la fu n c ió n d e D ir a c s u rg id a d ir e c ta m e n te d e la m e c á n ic a .
E n lo q u e s e r e fie r e a l p a p e l d e l o b s e rv a d o r o s u je to , e n e l c a s o d e l k ip u , h a b la n d o
c o n to d o rig o r, a llí n o h u b o u n o b s e r v a d o r e n e l s e n tid o o c c id e n ta l. N o lo p o d ía
h a b e r, p u e s lo s k ip u c a m a y o c p a r tic ip a b a n d e " c u e r p o e n te r o ” e n la p r e p a r a c ió n d e
la s c u e r d a s , s u tr e n z a m ie n to y tin c ió n ; e l á lg e b r a d e lo s n u d o s , c o n n o s e r
e x p líc ita , y a c ía e n la m e n te d e l o p e r a d o r d e l k ip u , d e s p u é s d e h a b e r s id o fo r ja d a
r e lig io s a m e n te a tr a v é s d e lo s s ig lo s . H u b o e n e s ta u n ió n s u je to -o b je to , u n a
in c id e n c ia d e la c a r a c te r ís tic a in te g r a tiv a q u e p r o v ie n e y e s m u y p ro p ia d e l a r a d o
a n d in o o c h a q u ita c lla . A r a d o m u y d ife r e n te a l d e l V ie jo M u n d o p u e s e s a c c io n a d o
p o r e l h o m b r e , n o h a y a n im a l d e tiro y p o r ta n to e l v ín c u lo e n tr e e l a g ric u lto r y la
tie r r a s e h a c e c a d a v e z m á s in te n s o , m á s p ro fu n d o , m á s re v e la d o r.

295
E n c o n s e c u e n c ia , e l ro l d e l o b s e r v a d o r e n e l s is te m a d e l m u n d o A m e r ic a n o s e
tra d u jo e n u n e s fu e r z o p o r r e d u c ir la in c e r tid u m b r e s o b r e e l fu tu ro , d is fu n d ié n d o s e
c a d a v e z m á s e n la r e a lid a d c o n c r e ta , a c o s ta d e o r g a n iz a r s u p e r c e p c ió n s e n s ib le
e n c o n s o n a n c ia c o n la s r e g u la r id a d e s d e la n a tu r a le z a . E n c o n tr a s te , la
p a rtic ip a c ió n d e l o b s e rv a d o r o s u je to e n e l s is te m a d e l m u n d o o c c id e n ta l s e
tr a d u jo in e v ita b le m e n te e n u n e s fu e r z o p a r a a u m e n ta r la in c e r tid u m b r e s o b r e e l
fu tu ro .
A q u í p o d e m o s a p e r c ib ir n o s q u e a m b o s s is te m a s s e c o n c ib ie r o n y a p lic a r o n c o n
id é n tic o p ro p ó s ito : e s ta b le c e r r e g u la r id a d e s , h a c e r p r e d e c ib le s lo s
a c o n te c im ie n to s , a u n q u e e llo h u b ie r a s id o , e n e l c a s o d e la m e c á n ic a c u á n tic a , a
c o s ta d e a d v e r tir q u e h a y u n m a r g e n d e to le r a n c ia p a r a la p r e te n s ió n d e te r m in is ta
d e la c ie n c ia c lá s ic a .
S in e m b a r g o , e n e s te c o m ú n a s p e c to d e lo s d o s e s p a c io s y a c e s u m a y o r
d ife re n c ia : e l h e c h o d e q u e e l e s p a c io m é tric o d ife re n c ia l s e d e s tin a s e a la
s im u la c ió n d e lo s c a m b io s d e p o s ic ió n d e lo s o b je to s y, e l n ú d ic o -a r b ó r e o , a la d e
s u s c a m b io s d e e s ta d o . T o d o g r a c ia s a la tu r b u le n c ia y a l k ip u q u e n o s h a n
p e rm itid o r e c o n o c e r q u e e l tie m p o c u a lita tiv o tie n e e l m is m o d e r e c h o a la
r e p r e s e n ta c ió n g e o m é tr ic a q u e e l c u a n tita tiv o .
P e r o e l lo g ro m á s e x tr a o r d in a r io q u e n o s h a b rin d a d o e l E M R A n o k ip u h a s id o
a lc a n z a r u n a a lta c o n g r u e n c ia a l p o n e r e n c o rr e la c ió n a l e s p a c io m é tric o fr a c tá lic o
y a l e s p a c io a r b o r e s c e n te o p -á d ic o a tr a v é s d e la fu n c ió n “Z ” . E s to n o s h a
p e rm itid o u n ific a r lo s e s p a c io s m é tric o , ta n to e l tr a s c e n d e n te o d e p u n to s , c o m o e l
fra c tá lic o o d e c u e r d a s c o n e l d e á r b o l o p -á d ic o , p a r a o b te n e r u n o n u e v o q u e lo
lla m a r e m o s E s p a c io M a te m á tic o d e R e p r e s e n ta c ió n U n iv e r s a l o EMRU. É l e s u n
c u e r p o to p o ló g ic o , r e s u lta d o d e l p ro d u c to to p o ló g ic o e n tr e e l e s p a c io fra c tá lic o y e l
p -á d ic o , e l c u a l tie n e u n a e s tr u c tu r a g e o m é tr ic a e n fo r m a d e “n e r v a d u r a d e h o ja ”
(v e r recuadro 2 )
O tr a p r in c ip a lís im a c o n c lu s ió n d e l e x a m e n r e a liz a d o e s u n a a m p lia c ió n d e la s
c o n s e c u e n c ia s d e l p rin c ip io d e r e la tiv id a d re s trin g id a e n c u a n to a la
c a r a c te r iz a c ió n d e e s p a c io y tie m p o . P u e s a s í c o m o , d e a c u e r d o c o n la r e la tiv id a d
re s trin g id a , lo s o b s e r v a d o r e s q u e s e m u e v e n c o n d is tin ta v e lo c id a d in e rc ia l u n o s

296
r e s p e c to d e o tro s , c o n s ig u e n d ife r e n te s in d ic a c io n e s d e e s p a c io y tie m p o , e s ta m o s
n a tu r a lm e n te lle v a d o s a a d m itir, d e a c u e r d o c o n la r e la tiv id a d c u ltu ra l, q u e e s ta s
in d ic a c io n e s tie n e n e n c o m ú n , m á s a llá d e s u s d ife r e n c ia s c u a n tita tiv a s , la m is m a
c a lid a d m é tr ic a y r e v e r s ib le , q u e d e ja r á d e s e r ta l ta n p ro n to e s o s o b s e r v a d o r e s s e
s itú e n e n u n a d is tin ta c la s e d e m o v im ie n to y p u e d a n o b te n e r, p o r lo m is m o , u n a
im a g e n n o m é tr ic a e irre v e rs ib le . E n o tra s p a la b r a s , n o h a y u n e s p a c io m é tric o y
u n tie m p o r e v e r s ib le d e c a r a c te r e s u n iv e r s a le s y a b s o lu to s , c o m o fa c to r e s
in h e r e n te s a la to ta l re a lid a d d e l m u n d o fís ic o . E n s u lu g a r d e b e m o s h a b la r d e
im p r e s io n e s y c o n c e p to s ú tile s s e g ú n e l tip o d e m o v im ie n to q u e s e q u ie r a
d e s c rib ir, b ie n d e c a m b io s d e p o s ic ió n , b ie n d e c a m b io s d e e s ta d o o la
c o m b in a c ió n d e lo s d o s , q u e e s lo q u e m á s a b u n d a e n la n a tu r a le z a .
D e e s ta m a n e r a q u e d a p le n a m e n te re s titu id o e l p a p e l d e l o b s e r v a d o r e n la
g e n e r a c ió n d e la s c a te g o r ía s d e e s p a c io y tie m p o , e l in e v ita b le a s p e c to
g n o s e o ló g ic o q u e fu e r a e n a je n a d o e n a r a s d e u n a o b je tiv id a d a b s o lu ta ,
d e s c a r n a d a y, a la p o s tre , m e ta fís ic a . V a le d e c ir e n to n c e s q u e la o b je tiv id a d p u ra ,
a b s o lu ta , e s a lc a n z a d a p o r e l s u je to c u a n d o lo q u e o b s e r v a n o s e v e p e rtu r b a d o
p o r s u p r e s e n c ia e s c r u ta d o r a , c u a n d o s e e n c u e n tr a fu e r a d e l m u n d o c o m o e l d io s
d e l g é n e s is , p o r e je m p lo c u a n d o a lg u ie n m ira la L u n a o c u a lq u ie r o tro a s tro , e s u n
h e c h o q u e é s ta n o c a m b ia s u ó rb ita . P e r o , c u a n d o o b s e r v o u n e le c tr ó n e s
in e v ita b le q u e m i p r e s e n c ia p e r tu r b e s u tr a y e c to r ia e s p a c io -tie m p o . A s í e n to n c e s ,
la o b je tiv id a d re la tiv a e s a lc a n z a d a c u a n d o e l s u je to p e r tu r b a lo m ín im o p o s ib le e l
o b je to o b s e r v a d o ( principio de incertidumbre) E n la m is m a s itu a c ió n s e e n c o n tr a r á u n
p s ic ó lo g o c u a n d o d ia lo g a c o n s u p a c ie n te , é l v a a tr a ta r d e n o in flu e n c ia r c o n s u
s u b je tiv id a d e n lo s re s u lta d o s d e l d ia g n ó s tic o . L o p ro p io le p a s a r á a l s o c ió lo g o , a l
a n tro p ó lo g o , e tc .
E s ta s c o n c lu s io n e s n o s lle v a n d ir e c ta m e n te a la n e c e s id a d d e r e la tiv iz a r la te o r ía
g e n e r a l d e la r e la tiv id a d e n c u a n to é s ta h a a tr ib u id o c o m o p ro p io d e la n a tu r a le z a ,
d e la m a te r ia , u n c o n c e p to d e e s p a c io y tie m p o q u e h o y s e n o s m u e s tr a c o m o
a fin c a d o e n e l o b s e r v a d o r O c c id e n ta l, c o m o c u ltu r a lm e n te re la tiv o .
C o n e l p e r m is o d e E in s te in e s to e s a lg o q u e ta r d e o te m p r a n o te n ía q u e h a c e rs e ;
p u e s s e g ú n s u p ro p ia v is ió n a n u n c ia d o r a , « e l d e stino m ás h e rm o so que p u ed e

297
tener una teoría física es el de allanar el camino para el establecimiento de una
teoría más amplia, en la cual la primera sigue siendo válida como un caso
particular de la segunda».

3. 2 2 Implicaciones neurológicas y sicopedagógicas


L a p r o b le m á tic a in te le c tiv a q u e h a n s u s c ita d o lo s c o n c e p to s d e c e r e b r o y m e n te
e s d e v ie ja d a ta . U n o s h a n s u p u e s to q u e s o n e n te s s e p a r a b le s , in d e p e n d ie n te s y
h a n a p o s ta d o p o r e llo ; m ie n tr a s o tro s h a n c o n s ta ta d o q u e s o n e n te s c o v a r ia n te s ,
c o d e p e n d ie n te s y q u e e n ú ltim a in s ta n c ia e l c e r e b r o e s e l q u e c r e a la m e n te .
V a m o s a e n te n d e r “ mente” c o m o e l té r m in o q u e a lu d e a l c o m p le jís im o s is te m a
n e u r o n a l s itu a d o e n e l c u e r p o c a llo s o , lu g a r e n e l q u e a p a r e c e n la s c o n o c id a s
im á g e n e s m e n ta le s . A h o r a b ie n , é s ta s s e p r o d u c e n p o r a c c ió n in d e p e n d ie n te d e
c a d a u n o d e lo s h e m is fe r io s c e r e b r a le s . A s í, p o r a c c ió n d e l d e r e c h o s e p r o y e c ta n
im á g e n e s e m o tiv a s , e m o tiv o -s e n s itiv a s y s e n s itiv a s y p o r la d e l iz q u ie rd o s e tie n e n
im á g e n e s in te le c tiv a s . L a c o m b in a c ió n c o o r d in a d a d e lo s d o s p r o y e c ta la im a g e n
re a l.
A la lu z d e l d e s c u b r im ie n to d e la q u e d e b ió s e r la M a te m á tic a A n d in a
P r e c o lo m b in a ( E M R A n ) h e p o d id o r e a liz a r u n a a m p lia c ió n d e l c o n c e p to d e mente
matemática te n id o h a s ta h o y .
A l m o m e n to e l g r a n p ú b lic o c r e e q u e la m e n te m a te m á tic a e s la m e n te a b s tr a c ta
p o r e x c e le n c ia , la id e a p u ra . A s í lo h a te n id o e l p e n s a m ie n to o c c id e n ta l d e s d e s u
n a c im ie n to y lo h a im p u e s to a l re s to d e l m u n d o . C o n e s to , d ic h o p e n s a m ie n to h a
d e ja d o e s ta b le c id o q u e la m a te m á tic a e x p e r im e n ta l o in d u c tiv a e s v e r d a d e r a m e n te
u n a s e u d o -m a te m á tic a , y a q u e e l p ro d u c to e n b ru to q u e é s ta e n tr e g a , p rim e r o
tie n e q u e s o m e te r s e a u n p ro c e s o d e a b s tr a c c ió n a s c e n d e n te , p a r a lu e g o d e e s te
r e fin a m ie n to c o n s e g u ir e l o b je to m a te m á tic o p r o p ia m e n te d ic h o . P e r o , a l te n e r q u e
r e a liz a r la o p e r a c ió n d e punto-límite, p a r a p o d e r o b te n e r s u im a g e n e n e l
E M R O c c ., in e v ita b le m e n te s e e x tir p a la d im e n s ió n c u a lita tiv a d e l o b je to
g e o m é tr ic o in ic ia l, e l p ro d u c to fin a l e s s ó lo la e s tr u c tu r a a lg e b r a ic a , n o d e l o b je to
e n m e n c ió n , s in o la d e to d o s lo s m ie m b r o s d e s u fa m ilia . E n la m e n te s ó lo s e
p r o y e c ta la im a g e n c u a n tita tiv a , e s p e c tr a l-h o lo g r á fic a , d e é l. E v id e n te m e n te e l

298
le c to r s e p e r c a ta r á d e q u e te n e m o s a n te n u e s tr o s o jo s u n m o d o in c o m p le to d e
r e p r e s e n ta r s e e l m u n d o . L a c a u s a d e q u e la m a y o r ía d e m a te m á tic o s o c c id e n ta le s
h a y a n a c e p ta d o e s ta c r e e n c ia p ita g ó r ic o -p la tó n ic a r a d ic a e n q u e p o r p rin c ip io
d e c id ie r o n d e s c o n fia r d e la s im á g e n e s p r o v e n ie n te s d e lo s s e n tid o s e h ic ie ro n u n
lla m a d o u n iv e rs a l a lo s h o m b r e s p a r a c o n d e n a r la s a v iv ir e n e l m u n d o d e la s
a p a r ie n c ia s , e v ita n d o d e e s ta m a n e r a e l d e s a r r o llo d e la s m a te m á tic a s in d u c tiv o -
c u a lita tiv a s .
C o n e l d e s c u b r im ie n to d e la m a te m á tic a a n d in a p r e c o lo m b in a o E M R A n c o n s ta té
q u e e l a n tig u o h o m b r e a m e r ic a n o h a b ía d e s a r r o lla d o u n a g e o m e tr ía -m a te m á tic a
d e c a r á c te r fra c ta l, in d u c tiv o -c u a lita tiv a . C o m o y a m e n c io n a m o s e lla re s u ltó s e r
u n a g e n u in a g e o m e tr ía a n a lític a fra c ta l. E s ta v e z , la s im á g e n e s q u e s e p r o y e c ta n
e n la m e n te p r o v ie n e n d e la p e r c e p c ió n s e n s o r ia l o r g a n iz a d a m a te m á tic a m e n te
g r a c ia s a l E M R A n . q u e h a c e e l tr a b a jo . C o m o y a fu e p u e s to a c o n s id e r a c ió n d e l
le c to r h e lo g ra d o p r o b a r q u e e s p o s ib le r e a liz a r la c o m b in a c ió n d e la s d o s c la s e s
d e im á g e n e s p o r m e d io d e la fu n c ió n “Z ” , p a r a o b te n e r u n a im a g e n n o s ó lo
e s p e c tr a l-h o lo g r á fic a s in o v ív id a d e l o b je to . E n e s to c o n s is tiría la a m p lia c ió n d e l
c o n c e p to d e m e n te q u e m e n c io n é .
P a r a b ie n c o m p r e n d e r lo d ic h o e s q u e m á tic a m e n te , p r im e r o u b iq u e m o s e n e l
e s c e n a r io d e l d e v e n ir h is tó ric o a l c o n c e p to d e ce re bro y co n cie n cia m ental.
C o m o to d o s n u e s tro s ó r g a n o s e l c e r e b r o h a e v o lu c io n a d o a u m e n ta n d o s u
c o m p le jid a d y s u c o n te n id o in fo rm a tiv o a lo la rg o d e m illo n e s d e a ñ o s . S u
e s tr u c tu r a n o s r e v e la to d a s la s fa s e s p o r la s q u e h a a tr a v e s a d o . E l c e r e b r o
e v o lu c io n ó d e d e n tr o a fu e r a , d e m o d o ta l q u e e n lo m á s p ro fu n d o d e é l y a c e la
p a r te m á s a n tig u a , m á s p rim itiv a , e l ta llo e n c e fá lic o , q u e d irig e la s fu n c io n e s
b á s ic a s d e l c u e r p o (in stin to s), in c lu y e n d o lo s b io -ritm o s , lo s la tid o s d e l c o r a z ó n y la
re s p ir a c ió n . S e g ú n e l m o d e lo d e c e r e b r o p r e s e n ta d o p o r e l n e u ro fis ió lo g o P a u l
M a c L e a n , la s fu n c io n e s s u p e r io r e s d e l c e r e b r o e v o lu c io n a r o n e n tre s g r a n d e s
fa s e s s u c e s iv a s . C o p a n d o e l ta llo e n c e fá lic o e n c o n tr a m o s a l c e r e b r o R , m o r a d a d e
la te r rito r ia lid a d , d e la a g r e s ió n , d e l ritu a l y d e la je r a r q u ía s o c ia l, q u e e v o lu c io n ó
h a c e c e n te n a r e s d e m illo n e s d e a ñ o s e n n u e s tro s a n te p a s a d o s “re p tilia n o s ”, s e r e s
p a r e c id o s a lo s c o c o d rilo s . R e c u b r ie n d o e l C o m p le jo R e s tá e l s is te m a lím b ic o o

299
c e r e b r o m a m ífe r o q u e e v o lu c io n ó h a c e d e c e n a s d e m illo n e s d e a ñ o s , e s la s e d e
d e la s e m o c io n e s y lo s s e n tim ie n to s , lu g a r d o n d e s e p r o c e s a to d a a c tiv id a d
o r ie n ta d a a l c u id a d o y a m o r p o r la s c r ía s . Y , fin a lm e n te , a b r a z a n d o a lo s d o s
a n te r io r e s y v iv ie n d o e n in c ó m o d a tr e g u a c o n e llo s , s e e n c u e n tr a la c o r te z a
c e r e b r a l, q u e e v o lu c io n ó h a c e m illo n e s d e a ñ o s e n n u e s tr o s a n te p a s a d o s
p rim a te s . L a c o r te z a , m o r a d a d e la c o n c ie n c ia , c o m p r e n d e m á s d e la s d o s
te r c e r a s p a r te s d e la to ta lid a d d e l c e r e b r o . E s te e s lu g a r d o n d e e x p e r im e n ta m o s
la s id e a s e in s p ira c io n e s , d o n d e le e m o s y e s c r ib im o s , d o n d e h a c e m o s
m a te m á tic a s y c o m p o n e m o s m ú s ic a . L a c o r te z a r e g u la n u e s tr a v id a c o n c ie n te , e s
lo q u e d is tin g u e a n u e s tr a e s p e c ie , e s la s e d e m is m a d e n u e s tr a h u m a n id a d , la
c iv iliz a c ió n e s e l fru to d e s u tra b a jo .
L a c o r te z a s e e n c u e n tr a a lta m e n te e s p e c ia liz a d a e n s u s d o s g r a n d e s h e m is fe r io s
e n q u e s e h a lla d iv id id a . E l h e m is fe r io d e r e c h o e s e l s e n s itiv o , e s e l q u e n o s
c o n e c ta a l m u n d o a tr a v é s d e l “ca m p o unifica d o de a cció n ” , s e o c u p a
p r in c ip a lm e n te d e l re c o n o c im ie n to d e la s fo r m a s , e s d e c ir d e la g e o m e tr ía d e l
e n to rn o . P o r e llo s e e n c a r g a d e la s o p e r a c io n e s in tu itiv a s e in d u c tiv a s . E n c a m b io ,
e l h e m is fe r io iz q u ie r d o e s e l in te le c tiv o y p r e s id e e l p e n s a m ie n to ra c io n a l
tr a s c e n d e n te , a b s tr a c to , a n a lític o d ife r e n c ia l y c rític o . E l iz q u ie rd o p r o y e c ta
im á g e n e s v ir tu a le s c o n s e g u id a s p o r m e d io d e c ó d ig o s e s c r ito s c o n p a la b r a s ( por

ejem plo cuando e scribim o s o le e m o s ), p o r e l c o n tra r io e l d e r e c h o lo h a c e c o n im á g e n e s q u e


p r o v ie n e n d e la p e r c e p c ió n s e n s ib le d e l m u n d o c o n c re to , lo g r a d a s p o r m e d io d e
lo s c ó d ig o s g e o m é tr ic o -n a tu r a le s o e scrito s g e o m é tric o s ; e l u n o h a c e a r itm é tic a
a b s tr a c ta e l o tro p r a c tic a u n a g e o m e tr ía -a r itm é tic a ; s o n e l le n g u a je d e l h o m b r e y e l
d e la n a tu r a le z a . C u a n d o la s d o s c la s e s d e im á g e n e s s e v u e lv e n c o n g r u e n te s s e
c o n fo r m a u n a s o la , g r a c ia s a q u e s e h a e je c u ta d o e l p ro d u c to to p o ló g ic o e n tr e e l
e s p a c io m é tric o fra c ta l y e l e s p a c io p -á d ic o . E l iz q u ie rd o a c tiv a e l tr a b a jo d e la s
c a te g o r ía s c u a n tita tiv a s d e l p e n s a m ie n to , e l d e r e c h o lo h a c e c o n la s la s
c u a lita tiv a s y e l c u e r p o c a llo s o c o m b in a n la s d o s .
L a s c u ltu r a s d e l V ie jo M u n d o h a n u tiliz a d o p r e d o m in a n te m e n te e l h e m is fe rio
iz q u ie r d o p a r a la v is u a liz a c ió n m e n ta l, a l m e n o s e n lo q u e s e r e fie r e a l
p e n s a m ie n to c ie n tífic o -filo s ó fic o y ju r íd ic o -te o ló g ic o , a c o s ta d e r e le g a r le a l

300
h e m is fe r io d e r e c h o a l m a n e jo e x c lu s iv o d e u n a m a te m á tic a p ro b a b ilís tic a . D ic h o
d e o tro m o d o , la fu n c ió n m a te m á tic a d e l h e m is fe r io d e r e c h o fu e r e d u c id a a la
E s ta d ís tic a M a te m á tic a y la p re d ic c ió n q u e d ó a tr a p a d a e n la te la a r a ñ a d e la
in c e rtid u m b r e . S u c o n c e p c ió n d e l U n iv e r s o d e v in o e n u n a c o s m o lo g ía . C o s m o s e n
e l iz q u ie rd o y C a o s e n e l d e r e c h o .
E n c o n tra s te , e n la s c u ltu r a s d e l N u e v o M u n d o e s e l h e m is fe r io d e r e c h o e l q u e
te n ía la p r e fe r e n c ia d e u s o , e x ig id o p o r la s c o n d ic io n e s e c o ló g ic a s d e l e s c e n a r io
c o n c r e to d e s u a c c ió n h is tó ric a . A d ife r e n c ia , s u c o n c e p c ió n d e l m u n d o d e v in o e n
u n a c o s m o v is ió n , q u e fu e c o n fig u r á n d o s e , m e d ia n te e l p e r fe c c io n a m ie n to d e la
v is ió n q u e p ro p o rc io n a n d e lo s s e n tid o s , e n e l A M R A n .
A s í e n to n c e s , p o r p a r te d e o c c id e n te , a m o r y v e n e r a c ió n p o r lo q u e h a c e e l
iz q u ie r d o y d e s c u id o y d e s p r e c io p o r lo q u e e je c u ta e l d e r e c h o . L o q u e lle v ó a q u e
é s te d e s a r r o lla r a u n p o r te a r r o g a n te y p re v a lid o . M ie n tr a s q u e e l a m e r in d io d io
o rig e n a u n h o m b r e s u m is o e in g e n u o c o n u n h e m is fe r io d e r e c h o u ltr a s e n s itiv o ,
d ifu n d id o e n la r e a lid a d c o n c r e ta . C u a n d o p o r m e d io d e d is tin ta s té c n ic a s , q u e
v a r ía n s e g ú n la c u ltu ra , e l iz q u ie r d o in te r r u m p e e l d iá lo g o c o n e l d e r e c h o , é s te
e m p ie z a a p r o y e c ta r s u p ro p ia s im á g e n e s e n e l E M R O c c . y h a c e q u e e l s u je to
te n g a la s e n s a c ió n d e e s ta r fu e r a d e l m u n d o , d e h a b e r lo tra s c e n d id o . P a r a
r e s ta b le c e r la c o m u n ic a c ió n c o n e l d e r e c h o e s p re c is o tr a d u c ir la in fo rm a c ió n
e s c r ita e n le g u a je s im b ó lic o a u n le g u a je g e o m é tr ic o fra c ta l, p a r a fin a lm e n te
e x p r e s a r lo e n e l E M R A n .
P o r lo v is to a m b o s p ro p o rc io n a n c o o r d in a d a m e n te lo s m e d io s ta n to p a r a g e n e r a r
id e a s c o m o p a r a c o m p r o b a r s u v a lid e z . H a y q u e p r o c u r a r q u e e x is ta u n d iá lo g o
p e r m a n e n te e n tr e lo s d o s c o m p o n e n te s in d is p e n s a b le s p a r a c o m p r e n d e r lo q u e
n o s r o d e a y a n o s o tr o s m is m o s .
E n lo r e la c io n a d o a la c o n c ie n c ia h u m a n a , s e g ú n e l m o d e lo d e J e a n G e b s e r , s u
e v o lu c ió n c o m p r e n d e c in c o g r a n d e s fa s e s s u c e s iv a s c la r a m e n te d ife r e n c ia d a s q u e
s e s u b o r d in a n y s e c o n tie n e n u n a s a o tra s , a s a b e r: la p ro to co n cie n cia arcaica, la
co n cie n cia m ágica, la m ítica, la m e n ta l y la integral.

D e s c r ib a m o s e n fo r m a b r e v e a c a d a u n a d e e lla s .
La Protoconciencia Arcaica

301
E l n a c im ie n to d e e s ta fa s e s e r e m o n ta a lo s c o m ie n z o s m is m o s d e la v id a . F u e
u n a fa s e e n la q u e to d o s n u e s tr o s a n te p a s a d o s p r e h u m a n o s y e l C o s m o s
fo r m a b a n u n a to ta lid a d in d iv is a . N o tu v ie ro n n in g u n a n o c ió n d e l e s p a c io y e l
tie m p o . L a e x p e r ie n c ia q u e te n ía n d e n tro d e la to ta lid a d d e b ió s e r u n a s u e r te d e
ilu m in a c ió n q u e p u e d e c o n s id e r a r s e c o m o la sa b id u ría arcaica d e l h o m b r e .
La Conciencia Mágica
E s la é p o c a e n la q u e e n e l h o m b r e a p a r e c e e l p r im e r e le m e n to d ife re n c ia l d e to d o
a q u e llo q u e le id e n tific a b a c o n e l to d o , d e s p e r ta n d o e n é l u n a c o n c ie n c ia p rim a r ia
d e s í m is m o , s in lle g a r to d a v ía a c o n fig u r a r u n " y o ” , u n s u je to . L a s im á g e n e s e n e l
c e r e b r o a p a r e c e n c o m o e n te s e x tra ñ o s , c o m o a lg o d e lo q u e h a y q u e c u id a r s e y
c o n tr o la r p o r m e d io d e l c o n ju ro y e l e n c a n ta m ie n to . F r e n te a la n a tu r a le z a e l
h o m b r e a p a r e c e c o m o in s tin to , e m o c ió n y s e n tim ie n to ; n o d ic e n a d a , s ó lo p u e d e
e s c u c h a r y s e n tir la to ta lid a d e n la q u e e s tá d ifu n d id o . É s ta fo r m a e le m e n ta l d e
c o n c ie n c ia s e e x p r e s a p o r m e d io d e lo s íd o lo s y lo s r itu a le s y s e e n c u e n tr a
a r r a ig a d a e n e l c la n c o m o u n s a b e r c o le c tiv o in tu itiv o , a n a ló g ic o , a s o c ia tiv o y
d e s tin a d o a c o n ju r a r la s a m e n a z a s q u e p r o v ie n e n d e s u p a u la tin a s e p a r a c ió n d e la
to ta lid a d .
La Conciencia Mítica
S i la c o n c ie n c ia m á g ic a fu e la to m a d e c o n c ie n c ia d e l e n to rn o n a tu ra l, la
c o n c ie n c ia m ític a e n c a m b io fu e la to m a d e c o n c ie n c ia d e l a lm a ; o s e a , d e a q u e llo
q u e p a r e c e c o n te n e r a to d o lo q u e e x is te , d e a q u e llo q u e n o s e p e r c ib e c o n lo s
s e n tid o s . L a c o n c ie n c ia d e e lla s u s c ita la n o c ió n d e tie m p o c íc lic o , e l c u a l e s
s u g e r id o p o r lo s c a m b io s a lte r n a n te s q u e a c o n te c e n d u r a n te la v id a d ia r ia y
c o n c re ta : a l S o l le s ig u e la L u n a , a l d ía la n o c h e , a l n a c im ie n to la m u e r te , e tc . N o
o b s ta n te , e l h o m b r e m ític o to d a v ía n o s e h a s e p a r a d o d e la to ta lid a d , a ú n s e
e n c u e n tr a in te g r a d o a é l p o r m e d io d e r e la c io n e s b ip o la re s , d ic o tó m ic a s . E l
s ím b o lo c o r r e s p o n d ie n te s e r ía e l c írc u lo . L a s im á g e n e s q u e s e p r o d u c e n e n s u
c e r e b r o a p a r e c e n c o m o u n a to ta lid a d d e c o n tra r io s q u e s e c o m p le m e n ta n , c o m o
s e r e s s in p e r s p e c tiv a .
L a fu n c ió n d e e s ta c o n c ie n c ia c o n s is tió e n la e la b o r a c ió n d e s ím b o lo s c o n lo s q u e
r e p r e s e n ta b a n lo s m is te rio s in tu id o s y lo s d io s e s q u e g o b e r n a b a n e l e n to rn o .

302
D u r a n te e s te tr a m o e v o lu tiv o s e a c u m u ló u n c o n ju n to d e s a b id u r ía o rig in a l q u e
p e r m a n e c e e n la s p r o fu n d id a d e s d e la s c o n c ie n c ia s d e lo s in d iv id u o s y lo s
p u e b lo s , e m e r g ie n d o c a d a v e z e n c ie r ta s c o n d ic io n e s p a r a in flu ir e n e l c u rs o d e s u
h is to r ia s o c ia l.
La Conciencia Mental
É s ta tu v o s u o rig e n c o n e l n a c im ie n to d e la g e o m e tr ía e n e l a n tig u o E g ip to , lu e g o
c o n tin u ó s u c r e c im ie n to e n la G r e c ia C lá s ic a , d o n d e lo g ró lib e r a r s e d e l d o m in io d e l
E s ta d o y, fin a lm e n te , a lc a n z ó la p le n itu d d e s u d e s a r r o llo e n e l R e n a c im ie n to c o n
e l d e s c u b r im ie n to d e la p e r s p e c tiv a p o r D u r e r o y la in v e n c ió n d e l S is te m a
C o o r d e n a d o d e R e fe r e n c ia p o r D e s c a r te s . L a p e r s p e c tiv a p o s ib ilitó la a p a r ic ió n d e l
e s p a c io y tie m p o m é tric o s ( ) y la s u p r e s ió n d e l m o n ó to n o c ic lis m o a n te rio r.
o p e ra to rio s

L a fo r m a trid im e n s io n a l q u e to m a r e p r e s e n ta a l " y o ” , a l " o tro ” y a la s ín te s is d e lo s


c o n tra r io s o a la s a n ta trin id a d d e la fe c r is tia n a o a lo s tre s p la n o s d e l S is te m a
C o o r d e n a d o d e R e fe r e n c ia c a r te s ia n o . L a s ín te s is e s u n a o p e r a c ió n to ta lm e n te
a b s tr a c ta , q u e e x ig e u n e s fu e r z o ra c io n a l a n a lític o d e la e s tr u c tu r a d e la s c a u s a s
d e lo s fe n ó m e n o s , a h o r a r e p r e s e n ta d o s , m á s a llá d e s u la x a p r e s e n c ia . S e tie n e ,
a s í, u n a p ro y e c c ió n q u e a n te s n o fu e p o s ib le y a q u e s e h a lla b a d ifu n d id a e n la
id e n tid a d d e la to ta lid a d . D ic h o s u m a r ia m e n te , la co n cie n cia m e n ta l e s la
c o n c ie n c ia c ie n tífic a o c o n c ie n c ia e s p a c io -tie m p o o c o n c ie n c ia h is tó ric a . L a to m a
d e c o n c ie n c ia tie n e lu g a r g r a c ia s a la a p a r ic ió n d e l E s p a c io M a te m á tic o d e
R e p r e s e n ta c ió n ( E .M .R )
La Conciencia Integral
L a c o n c ie n c ia in te g r a l e s e l r e s u lta d o d e la u n ific a c ió n d e to d a s la s a n te r io r e s . E s
h is to r ia c ie r ta y r e c o n o c id a q u e e l d o m in io d e u n a s o la d e e lla s h a p r o v o c a d o la
p a u la tin a a tr o fia d e la s r e s ta n te s y e l c o n s ig u ie n te d e s o r d e n m e n ta l. S ó lo c o n la
c o n v iv e n c ia a r m ó n ic a e n tr e e lla s e s p o s ib le la u n id a d d e l S e r y la c o n c ie n c ia .
E x p r e s a e n s í m is m a la s u p e r a c ió n d e to d a c la s e d e d u a lis m o s e x c lu y e n te s y to d a
s u e r te d e a n ta g o n is m o s , y b u s c a la c o n g r u e n c ia h o m o m ó r fic a d e la s im á g e n e s . E l
s u je to e x p e r im e n ta r á la s e n s a c ió n d e e s ta r fu e r a y d ifu n d id o e n e l m u n d o a l m is m o
tie m p o . E s to s ig n ific a q u e lo s h e m is fe r io s c e r e b r a le s e s ta r á n fu n c io n a n d o c o m o u n
a u té n tic o " o s c ila d o r a r m ó n ic o ”, c u y o e fe c to s is té m ic o c o n s is tirá e n u n a

303
v is u a liz a c ió n v iv id a d e la m á s a lta re s o lu c ió n , e n e l c o m p le jo in te rio r n e u r o n a l d e l
c u e r p o c a llo s o . A h í te n d r á lu g a r e n to n c e s , la v e r d a d e r a tr a s c e n d e n c ia d e l e s p a c io -
tie m p o y c o m o r e s u lta d o d e e s to e l h o m b r e s e r á u n s e r a u té n tic o y c o m p le ta m e n te
lib re .

304
ANEXOS
Los dos máximos sistemas del mundo 3 1 5

ANEXO 1

Cuerpo Topológico
Es una estructura algebraica y geométrica que resulta de la unión de las
propiedades de cuerpo y espacio topológico.

Cuerpo
Un conjunto K es un cuerpo si está provisto de dos operaciones inter­
nas, llamadas generalmente suma (+) y producto (•), que verifican las
siguientes propiedades:
K es un grupo conmutativo para la sum a si:

1. x+y = y+x
2. (x+y)+z = x+(y+z)
3. Existe un elemento neutro 0 tal que, para todo x, se cumple:
x+ 0 = 0+x = x
4. Para todo x, existe un x' tal que x + x'= 0

• Asociatividad del producto:


x*(yz) = (x*y)*z
• Distributividad del producto con respecto a la suma:
x*(y+z) = x*y+x*z ó (x+y)*z=x*z+yz
• Existe un elemento neutro e n 0 para el producto:
x*e = e*x = x
• Todo x Jt 0 posee un inverso x", es decir:
x*x"= x"*x = eSi

Si el producto es conm utativo; o sea, x*y = y x , se dice que K


es un cuerpo conm utativo. El conjunto Q de los núm eros raciona­
les, el conjunto R de los núm eros reales, el conjunto Qp de los nú -
m eros p-ádicos y el conjunto C de los complejos son cuerpos con­
m utativos.
3 1 6 Marcos Guerrero Ureña

Distancia métrica
Una distancia en un conjunto K es una aplicación d que asocia a todo
par (x,y) de elementos de K un número real positivo o nulo d(x,y) y ve­
rifica las siguientes propiedades:

• d(x,y) = d(y,x)
• d(x,y) > 0 si xjiy i d(x,x) = 0
• d(x,z) d(x,y) + d(y,z)

Valor absoluto métrico


Un valor absoluto sobre un cuerpo K es una aplicación que a todo ele­
m ento x de K le hace corresponder un núm ero real positivo o nulo, re­
presentado por Ixl, tal que:

• Ixl > 0 si x Jt 0 y 101 = 0


• Ix+yl <; Ixl+lyl
• lx-yl = IxMyl

En tales condiciones, la expresión d(x,y)=lx-yl define una distan­


cia sobre el cuerpo K.

Distancia p-ádica
En general, se dice que la distancia es ultramétrica si d(x,z) ^ Mayor
(d(x,y),d(y,z))> las distancias p-ádicas son ultamétricas.
Para un valor absoluto ultra métrico,

• Ix+yl ¡s máx(lxl,lyl)
• lx*yl = IxMyl

En tales condiciones, la expresión d(x,y)=lx-yl define una distan­


cia sobre el cuerpo K.

Valor absoluto p-ádico


El valor absoluto p-ádico sobre el cuerpo Qp es una aplicación
que hace corresponder a todo número entero positivo un número Qp
positivo o nulo tal que Inlp = l/p 1-, donde r es la mayor potencia de p.
C L A S E S DE E S P A C IO S Y S U S E S T R U C T U R A S
GEOMÉTRICAS

ANEXO 2
Los dos máximos sistemas del mundo 3 1 7
3 1 8 Marcos Guerrero Ureña

ANEXO 3

1) Reconstrucción de triángulos
Problema: Supongamos que un terreno de cultivo tenía la forma de un
triángulo isósceles (Fig. 3.1) y que tras muchas inundaciones sucesivas,
de él solo quedó información de:

a) La base y la altura
b) La base y un ángulo adyacente
c) La base y un lado
d) La base y el ángulo opuesto

Fig. 3.1
Reconstruir el triángulo.

Resolviendo:
a) Se levanta una perpendicular en el punto medio de la base BC
(fig. 1), y se toma DA igual a la altura dada. El triángulo ABC se -
rá isósceles por tener iguales los lados AB y AC.
b) En los extremos B y C se construyen ángulos iguales al ángulo dado,
y el triángulo obtenido será isósceles por tener dos ángulos iguales
c) Desde los extremos B y C de la base, con un radio igual al lado
dado, se describen arcos que se cortan en A.
d) En los extremos de la base se construyen ángulos iguales a la mi­
tad del ángulo dado. Las rectas que forman estos ángulos deter­
minarán el triángulo pedido.

2) Algunos propiedades de los triángulos


• En todo triángulo rectilíneo la sum a de los ángulos internos es
igual a dos rectos.

a + (3+ y = 180°
Los dos máximos sistemas del mundo 3 1 9

Todos los triángulos que sean semejantes son proporcionales.

AB /A'B' = AC/ A 'C = BC /B'C

Todos los triángulos semejantes tienen sus ángulos iguales.


320 Marcos Guerrero Ureña

AN E X O 4

Lo División p o r segmentación
Ejemplo 1: Dado el segmento de recta AB= 1, hay que fraccionarlo en
dos, infinitamente.

A,__________ iB
r 1/2 ' 1/4...

El fraccionamiento puede describirse mediante la siguiente sucesión:

Sn = {1/2,1/4,1/8,..., l/2 n }, donde n E entero + y representa el


núm ero de cortes del segmento AB.

Ahora bien, la intuición me dice que si sumo todas estas fracciones, que
representan segmentos de recta, debo recuperar la recta inicial.

Es decir, Z l/2 n = 1.

En efecto, como la sucesión Sn es una progresión geométrica infinita,


con una razón igual a 1/2, aplico la fórm ula correspondiente a la suma:

S= a ( l - r n)/(l-r) y como | r | < 1 =*>

=> lím S= a /(l-r) = */2/(1-V2) = 1


— * 00

Como podemos ver, la intuición de los geómetras egipcios fue


acertada; pero claro, ellos no llegaron a Demostrar, como acabo de ha­
cerlo, de modo que haya sido una prueba totalmente convincente y de­
finitiva. Sin embargo, se debe señalar que sólo fue acertada parcialmen­
te; puesto que, no hay una sola forma de fraccionar las cosas. La que he­
mos mostrado se llama, división por segmentación, la cual genera pun -
tos-límite y determina la estructura del espacio de representación que
origina. Este es el espacio que desde los tiempos faraónicos ha desarro-
Los dos máximos sistemas del mundo 32 1

liado la Civilización Occidental para representarse el mundo. Es el mo­


do en que se ha conformado su conciencia mental. Es la conciencia que
han logrado tener del Ser, en el escenario espacio-tiempo.
Cabe adelantar que, la manera de dividir las cosas en la Civiliza -
ción Andina precolombina fue diferente; así, para empezar, la unidad
estructural del espacio geométrico fue el cuadrado y no el punto. Aquí
en los Andes el fraccionamiento fue, predominantemente, de carácter
fractal, o sea discreto... a saltos y no, continuo absoluto como el otro.

Ejemplo 2: Ahora propongo dividir el segmento de recta igual a 1 por una


función diferente de la anterior que fue: f(n) = l/2 n. Que sea, ahora, la
función f(n) tal que describa la siguiente sucesión:

Sn = {1/1 x 3, 1/5 x 7, 1/9 x 11, 1/13 x 15, ....} =>


=> S= Jt/8, número que corresponde a otro punto-lú?úte o punto
de acumulación.

Ejemplo 3: Examinemos la división de la unidad para n!, expresada por


la función f(n ) = Un!, la cual ha sido inducida de la sucesión:

Sn = {1/0!, 1/1!,1/2!, 1/3!, ...1/n!} =>


=> S = 1+ 1+ 1/2+ 1/6 + 1/24+....= e = 2.71828182...
Número que corresponde a un nuevo punto-límite.

De esta manera se genera el conjunto de todos los números Rea­


les (completando el conjunto de los Racionales o fraccionarios) y su
correspondiente representación geométrica puntiforme. dividiendo la
unidad para alguna función en números enteros.
Por tanto, podemos decir que el EMROcc está definido en el
Cuerpo de los números Reales y constituido por puntos-límite, los cua -
les le confieren su carácter continuo-absoluto, homogéneo e isótropo.

Ejemplo 4: Finalmente, veamos la función f(n) = 1/n, entonces:

Sn = {1/1,1/2, 1/3, 1/4, ...,1/n}


S = 1+1/2+1/3+1/4+_-* oo
322 Marcos Guerrero Ureña

Esta sum a se llama serie armónica y es divergente, no tiene


punto-límite y su fraccionamiento continúa, ad infinitum , sin llegar a
trascender. Esto nos indica que la sucesión Sn no describe un fraccio­
namiento p o r segmentación, sino el de otro tipo. Se prueba de este
m odo cuán paradójico es el espacio de puntos-límite. Así, m ientras la
serie geométrica converge, la arm ónica, que es muy parecida, en
cambio no lo hace.
Los dos máximos sistemas del mundo 323

AN EXO 5

Demostración de uno de los teoremas atribuidos a Tales


Demostrar, que dos ángulos opuestos por el vértice son iguales

Sea A, el gráfico de dos rectas que se cortan en el punto O.


Se quiere probar que Z. AOB = Z. COD.

Demostración:
L AOB + A BOC = 2rectos = 90°
L AOB + L BOC = 2rectos

Las dos afirmaciones son ciertas debido a lo evidente que resul -


ta considerar que la suma de dos ángulos adyacentes que una recta for­
m a con otra es igual a dos rectos.
Por tanto: L AOB + L BOC = Z. BOC + Z. COD, ya que todos
los ángulos adyacentes que una recta forma con otra es igual a dos rec­
tos. Finalmente resulta que, Z. AOB = L COD (por que si a una igual­
dad se le sustrae cantidades iguales ésta no se altera) que es lo que se
quería demostrar.

Demostración de uno de los teoremas atribuido a los pitagóricos


Demostrar, que la suma de los ángulos internos de todo triángulo rec­
tilíneo es igual a dos rectos.

Sea ABC un triángulo cualquiera.


324 Marcos Guerrero Ureña

Demostración.-
Trácese BY | | AC, y prolongúese AB hasta X.
=> L XBY + L YBC + L CBA = 2 rect.
=> L A = X XBY
y además, L C = L YBC
=> LA + Z B + L C = 2 rt. L.Q. Q. D.

Hemos podido observar cómo, las sencillas pruebas deductivas


se basan en evidencias aparentemente indiscutibles, son las proposicio­
nes que se llamarán axiomas y postulados.
De este teorema, se desprenden los siguientes corolarios:

1) Si dos ángulos de un triángulo son respectivamente iguales a los


de otro, el tercer ángulo del uno es igual al del otro.
2) Un triángulo no puede tener más de un ángulo del recto ni más
de un ángulo recto ni más de un obtuso.

Cálculo de la altura de la Gran Pirámide

Sea P el dibujo de la Gran Pirámide que tiene una base cuadran­


g l a r de lado igual a a y altura OA. ¿cuánto mide ésta?
El meollo del problema estriba en que dicha altura no se puede
medir con una cuerda, sólo se puede saber cuanto mide calculándola.
Este si que fue un verdadero desafío para la mente.
Lo más probable es que Tales procediera de la siguiente manera:
clavó una estaca de longitud conocida en el punto O", al final de la som­
Los dos máximos sistemas del mundo 325

bra que proyecta la pirámide. Ahora, la sombra que proyecta la estaca


forma el triángulo O'A'B, el cual es semejante al triángulo O 'O A, ya
que tienen sus lados respectivamente paralelos. Entonces, por esta ra­
zón, sus lados homólogos resultan ser proporcionales: (1) OA/O'A' =
OO'/O'B, además sabemos que O O ' =O D +D O ' y OD = */2 a debido a
que las diagonales del cuadrado se cortan por la mitad. Finalmente, en
la ecuación (1), reemplazamos estas cantidades y tenemos la fórmula
que permite calcular la altura de la pirámide:

OA = (0 'A 7 0 'B )(i/2 a+DO')

El artificio usado consistió en considerar que el Sol se encontra­


ba a una enorm e distancia de la Tierra y que por tanto, se podía acep­
tar que los rayos de luz entraran paralelos en la atmósfera terrestre. De
esta manera se cumplía con la condición de semejanza.
326 Marcos Guerrero Ureña

AN EXO 6

Fascinado por la proporcionalidad ó racionalidad, Pitágoras fue


inducido a encontrar su demostración del Gran Teorema mediante el
uso de triángulos semejantes.
Recordémosla:
Teorema

El cuadrado construido sobre la hipotenusa de un triángulo rectán­


gulo es equivalente a la sum a de los cuadrados construidos sobre los
catetos.

Sean AS, BN, CQ los cuadrados construidos sobre los lados del
triángulo ABC, rectángulo en C.
Demostrar que: GAS = ÜBN + ÜCQ
Demostración:

Trácense CD, | | a BS, y también CR y CQ.


Puesto que los ángulos c y x son rectos, la línea BCP es recta.
Como AR = AB, A = AQ, y RAC = L BAC + 1 rt. = L BAQ,
los triángulos ARC y AQB.
Los dos máximos sistemas del mundo 327

Además, DAD= 2 D ARC, debido a que tienen una misma base


AR y una misma altura RD.
Asimismo,ÜCQ = 2 A ABQ = 2A ARC; => AD es equivalente al
□CQ.
De igual manera se demuestra que el cuadrado BD es equivalen­
te al ÜBN.
Ahora bien, como DAS = I BD + D AD => AS = B -I- l CQ,
que es lo que queríamos demostrar.

Corolario I
La diagonal de un cuadrado es inconmensurable con el lado del mismo.
Esto significa que, si la medida de uno de ellos, en función de una uni­
dad cualquiera, es un núm ero racional, el otro no puede expresarse por
ninguno de ellos, en función de la misma unidad.

En el triángulo ABC se tiene: [ AC = L AB + L BC; puesto que,


AB = BC => □ AC = 2 □ AB; de donde AC = AB V2 => AC/AB = V2.
Puesto que Vi es inconmensurable, [es decir, es un núm ero que
contiene infinitos decimales no periódicos (1.4142135...)], la razón de
AC con AB también lo es.
Esta limitación es señalada y superada por Euclides al lograr una
demostración completa y por tanto definitiva e independiente de las
proporciones. Él se basó en la nueva definición de las razones dada por
Eudoxo (408-355 a. C):

«Se dice que las magnitudes están en la misma razón la primera


con respecto a la segunda y la tercera con respecto a la cuarta, si
algún múltiplo común, cualquiera que se tome del primero y el
tercero y cualquier múltiplo común del segundo y el cuarto; los
primeros múltiplos comunes que excedan lo mismo, sean igua­
les o les falte lo mismo que los últimos múltiplos comunes to -
mados en el orden correspondiente»
32 8 Marcos Guerrero Ureña

La prueba consta en el primer libro, de acuerdo con su plan ge­


neral de los Elementos.
Llegando más específicamente vemos que, cuando aplicamos el
teorema a los números enteros Z+, la ecuación pitagórica se verifica só -
lo para un subconjunto de ellos, los llamados números pitagóricos. Di­
cho de otra manera, no toda tríada de enteros es solución de la ecua­
ción. Veamos como se generan estos números:
Sea la ecuación pitagórica x2 + y2 = z2. Con el afán de resolverla
se han encontrado las siguientes funciones paramétricas: x = k (u2 -
v2), y = 2kuv, z = k (u2 + v2), donde k,u,v son números enteros. Por
ejemplo, para k = 1, u = 2, v = 1 se tiene que x = 3, y = 4, z = 5 ó pa-
ra k = 1, u = 3, v = 2 => x = 5, y = 12, z = 13. Está demostrado que
este método sirve para generar todas las tríadas - solución y, por tanto,
todos los núm eros pitagóricos.
La historia de este célebre Gran Teorema, tiene una culminación
verdaderamente maravillosa, termina en la espectacular demostración
de la famosa conjetura de Pierre D’Fermat (1601-1655) en 1994, por
parte del matemático británico Andrew Wiles. Es de hecho una certeza
que el logro mas difundido de la matemática del siglo XX haya sido la
demostración del último teorema de Fermat. Éste se lo enuncia dicien -
do que la ecuación algebraica xn + yn = zn, donde x, y, z y n son núme­
ros enteros positivos, tiene soluciones solo cuando n=l ó 2. En este
contexto, el terorema de Pitágoras aparece como un caso particular; pe­
ro, a la vez, com o el único im portante ya que escapa a la sentencia ne­
gativa del de Fermat. La importancia de la variante para n= les mucho
menor, casi trivial.
Los dos máximos sistemas del mundo 329

AN E X O 7

De la división p o r segmentación a los números irracionales


Sea la recta de referencia a en la cual cabe dos veces la longitud b, so­
brando un trozo más corto c, como puede apreciarse en la figura 7.1

a
Fig. 7.1

Ahora bien, la expresión algebraica que expresa lo dicho, en no­


tación moderna, será: a=2b+c ó de manera más general a=nb+c, don­
de n es un número entero (el todo es igual a la suma de sus partes, Eu-
clides) Para el caso en que no exista resto, b se llama múltiplo de a. Em -
pero, si existe un resto c, una división posterior pueda ser válida para
cada longitud a, b, c sin ningún resto. Recordemos que los pitagóricos
hicieron promesa de fe, en cuanto a que siempre, era posible reducir las
longitudes a, b a tales múltiplos de longitudes menores. Aparentemen -
te, debió haber parecido un asunto de paciente subdivisión, para al fi­
nal tener, tarde ó temprano, la medida deseada. Pero no hubo tal, por
que el mismo procedimiento aplicado a a puede ser aplicado a b
(b=mc+d) y el mismo a c (c=pd+e) y así infinitamente. No resulta di­
fícil demostrar que a, b, c, d ,...., forman una progresión geométrica in­
finita y que la medida común deseada es imposible de hallarla.
De esta manera se prueba que, si a es la diagonal y b el lado de
un cuadrado, no se puede hallar una medida común.
Aristóteles sugiere que la demostración pitagórica fue la siguiente:
Si la razón de la diagonal al lado es inconmensurable, supongamos que
sea p/q, donde p y q son números primos entre s í . Entonces p y q sim -
bolizan el número de subdivisiones iguales en los lados y en la diago­
nal del cuadrado respectivamente. Pero puesto que el cuadrado de la
diagonal es el doble que el del lado, se sigue que p2=2q2. Luego p2 es
un número par, y p también debe ser par. Por lo tanto, puede conside­
rarse a p como 2r, siendo p2=4r2 de lo cual se desprende que q2=2r2.
330 Marcos Guerrero Ureña

Esto exige que q sea par; lo cual es imposible porque dos núm eros p y
q primos entre sí no pueden ser ambos pares. Por reductio ad absurdum
se demuestra que no puede existir ninguna medida común y la razón
es, por tanto, irracional.
El mismo fenómeno geométrico lo encontramos cuando que­
remos dividir a en dos partes b y c, según el segmento áureo.

b c

a
Fig. 7.2

Se tiene que a=b+c y también que a/b=b/c, de aquí se sigue que


a(a-b)=b2 Ésta es la ecuación de segundo grado para la razón a/b, cuya
resolución da como resultado: a/b=( 1±Vr5)/2. La raíz cuadrada de 5 in­
troduce la irracionalidad en la razón a/b.

i
Los dos máximos sistemas del mundo 331

AN E X O 8

Transformaciones de coordenadas para sistemas inerciales


E stas tr a n s f o r m a c io n e s e stá n re fe rid a s al s is te m a S(x, y, z, t) Pero se
p u e d e o b te n e r la in v e rsa , esto es, las re fe rid a s al sistem a S (x , y , z, t ),
c a m b ia n d o v p o r - v y S (x, y, z, t ) p o r S’( x ’, y \ z\ t )

Transformaciones de Galileo Transformaciones de Lorentz

x= x + vt X— (x ’+ v t’) / [ l - v 2/c 2] 1/2

y=y’ y=y

z=z z -z

t= t’ t = [ t ’+ ( v /c 2) x ’]/[ 1 -V 2/ c 2] 1/2

Válidas para velocidades muy pequeñas Válidas para velocidades cercanas a la


en comparación con la de la luz de la luz
332 Marcos Guerrero Ureña

AN E X O 9

B. Riemann, comienza definiendo una variedad de dos dimen­


siones, o sea una superficie, y en ella una red de curvas que sirven para
determinar las coordenadas de un punto cualquiera de la misma. Si se
trata de un plano y utilizamos coordenadas cartesianas ortogonales X,Y
la distancia ds entre dos puntos infinitamente próximos estará relacio­
nada a las diferencias de las coordenadas de los puntos por medio de la
ecuación pitagórica:

[ 1] ds2 = dx2 -l- dy2

Si las coordenadas utilizadas hubieran sido oblicuas y los ejes X


é Y formaran entre sí el ángulo Q, se tendría:

[2] ds2 = dX2 + 2cosQ dXdY + dY2

En coordenadas polares p,cp se tiene, en cambio,

[3] do2 = dp2+ p2dcp2

Estas tres formas de expresar la distancia entre dos puntos infi­


nitamente vecinos son equivalentes desde el momento que se puede
pasar de una a otra por un simple cambio de coordenadas. Si en la [1]
s se supone constante, resulta que

[4] do = pdcp

y la longitud de una circunferencia de radio r la obtenemos integrando


la [4] y variando cp entre cero y 2jd obteniéndose así, para la longitud L
de la circunferencia de radio s, el valor

[5] L = 2:ip

De m odo que si conocemos la métrica de ds, puede saberse cuál


es la estructura de nuestra variedad. En el caso anterior, como encon-
Los dos máximos sistemas del mundo 33 3

tramos que el cociente entre la circunferencia L y el diámetro 2p es


igual a ti concluimos que la variedad definida por [ 1] o sus equivalen­
tes [2] y [3] son euclideanas.
Ahora, si se trata de la superficie de un cilindro circular recto de
radio R, la expresión de la distancia elemental entre dos puntos de la
misma podría expresarse

[6] d o 2 = R2dcp2 + dZ2

y si hacemos Rdcp = dX encontramos que esta expresión es idéntica a la


[l]p o r lo cual, sobre una porción de la superficie cilindrica, vale tam ­
bién la geometría euclideana, al igual que sobre cualquier superficie
que pueda desarrollarse sobre un plano.
Calculemos ahora la expresión que represente la distancia entre
dos puntos infinitamente cercanos situados sobre una superficie esfé -
rica de radio R. El radio de paralelo, separado del polo P por la distan­
cia angular 0, es igual a R sen 0 dtp (fig. 9.1), p o r lo cual el elemento de
arco de paralelo será igual a R sen 0 dtp y siendo Rd0 la longitud ele­
mental de un arco de meridiano, se tendrá:

Fig. 9.1 Distancio entre dos puntos de una superficie esférica, infinitamente próximos
334 Marcos Guerrero Ureña

[7] d o 2 = R2 d 0 2 + R2 sen2 0 dtp2

Bien, si ahora suponemos que cp es constante, se tiene

[8] d a = Rsen0dcp

y la longitud L de todo el paralelo, que sin salir de la superficie


esférica representa una circunferencia de centro en P, la obtenemos in­
tegrando la [8] entre cero y 2jt, resultando, así,

[9] L = 2jiR sen0.

El radio r de este paralelo medido sobre la superficie de la. esfera


es el arco PA, o sea

[10] r = R0

con lo cual la [9] puede escribirse,

[11] L = 2 jiR sen r/R

y de aquí se obtiene de inmediato la relación:

[12] circunferencia = ji sen(r/R)/r/R


diámetro

El área elemental será

[13] dS = R d0 R sen 0 dtp

Integrando esta expresión entre cero y 2n para cp y entre cero y 0


para 0, obtenemos el área del círculo de centro en P (casquete esférico),
resultando

[14] S = 2jt R2 (l-cos0) = 2ji R2 [l-cos(r/R)]


Los dos máximos sistemas del mundo 335

Si se hace 0 = 180°, se obtiene la superficie máxima del circulo,


que se puede considerar en esa variedad de dos dimensiones y que
coincide con el valor de la superficie de una esfera euclídea:

US] S(Total) = 4jt R2.

La [ 11 ] y la [ 14], escritas en función del radio r, medido sobre la


superficie esférica, pueden escribirse en la form a siguiente, con sólo de­
sarrollar el seno y el coseno que en ellas figuran, por la serie de Taylor:

[16] L= 2jir [1- (1/3!) (r/R)2 + (1/5!) (r/R)4 - ...]


[17] S = Jtr [1- (4!) (r/R)2 + (2/6!) (r/R)4 - ...]

Se ve, así, que para r pequeño respecto de R, valen las fórmulas


euclídeas, pero para 0= jt, se obtiene un círculo de área igual a 4ji R2 y
en el cual la longitud de la circunferencia es igual a cero.
Esta superficie no euclídea, de dos dimensiones, puede ser su­
mergida en un espacio euclideano de tres. Si se hace el cambio de coor-
denadas

X = Rsen0 coscp Y = Rsen0 sencp


[18] Z = R cos0

resulta dX = R cos0 coscp d0 - Rsen0 sencp dcp

[19] dY = R cos0 sencp d0 + R sen0 coscp dcp


dZ =-R sen0 d0

y elevando al cuadrado y sumando se obtiene:

[20] ds2 = dX2 + dY2 + dZ2 + R2 d0 2 + R2 sen2 0 dtp2

Ahora estudiemos la geometría de una variedad esférica de tres


dimensiones. Definamos la distancia elemental ds entre dos puntos in­
finitamente vecinos, en función de tres coordenadas, que podemos lla­
mar 0 , 0, tp. Ventajosamente, esta variedad esférica de tres dimensio­
nes es sumergible en un espacio euclídeo de cuatro dimensiones. Lo
decimos porque en general, una variedad no euclídea de tres dimensio­
336 Marcos Guerrero Ureña

nes puede ser introducida sólo en un espacio euclídeo de seis. Si la va­


riedad no euclídea tiene n dimensiones se necesita, por lo general, un
espacio euclídeo de */2 n(n + 1) dimensiones para “hacerla caber” en su
interior. La razón de esto se comprenderá más adelante.
En nuestro espacio euclídeo de cuatro dimensiones tomamos los
ejes X, Y, Z, U ortogonales y consideramos un cambio de coordenadas
tal que:

[21] U = R eos 0 .

La proyección del vector R de m ódulo constante sobre el “plano”


XYZ será, entonces, igual a R sen 0 , por lo que, si sustituimos en las
[18] el valor de R que allí figura, por R sen 0 tenemos:

[22] X = R sen© sen0 coscp ; Y= R sen© sen0 sen0,


Z = R sen© cos0.

La [21] con las [22] nos permite calcular ds2, pues:

dX = R eos© sen0 coscp d© + R sen© cos0 coscp d0 - R sen© sen0


sencp
dY = R eos© sen0 sencp d© + R sen© cos0 sencp d0 + R sen© sen0
coscp dep
dZ = R cos© cos0 d© - R sen© sen0 d0
dU= —R sen© do.

Elevando al cuadrado y sumando, resulta:

[23] ds2 = R2 d©2 + R2 sen2 0 d02 + R2 sen2 0 sen2 0 dcp2.

El elemento de volumen será:

[24] dV = R d©. R sen© d0 . R sen© sen0 dcp

pues la forma de la [23] permite ver que los tres elementos lineales del
paralelepípedo elemental son perpendiculares entre sí. Si integramos la
[24] entre cero y 2ji para cp, entre cero y jc para 0, y entre cero y 0 pa -
ra 0 , tendremos el volumen de una esfera cuyo centro está en el polo P
Los dos máximos sistemas del mundo 337

y cuyo radio estaría m edido por la magnitud del ángulo ©.


Se obtiene, así:
0
V = 4:tR / sen2© d©
o
o sea

[25] V = 231 R3(© - sen© eos©)

Si hacemos 0 = jt , obtenemos el volumen total de todo nuestro


espacio esférico, así com o antes, en el caso de dos dimensiones, obte -
níamos el área total de la superficie esférica. Resulta, para ese volumen
total:

[26] V(Total) = 27t2R3.

Estando el radio de una esfera con centro en el polo P medido


por el ángulo 0 , si suponemos 0 = constante, el elemento de área de la
superficie esférica será:

[27] dS = R sen© d0 . R sen© sen0 . dtp

y la superficie de la esfera la hallamos integrando respecto de cp entre


cero y 2:t, y respecto de 0 entre cero y Jt, resultando:

[28] S = 4:t R2 sen2©.

La superficie total de esta hiperesfera se obtiene sustituyendo 0


por jt, resultando ser igual a cero.
La longitud de una circunferencia de la esfera de radio medido
por el ángulo 0 la hallamos encontrando el elemento de longitud para
0 constante. Si suponemos, además, qp = constante, se tratará de un ar­
co de círculo meridiano y la longitud dL, de acuerdo con [23], será.

[29] dL = R sen 0 d0

que integrada entre c]ero y 2ji, da


338 Marcos Guerrero Ureña

[30] L = 2:t R sen0.

Si suponemos 0 = constante, la longitud elemental correspon­


diente a un arco de paralelo, de acuerdo con [23], es:

[31] di = R sen© sen0 dqp

e integrando entre cero y 2jt resulta

[32] / = 2jtR sen© sen0

y si = jc/2 , el paralelo coincide con el ecuador y la [32] con la


[30].
El área de un círculo máximo de nuestra esfera, cuyo radio está
medido por el ángulo 0, la hallamos haciendo cp = constante y el ele­
mento de área dA de ese círculo será, de acuerdo con [23]

[33] dA = R d 0 . R sen© d0.

Integrando con respecto a 0 entre cero y 2jt, y con respecto a 0


entre cero y 0, resulta

[34] A = 2n R2 ( 1 - eos 0 )

La [30] y la [34] coinciden con la [9] y la [14], respectivamente, de


modo que en nuestro espacio esférico de tres dimensiones obtendríamos
el mismo valor de la relación de la circunferencia al diámetro que en el
caso de dos dimensiones, supuesto que R, radio del universo tridimen­
sional, sea igual al R de la superficie esférica de dos dimensiones.
Al ángulo 0 corresponde un radio r tal que:

[35] 0 = r/R

Si en la [25] se introduce el valor dado en [35] y se desarrolla en


serie la expresión

sen© cos0 = l/2 sen20 =d/2 sen(2r/R)


Los dos máximos sistemas del mundo 339

se obtiene:

[36] V= 4/3 Jir3 [1- 1/5 (r/R)2 + 2/105 (r/R)4 - ...]

Análogamente, de la [28] resulta:

[37] S = 4 ji r2 [1- 1/3 (r/R )2 + 2/45 (r/R)4 - ...]

Se ve que en un m undo esférico de tres dimensiones sólo para va­


lores de r pequeños, con respecto al radio R de ese mundo, valen las fór­
mulas euclídeas referentes al volumen y a la superficie de una esfera.
La expresión [23], que da el elemento lineal correspondiente a un
espacio esférico, fue establecida apelando a una cuarta dimensión y ello
se hizo así para que se notara mejor la analogía con el caso de dos di­
mensiones, pero podría haberse establecido sin salir de las tres dimen­
siones, considerando que una sección “plana” cualquiera de nuestro es­
pacio esférico tendría que comportarse como una superficie esférica de
dos dimensiones, como se comprende si se compara [30] y [34] con [9]
y [14] Si en la [23] se hace 0 = constante (d 0 = 0), ello corresponde a
seccionar el espacio esférico por un plano y esa sección “plana” es, en es­
te caso, una superficie esférica cuyo radio es R sen 0 . También se obtie -
ne una superficie esférica si se hace cp=constante y, en este caso, el radio
de la misma es R. Igualmente la sección plana ecuatorial de [23]

0 = cte = ji/2

es una superficie esférica de radio R, en tanto que si 0 es constante pe­


ro diferente de jt/2, la “sección plana” no es central.
340 Marcos Guerrero Ureña

ANEXO 10

En el anexo precedente hem os aplicado la métrica diferencial


de Riemann, para estudiar la geom etría de variedades sencillas de
dos y tres dimensiones. En la célebre disertación de 1854 de este ge­
nial matemático, titulada Sobre las hipótesis en que se funda la geome­
tría, se indica un nuevo m étodo m étrico-diferencial para estudiar las
variedades geométricas esencialm ente distinto del método axiom áti­
co que se había seguido hasta entonces. En el método de Riemann, se
comienza por definir el elemento lineal de una variedad de n (n=
entero +) dim ensiones por la expresión

[38] ds2 = Ha^. dx¡ dx¿.

donde los índices i, k se hacen variar de 1 a n y la suma se extiende tam ­


bién de 1 hasta n. Si nos referimos a dos dimensiones, la suma anterior
se escribe:

ds2 = a ^ d x jd x j + a 12dx1dx2 + a21dx2dxj +a22dx2dx2 =


a n dx!2 + (a12 + a21J d x ^ +a22dx22

El coeficiente a 12 + a21 se escribe


al2 + a2l = 2a12 = 2a21

y esto en todos los casos, resultando así que

aik = aki

Para dos dimensiones resulta:

[39] ds2 = aj jd x j2 + 2a12dx1dx2 + a22dx22

En el caso de la [ 1], es:

x l — x ; x2 —y ; a ^ — a22 — 1 ; a^2—0
Los dos máximos sistemas del mundo 3 4 1

En la [2], es:
X] = X ; x2 = Y ; an = a 2 2 =1 ; ai 2 = cos^ -

En la [8], es:

xj = 6 ; x2 = cp ; a n = R2
a22 = R2 sen2 9 > a 12 = 0

Para el caso de tres dimensiones, la [38] se escribe:

[40] ds2=aj 1dx12+a22dx22+a33dx32+2a12dx1d


x2+2a13dx]dx3 +2a23dx2dx3

y en la [23], sería:

Xj = 0 ; x2 = 0 ; X3 = qp
aj j = R2 ; a22 = R2sen20
R2 sen20 sen20 ; a 12= a13 =a23 = u.

Cuando a^ =0 si mk

la forma cuadrática fundam ental definida en [38] se llama ortogonal.


Si, además, es a¡¡=l la forma se dice que es euclídea.
En general, los coeficientes ik de la [38] son funciones de las
coordenadas y conociéndolos puede conocerse la estructura geométri­
ca de la variedad que definen. En particular, en función de dichos coe­
ficientes, puede calcularse la curvatura y hallar las ecuaciones de las lí­
neas geodésicas.
En el determinante formado por los a ^ ,

a l l a 12 •••• a ln
a 21 a 22 • •• a 2n

anl a l • a nn

por ser a^ = a^ se tiene, en general,

[41] 1 + 2 + 3 + ...+ n = x!2 n (n + l)


3 4 2 Marcos Guerrero Ureña

coeficientes diferentes, y una variedad no euclídea de n dimensiones,


estará definida entonces por ln n(n+1) funciones independientes de las
n variables. Ésta es la razón por la que una variedad no euclídea de n
dimensiones pueda ser sumergida, en general, sólo en un espacio euclí-
deo de n(n+ 1) dimensiones.
En la geometría puram ente espacial de Riemann se considera co­
mo fundamental la expresión del elemento lineal que da la distancia
entre dos puntos infinitamente vecinos. Pero esta distancia espacial va­
ría si se pasa de un sistema a otro que se mueve con respecto al prime­
ro. Lo que se mantiene invariante, lo que goza de un carácter absoluto
independiente del sistema re referencia, es la distancia cronotópica en­
tre dos sucesos [23] Si se trata de dos acontecimientos infinitamente
vecinos que, respecto de un sistema inercial S, ocurren en dos puntos
separados por la distancia espacial ds, uno de ellos en el instante t del
sistema S y el otro en el instante t ± d t del mismo sistema, la distancia
elemental cronotópica entre los mismos es:

[42] ds2 = c2dt2 - do 2

o sea

[43] ds2 = c2dt2 - dx2 - dy2 - dz2

Respecto de cualquier otro sistema inercial, esta distancia crono­


tópica entre los mismos sucesos se mantiene invariable. Pero pasar de
un sistema de referencia a otro, implica, en la representación de Min­
kowski, efectuar un simple cambio de coordenadas en el continuo espa­
cio-tiempo. Respecto de otras coordenadas x’ y z t\ se tendrá también

[44] ds2 = c2dt'2 - d x 2 - d y 2 - dz’2.

Este elemento lineal entre dos acontecimientos o entre dos puntos


de universo desempeña entonces el mismo papel que la distancia co­
m ún entre dos puntos del espacio de la geometría ordinaria. Si hace­
mos cdt= du la [44] puede escribirse:

[45] ds2 = du2 - dx2 - dy2 - dz2


Los dos máximos sistemas del mundo 3 4 3

Si no fuera por el signo diferente entre las coordenadas espacia­


les y la coordenada tem poral, la geometría de la variedad [45] sería eu-
clídea. Debido a esa diferencia en el signo se dice que la [45] correspon­
de o define una variedad semieuclídea de cuatro dimensiones: tres es­
paciales y una temporal. La diferencia entre una geometría semieuclí­
dea y otra euclídea no es esencial, pues basta tom ar un tiempo imagi­
nario t = f r f para hacer que la [45] tome la forma euclídea.
Las geodésicas de la variedad definida por [44] ó [45] son, en­
tonces, líneas rectas y sus ecuaciones podrán escribirse:

x-x0 = A (u-u0) Ac(t-t0)


y-y0 = B (u-u0) Bc(t-t0)
z-z0= C(u-u0) C c(t-t0)

donde las constantes A B C equivalen a:

A = (1/c) (x-■x0) / ( t - g = V x/c ; B = Vy le ; C =

siendo Vx Vy Vz las componentes constantes de cierta velocidad según


los ejes x y z.
El principio de inercia de Galileo se traduce entonces geométri­
camente, diciendo: Un cuerpo sobre el que no actúa ninguna fuerza sigue
una geodésica de la variedad espacio-tiempo. Debe entenderse que se
trata de la variedad de espacio-tiempo definida por [43] y que corres -
ponde a una región galileana donde es válida la relatividad restringida.
Esas geodésicas son líneas rectas y si el cuerpo está en reposo con res­
pecto a determinado sistema, es porque en dicho sistema el eje del
tiempo y la geodésica que recorre el cuerpo son rectas paralelas.
En un campo gravitatorio, por ejemplo, de un lugar de la superfi­
cie de la Tierra, un cuerpo abandonado a sí mismo se mueve siguiendo,
en general, una línea curva. Si cae según la vertical del lugar, su trayecto­
ria espacial es una línea recta, pero su trayectoria espacio-temporal es
una curva que puede considerarse, si el recorrido espacial no es muy
grande, como un arco de parábola. La trayectoria curva que sigue un
cuerpo abandonado en un campo gravitatorio, la explicamos diciendo:
El cuerpo, por inercia, tiende a seguir una línea recta y si se desvía de
la misma, es porque actúa sobre él una fuerza que es justamente la
que el campo ejerce sobre el mismo y que, en la superficie de la Tie-
344 Marcos Guerrero Ureña

rra, denominamos peso del cuerpo. Pero esta interpretación no es la


única posible. Podría suponerse que sobre un cuerpo situado en un
campo gravitatorio no actúa ninguna fuerza y la trayectoria curva que
aquél describe en el espacio-tiem po, cuando se le deja libre, sería sim­
plemente una geodésica de una variedad no euclídea. En un lugar
donde el cam po gravitatorio es nulo -en una región galileana- vale la
geometría euclídea, o, mejor, la geometría semieuclídea de Mimkows-
ki. Pero en un campo gravitatorio, la geometría del espacio-tiempo
sería otra. En la mecánica de Newton el espacio es euclideano y las ó r­
bitas que describen los planetas alrededor del Sol se explican por la
acción de una fuerza particular que emana de la masa solar. Pero pue­
de intentarse explicar esto mismo adm itiendo que en los alrededores
del Sol el espacio-tiem po es curvo, de tal modo que las órbitas de los
planetas que en ese espacio-tiem po se parecen a hélices (si se toma
para el eje del tiempo una línea perpendicular al plano de la órbita),
resulten geodésicas de aquella variedad curvada que tiene tres dimen­
siones espaciales y una temporal.
En una región donde el campo gravitatorio es nulo, el elemento
lineal está dado por la [43] o la [45]. Si el campo gravitatorio no es nu­
lo, la geometría de la región donde se hagan sentir sus influencias ya no
será euclídea (o semieuclídea), pues las geodésicas del espacio-tiempo
tendrán que ser curvas en lugar de rectas.
El elemento lineal que expresa la distancia cronotópica entre dos
acontecimientos infinitamente vecinos, tiene la forma

[46] ds2 = 2 gik dx¡ dxk ^

tomando los índices i k los valores 0 ,1 ,2 ,3 . Si identificamos Xq con u=ct;


* 1 con x; x2 con y; x3 con z el desarrollo explícito de [46], sería:

ds2 =go(Au2 + 2g0,dudx + 2g02d udy -(- 2g03d«dz

[47] +güdx2 +2g12dxdy + 2g13dxdz


+ g2 2dy2 + 2g23dydz
Los dos máximos sistemas del mundo 3 4 5

Estos diez coeficientes g ^ funciones de las coordenadas, son los


llamados potenciales gravitatorios de Einstein. En un campo nulo, la
[47], eligiendo convenientemente las coordenadas, debe coincidir con
la [45], siendo entonces:48

[48] goo=l l g u = g 22 = g33 = -l


gik = 0 si i Ji k
346 Marcos Guerrero Ureña
de aoutosimilltud u homotecia
Ley de crecimiento del lado del cuadrado Ley de decrecimiento del lado del cuadrado
|_H S 2"n/2

X
O

En los dos gráficos podam os apreciar e l fenóm eno de autos)mdttud o propiedad de hom otecia. Éste
consiste en que la estructura geom étrica del objeto se m antiene constante a pesar de la variación de I r -
escala. En A se ha representado la estructura m acro, m ientras que en B la m icro . La prueba de que esto
es asi, se obtiene al encontrar que la ley de crecim iento y decrecim iento tiene la misma to m a , la una es
la Inversa de la otra; a si. pare A se tiene que al lado del cuadrado crece según Ln = 'í ~ ¿ y para B
L«« J T r ._________________________________________________________

Los dos máximos sistemas del mundo 3 4 7


348 Marcos Guerrero Ureña

ANEXO 13
Los dos máximos sistemas del mundo 3 4 9

AN E X O 14
3 5 0 Marcos Guerrero Ureña

AN EXO 15
Los dos máximos sistemas del mundo 351

A N E X O 16
352 Marcos Guerrero Ureña

AN EXO 17
Los dos máximos sistemas del mundo 353

A N E X O 18
354 Marcos Guerrero Ureña

AN EXO 19
Los dos máximos sistemas del mundo 355

AN E X O 20
356 Marcos Guerrero Ureña

AN E X O 21
Los dos máximos sistemas del mundo 357

A N E X O 22

Dimensión Topológica y dimensión fra c ta l ó de Hausdorff


7. Dimensión topológica

1.1 D= 0
1.2 D= 1

1.3 D= 2

1.4 D= 3

Cálculo de la función que expresa el concepto de dimensión Topológica D

1= L/2 => 2 =21=(L/1)1


1 1 1

1 = L/2 => 4 = 22=(L/1)2

1 = L/2 => 8 =23 =(L/1)3

1 = L/2 => N =(L/1)d


3 5 8 Marcos Guerrero Ureña

2. Dimensión fractal
a) •--------*-------- --------- *

b) _____ _____

como N =(L/1)D => D = log(N)/(logL/l)

Aplicando al caso b) => D=log5/log3= 1.4649735....


Los dos máximos sistemas del mundo 3 5 9

A N E X O 23

Variedad fractal multidimensional descrita por la función "zeta" de Euler-Riemann


Perímetro, dimensión m =1

Pn=I2. 1/n 2 P n =12 21/n P =12 5 ( 0 = 12/ ( 0 ) ¡ / d t / ( e ‘_ 1 )= -


O

Cn = VlOn.l/n 2 C n = Vi Ojt 21/n C =V10ctz( u =V10jt/ (0)!f d t/(eL i)=


O

cn= 3ít.l/n 2 cn = 3n 21/n c = 3 x ^ 1) = 3 n / ( 0 ) ! / d t / ( e t_ i ) = - *

Superficie, dimensión m = 2

Sn = 5 .!/n 2 2 Sn = 521/n2 S = 5 ^ 2) = 5/ (1 ) . ' / t dt/ (e*_i) = 5j i 2/6


Ln=l/n O

Dn Wl(Vn An = 5/2n.l/n2 2 A_ = 5/2jx 21/n^ A = 5/2x ^(2) = 5/2 ji / (1 ) ¡ / t dt/ {el_ j ) = 5/2 j i 3/6
O

dn=3/n
an = 9/4,-t.l/n2 2 an = 9/4n 21/n2 a = 9/4 jt s (2) = 9/4rt / (1)! J*t dt/ (e*_ j) = 9/4.rr3/6

Volumen, dimensión m = 3

un = 5 .1/n3 2 un = 521/n3 u = 5 í;(3) = 5/ ( 2 ) ¡ / ( t 2/ e*-l)dt = 5c3 Jt3

Vn=5/3V l0n.l/n3 2 Vn =5/3V10ji 2 1 /n 3 V=5/3v'ltal^3)=5/3V,10jt/(2)!/t2dt(et_i)=5/3\/l0c3x4


O
00

vn = 9/2;i.l/n3 2 v_ = 9/2jí 21/n3 = 9/2ji 5(3) = 9/2JX/ (2 )'.ft2 dt/ (el_ 1} = 9/2 c3 a 4

' V = P í(m ) = P-17 ( m - D i / ^ - 'd t / (el_ i) = p-l/ (m-1)! cm * m

r m = q K^m) = q1117 (m-l)-/tm' 1dt/ (e*—1) = 9 1/ (m-D! cm Jtm+‘

Ym = r5t^(m) = m A / (m -l) !/tm''d t / (el_i) = r.l/ (m-1)! cm )tm+1


360 Marcos Guerrero Ureña

ANEXO 2 4

---- + — + _ + -► co Perímetro, para m« I

= 5n2/6 Superficie, para m= 2

¿=71
}—
= 5ns/Cs Volumen, para m» 3

= 7n3/C3 Supervolumen. para m * 3.4

Hipervolumen. para m= 4
Los dos máximos sistemas del mundo 3 6 1

A N E X O 25

!•
E ste á rb o l infinito, e n e l que cada ra m a se d ivid e en d o s, p e rm ite d a r u n a re p re se n ta ció n
g e o m é tric a de los n ú m e ro s p-ádicos. M á s esp e cífica m e n te , e l á rb o l repre se n ta a los e n te ro s 2-
á d ico s q u e se e scrib e n b a jo la fo rm a d e a o + a i 2 ' + a 2 22 + a j 2 3 ♦ , d o n d e lo s c o e ficie n te s
ao. a , a 2. a$. ...etc, v a le n 0 o 1. Se a s o c ia a c a d a ra m ifica ció n u n c o e ficie n te q u e v a le 0 para la
ra m a d e la derecha y 1 p a ra la de la izq u ie rd a . A si, cada * h o ja ’ d e l árbol, o b te n id a a l c a b o de
in fin id a d de ra m ifica cio n e s, pue de se r id e n tific a d a con un e n te ro ’ 2-ádico". C o m o lo s enteros
u s u a le s form an pa rte d e lo s e n te ro s p -á d ico s, se han in d ic a d o a lg u n o s d e ellos; p o r e je m p lo -1
se e scrib e : 1 + 2 1 + 2 2+ 2 5 + todos su s c o e fic ie n te s son ig u a le s a 1.
C réditos Bibliográficos
(s e g ú n m a t e r ia s )

I. ANTROPOLOGÍA
HALLPIKE, C. R.
1986 Los fundamentos del pensamiento primitivo, México D.F., Fondo de Cul­
tura Económica.
LEAKEY, Richard
1985 La formación de la humanidad, Barcelona, Ediciones Orbis.

II. BIOGRAFÍAS
GEYMONAT, Ludovico
1969 Galileo Galilei, Barcelona, Ediciones Península.
HEMLEBEN, Johannes
1985 Galileo, Barcelona, Salvat.
KOUZNETSOV, Boris
1975 Einstein. Su vida, su pensamiento, sus teorías, Madrid, CVS Ediciones.
PAlS, Abraham
1984 El Señor es sutil... La ciencia y la vida de Albert Einstein, Barcelona.I.

III. ECOLOGÍA Y CLIMA


CAMPBELL, Bernard
1985 Ecología humana, Barcelona, Salvat.
COLINVAUX, Paul
Pasado y futuro de la amazonia, Revista Investigación y Ciencia, No. 154.
EDMOND, John y VON DAMM, Karen
Fuentes termales en el fondo del océano, Revista Investigación y Ciencia,
No. 81.
RAMAGE, Colin
El Niño, Revista Investigación y Ciencia, No. 119.
364 Marcos Guerrero Ureña

IV. FILOSOFÍA y EPISTEMOLOGÍA


BORN, Max
1971 Ciencia y conciencia en la era atómica, Madrid, Alianza Editorial.
GALE, George
El principio antrópico, Revista Investigación y Ciencia, No. 65.
GARCIA, Juan
1961 Textos clásicos para la historia de las ciencias, Vol. I, Caracas, Universidad
Central de Venezuela.
HEISENBERG, Werner
1972 Diálogos sobre la física atómica, Madrid, La Editorial Católica.
1974 Más allá de la física, Madrid, La Editorial Católica.
1985 La imagen de la naturaleza en la física actual, Barcelona, Orbis.
HOFSTADTER, Douglas
1982 Gódel, Escher, Bach: una eterna trenza dorada, México D.F., Consejo Na­
cional de Ciencia y Tecnología.
JAMMER, Max
1970 Conceptos de espacio, México D.F., Grijalvo.
JUDUSCHIN, F. S.
1971 El hombre y la naturaleza, Bogotá, Ediciones Sudamérica Limitada.
KOYRÉ, Alexander
1988 Estudios galileanos, México D. E, Siglo XXI.
LAOTSE
1983 Tao te ching, Madrid, Orbis.
MONOD, Jacques
1986 El azar y la necesidad, Barcelona, Orbis.
MURGUEITIO José y GUERRERO Marcos
1997 La Verdadera Historia del Tiempo, Abya-Yala.
NAGEL, Ernest
1981 La estructura de la ciencia, Barcelona, Editorial Paidós.
1979 La Demostración de Gódel, Ediciones Grijalbo.
PIAGET, Jean y GARCÍA, R.
1973 Las explicaciones causales, Barcelona, Barral Editores.
PIAGET, Jean
1970 Naturaleza y métodos de la epistemología, Buenos Aires, Editorial Proteo.
PRIGOGINE, Ilya
1988 ¿Tan sólo una ilusión? Una exploración del caos al orden, Barcelona,
Tusquets.
RUSSELL, Bertrand
1971 Historia de la filosofía occidental, Madrid, Espasa-Calpe.
Los dos máximos sistemas del mundo 3 6 5

SCHRÓDINGER, Erwin
1975 ¿Qué es una ley de la naturaleza?, México D.F., Fondo de Cultura Econó­
mica.
THOM, René
1985 Parábolas y catástrofes, Barcelona, Tusquets.
1996 Estabilidad estructural y morfogénesis, Gedisa editorial
1976 Una teoría dinámica de la morfogénesis, Alianza editorial
1976 Modelos topológicos en biología, Alianza editorial
THUILLIER, Pierre
¿Para qué servía la astrología?, Revista M undo Científico, No. 24.
WAGENSBERG, Jorge
La necesidad del azar, Revista Mundo Científico, No. 1.

V. FÍSICA
AJIEZER, A.I. y PELETMINSKI, S.V.
1981 Métodos de la física estadística, Moscú, Mir.
BOSLOUGH, John
1986 El universo de Stephen Hawking, Barcelona, Salvat.
DAVIES, Paul
1986 Dios y la nueva física, Barcelona, Salvat.
1986 El espacio y el tiempo en el universo contemporáneo, México D.F., Fondo
de Cultura Económica.
EINSTEIN, Albert e INFELD, Leopold
1986 La evolución de la física, Barcelona, Salvat.
GAMOW, George
1971 Biografía de la física, Estella, Salvat-Alianza Editorial.
GALILEI, Galileo
1994 Diálogo sobre los dos máximos sistemas del mundo ptolemaico y coper-
nicano, Madrid, Alianza Editorial.
GOLDMAN, Terry, et al.
Gravedad y antimateria, Revista Investigación y Ciencia No. 140.
HAWKING, Stephen
1989 Historia del tiempo del big bang a los agujeros negros, Bogotá, Editorial
Crítica.
1994 Agujeros negros y pequeños universos (y otros ensayos), Barcelona,
Plaza Janés.
JEANS, James
1986 Historia de la física hasta mediados del Siglo XX, México D.F., Fondo de
Cultura Económica.
KOESTLER, Arthur
1986 Los sonámbulos, Barcelona, Salvat.
36 6 Marcos Guerrero Ureña

LANDAU, L.D. y LIFSHITZ, E.M.


1965 Mecánica, Bilbao, Editorial Reverté.
LESIEUR, Marcel
La turbulencia desarrollada, Revista Mundo Científico, No. 22.
LOVETT, Bárbara
1985 Los creadores de la nueva física, México D.F., Fondo de Cultura Económica.
MORRIS, Richard
1987 Las flechas del tiempo, Barcelona, Salvat.

VI. HISTORIA Y CULTURA DEL M U N D O ANTIGUO


ASIMOV, Isaac
1981 Los egipcios, Madrid, Alianza Editorial.
BOWRA, C.M.
1967 La Grecia clásica, Amsterdam, Time-Life International.
NEEDHAM, Joseph
1978 De la ciencia y la tecnología chinas, México D.F., Siglo XXI.
PIJOAN, José
1972 Historia del mundo, Barcelona, Salvat.

V il. HISTORIA Y CULTURA PRECOLOMBINA


ADAMS, Richard
Los canales maya, Revista Mundo Científico, No. 19.
1992 Los orígenes de la civilización maya, México D.F., Fondo de Cultura Eco­
nómica.
ADOVASIO, J.M. y CARLISLE, R.C.
Un campamento de cazadores indios hace 20.000 años, Revista Investiga­
ción y Ciencia, No. 94.
ASCHER, Marcia y Robert
1985 El quipu como lenguaje visible, en La Tecnología en el Mundo Andino,
México D.F.
1997 Mathematics of the Incas (Code of the Quipu), Dover Publications, Inc.
AVENI, Anthony
La astronomía maya, Revista Mundo Científico, No. 19.
BURNS GLYNN, William
La escritura de los incas, Lima, Editorial Los Pinos, s.f.
Legado de los Amautas, Editorial Ital Perú, S.A
CIUDAD, Andrés
1988 Los mayas, el pueblo de los sacerdotes sabios, Madrid, Anaya.
DÍAZ-BOLIO, José
La geometría de los mayas, sin referencias.
Los dos máximos sistemas del mundo 367

EARLS, Johny y SILVERBLATT, Irene


1985 Sobre la instrumentación de la cosmología inca en el sitio arqueológico de
Moray, en La Tecnología del Mundo Andino, México D.F., UNAM.
FLADMARK, Knut
Los pobladores de América, Revista Mundo Científico, No. 20.
GALICH, Manuel
1979 Nuestros primeros padres, La Habana, Casa de las Américas.
GUAMÁN POMA DE AYALA
1980 Nueva corónica y buen gobierno, Caracas Biblioteca Ayacucho.
INCA GARCILASO DE LA VEGA
1976 Comentarios reales de los incas, Caracas, Biblioteca Ayacucho
LARA, Jesús
1976 La cultura de los incas, Cochabamba, Editorial Los Amigos del Libro.
LELAND, L.
El quipu antiguo o registro peruano de nudos, sin referencias.
LEÓN PORTILLA, Miguel
1986 Tiempo y realidad en el pensamiento maya, México D.F., Universidad Na­
cional Autónoma de México.
LEÓN PORTILLA, Miguel (prologuista)
1984 Visión de los vencidos, México D.E, Universidad Nacional Autónoma de
México.
MILLA VILLENA, Carlos
1992 Génesis de la Cultura Andina, Editorial Amáutica.
MORENO, Segundo (compilador)
1989 Antropología del Ecuador. Memorias del primer simposio europeo sobre
antropología del Ecuador, Quito, Abya-Yala.
MORLEY, Sylvanus
1994 La civilización maya, México D.F., Fondo de Cultura Económica.
MURRA, John
1975 Formaciones económicas y políticas del mundo andino, Lima, Instituto de
Estudios Peruanos.
1978 La organización económica del estado inca, México D.F., Siglo XXI.
ORTLOFF, Charles
Ingenieros de canales del Perú preinca, Revista Investigación y Ciencia,
No. 149.
1985 La ingeniería hidráulica chimú, en La Tecnología en el Mundo Andino,
México D.F., Universidad Nacional Autónoma de México.
RADICATI DI PRIMEGLIO, Carlos
1951 Introducción al estudio de los Quipus, Biblioteca de la Sociedad Peruana
de Historia.
RAVINES
Tecnología estatal, sin referencias.
368 Marcos Guerrero Ureña

ROSTWOROWSKI, María
1985 Mediciones y cómputos en el antiguo Perú, en La Tecnología en el Mundo
Andino, México D. R, Universidad Autónoma de México.
SALOMON, Frank
1980 Los señores étnicos de Quito en la época de los incas, Cayambe, Editorial
Gallocapitán.
SERRANO, Vladimir, et al.
1990 Ciencia andina, Quito, Abya-Yala.
STUART, David y HOUSTON, Stephen
Escritura maya, Revista Investigación y Ciencia, No. 157.
URTON, Gary
1985 La orientación en la astronomía quechua e india, en La Tecnología en el
Mundo Andino, México D.F., Universidad Nacional Autónoma de México.
ZUIDEMA, R. TOM
1989 Reyes y Guerreros, Talleres gráficos P.L Villanueva S.A
1995 El Sistema de Ceques del Cuzco, Universidad Católica del Perú, Fondo
Editorial.

V III. MATEMÁTICAS
ALEKSANDROV, A.D., et al.
1973 La matemática, su contenido, métodos y significado, Madrid, Alianza Edi­
torial.
BAKER, A.J.
2002 An Introduction to p-adic Numbers and p-Analysis
BOMBIERI, E.
2002 The Riemann Hipothesis, Institute for Advanced Study, Princeton.
COURANT, Richard y ROBBINS, Herbert
1974 Topología, en El Mundo de las Matemáticas, Vol. IV, Barcelona, Grijalvo.
EVES, Howard
1969 Estudio de las geometrías, México D.F., Editorial Hispanoamérica.
GUENARD, Francois y LELIEVRE, Gilbert
1999 Pensar la Matemática, Tusquets Editores
JONES, Vaughan
Teoría de nudos y mecánica estadística, Revista Investigación y Ciencia,
No. 172.
JOURDAIN, Philip
1976 La naturaleza de la matemática, en El Mundo de las Matemáticas, Vol. I,
Barcelona, Grijalvo.
KOLMOGÓROV, A.N. y FOMÍN, S.V.
1978 Elementos de la teoría de funciones y del análisis funcional, Moscú, Mir.
Los dos máximos sistemas del mundo 369

NEUWIRTH, Lee
1979 Teoría de nudos, Revista Investigación y Ciencia, No. 34.
NEWMAN, James
1976 El papiro Rhind, en El Mundo de las Matemáticas, Vol I., Barcelona, Gri-
jalvo.
PONTRIAGUIN, L.S.
1978 Grupos continuos, Moscú, Mir.
RÚBNIKOV, K.
1987 Historia de las matemáticas, Moscú, Mir.
RUCKER, Rudy
1987 La cuarta dimensión, Barcelona, Salvat.
RUSSELL, Bertrand
1974 Los metafísicos y las matemáticas, en El M undo de las M atem áticas , Vol.
IV, Barcelona, Grijalvo.
SMITH, David y GINSBURG, Jekuthiel
1974 De los números a los numerales y de los numerales al cálculo, en El Mundo
de las Matemáticas, Vol. FV, Barcelona, Grijalvo.

IX. SICOLOGÍA
FREUD, Sigmund
1986 Moisés y la religión monoteísta y otros escritos sobre judaismo y antise­
mitismo, Madrid, Alianza Editorial.
WINSON, Jonathan
1987 Cerebro y Psique, Barcelona, Salvat.

X. TEORÍA DE LA RELATIVIDAD
EINSTEIN, Albert
1970 La relatividad, México D.F., Grijalvo.
1994 Correspondencia con Michele Besso, Barcelona, Tusquets.
EINSTEIN, Albert, et al.
1965 La teoría de la relatividad: sus orígenes e impacto sobre el pensamiento
moderno, Madrid, Alianza Editorial.
GARDNER, Martín
1986 La explosión de la relatividad, Barcelona, Salvat.
LANDAU, L.D. y LIFSHITZ, E.M.
1966 Teoría clásica de campos, Bilbao, Editorial Reverté.
LOEDEL, Enrique
1955 Física relativista, Buenos Aires, Kapeluz.
370 Marcos Guerrero Ureña

MARTÍN, José María


Singularidades en relatividad general, Revista Investigación y Ciencia,
No. 173.
RESNICK, Robert
1977 Introducción a la teoría especial de la relatividad, México D.F., Limusa.
RUSSELL, Bertrand
1964 El ABC de la relatividad, Buenos Aires, Compañía General Fabril Editora
S.A.

XI. TEORÍA DEL CAOS


ECKMANN, Jean-Pierre y MASHAAL, Maurice
La física del desorden, Revista Mundo Científico, No. 115.
GLEICK, James
1988 Caos. La creación de una ciencia, Barcelona, Seix Barral.
HAKEN, Hermann y WUNDERLIN, Arne
El caos determinista, Revista Mundo Científico, No. 108.
MANDELBROT, Benoit
1987 Los objetos fractales, Barcelona, Tusquets Editores.
1997 La geometría fractal de la naturaleza, Barcelona, Tusquets Editores.
NICOLIS, Catherine
¿Puede bascular el clima? Revista Mundo Científico, No. 115.
SIMÓ, Carlos
Cómo entender el caos determinista, Revista Mundo Científico, No. 115.
El autor de este libro introduce al lector destacando que «La
historia de la ciencia se ha ido elaborando bajo la premisa de que
la configuración básica del saber científico es un proceso
acaecido dentro de las fronteras de la Civilización O ccidental»
¿Pero fue, en efecto, este hito fundador el acontecimiento del que
se ha desprendido toda ciencia posible, o hubo, en alguna otra
parte de nuestro planeta, una invención equivalente, un
desarrollo paralelo de un sistema de referencia igualmente
apropiado para la expresión de las ideas?.

Luego nos conduce en un viaje epistemológico a través de la


historia de las matemáticas y nos revela que en el Viejo Mundo
éstas fueron desarrolladas siguiendo el celestial cam ino de la
abstracción, mientras que en el Nuevo Mundo lo hicieron
siguiendo el abrupto sendero de la concreción. Así, los primeros
construyeron un Espacio Matemático de Representación (E.M.R.)
con el punto-límite como unidad estructural. Debido a esto su E.M.R. tiene cero y solo admite
dim ensión
Adiferencia, los amerindios
dimensiones enteras en su funcionamiento. Son las matemáticas del in fin ito actual.
precolombinos tejieron un E.M.R. cuya unidad estructural es el hilo o cuerda de dim ensión uno y consiste en
una malla cuadriculada que funciona como la urdim bre del te jid o y adm ite dim ensiones fraccionarias
exclusivamente. Son las matemáticas del infinito potencial.

Como consecuencia tenemos dos matemáticas, dos mundos, dos lógicas, dos modos de ver y pensar lo que
existe. Llegado este momento el autor nos tranquiliza ai dem ostrarnos que los dos sistemas son
complementarios y no antagónicos.

ABVA
V A LA

ISBN-9978-22-404-1

You might also like