You are on page 1of 10

1.

NOCIÓN DE CONTROL AUTOMÁTICO


El diccionario de la Real Academia de la Lengua, en su vigésima primera edición del año 1992, define la Automática de esta
manera: “Ciencia que trata de sustituir en un proceso al operador humano por dispositivos mecánicos o electrónicos”.
Podemos entender, por tanto, la automatización como la aplicación de la Automática a los procesos industriales, o a diversos
dispositivos.
La automática surge para facilitar y abordar de forma más cómoda el trabajo, aumentar la fiabilidad y precisión, y conseguir
un mayor incremento en la productividad y calidad de los productos.
Un campo de aplicación claro es la industria. Se ha llegado a hablar de una Segunda Revolución Industrial debido a su
influencia en la organización de la producción, productividad, calidad de los productos, organización del trabajo, y
necesidades de formación y recualificación profesional. A todo esto hay que añadir que estos cambios se producen de forma
rápida, debido al extraordinario desarrollo de la tecnología, que posibilita también una evolución acelerada hacia sistemas
cada vez más eficaces y asequibles.
Además de en el mundo industrial, la automatización se ha introducido de forma notable en el sector servicios, como es
obvio y evidente, en el hogar (se habla ya de domótica, automatización doméstica o vivienda inteligente) y en muchos otros
aspectos en general, de tal forma que su incidencia en la vida cotidiana es un hecho.
La primera etapa en el desarrollo de la Automática la constituyen los sistemas automáticos de control. Estos sistemas no son
sino dispositivos que, acoplados a un proceso, tratan de conseguir que alguna magnitud del mismo varíe en el transcurso del
tiempo de alguna forma impuesta voluntariamente por el hombre. Según esta concepción, un sistema de control se podría
representar en forma esquemática como muestra la figura.

El controlador tiene por función suministrar al proceso la entrada o estímulo adecuado para conseguir que la salida o
magnitud controlada varíe de acuerdo a nuestros requerimientos. Un sistema que actúa de esta forma recibe el nombre de
“sistema de control en lazo abierto”, y ejerce, evidentemente, una función de control que, por diversas razones, resulta muy
poco eficaz.
Para evitar los inconvenientes que presentan los sistemas anteriores, se introdujo el concepto de realimentación. En palabras
de Nobert Wimer, “realimentación es un método para controlar un sistema insertando en él los resultados del
comportamiento anterior”.
Desde un punto de vista ligeramente más restrictivo, y de acuerdo con la definición dada por el American Institute of
Electrical Engineers (A.I.E.E.), diremos que un sistema de control realimentado, o un sistema de control en lazo cerrado, es
aquél que tiende a mantener una relación prevista e impuesta por el hombre entre una variable del proceso, denominada
salida, y otra variable, denominada referencia, comparando funciones de estas variables y usando la diferencia como medio
de control.
La correspondiente definición publicada por el British Standard Institution en 1967 es similar. Define el sistema de control
realimentado como “un sistema de control que posee un mecanismo de realimentación por el cual la señal de error formada
como resultado de esta realimentación se utiliza para controlar la acción de un elemento de control final, de una manera tal
que tienda a anular dicho error”. Según esta definición, un sistema de control realimentado se podría representar en forma
esquemática como se muestra en la figura.
En muchas ocasiones, parte de la realimentación del sistema se efectúa mediante la intervención de un operador humano,
que directamente por observación, o a través de la lectura de instrumentos adecuados, puede conocer el valor de la salida o
magnitud controlada. Ese conocimiento, su capacidad de raciocinio y la posibilidad de actuación de sus miembros, le
permiten ejecutar operaciones que actúan sobre el proceso para conducirlo hacia el punto de operación deseado. Cuando
esto ocurre, el sistema sigue siendo un sistema en lazo cerrado o realimentado, ya que el operador observa continuamente
las desviaciones del comportamiento del proceso con respecto a una consideración ideal, y usa ese error para programar su
actuación y corregir las discrepancias que aparecen. Sin embargo, este tipo de sistemas no puede ser considerado
automático, debido a la existencia de tal operador humano. De todas formas, es preciso advertir que dentro del marco más
general de la “Teoría de Sistemas”, no existe inconveniente alguno en incluir dentro de un sistema a un operador humano.
Durante las últimas décadas, la palabra “retroalimentación”, al igual que “computador”, ha encontrado un sitio en nuestro
lenguaje de un modo mucho más persuasivo que otras de origen tecnológico. Y para que esto haya podido ser así, han tenido
que sucederse numerosos y muy diversos acontecimientos a lo largo de la historia del hombre, acontecimientos estos que se
describen en el apartado denominado “un breve resumen de la historia del control automático”.
2. UN BREVE RESUMEN DE LA HISTORIA DEL CONTROL AUTOMÁTICO
La teoría de control automático ha experimentado un notable desarrollo a lo largo de estos últimos años. Es un tanto
complejo proporcionar un análisis imparcial de un área que aún está evolucionando; sin embargo, echando un vistazo al
pasado, pueden señalarse aquellos aspectos y avances más importantes que marcaron las pautas con las que se escribió dicha
teoría de control.
El control realimentado es una disciplina de la ingeniería. Como tal, su progreso está fuertemente relacionado con los
problemas que necesitaron ser resueltos en diferentes épocas de la historia del hombre. Puede decirse que los
acontecimientos más importantes que ocasionaron la evolución de la teoría de control fueron los siguientes:
● La preocupación de los griegos y los árabes por medir el tiempo. Este periodo abarca desde el año 300 AC al año
1200 DC.
● La Revolución Industrial en Europa. Aunque ésta tuvo lugar en el tercer cuarto del siglo XVIII, sus raíces se
remontan al año 1600.
● El auge de los sistemas de comunicación y las dos Guerras Mundiales. Este periodo está comprendido entre los
años 1910 y 1945.
● El principio de la era espacial y digital, en 1957.
Éstas pueden considerarse como etapas del desarrollo sociocultural del hombre: primeramente surge la necesidad de
referenciar nuestra existencia, midiendo tiempos y espacios; en segundo lugar, el hombre busca adecuarse al medioambiente
y hacer su existencia más confortable; después, se establecen posiciones y territorios dentro de la comunidad global; y por
último, el hombre comienza a buscar su lugar en el cosmos.
En el periodo comprendido entre la Revolución Industrial y las Guerras Mundiales, se produjo un hecho muy importante: la
teoría de control comienza a adquirir su propio lenguaje escrito. Fue Maxwell quien primero proporcionaría un análisis
matemático riguroso de los sistemas de control realimentados, en 1868. Por tanto, es muy común denominar al periodo
anterior a esta fecha la “prehistoria del control automático”.
Del mismo modo, podemos denominar “periodo primitivo del control automático” al comprendido entre 1868 y 1900;
“periodo clásico” al comprendido entre 1900 y 1960; y “periodo moderno” al que transcurre desde 1960 hasta nuestros días.
A continuación va a realizarse un breve recorrido por aquellos acontecimientos más importantes que se sucedieron en cada
uno de los periodos del control automático, haciendo mención a los primeros sistemas de control que ya desde varios siglos
antes de Cristo comenzaron a emplearse.
2.1. EL RELOJ DE AGUA DE LOS GRIEGOS Y LOS ÁRABES. EL REGULADOR FLOTANTE
El hecho que motivó la aparición del primer sistema de control de la historia, fue la necesidad de la medida del tiempo. En
el año 270 AC, los griegos Ktesibios inventaron un regulador flotante para un reloj de agua. La función de este regulador era
mantener constante el nivel de agua de un tanque. Este tanque, a su vez, proporciona un flujo de agua constante a otro
tanque a través de un tubo colocado en la parte baja del mismo. El nivel de agua de este segundo tanque, por tanto, depende
del tiempo transcurrido.
Para controlar el nivel del primer tanque, se empleó un flotador o válvula flotante, semejante a la del deposito de agua de un
inodoro corriente. Cuando el nivel del agua disminuía, dicha válvula favorecía un aumento en el caudal que alimentaba a
este depósito, posibilitando la subida del nivel del mismo; y cuando el nivel de agua aumentaba, la válvula limitaba el
caudal; de este modo se conseguía que el nivel del tanque permaneciera constante. Un ejemplo gráfico de este sistema
puede observarse en la figura.

El regulador flotante tuvo, también, otras aplicaciones. Por ejemplo, Philon de Bizancio, en el año 250 AC, lo empleó para
mantener constante el nivel de aceite de una lámpara.
Durante el siglo I DC, los griegos desarrollaron muy diversos tipos de reguladores flotantes y dispositivos semejantes para
propósitos como el despacho automático de vino o el diseño de sifones para mantener constante la diferencia de niveles de
agua entre dos tanques. Pero sin duda, una de las aplicaciones más curiosa de este tipo de regulación en este periodo, fue la
llevada a cabo por Heron de Alejandría, que la empleó para conseguir la apertura automática de las puertas de un templo. Se
trataba de uno de los primeros sistemas en lazo abierto, cuyo funcionamiento se representa en el dibujo de la figura.

La señal de mando del sistema era el encendido del fuego del altar. El aire caliente, dilatándose bajo el fuego, ocasionaba
que pasara agua del depósito a la cuba. Al aumentar el peso de la cuba, ésta desciende y abre la puerta por medio de una
cuerda, dando lugar a la subida de un contrapeso. Para cerrar la puerta, bastaba con atenuar o apagar el fuego; de este modo,
al enfriarse el aire en el recipiente y reducir su presión, el agua de la cuba, por efecto sifón, vuelve al depósito; así, la cuba
se hace más ligera, y al ser mayor el contrapeso se cierra la puerta. El sistema de apertura de la puerta no era visible ni
conocido por el pueblo, por lo que se creaba un aire de misticismo y se mostraba el enorme “poder” del que gozaban los
Dioses del Olimpo.
Durante el año 800, y hasta el año 1200, siguieron desarrollándose reguladores flotantes de la mano de varios ingenieros
árabes, entre los que caben destacar los tres hermanos Musa, Al-Jazari y Ibn al-Sa'ati. Durante este periodo, el control
realimentado de tipo “on/off” comenzó a desarrollarse, el cual volvería a aparecer posteriormente, sobre el año 1950, para
resolver problemas relacionados con el “tiempo mínimo”.
Cuando Baghdad cayó derrotada frente a Mongolia, en 1258, todos los avances en torno a este tipo de reguladores flotantes
llegó a su fin. De hecho, la invención del reloj mecánico en el siglo XIV provocó que los relojes de agua y sus reguladores
quedaran obsoletos. No sería hasta la llegada de la Revolución Industrial cuando volviera a usarse el regulador flotante.
Cabe mencionarse que, durante el siglo XII, se desarrolló en China un sistema de control pseudo-realimentado que se aplicó
a problemas relativos a la navegación. El motivo por el que este tipo de control se denominó pseudo-realimentado es que
dicha realimentación implicaba la acción por parte del hombre, por lo que no puede hablarse de sistema de control
“automático”.
2.2. LA REVOLUCIÓN INDUSTRIAL
La llegada de la Revolución Industrial en Europa ocasionó la invención de molinos de viento, calderas y hornos avanzados,
así como de la máquina de vapor. Estos dispositivos no podían regularse a mano de manera adecuada, por lo que surgió la
necesidad de introducir en ellos un control automático. Se inventaron, igualmente, una gran variedad de reguladores
flotantes, reguladores de temperatura, reguladores de presión y dispositivos para el control de la velocidad.
T. Newcomen, en 1712, construyó la primera máquina de vapor. Sin embargo, se trataba de una máquina ineficiente y
regulada a mano, lo que la hacia inapropiada para el uso industrial. Finalmente, en 1769, James Watt inventó una máquina
de vapor controlada automáticamente y adecuada para funcionar en entornos industriales, marcando esta fecha el comienzo
de la Revolución Industrial. Sin embargo, como ya se mencionó anteriormente, las verdaderas raíces de esta revolución se
hicieron notar mucho antes, sobre el año 1600, con el desarrollo de los molinos de viento y los hornos.
En definitiva, la Revolución Industrial potenció el desarrollo de muy diversas máquinas y dispositivos y de sistemas de
control para regularlos.
En 1750, Meikle se ocupó del control automático de los molinos de viento. En la figura aparece un esquema del sistema que
éste ideó.

El objetivo que se perseguía era orientar las aspas principales del molino de tal forma que el aprovechamiento de la energía
eólica fuera óptimo. Para ello, el sistema funcionaba como sigue. La rueda pequeña, que podía hacer girar la torreta del
molino por medio del engranaje mostrado en la figura, tenía sus aspas colocadas en un plano perpendicular al de las paletas
de la rueda principal. Cuando las aspas de la rueda principal encaraban en ángulo recto al viento, las paletas del aspa
secundaria se alineaban con él, por lo que no se movían y la torreta del molino permanecía inmóvil, en una posición que era
óptima. Cuando cambiaba la dirección del viento, al no estar paralelas las aspas secundarias con la dirección de éste,
giraban arrastrando lentamente la torreta, que tendía entonces a colocarse paralela al viento, posición ésta en la que las aspas
principales aprovechaban el máximo de energía eólica.
La búsqueda de un medio para controlar la velocidad de rotación de un eje fue un problema característico en las crónicas del
control automático. Las primeras actuaciones en este sentido parecen haber sido motivadas por los deseos de controlar
automáticamente la velocidad de la piedra de molienda de un molino de viento harinero. De los varios métodos que se
inventaron, el más prometedor resultó ser el que usaba un péndulo cónico o regulador de bolas flotante. Este dispositivo se
usó para medir la velocidad del molino; las aspas del molino de viento se hacían girar con ruedas y poleas, casi como las
persianas, para mantener una velocidad fija.
Pero no fue el molino de viento el que hizo famoso al regulador de bola flotante; como ya se mencionara anteriormente, fue
su adaptación a la máquina de vapor en los laboratorios de James Watt, alrededor de 1769, la que le dio mayor renombre.
La acción del regulador centrífugo es fácil de describir. Supongamos que la máquina está operando en equilibrio y
aplicamos de pronto una carga. En ese momento disminuirá la velocidad de la máquina y las bolas del regulador caerán a un
cono más pequeño. De este modo, el ángulo de las bolas se usa como sensor de salida. Esta acción, a través de las palancas,
abrirá la válvula principal del núcleo de vapor (que es el actuador) y permitirá la entrada de más vapor en la máquina,
recuperando así la velocidad perdida. Para mantener la válvula de vapor en una nueva posición, es necesario que las bolas
giren a un ángulo diferente, lo que implica que la velocidad con una carga no es exactamente la misma que la anterior. Para
recobrar la misma velocidad en este sistema, sería necesario reponer la velocidad deseada cambiando la longitud de la barra
de palanca a la válvula. Otros inventores introdujeron mecanismos que integraron el error de la velocidad, proporcionando
así una reposición automática.
El regulador centrífugo de James Watt constituye, sin duda alguna, el ejemplo más clásico de sistema automático de control.
Este hecho se debe principalmente a la profusión que alcanzó su empleo, y por otra parte a que fue el primero sobre el que
se desarrolló un estudio analítico, llevado a cabo por Maxwell en su obra “On governors”. Watt fue un hombre práctico,
como el constructor de molinos anterior a él, y no se ocupó de análisis teóricos del regulador.
Otro tipo importante de regulación en este periodo fue la regulación de temperatura. Alrededor de 1624, Cornelis Drebbel
desarrolló un sistema de control automático de temperatura, motivado por su idea de que un metal podría convertirse en oro
manteniéndolo a una temperatura constante precisa durante largos periodos de tiempo. También empleó este regulador de
temperatura en una incubadora para criar pollos.
Los reguladores de temperatura fueron estudiados por J.J. Becher en 1680, y sobre el año 1770 se propuso el uso de los
mismos en hornos químicos, en las fundiciones de acero y fábricas de porcelana y en el control de la temperatura de un
hospital. Sin embargo, no sería hasta 1777 cuando Bonnemain desarrollara un regulador de temperatura apropiado para el
uso industrial.
El periodo de la Revolución Industrial supone una vuelta al empleo de los reguladores flotantes, cuya primera referencia
proviene del año 270 AC, de mano de los griegos. La regulación del nivel de líquido era necesaria en dos vertientes
diferentes a finales de 1700: en la caldera de una máquina de vapor y en los sistemas de distribución de agua domésticos.
Por tanto, este tipo de reguladores retomaron especial interés, especialmente en Gran Bretaña.
Otro problema asociado con la máquina de vapor fue la regulación de la presión del vapor, que debía permanecer constante.
Ello motivó el desarrollo de diversos reguladores de presión, como el inventado por D. Papin en 1681. Más tarde, alrededor
de 1799, R. Delap y M. Murria refinaron aún más el diseño de este tipo de regulador; y finalmente, en 1803, Boulton y Watt
combinaron un regulador de presión y un regulador flotante para su empleo en la máquina de vapor.
Como puede apreciarse, hasta la fecha de la Revolución Industrial, y durante la misma, se desarrollaron muy diversos
sistemas de control, orientados a aplicaciones muy diferentes. Pero puede decirse que los sistemas hasta aquí relacionados
tienen un aspecto común: ninguno refleja algún tipo de teoría de control automático, ya que ésta, simplemente, no existía.
2.3. EL NACIMIENTO DE LA TEORÍA DE CONTROL
Hasta la fecha de la Revolución Industrial, el diseño de sistemas de control realimentados se realizaba mediante lo que se
denominó el método de “prueba y error”. La intuición era una de las herramientas más importantes con las que se contaba.
Sin embargo, a mediados del año 1800 comenzaron a emplearse las matemáticas para el análisis de la estabilidad de estos
sistemas, llegando a convertirse, posteriormente, en el lenguaje de la teoría de control automático. Este hecho tan importante
ha llevado a denominar “prehistórico” al periodo anterior a este acontecimiento.
2.3.1. ECUACIONES DIFERENCIALES
En 1840, el astrónomo británico G.B. Airy, desarrolló un dispositivo para el control del posicionamiento de un telescopio. El
sistema, realimentado, permitía compensar el movimiento de rotación de la tierra, de manera que el telescopio podía
permanecer largo tiempo apuntando a una determinada estrella. Desafortunadamente, Airy descubrió que, debido a un
inapropiado diseño del lazo de realimentación, el sistema tendía a oscilar. Este hecho le llevó a estudiar la estabilidad de los
sistemas en lazo cerrado y a ser el primero en emplear ecuaciones diferenciales en sus análisis. La teoría de las ecuaciones
diferenciales comenzó, entonces, a desarrollarse, a lo que contribuyó el descubrimiento del cálculo infinitesimal de I.
Newton (1642-1727) y G.W. Leibniz (1646-1716) y los trabajos realizados por los hermanos Bernoulli (finales de 1600 y
principios de 1700), J.F. Riccati (1676-1754) y otros. El empleo de ecuaciones diferenciales en el análisis de sistemas
dinámicos fue finalmente establecido por J.L. Lagrange (1736-1813) y W.R. Hamilton (1805-1865).
2.3.2. TEORÍA DE LA ESTABILIDAD
Los primeros trabajos en cuanto al análisis matemático de los sistemas de control se refiere, fueron desarrollados en
términos de ecuaciones diferenciales. J.C. Maxwell (1868) analizó la estabilidad del regulador de bolas de Watt. Su técnica
consistía en linealizar las ecuaciones diferenciales que describían el comportamiento del sistema, y en obtener, a partir de
dicha linealización, la ecuación característica del mismo. Estudió el efecto que los diferentes parámetros del sistema tenían
sobre la estabilidad, y demostró que el sistema era estable si las raíces de la ecuación característica (polos) tenían parte real
negativa. Con el trabajo de Maxwell podemos afirmar que la teoría de control comenzó ha establecerse firmemente.
Igualmente, E.J. Routh (1877) proporcionó una técnica numérica para determinar cuándo una ecuación característica tenía
raíces estables. En otra línea, e independientemente de los estudios de Maxwell, el ruso I.I. Vishnegradsky (1877) analizó la
estabilidad de los reguladores. Sus estudios a este respecto fueron empleados por \ A.B. Stodola en 1893 para analizar y
estudiar la regulación de la turbina de agua. Modeló un actuador dinámico e incluyó en su análisis el retraso que suponía el
mecanismo de actuación. Fue el primero en introducir la idea de constante de tiempo de un sistema.
El trabajo de A.M. Lyapunov fue también clave para el desarrollo de la teoría de control. En 1892 estudió la estabilidad a
partir de las ecuaciones diferenciales no lineales, empleando un concepto generalizado de la energía. Desafortunadamente,
aunque continuó sus trabajos en Rusia, no fue hasta 1960 cuando se conoció la importancia de su teoría.
Entre 1892 y 1898, el ingeniero británico O. Heaviside contribuyó también al crecimiento de la teoría de control gracias al
invento del cálculo operacional. Estudió el comportamiento de los transitorios de los sistemas introduciendo un concepto
equivalente al de función de transferencia.
2.3.2.1. TEORÍA DE SISTEMAS
Con el tiempo, la teoría de control iba encontrando su lugar en la organización del conocimiento humano. El concepto de
sistema como aquella entidad dinámica con entradas y salidas definidas que interacciona con el medio y con otros sistemas,
fue un requisito clave para el posterior desarrollo de la teoría de sistema.
Durante los siglos XVIII y XIX, los estudios de A. Smith en economía, los descubrimientos de C.R. Darwin y otros
acontecimientos en el ámbito político y social, supusieron un gran impacto en la consciencia humana. La revolución
industrial contribuyó enormemente a potenciar el desarrollo de la sociedad en sus diversos y diferentes aspectos, desarrollo
que permitió el establecimiento de lo que se denominó la “teoría general de sistema”. En este contexto, la evolución de la
teoría de control podía proceder.
2.3.3. ANÁLISIS EN EL DOMINIO DE LA FRECUENCIA
A comienzos del siglo XX, ocurrieron dos acontecimientos importantes desde el punto de vista de la teoría de control: el
desarrollo del teléfono y las comunicaciones y las guerras mundiales.
Hasta este periodo, el análisis matemático de los sistemas de control se llevaba a cabo mediante el empleo de ecuaciones
diferenciales en el dominio del tiempo. Pero entre 1920 y 1930, en los laboratorios Bell, comenzó a desarrollarse el análisis
en el dominio de la frecuencia. Entre los personajes que destacaron notablemente en este campo se encontraban P.S. de
Laplace (1749-1827), J. Fourier (1768-1830) y A.L. Cauchy (1789-1857).
En cuanto a los sistemas de comunicación se refiere, el viaje de la información a lo largo de grandes distancias extendió la
necesidad de amplificar periódicamente la señal de voz de las líneas de teléfono. Desafortunadamente, los amplificadores no
sólo amplificaban la señal de voz, sino también la de ruido, por lo que el correcto diseño de los mismos era de vital
importancia.
Para reducir la distorsión de los repetidores, H.S. Black demostró, en 1927, la utilidad de la realimentación negativa. El
problema de diseño consistía en introducir un cambio de fase en el sistema a las frecuencias pertinentes. La teoría de
regeneración para el diseño de amplificadores estables fue desarrollada por H. Nyquist (1932). Éste, derivó un criterio de
estabilidad basado en la representación polar de una función compleja. En 1938, H.W. Bode realizó estudios sobre la
respuesta en frecuencia de los sistemas e investigó la estabilidad en lazo cerrado empleando los conceptos de ganancia y
margen de fase.
La mejora en las comunicaciones y en los medios de transporte, cada vez más rápidos, hizo del mundo un lugar pequeño en
el que el hombre sentía la necesidad de establecer su territorio en la sociedad global. Esto provocó grandes tensiones que
desembocaron en las guerras mundiales, durante las cuales el desarrollo de los sistemas de control realimentados se
convirtió en una cuestión de supervivencia.
Un problema militar importante en este periodo fue el control y la navegación de los barcos, que cada vez presentaban
diseños más avanzados. Entre los primeros avances a este respecto destacó el diseño de sensores que posibilitaran el control
en lazo cerrado. En 1910, E.A. Sperry inventó el giroscopio, empleado para controlar la dirección de los barcos. En este
campo cabe destacar, igualmente, la aportación de N. Minosrsky (1922), quien introdujo su controlador de tres términos
para posibilitar dicho control de la dirección. Fue el primero en usar el controlador PID (proporcional-integral-derivativo) y
consideró efectos no lineales en los sistemas de lazo cerrado.
Otro problema principal durante la guerra fue el posicionamiento preciso de las armas con las que contaban los barcos y
aviones militares. Con la publicación de la teoría de servomecanismos, de H.L. Házen (1934), se comenzó a abordar este
tipo de problemas. Se comienza a emplear, pues, el término “servomecanismo”, que implicaba una relación maestro-esclavo
en los sistemas.
Para el estudio de los problemas de control asociados a los rádares recientemente inventados sobre el año 1940, se
estableció un laboratorio de radiación en el Instituto Tecnológico de Massachusetts. Los trabajos más importantes
relacionados con la teoría de control que se llevaron a cabo en este periodo, proceden de este laboratorio.
En 1941, mientras trabajaba en un proyecto en la Corporación M.I.T./Sperry, A.C. Hall confirmó los efectos tan negativos
que ocasionaba el ignorar el ruido en el diseño de los sistemas de control. Concluyó que la tecnología en el dominio de la
frecuencia empleada en los laboratorios Bell permitía contrarrestar estos efectos y la empleó para el diseño de un sistema de
control para un radar aéreo. Este hecho volvió a demostrar la importancia de las técnicas en el dominio de la frecuencia
empleadas en el diseño de los sistemas de control.
El uso de diseños basados en la función de transferencia, diagramas de bloque y dominio de la frecuencia era habitual y
muy exitoso en los laboratorios Bell. En 1947, N.B. Nichols desarrollo lo que se denominó “la gráfica de Nichols” para el
diseño de sistemas realimentados. Por otro lado, W.R. Evans (1948), trabajando en North American Aviation, presentó la
técnica del lugar de las raíces, que permitía determinar de un modo directo la localización de los polos de un sistema en lazo
cerrado sobre el plano S. Consecuentemente, durante 1950, la mayoría de las investigaciones respecto a control se centraron
en dicho plano, y en obtener las características deseadas en lazo cerrado en términos de tiempo de subida, porcentaje de
error y demás.
2.3.4. ANÁLISIS ESTOCÁSTICO
A mediados de 1940, se fueron introduciendo técnicas estocásticas en la teoría de control y comunicación. En 1942, N.
Wiener analizó una serie de sistemas de procesamiento de información empleando modelos de procesos estocásticos.
Trabajando en el dominio de la frecuencia, desarrolló un filtro estocásticamente óptimo para señales estacionarias en tiempo
continuo que permitía mejorar la relación señal-ruido en los sistemas de comunicación. El ruso A.N. Kolmogorov (1941),
por su parte, estableció una teoría para procesos estocásticos estacionarios en tiempo discreto.
El periodo posterior a la Segunda Guerra Mundial puede denominarse “periodo clásico de la teoría de control”. Se
caracterizó por la aparición de los primeros libros de texto [MacColl 1945; Lauer, Lesnick y Matdon 1947; Brown y
Campbell 1948; Chestnut y Mayer 1951;\ Truxall 1955], y por el desarrollo de herramientas de diseño que proporcionaban
soluciones garantizadas a los problemas de diseño. Estas herramientas se aplicaban mediante cálculos realizados a mano
junto con técnicas gráficas.
Con la llegada de la era espacial, el diseño de sistemas de control en los Estados Unidos dio un giro muy significativo,
pasando de emplear las técnicas en el dominio de la frecuencia, tan habituales en el periodo clásico de la teoría de control, a
emplear nuevamente las técnicas de ecuaciones diferenciales que se usaban a finales de 1800. Es decir, hay una vuelta al
estudio en el dominio del tiempo. Las razones por las que esto fue así se exponen a continuación.
2.3.5. DISEÑO EN EL DOMINIO DEL TIEMPO PARA SISTEMAS NO LINEALES
La teoría de control clásica era muy apropiada para los problemas de diseños de control que se presentaron durante y
después de las Guerras Mundiales. Los estudios en el dominio de la frecuencia eran muy adecuados para los sistemas
lineales invariantes en el tiempo. Incluso alcanzaron cierto éxito en cuanto a sistemas no lineales se refiere. Empleando las
propiedades de rechazo de ruido de las técnicas en el dominio de la frecuencia, un sistema de control podía diseñarse de
modo que fuese “robusto” a las variaciones de los parámetros del sistema, y que permitiera, además, la medida de errores y
distorsiones externas.. Por tanto, las técnicas clásicas pueden utilizarse en las versiones lineales de los sistemas no lineales,
dando buen resultado en el punto de equilibrio, en el que el comportamiento del sistema es aproximadamente lineal.
Las técnicas en el dominio de la frecuencia pueden emplearse igualmente en sistemas que presentan tipos simples de no
linealidad, mediante el empleo de su función de descripción, la cual se basa en el criterio de Nyquist. Esta técnica fue usada
primeramente por Pole J. Groszkowski en el diseño de transmisores de radio antes de la Segunda Guerra Mundial, y
formalizada en 1964 por J. Kudrewicz.
Desafortunadamente, no es posible diseñar, mediante estas técnicas de linealización, sistemas de control para sistemas
multivariables no lineales avanzados, como aquellos que comenzaron a aparecer con las aplicaciones aeroespaciales. En la
Unión Soviética, la actividad en torno al diseño de sistemas de control no lineales crecía notablemente. Siguiendo las ideas
de Lyapunov, la atención se focalizó en las técnicas en el dominio del tiempo. En 1948, Ivachenko investigó el principio del
“control de relevo”, donde la señal de control se conmutaba de modo discontinuo entre valores discretos. En 1955, Tsypkin
empleó el plano de fase para el diseño de controles no lineales. Popov (1961) también aportó su criterio del círculo para el
análisis de la estabilidad no lineal.
Dada la evolución de la teoría de control en la Unión Soviética, era de esperar que el lanzamiento del primer satélite,
llamado Sputnik, tuviera lugar allí en 1957. Igualmente, la primera conferencia llevada a cabo por la Federación
Internacional de Control Automático se desarrollo en Moscú, en el año 1960.
El lanzamiento del Sputnik supuso un tremendo crecimiento de la actividad que se estaba desarrollando en los Estados
Unidos en cuanto al diseño de controles automáticos. En este crecimiento se hizo patente la necesidad de retornar al empleo
de las ecuaciones diferenciales para el estudio de los sistemas no lineales. Cada vez se hacía más necesaria una teoría de
control con la que poder tratar dichas ecuaciones diferenciales no lineales.
En 1960, C.S. Draper inventó un sistema de navegación inercial, que usaba giroscopios para proporcionar información
precisa sobre la posición de un cuerpo que se encontraba en movimiento, ya fuera un barco, un avión o un satélite espacial.
Fue a partir de entonces cuando comenzaron a desarrollarse sensores apropiados para la navegación y otra serie de diseños
de control orientados a este fin.
2.3.6. OPTIMALIDAD EN SISTEMAS NATURALES
Johann Bernoulli fue el primero en tratar el Principio de Optimalidad, en conexión con el problema del brachistocrono que
surgió en 1696. Este problema fue resuelto por los hermanos Bernoulli e I.Newton, quedando claro que la optimalidad es
una propiedad fundamental en cuanto a sistemas naturales se refiere. Se investigaron varios principios de optimalidad, como
el principio del tiempo mínimo de P. de Fermat (1600), empleado en óptica, y los trabajos de Hamilton y L. Euler (1744).
Estos principios de optimalidad son todos principios mínimos. A comienzos de 1900, A. Einstein demostró que, referido al
sistema de coordenadas espacio-tiempo en cuatro dimensiones, la moción de los sistemas ocurre siempre de manera que se
tiende a maximizar el tiempo.
2.3.7. CONTROL ÓPTIMO Y TEORÍA DE ESTIMACIÓN
Durante 1958, L.S. Pontryagin desarrolló su principio máximo, el cual resolvía los problemas de control óptimo basándose
en el cálculo de variaciones desarrollado por L. Euler (1707-1783). Resolvió el problema del tiempo mínimo, y derivó una
ley de control on/off apropiada para el control óptimo. En los Estados Unidos, durante 1950, el cálculo de variaciones fue
aplicado para resolver problemas generales de control óptimo en la Universidad de Chicago y algunas otras.
En 1960, R. Kalman y sus cooperadores publicaron tres escritos muy importantes. En uno de ellos se reconocía la
importancia del trabajo desarrollado por Lyapunov referente al control en el dominio del tiempo de sistemas no lineales. En
otro, se discutía sobre el control óptimo de sistemas, proporcionando una serie de ecuaciones para el regulador cuadrático
lineal (LQR). El tercer escrito discutía a cerca del filtrado óptimo y la teoría de estimación., proporcionando las ecuaciones
para el filtro discreto de Kalman. El filtro continuo de Kalman se desarrollaría poco después por Kalman y Bucy (1961).
En el periodo de un año, se hicieron patentes las limitaciones de la teoría de control clásica, comenzaron a introducirse
nuevas herramientas teóricas y comenzó una nueva era en la teoría de control, que se dio en llamar la era del control
moderno.
El trabajo llevado a cabo por Kalman se caracterizó por la introducción del álgebra lineal y las matrices, de modo que los
sistemas con entradas y salidas múltiples pudieran ser tratados fácilmente. Empleó el concepto de estado interno de un
sistema, permitiendo la caracterización de los mismos no sólo por sus entradas y salidas, sino por la dinámica interna de
estos.
Kalman formalizó el concepto de optimalidad en la teoría de control minimizando una función cuadrática generalizada de la
energía. En cuanto a la teoría de estimación, introdujo nociones estocásticas aplicables a sistemas no estacionarios variantes
en el tiempo. Puede afirmarse que el filtro de Kalman es una ampliación natural del filtro de Wiener para sistemas
estocásticos no estacionarios. En definitiva, la teoría de Kalman proporcionó soluciones óptimas que garantizaban el
adecuado desarrollo de sistemas de control mediante el empleo de ecuaciones matriciales formales que, por lo general,
tenían una única solución.
2.3.8. TEORÍA DE CONTROL NO LINEAL
Durante 1960, en los Estados Unidos, G. Zames, I.W. Sandberg, K.S. Narendra, C.A. Desoer y algunos otros, extendieron el
trabajo de Popov y Lyapunov sobre la estabilidad no lineal, lo cual tuvo su repercusión en el diseño de controles para
aeroplanos, en el control de procesos no lineales e incluso en el campo de la robótica.
La teoría de control moderna (referida de nuevo al dominio del tiempo), comenzaba a requerir herramientas para resolver
las complicadas ecuaciones matriciales no lineales que se planteaban. Por fortuna, en 1960 se realizaron grandes avances en
el campo de la tecnología digital. De no ser por las computadoras, el control moderno hubiera visto muy limitadas sus
aplicaciones.
Sobre 1830, C. Babbage introdujo una serie de principios referidos a las computadoras modernas. Trató temas como el de la
memoria y los programas de control. En 1948, J. von Neumann dirigió el desarrollo de un programa de almacenamiento en
Princeton, al mismo tiempo que IBM construía su máquina programable SSEC. En 1950, Sperry Rand fabricó el primer
procesador de datos comercial, llamado UNIVAC I. Poco después, IBM lanzó al mercado su computadora 701.
En 1960, tuvo lugar uno de los avances más importantes en este campo: nació la segunda generación de computadoras, que
contaban ya con tecnología en estado sólido. Sobre 1965, la Corporación de Equipos Digitales desarrolló el PDP-8, y
comenzó la industria de las minicomputadoras. Finalmente, en 1969, W. Hoff inventó el procesador.
2.3.9. TEORÍA DE CONTROL DIGITAL
Con la llegada del procesador, comenzó a desarrollarse una nueva área. Los sistemas de control que se implementaban en
ordenadores digitales necesitaban ser primeramente discretizados. Nace, por tanto, la teoría de control digital.
Durante 1950, se desarrolló en Columbia la teoría sobre sistemas de datos muestreados, interviniendo en este estudio J.R.
Ragazzini, G. Franklin y L.A. Zadeh, así como E.I. Jury, B.C. Kuo y otros. En este periodo surgió la idea de emplear
ordenadores digitales para el control de procesos industriales. En 1959, como resultado de un proyecto de colaboración
entre TRW y Texaco, se instaló un sistema controlado por ordenador en la refinería de petróleo Port Arthur, en Texas.
El desarrollo de reactores nucleares durante el año 1950, motivó la investigación sobre el control de procesos industriales y
la instrumentación. En 1970, gracias a los trabajos de K. Aström y otros, se estableció definitivamente la importancia del
control digital de procesos.
Los estudios realizados por C.E. Shannon a mediados de 1950 en los laboratorios Bell, revelaron la importancia de las
técnicas basadas en el muestreo de datos a la hora del procesamiento de señales.
Con la introducción del PC en 1983, el diseño de sistemas de control modernos se hacía posible para el ingeniero particular.
Comienza, entonces, el desarrollo de paquetes software tan importantes como ORACLS, Program CC, Control-C, PC-
Matlab, MATRIXx, Easy5, SIMNON y muchos otros.
2.4. LA UNIÓN DEL CONTROL CLÁSICO Y MODERNO
Con la publicación de los primeros libros de texto en 1960, la teoría de control moderna se estableció así misma como la
herramienta más importante para el diseño de controles automáticos. Una intensa actividad en este respecto fue llevada a
cabo por I.R.E y A.I.E.E, así como por P. Haggerty, en Texas Instrument. Finalmente, en este mismo año, se formó el
Instituto de Ingenieros Eléctricos y Electrónicos (I.E.E.E).
Sin embargo, la teoría de control moderna presentaba ciertas carencias en algunos aspectos. Por ejemplo, permitía diseñar
sistemas de control que funcionaban perfectamente a través de la aplicación de ecuaciones matriciales, pero no
proporcionaba una noción práctica de lo que ello suponía para el sistema; es decir, no daba una idea de en qué se traducían
todas esas ecuaciones a efectos del sistema. Por otro lado, los sistemas de control modernos que carecían de dinámica de
compensación podían perder robustez frente a distorsiones y ruidos. Sin embargo, empleando las nociones de ganancia y
margen de fase propuestas por la teoría de control clásica, este problema de robustez se solucionaba.
Por tanto, en 1970, y especialmente en Gran Bretaña, se realizaron grandes esfuerzos por extender las técnicas clásicas en el
dominio de la frecuencia y del lugar de las raíces a los sistemas multivariables. Se alcanzó un gran éxito empleando los
conceptos de lugar característico, dominio diagonal y array inverso de Nyquist.
Un gran impulsor de las técnicas clásicas para sistemas multivariables fue I. Horowitz, cuya teoría de realimentación
cuantitativa, desarrollada a comienzos de 1970, posibilitó diseños robustos empleando la gráfica de Nichols.
En 1981, algunos estudios realizados por J. Doyle, M.G. Safonov, A.J. Laub y G.L. Hartmann, demostraron la importancia
de las técnicas clásicas en el dominio de la frecuencia en el diseño de sistemas de control moderno. Estos estudios tuvieron
su aplicación en numerosos procesos de control.
Como resultado de todas estas investigaciones llevadas a cabo, hoy en día podemos hablar de una nueva teoría de control
que reúne las mejores características de las teorías clásica y moderna.
REFERENCIA
Universidad Carlos III de Madrid. “Historia de la teoría de control”, extraído del sitio web:
http://turan.uc3m.es/uc3m/dpto/IN/dpin04/ISA/proyecto/principal.htm#menu

You might also like