You are on page 1of 57

TALLER DE TEMAS INTERESANTES

JAIME PANIAGUA SERNA

SISTEMAS DE INFORMACION

UNIVERSIDAD CATÓLICA DE ORIENTE UCO


FACULTAD DE CIENCIAS ECONÓMICAS Y ADMINISTRATIVAS
ADMINISTRACIÓN DE EMPRESAS
RIONEGRO – ANTIOQUIA
2013
INDICE

1. EL CLUB BILDERBERG, 3
10. EFECTO DUNNING-KRUGER, 13
11. EFICIENCIA PARETO, 14
12.ESTERILIZACIÓN (EN ECONOMÍA O MACROECONOMÍA), 15
13. FALACIA DE REIFICACIÓN, 16
14. FALACIA PATÉTICA, 17
15. HIPOTECA INVERSA, 18
16. HIPÓTESIS DE LOS TRES SECTORES, 19
17. ILUSIÓN MONETARIA, 20
18. LEY DE CAMPBELL, 21
19. LEY DE ENGEL, 22
2. PENSIONES VITALICIAS: EL EFECTO GERTRUDIS, 5
20. LEY DE GOODHART, 23
21. LEY DE GRESHAM, 24
22. LEY DE HIERRO DE LOS SALARIOS, 25
23. LEY DE HOTELLING, 26
24. LA LEY DE KING –, 27
25. LEY DE LA CONTROVERSIA DE BENFORD, 28
26. LEY DE LOS GRANDES NÚMEROS, 30
27. RENDIMIENTOS DECRECIENTES, 31
28.LEY DE OKUN, 32
29.LEY DE PARKINSON, 33
3. BIEN DE GIFFEN, 6
30.LEY DE PETTY-CLARK, 34
31.LEY DE SAY, 35
32.LEY DE TURGOT, 36
33.LEY DE UN PRECIO, 37
34.LEY DE WALRAS, 38
35.MODELO MUNDELL-FLEMING, 40
36.NAVAJA DE OCKHAM, 41
37. NET 30, 41
38.PRINCIPIO DE DILBERT, 42
39.PRINCIPIO DE PETER, 43
4. COEFICIENTE LEGAL DE CAJA, 7
40.PRINCIPIO DE RAZÓN SUFICIENTE, 44
41.TEOREMA DE TELARAÑA, 45
42. TEOREMAS DE INCOMPLETITUD DE GÖDEL, 46
43.TEOREMAS FUNDAMENTALES DE LA ECONOMÍA DEL BIENESTAR, 47
44.TEORÍA DE LAS EXPECTATIVAS RACIONALES, 51
45.TEORÍA DEL EQUILIBRIO GENERAL, 52
46. TEORÍA DEL SEGUNDO MEJOR, 52
47. TEORÍA GENERAL DEL EMPLEO, EL INTERÉS Y EL DINERO, 53
48. TERCERA VÍA, 54
49. TRAMPA DE LA LIQUIDEZ, 55
5. CONDICIÓN DE SAMUELSON, 8
50. JEAN FOURASTIÉ, 56
6. CONFERENCIA DE GÉNOVA, 9
7. CURVA DE PHILLIPS, 10
8. DINERO FIDUCIARIO, 11
9. ECUACIÓN DE CAMBRIDGE, 12
1. EL CLUB BILDERBERG

Los miembros de la Familia Rothschild son los principales fundadores y miembros


del Club.

El club, conferencia, grupo o foro Bilderberg es una reunión anual a la que asisten
aproximadamente las 130 personas más influyentes del mundo, mediante
invitación. Objeto de diversas teorías conspirativas, los miembros se reúnen en
complejos de lujo ubicados en Europa y Norteamérica donde la prensa no tiene
ningún tipo de acceso. Su oficina está en Leiden (Holanda) y el nombre procede
del primer hotel en el que tuvo lugar la primera reunión, en los Países Bajos.

HISTORIA DE LA CONSPIRACIÓN

El 29 y 30 de mayo de 1954 tuvo lugar la primera reunión, propuesta por el


consejero político polaco Joseph Retinger. Éste, preocupado por el
antiamericanismo que estaba causando el Plan Marshall en Europa, decidió reunir
a los líderes europeos para promover el entendimiento entre ellos. Entre los
invitados estuvieron el príncipe neerlandés Bernardo, que decidió promover la
idea, y el primer ministro belga Paul van Zeeland. La idea era que los invitados
fueran dos de cada país, uno conservador y el otro progresista.

El éxito del encuentro animó a los organizadores a preparar una conferencia


anual. Se creó un comité de dirección y Retinger fue designado secretario
permanente. Al igual que organizaba la conferencia, el comité de dirección
también mantenía un registro de los nombres de los asistentes y detalles de
contacto, con el objetivo de crear una red informal de individuos que se podrían
invitar unos a otros en privado. El propósito declarado del Grupo Bilderberg era
«hacer un nudo alrededor de una línea política común entre Estados Unidos y
Europa en oposición a Rusia y al comunismo». El economista holandés Ernst van
der Beugel sustituyó a Retinger en el puesto en 1960, tras la muerte de éste. El
príncipe Bernardo fue presidente de la reunión hasta su muerte, en 2004.

ACTORES EN LA CRISIS ESPAÑOLA

En 2009 la reunión tuvo lugar en el municipio costero de Vouliagmeni (Atenas) y


asistieron, entre otros, los ministros griegos de finanzas y de asuntos exteriores,
así como el gobernador del Banco Nacional griego. Un año más tarde la reunión
giró, de nuevo, en torno a la difícil situación que vivían Grecia, Portugal y España.
Al parecer, el por aquel entonces presidente del gobierno español, José Luis
Rodríguez Zapatero, asistió para tranquilizar a los inversores internacionales ante
el vencimiento de grandes cantidades de deuda española.
ALGUNOS ASISTENTES…

Banqueros, políticos, miembros de la realeza, financieros internacionales o dueños


de los principales medios de comunicación son ejemplos de los miembros del club
Bilderberg. Entre ellos están el español Juan Luis Cebrián, presidente ejecutivo del
grupo Prisa, el estadounidense Donald Rumsfeld, antiguo secretario de defensa
de su país,1 el irlandés Peter Sutherland, entre otros cargos presidente de
Goldman Sachs y British Petroleum,9 el estadounidense Paul Wolfowitz, antiguo
presidente del Banco Mundial, o el belga Étienne Davignon, antiguo vicepresidente
de la Comisión Europea y actual presidente del grupo.10 11 12 13 Como
curiosidad, cabe destacar que los anteriormente nombrados Rumsfeld y
Sutherland fueron compañeros en la compañía de energía ABB.

En 2009, entre otros, participaron la reina Sofía,15 Ana Patricia Botín (Banco
Santander), José Manuel Entrecanales (Acciona), Alberto Ruiz-Gallardón y Pedro
Solbes.16 Y, por primera vez, dos periódicos británicos de tirada nacional se
hicieron eco en noticias escuetas de la Conferencia del Grupo Bilderberg. Uno de
ellos fue The Guardian, que envió a uno de sus corresponsales y cuyas crónicas
únicamente fueron publicadas en la edición digital del periódico. Durante seis días,
el periodista documentó cómo fue sometido a diversos seguimientos y finalmente
arrestado por la policía griega.17 Tras esta reciente exposición a la opinión
pública, ahora han publicado en su web una breve referencia a los temas tratados
en los últimos tres años y una lista oficial de participantes.

En 2010, tuvo lugar el 3 de junio en el Hotel Dolce.19 20 Asistieron, entre otros, la


reina de España y Zapatero, en calidad de presidente del gobierno. Ella acude
desde hace años de oyente y él ha sido invitado a jornadas donde se debaten
temas económicos y políticos, pero nunca se han hecho públicas las conclusiones
de las mismas.21 La reina y el presidente coincidieron con Bill Gates, fundador y
presidente de Microsoft.

http://darkrisk.com/?p=362
2. PENSIONES VITALICIAS: EL EFECTO GERTRUDIS

Dado que la esperanza de vida al nacer se ha ido incrementando prácticamente


en todas las latitudes, con mayor frecuencia la gente del común se pregunta si los
ahorros acumulados durante su vida laboral activa le resultaran suficientes para
vivir confortablemente hasta la fecha de su defunción. La respuesta, en principio,
dependerá del régimen pensional adoptado. Si se tratara del régimen privado,
basado en cuentas individuales, la respuesta se fundamentará en cómo
incrementar los retornos esperados de su portafolio de ahorros. Ello ha llevado,
especialmente en América Latina, a moverse institucionalmente hacia los
“portafolios generacionales” (multifondos). Sin embargo, las tendencias seculares
del capital (con retornos históricos decrecientes) también indican la sabiduría de
incrementar el volumen de los ahorros voluntarios, complementando los “ahorros
obligatorios”. Si se tratara del régimen público, donde se “prometen” determinadas
tasas de reemplazo (=beneficios pensionales/contribuciones) sin atención a esa
mayor longevidad, la respuesta está en cómo enfrentar los mayores déficits
fiscales que está causando lo que denominaremos el “efecto Gertrudis”. Hacemos
alusión al legendario caso de Gertrudis Janeway, quien falleció en 2003 en los
Estados Unidos, tras haber disfrutado de una pensión que estuvo “viva” durante la
módica suma de 106 años: Gertrudis disfrutó la herencia de dicha pensión durante
76 años y su marido la había disfrutado durante los restantes 30 años.

http://anif.co/sites/default/files/uploads/Ago2-11.pdf
3. BIEN DE GIFFEN

Un Bien de Giffen es un producto que posee una curva de demanda con pendiente
positiva. Esto significa que a medida que el precio del bien aumenta, los
consumidores desearán adquirir una mayor cantidad de dicho bien, y cuando el
precio de dichos bienes comience a descender, querrán adquirir una cantidad
cada vez menor del mismo. Se puede discutir la existencia de estos bienes en el
mundo real, pero hay un modelo económico que explica como una cosa así puede
existir. Estos bienes reciben su nombre de Robert Giffen, al que atribuye esta idea
Alfred Marshall en su libro Principles of Economics.

Para la mayoría de los productos, la elasticidad en el precio de la demanda es


negativa. En otras palabras, precio y demanda se mueven en dirección contraria;
si el precio sube, la cantidad demandada baja, y a la inversa. Los bienes de Giffen
son una excepción a esto. Su elasticidad en el precio de la demanda es positiva.
Cuando el precio sube, la demanda aumenta, y a la inversa. Para ser un
verdadero bien de Giffen, el precio debe ser lo único que cambie para obtener una
variación en la cantidad demandada, quedando los bienes de lujo al margen. El
ejemplo clásico de Marshall es el bien inferior de los alimentos básicos, cuya
demanda viene definida por la pobreza, que no permite a sus consumidores
consumir comida de mejor calidad. Según aumenta el precio de los alimentos
básicos, los consumidores no se pueden permitir adquirir otros tipos de alimentos,
por lo que tienen que aumentar su consumo de alimentos básicos.

http://es.wikipedia.org/wiki/Bien_de_Giffen
4. COEFICIENTE LEGAL DE CAJA

En general, las autoridades monetarias exigen a las entidades de crédito el


mantenimiento de depósitos en cuentas del Banco Central. Estos depósitos se
denominan reservas “mínimas” u “obligatorias”, por lo que el coeficiente legal de
caja se define como la proporción de los depósitos y otras formas de captación de
los recursos ajenos, que las diversas entidades crediticias están obligadas a
mantener en forma de depósitos en el banco emisor.

Es un instrumento de política monetaria que permite al Banco Central de un país


poder controlar la liquidez de la economía, a través de los cambios ejercidos en el
nivel o cuantía del coeficiente. Así, una variación del coeficiente de caja podría
servir para modificar la oferta monetaria, ya que cambia el multiplicador monetario.
Si aumenta el coeficiente legal de caja, las entidades bancarias concederán
menos créditos ante la necesidad de mantener un mayor volumen de reservas.

http://www.expansion.com/diccionario-economico/coeficiente-legal-de-caja.html
5. CONDICIÓN DE SAMUELSON

Por Condición de Samuelson (o Condición Samuelson-Mishi o Condición de


Lindahl-Bowen y Samuelson o, incluso, Condición de eficiencia de Bowen-Lindahl-
Samuelson1 ) se entiende -en el contexto de la Economía del bienestar- la
relación óptima de producción y distribución entre bienes privados y bienes
públicos (entendidos como aquellos proveídos por la autoridad publica). Cuando
esta relación se satisface, la condición implica que subsecuentes substituciones
de bienes públicos por privados (o viceversa) resultarían en una disminución de la
utilidadcomún o social o general

a condición fue propuesta por Samuelson en su influyente “Teoría del gasto


público”.2 Se puede expresar así:

\sum_{i=1}^n MRS_i = MRT

http://sistemasuco.blogspot.com/2013/03/5-condicion-de-samuelson.html
6. CONFERENCIA DE GÉNOVA

En abril de 1922, se reunieron en esta conferencia 34 países en búsqueda de


acuerdos para la reconstrucción del comercio y el sistema financiero europeo.

Fue la primera conferencia tras la I guerra mundial en la que la URSS y Alemania


tomaron parte. La Rusia soviética, pese a negarse a pagar la deuda internacional
de la Rusia zarista, expresó su deseo de debatir la cuestión en una reunión
internacional. Este fue el primer intento de la URSS de ser admitida en el concierto
europeo de naciones.

Las naciones acreedoras demandaron a las autoridades soviéticas el


reconocimiento de la deuda e indemnizaciones por las propiedades confiscadas.
El representante soviético, Georgi Chicherin, ofreció reconocer la deuda a cambio
de la cancelación de la deuda rusa de guerra, compensaciones por los daños
infligidos por las tropas de la Entente en su intervención durante la guerra civil
rusa y créditos para el gobierno soviético. Las diferencias entre los aliados y la
desconfianza hacia la URSS, reafirmada tras el anuncio del Tratado de Rapallo
entre Alemania y la URSS, hicieron imposible cualquier tipo de acuerdo.

http://www.historiasiglo20.org/GLOS/confgenova.htm
7. CURVA DE PHILLIPS

En Macroeconomía, la curva de Phillips representa una curva empírica de


pendiente negativa que relaciona la inflación y el desempleo.

En 1959, el economista neozelandés, William Phillips, publicó un artículo titulado


"La relación entre el desempleo y la tasa de variación de los salarios monetarios
en , 1861-1957" en el que establecía que existía una correlación negativa entre la
tasa de desempleo y la inflación, de manera que cuando el desempleo era bajo, la
inflación tendía a ser alta y al contrario que en los periodos en que el desempleo
era alto, la inflación tendía a ser baja.1

Al colocar en un eje de coordenadas, en abscisas la tasa de desempleo y en el de


las ordenadas la tasa de inflación, Phillips obtuvo una curva con pendiente
negativa.

La curva de Phillips relaciona la inflación con el desempleo y sugiere que una


política dirigida a la estabilidad de precios promueve el desempleo. Por tanto,
cierto nivel de inflación es necesario a fin de minimizar éste.

A pesar de que esta teoría fue utilizada en muchos países para mantener el
desempleo en cifras bajas mientras se toleraba una inflación alta, la experiencia
ha demostrado que un país puede tener simultaneamente inflación y desempleo
elevados, fenómeno conocido como estanflación, promovido por perturbaciones
en la oferta agregada, como ocurrió en la crisis del petróleo de 1973.

Esta curva describe acertadamente la experiencia de los EE. UU. en los años
1960 donde la política de control de la inflación originó una contracción en la
economía, incrementando el desempleo. Sin embargo, esta curva no resulta
aplicable al fenómeno que experimentó dicho país en los años 1970, de
estanflación, donde surgió una alta inflación junto con un estancamiento
económico.

http://sistemasuco.blogspot.com/2013/03/7curva-de-phillips.html
8. DINERO FIDUCIARIO

Una de las monedas fiduciarias de cobre de 8 reales acuñadas por José María
Morelos, las cuales serían cambiadas por otras del mismo valor facial pero de
plata tras la consumación de laIndependencia de México. México logró
independizarse de España pero las monedas emitidas por el insurgente nunca
fueron cambiadas a quienes las tenían en su poder.

Billete fiduciario que emitió el general golpistaAbel Ortiz Argumedo para


"respaldar" los fondos con los que exaccionó a los industriales del henequén
durante su breve mandato, en 1915, parte de los cuales se llevó con él en su
huida del Estado de Yucatán.

El dinero llamado fiduciario es el que se basa en la fe o confianza de la


comunidad, es decir, que no se respalda por metales preciosos ni nada que no
sea una promesa de pago por parte de la entidad emisora. Es el modelo monetario
que manejamos actualmente en el mundo, y es el deldólar estadounidense, el
euro y todas las otras monedas de reserva.1 Esta tendencia comenzó con el Nixon
Shock de 1971 (aunque es original del siglo XI en China, y responsable de la
expansión de las dinastías Yuan y Ming2 ), que terminó con el sistema de respaldo
en metales preciosos del dólar norteamericano, iniciándose también con ello la
fluctuación de las divisas, que basan su valor en relación al valor de las demás, y
con ello el altamente voluble y lucrativo mercado de divisas, que mueve alrededor
de 3 billones de dólares al día.

Las monedas y billetes fiduciarios no basan su valor en la existencia de una


contrapartida en oro, plata o cualquier otro metal noble o valores, ni en su valor
intrínseco, sino simplemente en su declaración como dinero por el Estado y
también en el crédito y la confianza (la fe en su futura aceptación) que inspira. Sin
esta declaración, la moneda no tendría ningún valor: el dinero fiduciario sería
entonces tan poco valioso como el pedazo de papel en el que está impreso.

Un billete actual es una clara representación de dinero fiduciario, por cuanto


objetivamente considerado carece de valor. Su valoración viene dada por la
autoridad monetaria que lo emitió, que goza de confianza entre los sujetos que la
aceptan.

http://sistemasuco.blogspot.com/2013/03/9-dinero-fiduciario.html
9. ECUACIÓN DE CAMBRIDGE

La ecuación de Cambridge se basa en la asunción que la cantidad de circulante


depende en la demanda de dinero en lugar de la oferta de dinero. Adicionalmente
asume que el dinero actúa como un medio de atesoramiento o conservación de
valor y su movimiento depende de la conveniencia de mantener dinero en efectivo.
Todo eso enfatiza la cantidad de dinero que los individuos (incluyendo las
empresas) demandan a fin de mantener sus actividades económicas. En la
versión "clásica" de Irving Fisher el dinero se mueve a una tasa fija y sólo sirve
como un medio de cambio.

Los economistas asociados con la Universidad de Cambridge, incluyendo


Marshall, Arthur Pigou y John Maynard Keynes (antes que este desarrollara su
propia escuela) contribuyeron a una teoría cuantitativa del dinero que prestó más
atención a la demanda que la versión clásica, orientada a la oferta. Los
economistas de Cambridge sostuvieron que una cierta parte o fracción del
circulante no será utilizado para transacciones, sino que se mantendrá o
acumulara para la comodidad y la seguridad de tener “efectivo en caja”. Esta
porción del efectivo se representa normalmente como k, y se entiende como esa
fracción de los ingresos nominales que iguala el circulante al dinero demandado:

M^{\textit{d}}=\textit{k} \cdot P\cdot Y

http://sistemasuco.blogspot.com/2013/03/10-ecuacion-de-cambridge.html
10. EFECTO DUNNING-KRUGER

El efecto Dunning-Kruger es un fenómeno psicológico según el cual las personas


con escaso conocimiento tienden sistemáticamente a pensar que saben mucho
más de lo que saben y a considerarse más inteligentes que otras personas más
preparadas, debido a que su propia incompetencia les dificulta reconocer sus
errores y evaluar la competencia de los demás.

El fenómeno fue demostrado en una serie de experimentos realizados por Justin


Kruger y David Dunning, de la Universidad de Cornell (Nueva York, EE. UU.). Sus
resultados fueron publicados en el Journal of Personality and Social Psychology
de diciembre de 1999.1

Kruger y Dunning investigaron cierto número de estudios previos que tendían a


sugerir que en diversas habilidades como la comprensión lectora, conducción de
vehículos de motor, y juegos como el ajedrez o el tenis, “la ignorancia
frecuentemente proporciona más confianza que el conocimiento” (como dijo
Charles Darwin). Su hipótesis es que, en una habilidad típica que los humanos
poseen en mayor o menor grado:

Los individuos incompetentes tienden a sobreestimar su propia habilidad.

Los individuos incompetentes son incapaces de reconocer la habilidad de otros.

Los individuos incompetentes son incapaces de reconocer su extrema


insuficiencia.

Si pueden ser entrenados para mejorar sustancialmente su propio nivel de


habilidad, estos individuos pueden reconocer y aceptar su falta de habilidades
previa.

http://sistemasuco.blogspot.com/2013/03/10-ecuacion-de-cambridge.html
11. EFICIENCIA PARETO

La eficiencia de Pareto, también conocido como óptimo de Pareto u optimalidad de


Pareto, es un concepto de la economía que tiene aplicaciones en ingeniería y
diferentes ciencias sociales. El término recibe su nombre a partir del economista
italiano Vilfredo Pareto, quien utilizó este concepto en sus estudios sobre
eficiencia económica y distribución de la renta.

Dada una asignación inicial de bienes entre un conjunto de individuos, un cambio


hacia una nueva asignación que al menos mejora la situación de un individuo sin
hacer que empeore la situación de los demás se denomina mejora de Pareto. Una
asignación se define como "pareto-eficiente" o "pareto-óptima" cuando no pueden
lograrse nuevas mejoras de Pareto.

La eficiencia de Pareto es una noción mínima de la eficiencia y no necesariamente


da por resultado una distribución socialmente deseable de los recursos. No se
pronuncia sobre la igualdad, o sobre el bienestar del conjunto de la sociedad

http://sistemasuco.blogspot.com/2013/03/11-eficiencia-pareto.html
12.ESTERILIZACIÓN (EN ECONOMÍA O MACROECONOMÍA)

En macroeconomía se entiende por esterilización al conjunto de operaciones de


mercado abierto realizadas por el banco central de un país, cuyo objetivo es
neutralizar los impactos asociados a los movimientos internacionales de divisas
sobre la oferta monetaria.1

Las esterilizaciones más comunes se utilizan en el contexto de un banco central


que lleva a cabo acciones para protegerse de los posibles efectos perjudiciales en
la entrada de flujos de capital, como la apreciación de la moneda, la pérdida de
competitividad en las exportaciones y la inflación. De manera más general puede
referirse a cualquier forma de política monetaria que procura dejar la oferta de
dinero doméstica inalterada ante choques u otros cambios, incluyendo salidas de
capital.

http://sistemasuco.blogspot.com/2013/03/12esterilizacion-en-economia-o.html
13. FALACIA DE REIFICACIÓN

Se llama falacia de reificación a la tendencia a convertir entidades abstractas de


difícil cuantificación y de determinación de sus cualidades en entidades lógicas
ajustadas a un determinado esquema conceptual, por ejemplo "la inteligencia" o
"el universo". Esta cosificación se ha dado en muchos ámbitos de la ciencia.1

Por ejemplo, el enunciado "Mi fe es firme como una roca" no supone que se la
trate como tal. Sin embargo, expresa reificación si se la considera algo distinto del
mundo mental. La fe, distinta de la creencia, es más cosa que esta última.

http://sistemasuco.blogspot.com/2013/03/13-falacia-de-reificacion.html
14. FALACIA PATÉTICA

La falacia patética o falacia antropomórfica es la descripción de objetos


inanimados de la naturaleza de manera que se les dota con sentimientos,
pensamientos y sensaciones humanas. Es un caso especial de la falacia de
reificación. La palabra "patética" aquí se entiende como empatía y no es
peyorativa. El término se origina en la crítica literaria pero su uso se ha extendido

El término fue acuñado por John Ruskin en Modern Painters (1856), en el que
Ruskin escribió que la misión de la falacia patética era la de "significar cualquier
descripción de objetos naturales inanimados que les atribuya capacidades,
sensaciones y emociones humanas."

En el sentido estricto de Ruskin, la falacia patética es un fallo artístico, puesto que


él creía que el valor central del arte, literario o visual, debería ser su
representación veraz del mundo tal como aparece ante nuestros sentidos, y no
como aparece en nuestras reflexiones imaginativas e imaginarias sobre él.

Los críticos posteriores a Ruskin generalmente no lo secundaron en considerar a


la falacia patética como fallo artístico, asumiendo en cambio que la atribución de
sentimientos y rasgos humanizantes a la naturaleza es una manera centralmente
humana de entender el mundo, y que efectivamente tiene un papel útil e
importante en el arte y la literatura. De hecho, rechazar el uso de la falacia patética
significaría desechar la mayor parte de la poesía romántica y de muchas de las
imágenes más memorables de Shakespeare. Sin embargo, para los críticos
literarios es útil tener un término específico para describir tendencias
antropomorfas en el arte y la literatura, por lo que la frase se utiliza actualmente en
un sentido neutral y despojada de prejuicios.

La falacia patética no es una falacia lógica puesto que no implica un error en el


razonamiento. Como figura retórica, tiene una cierta semejanza a la
personificación, aunque es menos formal.

http://sistemasuco.blogspot.com/2013/03/14-falacia-patetica.html
15. HIPOTECA INVERSA

La hipoteca inversa esta destinada a las personas mayores con una vivienda en
propiedad y que quieran disfrutar de una cantidad de dinero mensual adicional a
su pensión. El banco tasa la vivienda y en función de su valor y de los intereses
pactados y de los años del solicitante aplica la fórmula para saber que cuota
mensual va a recibir su propietario. La hipoteca inversa se puede realizar durante
unos años pactados o hasta el fallecimiento del propietario. Ahora bien, si se
realiza sobre unos años pactados, el solicitante no pierde la propiedad de la
vivienda al finalizar estos años, solo que a partir de los mismos el banco no
seguirá abonándole cantidades.

Después del fallecimiento del propietario los herederos tienen la opción de adquirir
la vivienda pagando la deuda con el banco.

La Hipoteca inversa parece una opción muy interesante para solucionar el


problema de la jubilación. Es una forma de aprovecharnos de lo que nos costó
conseguir una vivienda para disfrutarlo en vida. Es decir, transformar el valor de
nuestra casa en dinero sin necesidad de abandonarla. Aunque debemos tener en
cuenta que sería aconsejable tener un consenso familiar con los hijos antes de
contratarla

http://sistemasuco.blogspot.com/2013/03/15-hipoteca-inversa.html
16. HIPÓTESIS DE LOS TRES SECTORES

La Hipótesis de los tres sectores es una teoría económica que divide las
economías en tres sectores de actividad: la extracción de materias primas
(primario), la manufactura (secundario), y los servicios (terciario). Fue desarrollada
por Colin Clark y Jean Fourastié.

De acuerdo con esta teoría el principal objeto de la actividad de una economía


varía desde el primario, a través del secundario hasta llegar al sector terciario.
Fourastié vio el concepto como esencialmente positivo, y en la La Gran Esperanza
del Siglo XX escribe sobre el aumento de la calidad de vida, la seguridad social, el
florecimiento de la educación y la cultura, una mayor cualificación, la
humanización del trabajo y el evitar el desempleo.

Los países con una baja renta per cápita están en un estadio temprano de
desarrollo; la mayor parte de sus ingresos nacionales son a base de la producción
del sector primario. Los países con un estadio más avanzado de desarrollo, con
ingresos nacionales intermedios, obtienen sus ingresos del sector secundario
principalmente. En los países altamente desarrollados con elevados ingresos, el
sector terciario domina las salidas totales de la economía.

http://sistemasuco.blogspot.com/2013/03/16hipotesis-de-los-tres-sectores.html
17. ILUSIÓN MONETARIA

Una ilusión monetaria es una ilusión que sucede a causa de una mala utilización
de los indicadores económicos, que no tienen en cuenta por lo general variaciones
en el índice de precios, en los tipos de cambio o en la inflación entre otras.

Un ejemplo es el efecto irreal de elevado incremento anual de los salarios (los


precios de los recursos productivos en general), debido a una muy alta inflación.
Es irreal porque, una vez restada la inflación, el incremento real de los salarios
puede ser muy reducido o incluso negativo. A la inversa, si sólo se toma en cuenta
el índice de inflación, ignorando el aumento nominal de los salarios (el cual puede
ser superior en términos reales), también se está frente a una ilusión monetaria.

En resumen, es la impresión que tienen los individuos y empresas de haber


aumentado o disminuido su capacidad de compra al haber sufrido un cambio sus
rentas nominales o los precios, cuando de hecho no toman en cuenta la inflación
(que produce una pérdida del poder adquisitivo real) y/o los incrementos salariales
(que pueden superar en términos reales a la inflación).

http://sistemasuco.blogspot.com/2013/03/17ilusion-monetaria.html
18. LEY DE CAMPBELL

La ley de Campbell es un adagio desarrollado por el sociólogo Donald T. Campbell


en 1976 durante su investigación en el campo de la metodología de la
investigación.

Esta ley sugiere que cuanto más utilizado sea un determinado indicador social
cuantitativo para la toma de decisiones, mayor será la presión a la que estará
sujeto y más probable será que corrompa y distorsione los procesos sociales que,
se supone, debería monitorear.

http://sistemasuco.blogspot.com/2013/03/18-ley-de-campbell.html
19. LEY DE ENGEL : UNA CONSECUENCIA DE ESTA LEY ES LA PÉRDIDA
DE IMPORTANCIA DE LA AGRICULTURA A MEDIDA QUE UN PAÍS SE
ENRIQUECE

La ley de Engel es una observación empírica, realizada por primera vez por el
estadístico alemán Ernst Engel (1821-1896), que observó que, con un conjunto
dado de gustos y preferencias, si aumentan los ingresos, la proporción del ingreso
gastado en alimentos disminuye, aún cuando es probable que el gasto real en
alimentación aumente en términos absolutos1 . En otras palabras, la elasticidad
ingreso de la demanda de alimentos es menor que 1.

La ley de Engel no implica que el gasto de alimentos se mantenga sin cambios a


medida que aumenta la renta, sino que sugiere que los consumidores aumentan
sus gastos de alimentos, en proporción, menos de lo que aumentan sus ingresos.2

Una consecuencia de esta ley es la pérdida de importancia de la agricultura a


medida que un país se enriquece, cuando la demanda de los productos
alimenticios no crece al mismo ritmo que la renta nacional.3 Una aplicación
estadística muy controvertida del porcentaje de gasto dedicado a alimentos, es
tratarlo como un reflejo del nivel de vida de un país. Si la proporción del
"Coeficiente de Engel" es alto, significa que un país es pobre. Por el contrario, si
este coeficiente es bajo, denota que nos encontramos ante un país rico.

http://sistemasuco.blogspot.com/2013/03/19-ley-de-engel-una-consecuencia-
de.html
20. LEY DE GOODHART

La ley de Goodhart enuncia, aunque puede expresarse con diversas


formulaciones, que cuando un indicador socioeconómico u otra medida sustituta
se convierte en el objetivo de políticas socioeconómicas, pierde el contenido
informativo que podía cualificarla para jugar ese papel. Su promotor, Charles
Goodhart, que fuera asesor del Banco de Inglaterra y profesor emérito de
laLondon School of Economics, dio nombre a la ley.

Goodhart enunció en un artículo la ley por primera vez en 1975, ganando


popularidad con el intento por parte del gobierno del Reino Unido de Margaret
Thatcher de dirigir la política monetaria en base a los objetivos de la masa
monetaria en sentido amplio y estrecho, aunque tal idea fuese mucho más
antigua. Ideas muy similares se conocen con otros nombres, e.g., la ley de
Campbell(1976) y la crítica de Lucas (1976). La ley está implícita en la idea
económica de las expectativas racionales. A pesar de que se originó en el
contexto de las respuestas del mercado, la ley tiene implicaciones profundas para
la selección de los objetivos de alto nivel en las organizaciones.1

Se ha enunciado que la estabilidad de la recuperación económica que tuvo lugar


en el Reino Unido bajo el gobierno de John Major a finales de 1992 y en adelante
fue el resultado de la ley de Goodhart inversa: si la credibilidad económica de un
gobierno está suficientemente dañada, entonces sus objetivos se ven como
irrelevantes y los indicadores económicos recuperan su fiabilidad como guía para
las políticas económica

http://sistemasuco.blogspot.com/2013/03/20-ley-de-goodhart.html
21. LEY DE GRESHAM: CUANDO EN UN PAÍS CIRCULAN
SIMULTÁNEAMENTE DOS TIPOS DE MONEDAS DE CURSO LEGAL, LA
MONEDA MALA SIEMPRE EXPULSA DEL MERCADO A LA BUENA.
(AHORRO)

La ley de Gresham establece que la moneda “mala” reemplaza a la moneda


“buena”. Este fenómeno fue descrito por Thomas Gresham alrededor del año
1558, pero sólo se postuló como ley en el siglo XIX.

Ésta originalmente se refería a monedas con contenido de metal precioso, de


manera que la moneda buena era aquella que tenía un metal más preciado, por
ejemplo oro o plata, mientras la moneda mala era aquella que tenía metales
menos preciados, como níquel o cobre.

Según esta ley, las personas tienden a utilizar la moneda mala en los pagos
internos, mientras que guardan la buena, la funden o la usan en pagos
internacionales. Esto sucede por ejemplo si tienes una moneda de oro y otra
moneda de níquel. Según la ley de Gresham, vas a preferir hacer tus pagos con la
moneda de níquel para deshacerte de ella y vas a guardar la moneda de oro en tu
casa porque sabes que tiene un gran valor. Cuando todos hacen lo mismo, las
monedas de níquel se vuelven el medio de cambio predominante, mientras las
monedas de oro se quedan guardadas y salen de circulación.

Inicialmente esta ley fue formulada para monedas con contenido de metal
precioso, pero aún hoy tiene validez. La ley funciona cuando hablamos de
monedas de diferentes naciones, unas con mayor valor que otras: por ejemplo, si
una moneda nacional pierde parte de su valor, por ejemplo por una alta inflación, y
existe una moneda extranjera que tiene mayor credibilidad, las personas preferirán
guardar la moneda extranjera o utilizarla para transacciones internacionales.

Mientras tanto la moneda nacional, que tiene un valor mucho menor, va a ser el
principal circulante en la economía doméstica.

http://sgratnegartner.blogspot.com/
22. LEY DE HIERRO DE LOS SALARIOS

Término inventado por el socialista alemán Ferdi-nand Lassalle (1862) para


referirse a la inexorable tendencia de los salarios, bajo el régimen capitalista
imperante en aquella época, de fluctuar alrededor del salario de subsistencia (el
salario que les permite a los trabajadores cubrir sus necesidades más elementales
o primarias y asegurar su reproducción). Sólo temporalmente los salarios podrán
elevarse por encima después de haber descendido la tasa de natalidad, como
consecuencia de un descenso anterior de los salarios por debajo del mínimo de
subsistencia; dicha alza temporal de los salarios provocará un incremento de la
natalidad y de la oferta de trabajo, y los salarios volverán a recuperar nuevamente
su nivel natural o de subsistencia. La ley de hierro de los salarios (también
denominada ley de bronce) o teoría de los salarios de subsistencia está detrás,
aunque con diferente alcance, de los estudios sobre el funcionamiento del
capitalismo de David Ricardo, Malthus y Marx.

http://www.economia48.com/spa/d/ley-de-hierro-de-los-salarios/ley-de-hierro-de-
los-salarios.htm
23. LEY DE HOTELLING

La ley de Hotelling es la observación, en economía, de que en multitud de


mercados es racional para los productores hacer sus productos tan similar como
sea posible. A este fenómeno también se le conoce como el principio de mínima
diferenciación, e igualmente como el "modelo de ciudad lineal" de Hotelling. La
observación fue hecha por Harold Hotelling (1895–1973) en su artículo
"Estabilidad en Competencia" publicado en la revista científica Economic Journal
en 1929.

El fenómeno opuesto es la diferenciación de producto, que suele considerarse


como una ventaja en los negocios si se ejecuta adecuadamente.

EJEMPLO

Supongamos que hay dos tiendas competidoras ubicadas a lo largo de una calle
que corre de norte a sur. Cada dueño de la tienda quiere localizar su tienda de
manera que se maximice su propia cuota de mercado recurriendo al mayor
número de clientes. En este ejemplo, la tienda en sí es el "producto" y considera
que ambos productos son iguales en calidad y precio. No hay diferencia en el
producto a los clientes. Los clientes están repartidos por igual a lo largo de la calle.
Por lo tanto, considerando los precios son exactamente los mismos, cada cliente
siempre elegirá la tienda más cercana porque no hay ninguna diferencia en el
producto.

http://bilderber.blogspot.com/2013/03/ley-de-hotelling.html
24. LA LEY DE KING –

economista inglés del siglo XVII-- nos dice que los precios agrarios reaccionan de
forma exagerada a las disminuciones y aumentos de la oferta, es decir una
disminución de la producción genera un incremento extremo de los precios, y
viceversa. Por esta razón, desde la época de los faraones egipcios, la intervención
pública ha constituido estocs para permitir la regulación de los mercados y evitar
así las alzas o las caídas desmesuradas de los precios. En las últimas décadas, y
bajo las tendencias liberalizadoras, se olvidó la importancia de disponer de
existencias. A mitad de la actual década, los almacenes estaban casi vacíos de
forma que la ley de King ha actuado con todo su rigor. Hoy, la UE reconoce
disponer de cereales para menos de 30 días.

http://blocs.mesvilaweb.cat/media/TGV5ZXMgcXVlIHJpZ2VuIGxvcyBwcmVjaW9zI
GFncmFyaW9z_98740_1_6773_1.pdf
25. LEY DE LA CONTROVERSIA DE BENFORD

La ley de la controversia de Benford es una ley sociológica aplicable


especialmente a las discusiones de los foros de Internet, aunque puede aplicarse
en general a todo tipo de discusiones entre humanos.

En su formulación original, tal y como la enunció el autor de ciencia ficción


Gregory Benford en la novela Cronopaisaje (1980), establece que:

"La pasión asociada a una discusión es inversamente proporcional a la cantidad


de información real disponible."
26. LEY DE LOS GRANDES NÚMEROS

En la teoría de la probabilidad, bajo el término genérico de La ley de los grandes


números se engloban varios teoremas que escriben el comportamiento del
promedio de una sucesión de variables aleatorias conforme aumenta su número
de ensayos.

Estos teoremas prescriben condiciones suficientes para garantizar que dicho


promedio converge (en los sentidos explicados abajo) al promedio de las
esperanzas de las variables aleatorias involucradas. Las distintas formulaciones
de la ley de los grandes números (y sus condiciones asociadas) especifican la
convergencia de formas distintas.

Las leyes de los grandes números explican por qué el promedio de una muestra al
azar de una población de gran tamaño tenderá a estar cerca de la media de la
población completa.

Cuando las variables aleatorias tienen una varianza finita, el teorema central del
límite extiende nuestro entendimiento de la convergencia de su promedio
describiendo la distribución de diferencias estandarizadas entre la suma de
variables aleatorias y el valor esperado de esta suma: sin importar la distribución
subyacente de las variables aleatorias, esta diferencia estandarizada converge a
una variable aleatoria normal estándar.

La frase "ley de los grandes números" es también usada ocasionalmente para


referirse al principio de que la probabilidad de que cualquier evento posible
(incluso uno improbable) ocurra al menos una vez en una serie, incrementa con el
número de eventos en la serie. Por ejemplo, la probabilidad de que un individuo
gane la lotería es bastante baja; sin embargo, la probabilidad de que alguien gane
la lotería es bastante alta, suponiendo que suficientes personas comprasen
boletos de lotería.

http://es.wikipedia.org/wiki/Ley_de_los_grandes_n%C3%BAmeros
27. RENDIMIENTOS DECRECIENTES

Situación en la cual los aumentos en la cantidad de un factor productivo variable


se combinan con cantidades fijas de otros factores, y como resultado, el
rendimiento marginal, primero, y más tarde el rendimiento medio del factor variable
disminuyen a partir de un momento dado. Diminishing returns.

La ley de rendimientos decrecientes expresa la relación existente entre un


"entrante" (factor de producción) y un "saliente" (cantidad correspondiente de
bienes

obtenidos por el factor de producción utilizado). La experiencia demuestra que si


se utilizan conjuntamente dos factores de producción, la cantidad de un factor no
puede ser constantemente acrecentada (la cantidad del otro factor es fija) sin que
disminuya el volumen de la producción suplementaria realizada.

Esta disminución de los rendimientos suplementarios se debe a que las


cantidades acrecentadas del factor variable están combinadas con una parte
progresivamente reducida de recursos fijos. Esta ley la presentó por vez primera
Turgot (1727-1781), quien señaló que la semilla arrojada en una tierra fértil, pero
baldía, sólo podía lograr Una producción insignificante. La labranza permite
aumentar considerablemente la producción; una segunda y después una tercera
labranza hicieron progresar todavía con más rapidez la producción de la cosecha.
No obstante, a partir de cierto punto, el trabajo suplementario de la tierra logra tan
solo aumentar la producción en las proporciones mas débiles, debido a que el
agotamiento del suelo impide aumentar la cosecha, cualesquiera sean las
unidades adicionales de trabajo aplicadas.

3 Esta ley fue utilizada por el economista inglés David Ricardo (1 772-1823) para
explicar el aumento de los precios agrícolas en Gran Bretaña en 1814. El
desarrollo de los cultivos alcanzó tal nivel, que se hizo observable la ley de
rendimientos decrecientes. El aporte de nuevas unidades de factor de producción
significó cosechas proporcio-nalmente menos amplias, a la vez que aumentaban
sensiblemente los costos de producción y, en consecuencia, los precios. Otro
economista británico, John Stuart Mili (1806-1873), intentó demostrar que esa ley
no se aplicaba a la industria.

En realidad, actualmente se reconoce que toda actividad económica atraviesa


primero una fase de rendimientos crecientes y de costos decrecientes para
alcanzar un óptimo a partir del cual se registra una menor eficacia de las unidades
adicionales de factor de producción. Sin duda alguna, este movimiento se produce
más en la agricultura que en la industria, ya que la reproducción de factores
productivos no está totalmente dominada por el hombre.
Para que se cumpla, esta ley exige que se satisfagan múltiples condiciones. Es
importante que los factores de producción utilizados sean homogéneos (por lo
tanto, fraccionables). También es necesario que, en ciertos casos, se pueda
añadir simultáneamente dos factores de producción (lo que, en el marco estricto
de la ley, es una deformación), ya que si se contrata personal suplementario
(mano de obra) se debe dotar a los recién incorporados del instrumental necesario
(capital técnico) sin el cual este aporte de mano de obra carece de sentido.

Por otro lado, esta ley sólo se aplica a una situación técnica estable (en la
industria moderna se observa que cuando la ley es descubierta, aparecen otros
medios técnicos y permiten de nuevo alcanzar rendimientos crecientes).

http://www.economia48.com/spa/d/rendimientos-decrecientes/rendimientos-
decrecientes.htm
28.LEY DE OKUN

La llamada ley de Okun, es una observación empírica que señala la correlación


existente entre los cambios en la tasa de desempleo y el crecimiento de una
economía. Fue propuesta en 1962 por el economista norteamericano Arthur Okun
en el artículo "Potential GNP: Its Measurement and Significance".1

Okun señaló que para mantener los niveles de empleo, una economía necesitaba
crecer cada año entre el 2,6% y el 3%. Cualquier crecimiento inferior significaba
un incremento del desempleo debido a la mejora de la productividad. La ley de
Okun señala además, que una vez mantenido el nivel de empleo gracias al
crecimiento del 3%, para conseguir disminuir el desempleo es necesario crecer
dos puntos porcentuales por cada punto de desempleo que se quiera reducir.2

Esta "ley", es solo una observación empírica, ya que no es posible demostrarla.


Okun se basó en datos de los años 1950 en Estados Unidos, y además avisó que
esta teoría sólo es efectiva cuando la tasa de desempleo está entre el 3 y 7'5 %. A
pesar de eso, la regla se ha cumplido aproximadamente en la mayoría de casos, y
por eso es considerada como una observación muy fiable en macroeconomía. El
porcentaje exacto depende del período y país considerados, aunque lo normal es
que esté alrededor del 2,5 % (entre 2 y 3). El hecho de que el coeficiente no sea
predecible hace que algunos consideren a esta regla poco apropiada.

http://sistemasuco.blogspot.com/2013/03/28ley-de-okun.html
29.LEY DE PARKINSON

La Ley de Parkinson afirma que "el trabajo se expande hasta llenar el tiempo
disponible para que se termine". En una burocracia, esto es motivado por dos
factores:

'un funcionario quiere multiplicar sus subordinados, no rivales', y

'los funcionarios se crean trabajo unos a otros.'

Fue enunciada por primera vez por Cyril Northcote Parkinson en 1957 en el libro
del mismo nombre como resultado de su extensa experiencia en el Servicio Civil
Británico (British Civil Service). Las observaciones científicas que contribuyeron al
desarrollo de la ley incluyeron notar que a medida que el Imperio Británico
declinaba en importancia, el número de empleados en la Oficina Colonial (Colonial
Office) aumentaba.

Parkinson también notó que el total de aquellos empleados dentro de una


burocracia aumenta en un 5-7 por ciento por año "independientemente de las
variaciones en la cantidad de trabajo (si las hay) que debe hacerse".

Para muchos, cuando más tiempo se tenga para hacer algo, más divagará la
mente y más problemas serán planteados

http://sistemasuco.blogspot.com/2013/03/29ley-de-parkinson.html
30.LEY DE PETTY-CLARK

La ley de Petty es una ley económica que propone que, en la medida que el
progreso técnico reduce los costos de transporte, el mercado para bienes no
agrícolas se ampliara, lo que induce la reasignación de la mano de obra de la
agricultura a actividades no agrícolas.1

Posteriormente Colin Clark2 concluyó que una de las formas principales en que se
manifiesta el progreso económico es en la continua transferencia de trabajo del
sector primario al secundario, y de éste al terciario. Posteriormente se abandonó
esa terminología para sustituirlo por la de sector agrícola, industrial y de
servicios.(ver Hipótesis de los tres sectores)

Ambas propuestas son generalmente consideradas en conjunto (Ley de Petty y


Clark) y se entienden como implicando que el mecanismo propuesto da origen a
transformaciones estructurales que debilitan a las fuerzas de dispersión social
originada en las economías básicamente agrícolas y fortalecen las fuerzas de
aglomeración generados por los trabajadores no agrícolas. Por lo tanto, una
disminución sustancial en los costos de transporte da lugar a la aglomeración de
las actividades no agrícolas y la expansión de centros urbanos y, eventualmente,
del sector de servicios.3

Esta ley establece que el progreso de una economía se aprecia fundamentalmente


a través del creciente volumen de la población que se dedica a los servicios, dado
que la importancia relativa de los sectores económicos se va desplazando desde
el sector primario, a través del industrial, hacia el terciario, el cual llega a ser el
punto clave del crecimiento4

Ambas leyes presuponen o implican la validez de la Ley de Engel, de acuerdo a la


cual el desarrollo técnico conduce a la disminución de los costos de transportes, lo
que tiene el efecto de aumentar los ingresos (o poder de compra de los mismos)
de la población en general, lo que conduce a un incremento en la demanda de
productos que no son básicos o esenciales para vivir (verEconomía de
subsistencia), es decir, un desplazamiento de la demanda de productos agrícolas
a los no agrícolas (o manufacturados en su sentido original: aquellos producto del
trabajo

http://sistemasuco.blogspot.com/2013/03/30ley-de-petty-clark.html
31.LEY DE SAY

la ley de Say es un principio atribuido a Jean-Baptiste Say que indica (1803) que
no puede haber demanda sin oferta. Cuantos más bienes (para los que hay
demanda) se produzcan, más bienes existirán (oferta) que constituirán una
demanda para otros bienes, es decir, la oferta crea su propia demanda. Expresado
en palabras del mismo Say

“[...] Un producto terminado ofrece, desde ese preciso instante, un mercado a


otros productos por todo el monto de su valor. En efecto, cuando un productor
termina un producto, su mayor deseo es venderlo, para que el valor de dicho
producto no permanezca improductivo en sus manos. Pero no está menos
apresurado por deshacerse del dinero que le provee su venta, para que el valor
del dinero tampoco quede improductivo. Ahora bien, no podemos deshacernos del
dinero más que motivados por el deseo de comprar un producto cualquiera.
Vemos entonces que el simple hecho de la formación de un producto abre, desde
ese preciso instante, un mercado a otros productos.(J.B. Say, 18031 )

La ley de Say también es conocida como la «ley de los mercados». Ésta propone
que la producción total de bienes en una sociedad o sistema económico
determinado implica una demanda agregada que es suficiente para comprar todos
los bienes que se ofrecen. Es decir, hay una continuidad en el dinero circulante.
Una implicación importante de lo anterior es que una recesión no ocurre por un
fallo en la demanda o por carencia de dinero: dado que el precio de venta de cada
producto genera ingresos o beneficios suficientes para comprar otro producto
sigue que nunca se puede dar una insuficiencia de la demanda puesto que
aunque las personas ahorren en el presente deberán usar (ya sea consumir o
invertir) ese dinero más adelante. Incluso en el caso en que muchos guarden su
dinero, la situación no se modificará en lo substancial: los precios bajarán y se
adaptarán al menor flujo de ingresos, sin afectar mayormente el empleo de
recursos económicos (de la misma manera que un aumento del circulante no
incrementa la demanda, una reducción del circulante no la disminuye; sólo los
precios cambian).

Otra implicación de importancia es que la prosperidad debe ser aumentada


estimulando la producción, no el consumo. En las palabras de James Mill: “Si el
poder de compra de una nación se mide exactamente por el producto anual ...
cuanto más se incremente el producto anual, más - por ese mismo acto - se
expandirá el mercado nacional, el poder de compra y las compras reales de la
nación

http://sistemasuco.blogspot.com/2013/03/31ley-de-say.html
32.LEY DE TURGOT

La ley de Turgot o de los rendimientos decrecientes expresa que, dados los


factores de producción tierra, capital y trabajo (todo lo que necesitamos para la
agricultura), al mantenerse fijo el factor tierra, el aumento de los otros capital y
trabajo producirá un incremento de rendimiento limitado, llegando a un punto en
que, de aplicarse en mayor cantidad, el rendimiento decrecerá en lugar de
aumentar.

Veamos un ejemplo: si tenemos una hectárea de cultivo de maíz y aplicamos 200


kg de fertilizante y la mano de obra de dos personas, obtendremos un rendimiento
determinado. Si a esta misma superficie le aplicamos 2.000 kg de fertilizante y el
trabajo de veinte personas, el rendimiento no aumentará proporcionalmente, y lo
más probable es que disminuya y económicamente será desastroso.

http://sistemasuco.blogspot.com/2013/03/32ley-de-turgot.html
33.LEY DE UN PRECIO

Una relación de equilibrio que se impone mediante arbitraje. La ley establece que
los precios del mismo producto ofrecidos en dos mercados diferentes nunca deben
diferir en más que el coste de transportar el producto entre los dos mercados
(después de ajustar el tipo de cambio entre los dos mercados, si los precios están
determinados en distintas divisas). Las infracciones de la ley de un precio pueden
suponer barreras al comercio.

http://sistemasuco.blogspot.com/2013/03/33ley-de-un-precio.html
34.LEY DE WALRAS

La ley de Walras es, en la teoría del equilibrio general, un principio que establece
que la suma de la demanda (o demanda agregada (D) debe igualar a, tomando en
consideración los precios(p), la suma de la oferta (S), Es decir Σ pD - Σ pS = 0.1

De lo anterior siguen dos corolarios:

1: Si, en un sistema de n mercados, hay equilibrio en n − 1 mercados, el n-ésimo


mercado estará en equilibrio.

2: Si, en un sistema de mercados hay un exceso de demanda positivo en algún


sector, entonces debe haber el menos algún otro en el cual hay un exceso de
demanda negativo.

http://sistemasuco.blogspot.com/2013/03/34ley-de-walras.html
35.MODELO MUNDELL-FLEMING

El modelo Mundell-Fleming es un modelo económico desarrollado por Robert


Mundell y Marcus Fleming. El modelo es una extensión del modelo IS-LM.
Mientras que el tradicional modelo IS-LM está basado en una economía de
autarquía (o una economía cerrada), el modelo de Mundell-Fleming trata de
describir una economía abierta.

Típicamente, el modelo Mundell-Fleming describe la relación entre el tipo de


cambio nominal y la producción de una economía (a diferencia de la relación entre
la tasa de interés y el output en el modelo IS-LM) en el corto plazo. El modelo
Mundell-Fleming se ha utilizado para argumentar que una economía no puede
simultáneamente mantener un tipo de cambio fijo, libre movimiento de capitales y
una política monetaria autónoma. Este principio frecuentemente se llama "La
trinidad imposible", "La trinidad irreconciliable", o el "triángulo de la imposibilidad".

http://sistemasuco.blogspot.com/2013/03/35modelo-mundell-fleming.html
36.NAVAJA DE OCKHAM

La navaja de Ockham (a veces escrito Occam u Ockam), principio de economía o


principio de parsimonia (lex parsimoniae), es un principio metodológico y filosófico
atribuido a Guillermo de Ockham (1280-1349), según el cual, «en igualdad de
condiciones, la explicación más sencilla suele ser la correcta». Esto implica que,
cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias,
la teoría más simple tiene más probabilidades de ser correcta que la compleja.1

En ciencia, este principio se utiliza como una regla general para guiar a los
científicos en el desarrollo de modelos teóricos, más que como un árbitro entre los
modelos publicados. En el método científico, la navaja de Ockham no se considera
un principio irrefutable, y ciertamente no es un resultado científico. «La explicación
más simple y suficiente es la más probable, mas no necesariamente la
verdadera», según el principio de Ockham. En ciertas ocasiones, la opción
compleja puede ser la correcta. Su sentido es que en condiciones idénticas, sean
preferidas las teorías más simples. Otra cuestión diferente serán las evidencias
que apoyen la teoría. Así pues, de acuerdo con este principio, una teoría más
simple pero menos correcta no debería ser preferida a una teoría más compleja
pero más correcta.

Qué ha de tenerse en cuenta para medir la simplicidad, sin embargo, es una


cuestión ambigua.1 Quizás la propuesta más conocida sea la que sugirió el mismo
Ockham: cuando dos teorías tienen las mismas consecuencias, debe preferirse la
teoría que postule la menor cantidad de (tipos de) entidades.2 Otra manera de
medir la simplicidad, sin embargo, podría ser por el número deaxiomas de la
teoría.1

La navaja de Ockham se aplica a casos prácticos y específicos, englobándose


dentro de los principios fundamentales de la filosofía de la escuela nominalista que
opera sobre conceptos individualizados y casos empíricos.

http://sistemasuco.blogspot.com/2013/03/36navaja-de-ockham.html
37. NET 30

Net 30 es una forma de comercio que específica que el pago de un crédito se


espera recibir en su totalidad 30 días luego de que los bienes fueran entregados.
Los términos Net 30 son usualmente asociados con un crédito por pago temprano:
por ejemplo, la notación "2% 10, net 30" indica que un descuento del 2% es dado
si el pago es recibido durante los 10 días de la entrega de la mercadería, y que el
pago completo es esperado dentro de 30 días.

Por ejemplo, si se escribe "$1000 2/10 net 30" en una factura, el comprador puede
tomar un descuento del 2% ($1000 x .02 = $20) y hacer un pago de $980 dentro
de 10 días, ...

Si se ofrece un término de pago de "2/10, net 30", el costo aproximado de no


tomar el descuento y pagar al fin del período del crédito sería de la siguiente
manera:

[2/(100-2)]*[365/(30-10)]=0.3724 en porcentaje = 37.24%

http://es.wikipedia.org/wiki/Net_30
38.PRINCIPIO DE DILBERT

El principio de Dilbert alude a una observación satírica de los años 1990 que
afirma que las compañías tienden a ascender sistemáticamente a sus empleados
menos competentes a cargos directivos para limitar así la cantidad de daño que
son capaces de provocar.

El término fue acuñado por Scott Adams, un graduado MBA de la Universidad de


Berkeley y creador de la tira cómica Dilbert. Adams explicó el principio en un
artículo del Wall Street Journal de 1996. Adams amplió entonces su estudio del
principio de Dilbert en un libro satírico de 1996 con el mismo título, que es lectura
obligatoria o recomendada en algunos cursos de gestión y MBA Se han vendido
más de un millón de ejemplares del libro y permaneció 43 semanas en la lista de
los más vendidos del New York Times.

Aunque los académicos pueden rechazar la veracidad del principio, señalando que
contradice las técnicas de gestión de recursos humanos tradicionales, se originó
como una forma de sátira sobre un asunto muy discutido en el mundo empresarial.
Desde entonces la teoría ha cosechado cierto apoyo de negocios y gestores. Por
ejemplo, Guy Kawasaki de Apple Computer dijo: «Hay dos tipos de compañías, las
que reconocen que son exactamente como la de Dilbert y las que también lo son
pero aún no lo saben.»

El principio de Dilbert es una variación del principio de Peter, que trata sobre la
práctica de las organizaciones jerárquicas de usar los ascensos como forma de
recompensar a los empleados que demuestran ser competentes en sus puestos
actuales, afirmando que, debido a esta práctica, un empleado competente
terminará siendo ascendido a un puesto en el que será incompetente, y donde
permanecerá. El principio de Dilbert, de otra forma, indica que los empleados
incompetentes son ascendidos intencionadamente para evitar que produzcan
daños (como reducir la calidad del producto, ofender a los clientes, a los
empleados, etcétera). El Principio de Dilbert utiliza la idea de que en determinadas
situaciones, los puestos superiores de una organización pueden tener muy poca
relevancia en la producción real y que la mayoría del trabajo productivo y real en
una compañía se hace por personas de la parte baja de la escala de poder. Es
también posible ver ambos principios simultáneamente en una misma
organización.

http://sistemasuco.blogspot.com/2013/03/38principio-de-dilbert.html
39.PRINCIPIO DE PETER

El principio de Peter, también conocido como el principio de incompetencia de


Peter,1 está basado en el «estudio de las jerarquías en las organizaciones
modernas», o lo que Laurence J. Peter denomina «hierachiology»
(«jeraquiología»).2 Afirma que las personas que realizan bien su trabajo son
promocionadas a puestos de mayor responsabilidad, hasta que alcanzan su nivel
de incompetencia. Este principio, formulado por el catedrático de ciencias de la
educación de la Universidad del Sur de California en su libro The Peter Principle,
de 1969,2 afirma que:

Según algunas fuentes, el primero en hacer referencia a este concepto fue José
Ortega y Gasset quien en la década de 1910 dio forma al siguiente aforismo:
"Todos los empleados públicos deberían descender a su grado inmediato inferior,
porque han sido ascendidos hasta volverse incompetentes".

Como corolario de su famoso principio, Lawrence J. Peter deduce los dos


siguientes:

Con el tiempo, todo puesto tiende a ser ocupado por un empleado que es
incompetente para desempeñar sus obligaciones.

El trabajo es realizado por aquellos empleados que no han alcanzado todavía su


nivel de incompetencia.

El principio de Peter fue deducido del análisis de cientos de casos de


incompetencia en las organizaciones y da explicación a los casos de acumulación
de personal, según el cual el incremento de personal se hace para poner remedio
a la incompetencia de los superiores jerárquicos y tiene como finalidad última
mejorar la eficiencia de la organización, hasta que el proceso de ascenso eleve a
los recién llegados a sus niveles de incompetencia.

Como última reflexión en su libro, Peter manifiesta su esperanza de que algún


filántropo le facilitará una cátedra de «jeraquiología» en una universidad
importante: «Al haber demostrado, en mis empeños actuales, estar capacitado,
estoy preparado para el puesto».

El principio de Peter forma parte de la llamada «Literatura P», que abarca las
obras de Peter, C. Northcote Parkinson, Potter y Putt,4 y que pretende explicar
cómo funcionan las jerarquías sociales.

http://sistemasuco.blogspot.com/2013/03/39principio-de-peter.html
40.PRINCIPIO DE RAZÓN SUFICIENTE

El principio de razón suficiente es un principio filosófico según el cual todo lo que


ocurre tiene una razón suficiente para ser así y no de otra manera, o en otras
palabras, todo tiene una explicación suficiente.1

El principio de razón suficiente admite diversas formualciones, todas ellas pueden


ser reducidas a alguna de las formas siguientes:

Para toda entidad X, si X existe, entonces hay una explicación suficiente de


porque "X existe".

Para cada evento E, si E ocurre, entonces hay una explicación suficiente por la
cual "E ocurre".

Para cada proposición P, si P es cierta, entonces hay una explicación suficiente de


porqué "P es cierta".

Aquí "explicación suficiente" puede entederse como un conjunto de razones o de


causas, aunque muchos filósofos de los siglos XVII y XVIII no distinguieron entre
estos dos tipos de "explicaciones suficientes". El resultado del principio, sin
embargo, es muy diferente según se interprete una "explicación suficiente" de una
u otra manera.

En la actualidad sigue siendeo una cuestión abierta si el principio de razón


suficiente puede ser considerado un axioma en una construcción lógica como una
teoría matemática o una teoría física, porque los aximas son proposiciones que se
aceptan sin necesidad de tener una justificación dentro del propio sistema.

http://es.wikipedia.org/wiki/Principio_de_raz%C3%B3n_suficiente
41.TEOREMA DE TELARAÑA

En los mercados de libre competencia y especialmente en el mercado agrícola, se


basa el proceso por el que un producto se adapta a una modificacion, en el valor
de alguna variable que alcanza una nueva situación de equilibrio llamado (proceso
de ajuste) que experimentan la exposicion publica que se le hacen a las
mercancias cuando las exigen para la venta. la cantidad de productos que una
empresa este dispuesta a vender durante un tiempo determinado cuando se tiene
la cantidad ofrecida y el precio del producto a esto se le denomina oferta.

un factor importante ademas de la oferta es la demanda quiere decir precio


requerido, con estos dos factores se alcanza a enfatizar el equilibrio. se parte de
un presupuesto donde el analizis predeteremina evaluar el estado de una
empresa frente al mercado en un limite de tiempo, para asi mejorar las ventas en
el mercado según la cantidad que se transforme de mayor a menor ahi se
presenta la cantidad demandada quiere decir la cantidad que se pueda pagar,
para satisfacer una necesidad ala hora de concretar un precio que se establezca
mayor y ala ves convertirlo en negociable absoluto para alcanzar el punto de
equilibrio en el cual costes totales son iguales a los ingresos por lo que no se
obtienen beneficio alguno a pesar de la variabilidad económica denota el punto
de equilibrio nombrado anteriormente.

EJEMPLO:la demanda de helados en un día común y corriente puede ser 40


unidades, pero en día de calor la demanda de helados puede ser 100, esto es
porque hay más personas que desean consumir helados debido al calor, aun
cuando el precio del helado no ha variado. Pero como aumenta la demanda de
helados lo más probable es que este suba su precio.

VENTAJAS: se obtiene una ventaja cuando la cantidad y el precio son buenos


para el cliente así de la misma manera el productor obtiene mas ganancias aun
variando el precio y la cantidad hasta un tiempo determinado.

DESVENTAJAS:cuando se presenta una sobre producción de productos ay


menos ganancias por que el precio baja y se obtiene mayor demanda pero menos
ingresos para el productor ya que en un momento dado en el mercado existen la
misma mercancía donde el precio se modifica,el consumidor se le facilitan mas los
productos ya que hay mas productores del mismo producto donde se presenta la
escasez y ya no ve ingresos así que se retira del mercado.

http://alejitarubio.blogspot.com/
42. TEOREMAS DE INCOMPLETITUD DE GÖDEL

Los teoremas de incompletitud de Gödel son dos célebres teoremas de lógica


matemática demostrados por Kurt Gödel en 1931. Ambos están relacionados con
la existencia de proposiciones indecidibles en ciertas teorías aritméticas.

El primer teorema de incompletitud afirma que, bajo ciertas condiciones, ninguna


teoría matemática formal capaz de describir los números naturales y la aritmética
con suficiente expresividad, es a la vez consistente y completa. Es decir, si los
axiomas de dicha teoría no se contradicen entre sí, entonces existen enunciados
que no pueden probarse ni refutarse (usando sólo las reglas de deducción de
dicha teoría). Las teorías aritméticas para las que el teorema es válido son
básicamente aquellas en las que la deducción de teoremas puede realizarse
mediante un algoritmo (y por tanto el conjunto de axiomas sea recursivamente
enumerable).

La prueba del teorema es totalmente explícita: en ella se construye una fórmula,


denotada habitualmente G en honor a Gödel, para la que dada una demostración
de la misma, puede construirse una refutación, y viceversa. Sin embargo, la
interpretación natural de dicha sentencia en términos de números naturales es
verdadera.1

El segundo teorema de incompletitud es un caso particular del primero: afirma que


una de las sentencias indecidibles de dicha teoría es aquella que "afirma" la
consistencia de la misma. Es decir, que si el sistema en cuestión es consistente,
no es posible probarlo dentro del propio sistema.

Los teoremas de incompletitud de Gödel son uno de los grandes avances de la


lógica matemática, y supusieron —según la mayoría de la comunidad
matemática— una respuesta negativa al segundo problema de Hilbert.

http://sistemasuco.blogspot.com/2013/03/42-teoremas-de-incompletitud-de-
godel.html
43.TEOREMAS FUNDAMENTALES DE LA ECONOMÍA DEL BIENESTAR

El economista británico (de origen ruso) Abba Lerner (1903–1982), pionero de la


entonces revolucionaria corriente keynesiana, fue el primero en enunciar en los
años 30 los dos teoremas fundamentales de la economía del bienestar (más tarde
otros importantes economistas como Kenneth Arrow o Gerard Debreu
desarrollarían el formalismo adecuado).

El primer teorema establece que en una economía de competencia perfecta


(aquella que sólo se rige por la ley de la oferta y la demanda), los recursos se
distribuyen automáticamente de forma eficiente Pareto.

Este enunciado casi casi se desprende de la misma definición de mercado en


competencia perfecta y de la ley de la oferta y la demanda. Ésta dice, por ejemplo,
que la cantidad de manzanas que los agricultores están dispuestos a ofrecer a un
precio depende precisamente de ese precio. Normalmente muchos agricultores
estarían dispuestos a vender manzanas a 100€, pero muy pocos lo harían a 1
céntimo. Por otra parte, la cantidad de manzanas que los compradores están
dispuestos a adquirir a un precio concreto depende igualmente de ese precio.
Muchos no daríamos más de 1€ por una manzana, pero pocos llegarían a 100€.

Esta competición entre lo que unos están dispuestos a ofrecer y lo que otros están
dispuestos a demandar (pagar) hace que se negocie hasta llegar a un precio de
equilibrio, que es el precio al que se venderán las manzanas, y cuya oferta
satisface toda la demanda.

En este punto de equilibrio, cualquier variación del precio que beneficie a unos,
forzosamente perjudica a otros. Por ejemplo, si se sube el precio de equilibrio para
que los agricultores reciban más beneficios por manzana, no habrá suficiente
gente dispuesta a comprarlas. Algunos agricultores astutos lograrán sacar tajada,
pero los más rezagados se quedarán sin vender. Si se baja el precio ocurrirá lo
contrario: no habrá suficientes agricultores dispuestos a vender y algunos
compradores se quedarán sin manzanas (o con menos de las que querían
comprar).

Por lo tanto, en el precio de equilibrio no hay decisión beneficiosa que no


perjudique a algunos. El precio de equilibrio constituye, pues, una distribución de
manzanas eficiente Pareto, ya que cualquier decisión que se tome, aunque
beneficie a algunos, va a perjudicar a otros.

El segundo teorema de la economía del bienestar establece que cualquier


distribución de la riqueza que sea eficiente Pareto se puede sostener en un
mercado de competencia perfecta.
Por ejemplo, si yo reparto 1 millón de € entre todos vosotros lectores, como ahora
tendréis cada uno más dinero, seguro que estaréis dispuestos a pagar un poco
más por las manzanas. Habrá más gente dispuesta a pagar 100€ por una
manzana que antes, por el simple hecho que ahora tenéis más dinero para
comprar. Entonces, lo que va a ocurrir es que el precio de equilibrio que había
antes va aumentar. Puesto que los agricultores siguen teniendo las mismas
manzanas para ofrecer (el año que viene ya considerarán aumentar la cosecha),
el precio al que habrá que vender las manzanas será más alto para satisfacer la
mayor demanda.

Fijaos que el reparto de 1 millón de € que yo he hecho es eficiente Pareto (si quito
un € a alguno de vosotros y se lo doy a otro, alguno sale perjudicado), y aún así, el
precio de las manzanas llega a un nuevo equilibrio. Ese precio de equilibrio es
diferente del anterior, si. Pero es un precio de equilibrio. Si hago el reparto de 1
millón de € de forma distinta, puede que el precio de equilibrio también varíe. Lo
que cuenta aquí es que, cualquiera que sea la distribución de dinero que yo haga
(siempre que sea eficiente Pareto) el mercado la va a absorber y a asimilar en una
nueva posición de equilibrio.

En términos más prácticos y realistas, lo que viene a decirnos este segundo


teorema es que, si existe en el mercado competencia perfecta, cualquier
distribución de riqueza que haga el Estado (obviamente el Estado hace eso
recaudando impuestos y luego invirtiendo ese dinero en carreteras, hospitales,
universidades, pensiones, etc. es decir, redistribuye la riqueza sacada de unos
para otros) y siempre que sea eficiente Pareto, el mercado sostiene esa
distribución (es decir encuentra unos nuevos precios de equilibrio cuya oferta
satisface toda la demanda).

En otras palabras, el segundo teorema nos dice que el Estado sólo debe
preocuparse de cómo redistribuye la riqueza, ya que, una vez distribuida, los
mercados solitos se encargan de llegar al punto de equilibrio adecuado a esa
distribución. Evidentemente, distribuciones distintas llevarán a equilibrios de
mercado distintos, pero al menos el Estado no tiene que preocuparse de
intervenir en los mercados, ya que ellos solos se apañan para llegar al equilibrio.
Lo único que debe hacer es distribuir la riqueza de la forma que crea más
conveniente. El resto se hace solo.

Sin embargo, la realidad es bien distinta, y ha demostrado en más de una ocasión


que algunos mercados por sí solos no consiguen ni de largo ese equilibrio
mencionado, viéndose el Estado obligado a intervenir. ¿Por qué? Porque este
teorema sólo es cierto si los mercados están en competencia perfecta. Aunque
algunos mercados si se acercan mucho a ese estado de competencia perfecta (y
por tanto los teoremas del bienestar son aplicables y la ley de la oferta y la
demanda se satisface en buena aproximación), algunos otros están muy alejados
de esta supuesta idealidad.

En la siguiente entrada, explicaremos con más detalle el concepto de competencia


perfecta y comentaremos por qué algunos mercados se alejan de este modelo y
en qué partes concretamente se alejan de sus supuestos.

http://laeconomiapublica.wordpress.com/2011/10/09/bienestar-economico-ii-
teoremas-fundamentales-del-bienestar/
44.TEORÍA DE LAS EXPECTATIVAS RACIONALES

La teoría de las expectativas racionales es una hipótesis de la ciencia económica


que establece que las predicciones sobre el valor futuro de variables
económicamente relevantes hechas por los agentes no son sistemáticamente
erróneas y que los errores son aleatorios (ruido blanco). Una formulación
alternativa es que las expectativas racionales son "expectativas modelo-
consistentes", es decir que, en un modelo, los agentes asumen que las
predicciones de éste son válidas. La hipótesis de las expectativas racionales es
usada en muchos modelos macroeconómicos contemporáneos, en teoría de
juegos y en aplicaciones de la teoría de la elección racional.

Dado que la mayoría de los modelos macroeconómicos actuales estudian


decisiones a lo largo de varios períodos, las expectativas de trabajadores,
consumidores y empresas sobre las condiciones económicas futuras son parte
esencial del modelo. Ha habido mucha discusión sobre cómo modelar estas
expectativas y las predicciones macroeconómicas de un modelo pueden diferir
dependiendo de los supuestos sobre las expectativas (véase el teorema de la
telaraña). Asumir expectativas racionales es asumir que las expectativas de los
agentes económicos pueden ser individualmente erróneas, pero correctas en
promedio. En otras palabras, aunque el futuro no es totalmente predecible, se
supone que las expectativas de los agentes no están sistemáticamente sesgadas
y que éstos usan toda la información relevante para formar sus expectativas sobre
variables económicas.

Esta forma de modelar las expectativas fue originalmente propuesta por John F.
Muth en 1961 y se hizo popular cuando fue usada por Robert Lucas y otros.
Modelar las expectativas es crucial en todos los modelos que estudian cómo un
gran número de individuos, firmas y organizaciones realizan elecciones en
situaciones de incertidumbre. A modo de ejemplo, las negociaciones entre
trabajadores y empresas estarán influidas por el nivel esperado de inflación y el
valor de una acción dependerá del ingreso futuro esperado de dicha acción

http://sistemasuco.blogspot.com/2013/03/44teoria-de-las-expectativas-
racionales.html
45.TEORÍA DEL EQUILIBRIO GENERAL

La teoría del equilibrio general es una rama de la teoría microeconómica. La


misma trata de dar una explicación global del comportamiento de la producción, el
consumo y la formación de precios en una economía con uno o varios mercados.

El equilibrio general intenta dar una explicación de lo particular a lo general


(bottom-up), comenzando con los mercados y agentes individuales, mientras que
la macroeconomía, según lo expresado por los economistas keynesianos, emplea
una visión de lo general a lo particular (top-down), donde el análisis comienza por
los componentes más destacados. Sin embargo, muchos modelos
macroeconómicos tienen un 'mercado de bienes' y estudian, por ejemplo, su
interacción con el mercado financiero. Los modelos generales del equilibrio suelen
incluir diversos mercados de bienes. Los modelos generales modernos del
equilibrio son complejos y requieren computadoras para ayudar a encontrar
soluciones numéricas.

En un sistema de mercado, los precios y la producción de todo los bienes,


incluyendo el precio del dinero y el interés, están relacionados. Un cambio en el
precio de un bien, por ejemplo el pan, puede afectar otro precio (por ejemplo, los
salarios de los panaderos). Si el gusto del pan depende de quién sea el panadero,
la demanda del pan puede verse afectada por un cambio en los salarios de los
panaderos y, por consiguiente, en el precio del pan. En teoría, calcular el precio de
equilibrio de un solo bien requiere un análisis que considere todos los millones de
diversos bienes que están disponibles.

http://sistemasuco.blogspot.com/2013/03/45teoria-del-equilibrio-general.html
46. TEORÍA DEL SEGUNDO MEJOR

La Teoría del Segundo Mejor, Teoría Del Segundo óptimo, Teorema de la


segunda opción (Theory of the Second best en inglés) es uno de los teoremas
económicos más importantes avanzados en la segunda mitad del siglo XX. El
teorema fue introducido formalmente por Richard Lipsey y Kelvin Lancaster en su
"The General Theory of the Second Best" en 1956.

"El teorema establece que si una de las condiciones necesarias para lograr un
Óptimo de Pareto no es obtenible, las otras, a pesar de ser teóricamente posibles,
dejan de ser deseables. En otras palabras, si una de las condiciones para lograr el
óptimo de Pareto no es lograble, sólo es posible conseguir un óptimo
abandonando las otras condiciones. El óptimo así logrado puede ser llamado el
Segundo Mejor porque se logra sujeto a un constreñimiento que, por definición,
previene el logro de un óptimo de Pareto." (Lipsey y Lancaster, op. cit)

Alternativamente, se ha sugerido que “En breve, esta teoría establece, sobre las
bases de un argumento matemático, que en una situación concreta caracterizada
por cualquier desviación del optimo perfecto, medidas parciales que eliminan solo
algunas de esas desviaciones del arreglo optimo pueden resultar en una
disminución neta del bienestar social” (nótese que esto no implica que la
aproximación a las reformas no deba ser parte por parte o paulatina. “Propondría,
en su lugar, que uno debe evitar aproximaciones poco a poco a mejoras que no
han sido avaladas por un análisis cuidadoso y el uso extensivo del sentido común.
Se podría esperar plausiblemente que muchas políticas produzcan una mejora a
pesar que las cosas en otras partes no estén organizadas óptimamente").

O, en las palabras de Robert J. Bloomfield (profesor de economía y administración


en la Universidad de Cornell) el teorema "prohíbe" interpretaciones y/o propuestas
simplistas: "La teoría general del segundo mejor dice lo siguiente: si usted tiene
varias imperfecciones en el mercado, eliminar sólo una de ellos no mejora
necesariamente la eficiencia asignativa. Ahora bien, la teoría no es muy popular, a
pesar de que es ampliamente reconocida como verdadera, porque no permite
argumentos simples. Una regulación que se ocupa de un problema evidente, como
la contaminación, no es necesariamente positiva, porque podría tener
consecuencias no intencionales que sean peores que el problema que se está
tratando de arreglar. De la misma manera, la eliminación de una regulación que
obstaculice la libertad no es necesariamente positiva, ya que puede ser esencial
para contrarrestar otra imperfección, conducuiendo a un resultado peor con menos
libertad"

http://es.cyclopaedia.net/wiki/Teoria-del-Segundo-Mejor
47. TEORÍA GENERAL DEL EMPLEO, EL INTERÉS Y EL DINERO

La Teoría general del empleo, el interés y el dinero es considerada la obra más


destacada del economista británico John Maynard Keynes.

En gran medida, creó la terminología de la moderna macroeconomía. Se publicó


en febrero del 1936, en una época marcada por la Gran Depresión. El libro
desencadenó una revolución en el pensamiento económico, comúnmente
denominada la "Revolución Keynesiana", en la forma en la que los economistas
pensaban en el fenómeno económico, y especialmente en la consideración de la
viabilidad y conveniencia de la gestión del sector público del nivel agregado de la
demanda en la economía.

En el libro de Keynes, «Ensayos en Persuasión», el autor recordó sus frustrados


intentos por influir en la opinión pública durante la Gran Depresión, a comienzos
de los años treinta. La "Teoría General", representó los intentos de Keynes para
cambiar la opinión general en el pensamiento que existía en el entorno
macroeconómico.

http://sistemasuco.blogspot.com/2013/03/47-teoria-general-del-empleo-el-
interes.html
48. TERCERA VÍA

Tercera Vía es el nombre que se ha dado a una variedad de aproximaciones


teóricas y propuestas políticas que, en general, sugieren un sistema económico de
economía mixta, y el centrismo o reformismo como ideología. En la práctica
política, estas posiciones rechazan la validez absoluta de las filosofías tanto del
laissez faire como del mercado totalmente controlado del marxismo-leninismo
(consultar "Condición de Samuelson"); promueven la profundización de la
democracia, y enfatizan el desarrollo tecnológico, la educación, y los mecanismos
de competencia regulada, a fin de obtener progreso, desarrollo económico,
desarrollo social, y otros objetivos socio-económico-políticos igualmente
importantes. Las filosofías de la tercera vía han sido a menudo descritas como una
síntesis del capitalismo y el socialismo por algunos de sus proponentes.

Dado que el término no se define específicamente, se puede hablar de "terceras


vías" en el sentido amplio o en el más estricto de la palabra. La diferencia estaría
en que el sentido amplio incorporaría cualquier proposición que buscara obtener o
mantener una posición equidistante tanto del comunismo como del capitalismo, a
través ya sea de una economía mixta o políticas que rechacen esas percepciones
extremas. Sin embargo, no todas esas alternativas pueden ser catalogadas como
progresistas sino también algunas deben ser definidas como fuerte o abiertamente
reaccionarias.

Consecuentemente, el análisis político moderno hace notar que la tercera vía no


debe confundirse con el concepto tercera posición o tercer posicionismo, que es
como se autodefinen movimientos diversos que son considerados de orientación
fascista o neofascista, opuestos tanto al capitalismo como al socialismo y que no
admiten su posicionamiento en el espectro político izquierda-derecha. La tercera
vía se suele calificar, por el contrario, de centrista. No obstante, algunos críticos de
la tercera vía han utilizado ese paralelismo de terminología.

En la práctica política, los proponentes de la tercera vía en su sentido estricto van


desde muchos que apoyan la socialdemocracia a aquellos que apoyan el
liberalismo progresista; incluiría también aquellos que proponen la Economía
social de mercado, proyecto que busca explícitamente ser un punto medio entre el
liberalismo y la socialdemocracia.

http://sistemasuco.blogspot.com/2013/03/48tercera-via.html
49. TRAMPA DE LA LIQUIDEZ

El término trampa de la liquidez es empleado en la teoría económica para describir


una situación en la que los tipos de interés se encuentran muy bajos, próximos a
cero. La preferencia por la liquidez tiende a hacerse absoluta, es decir las
personas prefieren conservar todo el dinero antes que invertirlo, por lo que las
medidas tendientes a aumentar la masa monetaria no tienen ningún efecto para
dinamizar la economía y las autoridades monetarias no pueden hacer nada para
llevar la tasa de interés a un nivel adecuado.1

En este caso, se ha sostenido, el aumento de dinero en circulación no tiene ningún


efecto sobre la producción o los precios, en contraste con la sugerencia derivada
de la teoría cuantitativa del dinero, que sostiene que los precios y la producción
son, en términos generales, proporcionales a la cantidad de dinero. La teoría de la
trampa de la liquidez es originalmente una propuesta keynesiana,3 4 que incluye
como solución ante una situación semejante la realización de las inversiones
públicas necesarias para conseguir el pleno empleo, aprovechando que el
gobierno puede en un momento así tomar dinero prestado a tasas de interés
ínfimas.5

Lo anterior ha sido descrito como significando que “La curva de preferencia de


liquidez se hace infinitamente elástica, debido a la esperanza unánime, por parte
de los inversionistas, de que el tipo de interés no puede bajar más, el precio de los
títulos valores son tan altos que nadie confía en que sigan subiendo. Como
consecuencia de ello, todo el mundo prefiere poseer dinero ocioso y la política
monetaria no sirve para nada.”,6 o “Esto se produce cuando los tipos de interés
son tan bajos que los agentes sólo pueden esperar que suban en el futuro. El bajo
nivel de los tipos hace que retener activos líquidos en vez de invertirlos tenga un
bajo coste. Por otra parte, no sería cauto invertir en bonos, pues su precio es ya
muy elevado debido a la caída de tipos, y la previsible subida de éstos en el futuro
haría perder valor a la cartera del inversor. Como consecuencia, las inyecciones
de liquidez se atesoran en vez de destinarse a la inversión productiva, siendo por
completo inefectivas

http://sistemasuco.blogspot.com/2013/03/49trampa-de-la-liquidez.html
50. JEAN FOURASTIÉ

Jean Fourastié (1 de abril de 1907, en Saint-Benin-d'Azy , Nièvre - 25 de julio de


1990, en Douelle , Lot ) fue un francés economista , notable por haber acuñado la
expresión Gloriosas Trente("el glorioso treinta [años] ") para describir el período de
prosperidad que experimentó Francia desde el final de la Segunda Guerra Mundial
hasta la crisis del petróleo de 1973 (1945-1973)

Fourastié recibió su educación primaria y secundaria en el privado católico Colegio


de Juilly 1914 a 1925. En 1930, se graduó en la prestigiosa École Centrale de
París , y en 1933 recibió el título de la École des Sciences Politiques Libre . En
1936, recibió un doctorado en derecho grado. Después de sus estudios, ingresó
en la administración pública como funcionario de impuestos hasta 1951.

En 1941, dirigió el seguro de programa en el Conservatoire National des Arts et


Métiers (CNAM).

Después de la guerra, comenzó su carrera como asesor económico, con una


fuerte liberal, pro-europeo postura, mientras que al mismo tiempo, convirtiéndose
en uno de los más reconocidos expertos académicos en la sociedad industrial.

Fue profesor del Conservatorio Nacional de Artes y Oficios y del Instituto de


Estudios Políticos de París, director de Estudios políticos de la Escuela Práctica de
Altos Estudios, consejero económico y técnico de la Comisaría General del Plan
(1946-1967), miembro del Comité Nacional de Precios (1949-1967) y miembro del
Instituto de Francia (Academia de Ciencias Morales y Políticas), elegido en 1968.

http://bilderber.blogspot.com/2013/03/jean-fourastie.html

You might also like