Professional Documents
Culture Documents
en medicina
Bases teóricas y prácticas
Elementos de Bioestadística
La investigación
en medicina
Bases teóricas y prácticas
Elementos de Bioestadística
ISBN 978-950-9250-25-3
ISBN 978-950-9250-25-3
Impreso en la Argentina
Printed in Argentina
Capítulo 8. Metaanálisis
Luis Alcocer 91
Capítulo 9. ¿Qué es la cardiología basada en la evidencia?
Salim Yusuf y Rafael Díaz 105
[ 9 ]
IV. Análisis del Conocimiento y Herramientas para su Validación 121
[ 10 ]
Prólogo
Investigar y comunicar: habilidades esenciales del médico
[ 11 ]
existente sobre un determinado problema como paso previo a la elaboración de nuevas hipó-
tesis a ser investigadas. La lectura crítica de las publicaciones científicas, requisito impres-
cindible para quien intenta realizar un nuevo aporte al conocimiento, es motivo de especial
análisis.
Uno de los rasgos fundamentales de este libro reside en la completa y ágil descripción de
los elementos básicos de la bioestadística, cuyo dominio resulta imprescindible ya que en sus
técnicas se basa cualquier análisis serio de los hallazgos de la investigación científica.
En lo que respecta a la comunicación de los resultados, se describe la manera de encarar
la redacción de un manuscrito para ser publicado así como las expectativas de los editores de
las revistas en las que se realizará esa publicación. También se analizan los procedimientos
apropiados para redactar una monografía o enfrentar la nada sencilla tarea de planear, llevar
a cabo y presentar una tesis de doctorado. No se descuida tampoco el importante aspecto
de la exposición oral de los resultados y se describe el aporte que a su difusión realizan las
nuevas tecnologías de la comunicación y la información.
Especial atención se presta en el libro a la naturaleza de los distintos tipos de ensayos clí-
nicos así como a las técnicas empleadas para su evaluación individual y de conjunto, como es
el caso de los meta-análisis, atendiendo también a la presentación del importante movimiento
conceptual generado en la medicina contemporánea a partir de los resultados de los estudios
clínicos: la medicina basada en la evidencia.
El hecho de que la actividad del médico esté íntimamente ligada a su vocación de com-
partir con los demás sus conocimientos, hace que la labor docente resulte inseparable de la
tarea asistencial o de investigación. Por este motivo, se ha incluido un capítulo dedicado al
estudio de las técnicas que permiten realizar investigaciones en el campo de la educación
médica y compartirlas con los colegas luego de someter a un análisis riguroso los resultados
obtenidos mediante las innovaciones educativas. Asimismo, puesto que la interacción del
médico con la sociedad ha adquirido una creciente importancia en las últimas décadas, se jus-
tifica ampliamente la inclusión de un capítulo sobre el periodismo médico ya que esa relación
con la prensa masiva no hará sino incrementarse en el futuro, cimentando así un vínculo que
es hoy esencial para la medicina en sus actividades de prevención, diagnóstico, tratamiento y
rehabilitación.
En síntesis, es esta una obra oportuna que brindará una eficaz compañía a los profesio-
nales que aspiren a realizar tareas de investigación y comunicar sus resultados de manera
apropiada. Por la trascendencia de los temas que aborda así como por los conocimientos y
experiencia de quienes los desarrollan, este manual sobre la investigación en medicina, está
llamado a convertirse en una herramienta indispensable para los médicos y otros profesio-
nales de la salud que quieran internarse por el apasionante sendero que siempre representa la
búsqueda de nuevos conocimientos.
[ 12 ]
Prefacio
Tu verdad? No, la Verdad,
y ven conmigo a buscarla…
Antonio Machado.
Proverbios y Cantares
[ 13 ]
tación y la solidez de las propuestas que la medicina le ofrece a sus integrantes. Hemos podido
comprobar que, junto con el número, ha aumentado también la complejidad de las preguntas
dirigidas al médico con mayor experiencia. Esto es particularmente evidente cuando las con-
sultas se orientan hacia aspectos particulares como, por ejemplo, la interpretación del diseño
de estudios clínicos de cierta complejidad, las posibilidades y limitaciones de los distintos
modelos de análisis estadístico aplicado, y la lacitud de extender las conclusiones a distintas
poblaciones. Esta mayor necesidad de acceder a los niveles en los que se funda la obtención
del conocimiento en medicina, muy ostensible en los médicos jóvenes, es probablemente un
fenómeno de validez general que abarca a toda la comunidad de los integrantes de las ciencias
médicas. Los grandes avances de la medicina, facilitados por los avances tecnológicos y fun-
dados en importantes desarrollos teóricos, no hacen más que reforzar el interés general por
los aspectos básicos de la investigación médica.
Para el presente texto, los editores han solicitado y han tenido el privilegio de obtener, la
colaboración de un conjunto de personalidades de las ciencias médicas internacionalmente
reconocidas, que han permitido iluminar desde varios ángulos las ilimitadas facetas de ese
todo que es la investigación científica en el campo de la medicina. De ellos es el mérito de la
obra, y a ellos se dirige el agradecimiento de los editores, a quienes por su parte, les ha toca-
do organizar los capítulos de manera de permitir desplegar en forma sucesiva los diferentes
escenarios propuestos por los autores. Llegue también nuestro agradecimiento a los colegas
y amigos que, de una u otra forma, nos ayudaron en la concreción del trabajo, y a los Dres.
Juan Carlos y Sebastián Bagó, cuyo apoyo resultó esencial para su llegada a buen puerto.
Los elementos de bioestadística compilados al final de la obra hallan su justificación en el
deseo de los editores de invitar al lector ajeno a la materia, a transponer los umbrales de una
disciplina tan imprescindible como en general poco familiar para el médico que no ha tenido
un acercamiento previo a sus ideas y métodos.
Los editores esperan que el producto de su trabajo pueda ser de alguna utilidad para
aquellos que se hallan comprometidos con la investigación en medicina, y que la lectura del
libro les proporcione al menos una parte del placer que ellos han tenido en elaborarlo. Y re-
cuerde el lector que para ser exitoso no tiene que hacer cosas extraordinarias, simplemente
hacer cosas ordinarias, pero extraordinariamente bien.
Ricardo J. Esper
Rogelio A. Machado
[ 14 ]
Co-autores
Luis Alcocer
Jefe del Servicio de Cardiología del Hospital General de México. Profesor Titular de Medicina (Cardiología) y del
Curso de Especialización en Cardiología, Facultad de Medicina, Universidad Nacional Autónoma de México.
Investigador Titular de los Hospitales de Referencia e Institutos Nacionales de Salud de México.
Nora Bär
Periodista científica. Editora de la Sección Ciencia y Salud del diario La Nación. Miembro de la Academia Na-
cional de Periodismo.
[ 15 ]
Rafael Díaz
Instituto Cardiovascular de Rosario. ECLA Argentina
Daniel Fernández-Bergés
Doctor en Medicina, Universidad Complutense de Madrid, España. Médico Cardiólogo Universitario, Universi-
dad del Salvador, Buenos Aires, Argentina. Médico Cardiólogo Adjunto, Sección de Cardiología, Departamento
de Medicina Interna, Hospital Don Benito Villanueva, Badajoz, España. Presidente, Comisión de Investigación
de la Sociedad Extremeña de Hipertensión Arterial y Otros Factores de Riesgo Cardiovascular. Miembro, Grupo
Técnico de Cardiopatía Isquémica del Plan Integral de Enfermedades Cardiovasculares de Extremadura.
Enrique Fisman
Profesor de Cardiología, Facultad de Medicina Sackler, Universidad de Tel-Aviv, Tel-Aviv, Israel. Profesor Ho-
norario de Cardiología, Facultad de Medicina, Universidad del Salvador, Buenos Aires, Argentina. Presidente,
Fundación de Investigación en Diabetología Cardiovascular, Holon, Israel. Editor en Jefe, Cardiovascular Dia-
betology, Londres, Gran Bretaña
Rubén F. Iannantuono
Vicepresidente 1º, Comité Independiente de Etica para Ensayos en Farmacología Clínica de la Fundación de
Estudios Farmacológicos y de Medicamentos (FEFyM). Docente Adscripto de Farmacología, Facultad de Medi-
cina, Universidad de Buenos Aires. Ex Subdirector, Carrera de Médico Especialista en Farmacología, Facultad
de Medicina, Universidad de Buenos Aires.
[ 16 ]
Antonio Paragano
Cardiólogo Universitario, Universidad de Buenos Aires. Médico, Internación y Unidad Coronaria, Departa-
mento Cardiovascular, Servicio de Cardiología, Hospital Militar Central, Buenos Aires. Instructor de Residencia
en Cardiología, Departamento Cardiovascular, Servicio de Cardiología, Hospital Militar Central, Buenos Aires.
Miembro, Comité Institucional de Revisión de Ensayos Clínicos (CIREC), Hospital Militar Central, Buenos Aires.
Docente, Carrera de Cardiología, Universidad del Salvador, Buenos Aires. Docente, Facultad de Medicina, Uni-
versidad de Buenos Aires. Miembro Adherente, Sociedad Argentina de Cardiología.
Alexander Tenenbaum
Profesor Asociado de Cardiología, Facultad de Medicina Sackler, Universidad de Tel-Aviv, Tel-Aviv, Israel. Secre-
tario General, Fundación de Investigación en Diabetología Cardiovascular, Holon, Israel. Editor en Jefe, Cardio-
vascular Diabetology, Londres, Gran Bretaña. Director de Investigación, Instituto de Rehabilitación Cardíaca,
Centro Médico Sheba, Tel-Hashomer, Israel.
Andreas Wielgosz
MSc, MD, PhD. Professor of Medicine and Community Medicine & Epidemiology. University of Ottawa, Ontario,
Cánada. Editor-in-Chief, Prevention and Control. Official Journal of the World Heart Federation, Ginebra, Suiza.
Salim Yusuf
Heart and Stroke Foundation of Ontario Research Chair, Ontario, Canada. Senior Scientist of the Canadian
Institute of Health Research. Director of Cardiology and Professor of Medicine, McMaster University, Hamilton
Health Sciences, Hamilton, Canada.
[ 17 ]
I. La Investigación en el campo de la Medicina
El conocimiento
Capítulo 1
Patricio F. Jacovella, Raúl A. Borracci, Rodolfo J. Giuliano
1. El conocimiento
2. La ciencia
[ 21 ]
conceptos y propiedades que convergen en un objeto, y que contiene datos, explicaciones,
principios generales y demostraciones acerca de éste.
Las ciencias pretenden establecer leyes basadas en conceptos generales, en las caracterís-
ticas en común de las cosas y en lo que se repite en los fenómenos.
La filosofía busca conocer los principios más profundos de las cosas, mientras que las
ciencias particulares buscan las causas más próximas.
Se puede concluir entonces que la ciencia es el conjunto unificado de conocimientos e in-
vestigaciones, de carácter objetivo, acerca de las relaciones entre los hechos, que se descubren
gradualmente y que se confirman por métodos de verificación definidos.
3. El conocimiento científico
[ 22 ]
rias entre los hechos. Son proposiciones universales que establecen en qué condiciones sucede
determinado hecho, por medio de ellas se comprenden hechos particulares. También per-
miten adelantarse a los sucesos, predecirlos. Las explicaciones de los hechos son racionales,
obtenidas por medio de la observación y la experimentación.
En síntesis se pude decir que la ciencia busca explicar la realidad mediante leyes que per-
miten predicciones y aplicaciones prácticas mediante tecnología.
El conocimiento científico es un saber objetivo que se estructura en sistemas verificables,
obtenidos mediante métodos específicos (método científico) y comunicados en un lenguaje
propio con reglas precisas.
4. El método científico
[ 23 ]
perimento para probar esa hipótesis. A través de los siglos, muchos experimentos han sido
diseñados para estudiar la naturaleza de la gravedad.
5) Demostración de la hipótesis: refutación de la hipótesis
6) Tesis: conclusiones
Una común percepción sobre la ciencia, aunque errada, es que la ciencia define “la ver-
dad”. La ciencia no define la verdad, más bien define una manera de pensar. Es un proceso
en el cual se usan experimentos para contestar preguntas. A este proceso se lo denomina el
método científico y comprende los pasos citados. 3
A los fines prácticos, en investigación médica se pueden dar diferentes tipos de proble-
mas relacionados: descriptivos, de correlación, de comparación y de explicaciones causa
efecto.
La descripción de un caso o de un cierto número de casos puede ser suficiente motivo
como para presentar o publicar un estudio. Simplemente se presentan las coordenadas de
tiempo y espacio y se describe lo que se hizo.
Los estudios de correlación, como su nombre lo indica, asocian variables como por ejem-
plo la variación del pulso con el aumento de la temperatura corporal. Mediante fórmulas
adecuadas se establece si existe correlación entre las series estudiadas.
En el caso de comparación, se analizan resultados y se comprueba si existen o no diferen-
cias significativas como para inferir discrepancias y similitudes.
Para estos tipos de problemas de investigación, se usa el método estadístico.
En las explicaciones causa efecto, la investigación es más detallada y plantea hipótesis.
En estos casos se pone en práctica el método hipotético deductivo.
6. Teorías e hipótesis
Desde el punto de vista científico, si se acepta que un sistema es un conjunto de partes que
interactúan entre sí, una teoría es un sistema de hipótesis. 2
Hipótesis es un planteamiento o supuesto que debe ser comprobado o refutado siguiendo
las normas establecidas por el método científico Tiene, como condición imprescindible, que
debe ponerse a prueba.
En general, en un trabajo de investigación científica se plantean dos hipótesis mutuamen-
te excluyentes: la primera es llamada hipótesis nula (H0) y la otra usualmente se conoce como
hipótesis alterna (H1). El procesamiento de los datos, según la metodología de investigación
diseñada, mostrará cuál de las dos hipótesis se comprueba como cierta, de manera que sólo
ésta se incorporará al conocimiento que la investigación aporta a la ciencia.1,2,4
[ 24 ]
7. Método hipotético deductivo
[ 25 ]
se elaboran para explicar el movimiento de esas manecillas, y aunque la explicación fuera
verdadera, nunca podría conocerse el mecanismo real por el cual funciona el reloj.
La ciencia, como una explicación finita de la realidad, se asienta en tres principios no
demostrables llamados de inteligibilidad, objetividad y dialéctica. Cuando se hace ciencia
sobre la naturaleza se asume que ésta puede ser entendida, o sea que es inteligible. De todas
formas, la naturaleza podría también tener fenómenos azarosos que la hicieran no entendible.
Por su parte, el postulado de objetividad indica la separación entre la mente investigadora y el
objeto de conocimiento observado o analizado. Sin embargo, esta independencia de la ciencia
sobre el objeto de estudio podría ser difícil de aceptar si se considera la ineludible influencia
entre el observador y lo observado. Por último, el principio dialéctico permite exponer el co-
nocimiento científico a la refutación por medio de nuevas experiencias u observaciones.
En realidad los métodos de la investigación científica dependen de la perspectiva filo-
sófica del conocimiento. Las dos corrientes principales que fundamentan la adquisición y el
desarrollo del conocimiento son la positivista lógica y la corriente naturalista, que dan lugar
a paradigmas de investigación diferentes. Un paradigma es un conjunto de formas que orien-
ta la perspectiva que el investigador tiene sobre la investigación o el estudio que desarrolla.
De acuerdo a la filosofía positivista, la realidad se percibe como única e invariable, o sea
que existirían hechos objetivos que pueden ser descubiertos con independencia del investiga-
dor. Desde este punto de vista, los fenómenos naturales y humanos podrían ser previsibles y
controlables. Estos hechos fundamentan el esfuerzo científico para adquirir la habilidad de
predecir y controlar dichos fenómenos. Por contrapartida, la filosofía naturalista sostiene que
la realidad no es única sino múltiple, y que se descubre a través de un proceso dinámico en el
cual el investigador interactúa con el entorno y obtiene un conocimiento relativo o contextual.
En este caso los fenómenos no serían ni únicos ni previsibles, y el observador constituiría otro
factor de influencia sobre la realidad del entorno. En consecuencia no existiría una indepen-
dencia absoluta entre el observador y lo observado, lo que pondría en tela de juicio el principio
científico de objetividad. A partir de estas dos perspectivas filosóficas surgen dos métodos de
investigación tradicionales conocidos como cuantitativo y cualitativo. El método de investiga-
ción cuantitativo se basa en la filosofía positivista, y está fundado en la observación de hechos
o acontecimientos objetivos que surgen con independencia del observador. Este último emplea
un proceso sistemático de recolección de datos observables y cuantificables, disminuyendo la
aparición de sesgos. El método se basa fundamentalmente en la objetividad, la predicción, la
generalización de los resultados y el control de los fenómenos. Su objetivo final es desarrollar
un conocimiento de tipo valorativo. Por su parte, la investigación basada en el método cuali-
tativo se fundamenta en la filosofía naturalista, y es típica de los estudios sociales que tienen
en cuenta los contextos históricos y culturales en el que se desarrollan los fenómenos. El in-
vestigador que aplica el método cualitativo observa, describe e interpreta el fenómeno como
se presenta, sin intentar controlarlo como en el caso del método cuantitativo. En resumen el
fin de este método es desarrollar un conocimiento descriptivo e interpretativo, en lugar de
uno valorativo. Aunque estos dos métodos proponen modos diferentes de abordar la realidad,
ambos se interrelacionan y se complementan en la investigación actual.
La medicina se nutre de diferentes ciencias para llevar a cabo su cometido de lograr una
mejor comprensión de la salud y la enfermedad mediante la observación, la comparación, la
[ 26 ]
experimentación, el análisis, la síntesis y la conceptualización. Esta paráfrasis de una defini-
ción de ciencia nos induce a pensar que la medicina está hecha de ciencias, y en consecuencia
comparte los mismos métodos científicos. Pero la verdad es que la definición de ciencia más
amplia que podamos hallar, con seguridad dejará afuera gran parte de lo que es la medicina.
El filósofo y matemático Gottfried W. Leibniz, nacido en Leipzig en 1648 (cincuenta años
después de Descartes) concibió a la ciencia como “un cuerpo doctrinal que podía ser conoci-
do sistemáticamente y con un alto grado de certeza”, y la contraponía o bien a la “opinión”,
que sólo implica un grado de certeza menor, o bien al “arte”, que involucra una práctica más
que una doctrina. Atenerse a ésta última definición obliga en consecuencia a separar de la
ciencia médica los aspectos prácticos y técnicos vinculados con su arte. Después de ésta acla-
ración podría escudriñarse en los métodos de la ciencia que la medicina utiliza. En primer
lugar se debería analizar si existe un único método científico, ya que a la biología (y de allí
la medicina) puede considerársela una disciplina con autonomía científica y acreedora a su
propio método, o bien una ciencia que comparte las reglas y metodología de la física.
La corriente denominada fisicalismo comprime a la biología en el marco conceptual
de la física. Su origen formal podría remontarse a Galileo (1564-1642) en cuya época úni-
camente existía la mecánica como ciencia y la matemática como su necesaria aliada. Para
su época hasta 350 años después, el libro de la naturaleza estaba escrito en el lenguaje de la
matemática, y este modelo de ciencia sobrevive aún para muchos. El papel dominante de la
física y la matemática en la ciencia obtuvo el apoyo de figuras como Isaac Newton (1642-
1727) e Immanuel Kant (1724-1804) quien llegó a afirmar que “solo hay ciencia genuina,
en la medida que contenga matemática”, a pesar que su “Crítica del juicio” (1790) tuvo un
éxito limitado para intentar explicar la naturaleza en base a los principios newtonianos. En
los últimos 100 años ha habido cierta liberalización de esta corriente llamada fisicalismo, y
a pesar de su incontrovertible aporte, muchos autores modernos consideran que el método
científico de la física no es el más adecuado para una disciplina como la biología, de la cual
depende la medicina.
Ernest Mayr (1904-2005) fue médico y biólogo, evolucionista, y ha sido reconocido
como “el Darwin del siglo XX”. Este científico y filósofo postuló que “cualquier enfoque
de una filosofía de la biología basado fundamentalmente en la lógica y la matemática
más que los conceptos específicos y particulares de la biología resultará insatisfactorio”,
y planteó una serie de consideraciones sobre la autonomía científica de la biología (2004).
En particular, demostró que algunas ideas fisicalistas (de la física) no eran aplicables a la
biología. Por ejemplo desde los pitagóricos y Platón, el concepto tradicional de diversidad
del mundo se planteaba con la existencia de una cantidad limitada de eide o esencias,
que consistían en clases o tipos netamente delimitados (tipología o esencialismo). Bajo
esta concepción, los miembros de una misma clase eran idénticos, constantes y separados
con precisión de los miembros de otro tipo o esencia. La idea central del racismo se basa
en estas diferencias de grupos étnicos humanos que se hallarían netamente separados en
clases distintas. Darwin fue quien rechazó este pensamiento tipológico propio de la física
y empleó en consecuencia un concepto completamente diferente denominado actualmente
poblacional, que admite las variaciones dentro de las clases, como ocurre ciertamente en
las poblaciones de seres vivos.
[ 27 ]
Otra idea de la física no aplicable enteramente al estudio de los seres vivos es el llamado
determinismo, que no deja espacio para la variación o los hechos fortuitos. El matemático
y físico francés Pierre Laplace (1749-1827) se ufanaba de que el conocimiento completo del
mundo actual permitiría predecir el futuro sin limitación en el tiempo. Este concepto clara-
mente determinista, no puede sostenerse actualmente ante la perspectiva de la nueva teoría
de los sistemas dinámicos o del “caos” en el que una mínima variación en las condiciones
iniciales hacen impredecible el desenvolvimiento futuro de una variable. La refutación del
determinismo estricto y de la posibilidad de predicción absoluta permite la aceptación de la
variación y de los fenómenos aleatorios tan comunes en la biología.
Finalmente, otras de las clásicas ideas fisicalistas se refiere al denominado reduccionismo.
Este explica que la resolución de un problema se obtiene a partir de la partición y reducción del
sistema a sus componentes más pequeños. Esta división, junto con la determinación de la fun-
ción de cada elemento, permitiría explicar el problema. La realidad es que a partir de la teoría
de los sistemas, el estudio de los seres vivos admite que éstos están compuestos por elementos y
relaciones que se pierden si se reduce el sistema a sus partes, y que en consecuencia el todo pasa
a ser mucho más que la suma individual de las partes que lo componen. El estudio más moderno
de los denominados autómatas celulares permite demostrar que no es posible inferir el compor-
tamiento de unidades simples en cuanto al desarrollo de propiedades emergentes a partir de la
interacción de estas unidades. Es así que la estructura de los tejido vivos no puede explicarse
enteramente si se los reduce a sus componentes celulares; la interacción de estas últimas generan
características emergentes no inferibles a partir del estudio celular individual.
Hasta aquí se pueden resumir una serie de conclusiones sobre los métodos de las ciencias
de la naturaleza. Por un lado la tipología que asume la invariabilidad de los tipos o clases se
reemplaza por el pensamiento poblacional que admite pequeñas variaciones entre los elemen-
tos o seres de la misma clase. En segundo lugar el estudio de la naturaleza admite el uso del
caos determinista y el azar en lugar de un determinismo rígido. Y por último se complementa
el reduccionismo o análisis individual de las partes con el pensamiento sistémico o de análisis
sintético para la comprensión de los sistemas vivientes en conjunto y de las propiedades emer-
gentes a partir de elementos constitutivos simples.
Tanto la rama de la biología que estudia la evolución como la medicina clínica asistencial
que indaga la historia de la enfermedad, requieren de otro método que podría llamarse “na-
rrativa histórica”. La biología evolucionista debe recrear la historia pasada con los datos del
presente, o con aquéllos que pueda recoger en la actualidad, y así construir una narración que
explique el fenómeno de la evolución. De la misma forma, el oficio de un médico consiste en
escuchar, narrar y construir historias a partir del relato de los hechos médicos referidos por
el paciente. De la misma forma, los signos que recoge el médico, reflejan una foto del estado
actual que necesita ser reconstruido hacia atrás a la manera de un detective.
Referencias
1. Arribalzaga EB, Borracci RA, Giuliano RJ, Jacovella PF: El artículo científico: del papiro
al formato electrónico. Buenos Aires, Magíster Eos, 2005
[ 28 ]
2. Castiglia VC: Principios de investigación biomédica. (Segunda Edición). Buenos Aires,
R. Primavera. 1995
3. Klimovsky G: Las desventuras del conocimiento científico. Una introducción a la episte-
mología. Buenos Aires, A-Z editora, 1997.
4. Tarski A: Introducción a la lógica y a la metodología de las ciencias deductivas. (Tercera
Edición). Madrid, Espasa Calpe, 1977
5. Fortín MF. El proceso de investigación: de la concepción a la realización. México, Mc-
Graw-Hill Interamericana, 1999
6. Mayr E. Por qué es única la biología. Consideraciones sobre la autonomía de una disci-
plina científica. Buenos Aires, Katz Editores, 2006
7. Doval HC. A qué llamamos “ciencia” y por qué la biología es una ciencia autónoma. Rev
Argent Cardiol 2007; 75: 79-83
[ 29 ]
Capítulo 2
Leyes científicas
Extensiones y límites del conocimiento científico
• única, por que tenía sentido de identidad en todos los hombres y todos disponían de
ella en igual medida
[ 30 ]
• infalible, porque no era susceptible de errar
• omnipotente, porque extraía de si misma su material y sus principios fundamentales
[ 31 ]
Las ideas básicas del racionalismo crítico y de la epistemología evolucionista se fundie-
ron ampliamente en la mentalidad de nuestros días, aunque muchas alarmas suenan con el
objeto de despertar ese conocimiento aletargado, que afrontaría nuevas instancias difíciles
de resolver.
Según P. W. Atkins, profesor de física y química de la Universidad de Oxford, somos me-
ros productos del mundo físico. La física está a punto de explicarlo todo, incluso la creación
del universo a partir de la nada, sin necesidad de recurrir a un Dios creador.
Atkins no es el único ser que anticipa el final de la física fundamental. Otros teóricos ya
describen un presunto final de la ciencia. Seguramente nada de ello ocurrirá porque la ciencia
experimental continúa marchando por la ruta que los genios, como Newton, trazaron lejos
de cualquier extravagancia.
El siglo XX además produjo, sobre el fin de su primera mitad, una de las grandes conmo-
ciones del saber mundial con el advenimiento de la informática.
La concepción de la informática generó una revolución tal, que la filósofa Esther Diaz la
equiparó con el impacto histórico que produjo la enunciación heliocéntrica de Copérnico.
Ese itinerario histórico, que aún transcurrimos, se inició con la telemática cuando el go-
bierno de Estados Unidos convocó a una serie de distinguidos investigadores de élite, para que
indagaran en tecnologías apropiadas que mantuvieran comunicaciones rápidas y eficientes.
La preocupación del gobierno central era más que apremiante. La Unión transitaba si-
multáneamente por dos guerras entre Oriente y Occidente y necesitaba mantener contactos
instantáneos entre las metrópolis americanas y los remotos campos de batalla.
Esa conjunción explosiva entre tecnociencia y política exterior dio vida a una de las cria-
turas artificiales mas inquietantes de la historia de la humanidad, la computación, y con ella
un nuevo paradigma de la ciencia: la globalización científica.
Actualmente, la robustez digital posibilitó que se liberaran las fórmulas de la fisión del
átomo y comenzaran las prácticas atómicas, las nuevas ecuaciones físicas que concibieron
los viajes interplanetarios y las investigaciones biológico-digitales que culminaron con la
ingeniería genética, entre otros.
Fedoseev y Pájaro en nuestros días, plantean que el proceso del conocimiento transcurre
por tres etapas:
[ 32 ]
Sin embargo no se puede conjeturar sobre el método si se desconoce la ley. Pero, ¿qué es
ley? ¿qué es ley científica?
Ley objetiva - Ley científica
El término “ley” no tiene un uso fijo sino que es un signo ambiguo que designa varios jui-
cios. No nos interesa definir ahora el concepto jurídico de ley, sino las acepciones relevantes
que son útiles para la ciencia pura y aplicada.
Según Mario Bunge se designa como ley o ley objetiva o pauta nómica a “un patrón ob-
jetivo de una clase de hechos: cosas, acontecimientos, procesos.... O sea; cierta relación o red
de relaciones constantes que se cumplen realmente en la naturaleza, las conozcamos o no”.
Por lo tanto una ley es un objeto extraconceptual que se sitúa en la realidad.
Ley científica “es una proposición científica confirmada que afirma una relación cons-
tante entre dos o mas variables cada una de las cuales representa, parcial e indirectamente,
una propiedad de sistemas concretos”, es decir es “una regla y norma constante e invariable
de las cosas, nacida de la causa primera o de las cualidades y condiciones de las mismas”.
Por lo tanto, toda ley científica no deja de ser una hipótesis confirmada que refleja una
pauta objetiva y su lugar central en las ciencias es el fin capital de toda investigación científi-
ca: el descubrimiento de pautas o regularidades.
Dice Bunge que hay tantas clases de leyes científicas como puntos de vista o criterios de
clasificación queramos adoptar y si tienen niveles cualitativos diferentes tendrán un nivel
dispar de integración.
Como cada uno de esos niveles se distingue por tener variables y leyes propias, las rela-
ciones objetivas entre las mismos se explican por “leyes interniveles”.
En cambio se define como “leyes intranivel” a aquellas que relacionan variables de igual
estatura científica.
Las leyes intranivel contienen las siguientes variables de una investigación científica:
[ 33 ]
Psicobiofísicas
Sociobiofísicas
Sociopsicofísicas
Sociopsicobiológicas
Sociopsicobiofísicas
[ 34 ]
METODOLOGÍA DE LA CIENCIA
- ETAPAS -
Referencias
1. Artigas M. Los límites del lenguaje científico. En: Ortíz JM (ed). Veinte claves para la
nueva era. Madrid, Rialp 1992; pp 113-131
2. Bunge M. La investigación científica. México, Siglo veintiuno editores 2000; pp: 7, 265,
283-289, 299, 315.
3. Díaz E. El desafío de las investigaciones disciplinarias e interdisciplinarias, articuladas
con una pedagogía del orden y del caos-2005. www.estherdiaz.com.ar
4. Díaz Narváez VP, Calzadilla Núñez A., López Salinas H. Una aproximación al concepto
del hecho científico. Cinta de Moebio- Facultad de Ciencias Sociales. Chile, Universidad
de Chile 2005, n° 22
5. Espinosa Padierna LE. Tecnología y educación. ¿Integración del conocimiento o frag-
mentación cultural? . www.redespecialweb.org/congreso6.htm
6. Hartmann N. Metafísica del conocimiento. Buenos Aires, Editorial Losada 1957; pp:
208
7. Ibáñez JJ. Las teorías científicas según Karl Popper: La falsabilidad. weblogs.madri-
masd.org/universo/archive/2007/02/1059009.aspx
8. Laín Entralgo P. Conocimiento científico del hombre Sección II. In Historia de la Medi-
cina. Barcelona, Salvat 1979 pp: 418-463
[ 35 ]
9. Magnus D. Down the primrose path competing epistemologies in early XX century bio-
logy. In: Creath R, Mainchistein J (eds). Biology & epistemology. Cambridge, Cambrid-
ge University Press 2000
10. Molina MJT. Globalización científica. Nuevos paradigmas de la ciencia. www.molwick.
com/es/métodos-científicos
11. Pájaro D. La formulación de la hipótesis. Cinta de Moebio- Facultad de Ciencias Socia-
les. Universidad de Chile. 2002 n° 15.
[ 36 ]
II. Comunicación de los resultados
Capítulo 3
Cómo escribir un manuscrito
para su publicación
Andreas Wielgosz
E scribir un artículo médico que sea considerado adecuado para su publicación luego de
su revisión o arbitraje por pares (peer review) requiere una estrategia clara y efectiva.
También requiere una cuidadosa atención a los detalles. Las exigencias cada vez mayores
y la gran competencia por publicar, en particular en las revistas más calificadas, hacen de
lograr la aceptación un verdadero desafío. Generalmente, la tasa de aceptación suele ser
menor del 50%, con un 20 a 25% de trabajos rechazados aún sin haber ingresado en la
fase de arbitraje por pares. Los autores exitosos tienen una forma sistemática de encarar
la tarea y este capítulo delinea los pasos que deberían darse, juntamente con indicaciones
útiles, para facilitar el procedimiento. También da una visión de algunos de los errores
más comunes en que se suele incurrir y de cómo evitarlos. La satisfacción no solo debería
provenir de la contemplación del trabajo en prensa, sino también del esfuerzo realizado en
su elaboración.
Hay varios tipos de comunicaciones que pueden aparecer en un periódico médico, inclu-
yendo trabajos originales de investigación, artículos de revisión o puesta al día de distintos
temas, comentarios editoriales, comunicaciones breves, casuística, comentarios de libros y
cartas al editor. La mayoría de los comentarios que siguen se referirá al artículo original de
investigación, aunque los mismos principios se aplican a otros tipos de trabajo en general.
Aunque pueden existir beneficios secundarios en publicar, tales como elaborar una lista de
publicaciones para promover o facilitar la obtención de fondos para la investigación, etc.,
la más importante de las motivaciones debería ser el poder comunicar hallazgos, conceptos
e ideas. En este sentido, es útil considerar el manuscrito como un medio de comunicación,
como si se refiriera una historia.
La clase de audiencia y la facilidad con la cual dicha audiencia podrá ser alcanzada, es-
tán determinadas en gran parte por la elección de la revista. Generalmente, el mayor alcance
se obtiene publicando en inglés en una revista Norteamericana o Británica. Si el objetivo es
llegar a colegas que se hallen trabajando en el mismo campo, entonces quizás lo más apro-
piado sea un periódico de la subespecialidad. Desde ya, el tema del trabajo debe estar en
consonancia con las metas y objetivos de la revista elegida. Si quedara alguna duda respecto
de la elección, lo mejor es contactar al editor. Esto puede tener el beneficio adicional de inte-
resar al editor en el artículo propuesto y lograr que aguarde ansiosamente su envío. En caso
[ 39 ]
contrario, el editor podrá ahorrarle un tiempo valioso dirigiendo el envío a una revista más
acorde con el mismo.
Muchos autores eligen una publicación en base al factor impacto, el cual depende de que
la revista se halle indexada. El factor impacto es una medida de la frecuencia con la cual los
artículos de una revista en particular son citados por autores que escriben en las demás revis-
tas indexadas. Esto es llevado a cabo por el Instituto para la Información Científica (Institute
for Scientific Information), que sigue las citas por un período de tres años. Aunque existe un
consenso general en que las citaciones frecuentes de un artículo son indicativas de su calidad
e importancia, este no es siempre el caso. De esta forma, cierta controversia rodea la signifi-
cación atribuída a los factores de impacto.1
La elección de una publicación específica debería surgir tempranamente en el proceso
de escritura porque determinará el formato y el estilo que deberán adoptarse. Los requeri-
mientos de estilo son publicados por las revistas al menos una vez al año, aunque en algunos
casos pueden encontrarse en todos los números y también se pueden conseguir en Internet.
Luego, el primer paso crítico es delinear la estructura del artículo en ciernes de acuerdo a los
requerimientos de la revista en la cual se intenta publicarlo.
La mayoría de las publicaciones tienen requerimientos similares, con artículos originales
limitados a alrededor de 3.000 a 4.000 palabras, más un resumen de alrededor de 250 pa-
labras. La primera página es la del Título, que también incluye un título breve de alrededor
de 40 a 90 caracteres, que puede ser utilizado para búsquedas computarizadas. Los autores
están listados en esta página, en ciertos casos con sus correspondientes grados y afiliacio-
nes académicas. Un autor, típicamente el primero, es identificado como corresponsal y la
información para su contacto es provista tanto para correspondencia durante el proceso de
arbitraje como para la publicación definitiva del artículo. Nadie más debería mantener la
comunicación con la oficina editorial. Finalmente, en la primera página deberían incluírse
varias palabras clave (key words) destinadas a facilitar las búsquedas computarizadas que
podrán conducir a la identificación del artículo. La terminación de la primera página puede
ser pospuesta hasta el final, aunque el acuerdo acerca de la autoría y orden de los autores es
mejor que sea abordado tempranamente.
El siguiente item es el Resumen. Muchas, aunque no todas las revistas, requieren un
resumen estructurado. 2 Este requisito debería estar incluído en las instrucciones para los au-
tores. Algunas revistas no lo especifican, dejando la cuestión a la discreción de los autores. Un
resumen estructurado es más probable que sea advertido y examinado, lo cual favorece que el
artículo sea leído. En 1987, los Annals of Internal Medicine introdujeron como un requisito
los resúmenes estructurados, con los siguientes sub-enacabezamientos: Objetivo, Diseño,
Campo (Setting), Pacientes, Intervención, Mediciones, Resultados Principales y Conlusiones.
En 1996 fue agregado a la lista Antecedentes (Background) y en 2004, Limitaciones.
Algunos autores escriben primero el resumen, con el fin de servir como un bosquejo para
el resto del trabajo. Esto puede llegar a perturbar la escritura y causar mucha frustración en
la medida en que el autor intenta resumir el artículo antes de que esté concluida su redacción.
Lo mejor es dejar el resumen para el final, lo que a su vez permite que las mejores frases o
enunciados para resumir el trabajo sean copiados y pegados directamente desde el artículo
terminado.
[ 40 ]
El artículo propiamente dicho comienza con una Introducción. Su objetivo es proveer la
información de fondo que explicará porqué fue emprendido. La introducción debería asimis-
mo precisar los temas específicos que el trabajo apunta a tratar y el porqué los investigadores
desearon llevarlo a cabo. Debería comunicar el entusiasmo que motivó a los investigadores,
de manera de generar interés por parte de los lectores. La introducción no está dirigida a ser
una revisión de la literatura, lo cual es un error común en investigadores que transforman
esta sección en una larga polémica. Una buena estrategia es comenzar con una perspectiva
general y entonces hacer foco en el problema o las preocupaciones específicas, juntamente
con una explicación del emprendimiento.
La sección Métodos desafía al escritor a proveer, tan sucintamente como sea posible, la
información necesaria acerca de lo realizado, de manera que pudiera ser potencialmente repro-
ducido por otros. No es necesario incluir en la descripción de los métodos cada etapa empren-
dida, juntamente con los errores cometidos y las correcciones aplicadas. Esta sección requiere
un equilibrio entre insuficiente y demasiada información. Si muchos de los detalles del enfo-
que metodológico empleado para conducir el estudio son críticamente importantes, debería
considerarse la posibilidad de un artículo separado acerca de la metodología del estudio. Los
resultados pueden entonces ser redactados en otro artículo, con solamente una referencia a
los métodos, que habrán sido previamente descriptos y publicados. Como alternativa, pueden
agregarse uno o más apéndices delineando los detalles metodológicos. Cuando las limitaciones
en las palabras son motivo de preocupación, un diagrama puede ser de utilidad.
La sección Métodos tiene frecuentemente sub-encabezamientos para organizar el flujo de
información que deberían ser utilizados generosamente. Un error común es revelar y/o discutir
los resultados en la sección métodos. A veces los autores se sienten compelidos a explicar la
elección de determinados métodos o a recordar la secuencia de eventos, por ejemplo los hallaz-
gos que condujeron a la siguiente elección de métodos. Sin embargo, esto debería evitarse. Es
suficiente explicar que después que fueron obtenidos los resultados de la Etapa A se llevó a cabo
la Etapa B, reteniendo los detalles de los resultados de la Etapa A hasta la sección Resultados.
Si el estudio requiriese aprobación ética, esto debería ser mencionado identificando la
institución que revisó el proyecto y emitió la aprobación. De la misma manera, deberían ser
descriptos los pasos destinados a asegurar la confidencialidad para con el paciente. También
es importante identificar cualquier producto con derechos de propiedad.
Los resultados son la parte sobresaliente del trabajo. Aquí también es importante ser
sucinto pero claro y preciso. Los autores son a menudo desafiados por un gran volumen de
datos que desean presentar. Las tablas y figuras pueden proveer información que evita repe-
ticiones en el texto. Bastará entonces simplemente con resaltar en palabras los principales da-
tos de interés. Los datos deberían ser presentados en una secuencia lógica, siguiendo el curso
temporal de los métodos. La atención al detalle es muy importante en la sección resultados.
Una tabla o un gráfico deberían explicarse por sí mismos, lo cual subraya la importancia de
una leyenda bien redactada.
Queda más allá de los límites de este capítulo discutir los variados errores en la presen-
tación de los datos, particularmente en los gráficos, tales como conectar datos puntuales con
una línea continua, errores que a menudo surgen en esta sección. La inclusión de un buen
estadígrafo en la preparación de tablas y gráficos contribuye a evitar estos problemas.
[ 41 ]
La Discusión proporciona la oportunidad de explicar los hallazgos y de examinar con
mayor profundidad las controversias con las que los hallazgos puedan relacionarse. Las Li-
mitaciones deberían ser abordadas anticipándose a los argumentos que los revisores o comen-
taristas puedan llegar a proponer. Esta sección finaliza típicamente con recomendaciones
y planes futuros o sugerencias para subsiguientes investigaciones, en especial si no ha sido
requerida una sección Conclusiones en forma separada.
Siguen los Agradecimientos. Aquí deberían ser reconocidas todas las personas que puedan
haber colaborado en cualquiera o todas las etapas del trabajo científico, pero en un nivel que
no alcanza para considerarlas coautoras. De la misma manera, las instituciones y agencias que
proporcionaron soporte a la obra deberían ser identificadas y agradecidas. Es también una
buena práctica enviar una copia del artículo publicado a aquéllos que han sido incluídos en los
Agradecimientos, junto con una carta de cobertura reiterando el agradecimiento.
Las Referencias bibliográficas constituyen la última parte del manuscrito. Es muy impor-
tante la aceptación y cumplimiento del formato requerido. Cualquier desacuerdo entre los nú-
meros del texto y las referencias listadas arroja una impresión muy desfavorable sobre todo el
manuscrito, de modo que es imperativo un cuidadoso chequeo y re-chequeo. El uso apropiado
de las referencias es una habilidad que se perfecciona con la práctica. La cita de una referencia
acerca de conocimientos ampliamente aceptados es tan poco agradable como la omisión de
referencias a información específica relacionada con cuestiones acerca de la evidencia existente
para sostener las proposiciones enunciadas. Un error no poco común es proveer como referen-
cia un libro o artículo que a su vez relata o menciona la referencia original. La única práctica
aceptable es suministrar la referencia original. Por supuesto, listar una referencia original sig-
nifica que el artículo ha sido leído y considerado relevante por el autor del manuscrito. Una
referencia es listada una sola vez, y el mismo número de referencia es luego repetido si ésta es
citada nuevamente en el manuscrito. La extracción de texto de los trabajos de otros autores sin
reconocer la fuente es plagio. Esta es una falta grave, desgraciadamente no infrecuente. Muchos
editores tienen a su disposición sistemas electrónicos que buscarán el texto de frases o párrafos
previamente publicados. El plagio no es tomado en forma ligera.
Habiendo preparado el manuscrito en el formato requerido con la contribución de los
coautores, el próximo escalón es solicitar comentarios de colegas imparciales, preferiblemente
aquéllos con experiencia en la redacción de artículos publicados. Tal solicitud debería ser pre-
anunciada, para dar al colega elegido la oportunidad de confirmar que desea y está en condicio-
nes de leer el borrador y aportar una crítica constructiva. A menudo, en este punto y habiendo
ya invertido un tiempo considerable preparando el manuscrito, el autor se halla impaciente por
enviarlo para su publicación. Sin embargo, esta revisión provisoria es indispensable y puede ser
ampliamente remunerativa, resultando finalmente en un acortamiento del tiempo hasta la pu-
blicación. Dado que lo buscado es una crítica, ésta debería ser aceptada cortésmente, usando el
juicio para discernir el desacuerdo en el estilo del desacuerdo en el fondo. Si son recomendados
cambios sustanciales, deberían ser atendidos y seguidos por una nueva solicitud de revisión.
Estas medidas preliminares conducen al manuscrito más cerca de su aceptación.
Una vez que existe un consenso entre coautores y serviciales colegas en que el manuscrito
está listo, su envío para publicación debería tener lugar sin demoras. Más y más publicaciones
instruyen a los autores para enviar sus trabajos en forma electrónica. Este proceso realmente
[ 42 ]
acelera la revisión del manuscrito y permite a los autores seguir el progreso de su envío. Un
sistema tal, hecho accesible por la Editorial Elsevier, es utilizado para los artículos enviados
a Prevention and Control, publicación oficial de la Federación Mundial del Corazón (World
Heart Federation). Todo el proceso de remisión electrónica requiere atención a los detalles y
es recompensado por la confirmación del recibo, que es enviada por e-mail al autor corres-
ponsal. Sea que el envío del manuscrito tenga lugar electrónicamente o bien tradicionalmen-
te, por correo postal, puede ser añadida una carta o mensaje para el editor. Esta es una buena
práctica, particularmente para señalar los méritos especiales que el artículo pueda tener, sean
éstos lo novedoso de la investigación o sus hallazgos significativos. Si hubiera existido una
comunicación previa con el editor, debería ser mencionada.
En este punto, el destino del artículo está en manos de la oficina editorial. El editor deci-
dirá si el artículo es relevante y si merece la revisión o arbitraje por pares. El rechazo en esta
instancia puede ser cuestionable, en particular si no se da ninguna explicación, como no sea
el apresurado comentario de que se reciben muchos artículos y solamente unos pocos pasan
por el proceso de arbitraje. A veces el editor puede ser persuadido si se señalan cualidades
únicas, que serían de gran interés para los lectores y que aún podrían aumentar el prestigio
de la revista, un argumento irresistible para muchos editores.
Si el manuscrito atraviesa la revisión por pares y los revisores recomiendan el rechazo, es
importante estudiar cuidadosamente las críticas. Los revisores tienden a enfocar tres aspec-
tos de los manuscritos: legibilidad, relevancia y metodología. En tanto la carta de rechazo
puede sonar como un repique fúnebre para el trabajo enviado, todavía puede ser emprendido
un nuevo envío, puntualizando al editor en el mensaje que acompaña, porqué es importante
ver el artículo publicado en esa revista en particular y qué pasos se han dado para mejorarlo.
Lo peor que puede ocurrir es otro rechazo, en tanto que es posible una reconsideración. Si se
entiende que el arbitraje no ha sido imparcial, quizá llevado a cabo por un colega rival, tales
preocupaciones deberían ser comunicadas al editor. Solo unos pocos periódicos identifican a
el/los revisores con completa transparencia. Aunque pueden haber sido propuestos algunos
revisores, no hay garantías de que hayan aceptado la solicitud de revisar el manuscrito, ni aún
de que el editor los haya contactado. Solicitar otra revisión no está fuera del caso. Es lo mejor
evitar reaccionar ante un rechazo con cargos emocionales de incompetencia y declaraciones
de nunca más remitir artículos a esa revista. Después de un rechazo definitivo, la alternativa
a un reenvío es la remisión del manuscrito a otra revista, pero solo después de que los comen-
tarios de los revisores hayan sido tomados en consideración y las mejoras necesarias hayan
sido realizadas. La perspectiva del revisor siempre debería ser considerada. 3 La experiencia
de ser uno mismo un revisor, es muy útil para escribir buenos artículos. Ofrecerse para actuar
como revisor es altamente recomendable.
Una vez que los comentarios de los revisores hayan sido atendidos, es de esperar que el
editor deje la puerta abierta para el reenvío del manuscrito. Esto debería realizarse tan rápido
como sea posible. La mayoría de las revistas tienen un límite de tiempo tal que luego de 6 o
12 meses, un artículo reenviado es tratado como un nuevo envío y atraviesa una nueva revi-
sión independiente. Aún un reenvío en tiempo no es necesariamente devuelto a los árbitros
originales. El editor tiene la potestad de solicitar a los árbitros originales o a nuevos árbitros,
la revisión del manuscrito ya revisado.
[ 43 ]
El reenvío debería ser acompañado por una carta. Cada punto debería ser tratado por sepa-
rado, elegante y claramente. Si existiera un desacuerdo con uno o más de los comentarios rea-
lizados por los árbitros, las razones deberían ser explicadas. Por otra parte, las críticas válidas
deberían ser aceptadas con reconocimiento y atendidas, señalándose los cambios realizados.
Una vez que el artículo es aceptado, el paso final implica la revisión de las pruebas de
galera previas a la publicación. Las pruebas de galera están compuestas en su aspecto final.
Los encargados de la publicación sólo permiten correcciones menores, en general para salvar
errores en el deletreo o la puntuación. El agregado de frases o los cambios mayores resultan
engorrosos para el proceso y están fuertemente desaconsejados, cuando no prohibidos. Una
respuesta rápida a este punto es también mandatoria porque el artículo se halla en camino a
una próxima publicación, con tiempos estrictos, de modo que los retrasos no son tolerados.
También en esta instancia, al autor le es típicamente requerido firmar la transferencia de los
derechos de autor (copyright) a favor del editor, y decidir si ordena reimpresiones (reprints)
adicionales del artículo. La mayoría de los periódicos ofrecen un número limitado de reprints
en forma gratuita. Pueden haber costos por el agregado de fotografías en color, aunque esto
también varía según los editores.
Finalmente el artículo aparece impreso y es tiempo de celebrar. Quizá entonces pueda consi-
derarse el escribir otro artículo. Las preparaciones para el próximo artículo deberían comenzar
tempranamente, mientras la investigación está aún en marcha. La introducción y la sección mé-
todos pueden ser redactadas aún antes que los resultados estén disponibles. En tanto la mayor
parte de la redacción es realizada por un solo individuo, algunos manuscritos son preparados por
varios redactores, cada uno contribuyendo con una sección. Esto requiere de un autor principal
que será responsable de asegurar cierta uniformidad de estilo. Indudablemente, la experiencia de
haber escrito varios artículos facilita todo el proceso. Como ha sido mencionado anteriormente,
la experiencia de ser árbitro resulta una ayuda. Hay también talleres y cursos accesibles para
principiantes y para aquéllos que desean mejorar sus capacidades para la redacción de artículos.
Es de esperar que el lector haya sido estimulado y alentado por este capítulo a involucrarse en la
escritura médica y que sea recompensado por la satisfacción que proviene de ver su trabajo en
forma impresa para beneficio de los colegas, en el presente y en el futuro.
Referencias
1. Seglen PO. Why the impact factor of journals should not be used for evaluating research.
BMJ 1997; 314: 497-502.
2. Nakayama T, Hirai N, Yamazaki S, Naito M. Adoption of structured abstracts by gene-
ral medical journals and format for a structured abstract. J Med Libr Assoc. 2005; 93(2):
237–242.
3. Provenzale JM, Stanley RJ. A systematic guide to reviewing a manuscript. Am J Roent-
genol. 2005; 185(4): 848-854.
[ 44 ]
Capítulo 4
La revista científica: criterios editoriales
para evaluación de artículos médicos
Enrique Fisman Alexander Tenenbaum
[ 45 ]
de desarrollo de la investigación y como subproducto de la emergente organización societa-
ria de los científicos. La transformación del manuscrito original, es decir el texto redactado
pero sin la competente evaluación de los pares, en una publicación, o sea en un manuscrito
legitimado por el resguardo de la valoración crítica de los pares mediante la evaluación insti-
tucionalizada y firmada por revisores competentes, se convierte así en una parte inseparable
del proceso científico.4,5
Nuestra modesta experiencia personal como editores comienza en el año 2002. Como
cardiólogos clínicos, nuestro interés se había centrado en años anteriores en investigar diver-
sos aspectos de la interfaz entre diabetes y enfermedades cardiovasculares. La creciente rele-
vancia del tema nos llevó a pensar que sería importante fundar una revista específicamente
dedicada al mismo, y así nació Cardiovascular Diabetology.6
En cuanto a nosotros, nos vimos súbitamente ubicados “del otro lado de la barricada”.
De nuestro rol de autores, obvia y naturalmente ansiosos de ver publicados nuestros trabajos
(y preferentemente con rapidez y en revistas de buen nivel), pasamos al rol de editores, encar-
gados de decidir que trabajos de nuestros colegas nos veremos obligados a rechazar, y cuales
serán publicados y en que condiciones. Describiremos a continuación nuestra experiencia al
respecto. La misma comprende la concepción acerca de la esencia de una revista científica y
los criterios que hemos adoptado o elaborado para cumplir nuestra tarea de editores.
La revista científica
¿Que es una revista científica? La UNESCO entiende a la revista como una publicación
periódica que presenta especialmente artículos científicos, escritos por autores diferentes, e
información de actualidad sobre investigación y desarrollo de cualquier área de la ciencia.
Tiene un nombre distintivo, se publica a intervalos regulares, por lo general varias veces al
año, y cada entrega está numerada o fechada consecutivamente. Su componente básico, el
artículo científico, es un escrito en prosa, de regular extensión, publicado como una contri-
bución al progreso de una determinada ciencia o arte.7 Básicamente, la definición de una
revista científica en general, y médica en particular, está dada por su función y puede basarse
en los dos criterios estipulados por Greene,8 que establecen que las funciones de una revista
pueden resumirse como el doble propósito de servir de memoria de la ciencia y constituir, al
mismo tiempo, un medio de divulgación de los resultados de la investigación para la comu-
nidad científica y para la sociedad. En ciertos casos, cuando se trata de revistas sumanente
prestigiosas, las mismas pueden establecer parámetros para la evaluación de la producción
científica de los investigadores y sus instituciones. En otros términos, implementan criterios
de calidad para la programación, realización y divulgación de la investigación.
Los autores, revisores y editores constituyen el trío imprescindible para el funcionamiento
adecuado de una revista científica. El editor es el responsable de mantener la calidad de la revis-
ta. Su obligación principal es garantizar que los manuscritos que aspiran a ser publicados sean
evaluados de la forma correcta, es decir con total objetividad, sin interferencias y sin ningún
tipo de prejuicio a favor o en contra de la aceptación de determinado artículo. El editor no debe
escoger a los revisores para obtener resultados preconcebidos. Además de su responsabilidad
[ 46 ]
final en la toma de decisión, el editor debe ser una especie de mediador entre los autores y los
revisores fomentando así una mayor comunicación e interacción entre los mismos.
Actualmente, en el aspecto práctico, una revista científica moderna debe cumplir con
una serie de requerimientos profesionales y técnicos para poder ser considerada como tal.
[ 47 ]
9. Dar explícitamente la afiliación institucional de la revista y de sus editores responsa-
bles.
10. Estar indexada en bases de datos que contengan un subrogante de la fuente primaria
que permita localizarla. Estas bases están esencialmente representadas por las de temática
general de la Biblioteca Nacional de Medicina de los Estados Unidos (PubMed y su comple-
mentaria Medline) y Scirus, y por las más específicas Orphanet, Clinical Trials, Genetic and
Rare Disease Information Centre y numerosas más.
11. Tener la numeración de los fascículos. La misma debe ser correlativa y no debe con-
fundirse con la numeración del volumen.
12. Tener paginación.
Los dos últimos puntos son válidos exclusivamente para las revistas que tienen también
versiones impresas. Las revistas electrónicas llevan solo número de volumen (usualmente
anual) y número de artículo, careciendo de fasciculación y paginación.
Finalmente, además de los doce puntos mencionados, la obtención de factor de impac-
to constituye una importante aspiración de toda revista científica. El proceso suele llevar
varios años, y no siempre es coronado por el éxito. El factor de impacto es un índice biblio-
métrico que empezó a ser considerado como instrumento de evaluación de las publicacio-
nes científicas a partir de la década del 60 por Eugene Garfield,9 director del Institute for
Scientific Information (ISI) en esa época. Fue concebido como forma de clasificar y evaluar
las revistas incluidas en la base. Sólo las publicaciones indexadas en el ISI son consideradas
para el cálculo del factor de impacto que es realizado mediante la división del número de
veces en que los artículos de una revista son citados en un año determinado en revistas in-
dexadas por el ISI, por el número de estudios publicados por la revista durante los dos años
anteriores.10 El motivo de coger dos años es que es el tiempo promedio a partir del cual se
calcula que un trabajo circula plenamente en la comunidad científica y puede ser utilizado
y citado.11
El proceso de decisión
[ 48 ]
ser interpretados en contextos objetivos? ¿Los resultados justifican las conclusiones obteni-
das por los autores? Estas son preguntas que debemos formularnos frente a cada artículo.
Como norma practicamos la mencionada evaluación dos veces. La primera, antes de
enviar el manuscrito a miembros del Comité Editorial y/o revisores externos (decidiendo en
la misma oportunidad a quienes solicitar la evaluación externa del manuscrito, conforme a la
respectiva subespecialidad de los revisores), y la segunda, luego de haber recibido la opinión
de los mismos.
Luego de balancear todos los elementos implicados, se arriba a la decisión que puede ser:
a) rechazar el trabajo; b) publicarlo sólo después de revisiones mayores; c) publicarlo después
de revisiones menores; d) publicarlo sin revisión. La decisión, una vez tomada, se comunica
inmediatamente a los autores, acompañada de los comentarios pertinentes de revisores y
editores.
Con respecto a este sistema de revisión por pares, debemos hacer algunas salvedades.
A pesar de su amplia difusión y aceptación, que evidencian sus grandes ventajas, el sistema
sufrió una serie de críticas, motivadas por las distorsiones de su uso. 3 Se ha destacado: a)
la propensión positiva o negativa a ciertos temas por parte de los revisores o editores que
puede introducir distorsiones adicionales a la publicación, debido a conflictos de intereses
y/o enfrentamientos personales, intereses comerciales, etc; b) la evaluación aumenta innece-
sariamente el tiempo entre la presentación del manuscrito y su publicación; c) es posible que
en la decisión intervengan elementos prejuiciados relativos a autores pertenecientes o supues-
tamente identificados con minorías étnicas, sexuales, ideológicas, religiosas o nacionales.
Para hacer frente a estas posibles distorsiones, se han introducido diferentes mecanismos
y procedimientos a fin de evitarlas o minimizarlas. Se acostumbra solicitar declaraciones de
compromiso de los revisores; enviar cuestionarios con criterios orientadores para el análisis;
utilizar un mayor número de árbitros; efectuar análisis cruzados entre las recomendaciones
de los mismos a fin de posibilitar el control de unos sobre otros; garantizar a los autores la
posibilidad de responder o refutar los comentarios de los revisores por intermedio del editor,
quien debe así propiciar un diálogo respetuoso y profesional entre el autor y el evaluador.
Además de estos requisitos, consideramos que es importante garantizar el carácter con-
fidencial del proceso. Los grados de confidencialidad del sistema de arbitraje varían en las
diversas revistas desde los muy herméticos a los muy abiertos. En este último caso, autores
y evaluadores se conocen; en el otro los árbitros son anónimos y también desconocidos los
nombres de los autores. En la mayoría de las ocasiones los evaluadores conocen a los evalua-
dos, y es muy poco frecuente que ocurra lo contrario.4, 12 En nuestra revista6 hemos optado
por un sistema semicerrado, que suministra a los revisores el privilegio de no revelar su iden-
tidad, a menos que ellos mismos opten por hacerla pública.
Finalmente, quisiéramos mencionar uno de los problemas clásicos que suelen presentarse
en las revistas científicas impresas. Se da el caso de un manuscrito que a pesar de su originali-
dad y de estar bien redactado, de sus objetivos claros y relevantes, de los métodos adecuados,
del análisis de los datos correcto, etc., no pueda ser aceptado para publicación. Ello sucede por
haber sido clasificado por alguno de los revisores como de “escasa prioridad”. Este problema se
refiere al elevado costo de las páginas publicadas y existe en casi todas las revistas prestigiosas
internacionales. Sus consecuencias son frustrantes para los autores, para quienes entonces re-
[ 49 ]
sulta difícil o incluso imposible publicar trabajos meritorios. Estas dificultades y otras similares
irán desapareciendo a medida que los avances tecnológicos induzcan a la mayoría de las revis-
tas a adoptar el modelo electrónico como vehículo principal de publicación.
Referencias
[ 50 ]
Capítulo 5
¿Qué es y como se elabora una monografía
científica?
“Quidquid discis, tibi discos” (Aquello que aprendes, lo aprendes para ti)
Gaius o Titus Petronius Arbiter, Satyricon 46.8 (c. 27 d.C. - 66 d.C.)
“se puede hacer una tesis digna, aún hallándose en una situación difícil, causada por
discriminaciones recientes o remotas. Se puede aprovechar la ocasión de la tesis (.) para
recuperar el sentido positivo y progresivo del estudio, no entendido como una cosecha de
nociones, sino como una elaboración crítica de una experiencia, como adquisición de una
capacidad –buena para la vida futura– para localizar los problemas, para afrontarlos con
método, para exponerlos siguiendo ciertas técnicas de comunicación”
Humberto Eco.
Cómo se hace una tesis. Técnicas y procedimientos de estudio,
investigación y escritura. Gedisa, Barcelona, 2001.
L a elaboración de una monografía científica es una técnica pedagógica dentro del proceso de
aprendizaje en el área cognoscitiva, que tiene por objeto estimular el pensamiento crítico.
Este trabajo intelectual requiere el empleo de un sistema científicamente organizado (método),
de desarrollo progresivo, que permite al alumno profundizar un tema y ejercitar una técnica,
que ofrece un resultado concreto (el informe) y que facilita una evaluación objetiva.
Definición
Una monografía (mono: uno; grapho: escribir) es un trabajo científico escrito, producto
de la investigación bibliográfica, que estudia en forma exhaustiva un tema (problema) cla-
ramente delimitado, que lo desarrolla en forma lógica, y cuyo objetivo final es transmitir el
resultado de la citada investigación. El informe constituye un documento, resultado de esa
investigación exploratoria, seria y amplia, que emplea como fuente la bibliografía y como
método la búsqueda y el análisis bibliográfico.
[ 51 ]
Búsqueda bibliográfica
Técnica de la búsqueda
Evaluación, análisis, interpretación y síntesis de la bibliografía
Nueva búsqueda bibliográfica
Redacción del informe
2. Planificación
¿Cuánto tiempo se empleará aproximadamente para ejecutar cada uno de los pasos de la
ejecución de la monografía?
¿De qué bibliografía provisoria se dispone?
¿Cuáles serán los subtemas o epígrafes en que se va a dividir la monografía?
Planifique su trabajo con tiempo, sólo esto le permitirá hacer una lectura crítica de
la bibliografía y presentar un informe que muestre su capacidad de análisis. Sea flexible
en la asignación de los plazos para cumplir las diferentes etapas. Considere la posibilidad
de demoras o imprevistos. Se sugiere dividir el tiempo de la siguiente manera: búsqueda
bibliográfica 20%, análisis bibliográfico 40%, elaboración del informe 30%, ajustes
10%.
3. Búsqueda bibliográfica
Proceso durante el cual se busca una respuesta al problema (tema) en trabajos científicos
publicados en relación con el mismo, accesibles al investigador.
Se consideran dos tipos de trabajo científicos:
Tipo I, de verificación indirecta (libros, manuales, normas, publicaciones periódicas de
revisión, revisiones, monografías).
Tipo II, artículos originales.
4. Técnica de la búsqueda
En caso de revistas científicas:
Listar todos lo autores, pero si el número excede los seis (6) escribir los seis seguidos de
et al. (sin comillas). Apellido de los autores seguidos por las iniciales de sus nombres sin ne-
cesidad de poner puntos. Los autores separados por coma, y punto después del último autor.
Nombre del trabajo científico y punto. Revista abreviada de acuerdo al Index Médico Inter-
[ 52 ]
nacional, y seguido el año, punto y coma, volumen, dos puntos, y número de página inicial y
final separados por un guión. Ejemplo:
Esper RJ, Nordaby RA, Vilarino JO, Paragano A, Cacharron JL, Machado RA. Endo-
thelial dysfunction: a comprehensive appraisal. Cardiovasc Diabetol. 2006; 5:4-23.
Esper RJ, Vilariño JO. La disfunción endotelial. In: Esper RJ (Ed). Aterotrombosis en
el tercer milenio. Barcelona, Prous Science 2004: 49-83
[ 53 ]
Se analizan, evalúan e interpretan las coincidencias y discordancias del material analiza-
do, formulan opiniones propias, nuevas hipótesis y desarrollos futuros posibles y deseables.
Esta etapa de la realización de la monografía es la más trascendente y creativa. Quizás usted
perciba que sus conocimientos sobre metodología de la investigación no son suficientes para
encarar con éxito la tarea, probablemente sea el momento adecuado para estudiar alguno de
los textos, para consultar a los tutores de la monografía o para realizar algunos de los cursos
dedicados a esta disciplina.
Cada una de las partes comienza en hoja aparte. Las páginas se numeran en forma corre-
lativa en el ángulo superior o inferior derecho.
El trabajo se presenta redactado con espacio simple, aunque puede hacerse a doble es-
pacio o 1½ espacios, según el deseo del redactor, con letras número 10-12, en papel blanco,
tamaño carta; 219 x 279 mm, u 8 1/2”x11”, con márgenes de por lo menos 30 mm en los
márgenes superior e izquierdo, y 20 mm en el inferior y derecho, empleando una sola cara
del papel.
La portada consta de un encabezamiento con Título, autor/es, títulos científicos de los
autores, centro/s en donde se realizó la monografía o donde se desempeña/n el/los autores,
la universidad que avala el curso, dirección postal, incluidos teléfonos y e-mail (si lo tuviere),
año de realización.
La introducción consiste en el planteo del tema elegido, los fundamentos para su elec-
ción, objetivos, interés y viabilidad del mismo, consideraciones sobre trabajos anteriores y
plan de la monografía.
En el material y método se consigna la técnica de la búsqueda y el análisis bibliográfico.
[ 54 ]
En particular, se describe la delimitación del campo y el periodo investigado, los métodos
de registro, el acceso a la información, el análisis, evaluación, interpretación y síntesis de la
bibliografía y los problemas y limitaciones en la búsqueda y el análisis.
En resultados se describen los datos obtenidos en la búsqueda bibliográfica, desde la
reseña histórica hasta los artículos más actualizados.
En la discusión se analizan, evalúan e interpretan las coincidencias y discrepancias en-
contradas en el material investigado. Se formulan opiniones propias, nuevas hipótesis y desa-
rrollos futuros posibles y deseables.
En las conclusiones se expone, en forma sintética, la respuesta actual más completa y las
perspectivas a los problemas planteados en la introducción.
La bibliografía se presenta numerando las citas en forma correlativa, siguiendo el orden
en que son mencionadas por primera vez en el texto. Las citas se identifican en el texto, ta-
blas y pies con números arábigos entre paréntesis, o bien letras de superíndice más pequeñas
al finalizar la oración, después de un punto. Cuando son dos o más las citas se separan por
comas. Si son números correlativos se indican el primero y el último separados por un guión.
Las citas se expresan siguiendo los criterios expuestos en el ítem 4.
Las tablas y figuras se presentan insertadas en el texto, con título y notas al pie. Las
tablas se identifican en el texto con números romanos precedidos por la palabra tabla, y las
figuras con números arábigos precedidos por la expresión Fig. entre paréntesis, al finalizar
la oración, después del punto. Las tablas y figuras se numeran en forma independiente y co-
rrelativa, siguiendo el orden en que son mencionados por primera vez en el texto. Cuando se
emplea una abreviatura en una tabla o figura, ésta debe explicitarse con el término o expre-
sión completos en la nota al pie, salvo que se trate de abreviaturas aceptadas universalmente
como una unidad de medida común del Sistema Internacional de Unidades.
Al final de la monografía se puede agregar una parte de agradecimientos (si corres-
pondiere) por la colaboración institucional, ayuda técnica, colaboración intelectual o apoyo
financiero o material si hubiera existido.
Emplee un lenguaje claro, sencillo, conciso, exacto y preciso. Utilice, en general, la terce-
ra persona singular o plural del presente del indicativo. Cuando emplee por primera vez una
abreviatura, ésta debe ir precedida del término o expresión completos, salvo que se trate de
una unidad de medida común. Exprese las unidades de medida de acuerdo al Sistema Interna-
cional de Unidades (SI). (en francés: http://www.bipm.fr/fr/si/; en español: http://edison.upc.
edu/units/SIcas.html; en inglés: http://physics.nist.gov/cuu/Units/)
“Una vez concluida la redacción de la monografía, entréguela a un lego para ver si la
entiende. Si la entiende, está bien redactada. Entonces, vuelva a escribirla empleando la mitad
de las palabras”.
Recuerde que la presentación de la monografía es la culminación de una ardua tarea y de-
be ser digna del esfuerzo que usted realizó durante el proceso del elaboración de la misma.
[ 55 ]
Referencias
[ 56 ]
21. Torregrosa M. Cómo se hace una tesis doctoral. http://www.unav.es/gep/Metodologia/
TesisDoctoral.html. (consulta: 23 de junio de 2007)
22. Torregrosa M. Metodología de la investigación. http://www.unav.es/gep/Metodologia/
PaginaPrincipal.html. (consulta: 23 de junio de 2007)
23. Uniform requirements for manuscripts submitted to biomedical journals. International
Committee of Medical Journal Editors. N Engl J Med. 1997 Jan 23;336(4):309-15.
24. Vanni MJ. ¿Qué es una monografía? http://www.monografias.com/trabajos7/mono/mo-
no.shtml (consulta: 23 de junio de 2007).
[ 57 ]
Capítulo 6
¿Qué es un trabajo de Tesis de Doctorado?
Introducción
Escribir un capítulo en el que pretendo decir qué es un trabajo de tesis de doctorado, cómo
se lo enfoca y cómo se lo lleva adelante no es una tarea sencilla para alguien que está familiari-
zado con solo una muy pequeña parte del conocimiento, como es mi caso. Es ello una limitante
de importancia, puesto que una tesis de doctorado puede versar sobre cualquier aspecto del
saber. Las diversas formas del conocimiento hacen que existan particularidades para cada una
de ellas que condicionan, al menos parcialmente, la modalidad que adoptará el trabajo.
Sin duda, una tesis que versara sobre un momento dado de la historia argentina, por ejemplo
el estudio de las razones que hicieron que San Martín regresase al Río de la Plata, diferirá en su
elaboración de otra que trate, digamos, el efecto del RNA de interferencia sobre el RNA mensa-
jero que induce la elaboración de la proteína huntingtina. La primera será una labor de investi-
gación retrospectiva que se basará en el análisis de los documentos que puedan existir en relación
a aquel episodio, en tanto que la segunda se constituirá en un estudio prospectivo que empleará
una técnica establecida y que necesitará del análisis matemático-estadístico para la valoración
de sus resultados. Igual podría decirse de otros temas, como, por ejemplo, las causas ambientales
que llevaron a la aparición de la música barroca o cuál será la variación de la órbita de la tierra
dentro de diez mil años, predicción que, tal vez, pueda hacerse sabiendo del comportamiento
de ese fenómeno hasta donde hoy se lo conoce; para resolver lo dicho con respecto a la música
barroca será necesario estudiar las costumbres, hábitos y cultura en general de la población
europea, en particular la italiana, del siglo XVII sin olvidar la extravagancia de otras muestras
artísticas que pudieron influir también y cuyas primeras manifestaciones aparecieron en Bizan-
cio. Para lo segundo, será imprescindible la confección de un cálculo matemático complejo lo
suficientemente convincente y abarcativo de todas las variables geofísicas, enmarcadas dentro
del sistema planetario en el que se inserta la tierra y en el que también se ponderen eventuales
fenómenos “accidentales”, tal como el impacto de un gran meteorito sobre su superficie.
De todas maneras, y aceptando las limitaciones que acabo de comentar, trataré de escri-
bir las siguientes páginas de forma que puedan ser aplicables a la elaboración de diferentes
tipos de tesis de doctorado, aunque, indudablemente, los párrafos que siguen estarán teñidos
de mi impresión personal que, necesariamente, está condicionada por mi formación en el área
restringida del conocimiento que poseo.
[ 58 ]
Luego de entender cuál es la debilidad de lo que diré a continuación, el lector estará en
libertad para decidir continuar o no con la lectura de este capítulo. Si no lo hiciere, estaría
justificado. Ahora bien, si está decidido a seguir adelante iniciemos, pues, la labor.
¿Cuál es la razón o cuáles las razones que hacen que un graduado decida elaborar
un proyecto de tesis de doctorado?
[ 59 ]
dado; sin embargo quien advierte la novedad debe poseer un caudal suficiente de conocimientos
que le posibiliten verla como tal. Esto es así puesto que no es posible reconocer como diferente
e inédito a un fenómeno determinado si no se conoce todo lo previamente hecho en relación a él
y si no se concluye que el nuevo concepto resulta el corolario actual de ese conocimiento.
La nueva idea puede aparecer como fruto de la meditación y ser la consecuencia lógica
del razonamiento impuesto al fenómeno en estudio, es esta una actitud deductiva que fluye
armoniosamente en la mente del investigador y lo conduce a la obtención de una nueva ver-
dad que puede o no estar en acuerdo con lo sabido previamente.
Otra posibilidad es que el azar enfrente al investigador con una conducta insospechada
del fenómeno en estudio. En estas circunstancias, a igual que en la anterior, quien descubre
esa actitud del fenómeno necesariamente debe saber todo lo concerniente a él, puesto que de
otra manera no podría reconocer lo inadecuado de aquella conducta. Esa observación induce
al investigador hacia la obtención de una respuesta lógica a aquello que no lo parece y puede,
sí, transformarse en la clave que le permita obtener una noción diferente. Es esta una actitud
inductiva que obliga al observador a modificar todas o parte de sus concepciones previas en
relación al fenómeno en cuestión en aras de hallar la explicación que corresponde a la mo-
dificación inesperada de la conducta de ese fenómeno, conducta que le esta señalando una
realidad previamente no sospechada pero, indudablemente, existente.
La segunda razón para llevar adelante un proyecto de tesis de doctorado es, habitualmen-
te, la necesidad de crecimiento académico. En la obtención de posiciones, dentro del ámbito
universitario, el título de Doctor adquiere trascendencia puesto que es el de mayor jerarquía
que otorga la Universidad.
Cuando se concibe a la Universidad como a la Institución que alberga el conocimiento y
que es fuente de conocimiento, la adjudicación del título de Doctor de la Universidad señala
que ella reconoce en esa persona a alguien que posee la mayor información en una parcela
dada de ese conocimiento y que ha sido capaz de ampliarlo o modificarlo.
En última instancia reconoce en el Doctor a un exponente mayor de la Cultura, en tanto
se entienda por Cultura el atesoramiento del saber.
Por ello la Universidad supone que quien es Doctor está en las mejores condiciones
para transmitir conocimiento a las generaciones que le siguen y cumplir, de esa manera,
con una de las condiciones básicas de la especie y que es la transferencia generacional del
saber.
Por esas razones es que quien completa el Doctorado posee más posibilidades para acce-
der a cargos docentes jerarquizados y a posiciones de conducción académica.
[ 60 ]
La primera es una elucubración teórica acerca de la factibilidad de la producción de un
fenómeno dado que deberá surgir como consecuencia de una acción determinada y que está
en línea con todo el conocimiento previo de ese fenómeno. En última instancia este tipo de
razonamiento responde a la lógica aristotélica y debe estar guiado por los mismos principios
que rigen la elaboración de un silogismo; es, por tanto, un acto esencialmente deductivo. Su
valor es mayor, puesto que condicionará todo el trabajo ulterior. De allí que la hipótesis debe
ser cuidadosamente pensada, discutida y contrastada con el conocimiento existente hasta en-
tonces en la porción del saber que se posee en el área de la investigación que se quiere ampliar
o modificar.
La tesis es el intento de demostración de la hipótesis. Ello implica una labor extensa
que, en ocasiones, ocupa lapsos prolongados. Es esencial que la metodología elegida para
llevar adelante el trabajo se adecue estrictamente al concepto de la hipótesis, tanto en lo
referente al diseño experimental como en lo que respecta al tipo de tratamiento matemático
que será dado a los resultados. La introducción de desviaciones en uno u otro aspecto puede
conducir a errores insalvables capaces de torcer la investigación, llevando a conclusiones
no verdaderas.
El proyecto requiere varios capítulos, aunque la totalidad del escrito no debe ser extre-
madamente extensa.
El capítulo inicial es introductorio; en él el doctorando deberá exponer sintéticamente
el conocimiento existente hasta ese momento acerca del fenómeno que pretende estudiar;
también podrá dar los lineamientos generales de su pensamiento personal en relación con
aquel fenómeno. Documentará este aparte con la bibliografía que considere como la más
representativa en cuestión.
El segundo capítulo es la enunciación de la hipótesis. Es este, tal vez, el aparte más esen-
cial del proyecto. La hipótesis debe ser cuidadosamente meditada y ajustada a los postulados
señalados antes.
El tercer capítulo es la descripción del material y del o de los métodos que empleará du-
rante el desarrollo de su trabajo.
Finalmente, construirá la lista de las referencias bibliográficas que haya citado en el
texto.
¿Cuánto debe ser el tiempo de graduado para que quien esté interesado presente el
proyecto de tesis?
El tema del proyecto de tesis de doctorado no aparece de manera casual, sino que es el re-
sultado de la maduración de una concepción particular e individual que le permite a alguien
explicar un fenómeno dado. Logrado este propósito, quien interpreta podrá suponer que el
[ 61 ]
conocimiento de ese fenómeno es incompleto o no resulta del todo claro, o que la concepción
corriente que de él se tiene es errada. En cualquiera de estas tres situaciones es aceptable y
lícito que pretenda ya sea incrementar su conocimiento, ponerlo mas en claro o re-orientar
su concepción; si esto es así le surgirá una idea nueva que supondrá que llevando adelante
una determinada acción el conocimiento del fenómeno adquirirá características distintas a
las que tiene en ese momento; esta actitud lo conducirá a la elaboración de una hipótesis de
trabajo que se transformará en la base de su futura tesis.
Ahora bien, para que ello suceda, el futuro doctorando deberá haber obtenido una larga
experiencia en el área que le preocupa, adquisición que, habitualmente, demanda varios años
de labor en el tema, años que conducen a que el fenómeno de interés se transforme en una de
sus vivencias. Por ello no es posible suponer que un proyecto de tesis de doctorado sea presen-
tado por alguien recientemente graduado. El tiempo medio que transcurre usualmente entre
la graduación y la presentación del proyecto de tesis es de unos diez años.
Ello implica, también, una edad determinada del doctorando que, idealmente, debería
estar entre los 35 y los 45 años, época de la vida en la que la maduración, en todos sus aspec-
tos, se ha completado y en la que la pujanza y persecución de un objetivo dado tienen la mayor
fuerza.
Sin embargo, pueden existir excepciones a lo comentado en los párrafos precedentes. Puede
suceder que quien se transformará en doctorando sea parte de un equipo de investigación al
que se haya integrado poco tiempo atrás y en el que cumpla, por ejemplo, el papel de becario,
trabajando sobre un tema que ha sido elegido por otros, habitualmente por su Director de Beca
o por el Jefe de la estructura en la que se desempeña, y que ese tema se transforme en el su tesis
de doctorado.
También puede suceder que alguien, con muchos más de 10 años de graduado se vea en la
necesidad de doctorarse para poder seguir adelante en su carrera, en este caso es probable que
seleccione un tema en el que ya haya trabajado y del que ya tenga resultados para construir su
tesis; esta última opción transformará a la tesis en un trabajo retrospectivo y no prospectivo
como resultan todas las otras opciones.
Ninguna de las dos posibilidades que suponen los dos párrafos anteriores son las mejo-
res, la primera porque la elección del tema puede no tener mayor relación con la vocación del
tesista y la segunda porque surge de la necesidad y no de la convicción de que la tesis significa
una jerarquización académica que voluntariamente se quiere alcanzar.
Información bibliográfica
Quien haya encontrado el tema que le servirá para la confección de su tesis de doctorado,
luego de haber sorteado la etapa de elaboración de la hipótesis, no deberá suponer que la
información que posee de él es la totalidad de la existente.
La actitud mas razonable del futuro doctorando es creer que su conocimiento es parcial
y que pudo haber habido otro autor que, en circunstancias iguales a las suyas, haya podido
desarrollar ideas similares a las que él ahora tiene.
Esta última posibilidad, y la necesidad de conocer todo lo sabido con respecto a la materia
[ 62 ]
que tratará, obligarán al investigador a una exhaustiva y completa búsqueda de la bibliografía
referida al tema de interés y a su lectura. Esa tarea no solo enriquecerá aun más su conocimien-
to, sino que también le posibilitará una mejor apreciación y comprensión de lo que pretende
hacer.
Décadas atrás la labor referida arriba era gigantesca y, en oportunidades, abrumadora,
puesto que el futuro doctorando debía visitar un sinnúmero de bibliotecas en las que le fuera
posible encontrar las revistas requeridas. Afortunadamente hoy ese trabajo está francamente
facilitado por la existencia de muy extensas bases bibliográficas a las que el estudiante puede
acceder electrónicamente, mediante el uso de una computadora, desde su domicilio o desde
el laboratorio, hospital o cualquier otro tipo de institución en la que trabaje. Esta modalidad
de adquisición de información permite obtener, al menos, el resumen del trabajo que se busca;
en ocasiones es posible lograr la versión completa de él gratuitamente cuando la revista en el
que se ha publicado lo permite, en otras el requerimiento es el pago de la copia, un valor que
habitualmente es bastante oneroso.
Después de finalizada la investigación bibliográfica es conveniente que el estudiante se-
leccione las citas que conciertan el mayor interés para su propósito y reconozca aquellas otras
de bajo o nulo valor. Habitualmente esta tarea necesita del asesoramiento de alguien con ma-
yor experiencia; la intervención, en este sentido, de quien dirigirá su investigación puede ser
de importante ayuda, puesto que contribuirá a darle un sentido lógico secuencial a su lectura
y simultáneamente, ahorrará tiempo y dinero.
Para mejor recordar es aconsejable que el estudiante elabore un sistema de fichas en las
que volcará el contenido de cada uno de los trabajos consultados, de manera resumida, y el
valor que le adjudica en relación a su propósito; esto último puede hacerlo empleando tarjetas
de colores diferentes, según la importancia del escrito examinado, o dándoles un número que
identifique su importancia.
Un esquema de ficha posible es el que se sugiere a continuación.
Posee relevancia, también, la búsqueda de revisiones que hubieran sido escritas en co-
nexión con el tema. De igual forma tiene valor la consulta de libros relacionados. En ambos
casos su lectura puede dar una concepción mas holística del problema y ayudar al estudiante
a conceptualizar mas adecuadamente sus ideas.
También para esto es conveniente que elabore fichas; en el caso de las revisiones puede
servirle la desarrollada arriba agregando solo la palabra “revisión” entre paréntesis luego de
“Título del trabajo”. En el caso de que se tratare de un libro el tipo de ficha deberá cambiar
adoptando un modelo que puede ser así:
[ 63 ]
Titulo del libro:
Título del capítulo de interés:
Autor(es) del capítulo:
Editor(es) del libro:
Año de edición:
Ciudad(es) en la(s) que fue editado:
Editorial:
Número de página inicial-número de página final:
Resumen (en el que consten los conceptos de mayor valor en relación al tema de in-
terés):
Idiomas
En muchos casos la literatura relacionada con el tema en cuestión está escrita en un idioma
que no es el materno del estudiante. Hoy, el idioma de las Ciencias es el Inglés, así como lo fue el
Latín, centurias atrás, para prácticamente todo el conocimiento. Mas aún, el Inglés es el idioma
de intercambio epistolar entre quienes desarrollan una misma actividad y hablan lenguas dife-
rentes, y lo mismo sucede en todas las reuniones internacionales de cualquier índole en las que
las presentaciones orales o escritas, a igual que su discusión, se hacen en esa lengua.
Por ello es imprescindible que el doctorando tenga un adecuado manejo del Inglés de
forma que le permita acceder a toda la literatura escrita en ese idioma. Si bien lo ideal sería
que lo hablase y leyese fluidamente, para la finalidad de su trabajo de tesis es, habitualmente,
suficiente poseer capacidad para su lectura. No resultaría así si el estudiante decidiera visitar
laboratorios extranjeros, ubicados en cualquier país en el que su idioma materno no se hable,
puesto que lo usual es que la comunicación entre los integrantes de esos laboratorios y sus
visitantes se haga en Inglés.
Es cierto que existen trabajos de valor escritos en otros idiomas; entre ellos el Castellano,
el Alemán, el Japonés, el Portugués y el Francés. Sin embargo, todos ellos, casi sin excepción,
poseen un resumen en Inglés que le permitirá al doctorando entender su importancia. Si ese
valor fuese mayúsculo para la mejor concreción de la labor en la que está empeñado, no le
quedará otro camino que pedir su traducción a alguien que sepa hacerlo.
Si bien es cierto que lo dicho en el apartado dedicado a la bibliografía tiene el mayor peso
en cuanto a la adquisición de información, ello no excluye otras fuentes que puedan servir al
mismo objetivo.
Ellas son varias.
Es útil que el doctorando concurra a reuniones científicas, o relacionadas con la índole
de su labor, en las que se discuta el tema de su interés u otros que pudieran estar conectados
con él. En esos encuentros el estudiante podrá escuchar las opiniones de otros investigadores
[ 64 ]
con, tal vez, mas experiencia que la de él; podrá hacer preguntas a esos investigadores, cuyas
respuestas pueden volver mas claras sus ideas; tendrá, en oportunidades, ocasión de observar
prácticas de laboratorio, clínicas, semiológicas u otras cuyo aprendizaje puede serle de ayuda,
y tendrá la posibilidad, hablando con otros, de conocer las dificultades e inconvenientes que
pueda tener la puesta en marcha y desarrollo de un método o de una técnica dada.
En relación a lo dicho al final del párrafo anterior es, sin duda, de la mayor utilidad que el
doctorando concurra a otros lugares en los que se trabaje en conexión con su tema de interés.
Estadías cortas, de entre uno y tres meses, en esos otros centros seguramente ampliarán la vi-
vencia que tenga de su proyecto y, posiblemente, lo instruirán acerca de los detalles prácticos
del manejo del método, o de los métodos, que él mismo debe, o deberá, emplear.
Es, también, valioso que acepte dar conferencias, participar en ateneos o llevar a delante
seminarios en los que hable del tema que lo ocupa. Ello contribuirá a que mantenga actuali-
zada su bibliografía. Puede suceder, también, que al preparar una disertación o participar en
una discusión aparezcan nuevas ideas hasta entonces no previstas.
Importancia de la redacción
La redacción del trabajo de tesis de doctorado debe ser hecha en el mejor idioma posible.
Para el caso nuestro, el Castellano que se emplee debe ser absolutamente correcto.
El doctorando cuidará que los tiempos de verbo sean los adecuados al párrafo que está
escribiendo.
También debe ser precisa la puntuación.
Es conveniente utilizar párrafos cortos.
Es importante el uso de sinónimos que eviten la repetición de sustantivos y verbos, ello
hace que la lectura sea más amena.
No debe ser redundante en sus dichos y no debe insistir en una noción determinada más
allá de lo necesario.
Puede emplear abreviaturas. Cuando lo haga por primera vez, y ellas no sean de uso co-
tidiano, es menester que las preceda por las palabras completas que esa sigla supone; en esta
primera introducción la abreviatura irá entre paréntesis, por ejemplo Organización Mundial
de la Salud (OMS), luego, en lo que sigue del texto, podrá usarla sin enmarcarla por parén-
tesis.
En mi criterio resulta práctico que el doctorando exhiba en una página, que esté situada
al comienzo del escrito principal, todas las abreviaturas que empleará en el texto junto a su
significado. Por supuesto que esto no es necesario para aquellas de uso universal como, por
ejemplo, las relacionadas con el sistema métrico decimal.
Es conveniente insistir en la redacción correcta del manuscrito, puesto que cuando no es
así se hace incomprensible, laboriosa, tediosa y frustrante su lectura.
Si bien la tesis de doctorado, en el caso de las Ciencias, es un trabajo científico, su desa-
rrollo es algo mas suelto, por decirlo de alguna manera, que el que corresponde a un escrito
enviado a una revista. Es conveniente que la construcción de la tesis de doctorado tenga
algún parecido con una novela, de forma que quien la redacte pueda hacer que el lector
[ 65 ]
transcurra por ella siguiendo los pasos y el razonamiento que conducen a la conclusión de
manera distendida, hacer que el escrito evolucione de un concepto al otro naturalmente,
que no encuentre razonamientos forzados, que no resulte imprescindible volver atrás con
frecuencia para poder entender el párrafo bajo análisis, que fácilmente pueda acceder a
la comprensión de una abreviatura; en síntesis, que su lectura resulte agradable, fluida y
placentera.
Es experiencia corriente hoy para muchos de quienes juzgan los trabajos de tesis de doc-
torado que, lamentablemente, existe una buena proporción de tesistas que emplean un pobre
Español, a pesar de que nuestro idioma es el segundo en riqueza de vocablos después del Ale-
mán. Creo que esto no es anecdótico, sino un defecto grave, sobretodo si se tiene en cuenta
que la falta de recursos idiomáticos condiciona la falta o mezquindad de ideas. La razón para
que esto ocurra está en el bajo apetito, que tiene gran parte de los jóvenes de hoy dedicados a
las Ciencias, para la lectura de literatura no técnica. Este defecto nace en la escuela primaria,
no es atendido adecuadamente en la secundaria, y pierde toda posibilidad de solución en
la Universidad o, al menos, en las facultades ligadas a la enseñanza técnico-científica. Pro-
bablemente lo que sucede es que la imagen esté reemplazando a la palabra, acontecimiento
útil cuando se trata de aprender hechos concretos, pero un obstáculo para cuando tratan de
relacionarse fenómenos entre si, para lo que es indispensable emplear palabras, emplear la
capacidad de abstracción y crear ideas.
Otro aspecto que merece ser citado es la abundancia de anglicismos en los textos de las
tesis de doctorado científico-técnicas. Ello es consecuencia del uso de palabras inglésas en el
lenguaje común de la Ciencia; esto explica su empleo, pero no lo justifica ya que para cada
uno de los vocablos ingléses que se utilicen existe una traducción acorde en Castellano.
Lo dicho arriba hace aconsejable que quien decida embarcarse en un trabajo de tesis de
doctorado posea un lenguaje lo suficientemente rico que le permita expresar sus conceptos
con precisión y claridad. Para ello deberá tener una formación cultural más extendida que la
que provee el mero asunto técnico-científico en el que trabaja.
Luego de haberme referido, en los párrafos anteriores, a los lineamientos generales que
debe respetar un trabajo de tesis de doctorado, quiero, ahora, dedicar el resto de este escrito
a la descripción de los pasos que debe seguir un proyecto de este tipo.
Quien decida emprender un proyecto de tesis de doctorado deberá ser alguien con alta
capacidad de observación, también de síntesis, y poseer buena imaginación cuya única res-
tricción sea la argumentación lógica.
Sin duda, reparar en el trabajo propio y en el ajeno y valorar los hechos en relación a un
fenómeno dado es el primer paso que dará, aun inconscientemente, quien luego se transfor-
mará en tesista.
[ 66 ]
Esa observación deberá ser seguida por la síntesis del conocimiento del tema que llevará,
a quien sea el interesado, a concluir en que estado se encuentra el saber relacionado con ese
fenómeno o acontecimiento en ese momento. Llegado aquí, surgirá la pregunta que inquirirá
qué sucedería con el fenómeno o acontecimiento visto si tal o cual circunstancia se modifica-
ra. Es esta pregunta el embrión de la futura tesis.
Logrado esto, el futuro tesista buscará a la persona que, con la mayor autoridad posible,
pueda orientar su investigación. Seleccionará a su Director.
Esta persona, naturalmente, debe ser un idóneo en el tema pero, además de ello, debe
tener vocación por la enseñanza, amplitud de pensamiento, ser receptor de ideas novedosas,
apreciar su posibilidad de verosimilitud y alentar decididamente al investigador cuando ello
suceda o convencerlo de su error cuando ello ocurra.
Fuera de las características anteriores, quien dirija una tesis debe establecer con el doc-
torando una relación de familiaridad que permita a este último acercarse a él cada vez que
necesite de su consejo y ayuda.
El Director debe estar dispuesto a leer críticamente el manuscrito todas las veces que
fuere necesario hasta llegar a su redacción final.
Debe, igualmente, analizar gráficos, tablas y figuras sometiéndolas, igualmente, a la
crítica hasta que resulten convincentes.
Finalmente, debe cuidar que la bibliografía citada sea la correcta, que no se hayan sos-
layado trabajos que, eventualmente, pudieran contradecir las conclusiones de la tesis, sino
que hayan sido discutidos y refutados convenientemente. Debe asegurarse que toda cita que
esté en el texto figure en la lista bibliográfica y que en ésta no haya citas que no hubiesen sido
incluidas en el texto.
c) Formulación de la hipótesis
Discutida y aceptada, entre el tesista y el Director, la nueva idea, llega el tiempo de for-
mular la hipótesis.
En párrafos anteriores he tratado de conceptualizar el término. Para decirlo de otra ma-
nera, básicamente es entender que es posible introducir una idea diferente que incremente o
modifique el conocimiento de un fenómeno dado, de un hecho acaecido o de una construc-
ción intelectual cualquiera.
Es claro, entonces, que la hipótesis es la consecuencia de la meditación.
Volviendo a Aristóteles, tres razonamientos son posibles; el analógico, que va de lo par-
ticular a lo particular; el inductivo, que va de lo particular a lo general y el deductivo, que va
de lo general a lo particular.
De los tres, el habitualmente empleado en Ciencia es el deductivo; es usual que a partir de
todo el saber que se posee acerca de un fenómeno dado sea posible obtener una información
novedosa, particular, más cercanamente relacionada con el ser y el comportamiento de aquel
fenómeno.
[ 67 ]
Sin embargo, el método inductivo es, también, aplicable a la Ciencia. No lo es usual-
mente en el trabajo cotidiano, aunque existen algunos ejemplos que muestran que ello es
factible; Mendeleiev, al elaborar la tabla periódica de los elementos dejó espacios en blanco
sugiriendo que allí encontrarían lugar otros no conocidos entonces, es hoy realidad que
la tabla se ha completado llenando las expectativas de aquel físico que supuso, o intuyó,
la existencia de todos los elementos que componen la Naturaleza. En realidad, si por un
momento se atiende a como han surgido las leyes que gobiernan los fenómenos natura-
les, necesariamente se arriba a la conclusión de que se lo ha hecho de manera inductiva,
analizando fenómenos particulares que posibilitaron la universalización del concepto, es
decir que permitieron la generalización de ese conocimiento; véase, por ejemplo, la noción
de gravedad, aplicable a la manzana que cayó sobre la cabeza de Newton y, también, al
desplazamiento de sistemas estelares dentro de una galaxia. Es, en definitiva, el sueño de
matemáticos y físicos adquirir, en algún momento, y a partir de los conocimientos parciales
obtenidos, una ley general de la Naturaleza que permita explicar todos y cada uno de los
fenómenos que en Ella se dan; quizás resulte posible algún día; realizable o no, la idea es
muy atractiva.
Habitualmente la hipótesis es el corolario de una deducción que emplea, como base del
razonamiento, al silogismo. Aceptando que es este el mecanismo de pensamiento que condu-
ce a una determinada conclusión, que es la hipótesis, resulta absolutamente necesario que las
premisas sean verdaderas, para evitar construir una falacia.
El estudiante enunciará su hipótesis de forma que ella sea comprensible por otros idóneos
en el tema y tendrá que dar las razones que lo llevaron a la elaboración de la propuesta.
Sin duda que el objetivo mayor del trabajo de tesis de doctorado es la demostración de la
hipótesis.
Sin embargo, pueden, en el camino, fijarse otros objetivos menores en relación a la mag-
nitud del primero. Esos otros objetivos, que constituyen pasos necesarios en la consecución
del de mayor valor, pueden ser nombrados en este aparte del proyecto y, llegada la ocasión,
descriptos con la extensión necesaria en el trabajo final.
La enumeración de los objetivos menores o secundarios en el proyecto primero no invalida
la posibilidad de que el tesista encuentre otros datos novedosos, capaces de aparecer en el decur-
so de su labor, y que con ellos haga igual que con los que hubiere previsto inicialmente.
e) Materiales y Métodos
[ 68 ]
integrará cada una de las muestras en las que se dividirá el material. En relación a este último
aspecto verá que el total de individuos que forme cada muestra sea tal que permita efectuar
un cálculo estadístico cuyos resultados sean convincentes.
Tanto en el empleo de animales de laboratorio como de humanos, el investigador deberá
cuidar que el trato dado a ellos se ajuste a los postulados éticos vigentes, incluyendo el even-
tual sacrificio de los animales de laboratorio, si ello fuese pertinente a los fines de la investi-
gación. Por ello resultará imprescindible que cada proyecto posea el aval del Comité de Ética
de la Institución en la que la labor será llevada a cabo.
En el caso en el que se convocaren humanos para la investigación, cualquiera fuere el
procedimiento al que se les sometiere, el investigador deberá obtener del interesado o de su
responsable mas cercano, cuando el directamente involucrado no estuviere en condiciones de
juzgar su participación, el consentimiento expreso, firmado, en el que el sujeto de la expe-
riencia, o su responsable, acepta ser parte del estudio. Para ello el investigador les informará
detalladamente el propósito de la experiencia, las eventuales incomodidades a las que puede
enfrentarse y los efectos indeseables que el estudio podría acarrearle. También dejará taxati-
vamente dicho que estará dispuesto a interrumpir la investigación y liberar al participante si
éste lo solicitare; de igual manera, se comprometerá a no dar a publicidad la identificación de
las personas que accedieran al estudio.
Resulta respetuoso y recomendable que, cuando se tratare de humanos y una vez finali-
zada la investigación, el responsable de ella informe a cada uno de los participantes, de ma-
nera individual, los resultados y conclusiones obtenidos en el estudio, empleando un léxico
que resulte comprensible para el interlocutor.
En lo que se refiere a los métodos, tendrán que ser enunciados en el proyecto inicial y
exhaustivamente descriptos en el trabajo final; para cada uno de ellos se establecerá su fina-
lidad.
De esta forma, quien lea y juzgue el manuscrito de la tesis, podrá hacerse una idea cabal
de los objetivos que ha perseguido el investigador al usar tal o cual procedimiento técnico.
Este aspecto es clave en el desarrollo del trabajo. Resulta conveniente que el estudiante
conforme una base de datos con sus resultados; idealmente la disposición que se les de a ellos
debería permitir el cálculo en cualquier momento del desarrollo y, naturalmente, al concluir
la labor.
Existen hoy, comercialmente, muy diferentes esquemas de base de datos, para distintos
propósitos, que posibilitan el cálculo y la graficación de los resultados obtenidos; el tesista
debe seleccionar aquella que mejor se acomode a sus requerimientos. También es posible que
el estudiante diseñe una base que abarque todas sus necesidades; para ello sus conocimientos
de programación y computación deben ser los adecuados.
Ordenados de la mejor manera que cupiere a los objetivos del estudio, el tesista elegirá
el tipo de tratamiento matemático-estadístico que les dará. Es por ello que su versación en
Estadística debe ser alta. Ello le posibilitará seleccionar el cálculo que mejor muestre lo que
ha obtenido.
[ 69 ]
El tipo de tratamiento que se le dará a los resultados puede ser esbozado en la presenta-
ción del proyecto inaugural y debe ser ampliamente justificado en el escrito final. No necesa-
riamente la sugerencia hecha inicialmente debe coincidir exactamente con el tipo de cálculo
que, en definitiva, se usará; es aceptable que el devenir de la investigación modifique la con-
cepción previa y sea otro el cálculo necesario que mejor se ajuste a los resultados.
Distinta es la actitud cuando el investigador trabaja de manera ciega, sin conocer si está o
no modificando las circunstancias con su intervención y cuál es el resultado que eso provoca.
Sucede esto en trabajos en los que se ensaya, por ejemplo, el efecto de un fármaco sobre una
patología determinada, partiendo de la hipótesis que supone que la composición molecular
de la droga en ensayo es capaz de interferir alguno de los pasos metabólicos que llevan a la
instalación de determinada dolencia. En estas circunstancias, el investigador se reunirá con sus
resultados recién al finalizar la totalidad de la experiencia. Es más, en este tipo de diseño expe-
rimental es conveniente que otra persona, ajena a la investigación, sea quien haga el tratamiento
de lo observado.
g) Resultados
Es este el eje y el capítulo mas importante del trabajo. Lo es porque los resultados son
tal como se muestran, no pueden modificarse a voluntad, son independientes de las ideas,
razonamientos, interpretaciones que de ellos se haga y sensaciones que ellos provoquen en
quien los ha logrado.
Los resultados son hechos permanentes, son parte de la realidad y parte de la verdad.
Las discusiones y conclusiones que induzcan pueden o no ser ciertas; sin embargo, nada de
ello los cambia.
Es la experiencia de todos que una observación dada puede ser vista de una manera en un
momento determinado y de otra en alguna oportunidad siguiente. En Neurología, una rama de
la Medicina Clínica, un ejemplo es el de la enfermedad denominada Miastenia Gravis, en ella
la reducción de la amplitud del potencial de acción muscular evocado por el estímulo eléctrico,
repetido a alta frecuencia, del nervio dirigido a un músculo determinado, fue tomado como
argumento para sostener el origen pre-sináptico de la dolencia, es decir de ubicación en la termi-
nal axónica de la fibra nerviosa que alcanza a las células musculares, concepto que se mantuvo
hasta los años ’60 y que sostenía que aquella caída de amplitud era debida a disminución o
alteración molecular de la acetilcolina, que es el intermediario sináptico en la transmisión neu-
romuscular, y que se aloja en el nervio; en esa década se demostró cabalmente que la falla en la
transmisión neuromuscular era de origen post-sináptico, localizado en la célula muscular y no
en la terminal nerviosa, entendiendo, entonces, que el comportamiento referido del potencial
muscular era la consecuencia de la disminución de receptores a la acetilcolina en el músculo; a
pesar de estos vaivenes en la interpretación, la conducta del potencial muscular frente al estí-
mulo eléctrico repetido a frecuencia elevada permaneció inmutable.
Por ello los resultados deben exhibirse prolija y detalladamente, de manera objetiva
y clara, aceptando que si bien han logrado su existencia gracias al investigador, unas vez
aparecidos se independizan de él para pasar a formar parte del conocimiento, parte de la
Cultura.
[ 70 ]
No es aceptable que, al describir los resultados, el autor sugiera interpretaciones de ellos,
que deberá guardar para la discusión. Tampoco es aceptable que condicione al lector diciendo
que tal o cual fenómeno muestra una determinada tendencia sin que ello esté basado en va-
lores estadísticos que lo sustenten. Cuando estas cosas suceden, el lector avezado comprende
que el autor, tal vez apasionado, está tratando de ver en sus resultados lo que desea ver y, por
tanto, ha perdido la objetividad. Es útil recordar, aunque suene superfluo, que quien busca la
verdad tiene la obligación de aceptar los hechos tales como son, a pesar de que muchas veces
ello contradiga sus expectativas iniciales.
La manera mas razonable de exhibir los resultados es empleando tablas, gráficos y figu-
ras, poniendo en ellas todos los datos necesarios como para que el lector esté en condiciones
de repetir el cálculo si así lo quisiere. Otra ventaja de la mostración de tablas y gráficos es
que cuando los números son dados en el texto el lector los olvida rápidamente y su búsqueda,
cuando la lectura ha progresado más allá, se hace laboriosa; mucho mas sencillo es recurrir
a las tablas nuevamente.
De todas formas, el autor debe cuidar que el número de tablas, gráficos y figuras que
presente no abrumen al lector. Verá como combinar datos, para que varios de ellos ingresen
en la misma tabla o gráfico.
Nunca el autor repetirá en el texto valores que ya estén graficados o en tablas, enviará al
lector a ellos cuando resultare necesario.
Las figuras, cuando existan, serán ejemplos representativos del fenómeno en estudio. En
líneas generales, unas pocas figuras bastan para que quien lee se forme una idea adecuada del
comportamiento del fenómeno en investigación.
El autor reparará en que cada figura tenga un número y un título, que cada gráfico también
lo posea y que igual ocurra con las tablas. En el caso de los gráficos y las figuras es usual que
exista una leyenda explicativa al pie. Si en cualquiera de los tres tipos de demostración existie-
ran abreviaturas no aclaradas previamente en el texto, ellas lo serán al pie de la mostración.
h) Discusión
En este aparte el autor dará su interpretación del comportamiento del fenómeno que ha
sido el objeto de su estudio.
Hará esto en primer lugar; luego cotejará esa interpretación con otras que pudieran exis-
tir en la literatura, destacando la originalidad de la suya. En el análisis de la literatura deberá
incluir tanto las ideas que fortifiquen su postura como aquellas otras que puedan debilitarla
o que, definitivamente, contradigan su posición; buscará como refutar a estas últimas, dando
razones convincentes para que pueda ser aceptado.
Finalizado este segmento de la discusión, el autor destacará su posición intelectual frente
al hecho analizado y lo hará tratando de enmarcar esa posición dentro del conocimiento
corriente que del fenómeno se tuviere en ese momento.
En ningún caso volverá a repetir lo que dijo en la introducción al hablar de la literatura re-
lacionada. Si fuera necesario citar parte de ella, enviará al lector a la página correspondiente.
Encontrar algo diferente y explicarlo es uno de los atributos privativos de nuestra especie.
Es de destacar que un nuevo conocimiento se universaliza inmediatamente, hace mayor nues-
[ 71 ]
tro saber y se transforma en Cultura. De esto debe tener conciencia el autor y si su convicción
es que su interpretación puede no ser lo suficientemente sólida, debe dejar espacio como para
que ingresen visiones diferentes de sus resultados.
Dado que la discusión tiene cierta proporción de subjetividad, es del todo aconsejable
que el tesista la someta al análisis crítico de su Director antes de introducirla definitiva-
mente en el texto. La crítica del Director deberá ser férrea, tratando de poner en claro las
eventuales debilidades y contradicciones que pudieran tener los dichos del tesista. No es de
mala práctica pedir a otro investigador, fuera del Director, que lea el escrito y obtener de él
su impresión. Todo ello hará que el autor redacte nuevamente la discusión; la nueva versión
deberá seguir los pasos de la precedente y, así, hasta que tanto el autor como el Director
estén convencidos de haber obtenido un relato en el que los argumentos hayan logrado la
suficiente solidez que les permita ser aceptados por la comunidad universitaria en cuyo
ámbito será presentado.
Es, de todas formas, inteligente suponer que, con el avance de las ideas, la interpre-
tación dada a los resultados por el autor puede ser modificada por otros en el futuro; de
allí que la propuesta que se haga deba ser presentada como una verdad relativa y, tal vez,
provisoria.
i) Conclusiones
Este aparte es, habitualmente, de corta extensión. Consiste en unos pocos párrafos en los
que se hace claro y preciso el nuevo hallazgo y su eventual valor en el desarrollo de las ideas
relacionadas con el tema en estudio.
El autor tendrá presente que aunque lo encontrado sea del mayor aprecio, nunca es la
respuesta final al problema en el que esa observación se inserta, solo un paso más en la dilu-
cidación de su conocimiento.
j) Resumen
Esta pieza del escrito es de importancia y apela a la capacidad de síntesis del autor. En el
resumen deberá decir, en pocas líneas, lo que resulta conceptual de todo lo dicho. La estruc-
tura del resumen deberá ser idéntica a la del manuscrito principal.
Su objetivo es dar al lector la idea central de la investigación hecha, como fue concebida,
que herramientas se usaron para explorarla, cuáles fueron los resultados de mayor valía y a
qué conclusiones ellos condujeron.
No necesariamente este aparte debe ir al final del texto mayor, puede precederlo. Yo creo
que es mejor esto último, puesto que quien lo lee sabrá, anticipadamente, que es lo que le
aguarda en el resto del manuscrito.
k) Bibliografía
[ 72 ]
Esa lista puede confeccionarse por abecedario, tomando el apellido del primer autor del
trabajo o capítulo de libro o libro. También puede hacérsela por orden de aparición en el tex-
to. Es preferible esta última modalidad, ya que hace más suelta la lectura.
Es conveniente que, en el texto principal, la cita figure como el número que tiene en la
lista bibliográfica. Ello es preferible a la inserción dentro del manuscrito mayor, entre pa-
réntesis, del nombre de los autores, año, etc; esta forma de individualización bibliográfica
entorpece la lectura, actúa como un distractor y la vuelve laboriosa.
La forma de citación seguirá las normas internacionales para las publicaciones periódi-
cas. El modelo de ficha sugerido arriba se ajusta a ello.
No deben incluirse en la lista citas que no hayan sido referidas en el texto principal.
l) Apéndices
Hay autores que crean apéndices para mostrar hechos que, usualmente, se conectan con
la idea central de manera tangencial. En general no agregan demasiado al pensamiento guía
del trabajo y lo que puedan aportar puede ser incluido en el escrito mayor.
En mi concepto, la mayor parte de las veces ellos son innecesarios. Más aun, yo creo que
desvalorizan el trabajo. Resultan un esfuerzo adicional para el lector y pueden desviar la línea
de pensamiento que sigue el escrito principal.
Creo que no es recomendable su introducción en un trabajo de tesis de doctorado.
m) Índice
Colofón
He tratado de dar las ideas y herramientas generales de lo que, creo, debe ser un trabajo
de tesis de doctorado.
Es cierto que mi experiencia está limitada a los escritos médicos y biológicos y que ello
constituye una restricción de ideas de la que, lamentablemente, no puedo escapar.
Sin embargo, quizás, lo dicho a lo largo de este capítulo pueda ser de utilidad, al menos
parcial, para cualquier estudiante dispuesto a emprender la denodada labor que implica lle-
var adelante un proyecto de tesis de doctorado.
Tal vez, quien lea estas páginas pueda adoptar algunos de los conceptos dados en benefi-
cio de su tarea. Si me enterase de ello estaría muy complacido.
[ 73 ]
Lecturas sugeridas
1. Alonso M. Ciencia del lenguaje y arte del estilo. 1953. Editorial Aguilar. 3° Edición.
Madrid.
2. Eco U. Cómo se hace una tesis. 2006. Editorial Gedisa. 8° Edición. Barcelona.
3. Fishbein M. Medical writing. 1957. Editorial McGraw-Hill Company. Nueva York.
4. Lasso de la Vega J. Cómo se hace una tesis doctoral. 1958. Editorial Mayfe. 2° Edición.
Madrid.
5. Lejarraga H. Cómo confeccionar un proyecto de tesis. 2006. Curso Virtual. Facultad de
Medicina Virtual. Facultad de Medicina. UBA.
6. Moroney MJ. Facts from figures. 1960. Editorial Penguin Books. 3° Edición. Londres.
7. Wikinski JA, Usubiaga JE, Hernández HH. El trabajo científico. 1977. Editorial Dia-
frag. Buenos Aires
[ 74 ]
Capítulo 7
La comunicación oral de la investigación
científica. Una herramienta para transmitir
conocimiento.
Ricardo J. Esper Antonio Paragano
[ 75 ]
La efectividad de una presentación oral depende de la habilidad del orador para comu-
nicarse con la audiencia. Cada aspecto de la presentación debe orientarse a captar la aten-
ción del espectador y facilitar la comprensión de la información expuesta. Este capítulo se
enfocará en el proceso que conlleva la presentación de los resultados de un trabajo o informe
científico, y en la forma de comunicarse eficazmente con la audiencia. Son pautas o consejos
para evitar caer en excesos o actitudes inadecuadas, intentado que las presentaciones tengan
cierta atmósfera de homogeneidad, facilitando el entendimiento y forjando el ambiente para
la discusión provechosa.
Los pasos a seguir para la presentación oral de los resultados se pueden dividir, en una
forma práctica, en cuatro fases: 1) la elaboración del resumen, 2) la confección del material
gráfico, 3) la presentación formal, y 4) la discusión de los resultados obtenidos.
[ 76 ]
y vinculados con el objetivo de la investigación. Exponga fielmente la información que res-
ponde a la hipótesis y a los objetivos planteados o que será utilizada en las conclusiones, y
debe hacerlo aún cuando obrara en contra de la tesis inicial o no se obtuvieran valores con
significación estadística.
Finalmente, la conclusión debe ser concisa, reflexiva y respaldada por los resultados del
estudio. Comentar el o los elementos más notables y sugerir recomendaciones. No añada
conclusiones que no se ajustan a los resultados, tampoco extenderlos a otras situaciones que
no son estrictamente las del estudio.
Atañe al presentador establecer los puntos cruciales correctos, ya que las personas no
retendrán más de unos pocos datos significativos, comuníquelos eficazmente y logrará que
los oyentes consigan recordarlos. No pretenda que la audiencia decida qué es lo importante,
asegúrese que ellos consideraran relevantes los mismos conceptos que usted. Una forma de
lograrlo es comenzar comentando las conclusiones de la última diapositiva, y enfatizar los
puntos esenciales para facilitar la presentación. Cada palabra hablada, y cada palabra escrita
en las diapositivas debe ser importante y relacionada con los objetivos.
[ 77 ]
cia, la presentación se opacará. El empleo de la tecnología puede ser un contratiempo en la
exhibición, y suele ocurrir cuando el expositor no está completamente familiarizado con
su funcionamiento.
Ni el individuo más experimentado es capaz de improvisar una presentación en horas.
Prepare personalmente el material y con la debida antelación, estime el número de diaposi-
tivas que puede necesitar y distribuya la información que quiere proporcionar en un número
razonable de ellas. Una buena regla es dedicar un mínimo de tiempo para cada diapositiva,
no mayor de un minuto, aunque esto puede ser variable. Piense en el tamaño de la sala y la
audiencia posible, si no tiene un fondo establecido para sus diapositivas busque uno que sea
agradable y que no interfiera con la lectura del mensaje.
No confíe en la apariencia de la presentación en la pantalla de su computadora, proba-
blemente cuando la proyecte su aspecto cambiará, y es aconsejable experimentar antes de
exponerla. Utilice un tipo de letra claro y de tamaño adecuado para facilitar su lectura, apro-
veche todos los espacios que le proporciona la diapositiva, pero no abuse de la información
que coloca en ellas. Incorpore el material gráfico que estime conveniente (fotos, gráficos,
tablas, etc.), pero recuerde que no son adornos, únicamente son útiles cuando componen
una imagen interesante. Las tablas deben tener un título claro, ponga especial cuidado en las
cifras, sumas, porcentajes, etc.
Los gráficos deben mostrar una tendencia definida, seleccione el más adecuado para la
expresión de los resultados (barras, columnas, etc.). Utilice pocas palabras por línea y pocas
líneas por diapositivas, aquellas con demasiada información y, por consiguiente, letra peque-
ña y frases apretadas, no son legibles y atentan contra la atención del oyente.
Diapositivas de texto
No más de 7 palabras por renglón y no más de 7 renglones por proyección. Eluda las
proyecciones llenas de números y frases que el espectador no alcanza a ver por el tamaño y
por carecer de tiempo para leer toda la imagen.
• Prefiera no transmitir más de una idea por proyección.
• El texto se debe poder leer desde la parte final del auditorio.
• No más de una diapositiva por minuto, para dar tiempo a la lectura del texto. Esta
regla ha perdido un poco su vigencia, y se puede admitir un número mayor, especial-
[ 78 ]
mente de imágenes sin lectura. Pero evite dar demasiada información, el espectador
no podrá captarla.
• Tamaño y tipo de las letras. No demasiado pequeñas que no se puedan leer des-
de una distancia considerable, según las dimensiones del local y de la pantalla de
proyección, ni demasiado grandes que haga incómoda o hasta molesta su lectura.
En cuanto al tipo de letras, las computadoras ofrecen una infinidad de ellos, y se
aconseja utilizar los de lectura fácil y clara, aunque en algunos casos y para destacar
conceptos se recomienda emplear tipos diferentes al del texto principal.
• Prefiera las proyecciones horizontales a las verticales. Estas últimas por lo general
dejan parte de las mismas fuera de la pantalla.
• Considere los contrastes. El contraste entre el color de las letras y el fondo de la dia-
positiva es un elemento de suma importancia, porque facilita o dificulta la lectura.
Existe una escala de contrastes de colores que optimizan este hecho, y que de mayor
a menor son los siguientes:
Letras negras sobre fondo blanco
Letras blancas sobre fondo azul.
Letras negras sobre fondo amarillo.
Letras blancas sobre fondo negro.
Letras rojas sobre fondo blanco.
Letras verdes sobre fondo blanco.
Letras blancas sobre fondo rojo.
Letras amarillas sobre fondo azul obscuro, etc.
Diapositivas de gráficas
Los gráficos cobran singular importancia en la presentación de los resultados y existen
múltiples opciones y combinaciones posibles de los mismos. Los clásicos son los de barras, de
torta, de línea, etc. Cada uno se utiliza según lo que se quiera expresar, pero es aconsejable
no manejar más de 7 barras o 7 divisiones de la torta, y deben rotularse en unidades o por-
centajes muy claros y contrastantes.
Es aconsejable que en las gráficas figuren los valores de las coordenadas y/o de las barras
o partes de la torta, para evitar al expositor tener que especificarlos. El tiempo de atención del
auditorio en una gráfica raramente sobrepasa los 30 segundos, a partir de los cuales la curva
de atención comienza a decrecer. Por lo general la atención en una gráfica de mala calidad,
complicada o de difícil comprensión no pasa de unos pocos segundos. En 30 segundos el
[ 79 ]
expositor solo podrá decir entre 50 y 70 palabras. Luego, es aconsejable programar la expo-
sición oral sobre esa gráfica en esa cantidad de palabras y de tiempo.
Lo habitual es combinar en las proyecciones texto y gráficas. En la actualidad, los in-
vestigadores cuentan con el apoyo de los profesionales de diseño y las posibilidades de los
programas de computación, asociación muy efectiva para lograr presentaciones de calidad.
No dejar de consultarlos, ellos son creativos y saben como transmitir un concepto.
Póster (Cartel)
El póster, otro medio de apoyo visual, surgió como una necesidad para permitir una
mayor cantidad de presentaciones en las sesiones científicas. Habitualmente no son tan valo-
radas por el autor como una presentación oral. Sin embargo, el mayor tiempo de exposición y
la posibilidad de discutir los resultados con los espectadores pueden provocar un gran interés
y resultar de mayor divulgación. La discusión más personal que puede generarse entre los
autores, los revisores y los lectores del póster presentes en el lugar, suele ser muy provechosa
y enriquecedora.
El póster introduce una variedad de ilustraciones que permite presentar el trabajo con
claridad. Debe combinar la parte escrita y gráfica con un diseño agradable y legible, y su ta-
maño debe facilitar la lectura desde una distancia prudencial. La información volcada debe
contener los mismos puntos que la presentación con diapositivas: título, autores, objetivo,
etc. Evite incorporar demasiados datos, dispóngalos en orden y destaque visualmente los
elementos clave.
Imprevistos
Pero suponga el presentador que se ha cortado la luz, no dispone de micrófono ni de me-
dio de proyección. O que los inconvenientes suceden en forma menos trágica, como un pro-
yector de diapositivas dañado, se interrumpe solamente el micrófono o, lo que es más común,
falla la computadora o la inserción de la memoria. ¿Deberá usted declinar la presentación?
Puede hacerlo, pero quizás no tenga otra oportunidad hasta varios meses después, tiempo
en que probablemente otro investigador presentará un estudio muy semejante al suyo y le
quitará primacía. Asimismo, puede mal interpretarse y verse como un desprecio al auditorio
que ha asistido a oírlo. Mejor improvise una presentación parcial, empleando sus mejores
condiciones pedagógicas e histriónicas.
Ayúdese con un pizarrón y tiza, y hasta con alguna humorada para elevar el estado de
ánimo de los presentes. Al usar el pizarrón hay datos claves que se pueden escribir en él,
nombres científicos, una fórmula o un resultado numérico importante. Esto contribuye a
mantener la atención, ayuda a la comprensión y ofrece un tiempo extra para analizar lo
que se expresó en palabras. Siempre se debe contar con recursos para salir del mal trance,
y el mejor instrumento es la experiencia del presentador. Entienda que todo material sirve
de apoyo, y que lo relevante es el discurso y su trasfondo. No hay muchas oportunidades
para presentar su experiencia y demostrar sus habilidades científicas y comunicativas, ¡no
las desperdicie!
[ 80 ]
3. La presentación oral
Elaborar una presentación para una reunión local, nacional o interdisciplinaria no es
momento para apresurarse, una exposición efectiva requiere de ensayo. La espontaneidad es
un número infinito de posibilidades entrenadas. Practicar le otorga al expositor la oportuni-
dad de medir cuánto tiempo tomará la exposición, planear las pausas en el momento opor-
tuno y familiarizarse con las diapositivas, tratar de memorizar y recitar la conferencia no es
la forma de presentar. Ensayar le permitirá modificar la presentación al instante, según las
necesidades o ante una pregunta de la audiencia. Si se admiten preguntas durante la presen-
tación, podrá fácilmente saltar adelante o atrás por las diapositivas, demostrando conocer la
información contenida en ellas y reforzando la evidencia para las respuestas.
El ensayo debe incluir probar el equipo que va a usar y crear un plan de apoyo, por si deja
de operar. Practique la presentación en voz alta, expresándose diferente cada vez. Puede ser
de ayuda hacerlo frente a los coautores o, mejor aún, en un ateneo de su servicio. Sus colegas
pueden proveer información honesta acerca del contenido, colores y/o cualquier defecto en
los gráficos. Aún con las mejores intenciones, pocas presentaciones están realmente acaba-
das. Tómese el tiempo necesario para encontrar la imagen que destaque su exposición, y
reemplace a la imagen que no lo hará. Agregue contenido actualizado y haga la presentación
interactiva. Intente tener acabado el borrador bastante tiempo antes de la fecha tope, y use el
tiempo extra para mejorarlo.
Depender de notas para trabajar o emplear largas pausas para componer pensamientos
desvía la atención y afecta la calidad de la presentación. No es recomendable la lectura de
notas, o debe hacerse con moderación, los buenos conferencistas rara vez las necesitan. Gas-
tar tiempo leyéndolas puede convencer a la audiencia que el presentador no está preparado.
Es posible que un presentador hable lentamente, otros hablan y se mueven muy rápido por
las diapositivas. Por regla general, cada diapositiva merece al menos 10 segundos, y ninguna
debería superar 1 o 2 minutos. Si toma más tiempo para cubrirla, probablemente es mejor
rehacer el contenido en dos diapositivas.
Disponga de una vestimenta adecuada al lugar y el foro de presentación, no se acicale
o atavíe excesivamente. Puede ocurrir que un atuendo inadecuado o insólito conduzca a la
desatención o, lo que es peor, al sentimiento de menoscabo, y que entonces el auditorio no se
concentre en la meta más importante que es el aspecto científico. Lo aconsejable es utilizar
una indumentaria que no desentone con el medio en que se encuentra, pero nunca estará mal
con el clásico saco y corbata.
En ese momento, usted es el centro de las miradas, aparezca lo más natural y relajado po-
sible. Recuerde, nadie sabe más del tema que usted. Si puede escoger, elija la parte izquierda
del auditorio, la explicación del material audiovisual será más lógica, es la forma en que se lee
nuestro idioma. Comunicar la presentación con pasión y confianza le añadirá credibilidad al
mensaje, y la audiencia reconocerá esas emociones.
Al mostrar imágenes, oriente a la audiencia hacia el punto relevante, proporcióneles el
tiempo suficiente para asimilar la información y permitir conjeturar las conclusiones. Mu-
chos oradores se apresuran a través de las diapositivas, hacen declaraciones que aluden a
conclusiones en las imágenes, pero no explican o señalan claramente esas conclusiones. Una
técnica que ayuda al auditorio a comprender mejor las diferencias es mostrar un ejemplo
[ 81 ]
“normal”, seguido de uno que no lo es. Exprese claramente las diferencias entre los dos, es un
error dejar a la audiencia que establezca la conexión entre ellos.
Considere cómo va a señalar los puntos importantes en una diapositiva, las herramientas
disponibles como el puntero de láser o el cursor del ratón, pueden ser efectivas si se emplean
adecuadamente. Es frecuente que el presentador no dirija el haz de luz sobre el elemento
que desea señalar, sino que lo mueva displicentemente en forma circular, oval o totalmente
asincrónica tratando de englobar múltiples áreas o, lo que es peor, no señalando ninguna en
especial. Esto no resulta útil, sino más bien distrae y hasta puede llegar a ser desagradable.
El contenido de las diapositivas es explicativo y dirigido a la audiencia y no al orador,
que no debe leerlas. Es conveniente afrontar en dirección a los presentes y no a la proyección.
Además no corresponde disculparse dentro de la presentación, si una diapositiva será difícil de
comprender no debería ser presentada. A veces las preguntas pueden ser más importantes que la
presentación real, piense y adelántese a las preguntas que podrían manifestarle. Al replicar mire
a todos los oyentes, ya que todos pueden tener la misma duda. Evite elogiar algunas consultas y
no otras, además, trate todas las cuestiones e interrogadores con el mismo respeto.
Contestar las dudas que le plantea el auditorio no debe ser un problema si ha sabido
transmitir las ideas esenciales, las preguntas suelen ir dirigidas a aclarar y ampliar alguno
de los puntos clave de su charla. Si no sabe la respuesta no intente responder con evasivas o
invenciones, mejor transmitir al interlocutor el interés por tratar de darle contestación en un
futuro o, simplemente, admitir su desconocimiento al respecto. Suministrar toda la informa-
ción, positiva o negativa, para que los demás puedan juzgar con ecuanimidad el valor de su
trabajo, no exponga información sesgada tratando de orientar el juicio de los presentes.
El aprendizaje es un proceso dinámico que requiere de la participación activa de los presen-
tes. Desde tiempos inmemoriales la clase profesoral ha sido una técnica de instrucción amplia-
mente respetada. Sin embargo, en nuestros días una conferencia para transmitir información o
como método de enseñanza puede considerarse igualmente igualmente primordial. La presen-
tación oral debe orientarse para incluir la participación de los oyentes, despertar su curiosidad,
motivarlos a aprender y pensar, en resumen, lograr más que lo que puede cualquier libro o
publicación.
El clima de la conferencia es importante, los factores que perturban la voluntad de aten-
ción de la audiencia deterioran la comprensión. Un ambiente seguro y relajado facilita el
entendimiento. El orador, intencionalmente o involuntariamente, puede modificar el clima
emocional y debe comprometerse para lograr un contexto con estas características.
La interacción informal con la audiencia, con el humor apropiado, ayuda a establecer
un clima que conduce al aprendizaje. Muchos autores recurren a alguna anécdota o hecho
inusual para llamar la atención, inclusive, alguna cita o una gracia que causa hilaridad entre
los presentes. Esto “despierta” a un auditorio un tanto estático y motiva su interés. Manejar
prudentemente una cantidad correcta de humor puede contribuir al mutuo entendimiento
con la audiencia. Está bien salirse ocasionalmente de la “letra”, no es un recurso desdeñable,
pero con la precaución de no ser ofensivo ni chabacano, ni hacer que la presentación se re-
cuerde por el imprevisto y no por la esencia científica.
Es aconsejable llevar las imágenes de la conferencia en la computadora personal, en un
CD o memoria electrónica, pero siempre con un duplicado. Examinar antes de la presen-
[ 82 ]
tación las imágenes a proyectar para evitar inconvenientes, recordar que los programas de
computación se renuevan muy frecuentemente, por ello consultar si los programas de la com-
putadora a utilizar son compatibles con el formato que el presentador dispone.
Por sobre todas las cosas, respetar los tiempos. Todos los investigadores están conven-
cidos que sus hallazgos son de máxima importancia y que van a cambiar los destinos de
Occidente. Pero a todos se les da la misma cantidad de tiempo para su presentación, por lo
general de 10 minutos o, a lo sumo, 15 minutos. Superado este límite se reduce el tiempo de
los siguientes expositores, o el de las preguntas y respuestas. Es necesario que se entrene lo
suficiente como para asegurar de terminar en tiempo. Más de una vez, los encargados de
cronometrar la exposición, por lo general el presidente o secretario de mesa, truncan la co-
municación en el tiempo justo y el presentador se ve perjudicado por no haber expuesto las
conclusiones o el comentario más importante.
Es necesario recalcar que el principiante debería ensayar la presentación varias veces en
presencia de sus colegas para habituarse al medio, a las formas y al tiempo. Ellos le acon-
sejaran sobre todo aquello que pueda mejorar y optimizar, inclusive hacerle preguntas que
podrían surgir luego desde el auditorio y prepararse para ello. Solo después de mucho tiempo
y amplia experiencia podrá exponer sin temores ni mayores errores.
Los mensajes publicitarios tratan de captar la atención en pocos segundos, y es un ejem-
plo importante que debemos tener en cuenta porque aunque dispongamos de un plazo mayor
para presentar nuestro trabajo, tenemos un mínimo de tiempo para atraer la atención. De no
hacerlo, por mucho que hablemos no conseguiremos ser eficaces en nuestro objetivo. Para
cumplir con esta recomendación debemos comenzar la presentación de manera original y
atractiva, utilizando los recursos de la narración oral (vista, voz, cuerpo, manos y pies).
Nuestra presencia ante la audiencia tendrá un impacto en su reacción para lo que sigue, el
orador debe estar cómodo y controlado, o al menos transmitir esa impresión. La cabeza debe
estar en alto con la barbilla arriba, actitud que da la impresión de tener el mando. Los brazos
cruzados en el pecho se ven como un signo de defensa. Si uno esta sentado, enderezarse en la
silla manteniendo la columna recta, los pies en el suelo y las manos extendidas sobre la mesa.
Los gestos son un refuerzo visual para las ideas y las palabras enunciadas, diríjase a la au-
diencia con movimientos que cautiven la atención. Es más cómodo atender a un conferencista
dinámico que escuchar a alguien que está detrás de un podio con los brazos cruzados. Use gestos
amplios y envolventes, nunca emplee ademanes rápidos y espasmódicos. Los gestos más efectivos
son extensiones naturales de uno mismo y deben ser variados, la repetición puede ser molesta.
Algunos modales, como apuntar con el dedo o el puño cerrado, son amenazadores. Evite
poner las manos en los bolsillos, use las palmas de la mano abiertas hacia el público, incline la
cabeza y sonría para enfatizar aquello que expone. No permanezca durante un período prolon-
gado detrás del podio, separa al orador de la audiencia y se percibe como lejano. Alcance a los
presentes físicamente, aumentará la atención e interés, y alentará a las preguntas y respuestas.
Los oradores efectivos hacen contacto visual con el público y advierten sus reacciones,
aburrimiento, entusiasmo, etc. Para hacer el contacto visual correcto debe “barrer” con la
mirada a la audiencia, observe a cada persona unos segundos. Es importante hacerlo, deja
percibir si están atentos o qué nos indica su lenguaje corporal, se mueven irritados, toman
notas o están dormidos.
[ 83 ]
Hablar claramente requiere de trabajo y práctica, esto es particularmente cierto si el
orador está hablando en un idioma diferente del materno. Una manera segura de perder la
atención del público es hablar con voz suave y monótona, duro trabajo es atender a alguien
que habla de ésta manera, muchos de los asistentes no harán el esfuerzo. Para comprometer
al auditorio, debe hablar con un tono natural, seguro e interactivo. Este estilo involucra a las
variaciones en la inflexión de la voz y la velocidad con que se habla, incorporando ocasional-
mente pausas. El ritmo debe ser lento, facilitándole al público la oportunidad de oír y asimi-
lar lo que se dice, hablar demasiado rápido puede fatigar. El orador balbuceante impresiona
nervioso, si mira hacia abajo puede percibirse como un intento de mantenerse alejado de la
situación. Evite las reiteraciones “muletillas”, molestan y desvían la atención hacia eso que se
repite sistemáticamente.
Uno puede desconocer sus gestos faciales, como entrecerrar los ojos, fruncir el ceño, o
poner caras extrañas que desorientan a la audiencia. Puede ser muy instructivo mirarse en
un espejo, o video grabado, y observar nuestros modos al hablar. No es fácil sonreír y hablar
al mismo tiempo, pero es importante sonreír durante la presentación, si es congruente con
el mensaje hablado. Nunca obtendremos una segunda oportunidad para cambiar la primera
impresión.
Técnicas pedagógicas
Existen algunas técnicas pedagógicas que pueden ser útiles de conocer cuando se prepara
una clase u otro tipo de exposición, ya que orientan en como concitar y mantener la atención
del auditorio.
[ 84 ]
Clínica del rumor
Consiste en hacer salir del aula a 7 de los espectadores presentes y proyectar al resto del
auditorio una diapositiva intrascendente, que puede ser de un paisaje, una escena familiar o
cualquier otro asunto.
A continuación, se hace pasar al primero de los espectadores que quedó afuera y se pide
a alguno de los presentes que le relate lo que ha visto en la proyección. Luego, se hace pasar
al segundo espectador de afuera y se pide al primer espectador que vino de afuera que relate
al segundo lo que le contaron que han visto en la proyección. Y así sucesivamente hasta llegar
al 7º espectador. El auditorio notará que el primer espectador relata al segundo lo que él in-
terpretó de lo escuchado de quien presenció la diapositiva, y el segundo le dirá su impresión
al tercero y así hasta llegar al séptimo. Como cada uno de los espectadores cuenta su impre-
sión subjetiva, la realidad se va transformando, pudiendo llegar a tergiversarse la verdadera
imagen de manera tal que despierta la hilaridad de la concurrencia. Al final, se proyecta la
diapositiva original y se muestra a los 7 espectadores que estuvieron afuera que se asombra-
rán de lo diferente a lo imaginado por ellos.
De no contarse con una proyección, se puede suplantar la imagen con el relato de algún
hecho rutinario o acaecido a alguno de los presentes, y continuar de igual manera.
Durante la ejecución de esta técnica, cada uno de los presentes interpreta a su manera
lo visto o escuchado, y al relatarlo es habitual que lo module con su punto de vista personal
o su interpretación subjetiva. Si bien esta técnica tiene como objeto principal convencer a la
audiencia de la importancia de recurrir a las fuentes de la información para no recibirla de-
formada por la subjetividad del intermediario, es enormemente útil para que el presentador la
tenga en cuenta al momento de su exposición. Debe intentar utilizar las palabras adecuadas y
los ejemplos ajustados para que impidan, o al menos no faciliten, interpretaciones subjetivas
demasiado diferentes de lo que el presentador quiere transmitir, y posibilitar que el mensaje
llegue en su justa realidad.
Otra aplicación práctica, es convencer al iniciado de la importancia de recurrir a los
trabajos originales para basar sus hipótesis, y no a las revisiones de los temas que, si bien
economizan tiempo y esfuerzo, suelen transmitir el punto de vista subjetivo del autor de la
revisión, y pueden influenciar fuertemente el análisis de las conclusiones.
Atención de la audiencia
Consiste en recitar a la audiencia 20 palabras habituales de la conversación diaria. Des-
pués, se les pide que escriban todas las palabras recordadas sin importar la secuencia. Luego,
el presentador preguntará a la audiencia cuantos de los presentes recordaron cada palabra en
la secuencia original, y tomará nota de ello para graficar esas respuestas en un diagrama de
barras o de líneas con la cantidad de personas que recuerdan cada palabra en las ordenadas.
Observará que la gran mayoría evoca con mayor facilidad las primeras y las últimas palabras,
y recuerda mucho menos las del medio. Esto hace que la curva de evocación de las palabras
tenga una concavidad superior que expresa que la atención de la audiencia fue más importan-
te al inicio y al final. Estos resultados se observan con frecuencia en las audiencias del mundo
Occidental. Contrariamente, en el mundo Oriental, lo habitual es que el nivel de atención se
mantenga uniforme en todo el tiempo, con una resultante que es bastante horizontal.
[ 85 ]
Esta técnica fue inicialmente utilizada para conocer el nivel de atención de la audiencia
durante una exposición, y es útil que el orador la tenga presente para intentar mantener un
nivel uniforme de atención de la audiencia. Puede alternar con cierta periodicidad frases o
proyecciones que impacten positivamente a la audiencia, concitando una atención pareja
durante la exposición. O por lo menos, utilizar los elementos de mayor importancia en forma
escalonada o periódica para despertar interés. También es importante que el orador exprese
la hipótesis del trabajo y los objetivos al principio, cuando la audiencia está más interesada, y
que sea claro y determinante en las conclusiones al final de la presentación.
Epílogo
La intención este artículo fue acercar algunas recomendaciones a los que se enfrentan por
primera vez a un auditorio para difundir información científica. Es posible que estas conside-
raciones parezcan intrascendentes, sin embargo, pocas veces se tienen en cuenta y el resultado
de una exposición se ve innecesariamente disminuido. Hablar en público es un arte, algunas
personas parecen haber nacido con las habilidades y el deseo para hacerlo. Sin embargo, la
mayor parte de nosotros necesitamos aprender este arte, trabajando continuamente para
mejorar. Vale la pena el esfuerzo, comunicaremos mejor el conocimiento y provocaremos
un cambio en las actitudes y/o la práctica cotidiana de los oyentes. Este es el resultado que
uno desea cuando se involucra con la investigación y la educación médica. No olvide que la
constancia genera talento.
1. Albert T. Winning the publications game. Oxford & New York, Radcliffe Medical Press,
1997.
2. Arribalzaga EB, Borracci RA, Giuliano RJ, Jacovella PF. El artículo científico. Buenos
Aires, Editorial Magister Eos, 2005.
3. Biancuzzo M. Developing a poster about a clinical innovation. Part I: Creating the pos-
ter. Clinical Nurse Specialist 1994; 8:153-155.
4. Biancuzzo, M. Developing a poster about a clinical innovation. Part II: Creating the
poster. Clinical Nurse Specialist 1994; 8: 203-207.
5. Bradley H. It’s show time!. Home Office Computing 1999; 17: 102.
6. Bragshaw E. Slide projection. PC User 1992; 196: 61.
7. Brinko KT. The Practice of Giving Feedback to Improve Teaching: What Is Effective?
J Higher Education 1993; 64:574-593.
8. Cirigliano G, Villaverde J. Dinámica de grupos y educación. Buenos Aires, Ed. Huma-
nitas, 1985.
9. Collins J. Education Techniques for Lifelong Learning. Giving a PowerPoint Presenta-
tion: The Art of Communicating Effectively. RadioGraphics. 2004; 24:1185-1192.
10. Collins J, Mullan BF, Holbert JM. Evaluation of Speakers at a National Radiology Con-
[ 86 ]
tinuing Medical Education Course. Med Educ Online [serial online] 2002; 7: 17. Availa-
ble from http://www.med-ed-online.org.
11. Council of Biology Editors. Council of Biology Editors Style Manual. Arlington, VA,
Council of Biology Editors, Inc, 4th Edition, 1978.
12. Cruz Verduit L, Arencibia JR, Pérez Fernández E. Aspectos metodológicos básicos pa-
ra la preparación y el empleo de las diapositivas. http://www.bvs.sld.cu/revistas/aci/
vol10_4_02/aci030402.htm.
13. Dalal MD, Daver BM. Computer generated slides: a need to curb our enthusiasm. Br J
Plast Sur 1996; 49: 568-571.
14. Estrada CA, Patel Sangnya R, Talente G, Kraemer S. The 10-Minute Oral Presentation:
What Should I Focus on? Am J Med Sci. 2005; 329(6): 306-309.
15. Farrow R. ABC of learning and teaching in medicine: Creating teaching materials. Br
Med J 2003; 326: 921-923.
16. Garity J. Creating a professional presentation. J Intraven Nurs 1999; 22: 81-86.
17. Garson A, Gutgesell HP, Pinsky WW, McNamara DG. The 10-minute talk: Organiza-
tion, slides, writing, and delivery. Am Heart J 1986; 111: 193-203.
18. Greenhalgh T. Cómo leer un trabajo científico. Guía basica de la medicina basada en la
evidencia. Buenos Aires, Volpe/Fox S.A., 2005.
19. Haber RJ, Lingard LA. Learning oral presentation skills: a rhetorical analysis with peda-
gogical and professional implications. J Gen Intern Med 2001; 16: 308-314.
20. Hewson M, Little M. Giving feedback in medical education. Verification of recommen-
ded techniques. J Gen Intern Med. 1998; 13: 111-116.
21. Hoffman M, Mittelman M. Presentations at professional meetings: notes, suggestions
and tips for speakers. Eur J Intern Med 2004; 15: 358-363.
22. Jadoul M. Ten ways to ruin or market your oral presentation. Nephrol Dial Transplant
2001; 16: 2119-2123.
23. Kroenke K. The 10-minute talk. Am J Med 1987; 83: 329.
24. Leddy C. How to effectively present your product. Multichannel News 2001; 22: 44.
25. Maddow CL, Shah MN, Olsen J, Cook S, Howes DS. Efficient communication: as-
sessment-oriented oral case presentation. Acad Emerg Med. 2003; 10: 842-847.
26. Manterola C, Pineda V, Vial M, Grande L. ¿Cómo presentar los resultados de una inves-
tigación científica? I. La comunicación oral. Cir Esp. 2007; 81(1): 12-7.
27. Mecklenburger JA. Emerging technologies for education, beyond the computer revolu-
tion. Peabody J Edu 1986; 64: 183-187.
28. Moore Weaver L, Augspurger P, O’Brien King M, Proffitt Ch. Insights on the poster
preparation and presentation process. Applied Nursing Res 2001; 14: 100-104.
29. Niamtu J. The power of power point. Plast Reconstr Surg 2001; 108: 466-484.
30. Noguerol Rodiguez B, Gonzalez López S, Sicilia Felechosa A. Uso de la diapositivas en
presentaciones científicas III: confección de diapositivas mediante el ordenador. Perio-
doncia 1995; 5: 153.
31. Ruhl KL, Suritsky S. The pause procedure and/or an outline: Effect on immediate free
recall and lecture notes taken by college students with learning disabilities. Learning
Disability Quarterly 1995; 18: 2-11.
[ 87 ]
32. Sherbino J, Bandiera G. Improving communication skills: Feedback from faculty and
residents. Acad Emerg Med 2006; 13: 467-470.
33. The eclectic slide. Goverment Computer News 2001; 20: 12.
34. Van Overbeek J. The presentation of scientific papers. Science, new series 1941; 93: 184-
185.
35. Wikinski JA, Usubiaga JE, Hernandez HH. El trabajo científico. Buenos Aires, Editorial
Diagraf, 2da Ed, 1977.
36. Thompson WM, Mitchell RL, Halvorsen RA, Foster WL, Roberts L. Scientific presen-
tation, what to do and what not to do. Invest Radiol. 1987; 22: 244-245.
37. Zorrilla AM. Hablar, escribir, traducir en español. Buenos Aires, Editorial Dunken,
2003.
[ 88 ]
III. Desarrollos modernos en las ciencias médicas
Capítulo 8
Metanálisis
Luis Alcocer
Introducción
[ 91 ]
ahora reforzados los sentidos del médico con estudios más o menos elaborados de laboratorio
y gabinete. Algunas revistas tan prestigiosas como el New England Journal of Medicine, aún
reportan casos completos, muy bien estudiados y se les considera de un alto valor didáctico.
Este método del análisis del caso es empleado como un método muy actual, por ejemplo en
las grandes escuelas de negocios.
Los estudios de series se completan con estadística descriptiva. Se refieren fundamental-
mente a enfermedades, síndromes o síntomas-signos y en ocasiones a resultados sobre deter-
minado procedimiento, especialmente quirúrgico. Su validez es simplemente descriptiva y, en
ocasiones, se intenta justificar su publicación al limitarlos a un grupo de interés particular,
como por ejemplo: “Caractéristicas de la enfermedad X en grupo de ciudadanos del país Y,
en edades de n a p años”.
Los caminos de la intuición, la fe, la magia y aún la percepción extrasensorial, han sido
utilizados por siglos por la medicina para reconocer, interpretar el sentido e intentar curar
la enfermedad. El método científico es el pensamiento que permite al hombre tener una cer-
teza razonable de lo que sus sentidos recogen (Senso) y su mente elabora (Percepción). Es lo
más cercano posible a la verdad y es actualmente el único aceptable para tomar decisiones
sobre el estado de salud-enfermedad de las personas y para preservar, promover o restaurar
su estado de salud, entendido este como tiempo de calidad de vida. El método científico
nace formalmente desde el siglo XVII con el pensamiento de Galileo y es un proceso des-
tinado a explicar fenómenos, establecer relaciones entre los hechos y enunciar leyes que
expliquen los fenómenos físicos del mundo y permitan obtener, con estos conocimientos,
aplicaciones útiles al hombre.
El siguiente nivel de la investigación médica emplea el método científico en un más alto
nivel, y nace cuando se comparan las características de un grupo francamente enfermo con
otro grupo de personas de características similares, pero sin evidencias de enfermedad. Estos
estudios son llamados “Caso-Control” y permiten emplear la estadística no solo descriptiva
sino también inferencial, esto es que permiten inferir relaciones.
Es consustancial a la investigación científica el someterse siempre a una “prueba de
la verdad”, que consiste en evidenciar que cada hecho descubierto pueda ser comprobado,
mediante otros experimentos, por cualquier persona y en cualquier lugar, y en que sus hi-
pótesis son revisadas y cambiadas si no se cumplen. Esto es ya posible en los estudios caso-
control, que son todavía vigentes, se emplean para construir hipótesis causa-efecto, aunque
no permiten demostrarlas y son especialmente útiles para el estudio de condiciones muy
raras, en las que es imposible conseguir muestras grandes en número de sujetos enfermos.
El siguiente nivel de estudios se llama estudios de cohorte. Consiste en seleccionar un
grupo de personas y seguir en el tiempo la evolución de su estado de salud. En general se com-
para la incidencia del evento que se decidió estudiar, entre personas expuestas y no-expuestas
a diversos factores. Los estudios de cohorte se han utilizado de manera clásica para determi-
nar la ocurrencia de un evento específico en un grupo de individuos inicialmente libres del
evento o enfermedad en estudio.
Permiten estudiar los factores de riesgo para una enfermedad determinada y son la base
de la epidemiología moderna. Quizá el más significativo de ellos es el estudio Framingham,
con más de 50 años de seguimiento.
[ 92 ]
Hasta este nivel el método que se emplea es la observación, sin interferir en el proceso,
por lo que podríamos decir que estos grupos de estudios están destinados a conocer la histo-
ria natural del proceso salud-enfermedad y su principal producto es la caracterización de las
enfermedades y la posibilidad de conocer y evaluar el riesgo.
La experimentación es un procedimiento mediante el cual se trata de comprobar una
hipótesis, mediante la manipulación de una o más variables, manteniendo fijas las otras
conocidas, lo que permite estudiar las relaciones y el peso que estas variables tienen para
el desarrollo del fenómeno en estudio. La experimentación es fundamental para poder
ofrecer explicaciones causales. La experimentación en humanos es desafortunadamente
esencial para conocer en especial los efectos benéficos e indeseables de los agentes tera-
péuticos. Es por ello que las normas éticas son fundamentales cuando se experimenta
con humanos y deben ser muy estrictas y muy vigiladas en estos estudios. Este tipo de
investigación se emplea para valorar la eficacia de diferentes terapias, de actividades pre-
ventivas o para la evaluación de actividades de planificación y programación sanitarias.
Como en los estudios de cohorte, los individuos son identificados en base a su exposición,
pero a diferencia de estos, en los estudios experimentales es el investigador el que decide
la exposición.
Los estudios experimentales son de varios tipos:
Ensayo clínico: Es el estudio experimental más frecuente. Los sujetos de estudio son
en la mayoría de los casos pacientes y se planean para evaluar uno o más tratamientos
para una enfermedad o proceso. Deben ser comparativos, entre dos o más grupos en los
que la intervención debe ser distribuida aleatoriamente. (Principio activo en estudio con-
tra placebo o principio activo en estudio contra tratamiento estándar, o principio activo
en estudio contra otro principio activo conocido). La validez de estos estudios radica
fundamentalmente en que el proceso aleatorio haga los grupos comparables en las va-
riables más relevantes en relación al problema a estudiar, con el objeto de poder atribuir
las diferencias en los resultados a la acción de la intervención practicada. Este tipo de
estudios se emplean desde la investigación pre-registro de los medicamentos (fases I-III),
hasta las fases post-registro. Tienen posibilidades de diseño muy variado y la muestra es-
tudiada puede ser pequeña, 20-100 probandos o hasta los grandes estudios que incluyen
a miles de pacientes, tan en boga actualmente y que son bautizados frecuentemente con
un acrónimo ingenioso.
Ensayos de campo: Tratan con sujetos que aún no han adquirido la enfermedad o con
aquéllos que estén en riesgo de adquirirla, y estudian factores preventivos de enfermedades
como pueden ser la administración de vacunas o el seguimiento de dietas.
Ensayos comunitarios: Incluyen intervenciones sobre bases poblacionales amplias. Este
tipo de diseños suelen ser cuasi experimentales (existe manipulación pero no aleatorización),
en los que una o varias comunidades recibirán la intervención, mientras que otras servirán
como control.
Los estudios experimentales, si tienen un diseño cuidadoso con un tamaño muestral
suficiente, un proceso de aleatorización adecuado, una intervención y un seguimiento perfec-
tamente controlados pueden proporcionar evidencias muy fuertes que nos permitan emitir
juicios sobre la existencia de relaciones causales entre variables.
[ 93 ]
Frecuentemente, los estudios clínicos pequeños no alcanzan potencia estadística para
sacar conclusiones, en especial cuando se intenta, por ejemplo, analizar el efecto que tiene
una intervención sobre desenlaces muy importantes, como mortalidad o complicaciones
graves, infartos de miocardio, accidentes vasculares cerebrales, etc. Para contestar esta
pregunta se requieren estudios muy grandes y seguimientos por tiempos prolongados, en
general más de 4 años, por lo que estos ensayos son muy caros y toman mucho tiempo para
obtener conclusiones sólidas. Una alternativa para solucionar estos problemas pueden ser
los metanálisis.
En la literatura de los últimos años, nos encontramos frecuentemente con este tipo de
análisis conjunto de estudios de investigación y nos será muy útil tener nociones sobre como
se genera e interpreta un metanálisis.
El metanálisis es una evaluación y síntesis sistemática, organizada y estructurada, de un
problema de interés, con base en los resultados de varios estudios independientes realizados
sobre este problema. Es un “estudio de estudios” o “epidemiología de sus resultados”.1
El primer metanálisis (no con ese nombre) fue realizado probablemente en 1904 por Karl
Pearson, quien intentó superar el problema del reducido poder estadístico de los estudios rea-
lizados con muestras pequeñas. Se le ocurrió que si se acumulan los resultados de un grupo
de estudios similares, se puede alcanzar un tamaño mayor de valores y el manejo estadístico
puede mejorar.
El término metanálisis fue introducido por Gene V. Glass, 2 un psicólogo de la educación,
en el año 1976. Se trata de una técnica matemático-estadística que permite, con una certeza
razonable, analizar en conjunto los resultados de estudios clínicos independientes, con hipóte-
sis y enfoques analíticos similares que resulten combinables, practicados en muestras relativa-
mente pequeñas, que analizados independientemente muestran resultados no conclusivos sobre
el mismo problema. Relaciona sistemáticamente y cuantifica gran diversidad de resultados y
ofrece conclusiones cuantitativas y cualitativas sobre el aspecto estudiado. La idea es que no se
pueden mezclar peras con manzanas, a menos que ambas se consideren como frutas: debido
a que en estudios diferentes las diversas variables dependientes se miden en diferentes escalas,
en el metanálisis la variable dependiente se transforma en una medida del tamaño del efecto,
transformándola en una medida estándar equivalente a una diferencia entre las medias o fre-
cuentemente a la relación de desventajas (relación de momios o en inglés “Odds ratio”).
El prefijo meta implica el concepto de junto o paralelo y también puede entenderse como
algo que acontece más tarde que o, simultáneamente, con algo que es más comprensivo que su
precursor. Algunos sinónimos utilizados incluyen: Revisión cuantitativa, síntesis. De hecho
los metanálisis se entienden en la Medicina Basada en Evidencias como un tipo de Revisión
cuantitativa, pues se distinguen dos tipos de revisiones:
1. Revisiones narrativas: Revisan un tema en forma más o menos exhaustiva, general-
mente por un experto en el contenido. En general, el autor presenta el tema en un formato
narrativo sin declarar explícitamente los métodos utilizados para obtener y seleccionar la
información presentada. Su debilidad radica en que no existen normas sobre cómo conseguir
[ 94 ]
los datos primarios o cómo integrarlos; por lo tanto, no existe un estándar para evaluar la
calidad de la revisión.
2. Revisiones sistemáticas): Son aquellas que resumen y analizan la evidencia respecto
de una pregunta específica en forma estructurada, explícita y sistemática. Típicamente, se
explicita el método utilizado para encontrar, seleccionar, analizar y sintetizar la evidencia
presentada. Existen dos tipos de revisiones sistemáticas:
Los metanálisis se requieren por la misma razón por la que se necesitan los grandes
estudios, aleatorizados y controlados, y mientras estos se realizan pueden sustituirlos. Los
estudios pequeños y medianos tienen mayor oportunidad de sufrir un sesgo estadístico, fun-
damentalmente por una menor oportunidad de que el reparto entre los grupos sea realmente
por azar, y frecuentemente no tienen el poder estadístico, por el tamaño de la muestra, para
distinguir diferencias no tan obvias. El metanálisis, a diferencia de los grandes estudios con-
trolados, no está sujeto a reglas tan estrictas, por lo que siempre sus conclusiones deben ser
tomadas como interinas, mientras se tiene la información proveniente de un gran estudio. Su
ventaja más importante es que para brindar información, no requiere del periodo de tiempo
tan largo como un buen gran estudio.
Existe gran confusión en el nivel jerárquico que ocupan los metanálisis para la obtención
de evidencias. En algunas clasificaciones, como la del Centro para la Medicina basada en
Evidencias de Oxford, la revisión sistemática de estudios controlados y aleatorizados, con
homogeneidad, representa el nivel 1a, mientras que los estudios aleatorizados de casos, con
intervalos de confianza estrechos constituyen el nivel 1b.
Pongamos en perspectiva la utilidad de los metanálisis:
• Un estudio clínico, pequeño o mediano, controlado y aleatorizado, sirve para estudiar
mecanismos.
• Un metanálisis de estudios clínicos, pequeños o medianos, y aleatorizados, sirve para
generar hipótesis y planear estudios clínicos mas dirigidos.
• Un estudio clínico grande, controlado y aleatorizado, sirve para obtener respuestas am-
plias y confiables.
• Un metanálisis de estudios clínicos grandes, controlados y aleatorizados, sirve para ob-
tener un estimado típico y no sesgado del efecto de un tratamiento o para estudiar las
interacciones entre subgrupos.
Sin embargo existen evidencias de que la información obtenida por metanálisis aún de es-
tudios grandes y muy bien hechos, es inferior a la evidencia obtenida por un estudio mayor. Por
ejemplo el magnesio en el tratamiento del infarto del miocardio, los estrógenos en la prevención
[ 95 ]
de la enfermedad cardiovascular en la mujer, los antioxidantes vitamínicos para la prevención
cardiovascular, los antibióticos para clamidias en el tratamiento del síndrome isquémico coro-
nario agudo, mostraron en estudios medianos y en metanálisis de ellos, ser útiles. Sin embargo,
cuando se practicaron estudios clínicos aleatorizados y controlados en poblaciones muy gran-
des no se demostró ninguna utilidad con estos procedimientos. Este fenómeno puede explicarse
por la metodología del metanálisis desarrollado, pues cuando se basan solamente en datos
publicados en forma agregada, solo proporcionan estimaciones del efecto de los tratamientos y
de su significación, que no se confirman cuando se analiza toda la evidencia relevante.
La mejor metodología es la que reúne, comprueba y analiza datos de pacientes indi-
viduales procedentes de todos los ensayos relevantes. Desafortunadamente este método
requiere una cantidad de tiempo considerable, así como recursos humanos y financieros
muy amplios. Estos estudios se conocen como metanálisis basados en datos de pacientes
individuales (DPI).
Por esta razón, pensamos que la evidencia obtenida del metanálisis tradicional es provi-
sional y que requiere la prueba final con el estudio controlado, aleatorizado, de preferencia
cegado, con un tamaño muestral suficiente para mostrar una diferencia estadísticamente sig-
nificativa con intervalos de confianza muy estrechos. Estos estudios son lo mejor con lo que
cuenta la ciencia para “demostrar” la verdad. (La senso-percepción que es el único camino
que tiene la mente para conocer el entorno, puede ser muy engañoso, por lo que el método
científico es la única forma conocida de obtener certezas razonables sobre la realidad).
A. Evitar el efecto producido por las variaciones del muestreo en una serie de pequeños estu-
dios y, por lo tanto, comprobar la existencia de un efecto en la dirección de interés. Esto
es: incrementar el tamaño muestral y el poder estadístico.
B. Confirmar hipótesis u otra información generada en estudios preliminares o explorato-
rios.
C. Identificar errores producidos en diversos estudios y que por su magnitud únicamente
puedan ser identificados mediante su agrupación.
D. Buscar asociaciones adicionales a los objetivos centrales de las investigaciones originales
y que por su escasa frecuencia no pudieron ser detectadas en estudios individuales.
E. Generar nuevas hipótesis que justifiquen su posterior investigación, en dos aspectos: re-
conocer cuáles son las variables de mayor relevancia y cuáles las comparaciones más
apropiadas y ayudar a decidir entre organizar un gran estudio en un solo sitio o varios
pequeños en diferentes lugares.
Las etapas a seguir, al practicar un metanálisis, son muy parecidas a las que se siguen con
otro tipo de investigación, solamente que en este caso la unidad de observación no son pacientes
o sujetos, sino estudios3. La siguiente secuencia es una modificación de la recomendada por la
Asociación Española de Hipertensión y la Liga Española de Lucha contra la Hipertensión:4
[ 96 ]
1. Se elabora un protocolo, que defina claramente los objetivos y que describa minucio-
samente los métodos que se utilizarán durante el estudio, el establecimiento de la pregunta
que se desea responder y las razones para ella se deben especificar claramente.
3. Es necesario declarar expresamente, desde antes los criterios de selección de los en-
sayos clínicos que deben ser incluidos, esto es criterios de inclusión y exclusión clara de
estudios. Los investigadores deben establecer cuáles de los trabajos recuperados serán in-
cluidos finalmente en el metanálisis, elaborando una lista de criterios de inclusión y exclu-
sión que deberá ser lo más objetiva posible. Para evitar el denominado sesgo de selección,
es importante aplicar dichos criterios rigurosamente a cada estudio, siendo recomendable
que esta evaluación sea realizada de forma ciega e independiente por varios evaluadores.
Entre los criterios de selección utilizados con mayor frecuencia en el metanálisis están: el tipo
de diseño de los trabajos, el tamaño muestral estudiado, la exhaustividad de la información
que presentan o la comparabilidad en la definición de los factores de exposición, de las inter-
venciones y de las respuestas estudiadas.
Aunque algunos autores sugieren utilizar la calidad metodológica de los trabajos como
un criterio de inclusión, es más aconsejable considerarlo como una variable más a tener en
cuenta en la interpretación de los resultados del metanálisis mediante un análisis de sensibi-
lidad, es conveniente emplear la clasificación de la evidencia según las revistas mayores del
tema. En cualquier caso, una vez valorada la calidad metodológica de cada trabajo, algunos
autores proponen utilizar las puntuaciones asignadas como pesos en el metanálisis, mientras
que otros defienden la utilización en su lugar de un análisis de sensibilidad.
5. Elaborar una guía de los datos que deben ser recolectados de los ensayos clínicos es-
cogidos para ser procesados en el metanálisis.
[ 97 ]
de los estudios revisados. Así, por ejemplo, si la respuesta es binaria (enfermedad/no enfer-
medad, muerte/supervivencia,…) las medidas de efecto utilizadas suelen ser la diferencia de
proporciones, el riesgo relativo o la relación de desventajas o momios. Por el contrario, si la
respuesta es un parámetro numérico (por ejemplo, la determinación de un parámetro analí-
tico) el efecto suele medirse mediante la diferencia estandarizada de medias en los grupos de
interés. Debe tenerse en cuenta que en los estudios experimentales, con grupos aleatorizados,
el propio diseño controla la confusión y los efectos pueden medirse con resultados “crudos”
como los descritos. Por el contrario, en metanálisis realizados a partir de evidencia obser-
vacional, el control del sesgo en el análisis deberá hacerse mediante técnicas de regresión
multivariada, siendo los resultados de estos modelos los que deben combinarse en la etapa del
metanálisis para obtener una medida global de interés.
Finalmente, es también aconsejable que en el momento de planificación de la investigación
se fije la diferencia mínima en la variable respuesta que será considerada de relevancia clínica.
En la mayoría de los casos, el estimador del efecto combinado se calcula como una
media ponderada de los estimadores de cada estudio, donde los pesos se asignan en base a
la precisión de cada trabajo, generalmente el inverso de la varianza de la estimación corres-
pondiente. De esta forma, los estudios con mayor variabilidad (por ejemplo, aquellos con
un tamaño muestral más reducido), tienen una contribución menor en el estimador global.
La heterogeneidad entre estudios puede ser tenida en cuenta en estos cálculos utilizando el
llamado modelo de efectos aleatorios, o no ser incluida mediante el uso del modelo de efectos
fijos.5 La principal diferencia es que con este último se considera que no existe heterogeneidad
entre estudios, mientras que con el modelo de efectos aleatorios se consideran dos posibles
fuentes de variabilidad, la variabilidad intra-estudio y la variabilidad entre-estudios, que se
incorporan al estimador combinado a través de los pesos correspondientes. No obstante,
debe tenerse en cuenta que cuando existe una gran heterogeneidad entre estudios el meta-
análisis, aún bajo la suposición de efectos aleatorios, no es apropiado y lo que procede es
identificar las fuentes de variabilidad y realizar un análisis por subgrupos.
Cuando hay información suficiente son dos los pasos que se siguen: en primer lugar la
extracción del estimador específico del estudio y su error estándar y luego la combinación de
esos estimados en un estimador o función de resumen.
Cuando la información existente es incompleta como para permitir utilizarla con algu-
nos cálculos sencillos, existen métodos estadísticos complejos que permiten hacerlo: ajustes
usando estimadores externos de confusión tales como factorización de riesgos relativos y
ajuste de coeficientes; ajustes para sesgos de selección y clasificación; tasas y razones de regre-
sión; estimación desde informes que emplean categorías amplias de exposición y estimación
de coeficientes desde informes que sólo presentan promedios. El estimador adecuado puede
ser una diferencia de proporciones entre dos grupos, una relación de momios, un riesgo rela-
tivo, etc. Cada uno de ellos tiene sus ventajas e inconvenientes y por lo tanto su elección debe
ser meditada y justificada. También podemos estar evaluando una variable cuantitativa con-
tinua, en cuyo caso habitualmente se utilizará como medida del efecto la diferencia de medias
entre los grupos, o situaciones más complicadas, que de momento no vamos a considerar,
como pueden ser variables de tipo ordinal, o variables similares a las utilizadas en el análisis
de supervivencia (observaciones censuradas), etc.
[ 98 ]
Aunque existen diferentes propuestas estadísticas para combinar estudios, hay tres fun-
damentales, que se conocen con el nombre modelo de efectos fijos, modelo de efectos aleato-
rios y por último el modelo bayesiano.
En el modelo de efectos fijos los estudios se combinan considerando que no existe hete-
rogeneidad entre ellos, y que por lo tanto todos ellos constituyen estimaciones de un efecto
real, cuya magnitud se desea conocer. Así pues, la inferencia realizada está condicionada a
los estudios que se han efectuado.
En el modelo de efectos aleatorios la inferencia se basa en suponer que los estudios in-
cluidos en el análisis constituyen una muestra aleatoria del universo de estudios posibles, y
sus resultados son más conservadores al tener en cuenta una fuente extra de variación, ya que
ahora se incluyen dos posibles fuentes de variación: la existente dentro de los estudios y la
variación entre los estudios.
La utilización de modelos bayesianos constituye, una alternativa interesante a la estadís-
tica inferencial clásica.
[ 99 ]
10. Analizar e interpretar los resultados del metanálisis
• Características cualitativas:
1. Un protocolo prospectivo
2. Definición comparable de los eventos cruciales a incluir
3. Control de calidad de los datos
4. Inclusión de todos los pacientes, de todos los estudios seleccionados, para el análisis
final
• Características cuantitativas:
1. Cuidado de que la muestra total sea suficientemente grande para asegurar resultados
reales y confiables
2. Empleo de técnicas cuidadosas de estadística para constatar, que la acumulación de
datos es correcta y que los resultados del metanálisis puedan ser confiables.
[ 100 ]
observada en 17 estudios de prevención secundaria, después de un infarto del miocardio,9
utilizada para explicar estos conceptos en una magnífica serie que sobre metanálisis ha pu-
blicado el British Medical Journal.10
Cada cuadro negro representa la relación de momios de un estudio diferente, su tamaño
expresa el peso relativo de cada estudio.
Las líneas horizontales corresponden a los intervalos de confianza al 95% de cada estu-
dio (contienen el efecto verdadero del estudio que se repetirá en el 95% de las ocasiones en el
que el estudio se efectúe nuevamente)
La línea vertical sólida equivale a la relación de momios 1, que es el punto de corte en el
cual el efecto del uso del betabloqueador es igual a no usarlo, llamado punto de no-efecto,
de tal forma que si los cuadrados que muestran los resultados se sitúan a la izquierda de esta
línea, el usar un betabloqueador es mejor que no usarlo y se sitúa del lado contrario, es mejor
no usar un betabloqueador que usarlo.
Si los intervalos de confianza tocan o cruzan la línea de igualdad (1), la diferencia no tiene
validez estadística, (p>0.05) . En este ejemplo ninguno de los estudios muestra diferencia esta-
dísticamente significativa, excepto los estudios G y J, que favorecen el uso del betabloqueador.
El rombo blanco indica la combinación de todos las relaciones de momios su ancho
muestra los intervalos de confianza de la combinación, esto es: la relación de momios cal-
culada en conjunto para los estudios incluidos en el metanálisis es de 0.28 con intervalos de
confianza del 95% que van de 0.71 a 0.87. Otra manera de expresar este resultado es decir
que el uso de betabloqueadores después de un infarto del miocardio reduce la mortalidad en
un 22% (1 - 0.78 = 0.22 = 22%).
La línea punteada que expresa la relación de momios conjunta, cruza la casi totalidad
de los intervalos de confianza de cada estudio, excepto la del estudio N, lo que indica que el
metanálisis se efectúo con una serie de estudios bastante homogéneos entre si.
Los dos principales problemas metodológicos de los metanálisis de ensayos clínicos son:11, 12
El “sesgo de publicación” que es una de las principales limitaciones de los metanálisis, con-
siste en que no todos los ensayos clínicos realmente realizados se publican, de esta forma los
trabajos con resultados positivos y significativos estadísticamente, tienen mayor probabilidad
de ser publicados que los que no muestran diferencias, o estas son negativas, es decir que no
hayan encontrado diferencias entre el grupo de estudio y el de control o que estos resultados
resulten inesperados. Por otra parte los “buenos estudios”, además de ser más aceptados, tardan
menos en ser publicados y son citados con más frecuencia, lo que aumenta considerablemente la
probabilidad de que aparezcan en una búsqueda bibliográfica. Asimismo los ensayos con gran
número de pacientes, tienen mayor probabilidad de ser publicados, aunque sean de tipo negati-
vo. De entre los trabajos que se publican, aquellos con resultados estadísticamente significativos
tienen una mayor probabilidad de aparecer en las revistas importantes. Por lo que no cabe duda,
e incluso se han hecho estudios que lo confirman, que hay un sesgo favorecedor de determinado
tipo de publicaciones, un importante sesgo de idiomas, los publicados en inglés son mucho más
[ 101 ]
accesibles y citados y además existe una preferencia en el número de citas, lo que conlleva a que la
probabilidad de que determinados resultados intervengan o no en un metaanálisis esté sesgada.
El otro problema frecuente que limita la validez externa de los metanálisis, es la hetero-
geneidad entre los ensayos seleccionados para el metanálisis, que se da necesariamente por
diferentes características clínicas y socio-demográficas de las poblaciones de cada ensayo,
pues suceden en distintas instituciones y regiones del mundo. Los métodos de evaluación
clínica aplicados, la dosis, forma farmacéutica o pauta de dosificación del fármaco evaluado,
etc., resultan muy heterogéneos pues proceden de diferentes protocolos.
Los grandes estudios controlados y aleatorizados para conocer el impacto que las accio-
nes terapéutucas tienen sobre los descenlaces importantes y para fundar nuevas indicaciones
de agentes terapéuticos seguirán realizándose en el futuro, aunque quizá en menor escala por
su alto costo. Por lo que veremos todavía muchos metanálisis en este campo.
[ 102 ]
Referencias
[ 103 ]
Capítulo 9
¿Que es cardiología basada en la evidencia?
Salim Yusuf Rafael Díaz
E n 1836, el editor del American Journal of Medical Sciences, Elisha Bartlett, presentó un
estudio declarándolo como “uno de los más importantes trabajos médicos del siglo que
marcará el comienzo de una nueva era en la ciencia.” Dicha proclama, que sugería un cambio
de paradigma, la determinaba una colección sistemática y presentación numérica de una serie
de datos acerca de flebotomías (sangrías) efectuadas por el Dr Pierre Louis.1 Este médico Fran-
cés acumuló una vasta cantidad de datos de una gran cantidad de pacientes durante sus años
de actividad como clínico y anatomopatólogo en el hospital Parisino de la Charité. Louis fue
un clínico meticuloso, lo cual tuvo importantes implicancias en la calidad de su investigación
sobre la eficacia de la flebotomía para el tratamiento de la neumonía. Después de establecer en
cada paciente el tiempo desde el inicio de los síntomas, analizó la duración de la enfermedad y
la frecuencia de muerte según el momento en que se efectuó la primera sangría, obteniendo dos
grupos comparables. Louis argumentaba que esto era necesario para equilibrar las diferencias
entre ellos, pues “siguiendo esta metodología los errores (que son inevitables) se distribuyen
igualmente en los dos grupos de pacientes sometidos a diferente tratamiento y, de esta manera,
se compensan mutuamente pudiendo ser desestimados sin afectar sensiblemente la exactitud de
los resultados”.2 Louis proseguía: “un agente terapéutico no puede ser empleado con alguna
probabilidad de éxito, a menos que su eficacia en casos análogos haya sido previamente docu-
mentada y así, sin la ayuda de la estadística, nada que se parezca a la medicina es posible”.3
El concepto prevaleciente de la época era que los enfermos se hallaban contaminados,
bien por alguna toxina o contagio, o por un exceso de uno u otro. Esta concepción de la en-
fermedad contenía en sí la idea de que esos estados mejorarían abriendo una vena para dejar
salir el padecimiento al exterior. La investigación de Louis comprobó que la sangría aceleraba
la muerte de los pacientes portadores de neumonía, mostrándose como una sorpresa devas-
tadora. Precisamente, a George Washington se le habían extraído 2,4 litros de sangre en las
15 horas previas a su muerte: había estado padeciendo fiebre, dolor de garganta y dificultad
respiratoria durante 24 horas.4 Basados en la observación de Louis algunos han sostenido que
Washington fue asesinado.5-7
Aunque éste es un ejemplo relativamente reciente, el reclamo de una evaluación compa-
rativa se materializó tempranamente, y a través de la historia hubo repetidos exhortos para
cuantificar los problemas médicos o sanitarios y para comparar los resultados en grupos de
[ 104 ]
pacientes bajo diferentes conductas terapéuticas y asistir a los médicos en forma individual.
En este capítulo discutiremos el significado de la medicina basada en la evidencia y su
consecuente toma de decisiones. Desarrollaremos un caso clínico como recurso didáctico en
la aplicación de estos conceptos.
Figura 1. Modelo temprano de los elementos clave para las decisiones clínicas basadas en la
evidencia.
[ 105 ]
Los conceptos de medicina basada en la evidencia han evolucionado considerablemente y
el modelo inicial ha sido recientemente ampliado, especialmente en lo que se entiende por expe-
riencia clínica y en lo concerniente a la consideración de las circunstancias clínicas. En la sección
siguiente utilizamos este nuevo modelo de “decisiones clínicas basadas en la evidencia” para
ayudar a resolver un caso clínico frecuente.
Panorama clínico
Un médico de familia le envía a usted un paciente y requiere su contribución en el tema
de la terapéutica antitrombótica. Se trata de un hombre de 80 años con historia de hiperten-
sión arterial, en quien hace 10 meses se constató una fibrilación auricular en un examen de
rutina. Al día siguiente de este diagnóstico, el paciente sufrió una hemorragia digestiva que
requirió hospitalización, endoscopía y transfusión de sangre urgentes. El paciente no había
iniciado terapéutica antitrombótica pero sí había recibido AINES por una osteoartritis.
Continuó libre de síntomas gastrointestinales y mediante la ingesta de acetaminofeno ha
evitado exitosamente a los AINES. Ocho meses atrás el ecocardiograma evidenció función
ventricular izquierda normal, ausencia de alteraciones estructurales y funcionales valvula-
res y aurícula izquierda severamente dilatada (65 mm). Basado en la duración de la arritmia
usted decide que la cardioversión no es una opción válida. El paciente está muy preocupado
por la posibilidad de padecer un accidente cerebrovascular (ACV), ya que su esposa, luego
de un ACV mayor, quedó completamente dependiente de él durante los 2 años previos a su
muerte. El médico referente, quien recientemente tuvo un paciente que sufrió serio sangrado
gastrointestinal mientras se hallaba recibiendo warfarina, se encuentra muy preocupado
acerca del riesgo de sangrado que presenta su paciente actual, considerando su edad y la
historia reciente de hemorragia digestiva.
[ 106 ]
paciente” son extendidas hasta incluir las acciones del paciente, y éstas se superponen con
“evidencia experimental”, comprometiendo su frecuente precedencia frente a ésta. Integrar
los tres aspectos requiere juicio y experiencia clínica, constituyendo un cuarto elemento
integrador. Describiremos cada componente, y el rol de la experiencia clínica que los fu-
siona.
El estado clínico y las circunstancias del paciente juegan a menudo un papel dominante
en la toma de decisiones clínicas. Los ensayos clínicos nos proporcionan resultados que refle-
jan al paciente promedio dentro de los grupos de tratamiento del estudio, “pero raramente
el paciente de la práctica clínica es el mismo que el paciente promedio del estudio clínico”.
Los pacientes individuales tienen características únicas y poseen en un menor o mayor nivel
de riesgo de eventos, o de efectos colaterales del tratamiento, que el del paciente promedio
del ensayo clínico. Así, las decisiones clínicas óptimas deberían ser ajustadas al estado clínico
del paciente. Un paciente que presenta alto riesgo de un futuro evento vascular pero bajo
riesgo para cualquier complicación derivada del uso de una determinada droga (por ejemplo,
un paciente con colesterol LDL de 300 mg/dl post infarto de miocardio y ninguna contra-
indicación para terapia con estatinas), o a la inversa, un paciente que se halla en bajo riesgo
de eventos y en alto riesgo de complicaciones por el tratamiento (por ejemplo, un hombre
de 40 años con fibrilación auricular sin factores de riesgo para ACV que ha experimentado
un sangrado gastrointestinal importante), exhiben estados clínicos que pueden dominar el
desarrollo del proceso de decisión.
Es notable que los círculos correspondientes a estado, circunstancias clínicas y evi-
dencia experimental se superpongan. Frecuentemente la evidencia experimental puede in-
[ 107 ]
formarnos acerca de la influencia del estado y las circunstancias clínicas. Considerando a
nuestro paciente, los datos reunidos de cinco estudios clínicos randomizados (ECRs) que
evaluaron la eficacia de la warfarina en pacientes con fibrilación auricular no valvular
(FANV), demostraron una tasa media anual de ACV del 4-5% y una tasa de sangrado ma-
yor del 1% en pacientes que no reciben medicación antitrombótica. Los investigadores, que
combinaron los cinco ECRs, usaron los datos de los pacientes del grupo control para desa-
rrollar una herramienta para la predicción clínica que permitiera estimar el riesgo anual de
ACV. En estos pacientes los factores de riesgo que predijeron ACV en forma independiente
fueron la edad, historia de hipertensión arterial, diabetes, y ACV o ataque isquémico tran-
sitorio previo. El riesgo anual de ACV para nuestro enfermo resulta estimado en 8%, más
alto que el 4.5% del paciente control promedio de los cinco ECRs.15 Análogamente, ha sido
desarrollada una herramienta de predicción clínica del riesgo de sangrado mayor (definido
como la pérdida del equivalente a dos unidades de sangre en 7 días, o sangrado que amena-
ce la vida) durante el tratamiento con warfarina.16 Los factores de riesgo que lo predicen en
forma independiente incluyen edad >65 años, historia de ACV, historia de sangrado gastro-
intestinal, infarto de miocardio reciente, anemia, insuficiencia renal y diabetes (nótese que
varios de los factores que predicen un mayor riesgo de ACV, aumentan asimismo el riesgo
de sangrado). El riesgo de sangrado mayor de nuestro paciente, igual a 8%, también difiere
de aquél del paciente promedio tratado con warfarina en los cinco ECRs, cuyo riesgo anual
de sangrado fue del 1.3%. No tenemos conocimiento de instrumentos clínicos diseñados
para predecir sangrado mayor durante la ingesta de aspirina, y los ensayos clínicos sobre fi-
brilación auricular no tenían una potencia suficiente para estimarlo. No obstante, basados
en los resultados del meta-análisis realizado por los investigadores del grupo Antithrom-
botic Trialists’ Collaboration, esperaríamos que la aspirina aumente el riesgo de sangrado
mayor en 1% a 1.3% en promedio.17
Las circunstancias médicas en las cuales se encuentran usted y su paciente (como su po-
sibilidad de administrar y controlar el tratamiento) pueden ser muy diferentes de las de un
ECR. Por ejemplo, el paciente puede no tener la posibilidad de controlar el nivel de anticoa-
gulación con la necesaria frecuencia. No obstante, para un paciente con las mismas carac-
terísticas clínicas es posible optimizar las circunstancias clínicas para disminuir el riesgo
de un evento o de un efecto colateral del tratamiento. Por ejemplo, podemos disminuir el
riesgo de sangrado por warfarina mediante un monitoreo más intenso de sus parámetros
de coagulación. Luego, una decisión “basada en la evidencia” acerca de la anticoagulación
para un paciente con fibrilación auricular, no está solamente determinada por la eficacia
demostrada de la terapia antitrombótica y por sus potenciales efectos adversos, sino que
oscilará según el estado clínico del paciente y de acuerdo con las circunstancias clínicas
individuales.
Los pacientes pueden o no poseer firmes opiniones sobre sus opciones terapéuticas, de-
pendiendo de su estado, valores y experiencias personales, grado de aversión al riesgo, re-
cursos y seguros de salud, familia, voluntad de tomar la medicación, información exacta o
[ 108 ]
incorrecta a su disposición, etc.8 Individuos con estados clínicos y circunstancias muy seme-
jantes pueden elegir cursos de acción muy diferentes, a pesar de haber sido confrontados con
la misma información acerca de los beneficios y riesgos de una intervención.
Para nuestro paciente con FANV la evidencia experimental nos provee información so-
bre las diferentes preferencias de los pacientes y sus médicos respecto de la terapia anti-
trombótica en la fibrilación auricular, al evaluar los riesgos de ACV y sangrado.18 En este
caso, los participantes (médicos y pacientes) revisaron material que describía en detalle las
consecuencias en el corto y largo plazo de un ACV mayor y menor y de un sangrado mayor.
A los participantes se les informó que la probabilidad de ACV mayor y menor era la misma.
Los participantes fueron entonces interrogados mediante un cuestionario técnico (trade-off
technique*) que determinaba el número mínimo de ACVs que sería necesario poder prevenir
para que cada participante juzgara que la terapia antitrombótica estaba justificada (valor
determinado para la warfarina y la aspirina), considerando el riesgo asociado de sangrado,
costos e incomodidades.
La misma técnica fue empleada para determinar el número máximo de sangrados que
el participante consideraría aceptable con la terapéutica antitrombótica (determinado para
warfarina y aspirina dados los beneficios en términos de reducción de los ACV con esta
terapia). Este estudio demostró una variabilidad significativa entre médicos y pacientes en
su ponderación de los posibles resultados asociados con la fibrilación auricular y su trata-
miento. Los pacientes requerían menos reducción de los ACV y eran más tolerantes con el
riesgo de sangrado que los médicos. Por ejemplo, en promedio, los pacientes se hallaban
dispuestos a aceptar el riesgo de 17 eventos extra de sangrado mayor en 100 pacientes en un
período de 2 años, si la warfarina prevenía 8 ACVs entre esos 100 individuos. Los médicos,
no obstante, estaban dispuestos a aceptar solamente 10 eventos de sangrado mayor por el
mismo nivel de beneficios. Más aún, los médicos variaban significativamente acerca de qué
riesgo de sangrado era aceptable para una determinada reducción en los ACV asociada
con un agente antitrombótico. De este modo, distintos médicos darían recomendaciones
muy diferentes al mismo paciente con idénticos riesgos de sangrado y ACV. Esto subraya
la importancia de guiar las decisiones por medio de los valores y preferencias del paciente.
Es el paciente el que está en riesgo de eventos y así, “siempre que lo desee y sea apto para
hacerlo”, debería ser él quien pondere los potenciales beneficios versus los riesgos, costos
e incomodidades.
Existe controversia en cuanto al modo óptimo de obtener e incorporar las preferencias
del paciente en la elaboración de las decisiones clínicas. Un método es discutir los beneficios
y los riesgos potenciales con el paciente e incorporar la impresión del médico acerca de las
preferencias del paciente en la decisión clínica.
Cualesquiera que sus preferencias puedan ser, las conductas de los pacientes pueden dife-
rir de sus preferencias y de los consejos del médico.19 Por ejemplo, un paciente puede preferir
perder peso, dejar de fumar y tomar sus medicamentos de acuerdo a las prescripciones, pero
* trade-off technique: postula que un individuo puede elegir entre un conjunto de alternativas disponibles de forma
que maximice su satisfacción. Ello implica que conoce cada una de las alternativas y es capaz de evaluarlas. En el caso
de un individuo racional y consistente es posible definir una función de valor (determinística) o una función de utilidad
(probabilística) que represente sus preferencias.
[ 109 ]
su conducta contrastar y estar alejada para llegar a alcanzar esos objetivos. Alternativamen-
te, pueden seguir el tratamiento como está prescripto, aún siendo renuentes a la imposición,
los efectos adversos y el costo. Desafortunadamente, las estimaciones de los médicos sobre
la adherencia de sus pacientes a los tratamientos prescriptos no tienen más exactitud que la
de una conjetura. 20
Debemos reconocer que actualmente las preferencias de los pacientes raramente son in-
corporadas a la práctica clínica. Esto puede estar relacionado con la falta de entrenamiento
del médico en este tipo de enfoques, el recelo de transitar por terrenos poco familiares, y tam-
bién en muchas circunstancias a la falta de información cuantitativa exacta de los posibles
peligros o beneficios y sobre herramientas de predicción del riesgo.
Evidencia Experimental
[ 110 ]
transformándolas en las más convincentes. No obstante, esto raramente ocurre, porque to-
davía los ECRs exhiben frecuentemente por azar hallazgos contradictorios, especialmente
cuando son pequeños.
Por lo tanto, es deseable utilizar el mayor nivel de evidencia disponible para la toma de
decisiones, como la proveniente de la revisión sistemática de varios ECRs o, simplemente, de
un extenso ECR bien diseñado. El ECR es una herramienta muy poderosa porque la rando-
mización es nuestro único medio para reducir el sesgo en las comparaciones de tratamientos,
al controlar factores pronósticos conocidos y desconocidos. 25 Es así que, los ECRs tienen
la posibilidad de proveer la más “valiosa estimación del efecto” del tratamiento y cuando
sus criterios de inclusión son amplios aumentan la generalización de sus hallazgos (validez
externa). 26
Retornando a nuestro caso del paciente con FANV, el mayor grado de evidencia procede
de una revisión sistemática de todos los ECRs que han evaluado la terapia antitrombótica en
pacientes con fibrilación auricular. 27 Este estudio demuestra que la warfarina reduce el riesgo
relativo de ACV (isquémico y hemorrágico) en 62%, y la aspirina en 22%.
Considerando el riesgo de sangrado asociado con la terapia con warfarina, hay un ECR
que demuestra un 50% de disminución del riesgo de sangrado si el paciente está dispuesto a
someterse a un proceso de aprendizaje, entrenamiento y auto-monitoreo del tiempo de pro-
trombina. 28
Experiencia clínica
[ 111 ]
Cuando es accesible, la ayuda de decisiones potencialmente provee un medio para facilitar
la presentación de la información, la incorporación de las preferencias y la participación en
el proceso de la toma de decisiones.
[ 112 ]
Tabla 1. Fibrilación auricular: el desorden más común del ritmo cardíaco
Las chances de desarrollarla aumentan con la edad y está presente en alrededor del 10%
Riesgo
de las personas por encima de los 75 años de edad.
Latidos cardíacos irregulares y habitualmente rápidos, percibidos como un aleteo en
Síntomas el pecho. Algunos pacientes no tienen molestias y no están al tanto de que padecen
fibrilación auricular.
(Stroke) Accidente cerebrovascular (“ataque cerebral”)
La fibrilación auricular aumenta el riesgo de desarrollar coágulos en el corazón. Estos
pueden ser arrastrados por la sangre hasta el cerebro, produciendo un accidente
cerebrovascular.
Complicaciones Con la fibrilación auricular las chances de desarrollar un “ataque cerebral” aumenta con
la edad (mayor de 65 años), alta presión arterial, diabetes, insuficiencia cardíaca, y con el
previo antecedente de “mini-ataques” (mini-strokes).
El riesgo de desarrollar un accidente cerebrovascular con la fibrilación auricular varía,
dependiendo en cuántos de los factores arriba mencionados tiene usted.
Hay medicaciones para “licuar o disolver” la sangre, que ayudan a prevenir los coágulos y
Tratamiento por lo tanto el “ataque cerebral” (stroke).
La sangre “licuada” aumenta a su vez el riesgo de sangrado.
Tabla 2. Los accidentes cerebrovasculares pueden ser mayores o menores según su severidad.
Si usted padece uno a causa de la fibrilación auricular, las posibilidades de que sea mayor o
menor, son las mismas.
Tabla 3. Sangrado severo mientras toma warfarina o aspirina: un ejemplo a nivel del estó-
mago.
Físicamente Usted no se siente bien durante 2 días, entonces tiene un vómito de sangre.
Es hospitalizado.
Suspende la toma de warfarina o aspirina.
Un médico lo examina mediante un tubo que pasa por la garganta, para localizar de dónde
Tratamiento viene la sangre.
Recibe sedación para aliviar las molestias del examen.
No necesita operaciones (cirugía).
Recibe transfusiones de sangre para reemplazar la que ha perdido.
Al alcanzar esta decisión clínica basada en la evidencia, nuestra tarea aún no está com-
pleta. El paciente necesitará control para asegurar que él está en condiciones de seguir y
concretar el tratamiento indicado. Una ventaja de la ayuda de decisiones provista es que el
paciente puede llevar a su domicilio la información y no tiene que confiar en su memoria para
recordar los hechos discutidos durante la entrevista médica.
Este modelo no toma en cuenta los importantes roles que la sociedad, los gobiernos y las
organizaciones de salud pueden jugar en la toma de decisiones. Nosotros nos hemos limitado
deliberadamente a la consideración de las decisiones tomadas por los pacientes y sus provee-
dores de salud, a fin de permitir un examen enfocado de los temas involucrados en forma
inmediata al tomar cualquier decisión. Por ejemplo, la falta de reembolso de la angioplastia
transluminal coronaria primaria en el infarto agudo de miocardio puede tener un enorme
impacto en los resultados de las políticas de salud, e impondrá una decisión clínica sobre
todos los pacientes y los médicos al eliminar esta opción. En estos casos, los médicos deberán
intervenir considerando las condiciones clínicas de sus pacientes.
[ 114 ]
Sin medicación anticoagulante Aspirina Warfarina
Chance de ACV en los próximos Chance de ACV en los próximos Chance de ACV en los próximos
2 años 2 años 2 años
es ……por 100. es ……por 100. es ……por 100.
Chance de sangrado severo en los Chance de sangrado severo en los Chance de sangrado severo en los
próximos 2 años próximos 2 años próximos 2 años
es ……por 100. es ……por 100. es ……por 100.
Figura 3.
Conclusiones
[ 115 ]
Sin medicación anticoagulante Aspirina Warfarina
Chance de ACV en los próximos Chance de ACV en los próximos Chance de ACV en los próximos
2 años 2 años 2 años
es …8…por 100. es …6…por 100. es …3…por 100.
Chance de sangrado severo en los Chance de sangrado severo en los Chance de sangrado severo en los
próximos 2 años próximos 2 años próximos 2 años
es …1…por 100. es ..1,3...por 100. es …4…por 100.
Figura 4
Referencias
[ 116 ]
10. Haynes RB, Sackett DL, Gray JMA, Cook DC, Guyatt GH. Transferring evidence from
research into practice: 1. The role of clinical care research evidence in clinical decisions.
ACPJournal Club 1996; 125: A-14. Evidence-Based Medicine1996; 1: 196.
11. Sackett DL, Richardson SR, Rosenberg W, Haynes RB. Evidence-Based Medicine: how
to practice and teach EBM. London: Churchill Livingstone, 1997.
12. Sackett DL, Rosenberg WMC, Gray JA, Haynes RB, Richardson WS. Evidence-Based
Medicine: What it is and what it isn’t. BMJ 1996; 312: 71-2.
13. Sackett DL, Straus S, Richardson SR, Rosenberg W, Haynes RB. Evidence-Based Medi-
cine: how to practice and teach EBM, 2nd edn. London: Churchill Livingstone, 2000.
14. Cook DJ, Guyatt GH, Jaeschke R. Determinants in Canadian health care workers of the
decision to withdraw life support from the critically ill. JAMA 1995; 273: 703-8.
15. Atrial Fibrillation Investigators. Risk factors for stroke and efficacy of antithrombotic
therapy in atrial fibrillation. Arch Intern Med 1994; 154: 1449-57.
16. Beyth RJ, Quinn LM, Landefeld S. Prospective evaluation of an index for predicting the
risk of major bleeding in outpatients treated with warfarin. Am J Med 1998; 105: 91-9.
17. Antithrombotic Trialists’ Collaboration. Collaborative metaanalysis of randomised
trials of antiplatelet therapy for prevention of death, myocardial infarction, and stroke in
high risk patients. BMJ 2002; 324: 71-86.
18. Devereaux PJ, Anderson DR, Gardner MJ et al. Differences between perspectives of phy-
sicians and patients on anticoagulation in patients with atrial fibrillation: observational
study. BMJ 2001; 323: 1218-22.
19. Haynes RB. Improving patient adherence: State of the art, with a special focus on medi-
cation taking for cardiovascular disorders. In: Burke LE, Okene IS (eds). Patient Com-
pliance in Healthcare and Research. American Heart Association Monograph Series.
Armonk, NY: Futura Publishing Co, 2001.
20. Stephenson BJ, Rowe BH, Macharia WM, Leon G, Haynes RB. Is this patient taking
their medication? JAMA 1993; 269: 2779-81.
21. Guyatt G, Haynes B, Jaeschke R et al. Introduction: the philosophy of evidence-based
medicine. In: Guyatt G, Rennie DR (eds). Users’ guides to the medical literature. AMA
Press, 2002.
22. Nisbett R, Ross L. Human Inference. Englewood Cliffs, NJ:Prentice-Hall, 1980.
23. Echt DS, Liebson PR, Mitchell LB. Mortality and morbidity in patients receiving encai-
nide, flecainide, or placebo: The Cardiac Arrhythmia Suppression Trial. N Engl J Med
1991; 324: 781-8.
24. Moore TJ. Excess mortality estimates. Deadly medicine: why tens of thousands of heart
patients died in America’s worst drug disaster. New York: Simon & Schuster, 1995.
25. Kunz R, Oxman AD. The unpredictability paradox: review of empirical comparisons of
randomised and non-randomised clinical trials. BMJ 1998; 317: 1185-90.
26. Chalmers I. Unbiased, relevant, and reliable assessments in health care. BMJ 1998; 317:
1167-8.
27. Hart RG, Benavente O, McBride R, Pearce LA. Antithrombotic therapy to prevent stroke
in patients with atrial fibrillation: a meta-analysis. Ann Intern Med 1999; 131: 492-501.
28. Beyth RJ, Quinn L, Landefeld CS. A multicomponent intervention to prevent major
[ 117 ]
bleeding complications in older patients receiving warfarin. Ann Intern Med 2000; 133:
687-95.
29. Malenka DJ, Baron JA, Johansen S, Wahrenberger JW, Ross JM. The framing effect of
relative and absolute risk. J Gen Intern Med 1993; 8: 543-8.
30. O’Connor AM, Rostom A, Fiset V et al. Decision aids for patients facing health treatment
or screening decisions: a systematic review. BMJ 1999; 319: 731-4.
31. Man-Son-Hing M, Laupacis A, O’Connor A et al. Warfarin for atrial fibrillation: The
patient’s perspective. Arch Intern Med 1996; 156: 1841-8.
[ 118 ]
IV. Análisis del conocimiento y herramientas
para su validación
Capítulo 10
Lectura crítica de la literatura científica
Daniel Fernández-Bergés Antonio Paragano
[ 121 ]
ra tener una idea más concreta acerca de su credibilidad. Uno de los objetivos de este capítulo
es transmitir al lector la necesidad de leer un trabajo de investigación con cierto orden y rigor,
cuestionando y contrastando lo leído con otras publicaciones sobre el mismo tema. También
pretende orientar acerca de cómo interpretar rápida, correctamente y con pocas fórmulas, las
medidas estadísticas más frecuentes en la bibliografía médica.
El artículo científico
[ 122 ]
1. Título y resumen
2. Introducción
La introducción debe ser sucinta, pero relevante, y dejar claramente planteado el estado
de la cuestión y los puntos que deben todavía investigarse, porque resultan conflictivos o bien
porque han surgido nuevas evidencias en la literatura mundial. A lo largo de todo el trabajo
deberemos cotejar las citas bibliográficas, al leerlo verificaremos si la hipótesis que lo sus-
tenta se apoya en otras investigaciones, señaladas en las referencias, y que son el antecedente
científico que respalda la teoría de la nueva publicación. Puesto que es muy difícil tener ideas
absolutamente originales u observar hechos que nadie ha visto, debemos recordar siempre la
frase del genial Nóbel español Ramón y Cajal: “No hay cuestiones agotadas sino hombres
agotados en las cuestiones”.
3. Objetivos
Cada ensayo debe exponer claramente el objetivo principal, si van a estudiarse otros
puntos de interés los mismos serán secundarios, y deben estar especificados antes de reali-
zar la investigación. De la propia hipótesis de trabajo se desprende el objetivo. Es cierto que
el resultado del análisis de subgrupos de pacientes puede servir como molde para futuras
investigaciones, aunque resulta cuestionable observar la cantidad de estudios que analizan
subgrupos de pacientes, que fueron parte de un ensayo clínico con determinado objetivo,
donde se demuestra una cuestión que no formó parte del objetivo inicial. El diseño de un es-
tudio depende del punto a estudiar, si se cambia el objetivo, lo más probable es que el diseño
ya no sea el adecuado y las conclusiones serán discutibles.
4. Material y métodos
Este apartado nos pone en contacto con las características propias del estudio. Debe
especificar el lugar geográfico donde se realizó la investigación, la edad y género de los su-
[ 123 ]
jetos seleccionados, qué criterios de inclusión y de exclusión se siguieron, etc. Nos referimos
concretamente al diseño del ensayo, y en este sentido, los trabajos de investigación pueden
clasificarse como: estudios observacionales o experimentales.
Los estudios observacionales se fundamentan en el seguimiento de uno o más grupos
de pacientes, registrando sus características para un análisis posterior. Los experimentales
comprenden una actividad o una intervención controlada por el investigador, como puede
ser la administración de un fármaco o procedimiento, y el interés recae sobre el efecto que la
intervención tiene sobre los sujetos alistados en el estudio.
A. Estudios de observación:
A1- Descriptivos o casos en serie: el informe describe ciertas características de un grupo
(o serie) de pacientes (casos), se detallan algunas observaciones interesantes que presenta un
número reducido de ellos, en general por un período corto de tiempo, y suelen conducir a
la concepción de una hipótesis que se investigará más adelante. Por definición no incluyen
controles, es decir sujetos sin la enfermedad o factor que se indaga, y tampoco admiten in-
tervención.
A2- Estudios de caso-control (retrospectivos): los casos se seleccionan de manera indi-
vidual sobre la base de alguna enfermedad o consecuencia, buscando causas o factores de
riesgo que potencialmente puedan explicarla; los controles son sujetos sin la enfermedad. Co-
mo indagan hacia atrás en el tiempo se los llama retrospectivos, y como cubren cierto tiempo
también son longitudinales. Algunos investigadores, cuando una o varias características en
los grupos están desequilibradas usan el sistema de parejas para relacionar casos y controles.
El proceso de parear asegura que los dos grupos serán semejantes, por ejemplo en edad y/o
sexo, evitando confundir al momento de las conclusiones. Generalmente reportan causas e
incidencia de una enfermedad o identifican factores de riesgo.
A3- Estudios transversales (prevalencia): permiten conocer las características de un gru-
po de sujetos en un momento determinado, no en un período de tiempo. Plantean qué sucede
en ese momento particular, la selección y la información de los sujetos se obtiene en un corto
plazo de tiempo, por eso también se llaman estudios de prevalencia. Los estudios transversa-
les se utilizan para describir una enfermedad o proporcionar información respecto al diag-
nostico o etapa de la misma, y especialmente para describir la utilidad de un procedimiento
nuevo.
A4- Estudios de cohortes (prospectivos): una cohorte es un grupo de individuos con algo
en común y forman parte del grupo por un período prolongado. Ellos se seleccionan por pre-
sentar algún rasgo o factor que se sospecha es la causa para un efecto patológico o enferme-
dad. Se observan durante cierto tiempo para constatar el efecto de estas características, tanto
en sujetos que las presentan (expuestos) como en los que no (no expuestos). Como los eventos
que interesan se manifiestan después de iniciado el estudio también se los llama prospectivos.
El más prestigioso de éstos es el estudio Framingham, que inició en 1948 para investigar la
enfermedad ateroesclerótica e hipertensiva, a la fecha se han publicado numerosos artículos
sobre el mismo, permaneciendo aún en observación algunos sujetos originales. Sin embargo,
para emprender un estudio de cohorte también se puede emplear información archivada y
analizarla en la actualidad, precisamente, partiendo de datos sobre factores de riesgo en el
[ 124 ]
pasado se observa su efecto en el presente. En este caso se llaman estudios de cohorte histó-
ricos o de cohorte retrospectivos, y únicamente son posibles si los registros de seguimiento
se hallan completos.
B. Estudios experimentales:
En seres humanos se denominan pruebas clínicas, su propósito es extraer conclusiones
acerca de un procedimiento o tratamiento particular.
[ 125 ]
C. Revisiones
C1- No Sistemáticas: clásicamente se basa en la selección de un número determinado de
artículos sobre una cuestión en particular, tras su examen el autor expone una conclusión
más o menos general sumando además su experiencia u opinión personal. Esta modalidad de
revisión genera un margen de duda sobre la confiabilidad de lo expresado pues únicamente
ofrece el punto de vista, a veces subjetivo, del autor.
C2- Sistemática cuantitativa, meta-análisis: es una metodología de análisis cimenta-
da en la combinación de la información obtenida en diferentes ensayos clínicos sobre un
tema determinado. El objetivo es proporcionar una estimación cuantitativa de todos los
estudios disponibles, y dado que incluye un número mayor de observaciones tiene un poder
estadístico superior al de los propios trabajos que contiene. Los principales problemas me-
todológicos de los meta-análisis resultan como consecuencia de la diversidad de los ensayos
clínicos que incluye, ya que las características clínicas, sociales, demográficas, etc., de los
sujetos reclutados son diferentes en cada uno de ellos; como también son disímiles los mé-
todos de evaluación aplicados, la forma farmacéutica o dosificación del fármaco evaluado,
etc. Asimismo, considerando que no todos los ensayos clínicos han sido publicados, por
resultados no esperados o negativos, siempre mantienen la posibilidad de incurrir en un
posible sesgo de publicación.7 - 13
[ 126 ]
Las características de los sujetos seleccionados para participar de la investigación son un
elemento clave, aunque no el único, a la hora de evaluar la importancia de una investigación.
Cuando se lee un artículo científico debemos poner atención a los criterios de inclusión y de
exclusión, ambos deben estar claramente establecidos porque definen a la población objeto
del estudio; y permitirá reconocer si estos pacientes son similares a los que vemos en nuestra
práctica clínica.
La selección de los mismos, asignación a un grupo definido, la recolección y análisis de
los datos obtenidos, etc., son puntos importantes que nos introducen al concepto de sesgo,
precisión y validez de un estudio.
Dando por cierto que el tema y los objetivos de un estudio son de interés, queda aún de-
terminar si el mismo es preciso y válido. El propósito de toda investigación debe concentrarse
en alcanzar la exactitud en la medición de los datos, todo lo que amenace esta premisa debe
ser identificado y advertido. Hablamos de los errores en las mediciones, y los hay de dos tipos:
aleatorios y sistemáticos.
Entendemos por sesgos a los errores sistemáticos que producen una estimación incorrecta
de asociación entre la exposición y la enfermedad, o una estimación equivocada del efecto.
La precisión de un estudio se corresponde con la reducción del error debido al azar o
aleatorio, error que suele ser de mayor magnitud cuando se realizan inferencias a partir de
resultados obtenidos en muestras pequeñas de una población. Para restringir esta desviación,
el elemento más importante del que disponemos es incrementar el tamaño de la muestra. De
esta manera los intervalos de confianza y el error estándar se reducen, logrando aumentar
la precisión. La precisión de un estudio nos garantiza que será reproducible, esto es, obtener
aproximadamente el mismo resultado cada vez que se repite, cuando es conducido en las
mismas condiciones.
El error sistemático aparece como consecuencia de faltas cometidas durante el proceso
de diagnóstico o de selección de los pacientes. La ausencia de error sistemático define la
validez del estudio, que tiene dos componentes: la validez interna, que es la ratificación de
las inferencias a los sujetos incluidos en el propio ensayo, y la validez externa, que posibilita
la generalización de los resultados a individuos que no formaron parte del mismo, o a la
población general. La validez interna es por lo tanto un prerrequisito para que pueda darse
la externa.
La validez interna, se ve amenazada por distintos tipos de sesgos:
A. Sesgos de selección: los grupos del estudio no son comparables debido a cómo fueron
seleccionados los pacientes, hace referencia a cualquier error que se deriva del proceso de
identificación de la población a estudiar. Estos sesgos pueden ocurrir al seleccionar el grupo
control o el espacio muestral donde se realizará el estudio. También por pérdidas durante el
seguimiento o por la presencia de una supervivencia selectiva. Los sesgos de selección pueden
manifestarse en los estudios de casos y controles, cuando el procedimiento utilizado para
identificar la enfermedad (sesgo diagnóstico) varía o se modifica con el status de exposición.
Este sesgo se llama “sesgo de detección”. El resultado produce una relación entre exposición
y enfermedad que es diferente entre los individuos seleccionados para el estudio, y aquellos
que pudiendo haber sido elegidos para participar no fueron incluidos.
[ 127 ]
B. Sesgo de información u observación: los grupos de pacientes del estudio no son com-
parables debido a como se obtuvieron los datos. Incluye cualquier error sistemático en la
exactitud de los datos o los resultados. Por lo tanto producen una distorsión en la estimación
del efecto, las fuentes de sesgo de información más frecuentes son: instrumento de medición
inadecuado, criterios diagnósticos incorrectos, omisiones, o imprecisiones en la búsqueda o
clasificación de los datos introducidos por los cuestionarios o los encuestadores.
C. Factores de confusión: los autores no han apreciado información sobre un factor que
se relaciona a la vez con la exposición y con el efecto estudiado. Dicho error provocará una
alteración en la estimación del resultado, debido a una o más variables no consideradas. La
prevención y control de los sesgos potenciales debe considerarse durante el diseño del estudio,
ya que al momento del análisis no es posible solucionarlos. Por el contrario, los factores de
confusión sí pueden controlarse durante el análisis.16
Por último ¿cuáles fueron los puntos finales? o “end-points”. El punto final más duro es
la mortalidad de cualquier causa o mortalidad total, es fácil de averiguar durante el segui-
miento, a través de un llamado telefónico a familiares o al registro civil. Algunos estudios se-
leccionan un punto final combinado (dos o más) aumentan así la tasa de eventos esperada, de
esta manera necesitan incluir menos pacientes que los requeridos al escoger un único punto
final.17 Cuestión que nos obliga a examinar la publicación completa, para ver que efecto tuvo
cada uno de los factores que componen el punto final combinado sobre mortalidad global, y
éste ejercicio nos permitirá redimensionar las conclusiones.
5. Análisis estadístico
[ 128 ]
diferentes. El valor 95% se conoce como nivel de confianza de la estimación. Cuanto menor
es la p, es decir, cuanto menor es la probabilidad de que los resultados observados ocurran
como producto del azar, mayor será la tendencia a concluir que la diferencia existe en reali-
dad. Deducimos entonces que existe una diferencia significativa entre los grupos o variables
estudiadas, que la posibilidad de equivocarnos es tan sólo de un 5% y que nuestra diferencia
en un 95% se debe al factor analizado y no a la mera casualidad. Inversamente, si el valor
de p es mayor que el 5%, se considera que no hay suficientes indicios para descartar que la
o las desigualdades obtenidas se deben a la intervención del azar, no pudiendo descartar la
hipótesis de nulidad o equivalencia entre lo que se comparó.18
Según lo expresado, podremos juzgar si el estudio que estamos leyendo es creíble en
cuanto a sus conjeturas, revelando un valor de p suficientemente pequeño que permite acep-
tar que el efecto que se comunica existe realmente y en la dirección en que se informa. La
falta de claridad conceptual es la que hace pensar que la estadística se equivoca y también
que puede manipularse, por ello debemos dominar conocimientos básicos de la estadística y
de sus limitaciones, para descubrir errores, sesgos o simplemente falta de rigor o calidad en el
artículo que estamos examinando.
Si leyéramos estudios de los años 60, observaríamos que el análisis bivariado era la me-
todología estadística más corrientemente empleada, y la simple obtención de una p< 0.05
concluía que el resultado era “estadísticamente significativo”. Generalmente así fundamen-
tados, sugerían que el hallazgo de A en la enfermedad B podría ser de valor para determinar
el diagnóstico, el pronóstico o el tratamiento. La significación estadística no quiere decir sig-
nificación clínica, quien no comprende este concepto puede creer que la significación lograda
indica causalidad y que el resultado obtenido en un trabajo nos obliga a aplicar una determi-
nada intervención para lograr mejorar, por ejemplo, el pronóstico de una enfermedad, esto
es un error de criterio importante.
Los ensayos clínicos metodológicamente más convincentes son relativamente nuevos, en
1948 el Consejo inglés de Investigación Clínica dio a conocer los resultados del primer estudio
randomizado para evaluar la eficacia de la estreptomicina; y en 1951 Bradford Hill propor-
cionó la primera definición sobre la sistemática de un ensayo clínico: “Es un experimento
diseñado cuidadosa y éticamente con el objetivo de responder alguna pregunta formulada
con precisión”.19 Inmediatamente surgieron los estudios que incluyen el análisis multivariado,
regresión, correlación, etc. Estos modelos de análisis nos informan si la o las variables que en
el bivariado surgían como estadísticamente significativas (aún aquellas con valores de p de
hasta 0.15 y en algunas ocasiones hasta 0.20, por considerarlas de interés clínico trascenden-
te) mantienen su independencia con respecto al objeto principal de la investigación o variable
dependiente. Lo que nos anunciará la posibilidad de que pudieran ser tenidas en cuenta como
parte o causa de la enfermedad o evento. El ejemplo que sigue nos ilustrará, si en un modelo de
regresión se incluye la edad para conocer su posible independencia con la variable objetivo, por
ejemplo mortalidad, lo más probable es que la edad tenga un vínculo significativo o causalidad
con la muerte. Si en el mismo modelo se introduce “arrugas”, éstas no tendrán probablemente
la misma asociación o vínculo, pero si se quita la edad pasarán a tener una significación muy
similar, dado que es muy probable que nuestro cuerpo tenga más arrugas a mayor edad.20
[ 129 ]
6. Los diferentes tipos de ensayos clínicos
Verdadero diagnóstico
Resultado de la prueba
Enfermo Sano
[ 130 ]
Sensibilidad: es la probabilidad de clasificar correctamente a un individuo enfermo, esto
es, la probabilidad de que en la prueba se alcance un resultado positivo en un sujeto enfer-
mo. Por lo tanto, la sensibilidad es la capacidad del test para detectar la enfermedad [S = vp/
(vp+fn)].
Es claro que lo ideal sería trabajar con pruebas diagnósticas de alta sensibilidad y espe-
cificidad, pero no siempre es posible. Una prueba muy sensible será especialmente adecuada
en aquellos casos en los que el no diagnosticar la enfermedad puede resultar fatal para los
enfermos, o en enfermedades en las que un falso positivo no produzca serios inconvenientes.
Por otro lado, las pruebas confirmatorias del diagnóstico deben ser de alta especificidad,
evitando así los falsos positivos. Los test de alta especificidad son necesarios para descartar
el padecimiento de enfermedades graves, o cuando se diagnosticó un mal que se sospecha no
aquejar al paciente. 21, 23
Los conceptos de sensibilidad y especificidad permiten, efectivamente, justipreciar el ren-
dimiento de una prueba diagnóstica. Sin embargo, ante la obtención de un resultado positivo
o negativo, el médico más bien se plantea: ¿cuál es la probabilidad de que el paciente esté
realmente enfermo, o no? Los valores predictivos nos permiten responder esta cuestión:
[ 131 ]
permiten extrapolar los resultados de otros estudios a datos propios. Para ello, es necesario
considerar otros índices de estimación clínicamente útiles y que no dependen de la prevalen-
cia de la enfermedad en la población a estudiar. Así, además de los conceptos anteriormente
citados, se suele hablar de razón de verosimilitudes, razón de probabilidad, cociente de pro-
babilidades o likelihood ratio. Ellos indican cuánto más probable es un resultado concreto
(positivo o negativo) según la presencia o ausencia de enfermedad, y se definen como sigue:
[ 132 ]
Cuando leemos un artículo que informa sobre una nueva herramienta diagnóstica debemos
conocer estos conceptos y valorar si su introducción en la práctica clínica aporta información
relevante o no. Además, no debemos olvidar que existen determinados aspectos en el diseño de
este tipo de investigaciones que pueden afectar a la precisión y a la validez de las estimaciones
realizadas. La población de estudio, la estrategia de muestreo, la selección del criterio de re-
ferencia y la forma de aplicación de las pruebas diagnósticas serán algunos de los elementos a
cuidar para evitar la presencia de sesgos. Por supuesto, siempre deberemos valorar el costo que
introduce en nuestro accionar (costo/beneficio) para saber si es aplicable en nuestro medio.
[ 133 ]
Grupo Control Grupo Experimental
Evento A B
Si a 30 b 10
No c 70 d 90
Totales a + c = 100 b + d = 100
Tabla 2
[ 134 ]
desconocida. Su confiabilidad depende de que el resultado se encuentre comprendido entre
un rango de valores, o IC, dentro de los que se encuentra la realidad biológica del fenómeno
estudiado. De tal manera, si se obtiene una diferencia, esta puede ser aceptada biológica-
mente y estadísticamente, es decir, el IC de la ratio puede ser considerado significativo en un
determinado nivel. Además, tiene que haber una diferencia entre lo que se compara, y dicha
diferencia debe tener una determinada dirección compatible con la realidad. Esto se logra
únicamente cuando los individuos de la muestra tienen inicialmente la misma probabilidad
de ser ingresados para su comparación, premisa que nos señala que sólo tienen valor los es-
tudios aleatorizados.
El IC expresa los límites que con una cierta garantía contendrán el verdadero valor del
resultado obtenido. Generalmente se calcula con un margen de seguridad del 95%, lo que
quiere decir que deja una probabilidad de 0,05 de que el verdadero valor de la ratio no se halle
en este intervalo. Si el IC del 95% de una ratio no contiene el 1, el grado de evidencia de que
los datos del estudio sean compatibles con la hipótesis nula (igualdad entre lo que se compara)
ha de ser menor de 5%, y viceversa.
Evidentemente, el IC nos proporciona la misma información que el valor de p, pero
además a través de sus propios límites nos da una idea de la intensidad posible del fenómeno
estudiado, otro paso para estimar la credibilidad del estudio.
En el ejemplo anterior tomamos como referencia un valor de 0,26 para la OR, se corres-
ponde con una p < 0,0003 y con un IC del 95% entre 0,12 y 0,57. Este último nos indica que
la reducción real pudo haber oscilado entre el 12% y el 57%, en tanto que el nivel de p nos di-
ce que la reducción del riesgo fue significativa, o en otras palabras, que la probabilidad de un
resultado azaroso, igual o más extremo, es menor del 5%. Dicho de otro modo, si se informa
que la reducción fue de 26%, el IC 95% de 12% a 57% traduce que existe una probabilidad
menor del 5% de que el evento no se reduzca por lo menos un 12%.
Si el resultado de p fuera no significativo, el IC contendría la unidad. Por ejemplo, si el IC
95% fuera 0,24 a 1,20, la relación de riesgos oscilaría entre 0,24/1 y 1,2/1, existiendo la proba-
bilidad de que en realidad no haya reducción sino más bien un aumento del evento o riesgo.
En el ejemplo, para el RR de 0,33 el IC 95% es de 0,15 a 0,72 y se interpreta de manera
similar. ¿Pero si fuera mayor que 1? digamos 1,5. A es el grupo de referencia y se le transfiere
el 1, y B el experimental. Entonces, en B hay 0,5 más eventos que en A, es decir que B, en el
caso de que fuera un nuevo tratamiento, es menos efectivo que A. Por lo tanto, un valor infe-
rior que 1 indica un efecto menor para el grupo experimental, y viceversa.
Aunque lo anterior no es difícil de comprender, estas medidas no dan una idea inmediata
de la magnitud absoluta de la diferencia entre los grupos comparados. Existe una fórmula
sencilla para resolver este problema, y se denomina diferencia o reducción relativa de riesgo
(RRR): cuando una ratio es menor que 1 se utiliza este procedimiento, cuyo resultado es una
proporción: RRR = OR - 1 (del ejemplo: 0,26 – 1 = 0,74) o la tasa de eventos en B es 74%
menor que en A. Cuando es mayor que 1 se aplicará RRR = 1 -OR (del ejemplo: 1,2 – 1 =
0,2), que traduce una tasa de eventos 20% mayor en B que en A.18
Entonces, para comprender el mensaje de una OR, un RR o un HR, hay que indagar qué
proporción absoluta de eventos se producen en el grupo control o de referencia, buscando
entre los datos y las tablas que se nos ofrecen en el trabajo de investigación. Igualmente, nos
[ 135 ]
ayudara el cálculo de la diferencia relativa de riesgo, que traduce las ratio a porcentajes, me-
didas que son más fáciles de interpretar.
Por último, el número necesario a tratar, number needed to treat (NNT), se ha con-
vertido en un indicador muy apreciado por los médicos, pues tiene la ventaja de darnos una
idea rápida de la efectividad de un tratamiento, es más fácil de recordar y además permite
comparar los beneficios y efectos adversos de una determinada terapia. Es un indicador es-
pecífico para cada opción terapéutica, y describe la diferencia que hay entre dicha opción de
tratamiento y el control para alcanzar un resultado clínico concreto. Su rango de valor va de
1 a infinito, siendo 1 el NNT ideal, ya que la mejor terapia es aquella donde debo tratar a un
solo paciente para que este se beneficie. Por consenso, sólo se expresa en números enteros y
cuanto más alto es el NNT menos eficaz es la intervención. Al agrupar un número mayor de
pacientes las revisiones sistemáticas o meta-análisis, elaborados con ensayos clínicos aleato-
rizados, proporcionan resultados de mayor confiabilidad al momento de calcular el NNT.
La reducción del riesgo absoluto (RRA), absolute risk reduction (ARR), es la diferencia
absoluta entre la tasa de eventos en los grupos evaluados [Tasa de eventos grupo control –
Tasa eventos grupo experimental]. En el ejemplo de la tabla 2, [a – b] o [30% – 10%] = 20%,
su IC 95%, entre 9% y 31%. El NNT, número de pacientes que se necesitan tratar para evitar
un evento, se obtiene aplicando regla de tres simple a partir de la RRA. Si cada 100 pacientes
tratados se reducen 20 eventos, ¿cuántos necesitamos para reducir un evento?: [100/20 = 5].
O bien como [1/RRA], 1/0,2 = debemos tratar 5 pacientes para impedir el efecto adverso en
uno de ellos. Estas estimaciones reúnen cierto grado de incertidumbre que ha de ser expre-
sada mediante el intervalo de confianza. Para calcular el IC del 95% del NNT se emplea el
valor inverso de los extremos del IC del 95% de la RRA, en el ejemplo, IC 95% del NNT=
1/0,09 a 1/0,31 = 3 a 11. Significa que si los estudios se repitiesen, en el 95% de las veces el
resultado estaría entre esas cifras, es decir, debemos tratar entre 3 y 11 pacientes para reducir
el efecto en 1 de ellos.18, 34, 35
Al mismo tiempo, recordemos que toda intervención puede promover efectos adversos o
no deseados, y también se pueden estimar.
El incremento del riesgo absoluto (IRA) o absolute risk increase (ARI), es la diferencia
absoluta en las tasas de eventos perjudiciales entre los grupos evaluados, revela que el trata-
miento experimental causa más daño que beneficio. Su cálculo es semejante al de la reduc-
ción del riesgo absoluto. IRA = [Tasa de eventos adversos en el grupo control – Tasa eventos
adversos en el grupo experimental].
El número necesario para hacer daño (NND) o number needed to harm (NNH), nos
indica a cuántos pacientes hay que tratar para que en uno de ellos se presente un efecto no
deseado. O bien, el número de pacientes que si recibiesen el tratamiento experimental ten-
drían un efecto adverso adicional comparado con el tratamiento control. Se calcula como 1/
IRA, y su rango también va de 1 a infinito, pero al contrario del NNT, cuanto menor es su
valor menos segura es la intervención. Si un ensayo muestra un bajo NNT con un alto NND
implica que el perfil terapéutico es seguro. También, si el estudio informa o hace referencia a
estos indicadores, se puede obtener la relación beneficio/riesgo del tratamiento experimental
(NNT/NND). Y si adjunta el costo por período de tiempo necesario para evitar el evento, se
puede construir un indicador de costo/efectividad.18
[ 136 ]
7. Discusión y conclusiones
8. Referencias bibliográficas
Constituyen una parte importante del artículo porque brindan solidez a los hechos ex-
puestos por el autor, además, ofrecen varias opciones de información sobre conceptos, técni-
cas, metodologías, etc., que sustentan la teoría de la investigación. Las referencias facilitan la
posibilidad de ampliar la información sobre el aspecto tratado, por ello es primordial que el
ensayo cuente con las referencias adecuadas y actualizadas.
9. El conflicto de intereses
Corolario
Hasta aquí comentamos qué buscar y cómo interpretar la información contenida en cada
sección de un artículo científico, el objetivo fue ofrecer las herramientas para valorar en forma
[ 137 ]
crítica la información que se consulta y particularmente ponderar los méritos conceptuales y me-
todológicos de las investigaciones publicadas. Esperamos que este capítulo sea de utilidad para
los que se inician en el apasionante campo de la investigación. Elaborar las propias conclusiones
y confrontarlas con los resultados que ofrecen otros investigadores puede ser el primer paso.
Referencias
[ 138 ]
18. Greenhalgh T. How to read a paper. The basics of evidence based medicine. BMJ Publis-
hing Group. 2001; Cap. 5: 76-93.
19. Hill B. The clinical trial. Med Bull 1951; 7: 278-282.
20. Brotman DJ, Walter E, Lauer MS, O´Brien RG. In search of fewer independent risk fac-
tors. Arch Intern Med 2005; 165:138-45.
21. Greenhalgh T. How to read a paper. The basics of evidence based medicine. BMJ Publis-
hing Group. 2001; Cap. 7:105-119.
22. Jaeschke R, Guyatt GH, Sackett DL. Users´guides to the medical literature. III. How to
use an article about a diagnostic test. Are the results of the study valid? Evidence-Based
Medicine Working Group. J Am Med Ass 1994; 271: 389-391.
23. Altman D.G., Bland J.M. Statistics Notes: Diagnostic tests 1: sensitivity and specificity.
Br Med J 1994; 308: 1552.
24. Altman D.G., Bland J.M. Statistics Notes: Diagnostic tests 2: predictive values. Br Med
J 1994; 309: 102-107.
25. Dujardin B, Van der Ende J, Van Gompel A, et al. Likelihood ratios: a real improvement
for clinical decisión making? Eur J Epidemiol 1994; 10: 29-36.
26. Altman D.G., Bland J.M. Statistics Notes: Diagnostic tests 3: receiver operating charac-
teristic plots. Br Med J 1994; 309: 188-193.
27. Antman E, Lau J, Kupelnick B, et al. A comparison of results of meta-analyses of rando-
mized control trials and recommendations of clinical experts. Treatments for myocardial
infarction. J Am Med Ass 1992; 268: 240-248.
28. Magliano DJ, Rogers SL, Abramson MJ, Tonkin AM. Hormonal therapy and cardiovas-
cular disease: a systematic review and meta-analysis. BJOG 2006; 113:5-14.
29. Evidence-Based guidelines for cardiovascular disease prevention in women: 2007 Upda-
te. Circulation 2007; 115: 1481-1501.
30. A. Fahey T, Griffiths S, Peters TJ. Evidence based purchasing: understanding results of
clinical trials and systematic reviews. Br Med J 1995; 311: 1056-1060.
31. Pearce N. What Does the Odds Ratio Estimate in a Case-Control Study? Int J Epidemiol
1993; 22(6):1189-1192.
32. Forrow L, Taylor WC, Arnold RM. Absolutely relative: How research results are sum-
marized can affect treatment decisions. Am J Med 1992; 92: 121-124.
33. Naylor CD, Chen E, Strauss B. Measured enthusiasm: Does the method of reporting trial
results alter perceptions of therapeutic effectiveness? Ann Intern Med 1992; 117:916-921.
34. Furukawa TA, Guyatt GH, Griffith LE. Can we individualize the number needed to
treat? An empirical study of summary effect measures in meta-analyses. Int J Epidemiol
2002; 31:72-76.
35. Sinclair JC, Cook RJ, Guyatt GH, Pauker SG, Cook DJ. When should an effective
treatment be used? Derivation of the threshold number needed to treat and the minimum
event rate for treatment. J Clin Epidemiol 2001; 54: 253-262.
36. Doval Hernán C. ¿Es fiable lo que leemos en las revistas médicas? Resultados diferentes
según el patrocinio de los ensayos clínicos Rev Arg Cardiol 2007; 75: 498-502.
[ 139 ]
Capítulo 11
Delimitación de un área de investigación
Análisis de los conocimientos existentes
y elaboración de nuevas cuestiones.
Eduardo B. Arribalzaga
[ 140 ]
Acerca de la validez del método científico
Una aproximación desarrollada por los científicos para percibir e investigar el mundo
exterior es conocido como método científico, que no debe entenderse solamente como refe-
rencia a un conjunto de procedimientos definidos rígidamente y asegurado por el hallazgo
de respuestas correctas; la ciencia no es una sencilla máquina de resolución de problemas. En
vez de eso, engloba cualquier aproximación para ayudar a descubrir la Verdad acerca de la
naturaleza.17 El trabajo del científico consiste en proponer teorías y en contrastarlas.81
A veces, el amplio campo de actividades llamadas científicas, refleja un conjunto de
principios que emergieron relativamente tarde en el desarrollo de la civilización. Se cambió
de una creencia en designios divinos o sobrenaturales con milagros incluidos a un sistema de
preceptos que contenían la idea justificada y hallada en un mundo determinista-positivista,
susceptible de un análisis racional. Otra innovación fue la abjuración del pensamiento filosó-
fico y fijar en su reemplazo preguntas bien definidas y con resultados posibles de medir, coin-
cidentes con un coherente mundo conceptuado acerca de la naturaleza (pequeños ladrillos en
un gran edificio de conocimientos, que encajan unos con otros).
También la ciencia descubrió en forma desordenada un pensamiento discursivo con difi-
cultades para separar repentinamente 2 clases de nociones: las observaciones y las conclusiones.
La primera debe ser verificable pero más tarde siempre es tema de reemplazo (o revisión) ante
nuevas evidencias y principios. En la práctica, los conceptos esenciales tienen (o no) probada
fiabilidad por el simple paso del tiempo: las bases del edificio científico son cotidianamente
consolidadas por la importancia de hallazgos posteriores. Al principio, sólo se comenzó con
descubrimientos individuales, sin relación entre ellos hasta que, al incorporarse como un cam-
bio social, acumuló secuencialmente y sin interrupciones nuevas nociones en un intercalado
entretejido en el cuerpo global del conocimiento. Estos conceptos son de categoría jerarquizada:
busca la comprensión de los fenómenos no solamente a un nivel particular de organización
como así también en términos de propiedades e interacciones de sus componentes. Como ejem-
plo de este principio de explicación o reducción de sucesos a un primer nivel de interacción de
sus componentes (el reduccionismo), se comprende la neurobiología al dominar su complejo
desarrollo como una simple interacción bioquímica de sus componentes. Se entiende mejor
un fenómeno y se tiene más confianza en su interpretación si refuerza nuestro razonamiento
acerca de sus características a diferentes niveles comparado con otros conocimientos, formas
de pensamiento que deberían incorporarse en el grado universitario, 22, 83, 99 con la asociación
de la investigación a la práctica asistencial cotidiana.18, 52 Diferenciar entre la investigación
básica, cuyo objetivo es comprender la naturaleza de la investigación aplicada (que pretende su
utilización controlada), no siempre es clara y es fuente permanente de tensión entre científicos
y médicos asistenciales por los riesgos generados54, 82 así como con los organismos estatales de
financiamiento de las investigaciones.55
Los conocimientos empíricos (basados en la experiencia) desarrollaron una destacada
y abundante tecnología, pero sin una racional y coherente idea científica. Actualmente la
tecnología es dependiente de la ciencia y sus diferencias son muy precisas (Tabla 1)
[ 141 ]
Tabla 1: Diferencias entre Ciencia y Tecnología
Ciencia Tecnología
[ 142 ]
Técnica Tecnología
[ 143 ]
Fuera del limitado espectro del método científico, otra limitación es la imperfección
en muchos casos en la búsqueda del apropiado acercamiento y se da muchas veces por
casualidad con el método adecuado. Cuando se prueba la experimentación a una cuestión
aparentemente sencilla en un campo de estudio bien definido,61, 62 el sendero es a menudo
tortuoso, con muchas falsas opciones. En el edificio de la ciencia, muchos ladrillos pueden
reemplazarse por otros antes que el defecto pueda ser revelado, demostrando así que los
más importantes avances en la ciencia son rápidamente aceptados, 69 las incertidumbres
en algunas áreas pueden originar extensas controversias: 67 ocasionalmente se sugiere la
existencia de fraude científico, 84 cuando es imposible de verificar.85 Muchas veces la pasión
puesta en la investigación en perseguir una línea de trabajo origina tensiones y pérdida de
la objetividad: el científico quiere probar que no está equivocado y ve “más allá” de los
verdaderos resultados obtenidos. 86, 88 La responsabilidad de aceptar su correspondencia
con la realidad,90 hace que las reacciones iniciales a la nueva propuesta sean influídas tanto
por modas, prestigio de los investigadores, relaciones públicas-comerciales, rivalidades de
grupos de investigación y la fuerza de las necesidades de aceptación de las novísimas ideas.
Por eso, es tan difícil la adhesión a nuevas líneas de investigación o de sus resultados. 87, 91
Se debe desarrollar la investigación bajo ciertas condiciones para describir hasta comparar
e inferir la mejor decisión a seguir desde los resultados obtenidos. En los experimentos donde
se tratan de probar diferencias entre variables, es necesario tener un grupo control para saber
si los cambios presentados se deben al experimento en sí. En biología hay oposición no sola-
mente por la complejidad de los sistemas analizados sino también por las variaciones acostum-
bradas por la evolución: dentro de las especies frecuentemente no hay 2 miembros idénticos.
Estas fuentes de variaciones originan resultados conflictivos y son “culpables” de sorpresas. En
tanto que los avances científicos siguen una aparente vía con nuevos hallazgos y técnicas que
responden a nuevas cuestiones a solucionar, en muchos fructíferos descubrimientos se puede
señalar que a menudo existió un encuentro accidental con algo inesperado llamado suerte o
azar. Sólo quien esté preparado para “advertir” esta casualidad, sabrá sacar provecho de estas
situaciones. Recordar que Fleming, cuando “descubrió” la penicilina, estaba rodeado de inves-
tigadores tan famosos o más que él y solo quien fuera posterior Premio Nobel se “dió cuenta”
de la revelación. Como diría Pasteur “en el campo de la investigación la posibilidad favorece
solo a mentes preparadas”. Es muy común prepararse intelectualmente reteniendo el acceso a
adecuados bloques de información actualizada que permitan la interesante asociación de ideas
y resolver el paso del pensamiento abstracto al concreto o viceversa sin obstáculos (15). Hay
que “tener olfato” para saber distinguir lo importante de lo trivial y pasajero en la información
bibliográfica analizada (4), de similar entidad a un buen diseño de protocolo de experimenta-
ción, prerrequisito para reconocer resultados inesperados.
Por otro lado, asumir que la evidencia objetiva puede eventualmente ser la culpable de
la representación fidedigna de la realidad, en muchas ocasiones confronta con las hipótesis
propuestas. Esta es una de las intransigencias de la ciencia: el criterio de la evidencia objetiva
como base de cualquier investigación. Como decía Marañón “una bella hipótesis puede ser
[ 144 ]
destruída por una fea realidad”. Por eso, los investigadores son particularmente impacientes
cuando se presentan en la prensa no científica evidencias o grotescos argumentos creando
falsas expectativas a la sociedad. 5
[ 145 ]
Una herramienta a considerar es la telaraña o www (“world wide web”) o simplemente
“web”, interfase de la red de computadoras interconectadas que tiene un complejo y atractivo
formato (las páginas web) donde se intercalan figuras con texto y que posee un localizador uni-
forme de recursos, transmitido mediante un protocolo de transferencia de hipertexto (el famoso
“http”); se escribe por medio de un lenguaje especial (“html, hypertext markeup language”). Los
programas que usan la “web” están disponibles en muchos sistemas operativos de sistemas de
computación: simplemente al teclear (y marcar) o resaltar un texto en la pantalla de computa-
ción, el usuario puede navegar (o “surfear”) en la red de Internet en busca de información.
De esta manera, crear con buena calidad una página “web” no es tan dificultoso como
lento de hacer, pero se deben seguir diversas guías que caracterizan la autoría de la telaraña
(“web”). Existen criterios de autoría protegidos por leyes (3), similares a todos los conocidos
en la actualidad (especialmente en libros, revistas, videos, películas, etc), con reconocimiento
expreso de la propiedad intelectual y un importante interés comercial no bien advertido en
los países en desarrollo. En determinadas especialidades médicas como la radiología, el uso
intenso de imágenes puede ser beneficioso para la educación de especialistas, al existir en
diferentes lugares del mundo “depósitos” de información radiológica que estén siempre dis-
ponibles al alcance de los usuarios de esta red de redes como es Internet.
Una de las desventajas, por más que se encuentre la información en las páginas “web”, es
que esto no asegura su búsqueda y que tenga una aplicación práctica de consulta. No existe un
acceso universal a Internet por ahora, aunque se predice que en los próximos años todo el mun-
do lo tendrá facilitado.3 También otra dificultad es comunicar resultados preliminares de estu-
dios de investigación que puedan originar técnicas o terapéuticas dañinas para los pacientes.
Por eso se deben considerar los artículos que hayan sido aprobados por sistemas de revisión de
revistas o comités de ética. Ciertas revistas como el New England Journal of Medicine plantean
la necesidad de seguir la regla de Ingelfinger51 que establece no publicar aquello que no ha sido
sometido a revisión por pares o si ya fue publicado con anterioridad. Se considera a la presenta-
ción de un artículo en correo electrónico como una publicación científica formal, aunque sólo
sea un resumen o “abstract”. La revisión por pares (“peer review system”) es fundamental para
mantener la calidad de la información provista por las revistas científicas, aunque estas sean
electrónicas o sólo usen el correo electrónico como medio de difusión.3
Se advierte que si se utiliza la red Internet para solamente artículos preliminares, en muy
poco tiempo las revistas científicas convencionales podrían publicar muy poco, por haber
sido la información ya publicada mediante otra forma.
Otra forma de divulgación de un artículo científico mediante Internet es su disponibili-
dad en un simple formato que almacena un documento. A esto se llama Portable Data Format
(PDF) que necesita un programa especial para su lectura (muchas veces se descarga gratis de
Internet, el programa Acrobat Adobe Reader, en varias versiones).
También el artículo científico escrito para una revista electrónica, parece ser una vía
actual en amplio proceso de expansión, como una nueva manera de comunicación propuesta
que es la presentación en PowerPoint de archivos que semejan artículos de una revista3 en
virtud de ser una estructura capaz de capturar información tecnológica (IT en inglés) con
su procesamiento, almacenamiento, filtrado y distribución. Así se reconocen condiciones
para que el manejo del conocimiento entre pares (científicos, especialistas médicos, etc.) sea
[ 146 ]
completo en una flamante forma. Una desventaja es no poder evaluar cómo son presentados
los manuscritos al sistema de revisión por pares: hay que actuar con la misma metodología
porque actualmente es el tiempo de la evidencia basada en la comunicación científica, pasible
también de una estricta evaluación para no trasmitir conocimientos de escasa o nula im-
portancia. Así se han visto diferencias entre la revista tradicional y aquella hecha en Power-
Point, 3 donde además hay un proceso de post-revisión por pares en el cual se evalúa la calidad
al final de la presentación de PowerPoint.
La más novedosa idea, aún sin ejecución, fue presentada en Recife, Brasil, durante un
Workshop de Editores científicos en septiembre de 2004. En una Mesa Redonda denominada
“Experiencias positivas/innovadoras de algunas revistas científicas brasileñas”, se propuso
la unión de un conjunto de Editores científicos que cree un sitio WEB, y en él se colocarían
electrónicamente los nuevos artículos que estarían protegidos por un certificado digital.100
Los editores estarían constantemente tomando conocimiento de las informaciones que se
almacenan y aquellas que fueran de calidad e interés para las revistas tradicionales serían
seleccionadas electrónicamente para una mayor difusión vía impresión en papel.
Por otro lado, la publicación en papel se ve paulatinamente limitada debido al progresivo
aumento del costo de su materia prima (el papel), además de tornar complejo el continuo
almacenamiento de publicaciones impresas porque el espacio es limitado y de alto valor eco-
nómico. Internet ofrece, entonces, soluciones a estos problemas al cambiar drásticamente la
forma como los científicos comunican el resultado de sus investigaciones.
Revisión Editorial
Todas las posibles formas de futuras publicaciones tienen como característica común dar
una mayor agilidad al proceso de publicación del conocimiento científico. Se pretende así
ayudar principalmente a los nuevos graduados en el proceso de elaboración de manuscritos
de conocimientos con creciente valor cualitativo y de interés,100 y atender la elaboración de
nuevas cuestiones, basados estos en problemas de la práctica asistencial.
Por lo tanto, es absolutamente necesario conocer las actividades de los cuerpos editoriales
para, de esta forma, saber si se cuenta con interlocutores válidos ante la evaluación de un ma-
nuscrito original:3 no se puede exigir evaluación imparcial y perfecta donde no haya un cuerpo
u órgano editorial sin interpretar acabadamente sus funciones y responsabilidades,92, 106 que
use pautas internacionales de edición y asimismo sea reconocido por entidades editoriales
como el Comité Internacional, Consejo de Editores Científicos, Asociación Mundial de Edi-
tores, Asociación Europea de Editores, etc, entes que cumplen funciones de investigación y
docencia en esta particular área de la publicación científica. Precisamente en 1988, el Comité
Internacional de Editores de Revistas Médicas agregó normas para presentar por escrito los
aspectos estadísticos de la investigación89 o intensificar en aspectos gramaticales del ma-
nuscrito para facilitar su claridad y precisión. 34 Recordar que una buena redacción es como
una pecera: si el vidrio está opaco impedirá ver a los peces pero si es transparente y claro se
apreciará en toda su magnitud la belleza de su contenido. 3 Lo mismo ocurre con un original
bien redactado.
Este procedimiento de revisión por pares de todo manuscrito original10, 107 no es un ca-
pricho de los editores sino que constituye la piedra fundamental de la idea de publicar úni-
[ 147 ]
camente aquello con valor y poseedor de una metodología científica eficaz, luego de una
evaluación exhaustiva de su contenido y forma. De este modo, se evitarán hipótesis confusas o
no probadas, triviales o hasta peligrosas.26, 102, 104 Se solicitará el consentimiento informado de
los pacientes involucrados en el escrito,19 distinguir si se publica para un evento científico o una
revista biomédica,3 o si es la divulgación de conocimientos a la comunidad no científica20, 78 o
un original método de enseñanza a estudiantes y jóvenes graduados. Para ello es ventajoso
comprender si efectivamente el autor es quien realizó la investigación, 3 si se realizó una previa
y profunda evaluación de la literatura pertinente, 3 con adecuada selección de revistas con-
sultadas73 y recuperación de citas atinentes95 que permiten la formulación de preguntas apro-
piadas a la idea de investigación, sin dejar de lado ni las evidencias31, 53, 96 ni todas aquellas
explicaciones científicas necesarias. 3, 29 Recordar que la ausencia de evidencia no es evidencia
de ausencia de importancia de los resultados obtenidos,1 Se detectará y excluirá toda conduc-
ta catalogada como incorrecta desde el punto de vista ético76, 101 como formal 28 ni publicar
probadamente resultados intrascendentes o muy preliminares.40
Por estas razones, que no son todas las involucradas en un artículo científico que es el co-
rolario final de toda investigación científica (experimental u observacional), cada autor/inves-
tigador debe estar dispuesto a ampliar sus lecturas de trabajos y/o áreas de investigación,44, 45,
66
para asegurar la calidad del material escogido y ser la base para la elaboración de un marco
teórico3 y definir así qué clase de artículo científico es el mejor para enumerar sus resultados.
Asimismo, tendrá en consideración su forma de presentación, 56, 65 el detalle de complejos
diseños de investigación70 o si la revista a enviar el manuscrito original es la más apropiada
para sus observaciones;3 igualmente si es preferible su difusión por vía electrónica36, 51 o la
tradicional en papel. La decisión final de aceptación o rechazo del manuscrito, luego de su
revisión editorial, no es más que la búsqueda de la excelencia en las publicaciones39 para no
proponer insignificante o irrelevante información, con errores graves en su intentada origi-
nalidad o sin destacar la precedencia de otros autores en la idea investigada, uso excesivo
de auto-citas bibliográficas (como si uno fuera el único que estudió ese tema) o con defectos
de forma. Por eso, antes de la entrega del manuscrito a la editorial correspondiente para su
evaluación, averiguar con “un par de ojos nuevos y frescos”, como si se lo leyera por primera
vez, si está a prueba “de balas”3 desde todos los aspectos posibles a considerar en una revisión
para que no sea rechazado.80
No olvidar que la salud pública debe ser preservada y por lo tanto, sólo investigaciones
cuyos resultados fueron evaluados por árbitros y/o especialistas certificados mediante el pro-
ceso de revisión editorial, como también el prestigio y la reputación de los autores y la revista
implicada, exigen un cuidado especial en el manejo del manuscrito, excluyéndolo si la informa-
ción contenida es dada a conocer por otra vía no evaluada científicamente:42 recordar el caso
de Robert Gallo que primero se preocupó en dar a publicidad por periódicos no científicos el
“supuesto descubrimiento del virus del SIDA-HIV” y luego se probó que todo era falso.78
La responsabilidad de la publicación de investigaciones inexistentes no debe recaer ex-
clusivamente en los editores que las permiten16 sino también en los lectores que están siempre
comprometidos con el contenido al admitir aquellos notoriamente engañosos, confusos al
entregarse en formato electrónico49 o provenir del mundo en desarrollo68, 105 donde se aduce
que los sistemas de revisión no existen o son muy inverosímiles.79, 105 En más de la mitad de
[ 148 ]
los casos no hubo respuestas por parte de los autores ante reclamos y/o preguntas de los
lectores,48 con lo cual invalidaban y distorsionaban peligrosamente el nuevo conocimiento
clínico presentado.
Los autores creen poseer grandes ideas y saber escribir maravillosos artículos,71 pero no
conocen en realidad cómo se hace el trabajo; por esta simple razón es que los editores esperan
de los investigadores/autores que comprendan y acepten las decisiones editoriales y que dicho
procedimiento debe permanecer en el anonimato con una demanda de bastante tiempo de
revisión;77 el resultado final es la mejoría del trabajo expuesto inicialmente. Si los equívocos
de los autores son responsabilidad del cuerpo editorial por no ser evidente lo que se pide al
evaluar y reaccionar como si se exigiera algo utópico o irreal,93 es innegable que los trabajos
no se reformarán y el complejo tramado de edición de una revista3 se transformará en un in-
trincado galimatías de muy difícil resolución. Se comprometerá a mejorar la calidad como si
fueran informes sucintos que delimiten el problema y sus posibles soluciones probadas.94
También deberán recordar los autores que los consensos han sido ampliamente usados
desde hace mucho tiempo como forma de ayuda para la distribución de recursos o en la to-
ma de decisiones: se disminuirán los sesgos durante la investigación y se evitaran decisiones
unilaterales del investigador, supuestamente más famoso, para interpretar equívocamente
la realidad de los resultados logrados. Métodos de consenso universalmente aceptados son
el Delphi y la técnica del Grupo Nominal;6 en estos métodos existe una combinación, casi
perfecta, de la síntesis de evidencia científica y la interacción intelectual y experimentada
de los expertos. Las Recomendaciones y Guías que se obtienen para la Práctica Clínica, fin
último de la mayoría de las investigaciones, se basan en la lectura crítica de literatura cien-
tífica previa, y por lo tanto, es necesario conocer toda la información relacionada con un
tema específico de investigación, con selección y resumen en función de su aportada calidad.
Con el fin de analizar la calidad de la información en cuanto a las Guías de práctica clínica,
una iniciativa europea (AGREE) produjo un listado de criterios útiles para su lectura crítica
(www.agreecollaboration.org).6
Reflexión final
No hay fin del progreso científico-tecnológico ni final de la difusión de las revistas cien-
tíficas porque involucraría la falta de investigaciones; por eso empezar ahora mismo una in-
vestigación, ya sea para escribir la Tesis nunca realizada, una revisión actualizada de un tema
que interesa especialmente y de utilidad práctica asistencial o un caso clínico observado que
demandó un tiempo mayor de preocupación intelectual. El tiempo es hoy y ya están presentes
las formas imaginables del artículo científico del siglo XXI a disposición de todos, según el
tipo de investigación a desarrollar y las consecuencias de ésta (Mapa Conceptual 1):
[ 149 ]
Mapa Conceptual 1:
investigación
científica
recurso
que identifica
Causas de Dilemas
enfermedad Éticos
Investigación Básica
Principios
Inventigación Clínica y Reglas
Problemas
actuales
Los avances científicos dependen tanto de poner “las manos en la masa” (la práctica de la
observación, clínica o experimental) como de tener ideas y nuevos conceptos (formar la teo-
ría) para recíprocamente disponer tanto de la inteligencia como de la habilidad de manipular
herramientas o instrumentos que permitan el progreso de la evolución humana, con orgullo
y sin prejuicios de ningún tipo.64
Así como se enseñó a ser investigador profesional, 21, 29 también se debe aprender a ser
autor. Parafraseando a Marañón, investigadores/autores, a las cosas!!!!
Referencias
1. Altman DG, Bland M. Absence of evidence is not evidence of absence. BMJ 1995;311:485.
2. Andrews LB. Genes and patent policy: rethinking intellectual properties rights. Nature
2002;3:803-7.
3. Arribalzaga EB, Borracci RA, Giuliano RJ y Jacovella PF. El artículo científico. Del papiro al for-
mato electrónico. Editorial Magíster Eos, Buenos Aires, 2005.
4. Arribalzaga EB y Mihura ME. Cirugía basada en la evidencia: moda, mito o metodología mo-
derna? Rev Argent Cirug, 2001;81(1-2):18-29.
[ 150 ]
5. Arribalzaga EB. Dilemas de investigación científica. Anal Fac Medicina Univ May San Marcos
1997;58(2):149-152.
6. Asua J. Conferencias de consenso basadas en la evidencia. Gac Med Bilbao 2006;103:3-6.
7. Bachelard G. La formación del espíritu científico. Editorial Argos, Buenos Aires, 1999, 22ª. Edi-
ción.
8. Bachrach SM. Scientific journals of the future. American Academy of Arts and Sciences, 2005.
9. Barcat JA. Original e interesante. Rev Méd Rosario, 1992;60(1):42-43.
10. Baue AE. Peer and/or peerless review. Arch Surg, 1985;120:885-6.
11. Beecher HK. Ethics and clinical research. N Engl J Med 1966;274(24):1354-1360.
12. Berkwits M. From practice to research: the case for criticism in an age of evidence. Soc Sci Med
1998;47(10):1539-1545.
13. Bhandari M, Busse J et al. Association between industry funding and statistically significant pro-
industry findings in medical and surgical randomized trials. CMAJ 2004;170(4):477-80.
14. Bhutta ZA. Ethics in international health research: a perspective from the developing world. Bull
WHO 2002;80(2):114-120.
15. Borracci R, Arribalzaga EB y Chiappetta Porras LT. El pensamiento abstracto en el nivel universi-
tario. Rev Argent Cirug, 1997;72:123-30.
16. Brice J, Bligh J. Author misconduct: not just the editor’s responsibility.Med Educ
2005;39(1):83-9.
17. Bunge M. La investigación científica. Siglo XXI Editores, Barcelona, 2000.
18. Caminiti C, Scoditti U, Diodati F and Passalacqua R. How to promote, improbé and test adheren-
ce to scientific evidence in clinical practice? BMC Health Services Research 2005;5:62 Disponible
en http://www.biomedcentral.com/1472-6963/5/62.
19. Clever LH. Obtain informed consent before publishing information about patients. JAMA,
1997;278(8):628-9.
20. Cooper C. Writing for the popular press: to inform and entertain.Hosp Medicine,
2001;62(6):364-5.
21. Cruess SR, Cruess RL. Professionalism must be taught. BMJ, 1997;315:1674-7.
22. D’Negri CE, De Vito EL. Introducción al razonamiento aproximado; lógica difusa. Rev Arg Med
Resp, 2006;4:126-136.
23. Davis BD. The scientist’s world. Microbiol Mol Biol. Rev, 2000;64(1):1-12.
24. Decullier E, Lheritier V, Chapuis F. Fate of biomedical research protocols and publication bias in
France: retrospective cohort study. BMJ 2005;331:19-25.
25. del Pino J. EEUU probó en Africa un fármaco antiSida sin develar sus riesgos. El País
10/01/2005.
26. Dietrich H. Nueva guía para la investigación científica. Editorial 21, Buenos Aires, 1999.
27. di Trocchio F. Las mentiras de la ciencia. Alianza Editorial, Madrid, 1998.
28. Downes S. How to publish a scientific paper. Australian National University, 2005.
29. Duran P. ¿Qué investigamos cuando investigamos? Arch Argent Pediatr 2006;104(4):292-294.
30. Durand SE, Mombrú A (Compiladores). Encrucijadas del pensamiento. Análisis críticos del que-
hacer científico. Gran Aldea Editores, Buenos Aires, 2003.
31. Editorial. The need and means for evidence-based medicine in developing countries. ACP Journal
2000; July/August: A-11.
[ 151 ]
32. Elliot GC. A brief guide to understanding patentability and the meaning of patents. Acad Med
2002;77(12Pt2):1309-14.
33. Evett IW, Jackson G, Lambert JA. More on the hierarchy of propositions: exploring the distinction
between explanations and propositions. Sci Justice, 2000;40(1):3-10.
34. Eyssautier de la Mora M. Metodología de la investigación. Desarrollo de la inteligencia. Interna-
tional Thomson Editores, México, 2002.
35. Flanagin A, Glass RM, Lundberg GD. Electronic journals and duplicate publication. Is a byte a
word? JAMA,1992;267(17):2374.
36. Fontoura Costa L. Bioinformatics: perspectives for the future. Get Mol Res, 2004;3(4):564-574.
37. Frisse ME, Tova JN. The commerce of ideas: copyright in the digital era. Acad Med, 1996;71(1):45-
53.
38. García Marcos F. Investigación con seres humanos. Rev Fund Fac Med 1998;VII(27): 6-11.
39. Goldwyn R. Manuscript acceptance: excellence not favoritism. Plast Reconstr Surg, 2004;114
Suppl:22-23.
40. Goldwyn R. Preliminaryresults: facts or excuses? Plas Reconstr Surg, 2004;114 Suppl:32-33.
41. Gonzalez de Dios J. De la medicina basada en la evidencia a la evidencia basada en la medicina.
Anal Esp Pediatria 2001;55(5):429-439.
42. 42. Hamad S. Ingelfinger over-ruled. Lancet 2000;356:s16.
43. Harvard Business Review. La gestión en la incertidumbre. Ediciones Deusto SA, Bilbao, 1999.
44. Haynes RB, McKibbon K A et al. Deciding which journals to read regularly. An Intern Med,
1986;105(2):309-12.
45. Haynes RB, McKibbon KA et al. Expanding the number of journals you read regularly. An Intern
Med, 1986;105(3):474-8.
46. Heler M. Ética y ciencia: la responsabilidad del martillo. Editorial Biblos, Buenos Aires, 1996.
47. Hofmann B. The technological invention of disease. J Med Ethics:Medical Humanities 2001;27:10-
19. 2002;287(21):2843-2847.
48. Huth EJ. Is the medical world ready for electronic journals? Online J Curr Clin Trials, 1992 Jul 1;Doc
No 7. Ingelfinger FJ. Purpose of the general medical journal. N Engl J Med, 1972;287(20)1043-4.
49. International Committee of Medical Journals Editors. Statements on electronic publication and
on peer reviewed journals. Ann Intern Med, 1992;116(12):1030. Isaacs D, Fitzgerald D. Seven
alternatives to evidence based medicine. BMJ, 1999:319:1618.
50. Jenkins D. Investigations: how to get from guidelines to protocols. BMJ 1991; 303:323-4.
51. Kates RW, Kasperson JX. Comparative risk análisis of technological hazards. Proc Nat Acad Sci
USA 1983;80:7027-7038.
52. Kaufman JL. Protection of research sujects (Correspondence). N Engl J Med 2003;349(2): 188-
192.
53. Kauffmann R, Reyes H, Goic A. Various suggestions for the presentation of manuscripts in biome-
dical journals. Rev Med Chil 1991;119(8):933-7.
54. Kelch RP. Maintaining the public trust in clinical research. N Engl J Med 2002;346(4):285-287.
55. King DB, Dickinson JA, Boulton MR, Toumpas C. EBM Notebook: Clinical Skills Textbooks Fail
Evidence-based Examination.EMB (Ed Esp) 2005;4:241-242.
56. Knietowicz Z. Medical journals are corrupted by dependence on drug companies. BMJ
2005;330:1169.
[ 152 ]
57. Lede R, Abriata G, Copertari P. La medicina basada en las evidencias. Un movimiento cultural a
favor de una mejor asistencia médica. Obstet y Ginec Lat Amer 1998;56 (5-6):305-311.
58. Lee JS, Urschel DM, Urschel JD. Is general thoracic surgical practice evidence based? Antorcha
Surg 2000;70:429-31.
59. Lee KP, Schotland M, Bacchetti P, Bero LA. Association of journal quality indicators with me-
thodological quality of clinical research articles. JAMA 2002;287(21):2805-2808.
60. Lemmens T. Confronting the conflict of interest crisis in medical research. Monash Bioeth Rev
2004;23(4):19-40.
61. Lock S. Pride and prejudice. BMJ 1989;298:1197.
62. Logan PM. Preparing and presenting a scientific paper. CARJ 2001;52(6):361-5.
63. Loke YK, Derry S. Does anybody read “evidence-based” article? BMC Med Research Methodol
2003;3:14-20.
64. Los padres de la oveja “Dolly” crean gallinas con genes humanos. El País, 14/01/2007. Disponible
en: http://www.elpais.com.aertículo/sociedad/padres/oveja/Dolly.
65. Lown B, Bukachi F, Xavier R. Health information in the developing world. Lancet, 1998;352:34-
38.
66. Manterola C, Pineda V, Vial M, Losada H and MINCIR Group. What is the methodologic quality
of human therapy studies in ISI publications? Ann Surg 2006;244(5):827-832.
67. McSherry DMG. Intelligent dialogue based on statistical models of clinical decisión-making.
Statist Medicine, 1986;5:497-502.
68. Mee C. 10 lessons on writing for publication. J Infusion Nurs 2003;26(2):110-113.
69. Moses H, Martín JB. Academic relationships with industry. JAMA 2001;285(7):933-935.
70. National Library of Medicine. Journal selection for INDEX MEDICUS/MEDLINE, fact sheet
sent by Elsevier Science inc, July 1991.
71. Norelle Lickiss J. Late lessons from Auschwitz- is there anything more to learn for the 21st cen-
tury?. J Med Ethics 2001;27-137.
72. Nuffield Council on Bioethics. Etica de la investigación relativa a la atención sanitaria en los paí-
ses en desarrollo. Stephemn Austin & sons Ltd, London 2002.
73. Office of Research Integrity (ORI). Managing allegations of scientific misconduct: a guidance
document for editors. January 2000, http://ori.dhhs.gov
74. Organ CH jr. What an editor wants or expects from authors. BJS 2000;87:1123-1124.
75. 78. Papponetti M. Los siete pecados capitales de la prensa. http://intramed.net.actualidad/art1.
asp.
76. Pellegrini Filho A, Goldbaum M, Silvi J. Production of scientific articles on health in six Latin-
America countries, 1973-1992.Rev Panam Salud Publica 1997;2(2):121-132.
77. 80. Pierson DJ. The top 10 reasons why manuscripts are not accepted for publication. Respir Care
2004;49(10):1246-52.
78. Popper KR. La lógica de la investigación científica. Ed. Tecnos SRL, Buenos Aires, 1985.
79. Poynard T, Munteanu M et al. Truth survival in clinical research: an evidence-based réquiem?.
Ann Inter.n Med 2002;136:888-895.
80. Raths LE. Cómo enseñar a pensar. Teoría y aplicación. Editorial Paidos, Buenos Aires, 1999.
81. Relman AS. The Ingelfinger rule. N Engl J Med 1981;305(14):824-826.
82. Rhodes R, Strain JJ: Whistleblowing in academic medicine. J Med Ethics 2004;30:35-39.
[ 153 ]
83. Russell B. La perspectiva científica. Editorial Ariel, Barcelona, 1982.
84. Sabino CA. El proceso de investigación. Editorial Humanitas, Buenos Aires, 1989.
85. Saville DJ. Basic statistics and the inconsistency of multiple comparison procedures. CJExperPsy-
chol 2003;57(3):167-175.
86. Salk J. Supervivencia de los que saben más. Emecé Editores SRL, Buenos Aires, 1975.
87. Schachman HK. On scientific freedom and responsibility. Biophysical Chemistry 2003;100:615-
625.
88. Schulkin J. Decision sciences and evidence-based medicine-two intellectual movements to su-
pport clinical decisión making. Acad Med 2000;75(8):816-818.
89. Shashok K. Los autores y las buenas prácticas de publicación: quien decide los criterios? Rev Pa-
nam Salud Publica 2004;15(1):4-8.
90. Shumak SL, Redelmeier DA. How to react when your colleagues haven’t read a thing. CMAJ
2000;163(12):1570-1572.
91. Smith R. Quality improvement reports: a new kind of article. BMJ 2000;321:1428.
92. Sood A, Erwin PJ, Ebbert JO. Using advanced search tools on PubMed for citation retrieval. Mayo
Clin Proc 2004;79(10):1295-9.
93. 96. Soto M, Rada G. Formulación de preguntas en Medicina basada en evidencia. Rev Méd Chile
2003;131:1202-1207.
94. Spar D. The business of stem cells. N Engl J Med 2004;351(3):211-213.
95. Swets JA, Dawes RM, Monahan J. Better decisions through science. Scientific American
2000;october:70-75.
96. 99. Teixeira Brandt C. Editoracao cientifica: as duas faces-analógica e digital. Acta Cir Bras
2004;19(6):587-589.
97. 100. Thorsteinsdottir H, Quach U, Daar AS, Singer P. Conclusions: promoting biotechnology
innovation in developing countries. Nature Biotech 2004;(22S):DC48-DC52.
98. Tomas y Garrido GM. Sabiduría ética e informacián científica. Persona y Bioética 2003;(19):39-
46.
99. Veloso de Franca G. Los riesgos de la medicina basada en evidencias. Conferencia, I Congreso
Internacional y Segundas Jornadas de gestión de riesgos en atención de salud, Santiago de Chile,
11-12/abril/2003.
100. Vos R, Willems D, Houtepen R. Coordinating the norms and values of medical research, medical
practice and patient worlds-the ethics of evidence based medicine in orphaned fields of medicine.
J Med Ethics 2004;30:166-170.
101. Wainerman C, Sautu R (compiladoras). La trastienda de la investigación. Lumiere, Buenos Aires,
2001, 3ra. Edición ampliada.
102. Weisinger JR, Bellorin-Font E. Access to medical information in Latin America. Lancet
2000;356:s15.
103. Whitcomb ME, Walter DL. Research training in six selected internal medicine fellowship pro-
grams. Ann Intern Med, 2000:133:800-807.
104. Young SN. Peer review of manuscripts:theory and practice. J Psychiatry Neurosci 2003;28(5):327-
330.
[ 154 ]
Capítulo 12
Comité de Ética e Investigación Clínica
Luis María Ziehr Rubén F. Iannantuono José Luis Cacharrón
Mientras que la investigación clínica es una actividad diseñada a partir de una hipótesis
experimental previa, con el objeto de obtener resultados que permitan una inferencia cien-
tífica extrapolable a toda la población a partir de la aceptación o rechazo de la hipótesis, la
terapéutica es la aplicación a una persona de una determinada técnica o medicamento con el
único fin de prevenir, mitigar o curar una dolencia en esa persona dentro de una cierta expec-
tativa de éxito, sin pretender generalizar el resultado obtenido a la población.
[ 155 ]
En la investigación y desarrollo de medicamentos existen etapas a cumplir perfectamente
establecidas, que parten de la Farmacología preclínica y se continúan con las de la Farmaco-
logía Clínica, en donde el ensayo clínico es la herramienta para medir la eficacia y seguridad
de los medicamentos. Mientras que en la Farmacología preclínica los estudios se realizan
en animales de experimentación, en la clínica es el ser humano el sujeto experimental; así
podemos definir al ensayo clínico como un experimento que se realiza con seres humanos
y que persigue objetivos correctamente definidos, que deben ser alcanzados siguiendo una
metodología científica válida dentro de un marco ético aceptable.
De la misma manera que en la práctica asistencial habitual, en la investigación clínica
experimental, es deber del médico proteger la vida, la salud, la intimidad y la dignidad del
ser humano.
Toda persona que hace una consulta médica como paciente habitualmente obtiene un
diagnóstico y un tratamiento pero, si se la invita a participar a un ensayo clínico, pasa a
ser paciente voluntario si da su consentimiento. Así, una persona no tiene obligatoriamen-
te que ingresar a una investigación clínica para recibir un tratamiento adecuado para su
enfermedad.
El Comité de Etica en Investigación Clínica (CEI) es un organismo que tiene como misión
evaluar la ética de los ensayos clínicos tomando en consideración tanto aspectos metodológi-
cos como los que tienen que ver con la autonomía de las personas. Es decir, salvaguardar los
derechos de las personas y en especial, de las consideradas vulnerables.
Para ello, un CEI debe evaluar primero la calidad científica y justificación ética de un
protocolo para luego abocarse a la evaluación y aplicabilidad del consentimiento informado,
que tiene relación directa con la autonomía de las personas.
Responsabilidades de un CEI
[ 156 ]
• Considerar la competencia de los investigadores y revisar los contratos entre el patro-
cinador y el investigador y/o institución.
• Requerir, cuando corresponda, que se proporcione información adicional en tiempo
y forma a las personas voluntarias participantes en un ensayo clínico que pudiera
dar mayor relevancia a la protección de los derechos, seguridad y/o bienestar de las
personas.
• Actuar en el completo interés de los voluntarios (sanos o enfermos) de la investiga-
ción y de las comunidades involucradas dentro del contexto regulatorio vigente en la
Argentina y de las normativas internacionales en la materia.
• Evaluar la pertinencia del pago a los voluntarios por participar en una investigación
y establecer (de corresponder) tanto la cantidad como el método.
• Asegurar que tanto la cantidad como el método de pago no vulnere la autonomía
que todo voluntario debe tener al momento de tomar la decisión de participar o de
continuar participando en un ensayo clínico.
• Asegurar que toda información referente a pagos y reintegros a los voluntarios parti-
cipantes en un ensayo clínico (método, cantidad, prorrateo, etc.) esté correcta y clara-
mente estipulada en las hojas de información para el voluntario, y en el consentimiento
informado escrito de tal forma que el voluntario pueda comprenderla fácilmente.
Un CEI debe realizar una exhaustiva evaluación técnica de los protocolos que se someten
a su consideración, previa a sus sesiones programadas, de modo tal que los integrantes del
CEI tengan elementos de juicio que los ayuden a fundamentar sus decisiones en un ámbito de
total autonomía en el que pueden a voluntad, aceptar total o parcialmente, o directamente
rechazar el protocolo considerado.
Un CEI debe estar preparado para recibir consultas de voluntarios (pacientes o sanos) y
de sus familiares, para asesorarlos en relación a sus derechos y deberes como participantes
antes, durante y luego de la participación en un ensayo clínico. Esta actividad debe quedar
debidamente registrada.
Un CEI debe estar compuesto por miembros con capacidad y experiencia para revisar
y evaluar los aspectos científicos, médicos, jurídicos y éticos de los estudios que se le pro-
ponen, libres de sesgo e influencias que pudieran afectar su independencia. Un CEI debe ser
multidisciplinario y multisectorial en su composición, los miembros de diferente sexo, credo
y al menos uno de ellos, que se desempeñe en un área no científica como representante de la
comunidad.
Un CEI, por ejemplo, puede estar constituido de la siguiente manera:
a) Miembros evaluadores participantes de las reuniones ordinarias y extraordinarias con
derecho a voto y con el perfil general descrito anteriormente;
b) Cuerpo técnico para la evaluación metodológica previa de los protocolos de investiga-
ción y para el análisis de eventos adversos, informes de avance/finales, desviaciones/
violaciones a los protocolos entre otras actividades a su cargo. Debe estar integrado
[ 157 ]
por profesionales con experiencia en metodología de la investigación científica, entre-
namiento en normas/regulaciones/lineamientos a los que adhiere el CEI relacionados
con la investigación clínica y estudios en áreas relacionadas con la salud de no menos
de 5 años;
c) Area administrativa para la distribución de la documentación entrante y para el procesa-
miento de los documentos generados por el CEI y para el archivo adecuado de todos los
documentos entrantes y copia de los salientes.
d) Un asesor para voluntarios participantes en ensayos clínicos encargado de asesorarlos
en relación a sus derechos y deberes como participantes o futuros participantes en una
investigación clínica. El responsable de la asesoría a pacientes debe ser un miembro del
cuerpo técnico.
e) El CEI debe realizar sus tareas en sesiones programadas contando con por lo menos 5
miembros que colectivamente tengan la capacidad y experiencia para revisar y evaluar
los aspectos científicos, médicos y la ética de los estudios que se les proponen. Los miem-
bros podrán ser hombres o mujeres y al menos:
• Dos de ellos deberán tener amplia experiencia en las áreas de investigación y meto-
dología en ensayos clínicos;
• Un miembro deberá tener conocimientos de leyes;
• Un miembro deberá ser representante de la comunidad.
• La actividad de un CEI no debe circunscribirse a la evaluación y seguimiento de
protocolos de investigación clínica.
• Dentro de sus funciones está la de generar ámbitos de discusión y análisis de las
distintas problemáticas relacionadas con la investigación clínica como, por ejem-
plo, conflictos metodológicos (placebo, submedicación y equivalencias) y conflic-
tos pragmáticos (población vulnerable, situaciones de emergencia/urgencia, entre
otros).
Conflictos éticos
Múltiples son los conflictos que se presentan en la investigación clínica. Desde un punto
de vista metodológico podemos resaltar el uso del placebo, la submedicación, la equiponde-
ración y el proceso de randomización.
Y, dentro de los que podemos denominar pragmáticos, la investigación clínica en pedia-
tría y la toma de consentimiento informado en situaciones de urgencia/emergencia pueden
ser buenos ejemplos.
Placebos
[ 158 ]
Visión “ética”: los derechos y bienestar de los pacientes están por encima de la necesidad
de uso de placebo por cuestiones científicas (visión compartida por la última versión de la
Declaración de Helsinki).
En una aclaratoria posterior a la declaración del año 2000, la Asociación Médica Mun-
dial permite el uso de placebos en dos situaciones: si no hay riesgos mayores o daños irrever-
sibles para los probandos, y si hay motivos científicos sólidos para el uso de placebos, lo cual
constituye una flexibilización que recupera nuevamente el uso de placebos con argumentos
contingentes.
Submedicación
Equiponderación
El imperativo de equidad implica que todos los sujetos de investigación deben tener igual-
dad en la probabilidad de riesgos y beneficios independientemente de clase social, género,
raza o cualquier otro atributo. En este sentido, la randomización puede considerarse ética
porque sólo considera el azar.
[ 159 ]
¿Es ético hacer investigación clínica en pediatría? ¿Es ético no hacerla?
Según las Guías de Buenas Prácticas Clínicas (GCP) es un proceso mediante el cual un sujeto
confirma voluntariamente su deseo de participar en un estudio en particular, después de haber
sido informado sobre todos los aspectos relevantes del mismo para que tome libremente la deci-
sión de participar. El consentimiento informado se documenta por medio de una forma escrita
que debe ser firmada y fechada.
El imperativo del principio de autonomía es el derecho de dar el consentimiento válido
antes de participar en una investigación respetando la:
1. Título:
2. Datos generales:
Número de protocolo:
[ 160 ]
Patrocinante:
Investigador Principal:
Dirección Centro:
Teléfono:
3. Introducción:
Duración.
5. Voluntariedad
6. Riesgos: Todos los eventos adversos serios. Cláusula por daños (recordar que legal-
mente la Cláusula de no renuncia, está implícita aunque no esté colocada).
9. Gratuidad
10. Firmas
Conclusiones
[ 161 ]
escrito sobre, por ejemplo, la forma en que debe administrarse la medicación, los medicamen-
tos prohibidos, los procedimientos relacionados al protocolo junto a otro conjunto de pautas
conductuales (por ejemplo, cláusula de no embarazo).
Esto significa que el paciente conoce sus obligaciones (por ejemplo, cumplir con las pau-
tas del tratamiento y con las visitas de seguimiento establecidas en el protocolo) y sus dere-
chos que siempre puede hacer valer si considera que se han vulnerado.
También el cumplimiento estricto de los procesos establecidos en un protocolo de investi-
gación aprobado por un CEI por parte de los investigadores y su equipo y por las autoridades
regulatorias (de corresponder) sumado al estricto apego de las normas internacionales: Good
Clinical Practice (GCP), The International Conference on Harmonisation of Technical Re-
quirements for Registration of Pharmaceuticals for Human Use (ICH), Food and Drug Ad-
ministration (FDA), Agencia Europea de Medicamentos (EMEA) y locales: Administración
Nacional de Medicamentos, Alimentos y Tecnología Médica (ANMAT), todas regulatorias
de la investigación clínica en seres humanos, aseguran el respeto de sus derechos.
Todo ello con el objetivo de propender al desarrollo de medicamentos o procedimientos
terapéuticos no medicamentosos eficaces y seguros para prevenir, tratar o diagnosticar las
enfermedades de los seres humanos entendidos como personas y mejorar sus condiciones de
vida como bien supremo a salvaguardar.
Referencias
1. Beecher HK. Ethics and Clinical Research. N Engl J Med 1966; 274: 1354-60.
2. Calvo JM. Hiroshima en el Oeste. Bogotá, Colombia. Diario “Ocho columnas”, 25 de
febrero de 1994: 4.
3. Caplan AC. Twenty year after: The legacy of the Tuskegge Syphilis study. When evil
introduces hasting center report 1992; 22: 6-15.
4. Clayton EW, Steinberg KK, Khoury MJ et al. Informed consent for genetic research on
stored tissue samples. JAMA; 274: 1786-1792.
5. Bauchner H, Sharfstein J. Failure to report ethical approval in child health research:
review of published papers. Br Med J 2001; 323 : 318–319.
6. França O, Añón F, García C, Gravert R, Núñez J, Wodowooz O, Queirolo E. Etica en la
investigación clínica. Una propuesta para prestarle debida atención. Rev Med Uruguay
1998; 14: 192-201.
7. Medical Research Council (MRC). MRC guidelines for good clinical practice. In MRC
Clinical Trials Series . London: External Communications, 1998.
8. Food Drug Administration (FDA). International conference on harmonization, good cli-
nical practice: consolidated guidelines. Federal Register 1997; 62: 25692–25709.
9. International Conference on Harmonisation of Technical Requirements of Pharmaceuti-
cals for Human Use (ICH). Topic M4 Organisation of Common Technical Document
for the International ethical regulations on placebo-use in clinical trials: a comparative
analysis. Bioethics ISSN 0269-9702 (print); 1467-8519 (online) 2008; 22: pp 64–74
10. Josefson D. US researchers guilty of breaking safety rules. Br Med J 2001; 323: 69.
[ 162 ]
11. International Conference on Harmonisation of Technical Requirements of Pharmaceuti-
cals for Human Use (ICH). Topic M4 Organisation of Common Technical Document
for the Registration of Pharmaceuticals for Human Use CPMP/ICH/ 2887/99. London:
European Agency for the Evaluation of Medicinal Products, 2000.
12. Lázaro P, Pozo F, Rico JR. Dirección General de Ordenación de la Investigación y For-
mación. Ministerio de Sanidad y Consumo. Una estrategia de investigación en el sistema
nacional de la salud (II): Investigación en servicios de salud Madrid. Med Clin (Barc)
1995; 104: 67-76
[ 163 ]
V. El médico como docente y comunicador público
capítulo 13
Investigación en Educación Médica
Introducción
[ 167 ]
para el inicio de cualquier protocolo. Definiremos términos como variables operacionales
y el concepto de validez y reproducibilidad de los resultados en investigación en educación
médica.
A continuación se presenta una lista algunos tópicos de investigación que han sido inves-
tigados por residentes o estudiantes en nuestra institución
Obviamente son sugerencias generales
• Impacto educativo y herramienta de evaluación4
• Promedio de carrera y rendimiento en exámenes de selección para una residencia de
cardiología5
• Validez y reproducibilidad de una herramienta de evaluación de la competencia clínica3
• Estilo de aprendizaje de un grupo de residentes de cardiología y tipo de exámenes6
• Calidad de una residencia y su relación con el mercado laboral7
Una vez que tenemos delineado el tópico de investigación es esencial revisar a fondo la
bibliografía en relación a ese tópico. El objetivo es ir definiendo la pregunta de investigación.
[ 168 ]
La pregunta de investigación es o son los interrogantes que le queremos formular al tópico
de investigación.
Ej. Tópico de investigación: “Impacto educativo y herramientas de evaluación”
Ej. Pregunta de Investigación: “¿Cuál es el impacto educativo del examen de opción múl-
tiple con respecto al EECR (Evaluación de Examen Clínico reducido)?”
Cuanto más clara sea esta pregunta, más específica será la búsqueda de la información.
Otros sitios que indexan artículos de revistas científicas de educación son el Education
Index (www.educationindex.com) y el Psychological Abstracts www.apa.org/psycinfo/
products/psycabs.html .
Medline (www.pubmed.gov) en también un sitio en donde se indexan gran cantidad de
artículos vinculados a la educación médica.8
[ 169 ]
Formulado la hipótesis de Investigación
Los estudios de investigación son semejantes a una ecuación aritmética, una clara racio-
nalidad o propósito (por qué y para qué van a definir una buena pregunta de investigación,
qué es lo que se quiere investigar). Esto nos guiará hacia un adecuado ¿Cómo? Es decir los
materiales y métodos que necesitamos para llevar adelante la investigación. Posteriormente
vendrán los resultados, es decir las respuestas a esas preguntas de investigación formuladas.
Para finalizar aparecerá la discusión. Esta sección se trata de una reflexión sobre los resulta-
dos obtenidos.
Es frecuente observar que existe confusión entre objetivos y propósitos. Como dije ante-
riormente los objetivos se refieren a QUÉ se va a investigar y el propósito al por qué y para
qué se llevará adelante la investigación. Los objetivos de un estudio frecuentemente toman
la forma de pregunta. Las preguntas expresan cómo las variables a investigar podrían rela-
cionarse.
La hipótesis es la respuesta anticipada a nuestra pregunta de investigación. Es una pre-
dicción sobre el resultado en términos de las variables a investigar.9 Una hipótesis típica
en educación podría ser: “Los residentes de cardiología instruidos a través del método A
obtienen calificación más alta en exámenes de apreciación critica de trabajos científicos con
respecto a los instruidos con el método B. En este caso las variables son los métodos de ca-
pacitación A o B y el rendimiento en exámenes de apreciación crítica. Es una predicción que
el método A se va a asociar a mejores resultados que el método B. Es muy importante definir
con claridad las variables y evitar ambigüedades. El ejemplo anterior es interesante, imagi-
nemos que el método A es un nuevo sistema de instrucción y el método B es el “tradicional”.
Es muy frecuente en educación que se defina con gran minuciosidad el nuevo método de
instrucción pero el tradicional se deja librado a la imaginación del lector asumiendo que éste
lo conoce en detalle.
En investigación en educación médica, los objetivos más frecuentemente buscados son dos:
1. Determinar causas y factores de un determinado problema
2. Evaluar los resultados de una estrategia determinada
Cada uno de estos objetivos puede llevarse a cabo aplicando diseños de investigación
apropiados.10
[ 170 ]
• Si se aplica o no una intervención: si se aplica una intervención: ej: utilización de un
simulador para RCP, el diseño es experimental. En este tipo de diseño la inclusión
de los participantes puede realizarse por un proceso de randomización individual
(experimental) o a grupos ya establecidos (Quasi-experimental). Si no se aplica una
intervención y sólo se observan las características que la población ha adquirido
naturalmente, el diseño es Observacional.
Los diseños observacionales pueden además dividirse en descriptivos, si sólo se re-
portan los datos observados obtenidos de la población estudiada, o analíticos, si se
comparan datos entre sub-poblaciones (expo-facto) Ej.: capacidad de resolución de
problemas de residentes de cardiología con o sin experiencia de clínica médica previa.
• De acuerdo a cómo se van a recolectar los datos: Cuando los datos se refieren a even-
tos pasados el diseño es retrospectivo. Cuando los datos se van a recolectar hacia
delante en el tiempo desde el inicio del estudio, el diseño es prospectivo.
Validez
Los resultados de una evaluación son válidos cuando son apropiados, pertinentes y
adecuados a lo que estoy midiendo. Mide lo que quiero medir. Ej: si quiero medir habili-
dades de comunicación, la herramienta (Guía de Observación) mide comunicación y no
examen físico, y si quisiera medir glucemia, el método (glucometer) mide glucemia y no
natremia.11
Es importante tener en cuenta algunos puntos
• La validez se refiere a lo apropiado y adecuado de los resultados de una herramienta
de evaluación para un grupo determinado de individuos y no a la herramienta en sí
misma. Que un test sea altamente válido para un grupo de estudiantes de medicina
de quinto año no significa que lo sea para residentes de cardiología.
• La validez es un concepto continuo y no dicotómico.
• La validez es siempre específica para uso particular. Ninguna herramienta es válida
[ 171 ]
para todos los propósitos. Una herramienta de evaluación como el examen de opción
múltiple de cardiología puede ser altamente válido para indicar habilidades de cono-
cimiento, moderado para indicar habilidades de razonamiento y bajo para predecir
éxito en la práctica del día a día.
• La validez es un concepto único, es decir no hay distintos tipo de validez, si distintos
modos de considerarla
Reproducibilidad
[ 172 ]
cadas. Ej: supongamos que tengo un glucometer y una muestra de sangre. Si pongo
la muestra en el glucometer en varias oportunidades y siempre me indica valores de
glucemia de 100 mg/dl significa que el resultado de la medición es válido (siempre
mide glucemia) y reproducible (los valores son similares). En cambio si indica valores
distintos el resultado sigue siendo válido (mide siempre glucemia) pero no es reprodu-
cible (da valores distintos). La reproducibilidad es necesaria pero no es una condición
suficiente de validez.
Conclusiones
[ 173 ]
Referencias
[ 174 ]
Capítulo 14
Cómo hablar con los medios.
El supermercado de la salud
Nora Bär
I maginemos por un instante a Buenos Aires en 1810. Una aldea de unos 40.000 habitantes
con calles de barro en las que, según escribió un viajero francés, “en las horas de la siesta
no se veían más que médicos y perros”.
Con ocho alumnos en los cursos del Protomedicato, el cuidado de la salud recaía en
otros tantos egresados, siete cirujanos, trece boticarios y algún que otro dentista u oftal-
mólogo.
En materia de remedios, se los utilizaba “enérgicos” (otra forma de decir que muchos
de ellos eran mortales en dosis elevadas), lo que de algún modo favorecía las malas artes de
curanderos y falsos médicos, que se lanzaban a “ejercer la profesión más ardua e interesante
de la vida del hombre”, según las crónicas de la época.
Por esos tiempos, el Ministro Godoy envió una memoria sobre el poder desinfectante
de los ácidos minerales y, entre ellos, el “nitro-muriático-oxigenado”, recomendando que se
adoptaran las fumigaciones y se “mandaran practicar en todos los Lazaretos fijos o provisio-
nales, en todos los Hospitales militares y civiles, en todos los Cuarteles, presidios, cárceles
y demás parajes, que por contener mucho número de individuos enfermos o sanos adulteran
la atmósfera que respiran y no basta la ventilación del aire libre para destruir los gérmenes
funestos que se anidan en su camas, muebles y paredes”.
La medicina colonial inspira una sonrisa, pero entre el mercurio y la amalgama pulve-
rizada surge un detalle de insospechada modernidad: en la misiva enviada por Godoy ya se
hacía hincapié en la conveniencia de divulgar los conocimientos médicos.
“Considero –escribía– que conviene al mejor servicio del Rey y del Estado que se vul-
garicen todo lo posible estos conocimientos; que se facilite a todos los jefes que vigilan o
tienen a su cargo la salud pública, la instrucción que importa posean en ese importante
objeto...”
Dos siglos más tarde, la comunicación de noticias médicas y científicas es una realidad
de crecimiento explosivo en los medios de comunicación globales.
Prácticamente no existe emisora de radio, canal de televisión, diario o revista de interés
general que no incluya en su oferta informativa una selección de temas médicos o un espe-
cialista que comente las últimas novedades. Basta con teclear un vocablo médico en Internet
para que la pantalla nos devuelva miles de sitios electrónicos.
[ 175 ]
Claro que, con 54.000 publicaciones científicas, especialistas ávidos por figurar en letras
de molde o aparecer en una pantalla de TV, y un público dispuesto a aceptar sin chistar las
novedades más disparatadas, divulgar conocimientos científicos no es tarea sencilla.
Para elegir el “menú” del día, el periodista especializado deberá bucear en decenas de
informaciones armado de un conocimiento apropiado de los temas que frecuenta y criterio
adecuado para valorar los nuevos conocimientos. El “supermercado de la salud” es un terre-
no pantanoso y sus ofertas deslumbran como luces de neón.
Una anécdota vale más que mil palabras. Después del éxito de la “píldora de la virilidad”,
mientras todavía se imprimían páginas y páginas sobre el Viagra, más de diez compañías
norteamericanas comenzaron a ofrecer fármacos para mejorar lo que, en un alarde de mer-
cantilismo, denominaron “prestaciones sexuales”. Empresas dedicadas a la herboristería y
farmacias alternativas ofrecieron pócimas, pomadas, píldoras y tés destinados a optimizar el
rendimiento de los varones en el terreno amoroso.
En los Estados Unidos, Hypnovisión, una empresa de Nueva York, por ejemplo, produjo un
audiocassette subliminal que proclamaba: “Mi sexo es perfecto porque Viagra funciona bien”.
Bodyonics, de Hicksville, envió cartas a 10.000 médicos anunciando Longevity, una
línea de hierbas preparada para la generación que pisa los cincuenta años. Y los laboratorios
HerbaSway anunciaron la píldora Stamina, con hierbas provenientes de la China.
Los cables de las agencias noticiosas traían a nuestro escritorio todas estas novedades
y también las promesas de la medicina tradicional, que se ufanaba de haber encontrado un
abanico de remedios para otorgar vitalidad al orgullo masculino, como los extractos de cier-
tas plantas o comidas, como la sopa de pene de tigre, el polvo de cuerno de rinoceronte o las
pociones de animales tan extraños como la civeta, un cuadrúpedo parecido a la mangosta.
El ejemplo tal vez suene un tanto exagerado, pero los hay incluso peores. Y si discrimi-
nar entre promesas, a cual más seductora, no parece una prueba suficientemente ardua, en
nuestra particular carrera de obstáculos para alcanzar la tan ansiada primicia se nos inter-
ponen desde los inventores autodidactos hasta los médicos “heterodoxos” que desarrollan
tratamientos propios (y, por supuesto, no sometidos a la aprobación de sus pares) para curar
algunos de los males más persistentes.
En una sala de redacción, atender el teléfono resulta una experiencia que puede poner a
prueba la capacidad de asombro. Nuestro ocasional interlocutor suele apresurarse a explicar
que posee un método revolucionario que hace recuperar el cabello a los calvos, restablece la
secreción de insulina o elimina las secuelas del accidente cerebrovascular. Los medios de co-
municación ejercen una atracción magnética para mercaderes de sueños dudosos. Los hay de
muchos tipos, pero todos tienen algo en común: suenan absolutamente convincentes.
Por eso, hay momentos en que a uno le encantaría tener a mano una bola de cristal o
poseer poderes anticipatorios.
Sobre todo cuando algún experimento científico parece inusualmente promisorio. Y en
especial cuando lo que promete es una “pavada” como erradicar el cáncer o curar el sida.
Ahí surge un dilema difícil de resolver: consiste en prever qué probabilidades tiene ese
cheque en blanco de convertirse en realidad. Y en qué plazo: ¿mañana, el año que viene,
dentro de medio siglo...?
Estas decisiones son las que tenemos que tomar varias veces por día los periodistas que
[ 176 ]
trabajamos en temas de salud. Por ejemplo, hace un par de años, un equipo de la Universidad
de Harvard anunció que había encontrado una proteína que protegía a ciertos monos del
sida. Bastaba una extrapolación un poquito más optimista de lo razonable para empezar a
pensar que la misma cadena de aminoácidos podría proteger a los seres humanos. Un poco
más y casi, casi estábamos a un paso del remedio contra la pandemia.
Lamentablemente, la historia reciente demuestra que, en medicina y en investigación,
nada es tan sencillo.
En agosto de 1995, Madeleine Nash se preguntaba en la revista Time si habíamos encon-
trado el “nirvana” de la pérdida de peso: el doctor Jeffrey Friedman, de la Universidad Roc-
kefeller, había inyectado diariamente durante dos semanas una hormona en ratones obesos
y éstos súbitamente habían comenzado a comer menos y a quemar más grasas. En un alarde
que sólo pudo comprobarse en el mundo “ratonil”, éstos no sólo habían perdido un 30% de
su peso, sino que al mismo tiempo habían registrado descensos en sus índices de colesterol y
glucemia.
La leptina –una palabra que dio la vuelta al mundo– se transformó en el imaginario
colectivo en la hormona “milagrosa” que terminaría definitivamente con la tortura de la
obesidad. Sin embargo, casi una década más tarde y a pesar de los esfuerzos, todavía no se
encontró la manera de remedar esos “milagros” a escala humana.
Antes del 3 de mayo de 1998, pocos habían escuchado los vocablos angiostatina y endos-
tatina más allá de un estrecho círculo de investigadores en oncología. Pero bastó un artículo en
la primera plana de The New York Times para que se encendieran las ilusiones de todos: estaba
dedicado a las investigaciones en ratones de Judah Folkman y Timothy O´Reilly sobre cómo
impedir la formación de nuevos vasos sanguíneos (antiangiogénesis) en un tumor. Cuando le
preguntaron a Folkman si lo consideraba una buena noticia, contestó: “Si usted es ratón, sí”.
Es en ocasiones como éstas cuando la información responsable adquiere todo su valor.
Por eso, los comités de ética de diferentes asociaciones periodísticas aconsejan:
[ 177 ]
9. Utilizar adecuadamente el lenguaje.
10. Cuantificar el riesgo. Un 50% de aumento en el riesgo relativo puede no ser mucho si
los números absolutos son pequeños.
11. Informar sobre los riesgos y beneficios de los tratamientos.
12. Distinguir entre “asociación” y “causa”.
13. Definir y comunicar las dudas e incertidumbres de los científicos, tanto lo que los
médicos saben como lo que ignoran.
14. Buscar expertos independientes para evaluar la calidad de la evidencia o confirmar
resultados.
15. Considerar que el principal criterio cuando se elige una noticia para publicar es el
interés público.
16. Ser escéptico, sobre todo acerca de promesas enfáticas.
17. Dejar de lado términos como “cura mágica” y otros igualmente sensacionalistas.
Pero es necesario subrayar que si a los periodistas se nos acusa de teñir de sensaciona-
lismo el trabajo de los científicos en pos de un titular llamativo, según más de doscientos
investigadores, funcionarios y representantes de medios europeos consultados para elaborar
las “Guías sobre la comunicación de la ciencia y la salud” --producidas por el Centro de
Investigaciones Sociales de Gran Bretaña y la Escuela de Investigaciones en Comunicación
de Ámsterdam--, muchas de las distorsiones y malentendidos que exhiben actualmente las
notas periodísticas surgen de una cierta incapacidad de los científicos para comunicar sus
hallazgos.
El resultado, según las conclusiones del Programa Messenger, dentro del cual se desarro-
llaron las guías, es que el público se forma una imagen distorsionada del proceso científico,
padece ansiedades innecesarias y alienta falsas esperanzas.
Algunas de sus recomendaciones para los científicos:
• ¡Lea los diarios, mire la televisión! Es importante que esté al tanto de cómo su tema
de investigación es reflejado en los medios. ¿Cuáles son las áreas de controversia?
¿Cómo se perciben los riesgos?
• Conozca a los periodistas y estilos locales. La forma en que se cubren las noticias
científicas varía de país en país de acuerdo con cuestiones morales, comerciales y
regulatorias.
• Aclare si sus hallazgos son preliminares. Aunque hay una natural tendencia a desta-
car la importancia del propio trabajo, esto no sirve a los intereses del público ni de
los científicos.
• Destaque en qué forma sus hallazgos difieren de los obtenidos por otros. Esto ayuda-
rá a los lectores a ponerlos en contexto y a entender que otros investigadores pueden
tener diferentes visiones sobre el mismo tema.
• Sea especialmente claro en la comunicación de los riesgos. Para un científico, el
riesgo es simplemente la probabilidad estadística de que ocurra algo. Esta no es,
sin embargo, la forma en que lo entienden las personas no entrenadas. Conviene
aclarar cuál es el riesgo absoluto, de modo que se entienda el riesgo relativo, realizar
[ 178 ]
comparaciones y poner en contexto los grandes números. Por ejemplo: ¿es grande,
moderado o pequeño un riesgo de uno en un millón?
• Si sus investigaciones tienen implicancias para la calidad de vida de su comunidad,
sea particularmente cuidadoso al describirlas. Este puede ser el caso cuando trabaja
en problemas alimentarios, seguridad, medio ambiente y otros temas. Esté prepara-
do para participar en discusiones sociales, éticas, económicas y políticas.
Como afirman en sus consideraciones preliminares los autores del Messenger: “Promo-
ver la cultura científica es parte de una buena «higiene democrática»”.
Y en esto, científicos, periodistas y lectores tenemos responsabilidades compartidas...
[ 179 ]
VI. Elementos de Bioestadística
Rogelio A. Machado
Sección 1 Introducción
Sección 2 Conceptos básicos
Sección 3 Frecuencia y probabilidad de un suceso
Sección 4 Distribuciones de probabilidades
Sección 5 Muestreo. El desvío estándar de la media o error estándar
Sección 6 Inferencia estadística
Sección 7 Comparaciones entre dos medias muestrales. La distribución t
Sección 8 Comparaciones entre proporciones
Sección 9 Correlación y regresión
Sección 10 Análisis de la varianza
Sección 11 Regresión múltiple
Sección 12 Regresión logística
Sección 13 Métodos no paramétricos
Sección 14 Pruebas diagnósticas
Sección 15 Análisis de la sobrevida
Sección 16 Enfermedades en las poblaciones
1. Introducción
[ 183 ]
hay más de un método para tratar con un mismo problema. En estos casos, frecuentemente
será necesario el trabajo en conjunto con el matemático, y aquí los conocimientos de bioes-
tadística del investigador nuevamente serán necesarios para ayudar a orientar el enfoque
del análisis hacia los aspectos médicos o biológicos de mayor importancia, sobre los que el
matemático podrá no estar demasiado informado.
En lo que sigue se procura exponer los aspectos básicos de la bioestadística vistos desde
la orilla del médico, aunque se mencionan algunos aspectos más generales y formales a fin de
fundamentar algunos de los requisitos y limitaciones de los métodos y de hacer comprensible
la lógica subyacente en los mismos, tratando de evitar la impresión de arbitrariedad que suele
surgir de la lectura de los textos cuando los diversos métodos son presentados como una co-
lección de recetas. Como se ha dicho, la consulta al especialista en bioestadística será muchas
veces necesaria, pero el planteo de las preguntas y los lineamientos de un estudio conciernen
directamente al médico, para no mencionar la interpretación biológica de los hechos obser-
vados, sobre lo que el estadígrafo tendrá en general menores posibilidades de contribuir.
Los temas abarcados en el texto, como el lector podrá suponer, son sólo algunos de los
más importantes de la bioestadística y de ninguna manera se trata de una revisión exhaustiva
de los mismos, sino más bien de una introducción que haga comprensibles y aprovechables
los procedimientos más frecuentemente utilizados en esa disciplina. Las referencias sugieren
lecturas complementarias que pueden ayudar a la comprensión de ciertos aspectos que ex-
cederían los límites de estos elementos de bioestadística. Los números entre paréntesis, si no
se indica párrafo (§), se refieren siempre a ecuaciones u expresiones análogas incluidas en el
texto.
Asimismo, a lo largo de las distintas secciones se encontrarán ejemplos que procuran
ilustrar algunos de los aspectos prácticos de los distintos métodos y complementar los con-
ceptos vertidos en el texto. Por lo tanto su lectura no debería omitirse, si bien algunos detalles
numéricos y de cálculo pueden leerse superficialmente, ya que lo fundamental son los concep-
tos que ilustran, y que refuerzan o completan el tema de fondo. En este respecto, tanto en el
texto como en los ejemplos, se han introducido algunas expresiones algebraicas o fórmulas
sencillas, por su valor para describir los procedimientos básicos del cálculo estadístico y
ayudar a comprender las ideas en que se basan. Consecuentemente, al tratar de los aspectos
más complejos de la bioestadística, se ha evitado la reproducción de fórmulas y algoritmos de
cálculo extensos que van más allá de los propósitos del texto.
Algunos ejemplos se basan en datos publicados, generalmente simplificados para mayor
sencillez, y en estos casos se cita la fuente original. En tanto, en su mayoría han sido elabo-
rados mediante simulación numérica con programas de estadística, y si bien se ha procurado
que versen sobre conocimientos médicos ampliamente aceptados, su finalidad ha sido ilustrar
los procedimientos de la bioestadística y en ningún caso introducir juicios de verdad o pro-
poner conceptos de validez comprobada en el campo de la medicina.
[ 184 ]
2. Conceptos básicos
[ 185 ]
sistólico, y viceversa.” Estas conclusiones pueden ser muy difíciles de percibir por la mera
inspección de las tablas con las mediciones originales. Más aún, en el caso de dos grupos con
diferentes promedios de presión arterial y en el de la correlación entre frecuencia cardíaca y
volumen sistólico, es importante conocer el nivel de seguridad o confianza que se puede tener
de que los resultados observados traduzcan relaciones realmente existentes en las poblaciones
de las que provienen los datos y no se hayan originado en fluctuaciones debidas al azar, y
estos son problemas típicos que la estadística ayuda a contestar. A continuación se exponen
algunos de los conceptos básicos utilizados en bioestadística.
El término individuo se suele emplear para referirse a seres humanos, animales y también
a los diversos objetos de interés de la biología en cuanto constituyan unidades productoras
de datos. Estos son números provenientes de observaciones realizadas en los individuos y se
refieren a propiedades de tales individuos, como pueden ser el pulso, la presión arterial o las
glucemias. En general, los datos se obtienen midiendo, contando, comparando o clasificando
el material observado, proceso que converge en la producción de números. Los números cons-
tituyen el material apto para ser analizado mediante los distintos métodos de la estadística.
Pero la estadística no maneja números aislados sino conjuntos de números, de los que extrae
la información útil.
Como ha mencionado, uno de los objetivos fundamentales de la estadística es llegar
a conocer las características de conjuntos más o menos extensos de individuos a partir de
muestras formadas por algunos de ellos. Este es el punto de partida de los procedimientos de
inferencia estadística, que se verán en §6.1 y siguientes. En estadística, cualquier conjunto
de datos extraído de un entorno mayor es una muestra del conjunto mayor, llamado a su vez
población ó universo. Con más propiedad, se entiende por población o universo la totalidad
de los resultados experimentales posibles. En tanto, el término resultados experimentales
designa, no sólo conjuntos de mediciones, como por ejemplo, de la presión arterial o de la
glucemia, sino también los datos provenientes de cualquier colección de individuos o especí-
menes biológicos donde se puedan realizar observaciones. De esta forma, la cantidad de crisis
anginosas o el grado de disnea referidos por los pacientes, son datos biológicos pasibles de
ser medidos, contados, estimados en su intensidad o clasificados, esto es, transformados en
números.
Por otra parte, es fundamental que la extensión del universo del que provienen los resul-
tados experimentales esté claramente definida, como por ejemplo, hombres de 50 a 75 años
residentes en tal área geográfica. Al definir un universo como la totalidad de los resultados
posibles, se establece la exigencia de que todos sus integrantes estén enunciados y definidos.
Sin embargo, el acceso a todos los elementos de un universo es casi siempre difícil de conse-
guir en la práctica, y puede llegar a ser imposible cuando se definen condiciones que implican
cierto grado de incertidumbre, como pueden ser “coronarios” o “hipertensos.” Muchas veces
los universos son entidades con aspectos dinámicos que hacen imposible “congelarlos” para
proceder a su medición, como los pacientes de una determinada enfermedad, que se renuevan
constantemente en la población. Por estos motivos, habrá que ser siempre cuidadoso al hacer
extensivos los resultados obtenidos de las muestras, a todo el universo.
Nótese que cada individuo de una muestra puede proporcionar uno ó más datos (por
ejemplo, una ó más tomas de la presión arterial). Cada dato es un elemento de la muestra, y
[ 186 ]
el número de datos es una característica muy importante de la misma, que define el tamaño
muestral. De modo que, en cuanto a su obtención, una muestra proviene de un grupo de in-
dividuos y está constituida por un conjunto de datos proporcionados por dichos individuos.
Cada dato es un elemento del conjunto muestral.
Se dijo que las muestras están formadas por datos numéricos, y esto es así aún en los
casos especiales en que es estudiada una cualidad, como sano ó enfermo, alto ó bajo, leve,
moderado o severo: para el trabajo estadístico tales cualidades son representadas por núme-
ros o codificadas (por ejemplo, sano = 1, enfermo = 2). Cada número es así un elemento de la
muestra, representando a un individuo. En última instancia, si bien el concepto de individuo
es útil, en forma más rigurosa es preferible considerar una muestra como un conjunto de da-
tos numéricos. Como se ha mencionado, un mismo individuo puede proporcionar más de un
dato ó elemento muestral. Por ejemplo, puede haber más de una cifra de presión arterial por
paciente. Esto motiva ciertos cuidados en los procedimientos estadísticos para que no haya
individuos “sobre” ó “infra” representados en el estudio, y para dar cuenta de la correlación
que podrá existir entre datos provenientes de un mismo sujeto. Una breve referencia a los
métodos para la obtención de muestras se encontrará en §5.1.
[ 187 ]
pulso arterial en latidos por minuto o los glóbulos rojos por milímetro cúbico de sangre (que
en rigor son variables discretas).
[ 188 ]
Tabla 2.1. Pacientes portadores de estenosis valvular aórtica clasificados según la etiología de
la enfermedad (Passik y col, 1987).
En cambio, para variables continuas, los datos deben agruparse en intervalos como se
observa en la Tabla 2.2, donde la presión arterial sistólica de 150 individuos se agrupó en
intervalos de 10 mm Hg, comenzando por el que va de 80 a 89 mm Hg. Cualquier valor de
presión dentro del intervalo se cuenta como un dato en el mismo, sin importar su valor exac-
to. Esto implica un resumen de los datos, ya que a todos los que caen en un intervalo de clase
se les adjudica un mismo valor (en general el valor central del intervalo). Hay un efecto de
redondeo de los datos que origina pérdida de información y es el costo de haberlos resumido,
aunque con intervalos no demasiado grandes dicha pérdida suele ser pequeña. La variable
queda así condensada y una tabla que tendría 150 filas se convierte en una de 10, como puede
observarse en la Tabla 2.2. Se ve claramente como los datos se agrupan hacia el centro de la
distribución y así se tiene una imagen rápida de la misma.
Tabla 2.2. Tabla de distribución de frecuencias. Presión arterial sistólica en 150 individuos
extraídos de una población con media de 120 mm Hg y desvío estándar de 15 mm Hg.
80 - 89 2 1.3 2 1.3
90 - 99 11 7.3 13 8.7
100 - 109 20 13.3 33 22.0
110 - 119 40 26.7 73 48.7
120 - 129 33 22.0 106 70.7
130 - 139 29 19.3 135 90.0
140 - 149 12 8.0 147 98.0
150 - 159 1 0.7 148 98.7
160 - 169 1 0.7 149 99.3
170 - 179 1 0.7 150 100.0
TOTALES 150 100
[ 189 ]
Una tabla como ésta se conoce como tabla de distribución de frecuencias. Los interva-
los se eligen en forma arbitraria y en general iguales. La frecuencia relativa con que aparece
la variable en cada intervalo respecto del número total de casos, puede ser añadida a la tabla
como una nueva columna y expresada como porcentajes. El concepto de distribución de
frecuencias es fundamental porque da una idea de la distribución de probabilidades para la
variable en cuestión, ya que la frecuencia con que se presentan los distintos valores de una va-
riable está en relación con sus probabilidades (estos conceptos se completan en las Secciones
3 y 4). Una instancia más en este tipo de tablas incluye la llamada frecuencia acumulativa,
que consiste en la suma de las frecuencias en cada fila desde el extremo inferior de la distri-
bución (primera fila de la tabla) hasta cada uno de los niveles en que ésta ha sido dividida
(Tabla 2.2, columnas 4ª y 5ª ).
Con el objeto de realizar cálculos estadísticos y contándose con programas de com-
putación elementales, que no tienen dificultades para manejar grandes cantidades de
datos, la tabla sin resumir mencionada en primer término es la de elección, ya que las
tablas de distribución de frecuencias sacrifican una parte de la información contenida en
los datos al resumirlos en una cierta cantidad de niveles sin tomar en cuenta sus valores
exactos.
Otras tablas, muy frecuentes en la presentación final de los resultados, ahorran la exposi-
ción de toda la distribución de frecuencias de las variables y la reemplazan por sus indicado-
res de posición y dispersión, como la media y el desvío estándar o el rango, que como se verá
más adelante, dan una rápida visión de la magnitud y forma de distribución de la variable.
De esta manera la información es “comprimida” sin pérdida de lo esencial y una sola tabla
puede albergar múltiples variables distintas, reducidas a sus medias y desvíos estándar. Estas
tablas, como el lector habrá notado, son muy utilizadas para la presentación de los resultados
en los trabajos de investigación.
[ 190 ]
Algunos gráficos elementales destinados a representar las distintas clases de objetos en
que se subdivide un conjunto y sus proporciones respecto del total del conjunto, como pueden
ser las distintas etiologías de una determinada enfermedad, consisten en áreas geométricas,
frecuentemente círculos, divididas en sectores proporcionales al número de casos en cada
clase. El total de clases corresponde al área total del círculo o 100%. Un ejemplo, correspon-
diente a la Tabla 2.1, se presenta en la Figura 2.1. Nótese como la impresión producida por
el “pastel” y sus porciones, da una idea mucho más rápida y efectiva de la prevalencia de las
distintas etiologías de la estenosis aórtica que la sola lectura de la tabla.
Figura 2.1. Etiología de la estenosis valvular aórtica en un grupo de 646 pacientes de ambos
sexos (Passik y col, 1987).
En lo que sigue, dentro de otros tipos de gráficos más elaborados, sólo se mencionarán
algunos de los más frecuentes.
[ 191 ]
borde superior del correspondiente histograma, ver Fig. 4.2 ). Estas curvas de frecuencias
son importantes en teoría estadística y se relacionan con las curvas de distribución de proba-
bilidades (ver Sección 4). En la Fig. 2.2 se ha superpuesto al histograma la curva normal de
distribución de probabilidades (ver §4.7).
Figura 2.2. Histograma de frecuencias correspondiente a los 150 individuos con presión
arterial sistólica media de 120 mm Hg y desvío estándar 15 mm Hg de Tabla 2.2. Se ha su-
perpuesto la función de distribución normal teórica correspondiente a los datos.
[ 192 ]
Figura 2.3. Diagrama de tipo “box and whisker” para dos grupos de individuos con presión
arterial sistólica media de 120 y 160 mm Hg respectivamente. Los asteriscos corresponden a
datos alejados del centro de la distribución.
2.4.4. Una precaución útil: verificar las escalas en los distintos ejes
En general, aunque no siempre, la proporcionalidad entre los datos representados y las
dimensiones de los correspondientes elementos gráficos es un requisito para que la informa-
ción proporcionada sea íntegramente aprovechable y aún más, para que no se produzcan in-
terpretaciones distorsionadas de los resultados ilustrados por las figuras. Una forma común de
afectar la interpretación de una gráfica produciendo un efecto visual que no se corresponde con
la totalidad de los datos y pasa fácilmente inadvertida, es causada por la interrupción de las es-
calas mediante cortes en los ejes, habitualmente el eje vertical o de ordenadas. De esta manera,
cambios circunscritos a un pequeño sector de la escala, aparecen desplegados en toda la exten-
sión del gráfico y parecen más grandes de lo que son. En la Figura 2.4 se observan las curvas
de sobrevida libre de eventos cardiovasculares de dos grupos, A y B, de 180 individuos cada
uno, que presentaron una tasa anual de eventos del 2.2% y 6.6% respectivamente. Los dos
gráficos son equivalentes, pero el de la derecha produce la impresión de una diferencia mucho
[ 193 ]
más marcada en la evolución de cada grupo, lo que se debe a que la porción del eje de ordenadas
entre el 0 y el 75% de la escala ha sido “cortada.” A pesar de todo, este procedimiento puede
ser útil para evitar largos intervalos libres de datos, precisamente cuando éstos oscilan dentro
de regiones muy pequeñas de la escala.
Figura 2.4. Dos presentaciones de la sobrevida libre de eventos en dos grupos de individuos, A y
B. En el gráfico de la derecha, la escala del eje de ordenadas ha sido omitida entre 0 y 75%.
2.5. Un resumen más compacto de los datos: medidas posición y medidas de dispersión
Es posible ir un paso más allá en la elaboración de los datos considerando que muchas
veces se agrupan o distribuyen alrededor de un valor central más frecuente (aunque no siem-
pre), y que su frecuencia de presentación tiende a disminuir al alejarse del centro, a partir del
cual se “dispersan.” Esto proporciona la oportunidad de elaborar estimadores de la posición
central y estimadores de la dispersión de una variable, con lo cual un número estima el centro
de la distribución de los datos y uno o dos números más describen el modo de dispersarse
alrededor del centro. Estos estimadores son números que se obtienen a partir de los datos de
las muestras, y suelen denominarse estadísticos.
x– = (x1 + x 2 + …+ x i + …+ x n ) / n
x– = ∑ x i / n (2.1)
[ 194 ]
La media tiene importantes funciones en una gran cantidad de técnicas estadísticas y es
el estimador de posición central más ampliamente utilizado.
Otra medida de posición es la mediana, que se define como el valor del dato que se halla
en la mitad de la serie cuando los datos son ordenados en forma ascendente o descendente.
Si el número de datos es par, habrá dos observaciones centrales y se acepta como mediana el
promedio de éstas.
Una ventaja de la mediana sobre la media es no estar influida por los valores extremos de
los datos, inconveniente que sí presenta la media. En la serie:
1, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 5, 5, 6, 6, 7, 7, 8, 8, 70
[ 195 ]
madores de la dispersión muy importantes en la teoría estadística. El primero de ellos es la
varianza, que es el promedio de tales desviaciones elevadas al cuadrado:
[ 196 ]
Ejemplo 2.1
El objeto del ejemplo es mostrar el cálculo de la media y el desvío estándar muestrales a
fin de familiarizarse con la forma de manejar los datos en los procedimientos estadísticos. Este
tipo de cálculo se realiza actualmente mediante programas de computación que sólo requieren
la introducción de los datos originales sin procesar, por lo que el trabajo con calculadoras de
escritorio ya es obsoleto, pero seguir el desarrollo del cálculo a través del ejemplo ayuda a com-
prender la estructura de esos estadísticos muestrales. Considérese un conjunto de 10 individuos
para los que el laboratorio dio las cifras de HDL colesterol (en mg/dl) que forman la segunda
columna de la tabla. En la última fila se hallan las sumatorias o totales de columna.
– –
Paciente Nº HDL ( = x ) x–x ( x − x )²
1 81 35 1225
2 37 -9 81
3 35 - 11 121
4 64 18 324
5 46 0 0
6 37 -9 81
7 45 -1 1
8 43 -3 9
9 21 - 25 625
10 51 5 25
TOTALES 460 0 2492
Nótese como la suma de las desviaciones de los datos con respecto a la media es igual a
0, por lo que no se puede utilizar en las medidas de dispersión. En tanto, los cuadrados de las
desviaciones son siempre positivos y no se cancelan, permitiendo el cálculo de la varianza. La
varianza, si bien es un indicador útil de la dispersión de los datos, no resulta inmediatamente
interpretable por estar las desviaciones elevadas al cuadrado. Esto se subsana en el desvío
estándar mediante la extracción de la raíz cuadrada. Su valor tiene las unidades originales y
resulta rápida e intuitivamente interpretable: se verá más adelante que en las llamadas distri-
buciones normales, un 95% de los datos suele encontrarse entre la media y dos desvíos están-
dar, en este caso entre 46.0 más/menos 2 × 16.6 o sea, entre 79.2 y 12.8 mg/dl. Compruébese
que en la tabla sólo hay un dato fuera de estos límites
[ 197 ]
2.5.3. Medidas de dispersión. Rango. Cuartiles y percentiles
El rango es la diferencia entre el mayor y el menor de los datos de un conjunto. Por
ejemplo, en los datos de presión arterial de la Tabla 2.2, el mayor registro fue de 173 mm Hg
(incluido en la última fila) y el menor 82 mm Hg (incluido en la primera fila), de lo cual resulta
que el rango es igual a 173 menos 82 o sea 91 mm Hg. Entre sus numerosos puntos débiles,
el rango no informa como se distribuyen los datos en su interior y, con algunas excepciones,
es muy poco usado corrientemente.
Los cuartiles y percentiles son en cambio más informativos. Con los datos ordenados
de menor a mayor, el cuartil inferior es el valor por debajo del cual queda la cuarta parte
de los datos y el cuartil superior es el valor por encima del cual queda otra cuarta parte de
los datos. Entre ambos cuartiles se extiende la distancia o rango intercuartil, que como se
comprende encierra la mitad restante de los datos, esto es, los datos no incluidos en los cuar-
tiles extremos. En general, la división del rango total de los datos en intervalos que abarcan
determinados porcentajes de los mismos, genera percentiles. Los cuartiles y percentiles son
útiles con finalidades descriptivas y en este sentido son muy utilizados.
[ 198 ]
3. Frecuencia y probabilidad de un suceso
[ 199 ]
mo ocurrirá para cualquiera de las otras cinco caras. En este caso, y siempre que nos conste que
el dado es normal, no consideraríamos necesario hacer una prueba experimental para determi-
nar las probabilidades de cada una de las caras. Sin embargo, en la práctica, para obtener una
aproximación a 0.166 suficientemente exacta, se debería realizar una gran cantidad de tiradas,
pues de hacerlo unas pocas veces, las desviaciones por azar podrían ser importantes y el resul-
tado estar muy lejos del deducido en forma teórica. Este hecho exige que los universos donde se
estiman probabilidades permitan muestreos suficientemente grandes (nótese que en el caso de
un dado o una moneda, el tamaño del universo no está dado por el número de caras sino por el
hecho de que las tiradas posibles son infinitas). Las probabilidades definidas por modelos como
los de la tirada de monedas o dados, se conocen como “clásicas” o a priori, en contraste con las
derivadas de frecuencias, denominadas “frecuenciales” o a posteriori. A pesar de su apariencia
sólida, la probabilidad clásica o a priori no carece de dificultades teóricas y esto, unido a las
limitaciones para su aplicación a los problemas surgidos de situaciones reales, que en la gran
mayoría de los casos deben abordarse a partir de muestras de universos sólo parcialmente co-
nocidos, hace que el modelo frecuencial o a posteriori sea de uso habitual y corriente.
3.2. La probabilidad de un suceso puede variar entre 0 y 1
Para cualquier experimento, el número de ocurrencias o apariciones de un suceso (n) no
puede ser mayor que el número total de casos evaluados (N), ni menor que cero. Como la
probabilidad se estima mediante la razón n / N, cuando n = N la probabilidad es 1, y cuando
n = 0, la probabilidad es 0. Cuando la probabilidad es 1, el hecho estudiado ocurre en todos
los casos y se tiene la certeza de que ocurrirá siempre: es la probabilidad del suceso seguro.
Cuando la probabilidad es 0 también se tiene certeza, pero de que no ocurrirá. Un suceso con
probabilidad 0 se dice que es un suceso imposible. La probabilidad de un suceso A se denota
habitualmente como P(A) o p(A), por lo cual la probabilidad antes mencionada de hallar in-
dividuos con hipertrofia ventricular izquierda (HVI) se expresará P(HVI) = 0.161. Es común
expresar probabilidades con respecto a un valor de corte, y si quisiéramos redondear datos
podríamos decir que P es menor que 0.17 y expresarlo como P(HVI) < 0.17. Si se sobreentien-
de a qué variable nos estamos refiriendo, se puede ahorrar el paréntesis y escribir P < 0.17.
[ 200 ]
3.3.1. Suma: la probabilidad de A o B
En algunas situaciones, la probabilidad de que ocurra un determinado suceso de entre
un grupo de dos o más posibles, es igual a la suma de las probabilidades para cada suceso
considerado aisladamente. Por ejemplo, obtener con un dado un as o un cuatro en una sola ti-
rada (cualquiera de ambos) es igual a la probabilidad de obtener un as (1/6) más la de obtener
un cuatro (también 1/6) esto es, 1/6+1/6 = 2/6 = 1/3 o 0.33. Con esta probabilidad, se puede
esperar que en una de cada tres tiradas el dado presente un as o un cuatro. Esta sencilla regla
funciona solamente si los sucesos no pueden ocurrir a la vez (no es posible obtener un as y
un cuatro con un solo dado en una sola tirada).
Considérese en cambio una población en la cual la probabilidad de sufrir sobrepeso u
obesidad sea del 64% y la de sufrir algún tipo de dislipemia, del 40%. Si ahora nos pregunta-
mos cuál es la probabilidad de que uno cualquiera de los individuos que la integran presente
sobrepeso o dislipemia, la respuesta ya no puede obtenerse sumando las probabilidades indi-
viduales del sobrepeso y la dislipemia, y esto es así porque algunos individuos pueden presen-
tar las dos condiciones a la vez. Si esto no se toma en cuenta y se suman directamente la pro-
babilidad de sobrepeso y la de dislipemia, se obtiene 0.64 + 0.40 = 1.04, un valor mayor que 1
y que por lo tanto no puede corresponder a una probabilidad. Esta cifra imposible se origina
en el hecho de que algunos individuos presentan sobrepeso y dislipemia al mismo tiempo, y
para ellos, sus probabilidades de pertenecer al conjunto suma han sido tomadas dos veces,
una como portadores de sobrepeso u obesidad y la otra como dislipémicos. En este caso, la
probabilidad correcta está dada por la suma de la probabilidad de tener sobrepeso más la de
ser dislipémico, menos la probabilidad de presentar ambas condiciones a la vez (sobrepeso y
dislipemia). Esta es la regla para la suma de probabilidades y se puede escribir:
En forma general:
Por lo tanto, para resolver la suma planteada en el ejemplo, falta conocer la probabili-
dad que tiene un individuo de presentar sobrepeso y dislipemia a la vez. Si suponemos como
ejercicio, que un 32% o 0.32 del total de la población presentará conjuntamente sobrepeso y
dislipemia, la probabilidad buscada quedaría estimada según la ecuación anterior, en 0.64 +
0.40 − 0.32 = 0.72 o 72%, que es un valor plausible para una probabilidad y es una estima-
ción de la probabilidad de elegir un individuo al azar y encontrar que presenta sobrepeso, o
dislipemia, o ambas condiciones a la vez.
[ 201 ]
La regla para la suma de probabilidades se comprende mejor formalizando el tema y
mediante el uso de diagramas para representarlas. El conjunto de todos los sucesos posibles
en una situación o experimento se llama espacio muestral del experimento. Por ejemplo, en
la tirada de un dado el espacio muestral es el conjunto [ 1, 2, 3, 4, 5, 6 ], y en la población
considerada en el ejemplo anterior, cada uno de los individuos que la integran. Estos podrán
exhibir sobrepeso aislado, dislipemia aislada, sobrepeso y dislipemia, o bien no presentar
ninguna de las dos patologías, y cada individuo se considera un punto del espacio muestral.
También se acepta que cada individuo o punto tiene las mismas probabilidades que los demás
de ser elegido u “ocurrir”, pasando a ser un suceso. Los espacios muestrales se pueden repre-
sentar por áreas dentro de una línea cerrada que las delimita. Dichas figuras son conocidas
como diagramas de Venn y como se verá, son muy útiles para visualizar las relaciones lógicas
entre conjuntos en general y entre probabilidades en particular. Estas áreas o figuras se utili-
zan para representar conjuntos de puntos muestrales de un experimento es decir, resultados
posibles del mismo. Los conjuntos de puntos de los espacios muestrales pueden contener sub-
conjuntos formados por algunos de ellos, que a su vez pueden graficarse como otros tantos
diagramas de Venn contenidos en el conjunto principal. Así, como se puede ver en la Figura
3.1, el conjunto de la población a la que se refieren los datos del ejemplo, es el espacio mues-
tral, y está representado por el rectángulo exterior, que a su vez contiene el subconjunto de
los individuos que presentan sobrepeso u obesidad ( S ) y el de los que son dislipémicos ( D ).
Algunos individuos presentan a la vez sobrepeso y dislipemia y forman el conjunto intersec-
ción, que se simboliza (S ∩ D). Por último, el conjunto de todos los individuos con sobrepeso,
o dislipemia, o sobrepeso y dislipemia, se denomina conjunto unión de S y D, y se simboliza
(S U D) (Fig. 3.1). Los puntos que quedan fuera del conjunto unión, son los que completan
el espacio muestral y como se deducirá, está integrado por los individuos que no presentan
sobrepeso ni dislipemia. Debe entenderse que estos conjuntos representan a la vez las clases
de individuos, y sus respectivas probabilidades.
La suma de probabilidades, que se expresa como “S, o bien D, o bien ambos” calcula
las probabilidades del conjunto unión (S U D). De la inspección de la Fig. 3.1 surge que para
hallar la probabilidad de un suceso de ese conjunto, se deberán sumar las probabilidades de S
y las de D, pero al hacer esto se tomarán dos veces las probabilidades del suceso intersección
(S ∩ D) que resulta de la superposición de S y D (grisado oscuro en la Figura). Por lo tanto hay
que proceder a restarlas de la suma S + D, lo que da lugar directamente a la fórmula 3.1.
[ 202 ]
Figura 3.1. El rectángulo claro exterior representa el espacio muestral formado por los in-
dividuos de la población general. Los conjuntos D (dislipemia) y S (sobrepeso) presentan un
área común (más oscura) de intersección (S ∩ D). En tanto, el conjunto unión (S U D, sigla no
incluida en la figura) corresponde a toda el área grisada, y expresa “solamente S + solamente
D + (S y D a la vez)”, lo que es igual a P(S) + P(D) − P(S ∩ D).
y en forma general:
P (A y B) = P (A) × (B | A) (3.3)
[ 203 ]
Volviendo al ejemplo anterior, para conocer la probabilidad de la presencia simultánea de
sobrepeso y dislipemia en cualquier individuo de la población, deberá conocerse la probabili-
dad condicional de una de esas patologías con respecto a la otra, por ejemplo, la probabilidad
condicional de dislipemia en un individuo que presenta sobrepeso (“dislipemia, dado sobre-
peso”). Si aceptamos para proseguir el ejemplo, que esta probabilidad condicional sea igual al
50% o 0.50, se tendrá, reemplazando P(A) por P(sobrepeso) = 0.64 y P(B | A) por P(dislipemia
| sobrepeso) = 0.50, que la probabilidad de elegir un individuo al azar en la población general y
que éste padezca simultáneamente sobrepeso y dislipemia, resulta igual a 0.64 × 0.50 = 0.32 o
32%. Alrededor de un tercio de los individuos presentará las dos condiciones a la vez.
Cabe agregar que el mismo resultado debería esperarse si se empleara la probabilidad
de ser dislipémico y se multiplicara por la probabilidad condicional de presentar sobrepeso
siendo dislipémico, P(sobrepeso | dislipemia).
Debe notarse que en el ejemplo que se viene considerando, la probabilidad de dislipemia
en un sujeto con sobrepeso, P(dislipemia | sobrepeso), no es la misma que para un individuo
de la población general en el que no se exija la condición de sobrepeso. En cambio, en el caso
hipotético en que la probabilidad condicional P(dislipemia | sobrepeso) fuera la misma que
la probabilidad de dislipemia para la población general, habría que aceptar que la presencia
de sobrepeso no afecta la probabilidad de dislipemia en la población y podría escribirse
P(dislipemia / sobrepeso) = P(dislipemia). En general, cuando la presencia de una variable A
no afecta las probabilidades de otra variable B, puede escribirse
P (B | A) = P (B) (3.4)
Las tiradas de monedas son ejemplos típicos en que los resultados en distintas tiradas
o con distintas monedas tienen probabilidades independientes, ya que no dependen de los
resultados obtenidos en tiradas anteriores o con las demás monedas. Así, la probabilidad de
obtener dos caras con dos monedas a y b, es igual al producto de la probabilidad de obtener
cara con cada moneda, ya que el resultado con la moneda b no dependerá de lo ocurrido con
la moneda a, y se podrá escribir P(cara con moneda b) = P(cara con moneda b | cara con
moneda a). Como la probabilidad de cara es igual a ½ con cada moneda, la probabilidad de
dos caras será igual a ¼.
Como se ha visto, la multiplicación de probabilidades calcula la probabilidad de la apa-
rición conjunta de dos sucesos A y B, que es la probabilidad del suceso intersección A ∩ B,
respecto de todos los resultados posibles o sea, respecto del espacio muestral completo. Muchas
veces se tienen datos acerca de dos sucesos A y B sin conocerse la probabilidad de su aparición
conjunta, y es posible conocer la probabilidad condicional del suceso A una vez que se ha pro-
[ 204 ]
ducido B, así como la probabilidad de B en un espacio muestral más amplio. En tal caso, la
probabilidad de la ocurrencia simultánea de A y B en el espacio muestral de referencia, puede
calcularse según (3.3). En el ejemplo de la dislipemia y el sobrepeso, para conocer la proba-
bilidad de su ocurrencia conjunta en la población general (espacio muestral) se multiplicó la
probabilidad de dislipemia condicional a la presencia de sobrepeso, por la probabilidad de
sobrepeso en la población general.
A partir de las proposiciones básicas tratadas hasta aquí, el cálculo de probabilidades
admite desarrollos más extensos de acuerdo a la complejidad de las situaciones experimen-
tales, y su análisis no se abordará aquí, pudiendo consultarse Turner, 1974. Sin embargo se
harán dos menciones, una de orden teórico y otra de orden práctico. La primera se refiere a la
necesidad, cuando se calculan probabilidades, de verificar que todos los puntos muestrales o
posibles sucesos hayan sido tomados en cuenta. Por ejemplo, la probabilidad de obtener dos
caras con dos monedas no es la misma que la de obtener una cara y una cruz. En efecto, las
probabilidades para cada posible resultado de las tiradas son:
Moneda A Moneda B P (A ∩ B)
Tirada 1 cara cara 0.5 × 0.5 = 0.25
Tirada 2 cara cruz 0.5 × 0.5 = 0.25
Tirada 3 cruz cara 0.5 × 0.5 = 0.25
Tirada 4 cruz cruz 0.5 × 0.5 = 0.25
Las tiradas 2 y 3 proporcionan una cara y una cruz, aunque con las monedas invertidas.
De modo que la probabilidad de una cara y una cruz (no importando cuál de las monedas sea
cara y cuál cruz) es igual a la suma de las probabilidades de las tiradas 2 y 3, igual a 0.25 +
0.25 = 0.50. Una cara y una cruz ocurrirán en la mitad de las tiradas y hubiera sido un error
calcular la probabilidad como P(cara) × P (cruz) = 0.5 × 0.5 = 0.25 porque tal estimación co-
rresponde a la tirada 2 y omite la tirada 3 es decir, no considera el espacio muestral completo.
Sin embargo, 0.25 es la probabilidad de dos caras, o de dos cruces, que no tienen más que un
modo de ocurrir.
La segunda mención se refiere a la dificultad general para asignar las probabilidades co-
rrectas a los distintos sucesos reales dada la variabilidad de las muestras y las poblaciones, de
los procedimientos de medición y de las condiciones experimentales. Una vez que pequeños
errores se hayan introducido en las estimaciones, las diversas operaciones realizadas sobre
las mismas tenderán a aumentarlos y por eso, aferrarse al significado numérico exacto de
los cálculos con probabilidades puede llevar a conclusiones poco consistentes que deben ser
consideradas en forma crítica.
[ 205 ]
la enfermedad presente, y es lenguaje familiar en el campo de las apuestas. La denominación
corrientemente utilizada para esta razón de probabilidades es el término odds, cuya traducción
se aproxima al significado de la palabra “chance” en el sentido de probabilidad o tendencia a
ocurrir. Resumiendo, para un suceso con probabilidad P, sus odds están dados por
odds = P / ( 1 − P) (3.6)
Los odds pueden variar entre 0 (probabilidad de ocurrencia igual cero) hasta valores
ilimitadamente grandes cuando la probabilidad del suceso aumenta. Así, un suceso con una
probabilidad de 0.95 tiene odds iguales a 0.95/0.05 = 19 y como se ve, no hay límite superior
para el valor posible de los odds, cuyo rango posible se extiende entre cero e infinito. En cam-
bio, no existen odds negativos.
Como se ve, el lenguaje de los odds es mucho menos intuitivo que el de las probabilida-
des y se aleja bastante de la experiencia diaria. Una probabilidad de enfermedad del 95%
es claramente imaginable mientras que no lo es tanto su expresión en odds, igual a 19 (que
debería entenderse como “chances de 19 a 1”). Porqué entonces su importancia en estadísti-
ca? Porque además de expresar la probabilidad de un suceso en relación a su complemento
(1 − P), aparecen en el desarrollo teórico de varios procedimientos y técnicas, típicamente en
la regresión logística y en las estimaciones del riesgo relativo en los modelos epidemiológicos
de tipo caso-control, métodos que se hallan relacionados entre sí y tienen extensos campos
de aplicaciones en medicina (ver Secciones 12 y 16).
[ 206 ]
4. Distribuciones de probabilidades
[ 207 ]
Figura 4.1. Probabilidad de obtener cero, una o dos caras tirando dos monedas.
En general, las variables aleatorias pueden ser discretas o continuas. En el caso de una
variable discreta, cada valor de la misma se corresponde con una probabilidad finita. El his-
tograma de la figura 4.1 muestra la distribución de probabilidades examinada en §3.3.2. Las
probabilidades de obtener cero, una o dos caras tirando dos monedas a la vez, son 0.25, 0.50
y 0.25 respectivamente. Su suma es igual a 1, lo que implica que no quedan otros resultados
posibles.
Nótese que las distribuciones de frecuencias descriptas en §2.3, resumen las frecuencias
con las que se han presentado los distintos valores de una variable medida durante un expe-
rimento, esto es, de una variable muestral. Si bien las frecuencias se relacionan con probabili-
dades y pueden servir para estimarlas, las distribuciones de frecuencia son objetos empíricos
resultado de la recolección de datos. En tanto, las distribuciones de probabilidades resultan de
funciones matemáticas que asignan probabilidades a los distintos valores que puede adoptar
una variable independiente, sin que sea un requisito la observación de los datos. Así, no ha sido
necesario efectuar tiradas de monedas para calcular la distribución de probabilidades de la
Figura 4.1, que se obtuvo a partir de una función de probabilidad.
Las funciones probabilísticas o funciones de probabilidad asignan probabilidades a
cada valor x que pueda adoptar una variable aleatoria X, de modo que las probabilidades
resultan una función de los valores de la variable aleatoria y se expresan P(X = x) o más
sencillamente, p(x). En el ejemplo de la tirada de dos monedas analizado en §3.3.2 e ilustrado
en la Figura 4.1, las probabilidades de obtener 0, 1 o 2 caras son función de estos valores y
se expresan como P(X = 0 caras) = 0.25, P(X = 1 cara) = 0.50 y P(X = 2 caras) = 0.25. Las
probabilidades son función de cada posible valor de la prueba, 0, 1 y 2 caras, y en este caso
se obtienen de la llamada función binomial, que se examinará en §4.4. En relación con esto,
obsérvese que las probabilidades de tirar cero, una o dos caras, se han determinado en forma
analítica en función de los valores que puede adoptar la variable (número de caras), y no ha
sido necesario realizar experimentos de muestreo para conocerlas.
[ 208 ]
Análogamente a lo que ocurre con las distribuciones de frecuencias (§2.3), las fun-
ciones de probabilidad deben cumplir con el requisito de que la suma de todas las proba-
bilidades sea igual a la probabilidad total, o sea 1. Esto tiene que cumplirse de un punto
de vista matemático para que la función represente correctamente las probabilidades de
una variable aleatoria. En el histograma de la figura 4.1 se observa que las probabilida-
des para cero, una y dos caras son 0.25, 0.50 y 0.25 respectivamente, con lo que la suma
es igual a 1 (que es además el área del histograma, integrada por rectángulos con base
igual a 1 y altura igual a la respectiva probabilidad). En las representaciones gráficas, las
funciones de probabilidad pueden corresponder a histogramas (funciones discretas con
un número finito de valores posibles para la variable aleatoria) o a áreas delimitadas por
líneas curvas que expresan un cambio gradual y continuo de las probabilidades a medida
que la variable aleatoria toma sus infinitos valores posibles (funciones continuas, ver más
adelante). En la Figura 4.2 se observa el histograma de una variable discreta y la curva
que resultaría de proseguir indefinidamente la subdivisión de la variable independiente
(ver §4.6). En cualquier caso, el área de estos histogramas o curvas de probabilidades
debe valer siempre 1, que es el valor de la probabilidad para todos los valores posibles de
la variable aleatoria.
La probabilidad de una variable aleatoria de tomar valores comprendidos entre el ex-
tremo izquierdo de la curva de probabilidades y un valor xi arbitrario, es cada vez mayor a
medida que xi se corre hacia la derecha de la distribución. Esta acumulación de probabili-
dades puede representarse como una nueva función de x llamada función de distribución
acumulativa o simplemente función de distribución (ver §4.6.1).
Las distribuciones probabilísticas tienen importancia por su capacidad para describir
ajustadamente el comportamiento de distintos tipos de variables obtenidas de mediciones
[ 209 ]
en muestras de poblaciones. La información que se obtiene del estudio de las funciones de
probabilidad está contenida en su estructura matemática y, en gran parte, se encuentra resu-
mida o condensada en un pequeño grupo de expresiones que las caracterizan, de las cuales
las fundamentales son la media, la varianza y el desvío estándar.
E ( X ) = ∑ x i P i (4.1)
donde ∑ expresa el proceso de sumar los productos de las i observaciones de x por sus res-
pectivas probabilidades. Se ha mencionado antes que la probabilidad P dependerá del valor
que tome x, esto es, P es una función de x y puede escribirse P = f( x ), con lo cual (4.1) toma
la forma:
E ( X ) = ∑ xi × f(xi) (4.2)
[ 210 ]
E(número de caras) = (0 caras) × P( 0 caras) + (1 cara) × P(1 cara) + (2 caras) × P(2 caras)
= 0 × 0.25 + 1 × 0.50 + 2 × 0.25 = 1
Nótese que para cada posible resultado, su probabilidad depende o es función del núme-
ro de caras de que se trate, y en este caso está determinada por la llamada función binomial,
que se examinará con algún detalle más adelante. Así, la probabilidad de 2 caras o cero caras
es la misma e igual a 0.25, mientras que la probabilidad de 1 cara corresponde a la suma de
la probabilidad de cara en la moneda A más la probabilidad de cara en la moneda B, igual a
0.25 + 0.25 con lo que P(1 cara, cualquier moneda) es igual a 0.50. Nótese también que las
probabilidades, que se determinan en función de los valores que puede adoptar la variable
aleatoria, se originan en funciones de probabilidad teóricas y no requieren estar avaladas por
experimentos. Puede observarse asimismo la correspondencia de la esperanza matemática
con la media de un experimento ideal donde, en cuatro tiradas de dos monedas cada una, se
dieran las cuatro posibles combinaciones expuestas en §3.3.2: la suma del número de caras
en cada tirada sería igual a 2 + 1+ 1+ 0 = 4, lo que dividido por 4 tiradas es igual a 1, resul-
tado idéntico al de la esperanza matemática. La diferencia entre la esperanza matemática
y la media muestral reside en que ésta tiene carácter experimental y oscila alrededor de un
valor central, siendo muy difícil que aún con un número grande de experiencias (tiradas de
monedas) la media muestral tenga exactamente el valor de la media teórica de la población,
mientras que la esperanza matemática de la variable aleatoria X es por definición la media de
dicha variable, dada por la función de probabilidades correspondiente.
La varianza de una variable aleatoria X se define como la esperanza matemática de la
diferencia entre las x y μ, elevada al cuadrado: E(x − μ)², y tiene un significado análogo al de
la varianza de una muestra, vista en §2.5. Para obtenerla, cada valor del término (xi − μ)² se
multiplica por su probabilidad Pi en forma análoga a lo visto para la esperanza de la X. La
varianza se simboliza con la letra griega σ elevada al cuadrado ( σ² ) y su expresión es:
σ² = E (x − μ) ² = ∑ (xi − μ) ² Pi (4.4)
σ = √ σ² (4.5)
[ 211 ]
tos empíricos que están bien descriptos por los estadísticos muestrales ya mencionados. El
motivo es que las llamadas funciones probabilísticas demuestran ajustarse notablemente bien
al comportamiento de los datos muestrales y por otra parte, a partir de sus propiedades,
posibilitan la elaboración teórica de predicciones e inferencias que no podrían obtenerse
sin ellas. Por ejemplo, se verá más adelante que en una distribución normal o gaussiana, las
observaciones que se hallan comprendidas entre la media y dos desvíos estándar a cada lado
de la misma, constituyen casi exactamente el 95% de los casos. Por ende, la probabilidad de
encontrar observaciones o casos por fuera de la media ± 2 desvíos estándar, es de sólo el 5%.
Estas propiedades son características de la función normal y no se podrían deducir sencilla-
mente del examen directo de las muestras.
Conviene por lo demás tener en cuenta que para que las funciones de probabilidad re-
sulten útiles en el estudio de poblaciones, el comportamiento de las muestras debe estar ade-
cuadamente descrito por aquéllas funciones teóricas. En otras palabras, deben emplearse las
funciones de probabilidad que mejor se ajusten a la distribución de los elementos muestrales
en cuestión. Cuál de las distintas posibles funciones probabilísticas es la adecuada para cada
clase de muestra depende en gran parte del tipo de datos y de sus fuentes de origen: puede
tratarse de variables discretas o continuas, muestras grandes o pequeñas, sucesos con alta
o baja probabilidad de aparición, etc. La experiencia puede ayudar a determinar cuál es el
tipo de distribución más adecuado, y a veces, podrá ser necesario realizar distintas pruebas
exploratorias como evaluar la normalidad de los datos y eventualmente ensayar su transfor-
mación para aproximarlos a la normalidad si este no fuera el caso y el tratamiento estadístico
lo hiciera necesario. Algunos de estos aspectos se irán mencionando a lo largo del texto (ver
§4.8). En lo que sigue, se examinarán brevemente las principales distribuciones teóricas de
probabilidad.
[ 212 ]
llama distribución binomial. La variable aleatoria de la distribución es r, que como se ha
mencionado, pude tomar valores entre 0 y n.
Conviene recordar que la probabilidad de suceso en una variable binaria no es necesaria-
mente igual a 0.5. En realidad, muchos acontecimientos cuya probabilidad podemos estimar
de alguna manera, pueden considerarse variables binarias adjudicando dicha probabilidad
p a su aparición, y la probabilidad complementaria 1 − p = q, a su falta de aparición. Por
ejemplo, si se acepta que la probabilidad de enfermedad coronaria en la población general
es del 7%, entonces P(coronariopatía) = 0.07 y P(no coronariopatía) = 1 − 0.07 = 0.93. Así
considerada, la presencia de coronariopatía puede ser tratada como una variable binaria y
estudiarse mediante la función binomial.
En un conjunto de n ensayos o experimentos realizados con una variable binaria cuya
probabilidad se puede simbolizar como π, la probabilidad de obtener un número r de sucesos
se puede calcular en dos etapas:
π × π × …. × π × (1 − π) × (1 − π) × … × (1 − π)
r veces (n − r) veces
o sea al producto de π por los r sucesos y ( 1 − π ) por los (n − r) “no sucesos”, lo que se expresa
en forma abreviada:
π r × (1 − π) n − r (4.6)
[ 213 ]
Como se ve, para determinar la probabilidad de r sucesos en n pruebas, se necesitará
siempre el número de posibles formas de alternarse sucesos y “no sucesos,” y el número de
estas disposiciones de r sucesos entre n experiencias puede determinarse como se acaba de
hacer, haciendo explícita cada una de las posibles disposiciones de los resultados y contán-
dolas. Sin embargo, su obtención es mucho más sencilla utilizando los llamados coeficientes
binomiales, que proporcionan algoritmos de cálculo sobre los cuales no nos extenderemos
y que, por otra parte, pueden hallarse tabulados para valores de n tan altos como 100 (ver
Documenta Geigy, Tablas Científicas). Estos coeficientes se simbolizan de varias formas,
siendo una de ellas nCr, que aplicada a los datos del párrafo anterior se escribe 4C 2 = 6 y se lee
“disposiciones de 4 elementos tomados de a 2, igual a 6.”
Resumiendo lo ya visto, puede decirse que, la probabilidad de obtener r sucesos en n
experiencias, se obtiene multiplicando la probabilidad dada por (4.6), por el correspondiente
coeficiente binomial, que da el número posible de distintas presentaciones con la misma n
y la misma r. La expresión de la función de probabilidad binomial en función de r queda
entonces expresada como:
P ( r ) = nCr × π r × ( 1 − π ) n − r (4.7)
Como ejemplo práctico para afirmar los conceptos anteriores considérese el caso senci-
llo de calcular la probabilidad de obtener 2 caras (no menos ni más) tirando una moneda 4
veces: hemos visto que 2 caras en cuatro tiradas pueden disponerse de 6 formas diferentes,
dadas por 4C 2 = 6, y que la probabilidad de cualquiera de estas seis disposiciones está dada
(suponiendo la probabilidad de cara = π = 0.50), por:
π r × ( 1 − π ) n − r = 0.50 ² × ( 1 − 0.50 ) 4 − 2
= 0.25 × 0.25 = 0.0625
[ 214 ]
Figura 4.3. Distribución de la probabilidad de obtener r caras tirando n = 4 monedas. Se ha
superpuesto la curva de distribución normal.
p = r / n (4.8)
donde p denota la proporción de sucesos en n ensayos. Este cociente estima la proporción de su-
cesos en el universo, que se suele representar con la letra π y es la esperanza matemática de p:
E ( p ) = π (4.9)
y también puede interpretarse como la probabilidad del suceso A. Se demuestra que la va-
rianza de p es
Var ( p ) = π (1 − π) / n (4.10)
[ 215 ]
4.3, donde se ha trazado la curva normal sobre el histograma que representa la distribución
binomial para n = 4 y π = 0.5. Con π = 0.5 la distribución es simétrica, y a pesar del exiguo
número de ensayos, la correspondencia entre ambas gráficas es ya muy clara. Con algunas
decenas de ensayos ya suele ser suficientemente buena como para poder emplearse las propie-
dades de la función normal en aplicaciones de inferencia estadística. La binomial es simétrica
cuando π es igual a 0.5, y se torna asimétrica a medida que π se aproxima a los extremos, 0 o
1. La simetría con π cercano a 0.5 contribuye a que la función se aproxime más rápidamente
a la normal al crecer n.
[ 216 ]
se han transformado en infinitas líneas verticales adyacentes, sin un área individual medi-
ble, ya que tienen base cero. Entonces, la probabilidad de un determinado valor “puntual”
resulta igual a cero, lo que contradice la intuición, que espera una probabilidad para cada
posible resultado. Sin embargo, el equivalente de la suma aritmética de infinitos valores de
probabilidad cada uno tendiendo a cero, se logra en forma analítica mediante la integración
de la función de probabilidad f( x ) sobre el rango de las x. En esta integración, el área total
de la función de probabilidad, también conocida como función de densidad de probabilidad
y representada por una línea curva, debe hacerse corresponder a 1, que se vio que es un re-
quisito para este tipo de funciones, sean continuas o discretas. De esta forma, la integral de
f( x ) corresponde a la sumatoria de las probabilidades puntuales de la variable aleatoria X
y también, al área bajo la curva de la función de probabilidad. El área bajo esta curva puede
ser entonces dividida por líneas verticales (ordenadas) correspondientes a diversos valores
de la variable X con un resultado importante: el área entre dos ordenadas representa la
probabilidad de que la variable tome valores comprendidos entre ellas (Fig. 4.4). En otras
palabras, aunque la probabilidad en un punto dado de una distribución continua no es calcu-
lable, la probabilidad de x puede determinarse para cualquier intervalo entre dos valores de
la variable, estén próximos o separados, y está dada por la fracción del área bajo la curva de
la función de probabilidad, comprendida entre ambos valores. Así, en la Figura 4.4, el área
grisada correspondiente a los valores 1 y 2 de la variable aleatoria es igual al 14% del área
bajo la curva, lo que expresa que la probabilidad de que la variable aleatoria X adopte valores
comprendidos entre 1 y 2, es igual a 0.14. Esto puede expresarse como P(1 < x < 2 ) = 0.14.
Figura 4.4. Distribución normal. En el eje x los desvíos estándar alrededor de la media. La
probabilidad de que la variable x tome valores comprendidos entre dos ordenadas cualesquie-
ra puede determinarse con exactitud mediante el cálculo. Así, para el área grisada, entre x =
1 y x = 2 desvíos estándar, P = 0.14.
[ 217 ]
4.6.1. Funciones de densidad y funciones de distribución
Debido a consideraciones teóricas, las funciones de probabilidades, en especial las conti-
nuas, se denominan funciones de densidad de probabilidad y las curvas que las representan,
curvas de densidad de probabilidad. Como se ha mencionado, las curvas de densidad de
probabilidad correspondientes a funciones continuas f( x ) tienen un área, dada por la inte-
gral definida entre los extremos de la variable aleatoria X, cuyo valor es igual a 1. La integral
de f( x ) se representa como F( x ) y sus valores en cualquier punto xi corresponden al área de
la curva de densidad f( x ) entre su cola izquierda y xi. La función F( x ) se denomina función
de distribución de probabilidades de x y es siempre creciente de izquierda a derecha (Fig.
4.5). De acuerdo a lo expresado, el valor de F(x) en xi representa la probabilidad de obtener
x menor o igual que xi o sea, F( xi) = P( x ≤ xi ). De la misma manera, la probabilidad de que
la variable aleatoria presente valores comprendidos en un intervalo xi – xj está dada por la
variación de la integral F( x ) entre xi y xj, que corresponde al área de la función de densidad
f( x ) entre los mismos valores (Fig. 4.5).
Así, dada una función continua de densidad de probabilidades, existe en general la posi-
bilidad de calcular las probabilidades para cualquier intervalo de la variable, lo que se lleva
a cabo mediante procedimientos de integración que permiten obtener la correspondiente
función de distribución F(x). La estructura de la función de densidad define la forma y otras
características de la distribución. La teoría y práctica de esos procedimientos exceden los ob-
jetivos del texto y no se tratarán aquí (véase Wackerly DD et. al, 2002). La distribución más
importante de la estadística es una distribución continua llamada normal o de Gauss, cuyas
propiedades fundamentales se examinarán a continuación.
[ 218 ]
4.7. La distribución normal o de Gauss
La función de distribución de probabilidades normal o de Gauss, muchas de cuyas ca-
racterísticas han sido mencionadas en el párrafo anterior, ocupa un lugar central en la teoría
estadística y tiene la propiedad de describir adecuadamente el comportamiento de una gran
cantidad de variables del mundo físico como las que manejan las ciencias biológicas.
La forma de la distribución señala la mayor probabilidad de los valores próximos a la media
y su disminución a medida que se alejan del centro de la misma (Fig. 4.4). El término normal
no debe entenderse como sano o libre de anomalías, sino simplemente como un nombre. Por
lo tanto, la referencia a datos normalmente distribuidos alude a que sus probabilidades se
distribuyen siguiendo la función normal o de Gauss. Por cierto, esta distribución de probabi-
lidades es notablemente común en la naturaleza, pero el hecho de que una variable se ajuste
a dicha distribución no es de por sí un criterio de normalidad en sentido biológico o médico.
Por otra parte, gran parte de los métodos estadísticos se basan o están relacionados con
la función normal o de Gauss y sólo funcionan correctamente si los datos a evaluar se distri-
buyen de acuerdo a dicha función. Otros métodos, si bien requieren la distribución normal
de los datos, toleran cierta desviación de la normalidad sin alterar demasiado los resultados
y por ello suelen ser denominados robustos. En algunas oportunidades en que los datos se
apartan de la distribución normal, puede recurrirse a distintas operaciones matemáticas so-
bre los mismos a fin de hacer que su distribución de probabilidades se aproxime a la normal
(ver §4.8).
La función de densidad normal o de Gauss es la siguiente:
f ( x ) = (1 / σ √ 2 π) exp [ − ( x – μ)² / 2σ ² ]
donde exp [ z ] indica la base e de los logaritmos naturales elevada a la potencia z, esto es ez,
siendo z = [ − ( x – μ)² / 2σ ² ], σ = desvío estándar y π = 3.14159… Los valores de f( x ) para
las distintas x, así como los de su integral F( x ) o función de distribución, se hallan tabulados
extensamente, incluso en los paquetes de cálculo estadístico.
Como para otras funciones de probabilidad continuas, la integral de f( x ) entre dos va-
lores de x1 y x2 , corresponde a la probabilidad de la variable aleatoria de adoptar cualquier
valor dentro del intervalo, y corresponde geométricamente al área de la curva normal entre
las ordenadas que pasan por x1 y x2 (Fig. 4.4).
La media (simbolizada μ) corresponde al centro de la distribución y cuando la función
normal se utiliza para representar universos, μ representa la media de los mismos. El desvío
estándar (representado por σ) se utiliza para medir la dispersión de la variable aleatoria al-
rededor de la media y, como se verá enseguida, para asignar las probabilidades de que una
variable tome valores comprendidos entre determinados límites. Para simplificar estas tareas
se suele estandarizar la desviación de las variables experimentales o muestrales con respecto
a su media. Dado que los universos no suelen ser conocidos en forma completa, sus medias y
desvíos estándar son estimados a través de la media y el desvío estándar muestrales, tal como
se ha expuesto en §2.5.
[ 219 ]
4.7.1. Desvío estandarizado
Como se comprende, la media y el desvío estándar de una distribución normal tendrán
magnitudes de acuerdo con las de la variable de que se trate. Esto hace incómodo comparar
las características de variables de diferente magnitud o medidas en diferentes unidades. Así,
para una variable X distribuida con media 100 y desvío estándar 20, un valor x = 130 puede
resultar poco informativo, y difícil de comparar con el valor y = 130 para una variable Y con
media igual a 106 y desvío estándar 15. Un método útil resulta medir la distancia de la varia-
ble a la media, y dividirla por el correspondiente desvío estándar. En el primer caso se tendrá
(130 − 100) / 20 = 1,5 y en el segundo, (130 − 106) / 15 = 1.6, números que dan la distancia de
x e y a sus respectivas medias, expresadas en unidades de desvío estándar. Las distancias han
sido de esta forma estandarizadas, y se ve en forma inmediata que en términos de su desvío
estándar, la observación y se halla ligeramente más alejada de su media que la observación x.
La expresión general de una variable normal estandarizada tiene la forma:
z = ( x − μ ) / σ (4.12)
[ 220 ]
colas de la distribución, por lo cual la probabilidad de la x de ser mayor que el valor de la media
más 2 desvíos estándar será aproximadamente del 2.5%, y la probabilidad de ser menor que
la media menos 2 desvíos estándar, el 2.5% restante (véase Fig. 6.2). Estos valores son muy
aproximados, siendo el valor de z por fuera del cual queda exactamente el 5% de los casos,
igual a 1.96. Este número aparece frecuentemente en el desarrollo de pruebas de significación
estadística, aunque para el cálculo aproximado y rápido puede usarse z = 2.
En las Figuras 4.4 y 4.5 se ha visto que el área comprendida entre 1 y 2 desvíos estándar
a partir de la media es igual al 14% del área total de la curva, y por lo tanto tiene asociada
una probabilidad P = 0.14. Existen muchas formas de obtener este resultado a partir de las
distintas tablas de la distribución normal. Por ejemplo, se puede consultar el valor de la
probabilidad entre la media y 2 desvíos estándar y restarle la probabilidad entre la media
y 1 desvío estándar. También se puede buscar la probabilidad de la variable x para valores
comprendidos entre dos desvíos estándar alrededor de la media, y restarle la probabilidad
para valores comprendidos entre 1 desvío estándar. Estas son 0.95 y 0.68, y su diferencia,
igual a 0.27, da la probabilidad de x entre −2 y −1 desvíos estándar y entre +1 y +2 desvíos
estándar. Por lo tanto, la probabilidad de x comprendida entre +1 y +2 desvíos estándar será
igual a la mitad, o sea 0.135 o 0.14, con diferencias debidas al redondeo. En la práctica esto
significa que en una muestra normal, el 14% de las observaciones se hallarán a una distancia
de la media comprendida entre 1 y 2 desvíos estándar (y la misma probabilidad existirá para
la misma desviación a la izquierda de la media, ya que la distribución es simétrica).
4.8. Transformaciones
En lo que sigue se hará una sucinta referencia al tema de las transformaciones en esta-
dística, que básicamente constituye un cambio de la escala en la cual se expresan las varia-
bles. Su inclusión en este punto se debe a que existen numerosas variables muestrales cuyas
distribuciones se alejan de la normal, y que se pueden normalizar mediante algún tipo de
transformación, como por ejemplo, tomando los logaritmos de los valores originales. En esta
eventualidad se hablará de una transformación logarítmica de los datos. Como se ha mencio-
nado, la importancia de obtener distribuciones normales es hacerlas accesibles a los métodos
de análisis que requieren la distribución normal de los datos y pueden originar resultados
distorsionados o erróneos si se aplican a muestras cuyas distribuciones se alejan en mayor o
menor grado de la normalidad.
[ 221 ]
Una modalidad frecuente de alejamiento de la normalidad consiste en la asimetría de la
distribución, lo que ocurre cuando las colas no son similares, esto es, cuando una de ellas
presenta una mayor proporción de observaciones alejadas de la media, con lo cual aparece
más extensa o larga que la otra. Cuando la cola más “alargada” es la izquierda se habla de
asimetría negativa, y cuando lo es la cola derecha, de asimetría positiva. Esta última es con
mucho la más frecuente en las muestras biológicas en general (Figura 4.6, A). La asimetría
derecha suele corregirse mediante la transformación logarítmica de los datos, es decir, to-
mando su logaritmo, habitualmente el logaritmo natural (con base en el número e = 2.7182),
aunque los resultados no se alteran con el cambio de base. Resulta más o menos intuitivo,
que como los logaritmos de los números mayores que 1 crecen con menor rapidez que éstos,
los incrementos derechos más extremos que experimentan los datos en las distribuciones con
asimetría derecha, tenderán a ser contrabalanceados al tomar logaritmos. En la Figura 4.6
se observa la distribución de la masa ventricular izquierda en 205 adultos sanos (datos de
Rodríguez y col, 2004), que exhibe ligera asimetría derecha, y su normalización mediante el
empleo del logaritmo de la misma.
La asimetría derecha también tiende a corregirse tomando la raíz cuadrada de los da-
tos o bien su inversa. La primera de estas transformaciones es algo menos fuerte, y última
es más fuerte, que la transformación logarítmica. Cuál de las tres emplear, es una cuestión
práctica que debe decidirse para cada caso en particular. Si bien es posible calcular el grado
de asimetría a partir de los datos muestrales, un método sencillo y rápido para evaluarla es la
inspección visual de los histogramas de frecuencias tal como se muestran en la Figura 4.6. En
la misma puede verse que la transformación logarítmica tiende a producir un ligero exceso en
la corrección, con una leve asimetría izquierda. Una forma de comprobar que la asimetría ha
sido eliminada es evaluar la normalidad de la distribución resultante, y para hacerlo existen
numerosos métodos, entre ellos los de Kolmogorov-Smirnov y de Shapiro-Wilk, disponibles
en los paquetes estadísticos corrientes y de sencilla implementación en ese entorno. En cuanto
[ 222 ]
al ejemplo de Figura 4.6, la transformación logarítmica produjo una distribución normal de
los datos, pese a la mínima asimetría izquierda resultante. En tanto, la raíz cuadrada de la
masa ventricular, si bien normalizó la distribución, dejó una ligera asimetría derecha residual
que no alcanzó a corregir, y el test de Shapiro-Wilk demostró un ajuste a la normal ligeramen-
te mejor para la transformación logarítmica.
Como se ha dicho, la normalización de las distribuciones es un requisito para la aplicación
de una gran cantidad de técnicas estadísticas, y en estos casos, las transformaciones necesarias
se aplican a los datos antes de ser utilizados en la evaluación de las distintas hipótesis de trabajo.
Las diversas pruebas de hipótesis, como pueden ser las comparaciones entre medias muestrales
(Sección 6 y siguientes), son efectuadas de esta manera con la variable transformada y norma-
lizada. Un problema que surge en estos casos, es el retorno a las unidades originales y así, no es
posible obtener los límites de confianza para una diferencia de medias (ver Sección 6) a partir de
los valores transformados. Por lo demás, si bien no siempre puede obtenerse la normalización
de una distribución dada, la mejoría en el ajuste de los datos a una distribución normal, puede
facilitar y hacer más seguro el análisis de éstos. Las distintas técnicas estadísticas que requieren
distribuciones normales pueden ser más o menos sensibles al alejamiento de la normalidad de
las muestras, y las que lo son en menor grado, es decir las que toleran bien las desviaciones mo-
deradas de la normalidad, son llamadas técnicas robustas.
Aparte de la normalización de ciertas distribuciones muestrales, las transformaciones
presentan otras muchas propiedades importantes entre las que se cuentan hacer uniformes
las varianzas entre diversos grupos, que es requisito de muchos procedimientos estadísticos,
y linearizar algunas relaciones entre distintas variables, necesidad que puede surgir en estu-
dios de regresión lineal y se comenta brevemente en la Sección 9. Acerca de la asimetría de
las distribuciones en biología, y del manejo práctico de las transformaciones más utilizadas,
consultar Bland, 2006.
[ 223 ]
5. Muestreo. El desvío estándar
de la media o error estándar
[ 224 ]
respectivamente), y esto se conoce como error de muestreo. El error de muestreo no se puede
evitar pero sí acotar, esto es, establecer con un nivel de confianza razonable, entre qué límites
puede variar. En los párrafos siguientes se verán algunas cuestiones importantes relativas al
error de muestreo.
* Este no es el caso de la varianza y el desvío estándar de la variable x estimados a partir de los datos muestrales,
cuyos valores oscilan alrededor de los respectivos parámetros de población σ² y σ, sin estar afectados por el tamaño
de la muestra.
[ 225 ]
en los párrafos siguientes. De modo que, si en las secciones precedentes se ha hecho referencia
a la varianza y el desvío estándar de los individuos en las muestras, en lo que sigue se incor-
pora el concepto de variabilidad de las medias.
El término error estándar tiene la ventaja de evitar confusiones con el desvío estándar
de la variable x, y es el desvío estándar de la media de las x o x–. Por ser en esencia un desvío
estándar, el error estándar describe la dispersión de las medias muestrales alrededor del centro
de la distribución representado por la media universal μ. Resulta evidente que el incremento del
número de casos de una muestra, al reducir la varianza de la media muestral x–, reduce también
la magnitud del error estándar, de modo que ambos estimadores de la dispersión de x– pueden
[ 226 ]
hacerse más pequeños con sólo aumentar el número de casos de la muestra. En las próximas
secciones se verá que estos hechos son fundamentales en inferencia estadística, para la detec-
ción de diferencias significativas en situaciones donde hay involucradas medias muestrales.
Figura 5.1. Dispersión de los individuos y de las medias de muestras de 9 individuos, alrede-
dor de la media de población μ. La campana amplia representa la distribución de los indivi-
duos y la campana angosta la distribución de las medias.
[ 227 ]
nes de la función normal, ampliamente estudiadas y conocidas, a los resultados obtenidos de
muestras que se sabe que difieren, a veces considerablemente, de la normalidad. Esto significa
que no es imprescindible evaluar exhaustivamente una distribución si se trabaja con prome-
dios de varias mediciones (o sea, con medias muestrales) y si el número en que se basan tales
mediciones es razonablemente grande: tales promedios tendrán distribuciones aceptablemen-
te normales y se podrán analizar con los métodos de la distribución normal.
2. A pesar del requisito “n tendiendo a infinito” la aproximación a la normal funciona en
general muy bien aún con valores de n relativamente pequeños. Esto significa que la norma-
lización de la distribución de las medias, que será completa cuando n tienda a infinito, a los
fines prácticos ya suele resultar suficientemente buena con tamaños muestrales relativamente
pequeños (por otra parte es útil tener en cuenta que pequeñas desviaciones de la normalidad no
suelen afectar sensiblemente los resultados de muchos tests estadísticos, que las toleran bien.
El tamaño útil de n dependerá en última instancia de la muestra y del destino que se dará a los
datos). Otras propiedades importantes de las medias muestrales se comentan a continuación.
y que la varianza de dicha diferencia es igual a la suma de las respectivas varianzas mues-
trales:
siendo el desvío estándar igual a la raíz cuadrada de la varianza, que por apreciaciones análo-
gas a las ya vistas en el párrafo anterior, se designa como error estándar de la diferencia:
Otro dato importante es que, si las medias x– 1 y x– 2 tienen distribución normal, su dife-
rencia también la tiene. La utilidad de estos resultados se hará más evidente en las secciones
siguientes.
Análogos resultados se aplican a las diferencias entre proporciones. Siendo p1 la propor-
ción de individuos que presentan una característica determinada en una muestra de tamaño
n1 extraída de un universo donde dicha proporción es π1, y p2 la proporción que presenta esa
[ 228 ]
misma característica en una muestra de tamaño n2 proveniente de un universo donde la pro-
porción es π2 , se demuestra que:
donde se ve que la varianza de la diferencia de proporciones (p1 – p2) es igual a la suma de las
varianzas de cada grupo (§4.4).
Se ha visto cómo una diferencia entre medias o proporciones muestrales puede manejarse
como una nueva variable, con una varianza que es igual a la suma de las varianzas de cada
variable. Esto encuentra aplicación en las comparaciones entre muestras de las que se ocupa
la inferencia estadística. Cabe agregar que los resultados vistos más arriba para la diferencia
entre dos medias o proporciones muestrales, se aplican por igual a la suma, de modo que
tanto la suma como la diferencia de medias se distribuyen con una varianza que es la suma
de las varianzas originales de las muestras. Se ha subrayado el caso de las diferencias por ser
el más empleado en los problemas de inferencia estadística. Un requisito que debe cumplirse
para que la varianza estimada sea válida, es que las muestras sean independientes, o sea
que no exista correlación entre las muestras (sección 9), pues en este caso la varianza total
se reduce y, lo que es importante, existen métodos óptimos para aprovechar esta reducción
de la variabilidad de la diferencia de medias cuando se trata de comparaciones y pruebas de
hipótesis entre datos correlacionados (sección 7).
[ 229 ]
6. Inferencia estadística
6.1. Generalidades.
La inferencia estadística es el conjunto de procedimientos por el cual la información
contenida en las muestras se utiliza para hacer estimaciones relativas a los universos de los
que proceden. En cierto sentido, la información de las muestras se hace extensiva a los uni-
versos. Este proceso de generalización tiene sus fundamentos, procedimientos y limitaciones.
Por ejemplo, se demuestra que la media muestral es la mejor aproximación a la media del
universo, y que la varianza muestral, provistas ciertas restricciones, es la mejor aproximación
a la varianza del universo. Si bien el pasaje desde la información provista por las muestras ha-
cia las estimaciones acerca de los universos implica cierta pérdida de exactitud, el margen de
error de las estimaciones realizadas sí puede calcularse exactamente. Por ejemplo, si bien al
estimar la media de un universo mediante la media de una muestra, la diferencia exacta entre
ambas no se puede llegar a conocer con exactitud, la probabilidad de que la media universal
se halle comprendida dentro de determinados límites alrededor de la media muestral puede
ser calculada con precisión, y éste es uno de los aspectos más característicos de la inferencia
estadística.
En general, la inferencia estadística se ocupa de dos tipos de aplicaciones: la estimación
de parámetros u otras características de las distribuciones de las variables en los universos de
los que proceden las muestras, y la verificación de hipótesis acerca de dichos universos. En
ambos casos la información es proporcionada por las muestras y la dirección de la inferencia
estadística es de la muestra hacia el universo, posibilitando estimaciones y comparaciones
que de otra forma exigirían la medición de todos los individuos del mismo. En lo que sigue
se examinarán algunos temas de inferencia estadística con particular referencia a la distribu-
ción normal.
[ 230 ]
cerca de μ sean mayores que las de hallarse lejos. Este tipo de estimación mediante un nú-
mero que se espera se aproxime al parámetro estimado, se denomina estimación puntual
(point estimate). Prosiguiendo, se puede desear tener una idea del grado de exactitud de la
estimación puntual llevada a cabo por la media muestral x– . Esto puede lograrse calculando
un intervalo alrededor de x– , en el cual exista una probabilidad definida, digamos del 95%
o 0.95, de encontrar la media universal μ. El procedimiento tiene en cuenta que tomando
muestras de una población normalmente distribuida, el 95% de las medias muestrales
x– estará comprendido en el intervalo entre +1.96 y −1.96 errores estándar alrededor de la
media de población μ, lo que equivale a decir que una muestra tomada al azar tiene el 95%
de probabilidades de contener la media μ en el intervalo dado por x– ± 1.96 errores estándar
(nótese que el error estándar es el nombre del desvío estándar de x– , igual a σ / √ n, [§5.3]).
Por lo tanto, la diferencia entre x– y μ estará en el 95% de los casos comprendida entre +1.96
y −1.96 errores estándar. En símbolos:
con probabilidad igual a 0.95. Si se resta x– de cada término y se reordenan las desigualdades,
se obtiene:
lo que expresa que la media del universo se hallará con probabilidad igual a 0.95, en el inter-
valo comprendido entre la media muestral x– y 1.96 veces el error estándar a cada lado (prác-
ticamente 2 veces el desvío estándar a cada lado de la media muestral). Dicho intervalo se
llama intervalo de confianza de la estimación (en este caso, intervalo de confianza del 95%).
Sus límites, esto es, x– más/menos 1.96 σ / √ n, son los límites de confianza, en este caso, del
95%. En resumen, no conocemos con exactitud la media universal μ, pero la consideramos
muy próxima a la media muestral y su estimación puntual es precisamente el valor de x–, y
además tenemos un nivel de confianza del 95% de que se halle dentro de los límites de con-
fianza calculados. La expresión nivel de confianza no debe entenderse como una expresión
de credulidad, sino en el sentido de que estamos seguros de que si repetimos la estimación 100
veces, 95 veces estaremos en lo cierto y las restantes 5, equivocados. La última eventualidad
es el error de la estimación y expresa la probabilidad de que la media universal µ se halle por
fuera de los límites de confianza calculados, eventualidad que debe ser siempre tenida en
cuenta al analizar los resultados. Desde ya, el nivel y los correspondientes límites de confian-
za pueden establecerse en otros valores y así, para P = 0.01 debe reemplazarse el valor 1.96
de la variable estandarizada z empleado más arriba, por z = 2.58
Ejemplo 6.1
Supongamos que se conozca el desvío estándar de la glucemia en una determinada po-
blación (esto es bastante difícil sin examinar la población completa, aunque si está muy bien
estudiada podría llegar a tenerse una idea suficientemente aproximada, como se acepta en
este ejemplo). Supongamos que dicho desvío estándar es de 12 mg/dl. Si calculamos la media
[ 231 ]
muestral x– en un grupo de 100 individuos de dicha población y resulta ser de 88 mg/dl, ¿cuál
es el intervalo de confianza para la estimación de la media de la población, μ?
En primer lugar, se acepta como el valor más probable de la media de la población, el de
la media muestral, 88 mg/dl. Esta es la estimación puntual de µ. En cuanto al intervalo de
confianza, si aceptamos un nivel del 95% sólo debemos reemplazar los datos en 6.2:
de lo cual se puede inferir que μ debe estar comprendida entre 85.6 y 90.4 mg/dl, con un nivel
de confianza del 95%.
[ 232 ]
LDL en los individuos con y sin síndrome metabólico, como lo sugieren las muestras? Las
glucemias del grupo en estudio, podrían provenir de un universo con una determinada me-
dia? Las preguntas se refieren a los universos, mientras que los datos de los que se dispone
provienen de las muestras. El procedimiento corriente es establecer una hipótesis nula, según
la cual no hay diferencias entre las poblaciones comparadas en lo que respecta a los paráme-
tros que interesan: los niveles séricos de colesterol LDL serían los mismos en individuos con y
sin síndrome metabólico, y la media de glucemia de la muestra pertenecería a una población
con la misma media que la del universo con cuya media se desea comparar (y las diferencias
se deberían en cada caso, a las fluctuaciones del muestreo). Estas hipótesis nulas comúnmen-
te contrarían las expectativas sugeridas por el examen de las muestras, pero sin embargo,
para afirmar que realmente existe una diferencia entre los parámetros de las poblaciones,
las hipótesis nulas deben ser puestas a prueba y deben poder ser rechazadas como altamente
improbables. Solo así será lícito aceptar como verdadera la hipótesis alternativa, que es la que
suele presentar mayor interés por significar en general conocimientos nuevos acerca de las
poblaciones en estudio.
Los procedimientos por los cuales se evalúan las hipótesis se denominan pruebas o tests
de significación estadística. Tales procedimientos consisten en el cálculo a partir de los datos
muestrales, de ciertos valores o estadísticos (§2.5), que como se verá, permiten determinar en
qué grado se acercan o se alejan los valores muestrales de aquéllos esperados por hipótesis y,
en consecuencia, calcular la probabilidad de que una hipótesis sea verdadera. En el problema
del colesterol LDL, si fuera cierta la hipótesis nula que plantea que “los niveles de colesterol
LDL son los mismos en individuos con y sin síndrome metabólico,” habría que esperar una
diferencia entre las medias muestrales, igual o muy próxima a cero. En este caso, la variable
que se examina en busca de información acerca de diferencias entre los universos con y sin
síndrome metabólico es la diferencia entre las medias de cada una de las dos muestras: si
fuera muy distinta de cero se podría deducir que los respectivos universos deben diferir entre
sí en lo que se refiere al colesterol LDL.
Para probar la hipótesis con variables normalmente distribuidas, la diferencia hallada
entre las medias de las dos muestras se divide por una estimación de su error estándar (§ 5.5)
para así poder apreciar la magnitud de su desviación de cero en los términos de una variable
estandarizada. En el siguiente apartado se verán algunos detalles del procedimiento.
Los estadísticos calculados a partir de las muestras, como las diferencias entre medias,
siguen funciones de probabilidad ya tabuladas y permiten estimar la probabilidad (P) de que
esas diferencias hayan ocurrido por azar de muestreo. Si esa probabilidad es grande, se acep-
ta que las diferencias encontradas pueden haberse debido simplemente a las fluctuaciones
del muestreo y, en el caso del colesterol LDL habría que aceptar la hipótesis nula de medias
iguales y no habría motivo para suponer que el colesterol LDL de los individuos con síndro-
me metabólico constituya un universo diferente al del colesterol LDL de los individuos sin
el síndrome. Si por el contrario, la probabilidad de una diferencia igual o mayor a la hallada
es muy baja, digamos P < 0.05, debemos aceptar que una diferencia tal, difícilmente pueda
provenir del azar al muestrear un mismo universo, y que las diferencias observadas en las
muestras representan diferencias reales existentes entre distintos universos. En el ejemplo,
habría que aceptar que individuos con y sin síndrome metabólico deben tener niveles diferen-
[ 233 ]
tes de colesterol LDL. En esta eventualidad, la hipótesis nula sería rechazada y la hipótesis
alternativa, de distintos niveles de LDL, sería automáticamente aceptada.
El valor de P, que se adopta antes de realizar la prueba de significación, se denomina
nivel de significación y el test, en caso de motivar el rechazo de la hipótesis nula, es declarado
estadísticamente significativo en el nivel elegido, por ejemplo P = 0.05. El rechazo de la hi-
pótesis nula no significa la certeza absoluta de que el colesterol LDL difiera entre los grupos
comparados, ya que si se acepta que una diferencia como la observada se puede obtener por
azar el 5% de las veces muestreando un mismo universo o dos universos iguales respecto del
colesterol LDL, no hay garantía absoluta de que este no sea nuestro caso, pero es un riesgo
que se acepta correr, pues de lo contrario no hay inferencia posible. Queda un nivel de incer-
tidumbre del 5% al rechazar la hipótesis nula, y es un hecho característico de la inferencia
estadística que la cuantía de esa incertidumbre pueda ser calculada con exactitud.
Las pruebas de significación pueden realizarse en pares de muestras o en grupos de tres o
más muestras a la vez. Por ejemplo, pueden compararse las medias de la presión arterial bajo
tres o más tratamientos diferentes, originándose comparaciones múltiples. Estas se realizan
mediante procedimientos especiales que son extensiones de los métodos utilizados para la
comparación de pares de muestras y se esbozarán en la Sección 10.
En lo que sigue se examinará con cierto detalle el procedimiento para comparar medias
muestrales cuando las variables son continuas y siguen la distribución normal o de Gauss.
Esto ayudará a comprender mejor la forma en que se llevan a cabo los procedimientos de la
inferencia estadística. Por su parte, los programas computarizados evitarán gran cantidad de
cálculo numérico, ya que sólo requieren la entrada de los datos muestrales y la elección entre
los procedimientos disponibles.
[ 234 ]
La diferencia x– 1 − x– 2 tiene un desvío estándar, que al tratarse de medias se denomina
error estándar y se calcula como se vio en §5.5, ecuación (5.6). Dividiendo la diferencia x– 1 −
x– 2 por su error estándar, dicha diferencia queda expresada en unidades de desvío estándar,
como una variable estandarizada z:
1. Hipótesis: el colesterol LDL está elevado en el grupo con síndrome metabólico respecto
de los controles sin el síndrome.
[ 235 ]
2. Hipótesis nula (H0): el colesterol LDL no es afectado por la presencia de síndrome me-
tabólico, con lo que las medias son las mismas para los respectivos universos y la diferencia
observada entre las medias muestrales se ha dado por azar. La hipótesis nula queda plantea-
da como la igualdad de las medias universales:
H0: μ SM = μC
μ SM − μC = 0
Si no resulta posible rechazar esta hipótesis tampoco será lícito aceptar que se ha encon-
trado una diferencia significativa entre los dos grupos en estudio.
3. Elección del nivel de significación de la prueba. El valor de P a partir del cual se recha-
zará la hipótesis nula debe elegirse antes realizar la prueba de significación. Habitualmente
se elige P = 0.05 o P = 0.01. Se optará por el primero.
Como se ha dicho, la diferencia entre las medias (x– SM − x– C) es una nueva variable, que
en el presente par de muestras tiene un valor igual a 145.9 mg/dl − 134.6 mg/dl = 11.3 mg/
dl. Si se repitiera el experimento de la toma de pares de muestras de los grupos en estudio, se
observaría que las diferencias entre los pares de medias de cada experimento se distribuyen
en una campana normal alrededor de un valor central. Este valor representaría el promedio
de las diferencias entre pares de medias en varias repeticiones del experimento. Esta media
de las diferencias, si fuera cierta la hipótesis nula, debería oscilar alrededor de cero. El valor
obtenido fue 11.3 mg/dl. En la Fig. 6.1 se observa la distribución teórica de las diferencias
entre pares de medias para los datos del ejemplo, con centro en el valor muestral 11.3 mg/
dl. Puede observarse que el valor 0 esperado por hipótesis nula queda hacia la cola izquierda
de la campana normal trazada en base a los datos muestrales, muy lejos de su centro de 11.3
mg/dl. Será muy difícil seguir aceptando la hipótesis nula, pues la diferencia entre las medias
muestrales está muy lejos de cero y así, es demasiado grande como para admitir que podría
haberse dado por azar sin que los universos sean diferentes.
[ 236 ]
Figura 6.1. La diferencia entre dos medias muestrales es otra variable, que en el ejemplo 6.2
tiene un valor igual a 11.3 mg/dl. Este valor se compara con la hipótesis nula que propone que
la media de población μ para la diferencia de medias vale cero.
[ 237 ]
nificativamente. El nivel de significación de la prueba o valor de P es, como se dijo, mucho
menor que 1 en 10000, lo que se expresa como P < 0.0001 y excede holgadamente el nivel P
< 0.05 adoptado al comienzo de la prueba.
En este ejemplo se vio la forma de realizar comparaciones entre medias muestrales, bajo
la hipótesis nula de medias universales iguales, μ1 − μ2 = 0. Una gran cantidad de pruebas con
análogos fundamentos pueden emplearse para evaluar otras hipótesis nulas donde la diferen-
cia postulada entre las medias universales sea distinta de cero. En este caso, el numerador de
(6.3) y (6.4) deberá expresarse [(x– 1 − x– 2) − (μ1 − μ2)], ya que la diferencia μ1 − μ2 será distinta
de cero.
Otras inferencias posibles se refieren a la comparación de una media muestral con una me-
dia universal conocida o hipotética. En este caso se trata de una sola muestra. Aquí la hipótesis
nula es que la diferencia entre la media muestral x– y la media universal con la que se compara,
μ0 , es igual a cero, con lo cual el numerador del estadístico de prueba (6.3) y (6.4) queda expre-
sado por x– − μ0. El error estándar de la media se estima a partir de la única muestra disponible
y queda expresado por √ (σ² / n) = σ / √ n (5.3). Si σ no es conocido, puede reemplazarse por el
desvío estándar de la muestra, s, con lo cual el estadístico z toma la forma:
z = (x– − μ 0) / (s / √ n) (6.5)
Ejemplo 6.3. Comparación de una media muestral con una media universal hipotética
En una muestra de 100 individuos se midió una glucemia media x– = 102 mg/dl, siendo
el desvío estándar de la muestra s = 16 mg/dl. ¿Puede afirmarse que el universo del que pro-
viene la muestra tiene una media mayor que la de un universo teórico cuya media es μ 0 = 90
mg/dl?
Para contestar afirmativamente se debe poder rechazar la hipótesis nula de que ambos
universos tienen la misma media, esto es, que x– − μ 0 = 0. La magnitud de la desviación de 0 ex-
hibida por la diferencia entre la media muestral y la media del universo hipotético, se evalúa
mediante el cociente de prueba (6.5). Reemplazando por los datos del problema se obtiene:
Este resultado expresa que la diferencia entre la media muestral y la media teórica con la
que compara, es igual a 7.5 errores estándar. En tablas de la distribución normal se obtiene
para z = 7.5 una probabilidad muy inferior a 0.0001, lo que significa que una diferencia igual
o mayor que la observada es altamente improbable de ser obtenida de universos con la misma
µ o muestreando un mismo universo. En base a esto corresponde el rechazo de la hipótesis
nula y la aceptación de la hipótesis alternativa, o sea, que el universo del cual procede la
muestra y el universo con el que se comparó tienen medias que difieren significativamente.
El nivel de significación de la prueba se puede expresar como P < 0.0001 (si bien P < 0.05
también es verdadera, P < 0.0001 es más exacta).
[ 238 ]
6.5. Resumen y comentarios sobre evaluación de hipótesis
Resumiendo lo anterior, la evaluación de hipótesis estadísticas consta de los siguientes
pasos:
1. Enunciado de la hipótesis de trabajo y de la hipótesis nula. Esta deberá poder recha-
zarse como única forma de aceptar una hipótesis alternativa.
2. Adopción de un nivel P de significación para la prueba.
3. Cálculo de los estadísticos de prueba a partir de los datos muestrales. En el caso de
la comparación de medias se trata de desviaciones estandarizadas de los valores muestrales,
cuyas probabilidades en el marco de distintas hipótesis son estimadas mediante tablas de
las correspondientes distribuciones (en los ejemplos que preceden, se trata de la distribución
normal).
4. Comprobación en tablas del nivel de probabilidad P del estadístico utilizado.
5. Aceptación o rechazo de la hipótesis nula.
Los siguientes puntos completan conceptos importantes sobre inferencia estadística:
[ 239 ]
probabilidades correspondientes al nivel de significación del test. Cuando P se fija en 0.05, a
cada cola corresponde P = 0.025.
Por otra parte, si hubiera un motivo para estar seguro que la diferencia entre muestras
sólo se puede dar en un sentido, por ejemplo x– 1 > x– 2 pero nunca x– 1 < x– 2 , estaría justificado
evaluar la probabilidad de un desvío de la hipótesis nula solamente en el sentido en que éste
es posible. Este podría ser el caso de placebo contra droga, donde no sería de esperar la supe-
rioridad del placebo y por lo tanto, sólo interesara saber si una diferencia observada a favor
de la droga activa puede ser calificada como estadísticamente significativa. En este caso, la
probabilidad se calcula de modo que la variable estandarizada z deje todo el valor de P acep-
tado como nivel de significación para la prueba, en uno de los extremos de la distribución.
Para dejar en una sola cola una determinada P, digamos P = 0.05, se necesita una menor
desviación de z de la hipótesis nula que cuando la probabilidad se divide en 0.025 para cada
cola. En consecuencia, el test a una cola resulta significativo con menor valor absoluto de
z que el correspondiente test a dos colas, lo cual puede visualizarse en la Figura 6.2, B. Por
ejemplo, en las pruebas a dos colas vistas en los ejemplos anteriores, para un nivel P = 0.05 se
requiere z = 1.96, mientras que si la prueba es a una cola, z = 1.65. Esto da mayores chances
de encontrar diferencias significativas con el test a una cola.
Figura 6.2. A: Prueba de significación a dos colas. B: Prueba de significación a una cola. En
ambos casos las desviaciones se dan en variable estandarizada z. P = 0.05. Para alcanzar la
misma P se necesita una menor desviación z con el modelo a una cola.
De acuerdo a lo dicho, practicar una prueba a una cola puede ser una oportunidad para
producir una diferencia significativa donde el test a dos colas no la detectó. Por este motivo,
la decisión de utilizar pruebas a una cola debe ser tomada antes de realizar el cálculo de P,
y debe estar muy sólidamente fundada, ya que es posible que rinda un exceso de resultados
significativos, por lo cual nunca debería utilizarse ante el fracaso de la prueba a dos colas.
Asimismo, la decisión de realizar una prueba a una cola nunca debe ser tomada luego de
examinar las muestras y ver cómo se disponen las medias. Por estas razones, el consenso es
que, salvo circunstancias muy especiales, siempre debería utilizarse la prueba a dos colas, aún
[ 240 ]
cuando parezcan existir buenas razones para que cualquier diferencia sólo pudiera darse en
un solo sentido, como en el ejemplo del placebo versus droga.
6.5.4. En una comparación de medias, el rechazo de la hipótesis nula implica que ésta no
se halla comprendida en el intervalo de confianza de la diferencia de medias
Esto relaciona las pruebas de hipótesis con la determinación de los intervalos de confian-
za para los parámetros de las poblaciones. Por ejemplo, calculemos el intervalo de confianza
para la diferencia de medias entre los individuos con y sin síndrome metabólico, μ SM − μC del
Ejemplo 6.2. Dicho intervalo se calcula a partir de las respectivas medias muestrales, según
la ecuación empleada en Ejemplo 6.1 para el cálculo de intervalos de confianza:
Reemplazando x– por la diferencia entre las medias muestrales y σ / √ n por el error están-
dar de la diferencia, se tiene:
11.3 − (1.96 × 2.21) < 11.3 < 11.3 + (1.96 × 2.21) = 6.97 < 11.3 < 15.63
con un nivel de confianza del 95%. El valor más probable de la diferencia de las medias
universales está en la diferencia muestral 11.3, y sólo en el 5% de los casos será menor que
6.97 o mayor que 15.63. Es fácil comprobar que tomando 3 errores estándar a cada lado, el
intervalo de confianza se extiende entre 4.67 y 17.93, y la media universal se encontrará fuera
de estos límites en menos de 3 de cada mil pruebas (P = 0.0027). En cualquier caso, queda
excluido el 0, que es la diferencia que postula la hipótesis nula. En otras palabras, es altamen-
te improbable que la diferencia entre la media de las poblaciones sea cero, como propone la
hipótesis nula. Esto equivale a su rechazo, llegándose al mismo resultado que en el Ejemplo
6.2, donde se evalúa la diferencia de medias contra la hipótesis nula de diferencia cero.
[ 241 ]
6.5.5. Si se toman en cuenta todos los elementos de los universos, no tiene sentido hablar
de diferencias significativas entre las medias
Cuando se habla de diferencias significativas entre medias muestrales se está haciendo
referencia a diferencias muestrales que expresan diferencias entre sus respectivos universos.
Se infiere a través de muestras, la existencia de diferencias entre universos, por lo común inac-
cesibles en su totalidad o que, por algún motivo, no han sido evaluados íntegramente. Por lo
tanto, siempre hay un nivel de confianza y una probabilidad de error asociados con este tipo
de apreciaciones fundadas en muestras. Por el contrario, si dos universos han sido medidos
en todos sus elementos y se halla que sus medias no son iguales, no tiene sentido preguntarse
si existe una diferencia significativa entre las medias pues la diferencia existe y ha sido puesta
en evidencia fuera de toda duda al medir ambos universos en la totalidad de sus individuos. El
término “significativa” se refiere a la confianza que generan las muestras en que la diferencia
no se limita a ellas mismas y puede por lo tanto hacerse extensiva a los universos. Pero si no se
trata de muestras, sino de los universos íntegramente medidos en todos sus elementos, cual-
quier diferencia hallada, pequeña o grande, simplemente existe y no tiene sentido preguntar
si es significativa. Sí tendría sentido, en cambio, preguntar si la diferencia tiene importancia
médica.
Por otra parte, es frecuente asociar el término “significativa” con “importante,” cosa que
debería evitarse, ya que diferencias muy pequeñas entre muestras, pueden ser significativas,
esto es, denotar diferentes universos de procedencia y con todo, tener muy poca importancia
práctica (en lenguaje coloquial el término significativo también tiene la acepción de impor-
tante, y en este sentido puede ser utilizado lícitamente, siempre que no ocasione ambigüeda-
des en la interpretación).
[ 242 ]
Por otra parte, un recurso contra el error alfa es hacerlo más pequeño reduciendo el nivel
de significación de las pruebas, por ejemplo del 5% al 1%, con lo cual el riesgo de caer en
el mismo será de una vez en cien. El precio que se paga es aumentar las chances de que las
comparaciones no alcancen el nuevo nivel de significación exigido, y se pierdan hallazgos que
efectivamente señalen diferencias entre las poblaciones muestreadas. El nivel de error alfa
con el que se elige trabajar depende en parte del rigor que se quiere dar a las conclusiones.
Asimismo, nunca debe olvidarse que la interpretación de los resultados de las evaluaciones
de hipótesis debe estar sujeta al criterio del investigador, quien suele tener conocimientos
fundados acerca de la materia en estudio y debe dar el peso correspondiente a los diversos
hallazgos. Si un resultado altamente significativo parece contradecir conocimientos previos
bien establecidos, debería ser evaluado cuidadosamente, ya que si bien puede señalar un he-
cho novedoso, podría también deberse a un caso de error de tipo alfa.
6.7. Falla en la detección de una diferencia que realmente existe: Error beta
En §6.5.1 se mencionó la posibilidad de que muestras pequeñas no permitan detectar una
diferencia existente entre medias de distintos universos, esto es, que el nivel de significación
alcanzado no sea suficiente para rechazar la hipótesis nula, aún cuando la hipótesis alternativa
fuera cierta. En esta eventualidad, la hipótesis nula no será rechazada y se aceptará que no exis-
ten diferencias significativas entre universos que en realidad difieren entre sí. Este tipo de error
se conoce como error beta. La posibilidad de incurrir en este tipo de error debe ser especial-
mente tenida en cuenta cuando habiendo motivos bien fundados para pensar que deben existir
[ 243 ]
diferencias, éstas no se han podido poner en evidencia en las muestras analizadas. Desde ya, el
ensayo con muestras más grandes suele ser el recurso más útil contra el error beta.
El error beta se expresa, como el error alfa, por un valor de P, pero ahora con el signifi-
cado de probabilidad de no detectar una diferencia que realmente existe, entre las medias de
diferentes universos. La definición debe ampliarse a cualesquiera que sean las características
o parámetros de población que se estén considerando. En general el error beta es más tolerado
que el alfa, aunque las conclusiones a las que lleva son igualmente erróneas. Sin embargo, es
más común que el error beta sólo postergue o dilate los hallazgos, siendo más difícil que por
su causa se tomen decisiones imprudentes, aunque esta afirmación es muy general y por ejem-
plo, debido a este tipo de error podrían llegar a pasarse por alto consecuencias indeseables de
diversos tratamientos, que sería importante conocer con certeza.
Si el error beta es del 10% o sea, P = 0.10, en una de cada diez veces el test de significa-
ción fallará en detectar una diferencia significativa, pero la encontrará en las nueve restantes.
Estas nueve veces de cada diez representan la potencia de la prueba estadística. Por lo tanto,
la potencia de un test es la probabilidad complementaria del error beta:
Por otra parte, el error beta depende del nivel aceptado de error alfa, del desvío estándar
de las variables implicadas y del tamaño de las muestras. La probabilidad de error alfa queda
fijada al elegir el nivel de significación para una prueba, y cuanto menor sea dicha probabi-
lidad, mayor será la probabilidad de error beta. La relación inversa entre la magnitud de los
errores alfa y beta resulta de que si se pretende disminuir la probabilidad de error alfa, debe-
rán exigirse mayores diferencias entre las variables comparadas antes de aceptar su significa-
ción estadística y esto, a su vez, hará más probable que diferencias menores, aunque reales,
se pasen por alto y se desechen como no significativas (error beta). En cuanto a la influencia
del desvío estándar de las variables y el tamaño de las muestras, sus efectos convergen en la
determinación del error estándar empleado en las pruebas de hipótesis (ver §6.5.1).
El error beta puede calcularse con exactitud conociendo sus determinantes, menciona-
dos en el párrafo anterior, y para algunos modelos de distribución de probabilidades ha sido
calculado y tabulado. Su cálculo no será abordado aquí dada su relativa extensión, pudiendo
consultarse Armitage, 1994. Sólo se mencionará que, de acuerdo a lo establecido más arriba,
el investigador puede reducirlo agrandando las muestras, reduciendo la variabilidad de las
mismas y renunciando a niveles de significación muy altos para el error alfa. La primera op-
ción es en general la más factible. En cuanto a la variabilidad de las muestras, en general sólo
se puede, en ciertas ocasiones, tratar de reducir el componente relacionado con la precisión de
las mediciones, ya que la variabilidad inherente a los datos no es influenciable directamente.
Sin embargo, hay un aspecto relacionado que sólo se mencionará aquí, y que se refiere a la
posibilidad de controlar el efecto de ciertas variables que no intervienen en el estudio pero
que influyen sobre las que interesan. Por ejemplo, al medir la duración del intervalo QT del
electrocardiograma, generalmente no interesan los efectos de la frecuencia cardíaca, que son
conocidos y que tenderán a acortarlo a medida que ésta aumenta. La “corrección” para la
frecuencia cardíaca, que tiende a eliminar su influencia en el QT medido, consiste en el uso de
[ 244 ]
determinadas ecuaciones donde la frecuencia cardíaca es tomada en cuenta en cada individuo
para generar valores del QT “corregidos” (ver Sección 9). El QT corregido tendrá habitual-
mente menor varianza que antes de su corrección, con lo que se facilitará la detección de
cambios significativos en el mismo debidos, por ejemplo, a la acción de drogas en estudio.
La opción de renunciar a niveles altos de significación para el error alfa está más limi-
tada, ya que en general se aceptan sin inconvenientes niveles de P = 0.05 pero, a partir de
este valor, existe el consenso de que valores mayores, como P = 0.10, no son suficientemente
seguros para rechazar una hipótesis nula con suficiente nivel de confianza.
[ 245 ]
z = d / √ ( σ² / n ) + ( σ² / n )
de donde se puede despejar y obtener el valor de n reemplazando d, z y σ² por los valores asig-
nados por el investigador. Para despejar n se comienza elevando al cuadrado ambos términos
de la ecuación, con lo que se elimina la raíz:
z² = d² / ( σ² / n ) + ( σ² / n )
= d² / σ² ( 2/n )
= n d² / 2 σ²
de donde resulta:
n = 2 z² σ² / d² (6.7)
= 2 ( z σ / d )² (6.8)
[ 246 ]
Por lo tanto, se necesitarán 38 pacientes en total para que, si es correcta la estimación de
σ² a partir de s², una diferencia de 10 mg/dl sea detectada con un nivel de significación P =
0.05.
En este punto es conveniente señalar que muestras de 19 pacientes por grupo deberían
considerarse pequeñas, y en este caso convendría abandonar las estimaciones del tamaño
muestral basadas en la distribución z y emplear otras más adecuadas para muestras pequeñas
(ver Sección 7). De todos modos, recalculando el tamaño muestral con este recaudo, se com-
prueba que se necesitarían no más de 21 pacientes por grupo, una cifra similar a la encontra-
da más arriba.
Un problema típico en la comparación de muestras es el que consiste en calcular el núme-
ro mínimo de casos que deberán tener para detectar una diferencia igual o mayor a un valor
establecido antes de iniciar la investigación, con una potencia aceptable (digamos del 80%
o 90%, ver párrafo anterior) y un nivel de error alfa asimismo aceptable para el investigador
(digamos, del 5% o del 1%). Aquí las técnicas para el cálculo del tamaño muestral son aún
algo más complicadas que la antes reseñada, debido a la nueva condición de tomar en cuenta
el error beta de la prueba. Por lo demás, los cálculos cambian según el tipo de distribución
que adoptan las muestras y otras características de los estudios, por lo cual se comprende
que un examen más completo del tema queda más allá del alcance del texto, y el lector puede
consultar Armitage y Berry, 1994. Una exposición sencilla y suficientemente completa puede
encontrarse en Florey, 1993.
[ 247 ]
7. Comparaciones entre dos medias muestrales.
La distribución t
Figura 7.1. Curvas de distribución de probabilidades normal y de Student (trazo más grueso).
Puede observarse que hacia los extremos de la curva, un mismo desvío estándar deja
por fuera un área de probabilidades mayor que en la distribución de Gauss. Esto quiere decir
que en las muestras pequeñas, las probabilidades de que la variable asuma valores cercanos
a las colas de la distribución, son relativamente mayores que en la distribución normal. Por
[ 248 ]
esta razón, para poder afirmar que una observación se aleja significativamente del centro de
la distribución, deberá hallarse a mayor distancia del mismo que si la distribución fuera la
normal o de Gauss.
Dada una variable con distribución normal y media μ, si se extrae una muestra de tama-
ño n, con media x– y desvío estándar s, se tiene que
t = (x– − μ) / (s / √ n) (7.1)
[ 249 ]
individuos antes y después de alguna intervención o de algún posible cambio en las variables
en estudio. En el primer caso se habla de muestras no apareadas, por lo que se entiende que
no hay correlación estadística entre los datos de las dos muestras.
Como se sabe, al comparar las medias de dos muestras, la hipótesis nula suele ser que
provienen de universos con la misma media, de modo que μ1 = μ2 y por lo tanto μ1 − μ2 = 0. De
acuerdo a esta hipótesis, se espera que las diferencias entre las medias muestrales, x– 1 − x– 2 , pre-
senten una distribución en forma de campana con centro en 0, y la prueba consiste en dividir
la diferencia encontrada por su error estándar, lo que proporciona un valor de t. Este a su vez
permite encontrar en las tablas de la distribución, la probabilidad de una diferencia x– 1 − x– 2
igual o mayor que la hallada en el estudio. Si esa probabilidad es suficientemente pequeña, la
hipótesis de medias de población iguales debe ser rechazada, aceptándose la hipótesis alter-
nativa de medias diferentes.
Siempre que las varianzas de las muestras sean similares, el error estándar de la diferen-
cia de medias se obtiene a partir de una varianza única s², que combina las varianzas de cada
una de las muestras, s1² y s2² :
donde n1 y n2 es el tamaño de cada muestra, y (n1 − 1) y (n2 − 1) son los grados de libertad de
las muestras.
Con esta estimación de la varianza muestral, el error estándar de la diferencia de medias
se calcula a partir de (5.6), donde cada σ² está estimada por la varianza combinada s² :
1. Hipótesis: las medias del colesterol HDL difieren significativamente entre ambas muestras
2. Hipótesis nula (H0): el colesterol HDL no difiere significativamente entre las muestras.
La hipótesis nula postula que las medias universales μ1 y μ2 son iguales:
H 0 : μ1 = μ 2
[ 250 ]
4. Prueba de la hipótesis: el estadístico t y la obtención de P. Este es el único punto que
difiere de los ejemplos de la Sección 6: el estadistico empleado es t en vez de z, y como se ha
mencionado, en el cálculo del error estándar de la diferencia de medias, se combinan las dos
varianzas muestrales. Se insiste en que los programas estadísticos obvian estos cálculos, que
aquí se describen porque permiten entender los mecanismos de la inferencia estadística. Por
lo mismo y para no alargar la exposición, se dan ya calculadas las medias y las varianzas de
las muestras 1 y 2:
X1 X2
∑x 640 460
Número de casos ( n ) 10 10
–)
Media (x 64.0 46.0
Varianza muestral ( s² ) 422.4 276.9
A partir de (7.2) se obtiene una varianza muestral única, s², que combina ambas varian-
zas muestrales, s1² y s2² :
– −x
ES (x – ) = √ ( s² / n ) + ( s² / n )
1 2 1 2
= √ ( 349.7 / 10 ) + ( 349.7 / 10 ) = 8.36
[ 251 ]
En el ejemplo se ha trabajado con varianzas que no difieren demasiado entre sí, lo cual
permite combinarlas para obtener una estimación común con la cual completar los cálculos.
La igualdad de varianzas debería evaluarse previamente, por procedimientos en los que no
entraremos, y de hallarse diferencias significativas entre las mismas el error estándar de la di-
ferencia se debería calcular como en (5.6). Sin embargo y en general, los resultados no suelen
ser muy diferentes. Más importante del punto de vista práctico, los programas de estadística
analizan automáticamente las varianzas y ofrecen junto con el correspondiente informe acer-
ca de su similitud, la posibilidad de calcular t bajo cualquiera de los dos supuestos, varianzas
iguales o desiguales.
[ 252 ]
Las respectivas medias muestrales antes y después del tratamiento son 46.0 y 51.0 mg/dl,
y su diferencia, igual a 5.0 mg/dl, sugiere un leve aumento del colesterol HDL No obstante,
la diferencia entre las medias muestrales es menor que en el ejemplo anterior y, como el lector
puede comprobarlo, si se aplica el mismo método de comparación, no resulta significativa.
Sin embargo, si se observan en la cuarta columna de la tabla los cambios del HDL ocu-
rridos en cada individuo, se verá que en nueve casos aumentó en la muestra post-tratamiento,
y que no hay grandes contrastes entre la magnitud de las variaciones para cada individuo: el
paciente con 81 mg/dl pasa a tener 84 (d = 84 − 81) y el paciente con 21 mg/dl pasa a tener 25
(d = 25 − 21). ¿Por qué no analizar solamente las diferencias, ocurridas en cada individuo? Si
sobre las mismas no hubiera un efecto del tratamiento, su media debería oscilar alrededor de
cero, y ésta es una buena hipótesis nula. Tal es el fundamento de la comparación de “muestras
apareadas”. Si la media de las diferencias individuales difiere significativamente de cero,
se admite que un cambio significativo ha ocurrido entre las tomas de cada par datos. La
variable es la diferencia d entre cada par de datos, que se compara con una diferencia media
hipotética μD = 0.
El procedimiento es como sigue. En la cuarta columna se hallan las diferencias ( d ) entre
ambas mediciones del HDL para cada individuo. La media de esas diferencias es igual a su
sumatoria dividida por el número de casos:
y en el ejemplo es igual a 5.0 mg/dl (es la misma que la diferencia entre las medias muestrales).
–
Error estándar de la media d : se obtiene a partir de (5.3) reemplazando σ² por s²D:
[ 253 ]
ESD = √ (s²D / n ) (7.7)
–
de donde se obtiene t como el cociente entre d y ESD:
Para comprender lo que ha ocurrido, hay que tener en cuenta que las cifras de HDL están
(o pueden estar) influidas por el tratamiento y también por otras características particulares de
cada individuo. Las diversas fuentes de variabilidad generan las varianzas de cada muestra por
separado, mientras que por el contrario, la columna con las diferencias de HDL pre y post-tra-
tamiento sólo expresa las variaciones ocurridas entre la primera y la segunda medición. Otras
fuentes de variabilidad, que se manifiestan en el hecho de que los distintos individuos se pre-
sentan inicialmente con valores de HDL más altos o más bajos, tienden a cancelarse cuando se
restan entre sí los dos valores de cada par de datos. En el ejemplo, las varianzas de las muestras
son iguales a 276.9 y 332.4 (pre y post-tratamiento), mientras que la varianza de las diferencias
entre pares es igual a 34.9. Esto determina un menor error estándar y consecuentemente, el
incremento del valor de t y la posibilidad de detectar cambios significativos. En el ejemplo se
ha producido un aumento pequeño pero significativo del colesterol HDL, que hubiera quedado
oculto por la variabilidad individual de haberse empleado directamente las varianzas muestra-
les como se hace en el caso de muestras independientes, donde no es posible controlar la varia-
bilidad “dentro del grupo”. Como se ve, la mayor eficacia del método de muestras apareadas
se debe a que permite aislar las variaciones producidas por una determinada circunstancia o
intervención, de la variabilidad existente entre los individuos de un grupo.
[ 254 ]
8. Comparaciones entre proporciones
[ 255 ]
Ejemplo 8.1. Comparación de dos proporciones en muestras independientes. Aproxima-
ción mediante la distribución normal
En un conjunto de 470 individuos internados por endocarditis infecciosa (Modenesi y
col., 2005) se encontró que 66 presentaron insuficiencia renal crónica (IRC) durante la evo-
lución (grupo 1) y 404 no la presentaron (grupo 2). Durante la hospitalización se observaron
24 muertes en el grupo 1 (IRC), y 90 muertes en el grupo 2 (no IRC).
La proporción de fallecimientos fue p1 = 24 / 66 = 0.36 = 36% en el grupo 1, y p2 = 90 /
404 = 0.22 = 22% en el grupo 2. ¿Son los datos prueba suficiente de que la muerte intrahos-
pitalaria en la endocarditis infecciosa, es más frecuente en los portadores de insuficiencia
renal crónica que en los que no la presentan?
La hipótesis nula es que la mortalidad intrahospitalaria es la misma en portadores de
insuficiencia renal crónica que en los que no la presentan, o lo que es lo mismo, la morta-
lidad en el universo del que procede el grupo 1 (π1) es la misma que en aquél del que pro-
cede el grupo 2 (π 2). Para poder afirmar que la diferencia observada es estadísticamente
significativa, debe poder rechazarse la hipótesis nula y para esto, debe demostrarse que la
diferencia p1 − p2 obtenida de las muestras tiene muy bajas probabilidades de observarse
muestreando universos en los que π1 = π2 .
Al igual que p1 y p2 , la diferencia (p1 − p2) se distribuirá en forma aproximadamente nor-
mal siempre y cuando las muestras no sean pequeñas y las p no presenten valores extremos,
y en estos casos pueden utilizarse procedimientos similares a los ya vistos en Sección 6. Esto
requiere construir un estadístico z para evaluar la diferencia (p1 − p2) en términos de su error
estándar, y así conocer la probabilidad de haber obtenido una diferencia igual o mayor siendo
verdadera la hipótesis nula de medias iguales (o diferencia cero). Llamando ES (p1 − p2) al
error estándar de (p1 − p2), se tiene:
Para calcular el error estándar de (p1 − p2) debe obtenerse primeramente una p muestral
común que suma los numeradores y los denominadores de p1 y p2:
[ 256 ]
Recapitulando los datos y reemplazando se tiene:
[ 257 ]
no hubiera asociación alguna con cualquiera de los grupos. La Tabla 8.1 correspondiente al
ejemplo anterior permite ilustrar el resultado:
Se comprueba que frente a 16 óbitos esperados en el grupo 1, ocurrieron 24, y frente a los 98 óbi-
tos esperados en el grupo 2, sólo se presentaron 90. La magnitud de las diferencias entre casos
observados y casos esperados, permite elaborar un estadístico muestral llamado chi-cuadrado
(que se suele escribir X²), que se compara con una familia de distribuciones también conocidas
como chi-cuadrado y que se suelen denotar como χ². Este estadístico se calcula como:
X² = ∑ [ (O − E)² / E ] (8.6)
lo que expresa que para cada una de las cuatro celdas de la tabla, la diferencia entre los casos
observados ( O ) y los esperados ( E ), debe elevarse al cuadrado y dividirse por el número de
casos esperados, para finalmente sumar los resultados de las 4 celdas. Cuanto más grande
resulte X², más improbable será que las discrepancias se deban al azar, y esto lleva a aceptar
la existencia de algún tipo de asociación entre la mortalidad intrahospitalaria y la insuficien-
cia renal crónica en las poblaciones representadas por las muestras. En forma más general,
la magnitud de X² expresa el grado de asociación entre las variables de filas y columnas. Al
igual que la normal, las distribuciones χ² son continuas y se caracterizan por un parámetro
llamado grados de libertad, que en el caso de una tabla de 2 × 2 es igual a 1. Las probabilida-
des de que X² supere determinados valores, en ausencia de asociación entre los elementos de
filas y columnas, se hallan tabuladas para distintos grados de libertad. En el Ejemplo 8.2 se
elabora con más detalle el procedimiento de cálculo de X² reseñado hasta aquí.
[ 258 ]
En las filas, los pacientes son clasificados según la presencia de insuficiencia renal cróni-
ca: en la primera aparecen los 66 pacientes que la presentan (grupo 1), divididos en 24 indi-
viduos que fallecen y 42 que sobreviven, y en la segunda aparecen los 404 pacientes que no
exhibieron insuficiencia renal crónica (grupo 2), divididos en 90 individuos que fallecen y 314
que sobreviven. Por otra parte, en las columnas, los pacientes son clasificados por la supervi-
vencia: en la primera columna aparecen los óbitos, y en la segunda los casos que sobreviven.
Las sumas de cada fila y de cada columna forman cuatro totales marginales. La suma de los
totales marginales es igual al “gran total,” que representa a todos los individuos del estudio
y se ubica en el ángulo inferior derecho de la tabla.
Para obtener los casos esperados, hay que calcular cuántos individuos debería haber en
cada celda de la tabla, si se distribuyeran en forma proporcional a los totales de fila y de
columna. Por ejemplo, 66 de los 470 pacientes, o sea 66 / 470 = 0.14 o 14% del total, pre-
sentó insuficiencia renal crónica (y un 86% no la presentó). Si se espera que los 114 óbitos
observados se hayan producido en forma independiente de la presencia de insuficiencia renal,
su número en los grupos 1 y 2 sólo debería depender del tamaño de estos grupos y así, en el
grupo 1 (insuficiencia renal crónica presente) deberían esperarse 0.14 × 114 = 16 óbitos, que
es un 14% del total de óbitos observados, ya que el grupo 1 contiene el 14% del total de los
pacientes del estudio. Esta expectativa corresponde a la hipótesis nula de la prueba, a saber,
que los fallecimientos son independientes de la presencia de insuficiencia renal crónica.
Los 16 óbitos esperados en el grupo 1, corresponden a la celda intersección de la fila Grupo
1 y la columna Obitos.
Como se ha visto, para calcular los casos esperados en la casilla que corresponde a la
intersección de la fila Grupo 1 y la columna Obitos, se hizo (66 / 470) × 114, o sea, (total de
fila Grupo 1 / gran total) × total de columna Obitos. Esto significa que, en general, para la
casilla correspondiente a la fila i y la columna j, se tendrá:
Con este procedimiento se pueden calcular los valores esperados en las restantes celdas.
En realidad, en tablas de 2 × 2 basta con calcular el valor esperado para una celda, y los otros
tres se obtendrán por diferencia con los correspondientes totales marginales. Por ejemplo, si
se esperan 16 óbitos en el grupo 1, en el grupo 2 deberán esperarse necesariamente 114 − 16
= 98 óbitos.
En la Tabla 8.1 pueden verse los valores observados y calculados para el estudio que nos
ocupa. En el grupo 1 (insuficiencia renal crónica presente), se observaron más óbitos que los
esperados, exactamente 24 − 16 = 8 óbitos más. Lo opuesto ocurre en el grupo 2 (insuficien-
cia renal ausente), donde los óbitos observados son menos que los esperados de acuerdo a
la cuantía del grupo. Otro tanto puede discurrirse acerca de los casos en que los pacientes
sobreviven la internación: en el grupo 1 son menos que los esperados, y lo inverso ocurre en
el grupo 2. La diferencia entre observado y esperado es la misma para las cuatro casillas, y
sólo cambia de signo: en dos casillas el signo es positivo y en dos es negativo. En la magnitud
de esta diferencia, que indica cuánto se alejan las proporciones muestrales de las esperadas
bajo la hipótesis nula, se basa la prueba de chi cuadrado.
[ 259 ]
Conviene saber que el hecho de que los valores esperados en este ejemplo sean números
enteros, es casual (en realidad, para fila 1 y columna 1 se esperan exactamente 16.0085 casos,
valor que ha sido redondeado). Al respecto, cuando hay decimales deben ser incluidos en los
cálculos según la precisión deseada (por ejemplo, uno o dos decimales).
La prueba de significación se realiza mediante el estadístico X², definido más arriba
(8.6). Como se ha mencionado, este estadístico sigue una función de probabilidad conocida
como chi-cuadrado y su magnitud aumenta cuanto mayor es la diferencia entre valores
observados y esperados. La distribución se halla tabulada de modo de dar la probabilidad
con que distintos valores de la función son sobrepasados por azar de muestreo. En el caso
particular del arreglo 2 × 2, se dice que chi-cuadrado se halla distribuido con un grado de
libertad.
Los grados de libertad pueden entenderse como el número de celdas en que deben cal-
cularse los casos esperados, para que queden automáticamente determinados, por diferencia
con los marginales, los valores de las demás. Así, se ha hecho notar más arriba que en una
tabla de 2 × 2, basta calcular el valor en una de las celdas para que queden automáticamente
determinados los valores de las otras tres: luego, en estas tablas X² se distribuye con un grado
de libertad.
En la celda determinada por la fila Grupo 1 y la columna Obitos, se han observado 24 casos
y se han calculado 16 casos esperados. Luego, el primer término de la sumatoria en (8.6) es:
Prosiguiendo con las tres celdas restantes, puede comprobarse que en todas ellas la dife-
rencia es igual, en dos con signo positivo y en dos con signo negativo. Los correspondientes
cuadrados son siempre positivos y los cuatro numeradores de la sumatoria de X² son iguales:
X² = ∑ [ (O − E)² / E ]
= [(24 − 16)² / 16] + [(42 − 50)² / 50] + [(90 − 98)² / 98] + [(314− 306)² / 306]
= 64 / 16 + 64 / 50 + 64 / 98 + 64 / 306 = 6.14
El método de las tablas de contingencia se generaliza para más de dos filas y / o colum-
nas, siendo los procedimientos, análogos al caso más frecuentemente utilizado de la tabla
2×2. En todos los casos, los valores esperados para una celda se calculan como en (8.7), mul-
[ 260 ]
tiplicando los marginales de la fila y la columna correspondientes a esa celda, y dividiendo
por el gran total. Deben conservarse las suficientes cifras decimales en los números calcula-
dos, a fin de no disminuir la exactitud de las estimaciones.
El valor de X² se obtiene como indica (8.6). Hay varias fórmulas equivalentes para el
cálculo de X², tendientes a simplificar la aritmética, pero con los recursos actuales para el
cálculo que ofrecen los programas estadísticos, su exposición aparece poco relevante.
Los grados de libertad para las tablas de contingencia se calculan siempre como el pro-
ducto (número de filas − 1) × (número de columnas − 1). Así, una tabla de 3 × 4 tendrá asocia-
dos (3 − 1) × (4 − 1) = 6 grados de libertad. La importancia práctica de los grados de libertad
es que a medida que aumentan, se necesitan mayores valores de X² para alcanzar un mismo
nivel de significación estadística.
Las distribuciones chi-cuadrado funcionan con variables discretas y por lo tanto, nunca
deben emplearse con porcentajes, o sea, después de convertir las observaciones en valores
porcentuales (%), pues éstos no siguen la distribución χ².
Obsérvese que aunque 24 es menor que 90, la probabilidad de p1 es mayor que la de p2 , motivo
por el cual se reduce 24 y se incrementa 90. De esta forma, p1C se reduce y p2C se incrementa,
disminuyendo la diferencia entre ambas, lo que hace más exigente al test de significación. La
diferencia p1C − p2C = 0.132 es ligeramente menor que la obtenida sin la corrección, y permite
calcular z = 2.32, que corresponde a P = 0.02, valores ligeramente inferiores a los obtenidos
[ 261 ]
en el Ejemplo 8.1 sin efectuar la corrección de continuidad. Como se ve, ésta resulta conser-
vadora en el sentido de disminuir el número de resultados significativos en las pruebas.
X² = ∑ [ ( O − E − 0.5 )² / E ] (8.8)
donde las barras significan la diferencia tomada siempre con signo positivo (valor absoluto).
Reemplazando por los datos del ejemplo, se tiene para el primer término:
que resulta así de menor magnitud que sin la corrección, circunstancia en la que es igual a 4.
Procediendo de la misma forma con los tres restantes términos, se obtiene X² = 5.40, que
es menor que el valor 6.14 obtenido sin la corrección y, con un grado de libertad, corresponde
a P = 0.02, resultado igual al obtenido mediante la aproximación normal, al aplicar la correc-
ción de continuidad.
Resulta evidente que la repercusión de la corrección de continuidad en las estimaciones
disminuirá al aumentar n y así, su importancia será menor cuando se trate de muestras gran-
des y sus efectos serán mayores en las muestras pequeñas. Por este motivo se suele aconsejar
emplearla siempre, aunque es un tema discutido y no todos los autores están de acuerdo (ver
Armitage, 1994).
[ 262 ]
(en el ejemplo, durante la duración de la internación). El concepto de un tiempo dentro del cual se
realizan las observaciones es de importancia, como se verá en las Secciones 15 y 16.
Tratándose de una probabilidad, el riesgo puede expresarse como una proporción y tam-
bién como un porcentaje. En el Ejemplo 8.1, el riesgo de muerte en el grupo 1 se estimó como
p1 = 0.364 o 36.4%. Los intervalos de confianza para el riesgo se calculan como los corres-
pondientes a las proporciones que lo estiman.
Ejemplo 8.5.
En el Ejemplo 8.1 se vio que la proporción de óbitos en pacientes con endocarditis infec-
ciosa e insuficiencia renal crónica, que estima el riesgo en el grupo, estuvo dada por
p1 = r1 / n1
= 24 / 66 = 0.364 o 36.4%
El intervalo de confianza del 95% para la estimación se obtiene por aproximación a la distri-
bución normal, tomando z = 1.96. La varianza (4.11) y el error estándar de p son iguales a :
Var (p) = p (1 − p) / n
ES (p) = √ p (1 − p) / n
y los límites de confianza del 95% estarán dados por p ± 1.96 × ES (p).
Con los datos del ejemplo:
Límites de confianza del 95%: 0.364 ± (1.96 × 0.059) = 0.480 y 0.248, o sea 48.0% y
24.8%.
El intervalo de confianza del 95% para la proporción de óbitos observada en la muestra
cuando coexiste insuficiencia renal crónica, se extiende entre 24.8% y 48.0%, y dentro del
mismo es de esperar que se halle la media de población, con el mismo nivel de confianza.
Para comparar el riesgo entre dos grupos diferentes, es posible dividir el riesgo en uno de
ellos por el riesgo en el otro. El cociente se denomina riesgo relativo (RR, relative risk o risk
ratio) y expresa el riesgo del grupo en el numerador, con respecto al grupo en el denominador.
Simbolizando el riesgo con el cociente p = r/n, entre el número de individuos afectados ( r )
y el número total de individuos ( n ) en el correspondiente grupo, el riesgo relativo entre dos
grupos queda expresado por:
RR = (r 1 / n 1 ) / (r 2 / n 2) (8.9)
donde los subíndices identifican los grupos y el RR expresa el riesgo del grupo 1 con
respecto al grupo 2. En el ejemplo, el riesgo de óbito en pacientes con insuficiencia renal
crónica resultó igual a 0.364, mientras que en los pacientes sin insuficiencia renal fue igual
[ 263 ]
a 0.223, con lo que el cociente 0.364 / 0.223 = 1.63, expresa el riesgo relativo de muerte
en los pacientes con insuficiencia renal, respecto de los que no la presentan. Si se invierten
los términos del cociente, se cambia el grupo de referencia, y en el caso que nos ocupa se
obtiene el riesgo relativo del grupo sin insuficiencia renal, con respecto al grupo de los que
la presentan. Su valor está dado por 0.223 / 0.364 = 0.613, que es la inversa de 1.63 y al
ser menor que 1, indica un menor riesgo en los individuos sin insuficiencia renal cuando
se toma como referencia al grupo que la presenta. En el caso en que RR = 1 los dos grupos
comparados presentan el mismo riesgo, concepto que se extiende a todas las estimaciones
del riesgo relativo.
Existen varios métodos para estimar el riesgo relativo, en buena parte originados en las
distintas posibilidades que brindan el tipo de datos y los modelos que se manejan, lo cual se
presta a algunas consideraciones. Por ejemplo, en el seguimiento de dos grupos a lo largo
del tiempo, la medición de la proporción de casos de enfermedad en cada uno de los grupos
al final del estudio, si bien es un modo de obtener una idea acerca del riesgo relativo, pierde
información acerca de lo sucedido durante el tiempo de seguimiento. Así, no es lo mismo un
10% de mortalidad incidiendo gradualmente durante varios años, que ocurriendo mayori-
tariamente en los primeros días o semanas del seguimiento. En el ejemplo de la endocarditis
infecciosa no se ha informado el tiempo de internación hasta el óbito, aunque no son de espe-
rar períodos muy prolongados por tratarse de procesos agudos o subagudos y, en todo caso,
su registro no ha sido un objetivo de los autores del estudio, de modo que las estimaciones del
riesgo y el riesgo relativo se realizaron a partir de las proporciones de eventos en los distintos
grupos durante toda la internación. En tanto, para estudios en los cuales el seguimiento en
el tiempo es una característica relevante, existen métodos apropiados para estimar el riesgo
relativo entre dos o más grupos, diseñados para obtener la mayor información posible de la
distribución temporal de los sucesos y que se comentarán en la Sección 15. Por otra parte,
otro modo muy difundido de estimar el riesgo relativo es mediante la razón de odds u odds
ratio entre los grupos que se comparan. Este procedimiento, que se emplea siempre en los es-
tudios llamados de caso-control y se examinará en Sección 16, presenta ciertas limitaciones
cuando se aplica a otro tipo de datos, como los de la endocarditis infecciosa vistos más arriba,
sobre las que se discutirá brevemente en §16.7 y s.
[ 264 ]
Mejorías Fallas Total Tratamientos
Tratamiento A 6 19 25
Tratamiento B 2 20 22
Total respuestas 8 39 47
Aparentemente hay cierta ventaja con el tratamiento A. Por lo demás, existen otras dos
tablas que mejoran las cosas a favor de A sin modificar los marginales:
7 18 y 8 17
1 21 0 22
con 7 y 8 éxitos respectivamente (compruebe que los marginales son los mismos). No hay
tablas más extremas que la que le adjudica las 8 mejorías al tratamiento A.
Ahora bien, la probabilidad de presentación de cada tabla se puede calcular median-
te técnicas de combinatoria que no examinaremos. La pregunta sobre cuántas veces o con
qué probabilidad se puede obtener la tabla del problema o cualquiera de las otras dos más
“extremas,” se responde simplemente sumando las probabilidades de cada tabla (que son
independientes). Aquí las probabilidades para las tablas con 6, 7 y 8 éxitos a favor de A, si
no hay ninguna influencia de los tratamientos (hipótesis nula) son 0.1301, 0.0336 y 0.0034
respectivamente, disminuyendo a medida que las cuentas se alejan de los valores esperados
en la hipótesis de no asociación (el lector puede comprobar que el valor esperado bajo esta
hipótesis, para mejoría con el tratamiento A, es igual a 4.26). La suma de las probabilidades
arriba calculadas es P = 0.167, que excede el nivel de significación P = 0.05, por lo que la
hipótesis nula no puede rechazarse. Hay un 16% de probabilidades de obtener por azar una
tabla con 6, 7 u 8 éxitos a favor de A.
También se ha propuesto evaluar y sumar la probabilidad de los valores extremos de
la tabla en la otra dirección, esto es, con el tratamiento A en desventaja, con 2, 1 o 0 éxi-
tos. Esto equivale a una prueba a dos colas (véase §6.5.2). Existen aún otras propuestas,
como calcular P en una sola dirección pero exigir un nivel de significación más estricto,
por ejemplo dividiendo P por dos y requiriendo P = 0.025 en lugar de 0.05 como nivel de
significación.
El método exacto de Fisher se obtiene en los programas estadísticos desde el menú para
el análisis de asociación en variable discreta. Por otra parte, debe preferirse al método de
chi-cuadrado cuando el número de casos esperado en alguna casilla sea menor que 5, o
bien cuando el tamaño total de la muestra sea menor que 20. En el primer caso, si bien el
test de chi-cuadrado con corrección de continuidad es adecuado, el hecho de disponerse de
programas para el cálculo estadístico hace preferible el empleo del test exacto.
[ 265 ]
9. Correlación y regresión
9.1. Introducción
Si se miden la talla y el peso de un grupo de personas, se observará que en general los
individuos más altos son los de mayor peso, y los más bajos los de menor peso. Se trata de dos
variables cuantitativas – talla y peso – que se presentan apareadas, cada par proviniendo de
un individuo, y entre las cuales existe un tipo de asociación que puede expresarse diciendo
que “al aumentar la talla tiende a aumentar el peso.” Este tipo de asociación se denomina
positiva. Otras veces, a los valores más altos de una variable corresponden los más bajos de la
otra, como puede ser el caso de la frecuencia cardíaca y la duración de la sístole: cuanto más
alta la primera, menor la duración de la segunda. En estos casos se habla de una asociación
negativa o inversa entre las dos variables. Debe insistirse en que cada par de mediciones pro-
cede de una misma fuente, por ejemplo, cada individuo provee su estatura y su peso, o bien la
frecuencia cardíaca y la duración de la sístole. Además, debe notarse que en vez de expresar
“al aumentar la talla tiende a aumentar el peso” podría decirse “al aumentar el peso tiende a
aumentar la talla,” ya que lo que se está haciendo es describir cómo se asocian las variables,
sin pretender afirmar si una variable determina el valor de la otra. Este tipo de asociación
entre dos variables se suele referir con el nombre de correlación.
El gráfico natural para este tipo de datos es el diagrama de dispersión (scatterplot)
representado en la figura 9.1. Consiste en un par de ejes cartesianos, uno horizontal, co-
múnmente llamado eje de abscisas o eje de las x, y otro vertical, eje de ordenadas o eje de las
y. A cada una de las dos variables correlacionadas se les adjudica un eje y de esta manera,
a cada par de datos xi e yi , le corresponde un punto de la gráfica, con coordenadas xi , yi.
En la figura 9.1. A, están representados los puntos correspondientes a la talla y peso de un
grupo de adultos de ambos sexos. Observando un punto, que representa a un individuo,
se pueden obtener la talla y el peso proyectándolo en forma perpendicular sobre cada uno
de los dos ejes, en donde se leen los correspondientes valores. En este ejemplo y en forma
arbitraria, se adjudicaron el eje de abscisas a la talla y el de ordenadas al peso. El hecho de
que ambas variables tiendan a crecer o decrecer conjuntamente, se evidencia en la dirección
de la “nube” de puntos que las representa, que se orienta hacia la derecha y arriba. Como se
mencionó, este tipo de correlación se llama positiva, y si los puntos se representan por una
recta que pase a través de ellos, ésta tendrá pendiente positiva. Desde ya se puede adelantar
que si la relación entre las variables fuera “perfecta” (y lineal), los puntos estarían sobre
[ 266 ]
una recta. Este no es el caso de la figura, donde forman una nube alargada que sigue una
dirección más o menos lineal.
En la figura 9.1.B, se hallan representados la frecuencia cardíaca y la duración del período
eyectivo del ventrículo izquierdo medida en milisegundos, en una muestra de 100 individuos
adultos de ambos sexos. En este caso se observa que cuanto mayor es la frecuencia cardíaca
el período eyectivo tiende a ser más breve. Este tipo de correlación, donde una variable tiende
a disminuir cuando la otra aumenta, se llama negativa o inversa, y si los puntos de la gráfica
se representaran por una recta, ésta se orientaría hacia la derecha y abajo, exhibiendo una
pendiente negativa.
Figura 9.1. Gráficos de dispersión. A: correlación positiva entre talla y peso en 255 individuos
adultos de ambos sexos. B: correlación negativa entre frecuencia cardíaca y período eyectivo
en 100 adultos de ambos sexos sin enfermedad cardíaca.
Lo visto es el aspecto gráfico de la relación entre dos variables. ¿Cómo se puede medir
el grado de intensidad o fuerza de la asociación? Corrientemente se emplea un estadístico
muestral conocido como coeficiente de correlación, que se suele simbolizar con la letra r y
cuyo valor absoluto puede oscilar entre 0 (en cuyo caso hay ausencia total de correlación y
los puntos de la gráfica forman una nube sin dirección alguna) y 1 (en cuyo caso los puntos
se hallan perfectamente alineados sobre una misma recta). En los casos intermedios los
puntos tienden a agruparse en forma que sugieren la relación que hay entre ellos, y cuanto
[ 267 ]
más se aproxima el coeficiente de correlación a la unidad, más se aproximan los puntos
a una línea que representa la dirección general del conjunto. El coeficiente de correlación
puede tener signo positivo o negativo, indicando si la asociación entre las variables es posi-
tiva o negativa, en el sentido ya mencionado. Así, para un determinado valor absoluto de r,
el cambio de signo sólo cambia la inclinación de los puntos, como si la gráfica se reflejara
en un espejo.
Puede tenerse una idea del significado del coeficiente de correlación observando las dis-
persiones de la figura 9.1.A, donde r = 0.71 (correlación positiva) y 9.1.B, donde r = − 0.92
(correlación negativa o inversa). Puede apreciarse que los puntos se hallan más estrechamente
alineados en la segunda gráfica, lo que se debe al valor más alto de r, mientras que el signo de
la correlación expresa la dirección general de los puntos, “ascendiendo” o “descendiendo”
hacia la derecha del gráfico.
Dejando momentáneamente el tema de la correlación y considerando un caso donde los
puntos muestrales se hallen dispersos a lo largo de un trayecto indicando una cierta dirección
general, puede determinarse una recta que juega un rol análogo al de la media muestral, al
representar y resumir la posición de los puntos muestrales. Una recta tal tiene la siguiente
propiedad: si se miden verticalmente las distancias de cada punto a la recta y se las eleva al
cuadrado, la suma de todos los cuadrados es la mínima que se puede lograr para ese con-
junto de puntos. Esto quiere decir que entre todas las rectas que se pueden hacer pasar por
los puntos, hay una que hace de la suma de los cuadrados lo que matemáticamente se conoce
como un mínimo. Cualquier cambio subsiguiente en la altura o en la inclinación de la recta,
por pequeño que sea, tendería a “desmejorar” el ajuste, aumentando la suma de las distancias
al cuadrado.* La recta que corresponde a la sumatoria mínima se llama recta de regresión y
está dada por una ecuación lineal, ecuación de regresión, cuya forma general es y = a + bx.
La ecuación de esta recta de regresión se obtiene a partir de los datos muestrales mediante
procedimientos de cálculo sobre cuya rutina se dará luego una breve reseña ilustrativa. Sin
embargo, el cálculo de esas ecuaciones figura en el menú de los programas de estadística, de
modo que lo que debe procurarse comprender son los conceptos básicos que justifican la uti-
lidad de la correlación y la regresión en el campo de la investigación médica, ya que el cálculo
numérico se obtiene fácilmente con solo introducir los pares de datos muestrales en dichos
programas.
La función lineal
Si en la ecuación y = a + bx las letras a y b se reemplazan por números fijos o constantes
y entonces se procede a dar valores arbitrarios a la x, para cada x la y toma un valor obliga-
torio. Se dice entonces que y es función de x, que x es la variable independiente (toma los
valores que se elijan), y que y es la variable dependiente (sus valores están determinados por
los de x). Las ecuaciones con la forma y = a + bx corresponden siempre a líneas rectas, y esta
es la forma de las ecuaciones de regresión lineal.
Las letras a y b son constantes en cada ecuación y se denominan parámetros. La letra
* Aquí ocurre algo similar a lo ya visto respecto del cálculo de la varianza muestral (§2.5.2): si las distancias de los
puntos a la recta se toman con su signo según éstos se hallen por encima o por debajo de la recta, la suma se cancela
y no se obtienen operadores útiles. En tanto, las distancias elevadas al cuadrado son siempre positivas y los estadísticos
resultantes demuestran tener numerosas aplicaciones teóricas y prácticas.
[ 268 ]
a corresponde al valor que toma y cuando x = 0, o sea al punto en que la recta cruza el eje
vertical o eje de las y. Por este motivo representa el valor de la ordenada ( y ) en el origen de
las x (x = 0) y se denomina ordenada al origen.
En tanto, b multiplica a la variable independiente x, y el producto contribuye al valor de
y. Por lo tanto, si x se incrementa en una unidad, el incremento de y será igual a b (al hacer
x = x + 1 el producto bx pasa a valer b (x + 1) = bx + b, con lo que bx aumenta b unidades).
Dicho de otra forma, b expresa el crecimiento de la función y = a + bx cada vez que x aumenta
en una unidad. Cuanto más grande sea el valor de b, más rápidamente crecerá la función y
mayor será la inclinación de la recta que la representa.
En la figura 9.2 se observa cómo a un incremento Δx de la variable independiente corres-
ponde un incremento Δy de la función. El cociente Δy / Δx es la tangente trigonométrica de
la recta que representa y = a + bx, y se observa que si Δx = 1, de acuerdo a lo visto arriba, Δy
debe ser igual a b. Por este motivo b se denomina pendiente de la función y corresponde a la
inclinación de la recta que la representa.
Qué ocurre cuando b tiene signo negativo? Como se comprende, a cada incremento de
x le corresponderá un producto −bx con signo negativo, con lo que el valor de la función y
disminuye y la recta que la representa se inclina hacia la derecha y abajo. En este caso las
variables x e y se hallan correlacionadas negativamente y la recta correspondiente presenta
pendiente negativa, igual a −b.
Bastan las constantes a y b para determinar una recta única, y cada recta está completa-
mente caracterizada por esos dos parámetros.
[ 269 ]
intercambiar ejes y calcular la regresión de x en y, siendo la ecuación de la nueva recta en ge-
neral diferente a la anterior, ya que las distancias minimizadas se toman ahora a lo largo del
eje horizontal. Sin embargo, corrientemente se trabaja con la regresión de y en x, a la cual se
refiere esta reseña. En algunas oportunidades, x suele ser referida como variable predictora
o covariable.
La pendiente de la recta, b, toma el nombre de coeficiente de regresión e informa el signo
y magnitud de la relación entre x e y.
Tabla 9.1
x– = ∑ x / n = 15 / 5 = 3 y– = ∑ y / n = 25 / 5 = 5
∑ (x − x–)² = 10 ∑ (y − y–)² = 22 ∑ (x − x–) × (y − y–) = 14
b = 14 / 10 = 1.4
que expresa que la y crece a razón de 1.4 unidades por cada unidad en que lo hace x (Fig. 9.2).
[ 270 ]
Figura 9.2. Recta de regresión correspondiente a la ecuación y = 0.8 + 1.4 x. El cociente de
los incrementos Δy / Δx de las respectivas variables, es igual a la pendiente b de la recta. Se
observa el valor de la función al origen, cuando x = 0. Las distancias de los puntos a la recta
( d ), se miden a lo largo del eje vertical.
Las medias de x e y determinan un punto que siempre se halla sobre la recta de regresión (en
este caso x = 3, y = 5). Aprovechando esto, una vez obtenido el coeficiente de regresión b, solo
queda calcular la ordenada al origen, a, para tener la ecuación de regresión completa. Siendo y
= a + bx, pueden reemplazarse la x y la y por sus valores medios x– = 3, y– = 5 obteniéndose:
5 = a + 1.4 × 3
= a + 4.2
de donde
a = 5 − 4.2
= 0.8
y = 0.8 + 1.4 x
[ 271 ]
gráficos de dispersión se observa que los puntos se distribuyen en el entorno de recta y en
general queda una distancia entre cada punto y la misma (Fig. 9.2, d). Ahora bien, estando
las variables relacionadas entre sí, se observa que en promedio, las distancias de los puntos
a la recta son menores que las distancias de los puntos a la media de y. Es decir, las y están
más concentradas alrededor de la recta que alrededor de su media y– . Esta reducción de la
incertidumbre es una de las características fundamentales de la regresión y se dice que parte
de la variabilidad de la variable dependiente y queda “explicada” por la regresión, o que la
regresión “da cuenta” de cierta cantidad de variación. La variabilidad que persiste alrededor
de la recta se denomina residual.
En la figura 9.3 referente a la talla y el peso en 255 adultos sanos, se observa que el rango
de dispersión del peso alrededor de su media, leído sobre el eje y, aún después de excluir un
valor extremo de 128 kg, se extiende entre 40 a 114 kg. En tanto, la dispersión de los puntos
por arriba y debajo de la recta, o sea las distancias de los puntos a la recta, son en promedio
claramente menores, lo que ya es aparente a la inspección visual del diagrama. Esta carac-
terística esencial de la regresión se verá con algún detalle luego de examinar el tema de la
correlación (§9.3).
Figura 9.3. Regresión del peso en la talla en 255 individuos adultos de ambos sexos. La su-
matoria de los cuadrados de las distancias de los puntos a la recta es un mínimo. La flecha
grande representa la dispersión del peso alrededor de la media, y la flecha menor, la disper-
sión alrededor de la recta de regresión.
que expresa que por cada centímetro de estatura el peso varía en promedio 1.144 kg en la
población muestreada.
Nótese que el valor de la ordenada al origen es igual a −117, lo que significa que el peso
esperado en el caso de una talla próxima a cero tendría valor negativo. La explicación es
[ 272 ]
que la recta ha sido calculada dentro de rangos de talla y peso muy diferentes, y la variable
peso sencillamente no existe para talla cero. Otro resultado de extender la operación de la
recta más allá de los límites permitidos por el rango de las variables de origen, es que para
un individuo de 1.10 m de estatura estima un peso de 9 kg. Evidentemente, la ecuación no es
adecuada para su empleo en niños o en adultos con valores extremos en sus características
corporales). Tampoco existe la posibilidad de que la frecuencia cardíaca de un individuo to-
me el valor cero, aunque la ecuación de regresión proporciona para el caso un período eyecti-
vo muy prolongado. Estos resultados pueden ocurrir cuando funciones teóricas se extienden
indefinidamente más allá de la existencia física de las variables y de los límites para los que
han sido calculadas. Así, aceptar que las variables se comportan como lo predice la recta de
regresión aún más allá de dichos límites, lo que se conoce como extrapolación de las estima-
ciones o de las conclusiones, es un procedimiento al menos inseguro cuando no erróneo, que
en general debe evitarse.
t = b / ES ( b ) (9.2)
[ 273 ]
do y suman, son las que existen entre los puntos muestrales y la recta. En el ejemplo visto
antes e ilustrado en figura 9.2, cinco puntos muestrales producían la ecuación y = 0.8 + 1.4
x. Para obtener las desviaciones mencionadas, se calcula el valor Y de la recta (Y recta) para
cada x de la muestra:
Tabla 9.2
Para cada punto muestral, la diferencia entre el valor de y observado (“real”) y el valor de y
que da la recta para el correspondiente valor de x (“Y recta”), se eleva al cuadrado y, sumando
en la última columna se obtiene la suma de cuadrados residual, que dividida por (n − 2) es un
término que equivale a la varianza alrededor de la recta y se denomina cuadrado medio resi-
dual. El término residual expresa que el grado de dispersión vertical alrededor de la recta que
miden estos operadores es un “residuo” de variabilidad que persiste una vez que la regresión ha
reducido la variabilidad de las y alrededor de su media y–. El procedimiento es como sigue:
y es el denominador de t en (9.2).
[ 274 ]
En el ejemplo se tiene:
Suma de cuadrados residual = 2.40
S² 0 = 2.40 / (5 − 2) = 0.8
var (b) = 0.8 / 10 = 0.08
ES (b) = √ 0.08 = 0.2828
t = 1.4 / 0.2828
= 4.95
9.3 Correlación
Se ha mencionado que el coeficiente de correlación, simbolizado r, mide el grado de
asociación entre dos variables y se aproxima a 1 o −1 a medida que los puntos muestrales del
diagrama de dispersión tienden a presentarse sobre una línea recta. Se ha mencionado tam-
bién que el signo positivo corresponde al caso en que las variables crecen juntas y el negativo
al caso en que una variable crece cuando la otra decrece. En el caso en que no exista ningún
grado de correlación entre las variables el coeficiente de correlación toma el valor cero. Por lo
tanto, el coeficiente de correlación podrá hallarse entre −1 y 1.
Como no ha de extrañar, por describir la interrelación entre dos variables, el coeficiente
de correlación está emparentado con el coeficiente de regresión, y para una muestra cualquie-
ra, evaluar la significación estadística de b o r frente a la hipótesis nula, tiene los mismos
resultados. Sin embargo, mientras b informa la posición y modo de relacionarse las variables,
y es útil para describir los valores esperados de la variable dependiente al asignar valores a la
variable independiente, el coeficiente de correlación sólo indica la magnitud de la tendencia
de los puntos muestrales a disponerse sobre una línea recta.
[ 275 ]
La significación estadística de r se halla tabulada para distintas r y para distintos tama-
ños de muestra. Para una muestra de tamaño 5, el nivel de significación de r = 0.944 es P =
0.0158, idéntica a la significación de b, como ya se ha mencionado.
No se abundará con el procedimiento de cálculo de P, que se obtiene en forma inmediata
en los programas de estadística y ya se ha dicho que es equivalente a la P obtenida en la eva-
luación del coeficiente de regresión b, pero sí se mencionará que para un mismo valor de r, la
significación será mayor al aumentar el tamaño de la muestra (número de pares muestrales)
y para un mismo tamaño de muestra, la significación aumentará al aumentar el valor de r.
Esto es, la significación estadística de r frente a la hipótesis nula de no correlación, aumenta
exclusivamente con el valor de r y con el tamaño de la muestra.
[ 276 ]
comparada con la variabilidad de y sin regresión (igual a 22), y con la variabilidad explicada
por la regresión (igual a 19.6).
Se demuestra que el coeficiente de determinación r² es igual a la proporción de la varia-
bilidad total de la y, explicada por la regresión. En términos de suma de cuadrados:
r ² = 19.60 / 22
= 0.891
[ 277 ]
a cabo el experimento, el individuo con talla de 180 cm podría por azar exhibir un peso cercano a
72 kg y perderse la apuesta. Esto puede ocurrir porque los valores que proporciona la recta son so-
lamente los más probables, y existe una dispersión residual alrededor de la misma, no eliminada
(explicada) por la regresión. Por este motivo podrían llegar a perderse algunas apuestas, pero en el
largo plazo, si se repitieran un cierto número de veces, se comprobaría que en promedio, los pesos
reales se acercan más a los pesos estimados a partir de la talla que a la media muestral, y esto es
así porque los pesos reales están en promedio más próximos a la recta que a su media muestral.
Muy generalmente, puede decirse que correlaciones que van entre r = 0.50 y r = 0.70 son
consideradas buenas. Sin embargo, el valor de un coeficiente de correlación no sólo descansa
en su magnitud sino también, en lo adecuado que resulta para la explicación de los fenóme-
nos estudiados y en las necesidades del estudio (ver más adelante). Por otra parte, a una corre-
lación como la recién vista entre la talla y el peso corporal, con r = 0.71, corresponde r² = 0.50
y la dispersión original sólo se reduce un 50%. Queda una proporción similar de variabilidad
en la suma de cuadrados residual. No obstante, la significación estadística de r = 0.71 en una
muestra de 255 individuos como la del ejemplo, tiene una P < 0.00001. Recuérdese que esta P
es la misma que para la prueba del coeficiente de regresión b, y en cualquier caso significa que
una relación tal como se dio en la muestra y se observa en la figura 9.3, se obtendría por azar
en una muestra no correlacionada, en menos de 1 en 100000 veces. Como se ha mencionado,
la significación estadística de un coeficiente de correlación depende en gran parte del número
de casos en las muestras y así, pueden obtenerse coeficientes altamente significativos aún con
valores absolutos relativamente bajos, por lo que la importancia del grado de correlación no
debiera confundirse con la significación estadística del respectivo coeficiente.
[ 278 ]
un aumento de la pendiente de regresión señala una mayor tasa de cambio de la variable depen-
diente por cada aumento unitario de la variable independiente. Un punto de la mayor impor-
tancia relacionado con la interpretación de la asociación entre dos variables, es el relativo a las
posibles vinculaciones causales entre los fenómenos descriptos por aquéllas. En este sentido, el
hallazgo de regresión entre dos variables está lejos de asegurar que una sea la causa de la otra.
De cualquier manera, el modelo matemático de la regresión no es una herramienta destinada a
detectar causas, sino a establecer el modo de asociación entre variables de acuerdo a modelos
estadísticos. En algunos casos la relación causal puede ser más o menos evidente, como la posible
relación entre concentración de antibiótico y área de inhibición del crecimiento bacteriano, y la
interpretación se basa en conocimientos médicos y no en indicios provenientes de los datos de la
regresión. Más aún, la tendencia a relacionar causalmente dos variables no queda definitivamen-
te convalidada por el solo hallazgo de asociación estadística, ya que ésta puede deberse a otras
asociaciones interpuestas, cuya detección es un tema adicional. Por ejemplo, si bien es de esperar
encontrar correlación positiva entre las cifras de urea y creatinina plasmática, no parecería ló-
gico atribuir a una de ellas el aumento de la otra, siendo lo más plausible que ambas sustancias
varíen en el mismo sentido de acuerdo a la función renal. En resumen, debe quedar claro que
asociación estadística no implica causalidad, aunque por cierto no la excluye, y las relaciones de
causa-efecto entre dos variables tenderán a producir asociación entre las mismas. La asociación
entre dos variables es un hecho de demostración estadística, mientras que atribuir un mecanismo
de causa-efecto a la asociación demostrada es un producto del juicio del investigador, basado en
sus conocimientos del tema y la información previa disponible.
[ 279 ]
y) depende marcadamente de la frecuencia cardíaca (variable independiente o covariable, x) y
que la relación es inversa, de modo que cuando aumenta la frecuencia cardíaca disminuye el
período eyectivo. También puede verse que el grupo “Ο” presenta frecuencia cardíaca prome-
dio más alta que el grupo “∗.” Además, el período eyectivo es significativamente más corto en
el grupo con frecuencia cardiaca alta (276 mseg versus 307 mseg, P < 0.0001). La diferencia
en la duración del período eyectivo sin duda existe, y es significativa, pero ¿expresa algún
trastorno de la función cardíaca o simplemente se debe a que el grupo con período eyectivo
más corto tiene frecuencia cardíaca más alta? Tratar de igualar la frecuencia cardíaca de los
pacientes en los dos grupos antes de medir el período eyectivo sería una solución perfecta,
pero como en la mayoría de los casos, difícil o imposible en la práctica. En tanto, la esta-
dística proporciona un método ingenioso y efectivo para “cancelar” el efecto de la diferente
frecuencia cardíaca sobre las mediciones del período eyectivo.
Muy sumariamente, el método consiste “correr” los puntos a lo largo de la recta de
regresión, moviendo el grupo con frecuencia cardíaca alta hacia la izquierda y el grupo con
frecuencia cardíaca baja hacia la derecha, hasta “superponer” las frecuencias cardíacas. En-
tonces se observan los puntos en su nueva posición y la pregunta es: ¿todavía están los perío-
dos eyectivos del grupo “alta frecuencia” por debajo de los del otro grupo? Si la diferencia
ha desaparecido y el período eyectivo resulta similar en ambos grupos, será evidente que la
diferencia que existía antes de la maniobra se debía a las distintas frecuencias cardíacas y se
informará: “la diferencia entre los períodos eyectivos … desaparece luego del ajuste (o la
corrección) para la frecuencia cardíaca.” En cambio, si después de haber hecho “coincidir”
las frecuencias cardíacas de los dos grupos el período eyectivo sigue siendo menor en el grupo
con frecuencia cardíaca originariamente más alta, resulta evidente que la mayor frecuencia
cardíaca no alcanza para “explicar” la menor duración del período eyectivo en este grupo y
hay que admitir que puede haber otros motivos para que esto ocurra, quizá un deterioro de
la función ventricular. El informe debe decir que “la diferencia entre los períodos eyectivos
… persiste luego del ajuste (o la corrección) para la frecuencia cardíaca.”
Figura 9.4. Ajuste de la duración del período eyectivo ventricular izquierdo para la frecuencia
cardíaca en dos grupos cuyos integrantes se denotan con ∗ y Ο. Se observan las medias de la
frecuencia cardíaca y del período eyectivo para cada grupo.
[ 280 ]
Si bien el deslizamiento de los puntos a lo largo de la recta puede imaginarse sin mucha
dificultad y la inspección visual del gráfico es muy útil, el análisis se realiza por medio de téc-
nicas matemáticas. Nuevamente conviene recordar que el procedimiento está disponible en la
mayoría de los paquetes estadísticos bajo los títulos “comparación de las rectas” o “análisis
de la covarianza.”
Se mencionarán algunos detalles de la prueba. Primero conviene obtener una recta de
regresión para cada grupo y comprobar que las pendientes no sean muy diferentes: en caso
contrario, la relación funcional entre eyectivo y frecuencia cardíaca será distinta para cada
grupo y el “ajuste” para la frecuencia cardíaca no será seguro. Si en cambio las pendientes
son similares, se reúnen ambas regresiones en una sola y se evalúa si los puntos de un grupo
están más altos o bajos que los del otro, con respecto de la recta de regresión común. La
eventual diferencia en la altura de las y para cada grupo, dará la pauta de diferencias entre
grupos “corregidas o ajustadas” para la frecuencia cardíaca. Esto es lo que se ha hecho en la
Figura 9.4: se ha trazado la recta común para ambos grupos y resulta claro que los respectivos
puntos no difieren en su altura con respecto a la recta, y se superpondrían si se los deslizara
a lo largo de la misma. En la comparación de diversas variables, el ajuste para factores que
pueden afectarlas y dificultar la interpretación de los resultados es uno de los recursos más
útiles del análisis estadístico.
[ 281 ]
10. Análisis de la varianza
10.1. Introducción
El análisis de la varianza comprende un conjunto de técnicas entre cuyas principales apli-
caciones está la comparación de medias muestrales en los casos en que los datos se hallan
clasificados en más de dos formas o grupos. En este sentido, las técnicas conocidas como de
análisis de la varianza constituyen extensiones de los procedimientos para la comparación de
pares de muestras vistos en secciones anteriores. Aquí se expondrán los conceptos básicos en
los que dichas técnicas se fundamentan. Así como existen muchas formas de obtener y disponer
los datos de los diversos tipos de estudio, hay también un gran número de modelos para su aná-
lisis. Sin embargo, debe tenerse en cuenta que los lineamientos generales para la comparación
de medias, contraste de hipótesis, interpretación de los estadísticos de prueba y de los niveles
de significación obtenidos, son los ya vistos en las Secciones 6 y siguientes. En el análisis de la
varianza, lo que aumenta es el número de hipótesis y pruebas que se evalúan simultáneamente
en un mismo conjunto de datos y por lo tanto, la complejidad de los procedimientos y de los
cálculos numéricos, que en general requieren de programas para su computación.
Como se verá, estas técnicas analizan la variabilidad de los datos separándola según sus
fuentes de origen, que son la variabilidad de los individuos dentro de cada grupo, y la varia-
bilidad entre los distintos grupos en los que se clasifican los datos. La variabilidad entre los
grupos se expresa por la variabilidad entre sus medias, y si ésta es mayor que la observada
entre los individuos que los integran, se puede concluir que deben existir diferencias entre las
medias de los grupos estudiados. La variabilidad se evalúa mediante varianzas obtenidas de
las muestras, y de ahí el nombre de este conjunto de procedimientos, que a pesar del mismo
están dedicados a la comparación de medias.
Por lo demás, el análisis de la varianza, al permitir la comparación de cada una de tres
o más medias muestrales con todas las demás, da origen a comparaciones múltiples, que
aumentan las posibilidades de análisis y a la vez implican limitaciones que deben tenerse en
cuenta al interpretar los resultados. Este tema se comentará con algún detalle en §10.3.
[ 282 ]
μ y varianza σ² (en principio no conocidas), siendo k el número de muestras o grupos. Estos
pueden diferir, entre otras cosas, en el valor de sus medias, y son esas diferencias las que
suelen ser de interés para el investigador, ya que pueden reflejar características distintivas del
material en estudio, incluyendo el efecto de intervenciones experimentales o terapéuticas. El
término factor expresa que la variable analizada se halla controlada por el experimentador.
Así, la glucemia puede ser obtenida en ayunas y en varios tiempos determinados luego de una
ingesta, o en grupos de diabéticos con distintos hipoglucemiantes, el peso corporal puede ser
controlado en grupos de individuos con distintos regímenes terapéuticos y, en general, puede
decirse que el factor o variable presenta diferentes niveles. Cada nivel de un factor, como
puede ser la glucemia con un determinado hipoglucemiante o el peso con un determinado
régimen terapéutico, se denomina genéricamente tratamiento, que no necesariamente debe
ser un tratamiento médico sino que es el nivel o clase en que se ha tomado la variable en un
grupo en particular. En consecuencia, el término tratamiento tiene aquí una acepción más
amplia que la corrientemente utilizada en medicina. Dado que el modelo considera una sola
fuente de variabilidad (la variable o factor en estudio), este tipo de análisis de la varianza se
conoce también como de “una ruta” (one-way analysis).
Como se ha dicho, el objetivo principal del análisis de un factor suele ser detectar diferencias
significativas entre las medias muestrales x–1, x–2 , x–3 , … x– k, de varios grupos, correspondientes a
distintos tratamientos o niveles del factor. Este método puede verse como una generalización
del test t de Student para muestras no apareadas (§7.2). Aunque este es el modelo más sencillo
dentro del grupo de técnicas para el análisis de la varianza, las operaciones numéricas son más
extensas que las reseñadas hasta ahora para comparaciones de pares de muestras y no se entra-
rá en mayores detalles de cálculo, ya que los programas estadísticos llevan a cabo el análisis a
partir de menús de manejo sencillo y, por otra parte, se trata de procedimientos de inferencia
estadística cuyos aspectos principales han sido ya examinados en secciones anteriores.
A continuación se dan los conceptos básicos en los que se fundamenta el análisis de la
varianza para la comparación de medias muestrales de una variable distribuida en varios
grupos con distintos tratamientos. Considérese una variable continua x, como puede ser el
peso corporal o cualquier otra, medida en k grupos de tamaño ni donde cada grupo tiene su
media muestral x– i. Como en la comparación de pares, interesa la comparación de las medias
entre sí, para determinar si existen diferencias significativas entre ellas. Puede verse que con
tres medias las comparaciones posibles son x–1 versus x–2 , x–1 versus x–3 y x–2 versus x–3. Con cuatro
grupos las posibles comparaciones ya son seis y siguen aumentando con el número de éstos.
Para realizar el análisis, los grupos pueden disponerse en columnas de datos como se
observa en la tabla del Ejemplo 10. Dichos datos pueden considerarse sujetos a la variabi-
lidad común a todos los individuos que forman los grupos en estudio, y a la variabilidad
debida a posibles diferencias entre las medias de los grupos. Es decir, el modelo de análisis
acepta que los grupos proceden de un universo con varianza σ² común a todos ellos, y que
por lo tanto, sus varianzas muestrales s² serán estimadores adecuados (técnicamente, in-
sesgados) de dicha varianza universal. Ahora bien, si los distintos grupos difieren en sus
medias, esas diferencias añadirán una fuente extra de variabilidad a los datos. Esta nueva
fuente de variabilidad puede separarse por métodos de cálculo, de la variabilidad común a
todos los grupos, y si es de suficiente magnitud obligará a descartar la igualdad de las me-
[ 283 ]
dias grupales y a aceptar la existencia de diferencias significativas entre ellas, que podrán
adjudicarse a diferencias entre los grupos en relación a sus distintos niveles o tratamientos.
De esta manera, la variabilidad total de los datos puede descomponerse en la variabilidad
dentro de los grupos y la variabilidad entre los grupos. Esta última se calcula a partir de
las medias muestrales x– i , mientras que la variabilidad dentro de los grupos se estima como
el agregado de la variabilidad en cada uno de éstos. La variabilidad dentro de cada grupo
se calcula con respecto a la media del mismo, con lo que la eventual variación entre las me-
dias no tiene influencia en esta estimación. En el caso de existir diferencias entre las medias
de los grupos, sus medias muestrales x– i presentarán un grado mayor variabilidad que el
esperado por efectos del azar, y la variabilidad entre los grupos agrandará la variabilidad
total s² de los grupos considerados en su conjunto, sin afectar la variabilidad dentro de los
grupos (o sea, sin afectar la variabilidad dentro de cada uno de los grupos). Así, la razón
entre la variabilidad entre los grupos y dentro de los grupos se agrandará, dando idea de
las diferencias existentes entre las medias.
La variabilidad total del conjunto de datos se calcula a partir de las desviaciones de cada
elemento de cada grupo, de la media común para todos los grupos, y es en realidad la varian-
za muestral de todos los grupos reunidos en uno solo. Se puede luego calcular la variabilidad
entre los grupos (entre las medias de los grupos) y restándola de la variabilidad total, obtener
la variabilidad dentro de los grupos. Como ya se ha dicho, si la variabilidad entre los grupos,
en comparación con la variabilidad dentro de los grupos, excede determinados valores, se
está en condiciones de afirmar que existen diferencias significativas entre las medias de los
distintos grupos en estudio, no explicables por las fluctuaciones del azar. La comprobación
de tales diferencias es el objeto principal de este modelo de análisis de la varianza.
En todas estas técnicas, la variabilidad se mide como sumas de cuadrados (esto es, des-
viaciones de la media elevadas al cuadrado, como las que forman el numerador de las varian-
zas, §2.5.2). Se cumple que:
Suma de cuadrados total = suma de cuadrados entre los grupos + suma de cuadrados dentro
de los grupos.
Cada suma tiene asociada cierta cantidad de grados de libertad en relación al número y
forma de agrupación de los datos y, dividiendo las sumas por sus respectivos grados de liber-
tad se obtienen los llamados cuadrados medios, que en realidad son varianzas (el cuadrado
medio total es la varianza muestral de todos los casos, tal como se calcula en §2.5.2). En un
modelo con k grupos de n elementos cada uno, donde n × k = N es el número total de datos,
los grados de libertad dentro de los grupos se calculan como N − k, y los grados de libertad
entre grupos, como k − 1.
Aquí aparece el punto más importante de toda la técnica: debido al diseño del análisis,
si no hay fuentes de variabilidad extra entre los grupos (diferencias entre las medias), el cua-
drado medio entre grupos (s² entre) y el cuadrado medio dentro de los grupos (s² dentro)
estimarán una misma varianza de población σ² y no serán muy diferentes entre sí. Pero si hay
fuentes de variabilidad que afecten a los grupos y sus medias, el cuadrado medio entre gru-
pos aumentará con respecto al cuadrado medio dentro de los grupos, que se mantendrá sin
cambios como un estimador de σ², con lo cual la razón (s² entre) / (s² dentro) se incrementará
en mayor o menor grado. El cociente de varianzas
[ 284 ]
(s² entre) / (s² dentro) = F (10.1)
sigue la llamada distribución F, que se halla tabulada según los grados de libertad del nume-
rador y del denominador, proporcionando la probabilidad P de que un valor F sea excedido
por error de muestreo en el caso en que las varianzas entre y dentro de los grupos estimen la
misma magnitud σ².
La hipótesis nula es que las distintas medias muestrales x– i no difieren significativamen-
te entre sí y que las diferencias observadas entre medias se deben al azar del muestreo.
El cociente se forma siempre con el mayor s² en el numerador, de modo que F nunca es
menor que 1. El caso que interesa es aquel en que el mayor cuadrado medio es s² entre, se-
ñalando una posible diferencia significativa entre las medias. Los grados de libertad de los
cuadrados medios se calculan como se expuso más arriba, y mediante los mismos se busca en
las tablas de F la probabilidad asociada con el valor muestral hallado en el análisis. Lo visto
hasta aquí se ilustrará con un ejemplo para aclarar ciertos aspectos de interés del procedi-
miento, dejando a un programa de estadística la tarea realizar los cálculos numéricos.
A fin de simplificar los conceptos en todo lo posible, se da una tabla con el peso en kilo-
gramos de tres grupos de adultos del sexo masculino con diferentes condiciones clínicas. Los
grupos se rotulan A, B y C. Cada grupo consta de 10 individuos. Sus medias figuran en la
última fila.
[ 285 ]
y dentro de los grupos suman el total de cuadrados. Dividiendo las sumas de cuadrados por
sus respectivos grados de libertad, se obtienen los cuadrados medios, que son las varianzas
entre y dentro de los grupos. El cociente entre los cuadrados medios entre y dentro de los
grupos, 1392.4 / 134 es igual a 10.39, que es el valor muestral del estadístico F. Este es el
estadístico de prueba de la hipótesis nula de igualdad de medias grupales.
Según tabla, para 2 y 27 grados de libertad, la probabilidad asociada con F igual o ma-
yor que 10.39 es P = 0.0004. El cuadrado medio entre los tres grupos es significativamente
mayor que el cuadrado medio dentro de los grupos, con lo que se descarta la hipótesis nula
de varianzas iguales, y dado que el cuadrado medio entre grupos representa la variabilidad
entre las medias muestrales, se debe descartar la hipótesis nula de medias muestrales igua-
les. Se acepta automáticamente la hipótesis alternativa de diferencias entre las muestras, en
particular entre sus medias. Surge entonces el problema de averiguar entre qué muestras, A,
B, y C, se encuentran las diferencias significativas entre las medias. Como se comprenderá,
las diferencias significativas podrían darse entre cada una de las medias o bien sólo entre
algunas de ellas. Las tres posibles comparaciones son A y B, A y C, B y C. En estos casos se
habla de comparaciones múltiples, y la diferencia hallada más arriba puede radicar en mayor
o menor grado en los diferentes pares de muestras pasibles de ser comparados. Existen varios
procedimientos adecuados, que pueden obtenerse en forma inmediata de los programas de
análisis estadístico y detectan los pares de medias entre los que las diferencias pueden ser
consideradas significativas, proporcionando asimismo su nivel P de significación. Pero antes
de enumerar los más empleados se comentará el tema más general de las comparaciones repe-
tidas o múltiples en estadística.
[ 286 ]
Si bien restringir las comparaciones a los grupos de interés ayuda a minimizar el pro-
blema, la solución no es completa y cabe imaginar circunstancias en las cuales aparezcan
diferencias significativas inesperadas pero de gran importancia para el tema en estudio. Una
manera de hacer menos probable la aparición de diferencias significativas debidas al azar, es
adoptar niveles de significación más altos al llevar a cabo comparaciones múltiples. Por otra
parte, se han desarrollado varios métodos para realizar este tipo de comparaciones en grupos
de muestras, que tienen la propiedad de ser más conservadores que la comparación de los
múltiples pares de medias posibles mediante la reiteración de pruebas de significación estadís-
tica independientes. Sin embargo, si la comparación entre pares de grupos se realiza eligiendo
los pares según su importancia en el diseño del experimento y con una hipótesis previa, esto
es, evitando el rastrillaje sistemático, la diferencia entre un par de medias puede evaluarse
mediante su error estándar y la distribución t, como se verá en el siguiente ejemplo.
Ejemplo 10 (continuación)
Si se eligen dos medias de entre un grupo de muestras donde se ha determinado el cua-
drado medio o varianza entre y dentro de los grupos, tal como se ha mostrado en la primera
parte del ejemplo, se puede poner a prueba la hipótesis nula de medias iguales mediante el
estadístico t, que se calcula como el cociente entre la diferencia de las medias y su error están-
dar, tal como se hizo en §7.2.
El error estándar de la diferencia se obtiene a partir del cuadrado medio dentro de los
grupos, s² dentro, que toma el lugar de s² en la ecuación (7.2). Con esto, y si el número de
elementos n es igual para todas las muestras, (7.3) se convierte en:
En el Ejemplo, para comparar las medias de los grupos A y B y siendo el cuadrado medio
dentro de los grupos igual a 134, se tiene:
Los grados de libertad son N − k = 27. Como se entiende, una desviación de tan solo 1.1 uni-
dades estándar está lejos de apartarse en forma significativa de la hipótesis nula, y esto puede
confirmarse en las tablas de la distribución t, donde se comprueba que P es igual a 0.28. Las
comparaciones restantes dan:
[ 287 ]
A versus C : t = ( 95.5 − 72.9 ) / 5.18 = 22.6 / 5.18 = 4.36 P = 0.0002
B versus C: t = ( 89.9 − 72.9 ) / 5.18 = 17 / 5.18 = 3.28 P = 0.003
y son ambas altamente significativas. Por lo tanto, de los tres pares de medias posibles, hay
dos que difieren en forma significativa y uno que no lo hace.
Debe notarse que el ES diferencia es el mismo para todas las comparaciones, ya que se trata
de un estadístico calculado a partir de todos los grupos.
La posibilidad de utilizar una única estimación del ES diferencia para todo el conjunto de
grupos, permite calcular la diferencia mínima que deberá haber entre dos medias cualesquiera
para ser significativa. En el ejemplo, para un nivel de significación P = 0.05, el valor de t para 27
grados de libertad (dentro de los grupos, ver antes) es según tablas igual a 2.052 y por lo tanto,
para que una diferencia se considere significativa en ese nivel, tendrá que ser igual o mayor a
2.052 veces el ES diferencia, o sea mayor que 2.052 × 5.18 = 10.63. Esta es la llamada diferencia
significativa mínima (LSD o least significant difference) y cualquier diferencia igual o mayor
será significativa para el nivel de confianza adoptado (en este caso 0.05). Puede verse por ins-
pección visual que esa diferencia es superada por la de los grupos A versus C y B versus C, mien-
tras que la diferencia entre A y B es menor y por lo tanto no significativa. Un procedimiento
para chequear la significación de un conjunto grande de diferencias consiste en disponerlas en
forma creciente o decreciente y comenzar la evaluación por los valores extremos. Si la diferencia
resulta significativa se procede hacia los valores interiores, y una vez que una diferencia resulta
no significativa, los restantes pares comprendidos ya no necesitan ser chequeados.
Sin embargo, al aumentar los grupos aumentan los pares de datos que se pueden formar,
y para k grupos hay un total de pares igual a ½ k (k−1). Al comparar los pares por el método
del error estándar de la diferencia como se hizo en el ejemplo, y al aumentar la cantidad de
comparaciones, aparece el problema de las comparaciones múltiples y debe evitarse el ries-
go de obtener un exceso de comparaciones significativas a expensas de pares que difieren
por azar. Con el objeto de obtener pruebas de significación que reduzcan dicho riesgo, se
han diseñado, como se ha mencionado más arriba, una variedad de métodos que tienen la
característica de ser más conservadores, de modo que al evaluar un conjunto de grupos con
la misma media universal μ, cuyas medias muestrales difieren sólo por error de muestreo, la
probabilidad de obtener un resultado significativo no excederá el nivel de significación que el
test invoca. Los principales son los de Bonferroni, Newman-Keuls, Scheffé y Tukey. Con el
método de Bonferroni, el nivel de significación que se desea evaluar se divide por el número
de comparaciones a realizar. Si por ejemplo se realizan 3 comparaciones, como en el ejemplo
visto antes, aceptándose un nivel de significación P = 0.05, para que cualquiera de las com-
paraciones pueda ser declarada significativa en ese nivel, deberá alcanzar una P = 0.05 / 3
= 0.016. En el ejemplo anterior las dos diferencias detectadas como significativas lo siguen
siendo de acuerdo al método de Bonferroni, pues en ambas es P < 0.016. Sin embargo, este
método, aunque fácil de realizar, tiene el inconveniente de tornarse excesivamente conserva-
dor al aumentar el número de comparaciones y disminuir mucho el valor de P requerido para
poder afirmar que una diferencia es significativa. Es posible que en general deban preferirse
los otros métodos arriba mencionados. Todos ellos están disponibles en los menús de los
programas de estadística.
[ 288 ]
10.4. Otros modelos de análisis con más de una clasificación de los datos
Existen modelos o diseños más complejos de análisis de la varianza, que consideran dos
o más fuentes de variabilidad. En el caso de dos formas de clasificación de los datos se suele
hablar de análisis en “dos-rutas” (two-way). En los diseños con dos clasificaciones de los da-
tos, la primera puede ser el factor de interés, como por ejemplo distintos procedimientos diag-
nósticos o terapéuticos, y la segunda los individuos a los que se administran los tratamientos.
Esto puede tabularse destinando una columna a cada tratamiento y las filas a los individuos
en los que se evalúan los resultados. Los datos se disponen en la misma forma que en la tabla
del ejemplo 10.1, pero en este tipo de diseño cada fila corresponde a un individuo (o una
fuente de datos en general) que proporciona una respuesta a cada uno de los tratamientos de
las columnas.
En el modelo mencionado, los individuos constituyen la segunda fuente de variación de
los datos. Cada fila constituye una unidad o bloque experimental, y el diseño que administra
un conjunto de tratamientos a cada bloque, en forma aleatorizada, se denomina diseño de
bloques aleatorizados (randomized blocks). En general, y en especial cuando se comparan
tratamientos u otras intervenciones sobre conjuntos de individuos u otras unidades experi-
mentales, como pueden ser muestras de sangre u otros especímenes biológicos, la variabili-
dad inherente a las distintas unidades (individuos) que forman las muestras suele tener poco
interés para el investigador, aunque puede dificultar la detección de diferencias significativas
entre tratamientos. Al respecto, en forma análoga a lo ya visto para el análisis de un factor,
existe el recurso de de dividir la variabilidad total de los datos en cuadrados medios debidos
a la variabilidad entre filas (individuos), entre columnas (tratamientos) y residual. De esta
manera se pueden obtener los siguientes cocientes entre cuadrados medios:
[ 289 ]
dent para muestras apareadas. De este modo, es el procedimiento a elegir cuando se tienen
tres o más muestras originadas en un mismo grupo de individuos, típicamente, resultados
a lo largo de varios tratamientos o en varios momentos de la evolución de una determinada
enfermedad. La variabilidad debida a las distintas modalidades de comportamiento de los
diferentes individuos queda excluida de la varianza residual contra la cual se realizan las
comparaciones de las varianzas entre grupos.
Cuando en el modelo de dos factores ambos corresponden a tratamientos o condicio-
nes experimentales bajo el control del experimentador, el correspondiente diseño recibe el
nombre de factorial de r filas por c columnas o factorial r × c. En estos casos existen dos
tratamientos, uno con r y otro con c dosajes o modos de administración. Se dice que un trata-
miento presenta r niveles y el otro c niveles. La disposición de los datos es la misma que en la
tabla del Ejemplo, con c columnas correspondientes al tratamiento con c niveles, y r filas co-
rrespondientes a los r niveles del otro tratamiento. La diferencia fundamental con el modelo
de bloques randomizados está en que ahora el segundo factor es otro tratamiento controlado
por el investigador.
Los diferentes métodos de análisis de la varianza se hacen más complejos a medida que
los modelos experimentales se van haciendo más complicados, y el objetivo de este incre-
mento en la complejidad es aumentar la eficacia de los análisis y la capacidad de aislar y
cuantificar fuentes de variación de los datos que agreguen información relevante acerca de las
poblaciones muestreadas. Se obtiene así una variedad de diseños o modelos experimentales,
en cuyo examen no se entrará en esta oportunidad y pueden consultarse en Armitage y Berry,
1994.
10.4.1 Interacción
Un hecho conocido en el campo de la biología es que en ocasiones, la aplicación simul-
tánea de dos tratamientos o intervenciones sobre un mismo objeto de estudio, produce un
efecto mayor que el que se podría esperar de la simple suma de los efectos de cada tratamien-
to aplicado en forma individual. Esto se expresa a veces como potenciación de los efectos
y puede verse algunas veces entre dos antibióticos o entre dos fármacos empleados con un
mismo objeto. En otras oportunidades, el efecto resulta menor que el esperado de la suma de
los efectos individuales de cada tratamiento, y en estos casos se habla de atenuación o cance-
lación de los mismos. El fenómeno puede llegar a detectarse mediante el análisis estadístico
de los datos, recibiendo el nombre de interacción.
Para obtener una noción de sus aspectos estadísticos, considérese un diseño factorial de
dos tratamientos, con los resultados dispuestos en una tabla con c columnas correspondientes
a los c niveles de un tratamiento A, y r filas correspondientes a los r niveles de un tratamiento
B. Supóngase que hay una observación para cada posible combinación de los niveles de A y
B, o sea para cada celda de la tabla. Si en estas circunstancias alguna de las observaciones
en las celdas presentara un valor llamativamente diferente del resto (mucho mayor o mucho
menor), el investigador estaría autorizado a sospechar la presencia de interacción entre los
correspondiente niveles de los dos tratamientos. Sin embargo, con una observación por celda,
la interacción queda confundida y sumada con la variabilidad entre filas y entre columnas,
y no existe forma de ponerla en evidencia. En estos casos, obteniendo varias observaciones
[ 290 ]
o réplicas por celda, puede llegar a separarse la variabilidad entre las medias de las distintas
celdas, de la variabilidad entre las filas y la variabilidad entre las columnas. De este modo, la
eventual presencia de interacción entre determinados niveles de las filas y columnas, puede
llegar a ponerse en evidencia mediante el examen de la variabilidad entre las medias de las
celdas. Esto aumenta la complejidad del modelo, y la variabilidad residual con la que se rea-
lizan las comparaciones debe ser re-calculada a partir de la variabilidad dentro de las celdas,
una vez aislada la variabilidad entre las mismas. Afortunadamente, los paquetes estadísticos
corrientes evitan los cálculos numéricos extensos y proporcionan distintos modelos de análi-
sis basados en diferentes estructuras de los datos. En esta sección sólo se han procurado de-
linear y resumir las ideas básicas en las que se funda el conjunto de técnicas conocidas como
análisis de la varianza.
[ 291 ]
11. Regresión múltiple
11.1. Generalidades
Muchas veces hay asociación entre más de dos variables y existe la posibilidad de expre-
sar una de ellas en función de las demás. Una forma de hacerlo consiste en una extensión del
método de la regresión para un par de variables x e y. En este caso habrá más de una variable
independiente, cuyos valores determinarán a la variable dependiente y de acuerdo con una
ecuación de regresión múltiple. Varias x son así utilizadas simultáneamente para explicar los
cambios de la y. Las distintas variables x1, x2 , … xi , suelen llamarse variables independientes
y también predictores o covariables. Se ha señalado que como muchas veces dos o más de
las xi están correlacionadas entre sí y por lo tanto no son estadísticamente independientes,
la expresión variable independiente debería evitarse. Sin embargo su uso está aceptado, en el
sentido de que cada xi puede condicionar en parte los valores que adopta y.
En líneas generales, gran parte de los conceptos vistos con respecto a la regresión simple de
una sola x, se mantienen para la regresión múltiple. Con la introducción de más de una variable
independiente, muchas veces es posible aumentar la precisión de las estimaciones de la variable
dependiente, lo cual se explica porque cada variable independiente aporta información para
dicha estimación, hecho que se traduce en una reducción de la variabilidad residual (la que
permanece “inexplicada” por la regresión). Desde ya, una de las aplicaciones de la regresión
múltiple es el aumento de la precisión en la predicción de una variable dependiente.
donde bi son los coeficientes de regresión múltiple o de regresión parcial de Y en xi. En forma
análoga a lo ya visto para la regresión lineal simple, estas ecuaciones se calculan para conjun-
tos de datos (muestras) donde se han medido la variable dependiente y las n variables inde-
pendientes xi. Mediante el procedimiento de cuadrados mínimos se obtienen los coeficientes
a y bi con los que se formula la ecuación correspondiente al conjunto de datos. Posteriormen-
te, estas ecuaciones pueden ser utilizadas en sus varias aplicaciones, sustituyendo las x por
valores elegidos, para obtener el valor esperado o predicho de la variable dependiente y. Cada
[ 292 ]
bi estima el efecto de la correspondiente variable xi mientras se mantienen constantes las
otras x. Esto permite ensayar cuestiones del tipo “qué pasaría si xm aumentara (disminuyera)
mientras las demás xi se mantienen constantes?”
Gráficamente, una ecuación en dos variables independientes x1 y x2 se representa por
un plano de regresión en un sistema con tres ejes ortogonales, x1, x2 e y. Con más de dos
variables independientes la representación gráfica ya no es posible por requerir más de tres
dimensiones espaciales, pero los resultados numéricos se obtienen sin dificultad para tres o
más variables independientes. Cuando las xi no tienen exponentes distintos de 1, se habla de
ecuaciones lineales y regresión lineal múltiple, que es ampliamente utilizada en las distintas
aplicaciones médicas y a la cual se refieren los apartados siguientes.
Las aplicaciones de la regresión múltiple son similares a las de la regresión simple y las
principales son la descripción de las relaciones entre las variables predictoras y la dependiente,
la interpretación de esas relaciones, la predicción de la variable dependiente, realizar “ajus-
tes” para determinados valores de las distintas covariables y evaluar posibles interacciones
entre éstas. Puede ser que no todas las variables independientes ensayadas estén relacionadas
con la dependiente, y cuando esto ocurre, la variable cuyo coeficiente de regresión múltiple no
es significativamente diferente de cero se suprime de la ecuación, ya que su inclusión no au-
menta la eficacia de la regresión. En lo que sigue se examinarán las principales características
y utilidades de la regresión múltiple, sin entrar en los algoritmos de cálculo, que como es fácil
suponer, son más complejos que los dedicados a la regresión simple y cuya fundamentación
teórica va más allá del alcance de este texto. Sólo se menciona que se trata de extensiones de
los procedimientos para una sola variable independiente y que se basan en calcular los coefi-
cientes que minimizan las sumas de los cuadrados de las diferencias entre las y observadas y
sus correspondientes estimaciones.
Ejemplo 11
En una muestra de 213 adultos de ambos sexos el índice electrocardiográfico de Sokolow
medido en milímetros presentó correlación positiva con la masa ventricular izquierda, lo cual
permitió calcular la siguiente ecuación de regresión simple:
[ 293 ]
MVI = −40 + 2.3 × índice de Sokolow (mm) + 2.09 × peso (kg)
donde los coeficientes de regresión múltiple para Sokolow y peso son 2.3 y 2.09 respectiva-
mente y ambos son significativos, cada uno con P < 0.0001 (en general, si algún coeficiente
resulta no significativo, la correspondiente variable no afecta la regresión y puede ser retirada
del análisis). Las unidades a emplear (mm y kg) quedan determinadas al elaborar la ecuación,
y en el ejemplo proporcionan la MVI en gramos. Así, si el individuo antes considerado, con
un índice de Sokolow = 20 mm, pesara 80 kg, la MVI esperada sería igual a −40 + (2.3 × 20)
+ (2.09 × 80) = 173 gramos, mientras que si pesara 50 kg, con el mismo índice de Sokolow,
la MVI esperada sería igual a −40 + (2.3 × 20) + (2.09 × 50) = 111 gramos. De esta manera,
las variables independientes pueden modificarse de a una por vez y comprobar su efecto con
independencia de las demás. Nótese que, sin conocer el peso, la MVI esperada a partir del
índice de Sokolow = 20 mm es igual a 157 gramos. Este es el valor esperado que se halla sobre
la recta de regresión, y es la mejor “apuesta” a falta de más información. En tanto, si se cuenta
con el peso corporal, a través de la regresión múltiple puede mejorarse la estimación: en un
individuo de 80 kg se espera una MVI = 173 g y en uno de 50 kg, una MVI de 111 g. Ambos
resultados mejoran la estimación original.*
* Nótese que si se emplea el peso medio del grupo, en el ejemplo 72 kg, se obtiene MVI = -40 + (2.3 × 20) +
(2.09 × 72) = 156 g, que es el valor predicho por el índice de Sokolow cuando no se incluye el peso en el cálculo (la
diferencia con 157 g se debe a error de redondeo).
[ 294 ]
to de variables independientes x1, x2 , … xn). Como para r² en el caso de una sola x, R² mide
la proporción de la variabilidad total de las Y explicada por la regresión. Sin embargo, hay
una diferencia con el caso de la regresión simple y es que, en la regresión múltiple, R² informa
acerca del valor global de la función de regresión pero no indica cuál o cuáles de las x son las
que contribuyen significativamente a predecir la variable dependiente. Es así que aún en el
caso más simple de dos variables independientes, x1 y x2 , R² no señala si ambas o sólo una de
las xi son las que aportan a la regresión. Esta información se puede obtener de los coeficientes
de regresión múltiple, bi , cuya significación frente a cero se evalúa para cada xi frente a su
error estándar, mediante la distribución t. De lo dicho se desprende que la información que
da R² es poco detallada y deben examinarse los coeficientes de regresión múltiple para esti-
mar la importancia de cada variable independiente. También puede evaluarse la magnitud del
cambio producido por el agregado de una variable independiente, a través de las variaciones
experimentadas por R². Estas pueden ser o no significativas, y en el primer caso, el grado de
incremento de R² permite conocer la proporción de varianza de la variable independiente Y,
explicada por la variable independiente introducida en último término. De manera análoga
puede evaluarse el efecto del borrado de variables independientes.
Ejemplo 11 (continuación)
En la regresión de la masa ventricular izquierda (MVI) en el índice de Sokolow del ejem-
plo anterior, el coeficiente de correlación entre ambas variables es r = 0.35, y su cuadrado o
coeficiente de determinación es r² = 0.12. Esto significa que sólo un 12% de la variabilidad de
la variable dependiente MVI es explicada por la regresión en el índice de Sokolow. Si entonces
se agrega el peso como nueva variable predictora de la MVI, se obtiene la segunda ecuación
del ejemplo anterior, donde cada coeficiente contribuye a explicar parte de la variabilidad de la
MVI. Para esta ecuación con dos variables independientes se tiene R = 0.72 y R² = 0.52, lo que
expresa que el 50% de la variabilidad total de la MVI queda explicada por la regresión múlti-
ple. En este caso, la variación de la MVI alrededor de los valores predichos por la ecuación de
regresión para cada par de valores de Sokolow y peso, es la mitad de la que existe alrededor de
la media de MVI aislada. Queda todavía un 50% de la variabilidad sin explicar, esto es, como
variación residual alrededor de los valores predichos por la regresión múltiple. En general, el
agregado de nuevas variables independientes como pudieran ser la edad y el sexo, tenderá a
agrandar el valor de R², que por construcción nunca puede superar el valor de 1.
Puede verse que al agregar la variable peso, el coeficiente de regresión de Sokolow se mo-
difica, así como el valor de la constante. Esto se explica por el hecho de que ambas variables
predictoras contribuyen a la estimación de la variable independiente. También puede notarse
que la variabilidad de la Y explicada por la regresión aumenta del 12% al 52% al agregar el
peso, lo que señala la importancia de ésta variable en la regresión (corroborando esta afir-
mación, en la muestra estudiada, la correlación entre MVI y peso corporal es igual a 0.67,
mucho mayor que la observada entre MVI y Sokolow).
El agregado de variables independientes nunca hará descender el coeficiente de determi-
nación R² y en general tenderá a aumentarlo, aunque la variable introducida pueda tener poco
significado en la interpretación de los cambios generados en la variable independiente. Por
este motivo se suele utilizar el coeficiente R² ajustado para el número de variables indepen-
[ 295 ]
dientes, que tiende a limitar el crecimiento de R² y constituye una medida más conservadora
de la correlación múltiple, aunque en general y para un número no demasiado extenso de
variables independientes, las diferencias con y sin ajuste resultan poco importantes.
En lo que sigue se comentarán algunos aspectos de importancia del trabajo con modelos de
regresión múltiple y sus aplicaciones en medicina.
[ 296 ]
como en el primer caso, pero cada vez que agrega una nueva, chequea todos los coeficientes
de regresión, ya que una variable significativa en una etapa, puede dejar de serlo cuando se
agrega otra que la reemplaza y la vuelve no significativa. Esto remite al problema señalado
más arriba acerca del significado biológico o médico de cada variable, que debe ser también
un criterio decisivo para la inclusión y el retiro de las variables independientes. Esto debe
hacerse de acuerdo no sólo con el grado de significación estadística, sino también de acuerdo
con la importancia médica o biológica de cada variable dentro del material en estudio. Se
mencionarán brevemente algunos aspectos relacionados.
[ 297 ]
Como se acaba de ver, en una regresión múltiple cabe la posibilidad de que variables
predictoras correlacionadas se reemplacen entre sí en una ecuación de regresión. Esto se co-
noce con el término proxying, hablándose en tal caso de variables proxy, palabra inglesa que
significa reemplazar o “actuar en lugar de”. Si bien esto suele ser inconveniente, el reemplazo
entre variables con un significado parecido y correlacionadas entre sí puede aprovecharse
para tener una idea del efecto de alguna variable inaccesible o de difícil obtención, mediante
el empleo de una variable proxy. Por ejemplo, se puede estimar la severidad de un cuadro
anginoso por la cantidad de pastillas de nitritos consumidas. Por otra parte, las variables
proxy pueden presentar los inconvenientes de la colinearidad y, entre otras cosas, tender a
cancelarse mutuamente o presentar coeficientes de regresión no significativos a pesar de ser
importantes dentro del sistema de variables en estudio.
Por último, debe tenerse en cuenta que es posible encontrar correlación entre variables
que no presentan un nexo lógico claro, y donde una tienda a reemplazar a otra sin que sea evi-
dente o aún conjeturable el motivo del fenómeno. En estos casos es aconsejable profundizar
la búsqueda de los fundamentos teóricos que hagan explicable en términos lógicos la relación
hallada y, hasta tanto esto no se logre, abstenerse de adelantar conclusiones aventuradas. Si
una variable no tiene cabida lógica en el escenario del estudio, no debería ser incluida en las
conclusiones sin más reparos.
Existen indicadores de colinearidad sobre los que no se entrará en detalles, que se hallan
incluidos en los programas estadísticos corrientes, programas que también suelen alertar
sobre la presencia de colinearidad en los datos. Por lo demás, la colinearidad suele hacerse
evidente por el comportamiento conjunto de variables que en forma aislada, son importantes
y significativas. En algunas oportunidades en que la colinearidad surge como un problema
computacional, es posible redefinir la variable problema mediante transformaciones que eli-
minen o reduzcan la colinearidad (ver Armitage y Berry, 1994).
[ 298 ]
Y = a + d + b1x1 + b2x 2 + … + bnxn cuando z = 1
Y = a + b1x1 + b2x 2 + … + bnxn cuando z = 0
que sólo difieren en que, en el grupo en el cual la variable indicadora vale 1 (cuando la condi-
ción que indica está presente), la cantidad d se suma a la estimación de Y.
Si por ejemplo, la variable z se refiere a la presencia de hipertensión arterial, se puede
llamarla HTA y definir z = HTA = 1 en los hipertensos, y z = HTA = 0 en los no hipertensos.
El correspondiente coeficiente de regresión múltiple d, permanecerá sin cambios (d × 1) en los
hipertensos, y se anulará (d × 0) en los demás individuos. El método puede hacerse extensivo a
variables que admiten más de dos estados, como por ejemplo peso normal, sobrepeso y obesi-
dad, con lo que las comparaciones posibles aumentan. En lo que sigue se verán algunos aspectos
relativos a la introducción de una variable binaria en un modelo de regresión múltiple.
Ejemplo 11 (continuación)
Se desea evaluar el efecto de la presencia de hipertensión arterial en las estimaciones de
la masa ventricular izquierda (MVI) del ejemplo anterior. Creando la variable binaria HTA
y definiéndola como HTA = 1 en los hipertensos y HTA = 0 en los restantes individuos, ha-
llando la nueva estimación de los parámetros de la regresión se obtiene:
MVI = -35 + 1.73 × índice de Sokolow (mm) + 2.06 × peso (kg) + 29 × HTA
[ 299 ]
11.7. Interacción
Al clasificar una muestra en dos o más niveles o estratos según una variable discreta d,
puede suceder que las respuestas de la variable dependiente Y a los cambios de una variable
independiente continua X, sean de diferente magnitud según se evalúen en los distintos es-
tratos en los que se ha clasificado la muestra. Cuando esto ocurre se dice que entre las varia-
bles d y X existe interacción. En el ejemplo considerado hasta aquí, puede interesar saber si
la relación entre Sokolow y MVI es la misma en presencia que en ausencia de hipertensión
arterial, esto es, si entre las variables Sokolow y HTA existe interacción. Otro tanto puede
preguntarse acerca de las variables peso y HTA.
En general, un modo de evaluar la presencia de interacción en un modelo como el que
nos ocupa, es calcular el producto de las variables implicadas para cada uno de los casos
de la muestra, creando una nueva variable que se denomina término de interacción. Si su
coeficiente de regresión múltiple resulta estadísticamente significativo, puede esperarse in-
teracción entre las variables en cuestión. Por ejemplo, si se desea saber si existe interacción
entre el peso corporal y la hipertensión arterial, debe calcularse el producto peso × HTA para
cada individuo de la muestra. Esta nueva variable se introduce junto con las demás variables
independientes y se evalúa el modelo resultante.
Para comprender el procedimiento, considérese el caso limitado a la variable binaria
HTA y la variable continua peso, como predictores de la MVI. El término de interacción será
(HTA × peso). La ecuación que estima la MVI será entonces:
En tanto, cuando HTA = 1, se tiene que (b2 × HTA) = b2 , y (b3 × [HTA × peso]) = b3 × peso,
y consecuentemente, en los hipertensos la ecuación debe re-escribirse:
con lo cual se observa que el coeficiente de regresión del peso resulta igual a (b1 + b3), mientras
que en los no hipertensos es igual a b1. Esto equivale a decir que el peso estimará la MVI con
distintos coeficientes en hipertensos y en no hipertensos, y la interpretación será que existe
interacción entre hipertensión y peso cuando se trata de estimar la MVI. Como se ha dicho,
el requisito es que el coeficiente del término de interacción ( b3) resulte estadísticamente signi-
ficativo, pues en caso contrario, se elimina de la regresión y la interacción no se confirma.
[ 300 ]
11.8. Principales aplicaciones de la regresión múltiple
Las aplicaciones de la regresión múltiple son similares a las de la regresión con una sola
variable independiente ya vistas en la Sección 9, siendo las fundamentales la descripción
de las relaciones entre las variables predictoras y la dependiente, la interpretación de esas
relaciones, la predicción de la variable dependiente para distintos niveles de cada variable
independiente, y el ajuste de la variable dependiente para una variable independiente luego
de haber controlado el nivel de las demás. La descripción de las relaciones entre las variables
se obtiene a partir de los coeficientes de regresión múltiple para cada predictor independien-
te y asimismo, mediante la evaluación del grado de cambio del coeficiente de correlación
múltiple R² al introducir o retirar una variable del modelo. Lo referido en §9.4 con respecto
a la regresión simple y su interpretación en el contexto biológico de los ensayos, tiene aquí
la misma vigencia y puede incluso presentar aspectos más complicados por el hecho de que
cada variable independiente suele afectar en mayor o menor grado el comportamiento de las
demás. Esto puede comprobarse en los ejemplos, en los cambios que experimenta el coefi-
ciente de regresión del índice de Sokolow, primeramente al agregar la variable peso y luego,
la variable HTA. A su vez, el coeficiente de la variable peso cambia al agregar al modelo la
variable HTA.
La predicción de la variable dependiente a partir de las independientes puede realizarse
para distintas combinaciones de los valores de éstas, y en particular, manteniendo constante
el valor de algunas de ellas, lo cual permite “aislar” los efectos de las restantes. En este punto
deben tenerse particularmente presentes las precauciones relativas a la extrapolación de las
estimaciones más allá del rango de las variables independientes en que fueron estimados los co-
eficientes de regresión, y asimismo, debe tenerse presente la posibilidad de interacción (§11.7).
En cuanto a los ajustes de las estimaciones de la variable dependiente Y, a lo expuesto en
§9.4 cabe agregar que en los modelos de regresión múltiple pueden realizarse para una o más
de las variables independientes. Por otra parte, es interesante notar que del punto de vista del
modelo estadístico es indiferente cuál de las variables se elige para el ajuste, siendo el criterio
médico el que debe orientar la investigación, ya que la interpretación del significado biológico
de los resultados y su relevancia se basa siempre en el juicio del investigador. Así, en el ejemplo
analizado de la estimación de la MVI, es posible evaluar las relaciones entre ésta y el índice
de Sokolow después de ajustar los datos para distintos valores de la variable peso y también,
evaluar la influencia del peso para determinados niveles del índice de Sokolow. El significado
clínico de estos ajustes, y si alguno de ellos tiene importancia en la materia, queda a criterio
del médico. En general, para todas las aplicaciones de la regresión múltiple es conveniente ha-
llarse familiarizado con las nociones básicas que se han esbozado hasta aquí, y tener presente
que se trata de una herramienta de análisis que en ningún caso debería reemplazar al juicio
clínico fundamentado. Debe tenerse en cuenta que aún la más evidente y significativa relación
estadística entre dos variables no implica de por sí una relación causal entre las mismas. Más
aún, la posibilidad que una o más variables independientes deban su importancia al hecho de
representar las fluctuaciones de otras variables no incluidas en el modelo (variables proxy)
sólo puede ser decidida por el investigador.
[ 301 ]
12. Regresión logística
[ 302 ]
bras, el valor que toma E para los diversos valores del colesterol plasmático, podría interpretar-
se como una medida de la probabilidad de la enfermedad E para los correspondientes valores
del colesterol plasmático.
Figura 12.1. Recta de regresión lineal ordinaria ajustada para una variable dependiente bi-
naria E ( = enfermedad cardiovascular) en función del los niveles de colesterol. Los valores
predichos por la recta de regresión pueden llegar a ser mayores que 1 o menores que 0.
Sin embargo, el propósito de interpretar la variable dependiente E como la estimación
de una probabilidad, empleando la regresión lineal ordinaria, se encuentra enseguida con
limitaciones. En efecto, en la Figura 12.1 se observa que hacia sus extremos, esto es para
valores relativamente altos o bajos de colesterol, la recta de regresión lineal predice valores de
E mayores que 1 o menores que 0 (negativos), lo cual hace imposible aceptarlos como valores
plausibles para una probabilidad. Además, hay otros inconvenientes de índole teórica en los
que no es necesario entrar, pero suficientemente importantes como para impedir el empleo de
la regresión lineal ordinaria para la estimación de las probabilidades de una variable binaria
en función de variables independientes.
Sin embargo, la idea de hallar a partir de los datos muestrales algún tipo de función de las
variables independientes que estime, no el valor real de la variable dependiente binaria sino
sus probabilidades, ha dado origen a la llamada regresión logística. La regresión logística,
cuya variable dependiente es siempre binaria o dicotómica, permite determinar la existencia
de relaciones entre los valores de las variables independientes y la probabilidad de ocurren-
cia de la variable dependiente. En la Figura 12.2 se ilustra la forma en que se distribuyen
las probabilidades de E estimadas mediante regresión logística, en función de los niveles del
colesterol, para los mismos datos de la Figura 12.1.
[ 303 ]
Fig.12.2. La curva de probabilidades predicha por el método de la regresión logística se
“aplana” hacia el piso y el techo de las probabilidades, sin extralimitarse.
[ 304 ]
en el centro de la distribución. En la tarea de linearizar estas relaciones se ha desarrollado la re-
gresión logística, calculándose sus parámetros a partir de conjuntos de individuos donde cada
uno aporta una o más variables independientes (por ejemplo, colesterol, glucemia, tabaquismo)
y asimismo el estado de la variable dependiente (E = 1, o E = 0). Se esbozarán los procedimientos
en el ejemplo que nos viene ocupando. Ya se ha visto que hallar una recta de regresión por el
método de mínimos cuadrados es inadecuado para describir probabilidades, ya que fácilmente
predecirá valores mayores que 1 y menores que 0. En cambio, en la regresión logística, se halla
una ecuación lineal de la forma y = a + bx, donde x corresponde al valor de la variable indepen-
diente (el colesterol) pero, mediante una elaboración matemática, en lugar de la probabilidad de
E (que no puede representarse por una recta), la variable dependiente y expresa el logaritmo de
los odds de la variable E, también llamado logit, de donde proviene el término regresión logís-
tica. El núcleo de la regresión logística consiste precisamente en la obtención de las ecuaciones
lineales que estiman logits, lo que se logra mediante procedimientos especiales que difieren de
los empleados en la regresión lineal ordinaria o de mínimos cuadrados vista en secciones an-
teriores. Obtenidos los logits, cuyo significado es poco o nada intuitivo, es posible pasar a los
odds y probabilidades de E. Estas probabilidades son las que se han graficado en la curva de la
Figura 12.2, y se obtienen de los correspondientes logits. Contra lo que podría suponerse, esta
última tarea no es complicada.
En principio, los programas estadísticos calculan la función lineal a + bx, caracterizada
por los parámetros a y b, que proporciona los logits de la variable dependiente E a partir de
la variable independiente x (colesterol). Lo ya expresado puede escribirse:
El valor −1.9 es el logaritmo natural de los odds (logit) de la variable dependiente (E) para
el individuo en cuestión, incómodo para trabajar pero que tiene la ventaja ser una función
lineal de las variables independientes (el colesterol en este caso). De esta expresión se puede
pasar a los odds de E (odds de presentar E, o sea E = 1). De (12.1) se tiene que:*
[ 305 ]
mente a la probabilidad de presentar E con solo recordar que P = odds / (odds+1) (§3.4):
[ 306 ]
no siempre guardan una relación estrecha con la fuerza o la importancia de una variable en
el modelo. Un estadístico de prueba para los coeficientes de regresión es el de Wald, igual al
cuadrado del cociente entre el coeficiente de regresión logística y su error estándar, que tiene
una distribución chi-cuadrado con un grado de libertad. Se halla incluido en los paquetes
estadísticos corrientes. Existen otros métodos que apuntan a asegurar la validez de los hallaz-
gos, en relación a limitaciones como el tamaño de las muestras.
Como ya se ha dicho, la estimación de los coeficientes de regresión logística se basa en
una técnica llamada de máxima verosimilitud, que utiliza para el cálculo una función llama-
da con el mismo nombre (maximum likelihood function) y que permite no solamente obtener
los logits sino también evaluar en forma global el grado de “ajuste” del modelo resultante
a los datos muestrales. Esto permite a su vez calibrar la importancia de cada variable en el
resultado de la regresión, observando el grado de cambio en el ajuste global de la regresión
luego de introducir o retirar la variable en cuestión (el caso análogo en la regresión ordinaria
consiste en observar los cambios en el coeficiente de correlación múltiple R² con el agregado
o retiro de variables). Esta es otra forma de evaluar la significación de los coeficientes de re-
gresión logística. Como se ve, existen numerosas alternativas para hacerlo, lo que indica que
no hay un procedimiento único y directo, y analizar los resultados requiere alguna experien-
cia, así como cierto conocimiento previo del material estudiado. Lo dicho debe hacer tomar
precauciones ante la obtención de conclusiones apresuradas o sin un análisis cuidadoso de su
significado en el contexto de la investigación (ver Pampel, 2000).
[ 307 ]
centro de la distribución. Así, se vio que un individuo con 210 mg/dl de colesterol tenía 0.13 o
13% de probabilidades de enfermedad bajo las condiciones simuladas por el ejemplo; ahora,
si el colesterol aumenta en 10 mg/dl, a un nivel de 220 mg/dl, la nueva probabilidad de E se
calcula en 0.31 o 31%, con lo cual se ha duplicado largamente. En cambio, un individuo con
un colesterol en el extremo alto de la distribución, por ejemplo 250 mg/dl, tendrá una proba-
bilidad de E estimada en 92%, y si se en este punto el colesterol se incrementa en 10 mg/dl, a
260 mg/dl, la nueva probabilidad será igual a 97%, con lo que habrá aumentado en poco más
del 5% respecto del nivel que tenía para 250 mg/dl. Esto se nota claramente inspeccionando
la curva de probabilidades en la figura 12.2, más empinada en el centro y aplanada hacia los
extremos (no se olvide que en ningún caso podrá situarse por encima de 1 o por debajo de
0). Como se ve, en regresión logística los resultados en términos de probabilidades u odds,
serán distintos según se calculen en el centro o en la periferia de los posibles valores de la
variable predictora o, lo que es equivalente, según el nivel de probabilidad P de la variable
dependiente a partir del cual se estimen los cambios. La relación entre niveles de colesterol y
probabilidad de E no es lineal. No se entrará en las diversas cuestiones que aparecen en este
punto, mencionándose sólo la conveniencia de hacer las determinaciones cerca del centro de
las distribuciones, aunque existen numerosos métodos de abordaje para éstos y otros tópicos
relativos a la interpretación de los resultados de la regresión logística.
Como en la regresión múltiple ordinaria, en regresión logística las variables indepen-
dientes pueden ser más de una, y en líneas generales, muchos conceptos similares se aplican
a ambos tipos de regresión. Sin embargo, hay aspectos de importancia en los cuales los dos
métodos difieren. El más importante radica en que, como en la regresión logística el valor de
cualquier variable independiente X1 condiciona el valor P de la variable dependiente, y este
valor condiciona a su vez, como se vio en el párrafo anterior, el efecto que sobre él pueda
tener una segunda variable independiente X 2 , un cambio en X1 modificará la influencia de
X 2 sobre la variable dependiente. Por ejemplo, con valores muy altos de probabilidad de E,
condicionados por niveles elevados de colesterol plasmático (X1), cualquier cambio en una
segunda variable independiente (X 2) tendrá un efecto sobre dicha probabilidad, menor que el
que cabría esperar cuando la probabilidad de E se halla en sus valores medios.
La regresión logística puede también llevarse a cabo con variables independientes de
tipo binario, como por ejemplo las que resultan de codificar distintas características de los
datos como el género, factores de exposición o de riesgo y cualquier otra circunstancia que
permita clasificar los datos en dos categorías (en realidad, la técnica puede extenderse a
variables discretas con más de dos estados, permaneciendo uno de éstos como referencia a
partir del cual se comparan los restantes). Así, el sexo puede ser codificado como variable
binaria independiente asignando el 1 a mujeres y el 0 a varones. Con esto, el coeficiente para
el género, bg, se anula cuando se multiplica por 0 (hombres) y vale bg cuando se multiplica
por 1 (mujeres). La diferencia entre ambos resultados refleja las diferencias esperadas en la
variable dependiente, expresadas en logits, que se pueden transformar fácilmente en odds o
en probabilidades. Nuevamente, deberá elegirse el nivel de las otras variables independientes
o bien de la variable dependiente, donde evaluar el efecto de sexo a través de su coeficiente bg,
pues los efectos no serán los mismos en diferentes niveles de aquéllas.
[ 308 ]
12.5. Algunas utilidades de la regresión logística. Odds ratios
Las aplicaciones de la regresión logística son análogas a las de la regresión ordinaria y al-
gunas han sido esbozadas en lo que antecede. En principio, la determinación del efecto de las
variables independientes o predictoras sobre las probabilidades de la variable dependiente, la
comparación de la magnitud de dichos efectos y la evaluación de la independencia estadística
de las variables predictoras son aplicaciones importantes. Así, se vio que la ecuación de regre-
sión logística que relaciona la variable dependiente E con el colesterol plasmático, expresada
como logits de E, permite pasar a odds de E y a probabilidad de E, para cualquier valor del
colesterol. Si la regresión resulta estadísticamente significativa, se puede descartar la hipóte-
sis nula de no asociación entre enfermedad y colesterol, y darle plena utilidad. En este punto
puede agregarse otra variable al modelo y evaluar si es significativa como la variable coleste-
rol, y si ésta conserva su significación luego de haber introducido la nueva variable. Si es así,
se podrá afirmar que ambas variables son predictores independientes de E. También podrá
ocurrir que una de las dos variables no sea significativa en presencia de la otra por compartir
información, y los conceptos vistos en la Sección 11 son en general aplicables también en
regresión logística. La comparación del efecto de distintas variables predictoras, el estudio de
sus interrelaciones y la comprobación de hipótesis, son aplicaciones corrientes de la regresión
logística. Algunas de las situaciones que pueden dificultar la obtención de resultados válidos
son la omisión de variables relevantes, la inclusión de variables que no lo son, la colineari-
dad entre variables independientes, y otras condiciones de índole formal sobre las que no es
posible extenderse, que pueden eventualmente llegar a infringir los supuestos teóricos de la
técnica (cf. Menard, 2001).
Por último, se expondrá una importante relación entre la regresión logística y el odds
ratio de la variable dependiente para dos niveles de la variable predictora. Considérese una
ecuación de regresión logística para una variable dependiente Y, cuyos logits están dados por
una expresión del tipo L(Y) = a + bx, siendo a constante, b el coeficiente de regresión de x, y
sea x una variable independiente binaria. Los logits y los odds para x = 1 y para x = 0 son:
Como se aprecia, L1− L 0 = b, o sea que la diferencia entre los logits para x = 1 y x = 0, es igual
al valor del coeficiente b de la variable independiente x. Como L1 y L 0 son logaritmos de
odds, y la diferencia entre los logaritmos de dos números es el logaritmo del cociente de esos
números, la diferencia entre L1 y L 0 será el logaritmo del cociente de odds. En símbolos:
[ 309 ]
En §16.6 se analiza un estudio de tipo caso-control donde se determina el odds ratio
(OR) para el infarto de miocardio en presencia (x = 1) y ausencia (x = 0) de dislipemia, obte-
niéndose el valor 2.70. Introduciendo los mismos datos en un programa de regresión logísti-
ca, se obtiene la ecuación:
donde 0.993 es el coeficiente b de la variable dislipemia. Como se demostró más arriba, este
coeficiente es el logaritmo del OR entre los valores 1 y 0 de dislipemia. Por lo tanto, el OR se
obtiene tomando el antilogaritmo de 0.993:
OR = e 0.993 = 2.70
[ 310 ]
13. Métodos no paramétricos
13.1. Introducción
Existen métodos que permiten la evaluación de diversas hipótesis, en especial en pruebas
de significación estadística entre muestras, sin necesidad de asumir un tipo determinado de
distribución de los datos, como podrían ser la distribución normal, la binomial o cualquier
otra. Esto significa que dichos métodos operan sin necesidad de estimar los parámetros de
las poblaciones de donde provienen las muestras (varianza, desvío estándar), y por este mo-
tivo son conocidos como métodos no-paramétricos (distribution-free methods). Con estos
métodos, no sólo son innecesarias las estimaciones de parámetros de población, sino que
éstos no intervienen en las pruebas de hipótesis.
En general, los métodos no-paramétricos se utilizan cuando la presunción de no-norma-
lidad de los datos es fuerte, o cuando de ser cierta, pudiera tener consecuencias de importan-
cia en los cálculos. Su principal utilidad son las pruebas de significación estadística, ya que al
no estimar parámetros son menos útiles para estudiar las características de la distribución de
una variable. Por lo tanto, se utilizan para comparar muestras, pero como se verá, no com-
paran sus medias, varianzas u otros parámetros, es decir, no toman en consideración de qué
tipo de distribución se trata en cada caso.
En ocasiones, no sólo puede ser incierto el tipo de distribución de los datos, sino que éstos
pueden carecer de escalas de medición adecuadas, y en estos casos ha demostrado utilidad
proceder a su evaluación comparativa, sin adjudicarles medidas sino posiciones o rangos
dentro del conjunto. Así, al evaluar del efecto de varios analgésicos, éstos pueden ser clasi-
ficados según su eficacia relativa respecto de los otros, en una escala de eficacia ascendente
o descendente. Otro tanto ocurre al clasificar la intensidad del del dolor anginoso de uno a
diez, o al graduar la capacidad funcional según la información proporcionada por el pacien-
te. Si bien es difícil contar con unidades precisas para la medición del dolor o la capacidad
funcional según escalas subjetivas, la ordenación de las variables (analgesia, intensidad del
dolor, capacidad funcional) según la magnitud de las distintas observaciones, suele ser eficaz
y permitir comparaciones entre distintos grupos sin ser necesario que los números o rangos
asignados a cada individuo se distribuyan según una función de probabilidad conocida. En
estas circunstancias tienen aplicación los métodos no paramétricos.
Si bien los métodos no paramétricos tienen la ventaja de requerir menos trabajo de cálcu-
lo que los demás métodos basados en estimaciones de los parámetros de las poblaciones, y
[ 311 ]
en este sentido se consideran métodos “rápidos,” los recursos de computación con los que
actualmente se cuenta han hecho que lo sencillo y rápido del cálculo pase a segundo plano y
así, la principal utilidad de los métodos no paramétricos son los casos en donde no se puede
llegar a conocer el tipo de distribución subyacente en las muestras, o bien no existen escalas
adecuadas para las mediciones y, en cualquier caso, la estimación de parámetros en los que
basar los cálculos no es factible.
[ 312 ]
mientos vistos en la Sección 8. En muestras de poblaciones que siguen la distribución normal,
el test equivalente al test del signo es el test t de Student para datos apareados (§7.3). Como
se ha dicho, la hipótesis nula se rechaza cuando hay suficiente evidencia de acumulación de
datos con uno u otro signo, o sea a uno u otro lado del cero.
Con ser extremadamente útil, el test del signo no aprovecha la información dada por la
magnitud de las desviaciones de los datos. Por ejemplo, examínese el puntaje, de 1 a 10, ob-
tenido para el efecto ansiolítico de dos drogas, A y B, probadas en seis individuos, en forma
ciega y randomizada:
Se observa que si bien 3 casos favorecen a A y 3 casos a B, en los casos en que B es mejor
que A, la diferencia en valor absoluto es mayor que cuando A supera a B (cuando B supera a A,
lo hace por un promedio de 6.7 puntos, mientras que cuando A supera a B, la diferencia media
es de 3 puntos). Ordenando las diferencias en forma creciente por su valor absoluto | A − B |, y
adjudicándoles un número de orden o rango de menor a mayor, se ve que los rangos más altos
tienden a asociarse con los casos en que la droga B fue mejor que A. Este comportamiento, que
no sería detectable por el test del signo (ya que hay igual número de observaciones a favor de
cada droga), puede ponerse a prueba calculando la significación de la diferencia entre las sumas
de los rangos para A y B, que debería esperarse fueran iguales o muy similares si ambas drogas
manifestaran los mismos efectos. La prueba se conoce como test de los rangos con signo de
Wilcoxon (signed rank sum test). Los valores críticos de las sumas de rangos para los distintos
niveles de P, se hallan calculados en forma exacta y tabulados para números relativamente
pequeños de casos. Para muestras con mayor número de observaciones existen aproximaciones
mediante la distribución normal, que no se expondrán aquí (ver Armitage y Berry, 1994). En el
ejemplo, las sumas de rangos son, según la última columna, 1+2+4 = 7 para A y 3+5+6 = 14 para
B, y si bien la diferencia no resulta significativa (consultando tablas), de continuar la tendencia
en favor de B, podría esperarse que con un mayor número de casos se pudiera demostrar su
significación estadística. El test de los rangos con signo tiene así la ventaja de tomar en cuenta
la magnitud de las diferencias entre los pares de observaciones y no sólo su signo. Nótese de
paso, que el desarrollo del test no necesita de ninguna presunción sobre el tipo de distribución
subyacente en las poblaciones estudiadas. Como para el test del signo, el test equivalente en la
teoría normal, es el test t de Student para datos apareados (§7.3).
[ 313 ]
13.3. Dos grupos independientes, ordenación por rangos
Estos procedimientos se aplican en el caso de tener dos muestras al azar, una de ellas forma-
da por n1 elementos de una población X, y la otra formada por n2 elementos de una población Y.
La hipótesis que suele interesar es que las muestras provengan de distintas poblaciones, en una
de las cuales la variable estudiada tienda a ser mayor o menor que en la otra, pero sin detenerse
a considerar ni a calcular los parámetros de las poblaciones, como la media y el desvío están-
dar. Como se ha dicho, la ventaja de estos métodos “no paramétricos” radica en que muchas
veces las variables muestrales no siguen distribuciones conocidas y sus parámetros no pueden
estimarse como para aplicar los métodos de las secciones anteriores. En estos casos, la suposi-
ción más simple que se puede hacer, es que entre ambas muestras exista un “desplazamiento”
de los valores de sus elementos, de modo que en una de ellas los valores de la variable tiendan
a ser mayores o menores que en la otra. Esto se ilustra en la Figura 13.1, donde se observa que
los valores de la distribución B son en general 2 unidades mayores que los correspondientes
valores de la distribución A, sin importar que las distribuciones sean claramente no-normales.
La hipótesis nula es que no existe diferencia o desplazamiento entre las distribuciones A y B, y
debe poder ser rechazada para aceptar la validez de la hipótesis alternativa.
[ 314 ]
semejante en ambos grupos. En cambio, si las observaciones tienden a tener valores mayores
en una de las muestras, la correspondiente suma de los rangos también tenderá a ser mayor
en esa muestra y será una evidencia en contra de la hipótesis nula y a favor de una diferencia
entre ambos grupos. Considérense por ejemplo las siguientes observaciones correspondientes a
la fracción de eyección en dos grupos de individuos, en donde interesa obtener algún grado de
evidencia acerca del aparente predominio de valores más altos en el grupo X:
Observación 23 24 29 30 31 32 34 34 35 35 37 38 39 40 41 55
Grupo: Y X Y Y Y X Y Y X Y Y X X X X X
Rango: 1 2 3 4 5 6 7 8 9.5 9.5 11 12 13 14 15 16
Como existe una observación igual a 35 en cada grupo, a las que les corresponderían
como puede verse arriba los rangos 9 y 10, a cada una se le adjudica el promedio de ambos
rangos, o sea 9.5. En forma análoga se manejan los “empates” entre más de dos observacio-
nes idénticas. Nótese que en cambio, si las observaciones idénticas se repiten en un mismo
grupo, no es necesario asignarles un rango promedio: por ejemplo, en el Grupo Y se repite dos
veces el 34, que aparece con los rangos 7 y 8, aportando un total de 15 a la suma de rangos
de Y. Si se adjudicara un rango de 7.5 a cada repetición, el total sería también igual a 15.
Sumando los rangos (y no el valor de las observaciones) para cada grupo y llamando a la
suma T, obtenemos:
T X = 2 + 6 + 9.5 + 12 + 13 + 14 + 15 + 16 = 87.5
Ty = 1 + 3 + 4 + 5 + 7 + 8 + 9.5 + 11 = 48.5
Como comprobación, la suma de T X y T Y debe ser igual a la suma total de los rangos, o
sea, la suma de los números naturales de 1 a 16, pues hay 16 observaciones en total. La suma
de los primeros n números naturales es igual a ½ n (n+1), lo que para n = 16 es igual a ½ × 16
× 17 = 136. Este valor es idéntico al que se obtiene sumando los rangos en cada grupo ( 87.5
+ 48.5 ).
En el ejemplo se observa que los valores correspondientes al grupo X tienen una suma de
rangos mucho mayor que la del grupo Y, lo que sugiere que la hipótesis nula de distribuciones
iguales no es correcta, ya que con igual número de casos en cada grupo se esperaría que la su-
ma de los rangos para cada uno fuera aproximadamente la misma, o sea la mitad de la suma
total de los rangos, en este caso 136 / 2 = 68. En este ejemplo, las sumas se alejan bastante de
lo esperado. La significación de las posibles desviaciones, como evidencia para rechazar la
hipótesis nula, se halla calculada y tabulada para diversos tamaños muestrales. Para el caso
del ejemplo, se encuentra en tablas que para nX = nY = 8 casos por grupo, P = 0.05 cuando la
menor de las dos sumas, T X o bien T Y, es ≤ 49. Como en nuestro caso T Y = 48.5, se concluye
[ 315 ]
que un desplazamiento en los rangos como el observado es altamente improbable por azar, y
se acepta una diferencia significativa entre los grupos, con un nivel P = 0.05. Desde ya debe
notarse que la hipótesis nula con T X = T Y se aplica en los casos en que cada grupo tiene igual
número de observaciones (nX = nY) pues de otra forma, T guarda también relación con el
número de casos de cada grupo, ya que a mayor número corresponderá mayor cantidad de
rangos sumados en T. De todos modos, en las tablas se hallan entradas para nX y nY (deno-
minadas n1 y n2), previstas las posibles diferencias en el tamaño de los grupos o muestras a
comparar. El procedimiento de consulta es siempre sencillo y no tiene especial importancia
su descripción en este lugar. El proceso de cálculo en los paquetes estadísticos corrientes es
inmediato y solo requiere la introducción de las dos series de datos a comparar.
Las tablas corrientes con los niveles de P para diferentes tamaños de muestra han sido
calculadas en forma exacta. Sin embargo, cuando el número de casos en cada grupo excede
los tabulados, y si ninguno de los grupos contiene menos de 4 observaciones, puede utilizarse
una aproximación a través de la distribución normal o de Gauss, sobre la cual no se tratará
en este compendio (ver Armitage y Berry, 1994).
Las pruebas de Mann-Whitney y de Kendall son equivalentes a la anterior y examinan
todos los pares que se pueden formar con una observación del grupo X y otra del grupo Y,
contando las veces en que el mayor valor del par pertenece a X y las veces en que pertenece a
Y. El predominio de uno de los grupos constituye evidencia en contra de la hipótesis nula de
no diferencias entre grupos, favoreciendo la de un “desplazamiento” entre los valores de sus
observaciones, como el ilustrado en la figura 13.1. Los posibles resultados se hallan tabula-
dos e integran los paquetes estadísticos corrientes.
[ 316 ]
con un grado de libertad menos que el número de grupos comparados. La hipótesis nula es
que no existen diferencias entre la magnitud de los resultados para cada grupo. En tal caso,
la suma de los rangos correspondientes también será igual o muy similar en todos los grupos.
En lo que sigue se esboza la disposición de los datos para su análisis, que es además la forma
habitual en la que se ingresan en los programas de cálculo estadístico. Los detalles del proce-
dimiento pueden consultarse en Armitagex–y Berry, 1994.
Considérense 3 tres grupos, A, B y C, formados por cuatro individuos cada uno y trata-
dos con diferentes concentraciones de un fármaco. El resultado se evalúa como el tiempo en
días hasta la curación o la obtención de determinado criterio que indique la finalización del
tratamiento, y es el siguiente:
Las cuentas de los días para cada individuo, ordenadas de mayor a menor, con su corres-
pondiente rango y el grupo de pertenencia de cada individuo, son los siguientes:
Días 3 4 5 7 7 8 9 10 12 13 15 21
Rango 1 2 3 4.5 4.5 6 7 8 9 10 11 12
Grupo A A B A B A C B B C C C
Como existe un “empate” entre los grupos A y B para las observaciones cuarta y quinta, a
cada una se le adjudica el rango promedio 4.5. Reemplazando cada observación por su rango,
la distribución final de los rangos en los grupos es:
Esta es la forma habitual de disponer los datos en las hojas de los programas de estadísti-
ca. Nótese que se opera con los rangos y no con la variable original (cantidad de días). El
análisis prosigue en forma similar al análisis de la varianza para un factor (§10.2). Provisto
que los casos en cada grupo no sean menos de cinco, la aproximación dada por Kruskal
y Wallis es buena y, como se ha mencionado, el estadístico correspondiente se distribuye
según chi-cuadrado con un grado de libertad menos que el número de grupos.
Cuando los datos son originados en unidades experimentales o bloques (§10.4), por
ejemplo en individuos que proporcionan una respuesta a cada uno de varios tratamientos,
las respuestas de cada individuo pueden ordenarse en rangos de 1 a t, siendo t el número de
[ 317 ]
tratamientos del ensayo. Para evaluar el resultado éstos, puede utilizarse el test de Friedman,
que es una extensión del test del signo para muestras apareadas y cuyo análogo en la teoría
normal es el análisis de la varianza en “dos rutas.” Este test se halla implementado en los dis-
tintos paquetes estadísticos y no se entrará en detalles de cálculo. En lo que sigue se muestra
la disposición de los rangos en este tipo de prueba.
En la tabla se observa que cada individuo proporciona los rangos 1 a 4, según haya sido
la magnitud de su respuesta a cada uno de los cuatro tratamientos:
Esta es la forma habitual de disponer los datos en las hojas de los programas de estadís-
tica. Las magnitudes originales de las respuestas han sido reemplazadas por sus correspon-
dientes rangos. Dado que a cada individuo se le adjudica el mismo número de rangos, en este
caso 1 a 4 por haber cuatro tratamientos, la variabilidad entre las filas se reduce a cero y los
efectos se observan entre columnas, o sea entre tratamientos. Los estadísticos de prueba se
obtienen mediante procedimientos análogos a los vistos en la Sección 10, y para los detalles
del cálculo puede consultarse Armitage y Berry, 1994.
[ 318 ]
14. Pruebas diagnósticas
[ 319 ]
Figura 14.1. Representación de los resultados de una prueba diagnóstica hipotética. El rec-
tángulo menor representa a los enfermos y el mayor, a los sanos. El área grisada representa
los tests que resultaron positivos, y el área clara, los tests negativos. De las respectivas áreas
se deduce que los tests positivos resultaron mayoría entre los enfermos, aunque hay algunos
individuos sanos con tests positivos. También se aprecia que la mayoría de los individuos
sanos presentaron tests negativos, como también lo hicieron algunos de los enfermos. VP
verdaderos positivos, VN verdaderos negativos, FP falsos positivos, FN falsos negativos.
A todo esto, es fundamental tener en cuenta que para poder calificar los resultados de
una prueba como verdaderos o falsos, debe existir un procedimiento diagnóstico que sirva
para determinar la presencia o ausencia de la patología investigada con un alto nivel de cer-
teza y actuar como estándar o patrón de referencia. Como se comprenderá, tales métodos
de referencia suelen ser menos accesibles y muchas veces no están disponibles al realizar las
pruebas diagnósticas en el contexto de la práctica clínica, de modo que la condición de ver-
daderos o falsos de los resultados obtenidos, muchas veces sólo puede ser conocida después
de obtener nuevas evidencias, como biopsias, resultados quirúrgicos, o bien por la evolución
del cuadro clínico y el agregado de nuevos exámenes al conjunto de datos. El alto nivel de
certeza proporcionado por los métodos de referencia y en ocasiones por otros datos clínicos,
es el que permite conocer el desempeño de una prueba diagnóstica, es decir, cuáles son las
proporciones de sus aciertos y errores, y así, emplearla sola cuando no se dispone de métodos
de referencia. Es comprensible que en general no exista una separación clara entre pruebas
corrientes y métodos de referencia, pero lo que queda claro es que éstos últimos proporcionan
un nivel de certeza diagnóstica en general muy superior a las primeras, que precisamente per-
mite clasificarlas como verdaderas o falsas. En forma muy general, es el caso de los exámenes
bioquímicos frente a la biopsia, o el de la electrocardiografía frente a la cinecoronariografía
o los estudios radioisotópicos de perfusión miocárdica. Sin embargo, el tema es complejo
y presenta aristas médicas sobre las que no corresponde extenderse, como la pregunta que
surge muchas veces acerca de si la esencia de lo evaluado por una prueba diagnóstica y el
correspondiente método de referencia, es en realidad la misma.
De modo que, el comportamiento de las diversas pruebas diagnósticas frente al “veredicto”
de los métodos de referencia, permite conocer sus capacidades diagnósticas e interpretar sus re-
sultados en la forma más correcta posible cuando se las emplea en la rutina médica sin el apoyo
de dichos métodos. Tales capacidades diagnósticas son la sensibilidad y la especificidad.
[ 320 ]
14.2. Sensibilidad y especificidad
Si se aplica una determinada prueba o test diagnóstico para cierta enfermedad a un gru-
po de 100 individuos que la padecen, y 90 presentan el test positivo (“verdaderos positivos”),
se dice que la sensibilidad del test es del 90%. Los restantes 10 enfermos en quienes el test
falla en la detección de la enfermedad y resulta negativo, corresponden a “falsos negativos.”
La relación entre el número de tests verdaderos positivos (que señalan correctamente la pre-
sencia de la enfermedad) y el total de enfermos estudiados, se llama sensibilidad del test. Por
lo tanto, ésta puede expresarse como:
o bien
Si en otros 100 individuos, esta vez sanos, se aplica el mismo test y resulta negativo en
90 casos (“verdaderos negativos”), se dice que la especificidad del test es del 90%. Los res-
tantes 10 individuos sanos en los que el test resulta erróneamente positivo, corresponden a
“falsos positivos.” La relación entre el número de tests verdaderos negativos (que señalan
correctamente la ausencia de enfermedad) y el total de individuos sanos estudiados, se llama
especificidad del test. Por lo tanto, ésta puede expresarse como:
o bien
[ 321 ]
en la materia. Por otra parte, si bien la seguridad diagnóstica que proporciona un método de
referencia es algo importante y deseable, estos métodos patrón son en general más complejos
y costosos que los demás, y muchos de ellos son invasivos y pueden llegar a causar daño.
Estos hechos son los que confieren su importancia al conocimiento de las pruebas diagnós-
ticas alternativas, que por contraste resultan en general más sencillas, baratas y repetibles.
También es útil recordar que los métodos patrón o estándar, no sólo pueden ser costosos, sino
a veces imposibles de obtener, como puede ser el diagnóstico de certeza de alguna enferme-
dad cuando ésta se halla en sus estadios iniciales, diagnóstico que muchas veces sólo podrá
lograrse de la historia clínica en estadios más avanzados, o bien, de la autopsia. En tanto,
la determinación de la sensibilidad y especificidad de las pruebas diagnósticas permitirá su
aplicación clínica, eventualmente evitando o postergando el empleo de métodos costosos o
invasivos.
Un test es mejor que otro cuanto más sensible y específico, y este criterio permite compa-
rar tests entre sí. Sin embargo, no es posible mejorar las dos propiedades a la vez en el mismo
test. Si se desea aumentar la sensibilidad será necesario disminuir el umbral diagnóstico del
test, esto es, exigirle una menor desviación de la normalidad para tomarlo como positivo. Al
respecto debe notarse que los resultados que producen la mayoría de los tests son datos con-
tinuos o que permiten gradaciones, con lo cual el valor a partir del cual se considera que un
test es positivo, conocido comúnmente como umbral, es una decisión de los investigadores.
Por ejemplo, para aumentar la sensibilidad de la creatinquinasa en la detección de la isquemia
miocárdica, sería factible reducir el valor establecido como máximo normal o valor umbral
a partir del cual se considera que la enzima indica isquemia. Sin embargo, la contraparte
inevitable es que al hacer esto, cierta cantidad de individuos normales aunque con valores de
la enzima algo más altos que los demás, sean incorrectamente clasificados como isquémicos,
cayendo la especificidad de la prueba. Lo inverso ocurre si se trata de obtener tests altamente
específicos, que resultarán en general tan exigentes para dar un resultado positivo, que falla-
rán en detectar la patología existente en muchas oportunidades, cayendo en consecuencia la
sensibilidad del test. Para un mismo test, esta interdependencia de la sensibilidad y la espe-
cificidad es siempre la misma y es característica del test, siendo lo que permite comparar la
eficacia relativa de distintos tests entre sí.
Las estimaciones de la sensibilidad y la especificidad de un test diagnóstico dependen
como se ha visto, de los límites de normalidad adoptados y asimismo, dependerán de la
definición y niveles de severidad de las condiciones investigadas. Una vez establecidas estas
condiciones, la sensibilidad y la especificidad son características del test. En contraste, es
fundamental notar que la sensibilidad y la especificidad de una prueba diagnóstica no
dependen de la proporción de individuos sanos y enfermos en el grupo en el que se aplica
la prueba. Si la sensibilidad de la prueba es del 90%, detectará la enfermedad en 9 de cada
10 enfermos, o en 90 de cada 100, sin importar la proporción de enfermos y sanos en la
población estudiada. Como se verá a continuación, este hecho contrasta con las diferentes
proporciones de resultados correctos que puede rendir una misma prueba según se aplique a
poblaciones con distintas prevalencias de la enfermedad, esto es, con distintas proporciones
de enfermos y sanos.
[ 322 ]
14.3. Valor predictivo
Si una misma prueba diagnóstica se aplica a poblaciones con distinta prevalencia de la
enfermedad en cuestión, las proporciones de aciertos y errores diagnósticos serán diferentes
para cada población, aunque la sensibilidad y la especificidad de la prueba permanezcan
invariables. Lo que varía en función de la composición de las poblaciones es lo que se deno-
mina el valor predictivo de la prueba. Esto se ilustrará mediante dos ejemplos, expuestos en
la tabla 14.1.
Si se considera una muestra de 800 individuos tomada de una población donde la preva-
lencia de la enfermedad sea del 50%, habrá que esperar 400 individuos sanos y 400 enfer-
mos. Si se aplica una prueba diagnóstica cuya sensibilidad y especificidad sean ambas iguales
al 90%, detectará correctamente el 90% de los enfermos y el 90% de los sanos, esto es, 400
× 0.9 = 360 individuos en cada caso. En consecuencia habrán 40 falsos positivos y 40 falsos
negativos, correspondientes al 10% de los sanos y al 10% de los enfermos respectivamente
(tabla 14.1, A). En la columna correspondiente a test (+) se observa que 360 de cada 400 tests,
o 9 de cada 10, identifican correctamente a un enfermo.
Tabla 14.1. La misma prueba, cuya sensibilidad y especificidad, ambas del 90%, son cons-
tantes, se aplica a dos muestras de 800 pacientes cada una, la primera proveniente de una
población con una prevalencia de la enfermedad del 50% (A) y la otra, de una población con
una prevalencia del 10% (B). Se muestra el número de individuos esperados en cada categoría
de la tabla.
A. Prevalencia 50 % B. Prevalencia 10 %
Test Test
( + ) ( − ) ( + ) (−)
Enfermos 360 40 400 Enfermos 72 8 80
Sanos 40 360 40 Sanos 72 648 720
400 400 800 144 656 800
Si en cambio, la prevalencia de la enfermedad fuera más baja, digamos del 10%, habría
que esperar que sólo 80 de los 800 individuos la presenten, y que los restantes 720 sean sanos.
Esto se aprecia en la tabla 14.1, B, donde con la misma sensibilidad y especificidad del test que
en el caso anterior, es fácil calcular que habrán 80 × 0.9 = 72 enfermos correctamente detec-
tados por un test positivo (verdaderos positivos) y 720 × 0.9 = 648 individuos sanos correcta-
mente diagnosticados por un test negativo (verdaderos negativos). Si ahora se observa la co-
lumna correspondiente a test (+) se comprueba que de 144 tests positivos obtenidos en el total
de la muestra, 72 pertenecen a enfermos correctamente clasificados y 72 a individuos sanos
erróneamente diagnosticados como enfermos. Si bien la detección de 72 de los 80 enfermos
es satisfactoria, ahora el número de falsos positivos ha aumentado casi al doble, y se trata de
individuos sanos que deberán sufrir nuevos exámenes. Lo que ha ocurrido es que, al haber
una cantidad proporcionalmente muy grande de individuos sanos, aunque la especificidad
del test siga siendo del 90%, el 10% de falsos positivos esperable entre los sanos y aceptable
en el primer ejemplo, ahora produce una cifra de 72 falsos positivos. Este valor coincide en el
ejemplo con el número de verdaderos positivos, por lo que un test cualquiera sorteado entre
los 144 tests positivos, tiene la mitad de las probabilidades de corresponder a un individuo
enfermo y la otra mitad, de corresponder a uno sano. Este resultado, que limita la utilidad del
test para la detección de enfermedad, está condicionado por la baja prevalencia de la misma.*
La relación entre el número de individuos enfermos correctamente identificados como tales y
el total de resultados positivos, se llama valor predictivo del test positivo y se expresa:
En el ejemplo en el que la prevalencia de enfermedad es del 10%, y con una prueba con
sensibilidad y especificidad iguales al 90% (Tabla 14.1, B), se observa que se producen 648
verdaderos negativos y 8 falsos negativos, de donde resulta que el valor predictivo de un test
negativo es igual a 648 / (648 + 8) = 0.99 o 99%. Este alto valor predictivo para un test nega-
tivo es la contrapartida del bajo valor predictivo (50%) que tiene un test positivo cuando la
prevalencia de la enfermedad es baja. Se ve que la utilidad de una prueba depende, por una
parte, de su sensibilidad y especificidad y por la otra, de la prevalencia de la enfermedad en
la población en estudio. Esto tiene importantes consecuencias prácticas. Se vio que una baja
prevalencia de enfermedad, al implicar una mayoría de individuos sanos, favorece la presen-
tación de falsos positivos, puesto que éstos se dan entre los individuos sanos. Esta abundancia
de falsos positivos disminuye la probabilidad de que un test positivo en esa población, sea
verdadero (14.3). De este modo, aunque la sensibilidad y la especificidad de un test sean altas
y no varíen, al aplicarlo al diagnóstico en una población con baja prevalencia de enfermedad
proporcionará una cantidad de falsos positivos que hará poco útil la prueba, pues habrá que
proseguir con nuevos estudios para separarlos de los verdaderos positivos (enfermos).
* Es fácil comprobar que con sensibilidad y especificidad iguales a 90% como en el ejemplo, si la prevalencia de
la enfermedad cae por debajo del 10%, un test positivo tiene mayor probabilidad de corresponder a un sano que a un
enfermo.
[ 324 ]
Nótese también, que para poder aceptar que las probabilidades de enfermedad han aumentado,
debía existir alguna noción previa sobre las mismas antes de hacer el test. Al respecto, se habla
de probabilidades pre-test y post-test. El teorema de Bayes permite utilizar las probabilidades
pre-test estimadas o aceptadas para una determinada enfermedad, y los resultados de un test
orientado al diagnóstico de la misma, del que se conocen su sensibilidad y su especificidad,
para estimar una nueva probabilidad de enfermedad que incluya la información proporcionada
por el test, la que se denomina probabilidad post-test. Aquí se expondrán sucintamente los
conceptos más básicos y la posible aplicación del teorema de Bayes al análisis de los resultados
de un test, examinando en especial la forma en que se modifican las probabilidades estimadas.
Aunque las diversas pruebas o tests pueden presentar más de dos resultados, incluyendo series
de valores continuos, y las clases de enfermedad pueden ser varias, la descripción se limitará
al caso más simple de dos posibles resultados del test, que se llamarán test positivo (T+) y test
negativo (T−), y dos clases posibles de diagnóstico, a saber, enfermedad presente (D) y enfer-
medad ausente (no D). El teorema de Bayes, que admite aplicaciones en varios campos de las
ciencias, en medicina se desarrolla en su forma más simple a partir de un test T, cuya sensibi-
lidad y especificidad son conocidas, y cuyos dos resultados posibles son, como se mencionara,
positivo o negativo (frecuentemente, a partir de una línea arbitraria de corte en una prueba que
rinde resultados en una escala continua). Antes de la aplicación del test, debe tenerse una idea o
existir una estimación, de la probabilidad de enfermedad para el individuo o caso en cuestión,
que se denomina probabilidad previa o pre-test, P(D). La prevalencia de la enfermedad en la
población es frecuentemente utilizada como probabilidad pre-test.
El teorema se deriva formalmente del cálculo de probabilidades esbozado en la Sección
3, y proporciona la probabilidad de enfermedad, con la condición de un test positivo. Este
resultado es el valor predictivo de un test positivo visto en el párrafo anterior, que se deno-
mina habitualmente probabilidad post-test y se expresa P(D | T+), que se lee: “probabilidad
de enfermedad, dado un test positivo.” Su valor está dado en función de la sensibilidad y la
especificidad del test, y de la probabilidad de enfermedad pre-test, P(D).
Antes de examinar la ecuación de Bayes, obsérvese que en términos de probabilidad con-
dicional, la sensibilidad de un test se define como P(T+ | D) o “probabilidad de un test positi-
vo, dada la presencia de enfermedad,” y tiene la forma de la ecuación 14.1. Análogamente, la
especificidad se define como P(T− | no D), que es la “probabilidad de un test negativo, dada
la ausencia de enfermedad,” y es idéntica a la expresión dada en 14.2. Con estas premisas, la
fórmula de Bayes corresponde a la siguiente ecuación:
donde P(T+ | D), como se dijo, es la sensibilidad del test, en tanto que el numerador completo,
[ P(T+ | D) × P(D) ], según la regla para la multiplicación de probabilidades resulta ser la pro-
babilidad de (T+ y D), test positivo y enfermedad presente.* En tanto, el denominador P(T+),
es la probabilidad de un test positivo en todo el conjunto de sujetos, sanos y enfermos, que
integran la población, y corresponde a la zona grisada de la figura 14.1. Se ve que la ecuación
* Recuérdese que la regla para la multiplicación de probabilidades, esto es, para obtener la probabilidad de A y B
ocurriendo simultáneamente, es: P (A y B) = P (A) × P (B | A) ( §3.3.2).
[ 325 ]
de Bayes divide la probabilidad de “test positivo y enfermedad” por la probabilidad de “cual-
quier test positivo, haya o no enfermedad.” De esta manera, responde a la pregunta: cuál
es la probabilidad de que el paciente tenga la enfermedad, si el test resulta positivo? Ahora
bien, a fin de obtener una forma del teorema en función de la sensibilidad y especificidad del
test, el denominador debe descomponerse en la suma las probabilidades de test positivo dada
enfermedad, y test positivo en ausencia de enfermedad:
de modo que reemplazando P (T+ ) en 14.5, se tiene una versión desarrollada del teorema:
donde, como se señaló más arriba, P(T+ | D) es la sensibilidad del test, y P(D) la prevalencia o
cualquier estimación de la probabilidad pre-test. A su vez, P(T+ | no D) es la probabilidad de
obtener un test positivo en ausencia de enfermedad, la cual es el complemento de la especifi-
cidad y se puede por tanto escribir (1 − especificidad). Por último, P(no D) es el complemento
de la prevalencia P(D) y puede escribirse 1 − P(D). Haciendo estas sustituciones el teorema de
Bayes queda expresado como:
que permite estimar la probabilidad de enfermedad dado un resultado positivo del test, cono-
ciendo tres datos: la sensibilidad y la especificidad del test, y la prevalencia de la enfermedad
o probabilidad pre-test.
Ejemplo 14.1.
Se ha informado que la ecocardiografía de esfuerzo tiene una sensibilidad del 68% y una
especificidad del 90% para el diagnóstico de enfermedad coronaria (Hirano y col., 2006). De
acuerdo a esto, ¿en cuánto puede estimarse la probabilidad de enfermedad coronaria en un
hombre de 40 años, asintomático, con un ecocardiograma de esfuerzo positivo (anormal)?
Dejando de lado la exactitud de las estimaciones de la sensibilidad y especificidad del
eco de esfuerzo, el tema crucial es la asignación de probabilidades pre-test de enfermedad
coronaria al paciente en cuestión, ya que la aplicación de la fórmula de Bayes es sencilla. La
prevalencia de la enfermedad coronaria en la población general puede aceptarse, a los fines
del ejemplo, en alrededor del 7% (Diamond y Forrester, 1979). Aunque es posible tratar de
mejorar la estimación de las probabilidades pre-test de enfermedad coronaria a partir de
múltiples factores, en particular los llamados factores de riesgo, se mostrará el cálculo con
los datos mencionados. Reemplazándolos en 14.8, se tiene:
[ 326 ]
con lo que la probabilidad de padecer coronariopatía luego de un ecocardiograma de es-
fuerzo anormal se estima en 34%. Esta sigue siendo una probabilidad no demasiado alta: la
probabilidad de estar sano es aún 1 − 0.34 = 0.66 o 66%. La chance de estar sano, según la
prueba, es de alrededor de 2 a 1.
Si el paciente en cuestión se presentara con angina atípica, la probabilidad pre-test po-
dría estimarse en alrededor del 50% (Braunwald el al, 2001). En tal caso, la probabilidad
post-test sería igual a
que es un valor relativamente alto y debería obligar a proseguir los estudios. Por último, si el
paciente se presentara con angina típica, su probabilidad pre-test rondaría, según la misma
fuente, el 90%, y el lector puede calcular como ejercicio que la probabilidad luego de un
test ecocardiográfico positivo resulta del 98%, que es un nivel muy alto que se podría decir
“próximo a la certeza,” aunque teniendo presente que los cálculos estadísticos se ajustan a los
datos pero no reemplazan al juicio médico.
[ 327 ]
14.5. Razón de probabilidades de una prueba diagnóstica (likelihood ratio)
En este apartado se describen los cocientes o razones de probabilidad de los tests,
más conocidos por su expresión inglésa likelihood ratio, que son estadísticos que re-
sumen en un solo número la sensibilidad y la especificidad de un test, y como éstas, lo
caracterizan. Los likelihood ratios (LR) permiten un manejo sencillo y eficiente de la
sensibilidad y la especificidad de los tests, para obtener las probabilidades post-test, toda
vez que se tenga una estimación de las probabilidades previas. El LR de un test positivo
resume cuánto más propensos a presentar un test positivo se hallan los individuos con la
enfermedad, que los que no la padecen. Como sabemos, la probabilidad de un test positi-
vo en los enfermos está dada por la sensibilidad del test, y la probabilidad del mismo test
positivo, en los sanos, es el complemento de la especificidad, o sea 1−especificidad. Por lo
tanto, puede escribirse:
En forma muy general, likelihood ratios mayores que 10 se consideran evidencia fuerte a
favor del diagnóstico de la enfermedad en cuestión. Ahora bien, los likelihood ratios cobran
su utilidad práctica en el contexto del teorema de Bayes, y su aplicación es extremadamente
sencilla con la condición de trabajar con odds en vez de probabilidades (§3.4), para lo cual
solamente deberá recordarse la transformación: Odds = P / (1 − P).
[ 328 ]
Se ha visto que el teorema de Bayes expresa la probabilidad post-test o probabilidad de
enfermedad dado un test positivo, P( D | T+), en función de la sensibilidad y especificidad del
test. Expresando dicha probabilidad como odds post-test a favor de la enfermedad, puede
demostrarse que (14.8) equivale a:
que es una ecuación sencilla donde deben reemplazarse las probabilidades por sus odds. A
partir de la probabilidad pre-test P(D), muchas veces estimada a partir de la frecuencia o pre-
valencia de la enfermedad en la población, se calculan los odds pre-test, P(D) / [1 − P(D)]. El
producto de estos odds por el LR corresponde a los odds post-test a favor de la enfermedad,
el resultado de la aplicación de la fórmula de Bayes expresado en odds. El pasaje de odds a
probabilidades convencionales se realiza como en (3.7): P = odds / (odds + 1).
Ejemplo 14.2.
Con los datos del Ejemplo 14.1, el cálculo de las probabilidades de enfermedad coronaria
post-ecocardiograma de esfuerzo positivo puede hacerse conociendo el LR del método para
un test positivo, que se ha visto más arriba que se calcula a partir de (14.9) y para este caso
resultó igual a 6.8. Este valor es característico para el test, y sólo se requiere multiplicarlo por
una estimación de los odds pre-test a favor de coronariopatía, para obtener los odds post-test
según (14.11).
Se verá el caso del paciente con probabilidad pre-test P(D) = 0.07. Se tiene:
Odds pre-test = P(D) / [1 − P(D)]
= 0.07 / (1 − 0.07) = 0.075
Odds post-test = odds pre-test × likelihood ratio
= 0.075 × 6.8 = 0.51
Probabilidad post-test = Odds post-test / (Odds post-test + 1)
= 0.51 / ( 0.51 + 1) = 0.34
como en el Ejemplo 14.1. Conociendo el LR del método no es necesario emplear la sensibili-
dad y la especificidad, pues toda la información está contenida en aquél.
[ 329 ]
14.6. Exactitud global de un test (overall accuracy)
La llamada exactitud global de un test (overall accuracy) expresa la proporción de resul-
tados correctos que se obtienen con su aplicación, y se calcula sumando verdaderos positivos
y verdaderos negativos, y dividiendo por el número total de individuos examinados:
[ 330 ]
Figura14.2. Curva ROC para el diagnóstico de hipertrofia ventricular izquierda mediante el
índice de Sokolow-Lyon. El eje vertical representa la sensibilidad del test y el eje horizontal el
complemento de la especificidad (1 − especificidad) para los diversos umbrales posibles. Los
puntos A, B y C representan el rendimiento del test con distintos umbrales.
Para obtener una curva ROC completa se necesitan más puntos, para lo cual hay que
variar el umbral del test de un modo continuo. Como en cualquier determinación de la sensi-
bilidad y la especificidad de un test, debe contarse con un método estándar que proporcione
los diagnósticos de referencia. La mecánica del procedimiento se esboza a continuación a
partir de datos presentados por Rodríguez y col, 2004.
En una muestra de 266 individuos de ambos sexos, se ensaya el índice electrocardio-
gráfico de Sokolow-Lyon para el diagnóstico de la hipertrofia ventricular izquierda (HVI),
pero en vez de hacerse una única prueba con el valor de corte tradicionalmente aceptado de
35 mm (3.5 mV), se realizan varios ensayos para distintos puntos de corte. Previamente, la
presencia de HVI ha sido detectada con “certeza” mediante el ecocardiograma (que actúa
como método referencia) en 72 individuos, con lo cual hay 266 − 72 = 194 individuos sin
HVI. Volviendo al índice de Sokolow-Lyon, tomando como punto de corte 35 mm (de modo
que Sokolow-Lyon ≥ 35 mm se considera diagnóstico de HVI) se observan 22 resultados po-
sitivos, de los cuales 17 corresponden a HVI (verdaderos positivos) y 5 a individuos sin HVI
(falsos positivos). Con este punto de corte, la proporción de verdaderos positivos detectados
es de tan sólo 17 en 72 individuos con HVI, o sea 17 / 72 = 0.24 o 24%, en tanto que la pro-
porción de falsos positivos es de 5 en 194 individuos normales o sea 5 / 194 = 0.026 o 2.6%.
La proporción de verdaderos positivos detectados refleja la sensibilidad del test con un punto
de corte en 35 mm, en tanto que la proporción de falsos positivos, 0.026, corresponde a los
casos donde “falla” la especificidad, lo que se puede expresar como (1 − especificidad). Si
se representan gráficamente la fracción de verdaderos positivos (sensibilidad) y la de falsos
positivos (1 − especificidad) se obtiene el punto A de la Figura 14.2. Dado que 0.026 es igual
a (1 − especificidad), la especificidad se calcula enseguida en 1 − 0.026 = 0.974 o 97.4%. Estos
datos concuerdan con la pobre sensibilidad y muy alta especificidad del índice de Sokolow-
[ 331 ]
Lyon en el nivel de corte en que es corrientemente utilizado. El punto A es un punto perte-
neciente a la curva ROC del índice de Sokolow-Lyon, para la muestra evaluada. Nótese que
para estas determinaciones es indispensable tener un estándar de referencia que proporcione
el “veredicto” acerca de la presencia o ausencia de la condición evaluada por la prueba. En el
caso que nos ocupa, el estándar es el ecocardiograma, y la prueba bajo evaluación, el índice
electrocardiográfico de Sokolow-Lyon.
Tomando otro punto de corte para el diagnóstico de HVI, por ejemplo Sokolow-Lyon ≥
25 mm, los diagnósticos verdaderos positivos son ahora 47 en 72 o sea 0.65 o 65% mientras
que los resultados falsos positivos son (por pura coincidencia) nuevamente 47, que entre 194
individuos sin HIV indican 47 / 194 = 0.24 o 24% de resultados falsos positivos. Se observa
que al reducir el umbral diagnóstico a 25 mm, la sensibilidad del índice de Sokolow-Lyon
para la HVI aumenta al 65%, pero a expensas de una caída de la especificidad a 1 − 0.24 =
0.76 o 76%. Estos resultados se traducen en el punto B de la Figura 14.2. Finalmente, véase
que ocurre tomando un valor umbral exageradamente bajo de, digamos, 15 mm. Ahora el
test detecta correctamente (verdaderos positivos) a 70 / 72 = .97 o 97% de los casos de HVI,
pero también produce 166 resultados falsos positivos, o sea 166 / 194 = .86 u 86%, lo que
implica que la especificidad ha caído al nivel inaceptable de 1 − 0.86 = 0.14 o 14%. Este es
el punto C de la Figura 14.2. Los programas de computación recorren automáticamente to-
dos los valores que puede tomar el test en una muestra y para cada punto, realizan cálculos
similares a los ya vistos, tomando como referencia los datos proporcionados por el método
estándar, generando las correspondientes curvas ROC.
Puede verse que cuánto mayor sensibilidad se obtenga con la menor cantidad de falsos
positivos, o sea, con el menor sacrificio posible de especificidad, la curva ROC se acercará al
ángulo superior izquierdo de la gráfica (nótese que dicho ángulo corresponde a sensibilidad
100% y especificidad 100%). Por esta razón una medida de la eficiencia de un test es la
proporción de área bajo la curva en relación al área total de la gráfica (la curva ROC para
un test con 100% de sensibilidad y especificidad, estaría formada por los bordes izquierdo
y superior de la gráfica, abarcando toda su área). No se puede decir qué proporción de área
bajo la curva corresponde a un test bueno, muy bueno o malo, pero está claro que en general,
cuanto mayor el área bajo la curva, mayor será la eficacia del test. En el ejemplo del índice de
Sokolow-Lyon, el área es de 0.76 o 76%.
De lo visto hasta aquí, queda claro que una curva ROC proporciona el par sensibili-
dad – especificidad para cada uno de los umbrales que puede adoptar el test, permitiendo
elegir el más adecuado a las necesidades del investigador. El nivel de especificidad deseado,
que equivale a la proporción de resultados falsos positivos que se está dispuesto a tolerar,
condiciona el punto de la curva en que se deberá trabajar, y este punto tiene asociado un
nivel de sensibilidad que no será posible superar con el test en cuestión. Si la sensibilidad ha
de ser aumentada, habrá que se sacrificar la especificidad desplazándose a la derecha sobre
el eje horizontal, admitiendo una mayor proporción de resultados falsos positivos, con lo
que también aumentarán los verdaderos positivos. Todas las estrategias posibles en materia
de sensibilidad y especificidad pueden ser así evaluadas mediante la inspección de la curva
ROC, para elegir la más conveniente de acuerdo al tipo y finalidad de cada test. En los casos
en los que un diagnóstico correcto es muy importante por las consecuencias que implicaría
[ 332 ]
no detectar la enfermedad, se deberá trabajar en un punto de la curva de alta sensibilidad,
lo que podrá implicar una mayor proporción de resultados falsos positivos. Ahora bien, si
los resultados falsos positivos obligan a estudios riesgosos, penosos u onerosos, se tendrá
un límite para incrementar la sensibilidad, puesto que ello resultará en un aumento paralelo
de tales resultados. En cualquier caso, las curvas ROC permiten elegir el o los puntos de la
misma en los cuales se obtiene el mejor compromiso entre sensibilidad y especificidad de
acuerdo a las necesidades médicas de cada situación, pero, como es obvio, no incrementarán
las posibilidades diagnósticas intrínsecas de cada test. Existen programas estadísticos que
generan las curvas ROC a partir de un juego de datos compuesto por los resultados del test
para un conjunto representativo de individuos, y la condición de “verdadero enfermo” y
“verdadero sano” para cada uno de éstos, dada por el estándar de referencia. Estas curvas
ROC podrán ser luego utilizadas para definir los niveles de sensibilidad y especificidad en los
que se prefiere trabajar con el test diagnóstico, siempre y cuando se apliquen a poblaciones y
técnicas comparables con aquéllas empleadas para elaborarlas. Una muy buena discusión de
los aspectos fundamentales de las curvas ROC se hallará en Metz (1978).
[ 333 ]
15. Análisis de la sobrevida
15.1. Introducción
El análisis de la sobrevida se refiere a un conjunto de métodos destinados a estudiar
la ocurrencia de distintos eventos, entre ellos la muerte, en grupos de individuos seguidos
a lo largo del tiempo, esto es, longitudinalmente. Las llamadas curvas de sobrevida dan la
proporción de individuos de un conjunto inicial, que se mantiene con vida en diferentes mo-
mentos a lo largo de un tiempo de observación. Son muy utilizadas para tener una imagen
visual de la forma en que la mortalidad afecta a distintos grupos de individuos, por ejemplo
en el seguimiento de distintos tratamientos, en la búsqueda de diferencias que puedan tener
importancia en la futura selección de las mejores opciones terapéuticas. Se representan en un
sistema de ejes, con el tiempo en las abscisas (x) y la proporción de sobrevivientes en las or-
denadas (y), se inician en tiempo cero y con el 100% de los individuos con vida, presentando
una forma escalonada, descendente hacia la derecha y abajo, a medida que la proporción de
sobrevivientes disminuye con el tiempo (Fig. 2.4). Los correspondientes datos numéricos en
que se originan reciben el nombre de tablas de sobrevida. Estos instrumentos proceden de los
censos, relevamientos destinados a conocer y eventualmente administrar distintos aspectos
de grandes grupos humanos como naciones o ciudades, de los cuales existen referencias his-
tóricas más o menos lejanas. Las técnicas censales adquirieron un gran desarrollo a partir del
siglo XVIII, pero los adelantos más importantes en lo relacionado con las ciencias médicas
datan de las últimas décadas, cuando además recibieron la contribución del campo del aná-
lisis multivariado. Las curvas de sobrevida son la expresión gráfica de toda una elaboración
teórica que permite su cálculo numérico, incluyendo los métodos para la construcción de
modelos matemáticos que las representan, las técnicas para la comparación de varias curvas
entre sí y también para la evaluación de covariables que puedan tener influencia sobre la pro-
ducción de los eventos.
A pesar de su nombre, las curvas de sobrevida son aplicables a cualquier condición o
evento con una probabilidad de aparición definida, que pueda afectar a conjuntos de indivi-
duos. Así, son condiciones de interés frecuente la morbilidad o aparición de una enfermedad,
sus recaídas, las intervenciones o reintervenciones quirúrgicas, las internaciones y también
circunstancias médicamente favorables como la remisión de determinados procesos o sín-
tomas, etc. También puede interesar el momento en que se alcanza cierto punto sobre una
variable continua, como por ejemplo el momento en que los glóbulos blancos descendidos por
[ 334 ]
un tratamiento se recuperan por sobre un valor prefijado. Cualquiera de estas situaciones se
denomina evento, y las técnicas estudian la incidencia de eventos y el tiempo transcurrido
hasta el evento. El tiempo que transcurre hasta la presentación de los eventos se suele desig-
nar como tiempo de sobrevida, tiempo de seguimiento o tiempo al evento, siendo también
utilizados los términos failure time y, en el caso de ensayos terapéuticos, trial time. Este tiem-
po no se refiere al calendario, sino que comienza a contarse desde cero en el momento de la
inclusión del individuo en el seguimiento.
En este tipo de estudios es frecuente observar la proporción de pacientes libre de eventos
en diferentes momentos del seguimiento. Así, se puede calcular la proporción de individuos
libre de eventos o sobreviviente, a los seis meses, al año, etc. En otras oportunidades se infor-
ma la proporción de individuos dentro de un grupo, que han sufrido un evento durante un
tiempo de observación o seguimiento determinado, lo que se conoce como la incidencia del
evento durante dicho intervalo.
[ 335 ]
El ejemplo se ilustra en la figura 15.1, donde se observa la técnica gráfica corriente: la
sobrevida se representa por un segmento horizontal que indica el porcentaje de sobrevivientes
al comenzar el intervalo y se extiende hasta el comienzo del intervalo siguiente. En este punto,
el nuevo porcentaje se grafica como un nuevo segmento o escalón, discontinuo con el anterior
y que representa el porcentaje de sobrevivientes al descontarse los individuos fallecidos en el
intervalo previo. No hay así trazos oblicuos en las curvas de sobrevida. En la figura, el primer
segmento indica el 100% de individuos que inician el estudio en el tiempo x0 . En el tiempo x1
se han producido los primeros 10 óbitos y el porcentaje de sobrevida del 90% es indicado por
el nivel del segmento que comienza en x1. En el tiempo x2 , cuando se han producido otros 10
eventos y el porcentaje de sobrevida alcanza el 80%, se inscribe el correspondiente escalón,
que se modificará en el tiempo x3 y así sucesivamente.
Figura 15.1. Construcción de una curva de sobrevida (ver el texto). Se expone el porcentaje de
sobrevivientes en x1 (90%) y x 2 (80%), correspondiente a los dos primeros escalones.
[ 336 ]
el contacto con el paciente en tiempos estipulados y la recolección de datos se tornan engo-
rrosos, consumidores de tiempo y costosos. El tema de los intervalos de duración arbitraria
se evita mediante el método de Kaplan y Meier, que además proporciona herramientas de
análisis efectivas y relativamente sencillas en sus lineamientos generales, y se reseñará a conti-
nuación. Con este método se considera que el tiempo de seguimiento se halla dividido en una
gran cantidad de pequeños intervalos, en general tan pequeños como puedan ser registrados
sin perder exactitud. Como frecuentemente se emplean intervalos de un día, supongamos que
ese es el intervalo elegido. El método procede así: habiendo nj individuos en seguimiento, si
en un día cualquiera se producen dj eventos (uno o más eventos), la probabilidad de evento
estimada para el tiempo t j es:
q j = d j / n j (15.1)
p j = 1 − q j = 1 − (d j / n j)
= (n j − d j) / n j (15.2)
l t = Π p j = Π [ (n j − d j) / n j ] (15.3)
[ 337 ]
rales del mismo, que son importantes por dar una idea de la forma en que se realizan las com-
paraciones. El método consiste en formar un conjunto único con los datos de los dos grupos
a comparar, digamos A y B, manteniendo la identificación de cada individuo según el grupo
al que pertenezca. Supongamos que en un momento los grupos tienen nA = 100 y nB = 50
individuos respectivamente, y ese día se producen 3 eventos en el conjunto de ambos grupos.
La expectativa lógica bajo la hipótesis nula de no diferencia en incidencia de eventos entre los
grupos, es que 2 de los tres eventos ocurran en el grupo con 100 individuos, y el restante en
el grupo con 50 individuos, esto es, que la incidencia de eventos sea proporcional al número
de individuos de cada grupo. Esta es la base del método, y si los eventos se presentan en can-
tidades proporcionales al tamaño de cada grupo, no habrá diferencias entre lo observado y lo
esperado. Pero si en cambio los eventos acontecen de otra forma, por ejemplo los 3 eventos en
uno de los grupos, o 2 eventos en el grupo más chico y 1 en el más grande, se tienen eviden-
cias en contra de la hipótesis nula. Cada vez que se producen uno o más eventos, se compara
el número observado en cada grupo con el esperado de acuerdo a la cuantía del respectivo
grupo. A lo largo de todo el estudio, se suman los eventos observados (O) y esperados (E) en
cada uno de los grupos, obteniéndose las sumas OA y E A en el grupo A, y las sumas OB y E B
en el grupo B. El estadístico
se conoce como hazard ratio y es una expresión del riesgo relativo de evento en el grupo A
respecto del B.
La significación estadística del riesgo relativo h frente a la hipótesis nula de riesgos igua-
les (h = 1), se calcula mediante (15.4) y se obtiene en los paquetes estadísticos corrientes.
Como se ha visto, el análisis de la sobrevida puede realizarse mediante diversos méto-
dos y en distintos ámbitos. En medicina son muy comunes los estudios de seguimiento de
grupos o cohortes, muchas veces para evaluar diferencias entre grupos sometidos a distintas
intervenciones terapéuticas pero también con otros objetivos, como evaluar la evolución de
distintos padecimientos, o de enfermedades estratificadas según distintos factores de riesgo.
El método de Kaplan y Meier es uno de los de elección para analizar la sobrevida en cohortes,
y una de las pruebas de significación más empleadas es el logrank test. Existen otras semejan-
tes, como la de Wilcoxon, que asimismo se obtienen en los paquetes de computación de uso
corriente.
[ 338 ]
describa la forma de transcurrir el tiempo de sobrevida, y a partir de los datos reales de los
grupos se estiman los parámetros correspondientes a la distribución previamente elegida.
De esta forma, el modelo como función del tiempo, describe la sobrevida observada en los
distintos grupos, en forma análoga a lo que hace una ecuación de regresión cuando estima
la variable independiente. Dichos modelos de la sobrevida permiten una serie de inferencias
y comparaciones, así como la introducción de métodos multivariados a fin de controlar los
efectos de diversas covariables, siendo el tiempo la variable en función de la cual se expresan
las características de la sobrevida. La estimación de los parámetros de dichos modelos se
realiza en general por el método de máxima verosimilitud (maximum likelihood), que no es
dado examinar aquí. Como estas técnicas son relativamente complejas, sólo se comentarán
las características más importantes de los métodos paramétricos y la interpretación de sus
resultados, en especial lo que se refiere al método “semi-paramétrico” de Cox.
Mediante los métodos paramétricos, se pueden construir distintas funciones F( t ) que
describen la proporción de eventos que se van acumulando a lo largo del seguimiento hasta
cada instante t, o sea en función del tiempo. Siendo que una función F( t ) da cuenta de la pro-
porción de eventos, la proporción de sobrevivientes hasta cada instante t, estará dada por la
función S( t ) = 1 − F( t ). Por ejemplo, si F( t ) indica que a los t días de seguimiento los eventos
alcanzan al 15% del grupo original, se tendrá que S( t ) = 1 − 0.15 = 0.85 u 85%, corresponde
a la proporción de de sobrevivientes hasta ese instante. S( t ) se denomina función de sobrevi-
da (survivor function) y su representación gráfica es similar a las curvas de sobrevida vistas
anteriormente, aunque en este caso deriva de un modelo matemático ajustado a los datos (Fig.
15.2). Hay diversos modelos de sobrevida y una forma de describirla es a través de la llamada
función de riesgo (hazard function), que relaciona el riesgo de muerte en un instante t, con la
proporción de sobrevivientes hasta ese mismo momento.
[ 339 ]
λ ( t ) = f ( t ) / S ( t ) (15.6)
se conoce como función de riesgo (hazard function) y puede expresarse como la probabilidad
de que, habiendo sobrevivido hasta el instante t, se produzca el evento en el instante siguien-
te.
Existen varios modelos para λ ( t ), el más sencillo de los cuales corresponde a λ = cons-
tante. En este caso, se demuestra que la función de sobrevida toma la forma
S ( t ) = e − λ t (15.7)
cuya gráfica para λ = 0.02 se observa en la Figura 15.2. Sin embargo, el asumir λ invariable a
través del tiempo no se considera totalmente satisfactorio y se han elaborado otros modelos,
como los de Weibull y Gompertz, en los que la función de riesgo se modifica en función del
tiempo (Armitage y Berry, 1994).
λ ( t, x ) = λ0 e β x (15.8)
[ 340 ]
riesgo relativo = e β x (15.9)
siendo βx = β1x1 + β2x2 + … + βnxk una regresión múltiple de las distintas covariables, cuyos
coeficientes β se obtienen mediante el procedimiento de estimación conocido como de máxi-
ma verosimilitud. Reemplazando las x por sus valores numéricos y exponenciando en e, se
obtiene la estimación del riesgo para un individuo con ese arreglo particular de los datos. En
el caso de una variable independiente dicotómica puede obtenerse el riesgo relativo entre los
dos estados posibles de la misma, como por ejemplo diabetes presente y diabetes ausente, tra-
tamiento 1 y tratamiento 2, etc. Este método, en que el riesgo para cada conjunto de variables
se considera independiente del tiempo, y relativo con respecto al valor que tomen las covaria-
bles, se conoce como método de los riesgos proporcionales de Cox (proportional hazards).
A fin de ilustrar el procedimiento, considérese el caso del seguimiento de una cohorte
en la que una variable independiente binaria, codificada como normal = 0 o alterada = 1,
exhibe al final del estudio un coeficiente b = 1.2, que resulta estadísticamente significativo.
Reemplazando el valor 1.2 en la fórmula (15.9), se obtiene:
con lo que la estimación para la variable en estado normal queda como valor de referencia y
el riesgo relativo resulta 3.32 veces mayor en los pacientes con la variable alterada.
Como el modelo de Cox no toma en cuenta el tiempo, no permite hacer predicciones con
respecto al tiempo de presentación de los eventos, sino estimar el riesgo que implica cada
cambio en las covariables con respecto al conjunto de los datos. Estas son estimaciones del
riesgo relativo. Como se ha visto, cada coeficiente β mide el cambio en el riesgo relativo por
cada incremento en una unidad de la variable correspondiente. En el caso de una variable
dicotómica, como se vio más arriba, el cambio en una unidad implica el cambio de estado de
la variable, pero el método también puede aplicarse a variables continuas, y cuando hay di-
ferentes predictores independientes constituye un efectivo modelo de regresión múltiple para
la estimación de los riesgos relativos, siempre bajo el presupuesto de que el efecto del tiempo
es el mismo para todos los individuos considerados. El grado de significación estadística de
los coeficientes de regresión así como sus límites de confianza, se obtienen de los paquetes
estadísticos corrientes.
[ 341 ]
16. Enfermedades en las poblaciones
16.1. Generalidades
En forma general, la epidemiología trata de la distribución de la enfermedad en las pobla-
ciones. Así, uno de los temas principales de la epidemiología es lo concerniente a la presencia de
enfermedad y a la aparición de nuevos casos, llamadas respectivamente prevalencia e inciden-
cia. Otro interés de la epidemiología es el estudio de la gama de factores que pueden interactuar
con la presentación de las enfermedades, entre los que se cuentan los ambientales, biológicos,
socioeconómicos, etc. Un tipo importante son los factores médicos, que incluyen las distintas
intervenciones terapéuticas. Todos estos factores se llaman exposiciones. A los sujetos que en-
tran en relación con esos factores se los suele denominar expuestos.
En general, muchos de los métodos de la estadística prestan utilidades para abordar los
problemas de la enfermedad en las poblaciones, pero hay algunos especialmente aptos para
adaptarse a las situaciones típicas de la epidemiología, que como se entenderá, son métodos
de tipo esencialmente “observacional” o descriptivo, en contraste con los procedimientos
experimentales o de laboratorio, donde las cosas se disponen y aún se provocan, a criterio
del investigador. Así, los estudios epidemiológicos se ocupan de observar y dar cuenta del
panorama espontáneamente proporcionado por la enfermedad, describiendo su modo de
aparición, permanencia, duración, propagación y modificación por diversas exposiciones.
En cambio, los estudios experimentales seleccionan el material de estudio, actúan sobre él
mediante todo tipo de intervenciones, lo modifican y evalúan los cambios provocados, tal
como ocurre en el ensayo de drogas o en el trabajo con animales o preparados de laboratorio.
Con todo, la distinción entre estudios descriptivos y experimentales no es neta, y hay situa-
ciones que comparten características, como pueden ser los estudios de grandes muestras de
poblaciones en las que se ensayan distintas terapéuticas, donde las técnicas del seguimiento
suelen emplear los métodos típicos de la epidemiología, y el hecho de administrarse un trata-
miento controlado tiene que ver con las intervenciones experimentales.
Existen dos métodos especialmente apropiados para el estudio de la enfermedad en po-
blaciones: el seguimiento de cohortes o grupos a lo largo del tiempo, y los estudios de tipo
caso-control. La primera variedad se refiere con cierto detalle en la Sección 15, y tiene ca-
racterísticas que muchas veces la harían de elección, aunque no siempre su puesta en prác-
tica es sencilla, y no hay forma de obviar el tiempo de seguimiento requerido. En tanto, los
estudios caso-control, que constituyen un método propio de los estudios epidemiológicos,
[ 342 ]
también presentan recursos de diseño y cálculo que los hacen útiles, y serán examinados en
lo que sigue.
en el momento en que se hace su determinación. Se expresa como casos por cien, por mil,
etc, según su magnitud. Si en una población hay 2 casos de una determinada enfermedad por
cada 100 individuos, la prevalencia será de 0.02 o, expresado en porcentaje, 2%. El término
prevalencia no sólo se aplica a enfermedades, sino a cualquier condición o evento que pueda
estar presente o ausente en una población. Así, se habla corrientemente de la prevalencia de
distintos factores de riesgo para enfermedad, y también de características como el género o
el color del cabello, etc.
La incidencia mide la tasa de ocurrencia de nuevos casos de enfermedad en una pobla-
ción durante un tiempo determinado, y se expresa como
[ 343 ]
de contraerla que un individuo del último grupo. El cociente entre la incidencia de enferme-
dad en dos grupos se llama riesgo relativo (RR) o “razón de riesgos” (risk ratio):
RR = I1 / I 2 (16.3)
[ 344 ]
pleta cuando se conoce la incidencia del proceso en estudio en al menos uno de los grupos
que se comparan. Resulta evidente que si el riesgo de enfermedad es menor en los individuos
expuestos, como puede ser el caso si la exposición se refiere a un tratamiento efectivo, (16.5)
proporcionará valores negativos. Este detalle formal no impide entender los resultados como
una reducción del riesgo asociada a la exposición.
Se ha visto en la Sección 8, que en circunstancias donde el tiempo de presentación de
los eventos no es el objeto principal de la investigación, como en el estudio de la mortalidad
hospitalaria por endocarditis infecciosa en individuos con y sin insuficiencia renal, el riesgo y
el riesgo relativo pueden estimarse a partir de la proporción de casos en los distintos grupos.
Cabe agregar que en estos casos también la diferencia de riesgo puede estimarse como la di-
ferencia entre las proporciones de individuos afectados en los grupos expuesto y no expuesto,
lo cual puede expresarse como la diferencia en la mortalidad, por cada 100 individuos.
NNT = 1 / DR (16.6)
[ 345 ]
16.5. Riesgo atribuible
Las consecuencias de un determinado aumento del riesgo por la exposición a un factor
dado, dependerán también de la proporción de individuos en la población que presenten el
factor y estén expuestos a su influencia. Es decir, el riesgo relativo asociado con un factor de
exposición tendrá mayor repercusión en la población cuanto mayor sea la prevalencia del fac-
tor. Una medida de este efecto está dada por el llamado riesgo atribuible (attributable risk),
que expresa la proporción de casos incidentes en la población, atribuibles a la presencia del
factor en cuestión, y que se estima como una proporción o porcentaje de la incidencia global
de enfermedad. Una forma de calcularlo es estimando la incidencia entre los individuos no
expuestos del grupo (I NE), restándola de la incidencia global estimada en la totalidad del gru-
po (I t), y dividiendo por esta última:
Existen otras expresiones del riesgo atribuible, entre ellas una que permite calcularlo en
función del riesgo relativo para el factor del que se trate (RR), y de la proporción o prevalencia
del factor en la población (PF):
[ 346 ]
dad (casos) o que no la presentan (controles), y recién entonces se determina quiénes se hallan
y quiénes no se hallan expuestos al factor en consideración. Es llamativo que, a pesar de no
contarse con estimaciones directas de la incidencia de la enfermedad, pues no hay seguimiento,
estos estudios proporcionen estimaciones suficientemente buenas del riesgo relativo, también
conocidas como riesgo relativo aproximado, y en esto radica su importancia. El desarrollo de
un estudio caso-control se expondrá y comentará a continuación.
En un trabajo dirigido a examinar la asociación del infarto de miocardio con el uso de
contraceptivos (Dunn y col, 1999), se comparó un conjunto de 448 mujeres que lo habían
presentado, con otro de 1728 mujeres de edad similar y sin antecedentes de infarto. Los
diagnósticos se obtuvieron en forma retrospectiva a partir de historias clínicas y entrevistas
con médicos tratantes y pacientes. Varios factores de riesgo fueron considerados en el mismo
estudio, y en la Tabla 16.1 se muestran los datos relativos a la proporción de dislipemia en
casos y controles, dispuestos en una tabla de 2 × 2.
[ 347 ]
Tabla 16.2. Tabla de 2 × 2. Número de de casos y controles clasificados según la exposición.
RR = [ a / (a + c) ] / [ b / (b+ d) ] (16.9)
Por motivos teóricos, en los estudios caso-control debe usarse una aproximación a (16.9), en
donde los casos, a y b, son suprimidos del denominador. La expresión se transforma así en la
razón de los odds u odds ratio (OR):
OR = (a / c) / (b / d) (16.10)
= (a × d) / (b × c) (16.11)
En forma análoga a lo ya visto para el risk ratio, el OR es el cociente entre los odds de
infarto en dislipémicos y en no dislipémicos. Esta nueva estimación del riesgo relativo por
medio del odds ratio resulta aceptable mientras el número de casos (enfermedad) sea relati-
vamente pequeño en comparación con los controles, cosa que por otra parte es frecuente en
estudios epidemiológicos.
A fin de demostrar que la ecuación (16.10) expresa el OR en función de las frecuencias de
casos y controles, obsérvese que si la probabilidad de infarto en el conjunto dislipemia está
dada por a / (a + c), su complemento (1 − probabilidad) debe ser igual a c / (a + c), ya que a y c
se refieren a las dos únicas posibilidades, infarto y no infarto. Recordando que odds = proba-
bilidad / (1 − probabilidad), los odds de infarto en el grupo dislipemia estarán dados por a / (a
+ c) dividido por c / (a + c), lo que es igual a a / c, el numerador de (16.10). En forma análoga,
los odds de infarto en el grupo no expuesto resultan iguales a b / d, que es el denominador de
(16.10).
En este punto debe enunciarse un hecho fundamental, en cuyo análisis no cabe profun-
dizar aquí (ver Armitage y Berry, 1994, e Ingelfinger y col, 1994), que permite estimar con
suficiente exactitud el riesgo relativo (RR) aún cuando no se conozcan las incidencias de la
enfermedad en los grupos expuesto y no expuesto, y no se cumpla la exigencia de muestreo
aleatorio de la población de interés: en los estudios de caso-control, el odds ratio, expresado
[ 348 ]
como (a/c) / (b/d) (datos dispuestos como en Tabla 16.2), es una estimación del riesgo rela-
tivo de enfermedad (RR) entre individuos expuestos y no expuestos.
El enunciado afirma que obteniendo conjuntos de casos y controles, la proporción de indivi-
duos expuestos al factor en estudio en cada uno de ellos, permite estimar con suficiente exactitud
el riesgo relativo de enfermedad entre expuestos y no expuestos. Este hecho es interesante, ya
que a partir de muestras arbitrarias de casos y controles se llega a estimar el riesgo de enferme-
dad de acuerdo a la exposición, y fundamenta la validez de la estimación del riesgo relativo en
los estudios de tipo caso-control. Es notable que sus resultados se hallen de acuerdo con los que
proporcionan los estudios de seguimiento de cohortes, aún cuando los estudios de caso-control
no provienen del muestreo aleatorio de poblaciones, sino que casos y controles han sido seleccio-
nados en número arbitrario, frecuentemente a partir de distintas fuentes de datos.
Prosiguiendo el examen del infarto en la dislipemia, reemplazando en (16.10) se obtiene
el odds ratio:
OR = (a / c) / (b / d) = (34 / 51) / (414 / 1677) = 2.70
que es una expresión del riesgo relativo de infarto de miocardio en presencia de dislipemia,
respecto de los individuos sin dislipemia, obtenida del odds ratio.
[ 349 ]
8 a propósito de los pacientes con endocarditis, si se estima el riesgo relativo de los pacientes
sin insuficiencia renal con respecto a los que la presentan, el cociente se invertirá y se tendrá
RR = 1 / 1.63 = 0.61, que al ser menor que cero denota una menor mortalidad en el grupo
sin enfermedad renal. En este caso, el odds ratio también se invertirá y será igual a 1 / 1.99
= 0.50, ahora subestimando el riesgo relativo. Es decir, el odds ratio proporciona siempre
valores más extremos que el riesgo relativo, al que sobrestima cuando éste es mayor que 1, y
subestima cuando es menor que 1.
Sin embargo, el odds ratio es una expresión sencilla y suficientemente segura del riesgo
relativo si se toman en cuenta las restricciones numéricas para su cálculo. Por lo demás, el
odds ratio, que relaciona los odds a favor de un suceso entre dos grupos, es de por sí una
medida de la probabilidad y aparece en distintas áreas de la teoría estadística, como se ha
mencionado más arriba. En §12.5 se tratan algunos aspectos relacionados con su rol en la
regresión logística.
Es interesante anotar aquí que el OR es el mismo si se calcula a lo largo de las filas según
la exposición, que si se calcula a lo largo de las columnas, según se trate de casos o controles.
Esta simetría explica que el OR sea el mismo si se calcula para los casos (infarto) respecto
de expuestos y no expuestos, que si se calcula para la exposición (dislipemia) en casos y
controles. Puede decirse que el OR es una medida de asociación entre las dos variables de la
tabla, y numéricamente es irrelevante con respecto a cuál de éstas se calculen los odds. Tam-
bién puede verse en (16.11), que el OR puede calcularse de la tabla en forma muy sencilla,
multiplicando en cruz y dividiendo los productos (por lo que suele denominarse cross ratio).
[ 350 ]
En el ejemplo, los límites de confianza del 95% para OR = 2.70, son 1.73 y 4.22. Como
con los datos del ejemplo la probabilidad del OR de exhibir valores por fuera de esos límites
es de sólo el 5%, se acepta que el OR hallado difiere significativamente de 1 y se rechaza la
hipótesis nula, afirmándose que el riesgo de padecer un infarto de miocardio es significativa-
mente mayor en las mujeres expuestas a la dislipemia, con un nivel P ≤ 0.05. A continuación
se da una breve reseña, a modo de ilustración, de uno de los métodos para el cálculo de los
límites de confianza para el OR, aunque éstos pueden obtenerse directamente de los paquetes
estadísticos corrientes.
y los límites de confianza para el 95% se aproximan mediante la distribución normal toman-
do z = 1.96, siempre sobre la transformación logarítmica:
y para volver a los valores originales, deben obtenerse los correspondientes antilogaritmos:
[ 351 ]
16.9. Odds ratios, factores de riesgo y marcadores de enfermedad
Se ha dicho que la evaluación de las asociaciones entre patologías y factores de expo-
sición es una de las tareas típicas de la epidemiología, y la estimación del riesgo es uno de
los objetivos principales. En todas esas situaciones, las estimaciones del riesgo relativo,
entre las cuales el odds ratio es muy utilizado, dan idea del aumento (o disminución) de
las probabilidades de desarrollar la enfermedad en el grupo expuesto con relación al no
expuesto. Cuando el odds ratio difiere significativamente de la unidad, se puede rechazar la
hipótesis nula de riesgos iguales y aceptar un efecto de la exposición sobre la probabilidad
de enfermedad. Estos resultados permiten conocer aspectos epidemiológicos de la enfer-
medad y sus relaciones con distintos factores de exposición. Así, está bien establecida la
importancia de los llamados factores de riesgo en la enfermedad cardiovascular, hecho que
se repite en las distintas áreas de la medicina, en las que diversos factores de riesgo han sido
demostrados con amplios niveles de confianza. Esto ha llevado a emplear muchos factores
de riesgo como marcadores de enfermedad, es decir, como indicadores de la presencia o
desarrollo futuro de la enfermedad. Sin embargo, para que un factor de riesgo sea eficaz
para clasificar a los individuos de acuerdo a su estado de salud o enfermedad, actual o fu-
turo, el correspondiente odds ratio debe exhibir valores que están muy por encima de los
habitualmente hallados en los estudios epidemiológicos (cf. Pepe y col, 2004). Esto tiene
una gran relevancia en vista de la tendencia a emplear diversas pruebas clínicas, en general
de laboratorio, como indicadores o marcadores de enfermedad, y se comenta brevemente a
continuación.
Se ha visto más arriba que la dislipemia se halla asociada con el infarto de miocardio
en mujeres jóvenes, con un OR = 2.70. Si ahora se examina la Tabla 16.1, se observará que
34 entre 448 casos de infarto presentaban dislipemia, con lo cual, si la dislipemia se toma
como marcador de infarto, se tiene que su sensibilidad es igual a 34 / 448 = 8% (ver Sección
14), notablemente baja para detectar la enfermedad en forma eficiente. Con la especificidad
las cosas mejoran, calculándose en 1677 controles (sin infarto) no dislipémicos entre 1728
controles en total, esto es, 1677 / 1728 = 97%. Como se aprecia, un odds ratio igual a 2.70,
estadísticamente significativo, no garantiza un buen rendimiento de la dislipemia como mar-
cador de enfermedad en la población estudiada. Sin embargo y muy importante, el aumento
de las chances de infarto de miocardio por la presencia de dislipemia es un dato de tipo epi-
demiológico que tiene su valor intrínseco y ha quedado bien demostrado en el estudio.
Como segundo ejemplo, un test ecocardiográfico de esfuerzo dedicado a la detección de
la enfermedad coronaria como el mencionado en el Ejemplo 14.1, con una sensibilidad del
68% y una especificidad del 90%, producirá por término medio 68 resultados verdaderos po-
sitivos entre 100 sujetos enfermos, y 90 resultados verdaderos negativos entre 100 individuos
sanos. Disponiendo estos datos en una tabla de 2 × 2 y completando las casillas, se tendrá:
[ 352 ]
de donde el odds ratio se obtiene como (68 × 90) / (32 × 10) = 19, que es un valor muy grande
a pesar de la apenas moderada sensibilidad de la prueba. Por último, de la Tabla 14.1 puede
calcularse fácilmente, multiplicando en cruz y dividiendo según (16.11), que un test con sen-
sibilidad y especificidad iguales al 90% implica un odds ratio igual a 81. Estos altos requeri-
mientos para poder clasificar los individuos como sanos o enfermos con aceptable exactitud,
explican porqué los niveles de asociación entre enfermedad y factores de riesgo detectados en
muchos estudios epidemiológicos, si bien permiten relacionar enfermedad y factor, no son su-
ficientes para clasificar a los individuos según su estado de salud o enfermedad. En resumen,
si bien los factores asociados con mayor riesgo de enfermedad ayudan al conocimiento de la
misma y a su eventual prevención y tratamiento, para actuar eficazmente como marcadores
de enfermedad deben exhibir odds ratios mucho mayores que los habitualmente requeridos
para demostrar asociación. En otras palabras, el logro de los estudios epidemiológicos de
establecer asociaciones significativas entre enfermedades y factores de exposición, permite
en forma indudable aumentar los conocimientos y recursos médicos, inclusive en el área
preventiva; sin embargo, para la detección de la enfermedad y la clasificación eficaz de los in-
dividuos según su presencia o ausencia, son necesarios pruebas o tests que rindan odds ratios
mucho mayores que los habitualmente manejados en los estudios corrientes de exposición-
enfermedad. La evaluación de tales pruebas debe realizarse con los métodos adecuados, que
se describen en la sección 14.
[ 353 ]
son otra cosa que factores de exposición como los vistos hasta aquí, pero cuyos efectos mu-
chas veces son ajenos a los objetivos de la investigación y cuya influencia sobre los resultados
de la misma en general se procura eliminar. Asimismo, al evaluar la influencia de un factor de
riesgo en la presentación de una determinada enfermedad, es conveniente que otros posibles
factores (cofactores) como la edad, el sexo o la eventual presencia de distintas condiciones
fisiológicas o patológicas, se hallen distribuidos en forma similar en casos y controles, de
modo de balancear sus posibles efectos sobre ambos grupos. El procedimiento general es
procurar que casos y controles sean lo más similares que sea posible en lo que se refiere a la
presencia de los factores cuya influencia se desea evitar. Un método eficaz es elegir para cada
caso, un control que presente los mismos factores cuyos efectos sobre los datos se desean
neutralizar. En general, el emparejamiento o matching de casos y controles puede realizarse
para cualquier variable, en especial la edad, el sexo y aquéllas condiciones que puedan tener
relevancia en la presentación de la enfermedad en estudio, y así alterar las relaciones entre la
enfermedad y la exposición de interés. Esto facilita el hallazgo de diferencias significativas,
atribuibles al factor de exposición que se está investigando en cada oportunidad. A cambio
de esta ventaja, el emparejamiento renuncia a obtener información acerca de las variables
para las cuales se lleva a cabo: si los controles se eligen de la misma edad y sexo que los casos,
la influencia de estas dos variables en la incidencia de la enfermedad no podrá ser evaluada
en el estudio.
Como se comprende, el emparejamiento de casos y controles según ciertas variables, es
importante cuando esas variables están asociadas a las enfermedades o a las exposiciones.
Por ejemplo, al estudiar la importancia de la exposición a ciertos inhalantes en la incidencia
de enfisema pulmonar, puede ser importante aparear casos y controles según sean o no fuma-
dores, ya que esta condición por sí misma puede afectar la incidencia del enfisema pulmonar.
Este modelo, que permitirá detectar con mayor eficacia los efectos de dichos inhalantes en el
enfisema, tendrá como precio renunciar a obtener información acerca de la importancia del
tabaquismo en el enfisema pulmonar. Al respecto, cabe suponer que esta información es ya
conocida por los investigadores o, en todo caso, que no es el objeto del estudio. Asimismo,
una variable puede estar asociada con determinadas exposiciones de importancia y por ejem-
plo, la posesión de encendedores puede hallarse asociada con el hábito del cigarrillo, de modo
que la interpretación de los resultados es siempre un punto crucial.
Debe también mencionarse un límite para este tipo de procedimientos, y es que pueden
llevar a la subdivisión excesiva de los datos agotando el número de casos necesario en cada
clase para la obtención de resultados consistentes. Además, la necesidad de elegir casos y con-
troles con las mismas características según las cuales se realiza el emparejamiento, en general
limita las posibilidades de llevarlo a cabo para más de unos pocos factores.
Para proceder con este tipo estudios, una vez apareados los casos y los controles, es
posible tabular cada par de acuerdo a la presencia o ausencia de exposición en sus dos in-
tegrantes. Por lo tanto, en cada par de caso y control se podrá dar: caso expuesto-control
no expuesto, caso no expuesto-control expuesto, ambos expuestos, ambos no expuestos
(Tabla 16.3).
[ 354 ]
Tabla 16.3. Estudio caso-control con datos apareados
La significación estadística del riesgo relativo así estimado se prueba frente a la hipótesis
nula s = t, que implica un riesgo relativo = 1. Cuando s ≠ t, el riesgo relativo indicado por el
cociente s / t es diferente de 1 e importa conocer si lo es en forma significativa.
La prueba de significación consiste en determinar la probabilidad de hallar s / (s + t ) pares
discordantes, sabiendo que si s = t, dicha probabilidad será P = 0.5 (por lo cual este es el valor
de la hipótesis nula). Esta evaluación puede hacerse mediante el test de McNemar, que utiliza
la aproximación de la distribución binomial a la normal y una de cuyas expresiones es
z = | s − t | / √ ( s + t ) (16.16)
donde z se distribuye como una variable normal estandarizada cuya probabilidad se obtiene
de las tablas de la distribución normal. El numerador es la diferencia en valor absoluto, entre
los casos discordantes observados en s y en t, mientras que el denominador es la raíz cuadrada
de su suma. Se recordará que para un nivel de significación P = 0.05, z = 1.96, que es el valor
que debe alcanzar el test para resultar significativo en dicho nivel.
16.12. Variabilidad muestral, sesgo, factores de confusión y exposiciones
Los estudios de tipo caso-control vistos en los párrafos anteriores constituyen una clase
importante de estudio epidemiológico, cuyo potencial puede extenderse al estudio del efecto
de distintos tratamientos, entendidos como “exposiciones.” En forma general, las causas que
pueden afectar la interpretación de los resultados de los distintos procedimientos de inferen-
cia estadística y por lo tanto, los de los estudios caso-control, son la variabilidad muestral,
la presencia de diversos tipos de sesgo, y factores relacionados con las variables en estudio,
mencionados más arriba como exposiciones y también llamados factores de confusión. La
variabilidad muestral, traducida en el llamado error de muestreo, es común a los distintos
procedimientos que involucran muestras: su manejo se realiza a través de distintos instru-
mentos orientados a limitarla y acotarla, algunos de los cuales han sido ya esbozados, como
[ 355 ]
el diseño de las muestras y la estimación de intervalos de confianza mediante los procedi-
mientos de inferencia estadística (Sección 6). Como en todas las áreas de la inferencia esta-
dística, el problema de las comparaciones múltiples tiene la misma importancia y el mismo
potencial para producir un aumento de resultados significativos cuando la hipótesis nula es
en realidad verdadera, por lo que debe ser siempre tenido en cuenta (ver §10.3).
Por sesgo o tendencia se entiende una distorsión o desviación sistemática de los resultados
obtenidos, respecto de los correspondientes valores en la población estudiada, y es frecuente
mencionarla con la palabra inglesa bias. Existen múltiples causas para su presentación en los
estudios clínicos, y en los estudios de tipo caso-control puede originarse, entre otras posibi-
lidades, al seleccionar los controles en poblaciones que no son comparables con aquella de la
que se obtuvieron los casos, en el diferente registro de las exposiciones en casos y controles,
o en errores en la clasificación de casos y exposiciones. Por ejemplo, en pacientes con enfer-
medades cardiovasculares, es más probable que las exposiciones conocidas como factores de
riesgo sean investigadas con más profundidad que en controles cuyas historias provengan de
un consultorio de clínica general. De esta forma, la relación entre la proporción de expuestos
en el grupo cardiológico y en los controles puede aparecer aumentada, por haber sido menos
investigada en los últimos.
Con el término factores de confusión (confounding variables) se denominan aquellos
factores o variables que están asociados a la vez con la enfermedad y con la exposición, y
pueden de esa forma contribuir a la asociación entre éstas. Estos son los factores que fre-
cuentemente requieren consideración especial en los estudios caso-control y pueden hacer
necesario el emparejamiento o matching para controlarlos (ver más arriba). A la par de su
tratamiento formal mediante técnicas estadísticas como la estratificación de las muestras y
el matching, el juicio médico es fundamental en la interpretación de los resultados. El seden-
tarismo puede estar asociado a una mayor incidencia de coronariopatía (enfermedad), pero
también a una mayor tendencia a fumar y a un mayor grado de obesidad (exposiciones), de
donde resulta difícil adjudicar su parte como causa de enfermedad a cada uno de los distintos
factores, y si la evaluación se centra en el rol del sedentarismo, el tabaco y la obesidad podrán
resultar factores de confusión. Como enseguida se comprende, la confusión por efecto de di-
versos factores puede ser notablemente complicada y también recíproca, y por lo tanto difícil
de discernir en cada escenario clínico en particular.
Según ha sido ya mencionado, la subdivisión de las muestras en estratos y la posibilidad
de matching se hallan limitadas en los estudios caso-control por la disminución de casos en
cada estrato y por las dificultades para obtener controles que emparejen con los casos una
gran cantidad de factores de confusión. En general, sólo será posible comparar un factor o
exposición de interés, y solamente se podrán controlar unos pocos factores relacionados. En
tanto, el hecho de que los estudios caso-control proporcionen estimaciones del riesgo relativo
basadas en odds, los emparenta con las técnicas de la regresión logística vistas en la Sección
12, que permiten estimar el riesgo como variable binaria en función del logaritmo de los odds
o logit. En estos casos, introduciendo los distintos factores de interés entre las variables pre-
dictoras, el odds ratio para cualquiera de ellas se puede calcular de la ecuación de regresión
(Sección 12). Otros métodos como la regresión múltiple y el método de riesgos proporciona-
les de Cox, vistos en las secciones 11 y 15 respectivamente, resultan útiles para tratar de aislar
[ 356 ]
y evidenciar los efectos de los diferentes factores sobre distintos modelos orientados a estimar
el riesgo. Estos y otros métodos multivariados, ayudan a remover los efectos de algunas va-
riables para observar el de las restantes, “controlando” los efectos las aquéllas y superando
las posibles limitaciones de los modelos caso-control.
Cuando la variabilidad muestral, los posibles sesgos y los factores de confusión han sido
controlados y pueden aún detectarse efectos estadísticamente significativos relacionados con
las exposiciones en estudio, se tienen los resultados de interés para la investigación. De este
modo podrá afirmarse la asociación de los diversos factores de exposición, con las enferme-
dades o condiciones estudiadas.
Por último, debe insistirse en que las consideraciones médicas respecto de los hechos en
estudio son al menos tan importantes como los métodos utilizados para el análisis. El esta-
blecimiento de conexiones de causa-efecto entre los hechos observados pertenece al juicio de
los investigadores y está fundado en los conocimientos existentes acerca de tema en estudio.
Como en todas las aplicaciones de la estadística, asociación y correlación no implican causa-
lidad, y una asociación fuerte entre un factor de exposición y la incidencia de una determina-
da enfermedad no garantiza por sí sola la existencia de una relación causal entre exposición y
enfermedad. Por otra parte, si existen motivos fundados para suponer la existencia de una re-
lación entre un determinado factor y una situación clínica, la investigación no debería aban-
donarse tras un estudio negativo, ya que puede deberse a insuficiente potencia de la prueba,
o a factores de confusión o sesgo, introducidos en el modelo. Solo el juicio médico fundado
en un conocimiento sólido de la materia investigada podrá decidir acerca de las conclusiones
más correctas y el camino a seguir.
Referencias
Afifi AA, Clark V. Computer-aided Multivariate Analysis. 3rd ed. Boca Raton, Florida: Chapman &
Hall/CRC; 1999.
Altman DG, Matthews JNS. Interaction1: heterogeneity of effects. BMJ 1996; 313: 486.
Altman DG, Bland JM. Generalization and extrapolation. BMJ 1998; 317: 409-410.
Altman DG, Machin D, Bryant TN, Gardner MJ (ed.). Statistics with Confidence: Confidence Intervals
and Statistical Guidelines. 2nd ed. London: BMJ Books, 2000.
Armitage P, Berry G. Statistical Methods in Clinical Research. 3rd ed. Oxford, England: Blackwell Scien-
ce Ltd; 1994.
Baker SG. The central role of receiver operating characteristic (ROC) curves in evaluating tests for the
early detection of cancer. J Natl Cancer Inst 2003; 95: 511-515.
Bland M. An Introduction to Medical Statistics. 3rd ed. Oxford, UK: Oxford University Press; 2006.
Braunwald E, Zipes D, Libby P. Heart Disease. 6th ed. Philadelphia: W.B. Saunders Company; 2001.
Cox DR, Snell EJ. Analysis of Binary Data. 2nd ed. London, England: Chapman & Hall; 1992.
Diamond GA, Forrester JS. Analysis of probability as an aid in the clinical diagnosis of coronary artery
disease. NEJM 1979; 300: 1350-1358.
Diamond GA, Forrester JS. Clinical trials and statistical verdicts: probable grounds for appeal. Ann
Intern Med 1983; 98: 385-394.
[ 357 ]
Dixon WJ, Massey FJ, Jr. Introducción al Análisis Estadístico. 2da ed. Mexico: Libros McGraw – Hill;
1973.
Dunn N, Thorogood M, Faragher B, de Caestecker L, MacDonald TM, McCollum C, Thomas S, Mann
R. Oral contraceptives and myocardial infarction: results of the MICA case-control study. BMJ
1999; 318: 1579-1583.
Feinstein AR. Clinical Biostatistics. 1st ed. St. Louis, Mo., USA: The C.V. Mosby Company; 1977.
Florey C du V. Sample size for beginners. BMJ 1993; 306: 1181-1184.
Freiman JA, Chalmers TC, Smith H, Jr., Kuebler RR. The importance of beta, the type II error and
sample size in the design and interpretation of the randomized control trial. Survey of 71 “negative”
trials. NEJM 1978; 299: 690-694.
Glantz SA. Biostatistics: how to detect, correct and prevent errors in the medical literature. Circulation
1980; 61: 1-7.
Gorry GA, Pauker S, Schwartz WB. The diagnostic importance of the normal finding. NEJM 1978; 298:
486-489.
Hanley JA, McNeil BJ. The meaning and use of the area under a receiver operating characteristic (ROC)
curve. Radiology 1982; 143: 29-36.
Harrel FE, Jr., Lee KL, Pollock BG. Regression models in clinical studies: determining relationships
between predictors and response. J Natl Cancer Inst 1988; 80: 1198-1202.
Hirano Y, Uehara H, Nakamura H, Ikuta S, Nakano M, Akiyama S, Ishikawa K. Efficacy of Ultra-
sound-assisted Stress Testing Using a Hand-carried Ultrasound Device for Diagnosis of Coronary
Artery Disease. J Am Soc Echocardiogr 2006; 19:536-539.
Hoel PG. Introduction to Mathematical Statistics. 5th ed. New York: Wiley; 1984.
Ingelfinger JA, Mosteller F, Thibodeau LA, Ware JH. Biostatistics in Clinical Medicine. 3rd ed. New
York: McGraw - Hill, Inc; 1994.
Kattan MW. Judging new markers by their ability to improve predictive accuracy. J Natl Cancer Inst
2003; 634-635.
Leung WC. Balancing statistical and clinical significance in evaluating treatment effects. Postgrad Med
J 2001; 77: 201-204.
Levy D, Labib SB, Anderson KM, Christiansen JC, Kannel WB, Castelli WP. Determinants of sensitivity
and specificity of electrocardiographic criteria for left ventricular hypertrophy. Circulation 1990;
81: 815-820.
Lusted LB. Decision-making studies in patient management. NEJM 1971; 416-424.
Mantel N, Haenszel W. Statistical aspects of the analysis of data from retrospective studies of disease. J
Nat Cancer Inst 1959; 22: 719-748.
Menard S. Applied Logistic Regression Analysis. Sage University paper series on quantitative applica-
tions on social sciences. 2nd ed. Thousand Oaks, CA. : Sage Publications, Inc. ; 2000.
McPherson K. Statistics : the problem of examining accumulating data more than once. NEJM 1974;
501-502.
Markush RE. Levin´s attributable risk statistic for analytic studies and vital statistics. Am J Epidemiol
1977; 105: 401-406.
Matthews JNS, Altman DG. Interaction 2: compare effect sizes not P values. BMJ 1996; 313:808.
Matthews JNS, Altman DG. Interaction 3: how to examine heterogeneity. BMJ 1996; 313: 862.
Metz CE. Basic principles of ROC analysis. Semin Nucl Med 1978; 8: 283-298.
[ 358 ]
Modenesi JC, Ferreirós ER, Swieszkowski S, Nacinovich FM, Cortés C, Cohen Arazi H, Kazelian L, Va-
rini S, Ciruzzi M, Casabé JH, en representación investigadores EIRA-II. Predictores de mortalidad
intrahospitalaria de la endocarditis infecciosa en la República Argentina: resultados del EIRA-II.
Rev Argent Cardiol 2005; 73: 283-290.
Mood AM, Graybill FA. Introducción a la Teoría de la Estadística. 4ª ed. Madrid: Aguilar; 1978.
Pampel F. Logistic Regression. A Primer. 1st ed. Thousand Oaks, CA.: Sage Publications, Inc. ; 2000.
Passik CS, Ackermann DM, Pluth JR, Edwards WD. Temporal changes in the causes of aortic stenosis: a
surgical pathologic study of 646 cases. Mayo Clin Proc 1987; 62:119-23.
Pepe MS, Janes H, Longton G, Leisenring W, Newcomb P. Limitations of the odds ratio in gauging the
performance of a diagnostic, prognostic, or screening marker. Am J Epidemiol 2004; 159: 882-
890.
Peto R, Pike MC, Armitage P, Breslow NE, Cox DR, Howard SV, Mantel N, McPherson K, Peto J, Smith
PG. Design and analysis of randomized clinical trials requiring prolonged observation of each pa-
tient. I. Introduction and design. Br J Cancer 1976; 34: 585-612.
Peto R, Pike MC, Armitage P, Breslow NE, Cox DR, Howard SV, Mantel N, McPherson K, Peto J, Smith
PG. Design and analysis of randomized clinical trials requiring prolonged observation of each pa-
tient. II. Analysis and examples. Br J Cancer 1977; 35: 1-39.
Ransohoff DF, Feinstein AR. Problems of spectrum and bias in evaluating the efficacy of diagnostic tests.
NEJM 1978; 299: 926-930.
Rifkin RD, Hood WB, Jr. Bayesian analysis of electrocardiographic exercise stress testing. NEJM 1977;
297: 681-686.
Rodríguez ML, Dizeo C, Selva H, Brito M, Nordaby RA, Campo A, García Guiñazú CA, Machado RA.
En presencia de valvulopatía el ECG tiende a subestimar la masa ventricular izquierda: un resultado
de la fibrosis intersticial? Rev Argent Cardiol 2004; 72 (sup 3): 149.
Schroeder LD, Sjoquist DL, Stephan PE. Understanding Regression Analysis: An Introductory Guide.
1st ed. Newbury Park, CA: Sage Publications, Inc.; 1986.
Snedecor GW, Cochran WG. Métodos Estadísticos. 5a ed. Mexico: Compañía Editorial Continental,
S.A.; 1970.
Talfryn H, Oakley D, Crombie IK, Tavakoli M. When can odds ratios mislead? BMJ 1998; 316: 989-
991.
Tukey JW. Some thoughts on clinical trials, especially problems of multiplicity. Science 1977; 198: 679-
684.
Turner JC. Matemática Moderna Aplicada. Probabilidades, Estadística e Investigación Operativa. 1st
ed. Madrid: Alianza Editorial S.A.; 1974.
Vickers AJ, Altman DG. Analysing controlled trials with baseline and follow up measurements. BMJ
2001; 323: 1123-1124.
Wackerly DD, Mendenhall W, III, Scheaffer RL. Estadística Matemática con Aplicaciones. 6a ed. Mexi-
co: Thomson; 2002.
Weissler AM. A perspective on standardizing the predictive power of noninvasive cardiovascular tests by
likelihood ratio computation: 1. Mathematical principles. Mayo Clin Proc 1999; 74: 1061-1071.
Weissler AM. A perspective on standardizing the predictive power of noninvasive cardiovascular tests by
likelihood ratio computation: 2. Clinical applications. Mayo Clin Proc 1999; 74: 1072-1087.
Zhang J, Yu KF. What´s the relative risk? JAMA 1998; 280: 1690-1691.
[ 359 ]
[ 360 ]