miércoles, 18 de abril de 2018

Estadística y epidemiología. Segunda vuelta.

Hoy os traigo mi experiencia con esta asignatura. De principio la gran temida y, por último, la que más deseaba que apareciese en los simulacros y en el MIR. Es una asignatura abstracta, y que, en mi opinión, no nos preparan nada durante la carrera. Al menos de las que he oído hablar, seguro que hay alguna que sí realmente. Una vez dominado lo básico y yendo profundizando poco a poco más. Es una asignatura que se aprende haciendo preguntas y simulacros, y es esto lo que daré como "conceptos generales" que suelo poner en todas mis entradas. Tiene poca teoría, mucha lógica y juego mental. Bueno para algunos, malos para otros (para mi, por ejemplo). Personalmente lo pasé al con esta asignatura así que me extenderé bastante a explicar con mis propias palabras muchos de los conceptos. Seguro que en las academias que estéis lo explican (y seguro que mejor), pero si puede evitar a algún opositor mis malos ratos, mejor que mejor. Dividiré la entrada en las dos partes en las que está dividida la asignatura.

Nota: cuando haga referencia a "fármaco" en el apartado de ensayo clínico o contraste de hipótesis, me refiero a una "intervención" (proceso diagnóstico o terapéutico nuevo). Digo "fármaco" porque es más sencillo inventarse y entender estudios sobre "fármacos"

EPIDEMIOLOGÍA

TEMAS CLAVES

1.- Tipos de estudios epidemiológicos

Lo primero que hice fue asustarme al ver tanto tipos de estudios, pero posteriormente decidí hacerme un esquema de los diferentes tipos que hay, englobando cada uno de los subtipos
  • Estudios descriptivos
    • Serie de casos clínicos
    • Estudios ecológicos
    • Estudios transversales
  • Estudios analíticos
    • Analíticos experimentales
      • Ensayo clínico
      • Ensayo de campo
    • Analítico cuasiexperimentales
      • Ensayo comunitario de intervención
      • Ensayos antes-después
      • Estudio controlado no aleatorizado
    • Analíticos observacionales
      • Estudio de cohortes
      • Estudio de casos y controles
Ha habido muchas preguntas de este tema y son un "must" en cuanto a acertarlas, pues la mayoría de los opositores las tendrán bien. Son preguntas asequibles, excepto en algún simulacro donde ponen algún caso especial para aprender a dominarlos a la perfección. Al final querréis muchas preguntas de este tema, son netas sencillas.

Recordad que os estudios de cohortes van de causa hacia efecto, por lo que serán prospectivo y capaces de ver los múltiples efectos que tiene una misma causa, que es la que estudiamos (multiefectividad). Los de casos y controles van de efecto hacia causa, por lo que serán retrospectivos y capaces de ver las múltiples causas que pueden producir un mismo efecto (multicausalidad).

Últimamente están cayendo conceptos algó "más allá" como los casos-controles anidados. Serán estudios de casos y controles pero que en la pregunta os dirán de una forma más sutil o menos, que se han cogido pacientes de una misma cohorte
  • Ejemplo: pacientes mineros con enfermedad pulmonar intersticial. Me interesa ver la relación entre su enfermedad y la exposición que han tenido ¿existe relación o no? No tiene sentido que coja pacientes con enfermedad intersticial pulmonar que no hayan trabajado en una mina, no son comparables. Compararé los enfermos (casos) con los sanos (controles) que hayan trabajado en la misma mina (anidados)
2.- Ensayo clínico

Básicamente es el tema más importante de todo el MIR. Obligatorio sabérselo TODO, son netas fáciles, ya que, una vez dominado, se saca bien. Me extenderé un poco en este tema porque igual os sirve de algo y... bueno, la verdad es que no tengo nada más que hacer ahora mismo.

==> Lo primero que se nos presenta son los típos de ensayos clínicos que tenemos. Seguro que vienen bien indicados por donde lo estudiéis pero haré referencia a dos subapartados que han caído en varios simulacros y que me costó entender:
  • Ensayos clínicos de fase II
    • Fase IIa: el objetivo es buscar la DOSIS del fármaco, sin plantearnos si es eficaz o no
    • Fase IIb: el fármaco empieza a usarse, el estudio es con grupo control. Comenzamos a valorar muy someramente la eficacia
  • Ensayos clínicos de fase III:
    • Fase IIIa: se ha determinado la EFICACIA pero aún no se ha comenzado a tramitar el fármaco para su uso comercial
    • Fase IIIb: se ha determinado la EFICACIA, se ha TRAMITADO la documentación a agencias reguladoras pero aún no han sido aprobados para su uso comercial.
==> Cambio de tercio para hablar a continuación de las diferentes partes en la realización de un ensayo clínico:

Hay diferentes formas de ver los ensayos clínicos en función de las formas en la que se realice el ensayo clínico. Así pues, por ejemplo, en función de la cohorte de estudio que se selecciona, serán Pragmáticos o Explicativos. Mnemotecnica: los ensayos PRAgmáticos son aquellos que llevan el uso del nuevo fármaco a la PRÁctica, es decir, lo que se ve en condiciones del día a día en los pacientes, por lo que tendrça criterios de inclusión laxos, entran muchos participantes fácilmente.

Una vez seleccionada la cohorte, se deben medir las variables basales de la cohorte, para ver si son comparables entre sí o si se pueden extrapolar a la población general.

En tercer lugar se debe llevar a cabo la aleatorización, esto es CLAVE para que sea un ensayo clínico. Ojo, importante, la aleatorización debe estar DOCUMENTADA siempre, pero también debe estar ENMASCARADA, los pacientes no deben saber en a qué grupo han ido. La aleatorización hace que los grupos sean homogéneos. Así pues tendremos diferentes tipos de aleatorizaciones:
  • Simple: si queremos dividir a la cohorte en dos grupos por ejemplo (toma fármaco/no lo toma), las posibilidades son "fifty-fifty", esto nos aleatoriza a los pacientes pero con el problema de que quede desequilibrado, ya que pese a que la probabilidad sea 50%, nos puede quedar el 47% de pacientes en un grupo y 53% en otro. Nos interesará por tanto, que el tamaño muestral sea grande.
  • Por bloques: se hacen bloques de aleatorizado para que haya el mismo número en ambos grupos. Este método se usa cuando la muestra es pequeña
  • Estratificada: divido la muestra en base a una variable de interés y luego aleatorizo los dos grupos. Por ejemplo, la variable "ser fumador" me puede interferir con los resultados, por lo que dividiré la cohorte en fumadores y no fumadores, y luego, aleatorizaré cada parte.
  • Por conglomerados: este es un poco tricky. Veamos, de a población, cojo grupos aleatoriamente y de ellos, a su vez aleatorizo y cojo la muestra. Se parece a la aleatorización estratificada.
      • Entonces ¿en qué se diferencian la estratificada y por conglomerados? En la estratificada los grupos de la muestra son DIFERENTES entre sí porque los hemos dividido en base a una variable de interés (en mi ejemplo de antes, fumar). En la de por conglomerados, he cogido grupos sin tener en cuenta esa variable por lo que, en principio, son IGUALES.
En cuarto lugar, se aplaicará la intervención (fármaco/técnica diagnóstica...), que puede ser abierto, simple, doble o triple ciego.

En último lugar se analizarán los resultados. Hay diferentes formas de analizar los resultados...
  • Por protocolo: analizan SOLO a los pacientes que han terminado el estudio y seguido con todo el protocolo del mismo
  • Por intención de tratar: se analizan TODOS los pacientes, hayan finalizado el estudio o no. Se analizan en el grupo de estudio donde fueron inicialmente asignados. ¡Es el que se considera más adecuado!
Dato: puede ocurrir que realicemos análisis intermedios, es decir, antes de conseguir el objetivo que buscamos. ¿Qué ocurre con esto? Si hago muchos análisis, puede ser que alguno de ellos de un falso positivo siendo la realidad negativa y eso me lleve a decir que la nueva intervención (o fármaco) es mejor, es decir, me lleva a un aumento del error alfa.

==> El siguiente punto que se ve es el DISEÑO de los ensayos clínicos: el clásico (o en paralelo), el diseño cruzado, secuencial y el factorial. Es fácil reconocerlos y quizás merezca la pena comentar sobre el cruzado:
  • Debe existir periodo de blanqueo para eliminar el efecto carry-over que llevan algunos fármacos. Si los diferentes fármacos que se usan tienen un periodo de lavado más largo que otro, el paciente no se puede comparar consigo mismo.
  • La secuencia de administración de intervenciones pueden ser diferentes en respuesta
  • NO SIRVEN para enfermedades agudas, prevenciones o profilaxis... si damos un fármaco inicialmente y se cura o da inmunidad... no sirve nada poner otro fármaco para comparar.
==> Ensayos de no Inferioridad. A ver, esto está MUY DE MODA, son conceptos nuevos y que cada vez son más frecuentes. Una cosa que me molestó mucho de CTO es que no se aclaraban ni a la de tres para establecer cuando un fármaco es superior, no inferior y demás. Yo mismo acabé descubriéndolo 3 días antes del MIR investigando por mi cuenta.

¿De qué van este tipo de ensayos clínicos? Tengo un fármaco primohermano de otro que ya existe y se usa como referencia, quiero ver si la nueva intervención que tengo es NO INFERIOR, es decir, de principio NO BUSCO QUE SEA SUPERIOR (aunque se pueda comprobar que lo sea). Nuestra hipótesis nula de base va a ser: "la intervención nueva es inferior". En este tipo de casos nos van a dar un dato clave, que es el límite delta. Este número indica el valor máximo que se aceptará como diferencia respecto a la intervención de referencia; en cristiano: si el resultado del estudio de mi nueva intervención contiene un intervalo de confianza con el valor delta (diferencia máxima aceptada respecto a la intervención de referencia), no se puede considerar no inferior. El valor de delta que me dan en la pregunta tiene una imagen especular en negativo y en función de dónde caiga el intervalo de confianza podré afirmar diferentes cosas:

Hmm... debería plantearme enfocar bien al hacer las fotos
  • No inferior: el I.C. está entre -delta (lo que me da el enunciado) y +infinito
  • Equivalente terapéutico: el I.C: está situado entre -delta y +delta
  • Superior: el I.C: está situado entre el punto neutro (1 para Riesgo Relativo o 0 para otras medidas)
  • No demostrable: el I.C. está situado entre el punto neutro y -infinito
  • Inferior: el I.C: está situado por debajo de -delta
  • No concluyente: el I.C. abarca más allá de -delta y +delta
==> Ensayos de Bioequivalencia. Con estos ensayos clínicos voy a comparar dos fármacos, pero no en base a su efecto clínico, sino en base a su FARMACOCINÉTICA (Biodispoibilidad), en magnitud y velocidad. Tened en cuenta que se caracterizan por ser de Fase I, realizados en sanos pero son doble ciego. El diseño que usan son cruzados. Tras haber administrado el fármaco, se va viendo su concentración en sangre y cómo varia. ¿Cuándo consideraremos que son bioequivalentes entonces? Cuando la diferencia en velocidad y magnitud de basorción entre ellas es inferior al 20%. Es decir, si vemos que NO hay diferencia entre ellos, el punto neutro lo tenemos en 1; por lo que, como no pueden diferir más de un 20% de ese valor neutro 1, el I.C. debe de estar entre 0,8 y 1,2 (+20% y -20% respectivamente). Si el I.C: de las diferencias farmacocinéticas están entre 1,2 y 0,8, podremos decir que son bioequivalentes.

==> Metaanálisis. Entran muchísimo como pregunta vinculada a imagen, para saber interpretarlo. Seguro que sabéis lo que es un metaanálisis, solo dejaré claro lo que tenemos que hacer.

1.- ¿Hay heterogenicidad en los estudios que he incluido en el metaanálisis o son todos con resultados globales similares? Para ver la heterogenicidad, nos van a dar el valor de I2: si es mayor de 50%, es heterogeneo; si es menor de 30% es homogéneo. Algunas veces con ver este valor, nos da la respuesta a la pregunta, así que buscarlo si veis alguna imagen. Por otro lado, si tengo que el metaanálisis tiene estudios muy heterogéneos entre sí, para combinar los resultados de todos los estudios que lo compone y que me de un resultado definitivo, usaré el modelo de efectos aleatorios. Si lo compone estudios homogéneos entre sí, la combinación de resultados la haré con un modelo de efectos fijos.

2.- ¿He cogido bien los estudios o me he saltado los que no me interesan o no se han publicado? Suele pasar que, cuando haces un estudio, te da un resultado contrario al que esperabas. Muchos analistas y profesionales deciden no publicar este resultado "porque no es el que me esperaba" y eso le viene fatal a un metaanálisis, cuyo objetivo es combinar resultados de todos los estudios posibles de un tema en concreto. A la incorporación de "los estudios que me interesan" y no de "todos los que serían ideales" se le denomina sesgo de publicación. Este sesgo se puede medir de dos formas: mediante el análisis de sensibilidad y mediante el funnel plot (que es lo preguntado en simulacros y el MIR hasta la fecha). En el funnel plot se representan todos los estudios que conforman el metaanálisis en función del tamaño que tenga (eje de ordenadas) y el resultado de dicho estudio (eje de abscisas). Para que me entendáis, una tabla (pirámide) de funnel plot indicará que NO hay sesgo de publicación cuando los estudios que conforman el metaanálisis se reparten simétricamente en la pirámide gráfica. Si dicha pirámide no es simétrica, es que faltan estudios y se tiene sesgo de publicación. Lo clave de todo esto, es aplicarlo a preguntas vinculadas a imágenes. No desesperéis. Fallad y aprended, que es algo dificil de comprender.

TEMAS DE IMPORTANCIA MEDIA

1.- Estudio de un test. Parámetros de uso.

A ver, ante cualquier pregunta en la que os hablen de "sensibilidad" "especificidad" y sus sucedáneos, HACED UNA TABLA DE CONTINGENCIA. Es un tema que se aprende haciendo desgloses, problemas y fallando preguntas. Es importantísima la corrección de simulacros para este tema pues así aprenderéis a llegar a los datos que os piden usando diferentes caminos.

Sabed que en los diferentes simulacros que hagáis os van a poner diferentes formas de describir cada uno de los conceptos y esto es CLAVE, pues en el MIR no te van a dar la definición que te sabes. No memorices, comprende. Por esto mismo, no tengo mucho que aportar aquí, es un tema que se aprende practicando y fallando los ejercicios.

Importante saber que en muchas ocasiones no tenéis sensibilidad nie specificidad y sí la PREVALENCIA de la enfermedad, esta constituye la probabilidad preprueba y con esta podremos sacar los datos. Por ejemplo, si la prevalencia de la enfermedad es 2%... de 100 personas, 2 serán enfermos (verdaderos positivos) y 98 sanos (verdaderos negativos). ¡¡¡Hay que saber jugar con los datos!!!

2.- Medidas de frecuencia, asociación y de impacto

En conjunto, son temas claves a dominar. Pueden parecer conceptos abstractos pero os voy a dejar lo que viene a significar cada uno.

==> Medidas de frecuencia: es la forma de ver "cuántas veces se da" la enfermedad o evento en la población.
  • Prevalencia: imaginad una línea de tiempo. Si hacemos un corte en un punto y contamos el número de casos de enfermedad en ese punto, tendremos la prevalencia.
  • Incidencia: nos imaginamos ahora un periodo de tiempo. El número de casos nuevos que se produzcan en ese periodo de tiempo será la incidencia
  • Densidad de incidencia: nos imaginamos de nuevo el periodo de tiempo, vemos lo junto o separados que están los diferentes casos en el tiempo. Esa velocidad de aparición (por persona y unidad de tiempo) es la densidad de incidencia.
==> Medidas de asociación: hemos visto los casos de enfermedad, pero resulta que esa enfermedad (o evento que sea) se produce por haber una exposición a un factor. ¿Cuántas veces será por lo tanto ese evento si me expongo a la causa que lo predispone? Aquí entras las medidas de asociación, que vienen a indicar cuantas veces es más frecuente un evento en un individuo expuesto a un factor. Se puede medir de tres formas: mediante el riesgo relativo (RR), la Odds Ratio (OD) y la razón de prevalencia (RP). ¿Cuándo usaremos cada uno? Si la medida de asociación la estamos estudiando en un estudio de cohortes usaremos el RR, si es en un estudio de casos y controles, usaremos la OD y si estamos en un estudio de prevalencias, la RP.

¿Cómo lo interpretamos? A ver... si tenemos un RR = 3, diremos que el evento que sea, será TRES VECES más frecuente en el grupo expuesto como en el no expuesto. Si tenemos un RR menor de 1 indicaremos que el evento es MENOS FRECUENTE en los expuestos, es decir, actuará como factor protector. Si el RR = 1 indicará que se da el mismo número de veces en expuestos como en no expuestos.

==> Medidas de impacto: vienen a indicar la diferencia exposición-no exposición. Os dejo lo que viene a significar cada una de las medidas con una semántica más friendly:
  • Riesgo absoluto o atribuible: es la diferencia entre incidencia en expuestos y no expuestos, por lo que indicará el total de casos que produce la exposición al factor de estudio. 
  • Fracción atribuible/etiológica en expuestos: debido a que su fórmula es una proporción, nos dará un %, que es el % total de la enfermedad que es debida al factor de exposición que estamos estudiando. Ejemplo: en un grupo no expuesto, el número de casos de enfermedad es de 10, pero si pongo un factor de riesgo, tengo 20 casos. la FAE será del 50%, pues la mitad de los casos son atribuidos a la exposición.
  • Reducción absoluta de riesgo: de nuevo una diferencia, pero ahora es respecto a los NO EXPUESTOS. Nos permite ver el número de casos de enfermedad que se evitan si eliminamos la exposición que estamos estudiando.
  • Reducción relativa del riesgo: de la misma forma que la FAE, nos dará un %, pero esta vez será el % casos que se evitan si quito el factor de exposición de estudio. Ejemplo: Si quitamos un factor de exposición, la incidencia de la enfermedad pasa de 10 casos a 5, la RRR será del 50% ya que la mitad de los casos son producidos por la exposición.
  • Número necesario a tratar: indica el número de sujetos que se tienen que tratar con una medida para curar a una persona o para evitar un efecto adverso. A más bajo sea, mejor. Muchas preguntan tratarán de preguntarte cuales de dos posibles intervenciones es más eficiente (menos dinero). Si un fármaco A tiene un NNT de 50 y el otro de 40, el segundo es mejor, tengo que darle el fármaco a menos personas para que se cure una.
3.- Validez y fiabilidad de los estudios epidemiológicos.

En este tema se explican los diferentes errores que se pueden cometer en un estudio y cómo solucionarlos. Es un poco engorroso, sobre todo por los nombrecitos de los errores que hay. Pero bueno, espero que os pueda ayudar un poco con esto.

Tenemos dos tipos de errores en un estudio: el aleatorio (fruto del azar) y el sistemático o sesgo (fruto de la mala realización del estudio).

==> Los errores aleatorios no se pueden corregir una vez ocurren ni predecirse a priori, pero se pueden prevenir aumentando el tamaño muestral. Estos errores pueden modificar la INTENSIDAD de la asociación o causalidad, pero NO CAMBIAN EL SENTIDO de dicha asociación.

==> Los errores sistemáticos son corregibles y PUEDEN CAMBIAR LA POSIBLE ASOCIACIÓN o causalidad, por lo que afectarán a la validez interna (que no se de nuevo el mismo resultado entre los individuos del propio estudio). Resulta que hay diferentes tipos de errores sistemáticos:
  • Sesgo de selección: en el proceso de selección de los individuos, implica coger sujetos con características claves diferentes que no se pueden comparar. Se corrige mediante la aleatorización, homogeneizamos grupos. Hay diferentes grupos
    • Sesgo del voluntario: un individuo viene y se presenta voluntario al estudio. No sé si tiene las condiciones necesarias para estudiarlo, por lo que si lo cojo estoy seleccionando mal.
    • Sesgo diagnóstico o de Berkson: cuando baso mi estudio en pacientes hospitalarios. Los resultados serán más intensos que si hubiese cogido sujetos de la población general, ya que, al ser hospitalarios, están peores clínicamente.
    • Falacia de Neyman: cuando se usan casos prevalentes en lugar de incidentes. Este es algo lioso de explicar así que pondré un ejemplo. Imaginad un fármaco que da malformaciones fetales, algunas tales, que son incompatibles con la vida. Si estudiamos los niños que nacen con malformaciones, estoy cometiendo un error pues me estoy dejando un grupo de niños que han fallecido pre-parto debido a dichas malformaciones incompatibles con la vida. Es decir, estoy cogiendo un grupo de niños con la malformación ya establecida (prevalente) en lugar de todos los niños malformados, vivos o muertos (incidentes)
  • Sesgo de información o medida: se producen como fruto del conocimiento de la intervención que se va a llevar a cabo por parte del sujeto, evaluador o el analista. Se corregirá por lo tanto con enmascaramiento. hay diferentes tipos de sesgo de información:
    • Clasificación incorrecta no diferencial: como su propio nombre indica, al medir el efecto a estudio, la forma de medir AMBOS grupos (expuestos y no expuestos) no es homogénea. Por ejemplo una máquina que mide colesterol que está estropeada, mide mal tanto el colesterol de sujetos expuestos a un fármaco hipolipemiante y el de los sujetos no expuestos. La medida de asociación tiende ir a 1, es decir, al valor nulo, dando que la interpretación del resultado es que "no da tanto riesgo". Explico esto: este fallo hace que la fuerza de asociación sea menor. Con este error cometido, los niveles de colesterol me pueden dar altos tanto en el grupo expuesto al hipolipemiante como al no expuesto y viceversa ya que la máquina está estropeada y no los mide bien; por lo que, según el estudio "la exposición al fármaco no hace que varíe tanto tanto los niveles de colesterol respecto al antiguo". En definitiva, me desplaza la asociación al valor nulo.
    • Clasificación incorrecta diferencial: lo mismo que antes, pero ahora al medir el efecto del estudio, solo se hace mal para un grupo. Ello puede ser debido a:
      • Que los sujetos casos recuerden un evento mejor que los controles por haberlo padecido (ejemplo, las madres que tienen hijos con malformaciones recuerdan mejor si han tomado alguna sustancia tóxica durante el embarazo que las madres que tienen hijos sin malformaciones). Esto es el sesgo de memoria.
      • Que los sujetos de estudio cambien o modifiquen su conducta por saber que están siendo sometidos a un estudio (ejemplo, fumadores que dejan de fumar en un estudio para ver la asociación tabaca-cáncer de pulmón). Esto es el sesgo de atención o efecto Hawthorne
  • Factor de confusión: el ejemplo clásico que se suele poner es "estudio que desmuestra que el café produce laringitis". realmente no es así, sino que la toma de café se suele asociar a consumo de tabaco por ser un periodo de descanso, siendo el tabaco el productor de laringitis. Los factores de confusión se corrigen mediante la Mnemotecnica MAREA: análisis Multivariante, Aleatorización, Restricción, Estratificación y Apareamiento. Siguiendo el ejemplo de antes del café, estos confusores tiene tres características:
    • Se asocia a la exposición (el tabaco se suele tomar en periodos de descanso con un café)
    • Ser un factor de riesgo para le enfermedad (tabaco productor de laringitis)
    • No ser un paso intermedio entre exposición y enfermedad (tomar café no implica ser fumador)
==> Por último de este bloque. Los estudios tienen una validez y una fiabilidad. Se han preguntado varias veces estos conceptos, por lo que recomiendo dominarlos.
  • Validez: capacidad que tiene un test de medir lo que realmente ha de medir. Implica ausencia de error sistemático
  • Fiabilidad o precisión: capacidad de reproductibilidad del estudio, es decir, grado de simiulitud de resultados que se obtendrían si repitiese muchas veces el test. Implica ausencia de error aleatorio.
TEMAS DE IMPORTANCIA MENOR

1.- Niveles de calidad científica.

Muy sencillito. Recordad que el ensayo clínico (bien realizado, con sus doble ciegos, aleatorizados, con grupo control) es Dios y solo es superado por un metaanálisis de ensayos clínicos. Si dicho metaanálisis es de estudios casos y controles por ejemplo, es inferior.

ESTADÍSTICA

TEMAS CLAVES

1.- Distribución de variables y estadística inferencial

==> Hablaré primero de la distribución de variables. Cuando tengo una variable... por ejemplo, niveles de glucosa en sangre... esta va a tener una distribución determinada: Binomial, de Poisson o de Gauss (distribución normal). En el MIR, TODAS las variables siguen una distribución normal a menos que el enunciado te diga otra cosa. Por tanto, la distribución Normal es la más importante, la típica "Campana de Gauss" donde el centro es más elevado porque ahí es donde se acumula la mayoría de los valores "normales". El centro de esa distribución corresponde a la media, mediana y moda siempre. Una desviación estándar (medida de dispersión de la variable) se equivale al 34% de las medidas, si cogemos +1 y -1 desviación estándar respecto a la media, tendriamos un 68% de las observaciones de la variable (34 de una lado y 34 de otro). Si añadimos 2 desviaciones estándar para cada lado, en total tendríamos un 95% de las observaciones (de ahí es de donde sale el "Intervalo de confianza al 95%). Os dejo un dibujo por si lo comprendéis así mejor:
¿Por qué no borro si está escrito con lápiz?
==> A continuación hablaré de la estadística inferencial. ¿Qué significa esto? No es más que la aplicación de los resultados que he obtenido en mi muestra a la población general. Por tanto vamos a diferenciar dos cosas:

  • La muestra de mi estudio: que va a tener un tamaño (n), una media (X) como medida de tendencia central y una desviación típica (S) como medida de dispersión.
  • La población general: que es infinita, con una media poblacional (μ) como medida de tendencia central y un error estándar (eem) como una medida de dispersión.
Hasta ahí bien ¿no? Vale, con los datos de la MUESTRA puedo sacar un INTERVALO DE PROBABILIDAD (IP = X ± 1,96 · S), el cual me da una probabilidad al 95% de que los SUJETOS DE LA MUESTRA tengan sus valores dentro de dicho intervalo. Con los datos de la POBLACIÓN puedo sacar un INTERVALO DE CONFIANZA (IC = X ± 1,96 · eem), el cual me da una probabilidad al 95% de que LA MEDIA POBLACIONAL tenga su valore dentro de dicho intervalo. Es decir, esto último me da la confianza de que la media poblacional se encuentre dentro de los valores de dicho intervalo. 
  • ¿Cómo calculo el eem? Es el cociente entre la S (dato de muestra) y la raíz cuadrada de n (dato de muestra)
Es decir, basándonos en datos de nuestra muestra... sacaremos conclusiones para la población general (¡¡Inferencia!!). Los términos son claves pues así los dirán en las preguntas. No obstante, lo que he explicado es la base simplemente. ¡Practicad mucho con los simulacros, corregidlos y estad atentos!

2.- Contraste de hipótesis
==> Los contrastes de hipótesis vienen a investigar si los resultados que obtengo en un estudio y aplico a la población general son debidos al azar o es porque mi estudio está bien hecho. Me cuestionan cómo sé que mi resultado es real o es fruto del azar, es decir, cómo de probable es que las conclusiones que saco de una muestra son debidas al azar. Se acepta por consenso general que el azar puede interferir en mi resultado en un 5% como mucho, es decir, que la probabilidad (p) de que el azar produzca el resultado sea 0,05. Si haciendo mi estudio veo que el azar ha influido más de ese 0,05, no me creo el resultado de mi estudio y digo que "no es estadísticamente significativo". recordad que es un CONSENSO entre investigadores, que no hay una fórmula matemática mágica que saque el por qué es 0,05.

En un contraste de hipótesis se van a contrastar dos hipótesis: H0, hipótesis nula (no hay diferencia entre grupos estudiados) y H1, hipótesis alternativa (hay diferencia entre grupos). El objetivo final es aceptar una. Tendré una tabla 2x2 donde enfrento el resultado de mi estudio VS la realidad
Mi estudio VS La realidad (No, no es un meme)

¿Qué os recuerda a esto? A una tabla de contingencia de los problemitas de sensibilidad y especificidad ¿verdad? Pensadlo bien... ¿qué será la POTENCIA del test? la capacidad de clasificar como "hay diferencia" (estudio +) cuando en la realidad la hay (paciente enfermo)... efectivamente, la POTENCIA del test, será sinónimo de SENSIBILIDAD. De la misma manera, el nivel de CONFIANZA (no sé por qué lo escribí a lápiz) será sinónimo de ESPECIFICIDAD. Quizás veáis esto muy abstracto pero lo dejo por aquí ya que se han preguntado en varios simulacros y son conceptos muy interesantes de ser preguntados en el MIR.

==> De esta tabla, como véis sacamos los conceptos de error I o alfa (vendrían a ser los "falsos positivos") y el error II o beta (vienen a ser los "falsos negativos"). Estos conceptos son preguntados de diferentes maneras, pero se preguntan en un simulacro sí y en otro también. Por lo que son preguntas de acierto obligatorio en el MIR. Yo no me llevo bien con la semántica y las palabras/descripciones que te ponen en las preguntas van con malas intenciones, a liarte... por lo que personalmente hice un símil de estos tipos de errores con la fábula de "Pedro y el Lobo", donde partimos de la base que H0 significa que "no hay lobo":

  • Error tipo I: de principio, Pedro cuenta sus mentiras gritando "¡Que viene el lobo!" y los aldeanos se lo creen cuando realmente no existe lobo. Es decir, rechazan H0 (piensan que si hay lobo), siendo esta cierta.
  • Error tipo II: Un día viene un lobo de verdad y Pedro grita ¡"Qué viene el lobo!" Los aldeanos, hartos de sus mentiras no lo creen. Es decir, aceptan H0 (no hay lobo) cuando realmente es falsa.
Tengo finalmente un contraste de hipótesis y se ha visto si el resultado de mi estudio es producto o no del azar, con esto tendré un intervalo de confianza en el que el azar NO hay creado el resultado del estudio. Ojo, importante con esto, los intervalos de confianza NO PUEDEN TENER UN VALOR NEUTRO. Esto no sería estadísticamente significativo. 
  • Ejemplo para estudios de medidas de asociación: si lo que estudiamos son asociaciones causa-efecto y quiero ver si mie studio es significativo o no, usaré medidas de asociación (RR u OR) y en estos caso el que no haya asociación es =1 (es decir, exponerte al factor de estudio no produce más efecto que el no exponderte). Por lo que los intervalos de confianza para medidas de asociación e impacto NO DEBEN INCLUIR el 1.
  • Ejemplo para estudios de diferencias: tras un estudio demuestro que el fármaco A es mejor que el fármaco control. El intervalo resultante no debe de incluir el 0, ya que esto indica que el exponerse al fármaco A produce lo mismo que exponerse al fármaco control. Una diferencia de 0,5% sí sería significativa (si p<0,05)
==> Además de todo esto... resulta que hay más cosas y es que los estudios de contraste de hipótesis los voy a hacer usando un test u otros. No me sirve un mismo test para todos los contrastes sino que hay que usar uno u otro en función de los componentes que vaya a comparar. Bien... ¿qué tipo de test utilizaré? Tengo que plantearme las siguientes tres preguntas:
  • ¿Qué tipo de variables estoy enfrentando
    • Cualitativas
    • Cuantitativas
  • ¿Son paramétricas? Lo son si...
    • n > 30
    • No hay variables ordinales (las ordinales son un subgrupo de cualitativas)
    • Sigue una distribución normal o de Gauss (como dije antes, TODAS LAS DISTRIBUCIONES EN EL MIR SIGUEN UNA NORMAL, excepto que la pregunta diga lo contrario
  • ¿Están apareadas? Es decir, si se enfrentan los sujetos consigo mismo (estudios del tipo antes-después)
Respondiendo a esta pregunta conseguiremos acceder al tipo de test que vamos a coger para nuestro contraste.
L = CuaLitativa. T =CuanTitativa. AP = APareados

Vamos a verlo con ejemplos prácticos

  • Ejemplo 1: En un estudio se intenta correlacionar la presencia de comunicación interauricular en 2000 recién nacidos con la toma de un fármaco por parte de la madre durante el embarazo. Vamos allá con las preguntas que nos hacemos:
    • ¿Qué tipo de variables tenemos? La priemera es la presencia (sí/no) de CIA. La segunda es la toma (si/no) de fármaco. Ambas son variables CUALITATIVAS dicotómicas.
    • ¿Son paramétricas? Lo son, n>30 (son 2000 niños), la distribución es normal porque el enunciado no nos dice lo contrario. No hay variables ordinales.
    • ¿Están apareadas? No, se comparan dos cosas diferentes.
¡Nos vamos a la tabla! Hora de jugar a hundir la flota. Vamos a ver, Dos cualitativas... L-L (primera fila). Paramétricas... (test de Fisher y Yates fuera, son no paramétricos) y No Apareadas (fuera test de McNemar). El test que usaremos es el de la Chi2. 
  • Ejemplo 2: En un estudio se pretende ver la acción de un nuevo hipolipemiante respecto a la acción de una dieta hipocalórica en 25 pacientes. Se determinaron los niveles de colesterol LDL antes de iniciar las dos terapias y se compararon con los niveles de colesterol LDL tras finalizarla. De nuevo, vamos a nuestras preguntas
    • ¿Qué tipo de variables tenemos? La primera es el tipo de terapia (farmaco/dieta), CUALITATIVA (dicotómica, son dos posibilidades). La segunda son los niveles de colesterol, CUANTITATIVA.
    • ¿Son paramétricas? No, pues n es < 30
    • ¿Están apareadas? Sí, pues los niveles de LDL se comparan con los del mismo paciente tras un tiempo.
De nuevo a la tabla... las variables son Cualiatitvas dicotómicas y Cuantitativa, por lo que nuestro test estará en la segunda fila. No es paramétrico, por lo que nos tendremos que fijar en la columna de test no paramétricos, las posibilidades que nos quedan por ahora son el test de Mann-Whitney y el de Wilkoxon. Como tenemos que son muestras apareadas, nos quedamos con el Test de Wilkoxon. Enhorabuena por tu neta. Así de sencillo.


==> Finalmente de este tema, se han de hacer menciones a tests especiales, cuyo uso depende de situaciones específicas. Me refiero a los análisis de supervivencia y a los análisis multivariables.

  • Análisis de supervivencia: su objetivo es conocer la dinámica de aparición de eventos (por lo general de muertes, aunque también de curaciones). Los eventos NO CUENTAN las salidas o abandonos voluntarios de los pacientes. Consta de:
    • Curva de Kaplan-Meier: es la representación para analizar la supervivencia en los grupos observados. Conforme se producen los eventos, van disminuyendo el total de superviventes
    • Log-Rak: es el método que usan los análisis de supervivencia para ver si los resultados que se obtienen son significativos o no. El valor de p sigue siendo el mismo que para cualquier otro, es decir, <0,05 para que sea significativo
    • Hazard-Ratio: viene aser la medida de asociación en este tipo de análisis. Comparar si el tratamiento que hemos puesto es beneficioso (<1) o no (>1), en definitiva, compara las curvas.
  • Análisis multivariantes: hay situaciones en las que te tengo muchísimas variables y estas influyen en la que me interesa estudiar. Para ver si está influida o no, se usa el test de regresión logística. Si obtengo una p<0.05 puedo decir que, pese a que hay muchas variables por medio, estas no influyen en la que estoy estudiando. Por cierto, no os preocupéis con esto, no se pregunta en exceso y no tenéis que saber cuándo usarlo y cuando no. Me refiero: las preguntas suelen ser del tipo "¿qué harías si tienes 5372635786237852638752683646823 variables y te interesa estudiar solo una?" o "tengo un resultado no significativo con esta variable y tengo 5372635786237852638752683646823 más ¿qué hago?" (--> Hacer un análisis multivariante a ver si el resultado que me da es por culpa de las otras)
TEMAS DE IMPORTANCIA MEDIA

1.- Tamaño muestral

¿Cómo suponemos el tamaño muestral que voy a necesitar para un estudio? He de tener en cuenta diversos puntos previamente:
  • Si lo que pretendo con mi estudio es estimar parámetros... es decir, buscar medias, riesgos, prevalencias sin comparar nada... tendré que tener en cuenta:
    • La variabilidad que tiene mi variable de estudio: a más variable sea, mayor tamaño muestral
    • Nivel de confianza: a más nivel de confianza y exactitud quiera tener, mayor tamaño muestral
    • Riesgo de error alfa: a menos error quiera, mayor tamaño muestral
    • A más precisión quiera, mayor tamaño muestral
Como véis, son situaciones lógicas en las que aumentar el tamaño muestral me ayuda a disminuir errores y aumentar la "potencia" de mi estudio.
  • Si lo que pretendo con mi estudio es contrastar hipótesis...es decir, cuando voy a comparar dos variables.... tendré que tener en cuenta:
    • Los cuatro puntos que están arriba
    • Riesgo beta: a menor riesgo beta quiera, mayor muestra
    • Diferencia mínima: si quiero ver pequeñas variaciones entre las variables más que la significación clínica, he de aumentar la muestra
    • Uso de contraste uni o bilateral
      • Bilateral: disminuye el error tipo 1 y requiere, por tanto, mayor muestra
      • Unilateral: requiere menor muestra
    • Mortalidad esperada: si espero más pérdidas tendré que aumentar el tamaño muestral.
TEMAS DE MENOR IMPORTANCIA

1.- Generalidades de la estadística

Simplemente saber los tipos de muestreos que hay (lo expliqué ante en los ensayos clínicos y se pueden usar en este tema también) y los tipos de variables que hay.

2.- Estadística descriptiva

No hay mucho que decir de este tema. Es muy sencillo: conocer los conceptos de medidas de tendencia central y de dispersión; y los tipos que hay de cada uno. Prestad atención al coeficiente de variación pues ha sido preguntado en varios simulacros y por tanto, tiene probabilidades de ir al MIR. Este concepto nos compara dos variables en las mismas o diferentes unidades y ve cual de las dos es más dispersa; a más cercana a 100, más heterogénea.

3.- Análisis de correlación y regresión

Estos análisis salen en los contrastes de hipótesis cuando se quieren comparar dos variables cuantitativas. Generalmente el enunciado te va a pedir si hay "relación" entre ambas. En este tema se explica lo que significa el resultado de estos análisis. Simplemente saber que el resultado nos va a dar un valor para R. Dichos valores oscilan entre -1 y +1
  • R = 1 indica que si una variable aumenta, la dependiente también lo hace
  • R = -1 indica que si una variable aumenta, la dependiente disminuye
  • R = 0 indica que no hay correlación lineal
Por otro lado, las correlaciones no van a ser siempre iguales
  • Una correlación (0-0,7] es débil
  • una correlación (0,7-1] es fuerte
Estas interpretaciones han salido de vez en cuando en algún que otro simulacro, no lo olvidéis.

4.- Probabilidad

Nunca ha entrado. Son dos fórmulas de memorieta y tal. Se aprende haciendo simulacros, aparecerán algunos con 3 preguntas de probabilidad. (Y os arañaréis por dentro pensando: "¡¡¡¡pero si nunca entra!!!!!!")

---------------------------------------------------------------------------------------------------------
Si has llegado hasta el final es que, o estás muy aburrido o estás opositando para el MIR. En cualquier caso, enhorabuena; hay que tener paciencia para haber leído todo lo anterior. Opositor/a, ahora te hablo a ti. Si crees que esta asignatura te supera, no dudes en pedir ayuda a tus compañeros o en la academia que quiera que estés. Esto se controla. Lo estás haciendo genial hasta ahora. Ya eres un/a campeón/a por ser capaz de levantarte y luchar cada día. Ánimo, cada segundo cuenta.

No hay comentarios:

Publicar un comentario