Principal Otro Análisis de datos de tiempo hasta el evento

Análisis de datos de tiempo hasta el evento

Descripción general

Software

Descripción

Sitios web

Lecturas

Cursos

Descripción general

Esta página describe brevemente una serie de preguntas que deben tenerse en cuenta al analizar los datos del tiempo transcurrido hasta el evento y proporciona una lista de recursos anotada para obtener más información.

Descripción

¿Qué tienen de especial los datos de tiempo hasta el evento (TTE)?

Los datos de tiempo hasta el evento (TTE) son únicos porque el resultado de interés no es solo si ocurrió o no un evento, sino también cuándo ocurrió ese evento. Los métodos tradicionales de regresión logística y lineal no son adecuados para poder incluir tanto los aspectos del evento como del tiempo como resultado en el modelo. Los métodos de regresión tradicionales tampoco están equipados para manejar la censura, un tipo especial de datos faltantes que ocurre en los análisis de tiempo hasta el evento cuando los sujetos no experimentan el evento de interés durante el tiempo de seguimiento. En presencia de censura, se subestima el tiempo real hasta el evento. Se han desarrollado técnicas especiales para los datos de TTE, como se discutirá a continuación, para utilizar la información parcial de cada sujeto con datos censurados y proporcionar estimaciones de supervivencia no sesgadas. Estas técnicas incorporan datos de múltiples puntos de tiempo entre sujetos y se pueden usar para calcular directamente tasas, ratios de tiempo y ratios de riesgo.

¿Cuáles son las consideraciones metodológicas importantes de los datos del tiempo transcurrido hasta el evento?

el imperativo categórico kant

Hay 4 consideraciones metodológicas principales en el análisis del tiempo hasta el evento o los datos de supervivencia. Es importante tener una definición clara del evento objetivo, el origen del tiempo, la escala de tiempo y describir cómo los participantes saldrán del estudio. Una vez que estén bien definidos, el análisis se vuelve más sencillo. Por lo general, hay un solo evento objetivo, pero hay extensiones de los análisis de supervivencia que permiten múltiples eventos o eventos repetidos.

¿Cuál es el origen del tiempo?

El origen del tiempo es el punto en el que comienza el tiempo de seguimiento. Los datos de TTE pueden emplear una variedad de orígenes de tiempo que están determinados en gran medida por el diseño del estudio, cada uno de los cuales tiene ventajas e inconvenientes asociados. Los ejemplos incluyen el tiempo de referencia o la edad de referencia. Los orígenes del tiempo también se pueden determinar mediante una característica definitoria, como el inicio de la exposición o el diagnóstico. A menudo, esta es una elección natural si el resultado está relacionado con esa característica. Otros ejemplos incluyen el nacimiento y el año calendario. Para los estudios de cohortes, la escala de tiempo es más comúnmente el tiempo de estudio.

¿Existe otra opción para la escala de tiempo que no sea el tiempo de estudio?

La edad es otra escala de tiempo comúnmente utilizada, donde la edad de referencia es el origen del tiempo y los individuos salen en su evento o edad de censura. Los modelos con edad como escala de tiempo se pueden ajustar para efectos de calendario. Algunos autores recomiendan que se utilice la edad en lugar del tiempo de estudio como escala de tiempo, ya que puede proporcionar estimaciones menos sesgadas.

¿Qué es censurar?

Uno de los desafíos específicos del análisis de supervivencia es que solo algunas personas habrán experimentado el evento al final del estudio y, por lo tanto, se desconocerán los tiempos de supervivencia para un subconjunto del grupo de estudio. Este fenómeno se denomina censura y puede surgir de las siguientes maneras: el participante del estudio aún no ha experimentado el resultado relevante, como una recaída o la muerte, al final del estudio; el participante del estudio se pierde durante el seguimiento durante el período de estudio; o, el participante del estudio experimenta un evento diferente que hace imposible un seguimiento posterior. Tales intervalos de tiempo censurados subestiman el tiempo real pero desconocido hasta el evento. Para la mayoría de los enfoques analíticos, se supone que la censura es aleatoria o no informativa.

Hay tres tipos principales de censura: derecha, izquierda e intervalo. Si los eventos ocurren más allá del final del estudio, entonces los datos se censuran por la derecha. Los datos censurados por la izquierda se producen cuando se observa el evento, pero se desconoce la hora exacta del evento. Los datos censurados por intervalos ocurren cuando se observa el evento, pero los participantes entran y salen de la observación, por lo que se desconoce la hora exacta del evento. La mayoría de los métodos analíticos de supervivencia están diseñados para observaciones censuradas por la derecha, pero se encuentran disponibles métodos para datos censurados por intervalo y por la izquierda.

¿Cuál es la cuestión de interés?

La elección de la herramienta analítica debe guiarse por la pregunta de investigación de interés. Con los datos de TTE, la pregunta de investigación puede tomar varias formas, lo que influye en qué función de supervivencia es la más relevante para la pregunta de investigación. Tres tipos diferentes de preguntas de investigación que pueden ser de interés para los datos de TTE incluyen:

  1. ¿Qué proporción de personas permanecerá libre del evento después de cierto tiempo?

  2. ¿Qué proporción de personas sufrirán el evento después de cierto tiempo?

  3. ¿Cuál es el riesgo del evento en un momento determinado, entre los que han sobrevivido hasta ese momento?

Cada una de estas preguntas se corresponde con un tipo diferente de función utilizada en el análisis de supervivencia:

  1. Función de supervivencia, S (t): la probabilidad de que un individuo sobreviva más allá del tiempo t [Pr (T> t)]

  2. Función de densidad de probabilidad, F (t), o función de incidencia acumulada, R (t): la probabilidad de que un individuo tenga un tiempo de supervivencia menor o igual que t [Pr (T≤t)]

  3. Función de peligro, h (t): el potencial instantáneo de experimentar un evento en el tiempo t, condicionado a haber sobrevivido a ese tiempo.

  4. Función de peligro acumulativo, H (t): la integral de la función de peligro desde el tiempo 0 hasta el tiempo t, que es igual al área bajo la curva h (t) entre el tiempo 0 y el tiempo t

Si se conoce una de estas funciones, las otras funciones se pueden calcular utilizando las siguientes fórmulas:

S (t) = 1 - F (t) La función de supervivencia y la función de densidad de probabilidad suman 1

h (t) = f (t) / S (t) El peligro instantáneo es igual a la probabilidad incondicional de

experimentando el evento en el tiempo t, escalado por la fracción viva en el tiempo t

H (t) = -log [S (t)] La función de riesgo acumulativo es igual al logaritmo negativo de la supervivencia

función

S (t) = e –H (t) La función de supervivencia es igual al riesgo acumulativo negativo exponencializado

función

Estas conversiones se utilizan a menudo en los métodos de análisis de supervivencia, como se discutirá a continuación. Generalmente, un aumento de h (t), el riesgo instantáneo, conducirá a un aumento de H (t), el riesgo acumulativo, que se traduce en una disminución de S (t), la función de supervivencia.

¿Qué suposiciones deben hacerse para usar técnicas estándar para datos de tiempo hasta el evento?

El supuesto principal al analizar los datos de TTE es el de la censura no informativa: los individuos que son censurados tienen la misma probabilidad de experimentar un evento posterior que los individuos que permanecen en el estudio. La censura informativa es análoga a los datos faltantes no ignorables, lo que sesgará el análisis. No hay una forma definitiva de probar si la censura no es informativa, aunque explorar patrones de censura puede indicar si una suposición de censura no informativa es razonable. Si se sospecha de censura informativa, se pueden utilizar análisis de sensibilidad, como el mejor y el peor de los casos, para intentar cuantificar el efecto que tiene la censura informativa en el análisis.

Otro supuesto al analizar los datos de TTE es que hay suficiente tiempo de seguimiento y número de eventos para una potencia estadística adecuada. Esto debe tenerse en cuenta en la fase de diseño del estudio, ya que la mayoría de los análisis de supervivencia se basan en estudios de cohortes.

Vale la pena mencionar suposiciones simplificadoras adicionales, ya que a menudo se hacen en descripciones generales de análisis de supervivencia. Si bien estos supuestos simplifican los modelos de supervivencia, no son necesarios para realizar análisis con datos de TTE. Se pueden utilizar técnicas avanzadas si se infringen estos supuestos:

  • Sin efecto de cohorte sobre la supervivencia: para una cohorte con un período de reclutamiento largo, suponga que los individuos que se unen temprano tienen las mismas probabilidades de supervivencia que los que se unen tarde

  • Derecho a censurar solo en los datos

  • Los eventos son independientes entre sí

¿Qué tipos de enfoques se pueden utilizar para el análisis de supervivencia?

Hay tres enfoques principales para analizar los datos de ETT: enfoques no paramétricos, semiparamétricos y paramétricos. La elección del enfoque a utilizar debe estar determinada por la pregunta de investigación de interés. A menudo, se puede utilizar más de un enfoque de manera apropiada en el mismo análisis.

¿Qué son los enfoques no paramétricos para el análisis de supervivencia y cuándo son apropiados?

Los enfoques no paramétricos no se basan en supuestos sobre la forma o forma de los parámetros en la población subyacente. En el análisis de supervivencia, se utilizan enfoques no paramétricos para describir los datos mediante la estimación de la función de supervivencia, S (t), junto con la mediana y los cuartiles del tiempo de supervivencia. Estas estadísticas descriptivas no se pueden calcular directamente a partir de los datos debido a la censura, que subestima el tiempo de supervivencia real en sujetos censurados, lo que lleva a estimaciones sesgadas de la media, la mediana y otros descriptivos. Los enfoques no paramétricos se utilizan a menudo como el primer paso en un análisis para generar estadísticas descriptivas no sesgadas y, a menudo, se utilizan junto con enfoques semiparamétricos o paramétricos.

Estimador de Kaplan-Meier

El enfoque no paramétrico más común en la literatura es el estimador de Kaplan-Meier (o límite de producto). El estimador de Kaplan-Meier funciona dividiendo la estimación de S (t) en una serie de pasos / intervalos basados ​​en los tiempos de eventos observados. Las observaciones contribuyen a la estimación de S (t) hasta que ocurre el evento o hasta que son censuradas. Para cada intervalo, se calcula la probabilidad de sobrevivir hasta el final del intervalo, dado que los sujetos están en riesgo al comienzo del intervalo (esto se anota comúnmente como pj = (nj - dj) / nj). El S (t) estimado para cada valor de t es igual al producto de sobrevivir a cada intervalo hasta el tiempo t incluido. Los principales supuestos de este método, además de la censura no informativa, es que la censura ocurre después de fallas y que no hay efecto de cohorte en la supervivencia, por lo que los sujetos tienen la misma probabilidad de supervivencia independientemente de cuándo fueron objeto de estudio.

El S (t) estimado del método de Kaplan-Meier se puede graficar como una función escalonada con el tiempo en el eje X. Esta gráfica es una buena forma de visualizar la experiencia de supervivencia de la cohorte y también se puede utilizar para estimar la mediana (cuando S (t) ≤0,5) o los cuartiles del tiempo de supervivencia. Estos estadísticos descriptivos también se pueden calcular directamente utilizando el estimador de Kaplan-Meier. Los intervalos de confianza (IC) del 95% para S (t) se basan en transformaciones de S (t) para garantizar que el IC del 95% esté entre 0 y 1. El método más común en la literatura es el estimador de Greenwood.

Estimador de tabla de vida

El estimador de la tabla de vida de la función de supervivencia es uno de los primeros ejemplos de métodos estadísticos aplicados, y se ha utilizado durante más de 100 años para describir la mortalidad en grandes poblaciones. El estimador de la tabla de vida es similar al método de Kaplan-Meier, excepto que los intervalos se basan en el tiempo del calendario en lugar de en los eventos observados. Dado que los métodos de la tabla de vida se basan en estos intervalos de calendario, y no en eventos individuales / tiempos de censura, estos métodos utilizan el tamaño de conjunto de riesgo promedio por intervalo para estimar S (t) y deben asumir que la censura ocurrió de manera uniforme durante el intervalo de tiempo del calendario. Por esta razón, el estimador de tablas de vida no es tan preciso como el estimador de Kaplan-Meier, pero los resultados serán similares en muestras muy grandes.

Estimador Nelson-Aalen

Otra alternativa a Kaplan-Meier es el estimador Nelson-Aalen, que se basa en el uso de un enfoque de proceso de conteo para estimar la función de riesgo acumulativo, H (t). La estimación de H (t) se puede utilizar para estimar S (t). Las estimaciones de S (t) obtenidas mediante este método siempre serán mayores que la estimación K-M, pero la diferencia será pequeña entre los dos métodos en muestras grandes.

¿Se pueden utilizar enfoques no paramétricos para análisis univariables o multivariables?

Se pueden utilizar enfoques no paramétricos como el estimador de Kaplan-Meier para realizar análisis univariables de factores categóricos de interés. Los factores deben ser categóricos (ya sea por naturaleza o una variable continua dividida en categorías) porque la función de supervivencia, S (t), se estima para cada nivel de la variable categórica y luego se compara entre estos grupos. La S (t) estimada para cada grupo se puede graficar y comparar visualmente.

Las pruebas basadas en rangos también se pueden utilizar para probar estadísticamente la diferencia entre las curvas de supervivencia. Estas pruebas comparan el número de eventos observados y esperados en cada punto de tiempo entre los grupos, bajo la hipótesis nula de que las funciones de supervivencia son iguales entre los grupos. Hay varias versiones de estas pruebas basadas en rangos, que difieren en el peso dado a cada punto de tiempo en el cálculo de la estadística de prueba. Dos de las pruebas basadas en rangos más comunes que se ven en la literatura son la prueba de rango logarítmico, que da a cada punto de tiempo el mismo peso, y la prueba de Wilcoxon, que pondera cada punto de tiempo por el número de sujetos en riesgo. Con base en este peso, la prueba de Wilcoxon es más sensible a las diferencias entre las curvas al principio del seguimiento, cuando hay más sujetos en riesgo. Otras pruebas, como la prueba de Peto-Prentice, utilizan pesos entre los del rango logarítmico y las pruebas de Wilcoxon. Las pruebas basadas en rangos están sujetas a la suposición adicional de que la censura es independiente del grupo, y todas están limitadas por poco poder para detectar diferencias entre grupos cuando se cruzan las curvas de supervivencia. Aunque estas pruebas proporcionan un valor p de la diferencia entre las curvas, no se pueden utilizar para estimar los tamaños del efecto (el valor p de la prueba de rango logarítmico, sin embargo, es equivalente al valor p de un factor categórico de interés en una variable de Cox univariable). modelo).

Los modelos no paramétricos están limitados porque no proporcionan estimaciones del efecto y, en general, no pueden utilizarse para evaluar el efecto de múltiples factores de interés (modelos multivariables). Por esta razón, los enfoques no paramétricos a menudo se usan junto con modelos semi o totalmente paramétricos en epidemiología, donde los modelos multivariables se usan típicamente para controlar los factores de confusión.

¿Se pueden ajustar las curvas de Kaplan-Meier?

Es un mito común que las curvas de Kaplan-Meier no se pueden ajustar, y esto a menudo se cita como una razón para usar un modelo paramétrico que puede generar curvas de supervivencia ajustadas por covariables. Sin embargo, se ha desarrollado un método para crear curvas de supervivencia ajustadas utilizando ponderación de probabilidad inversa (IPW). En el caso de una sola covariable, los IPW se pueden estimar de forma no paramétrica y son equivalentes a la estandarización directa de las curvas de supervivencia para la población de estudio. En el caso de múltiples covariables, se deben usar modelos semiparamétricos o completamente paramétricos para estimar los pesos, que luego se usan para crear curvas de supervivencia ajustadas de múltiples covariables. Las ventajas de este método son que no está sujeto a la suposición de riesgos proporcionales, se puede usar para covariables que varían en el tiempo y también se puede usar para covariables continuas.

¿Por qué necesitamos enfoques paramétricos para analizar los datos del tiempo transcurrido hasta el evento?

Se utiliza un enfoque no paramétrico para el análisis de datos de ETT para describir simplemente los datos de supervivencia con respecto al factor que se investiga. Los modelos que utilizan este enfoque también se conocen como modelos univariables. Más comúnmente, los investigadores están interesados ​​en la relación entre varias covariables y el tiempo transcurrido hasta el evento. El uso de modelos semi y totalmente paramétricos permite analizar el tiempo transcurrido hasta el evento con respecto a muchos factores simultáneamente y proporciona estimaciones de la fuerza del efecto para cada factor constituyente.

¿Qué es un enfoque semiparamétrico y por qué se usa con tanta frecuencia?

El modelo proporcional de Cox es el enfoque multivariable más utilizado para analizar los datos de supervivencia en la investigación médica. Es esencialmente un modelo de regresión de tiempo hasta el evento, que describe la relación entre la incidencia del evento, expresada por la función de riesgo, y un conjunto de covariables. El modelo de Cox se escribe de la siguiente manera:

función de riesgo, h (t) = h0 (t) exp {β1X1 + β2X2 +… + βpXp}

Se considera un enfoque semiparamétrico porque el modelo contiene un componente no paramétrico y un componente paramétrico. El componente no paramétrico es el riesgo de referencia, h0 (t). Este es el valor del riesgo cuando todas las covariables son iguales a 0, lo que resalta la importancia de centrar las covariables en el modelo para la interpretación. No confunda el peligro de línea de base con el peligro en el tiempo 0. La función de peligro de línea de base se estima de forma no paramétrica y, por lo tanto, a diferencia de la mayoría de los otros modelos estadísticos, no se supone que los tiempos de supervivencia sigan una distribución estadística particular y la forma de la línea de base el peligro es arbitrario. No es necesario estimar la función de riesgo de línea de base para hacer inferencias sobre el riesgo relativo o la razón de riesgo. Esta característica hace que el modelo de Cox sea más robusto que los enfoques paramétricos porque no es vulnerable a la especificación errónea del peligro de línea de base.

El componente paramétrico está compuesto por el vector covariable. El vector covariable multiplica el riesgo inicial por la misma cantidad independientemente del tiempo, por lo que el efecto de cualquier covariable es el mismo en cualquier momento durante el seguimiento, y esta es la base para la suposición de riesgos proporcionales.

¿Cuál es el supuesto de riesgos proporcionales?

La suposición de riesgos proporcionales es vital para el uso e interpretación de un modelo de Cox.

Bajo este supuesto, existe una relación constante entre el resultado o la variable dependiente y el vector covariable. Las implicaciones de esta suposición son que las funciones de riesgo para dos individuos cualesquiera son proporcionales en cualquier momento y la razón de riesgo no varía con el tiempo. En otras palabras, si un individuo tiene un riesgo de muerte en algún momento inicial que es dos veces mayor que el de otro individuo, entonces en todos los momentos posteriores el riesgo de muerte sigue siendo el doble. Esta suposición implica que las curvas de riesgo para los grupos deben ser proporcionales y no deben cruzarse. Debido a que esta suposición es tan importante, definitivamente debería probarse.

¿Cómo se prueba el supuesto de riesgos proporcionales?

Existe una variedad de técnicas, tanto gráficas como basadas en pruebas, para evaluar la validez del supuesto de riesgos proporcionales. Una técnica consiste simplemente en trazar las curvas de supervivencia de Kaplan-Meier si está comparando dos grupos sin covariables. Si las curvas se cruzan, se puede violar la suposición de riesgos proporcionales. Debe tenerse en cuenta una salvedad importante a este enfoque para los estudios pequeños. Puede haber una gran cantidad de error asociado con la estimación de las curvas de supervivencia para estudios con un tamaño de muestra pequeño, por lo que las curvas pueden cruzarse incluso cuando se cumple el supuesto de riesgos proporcionales. El gráfico log-log complementario es una prueba más robusta que traza el logaritmo del logaritmo negativo de la función de superviviente estimada frente al logaritmo del tiempo de supervivencia. Si los peligros son proporcionales entre los grupos, esta gráfica producirá curvas paralelas. Otro método común para probar la suposición de peligros proporcionales es incluir un término de interacción de tiempo para determinar si el HR cambia con el tiempo, ya que el tiempo es a menudo el culpable de la no proporcionalidad de los peligros. La evidencia de que el término de interacción grupo * tiempo no es cero es evidencia contra riesgos proporcionales.

¿Qué pasa si la suposición de riesgos proporcionales no se cumple?

Si descubre que la suposición de PH no se cumple, no es necesario que abandone el uso del modelo de Cox. Hay opciones para mejorar la no proporcionalidad en el modelo. Por ejemplo, puede incluir otras covariables en el modelo, nuevas covariables, términos no lineales para covariables existentes o interacciones entre covariables. O puede estratificar el análisis en una o más variables. Esto estima un modelo en el que se permite que el riesgo de línea de base sea diferente dentro de cada estrato, pero los efectos de las covariables son iguales en todos los estratos. Otras opciones incluyen dividir el tiempo en categorías y usar variables indicadoras para permitir que las razones de riesgo varíen a lo largo del tiempo y cambiar la variable de tiempo de análisis (por ejemplo, del tiempo transcurrido a la edad o viceversa).

¿Cómo examina el ajuste del modelo semiparamétrico?

Además de verificar las violaciones del supuesto de proporcionalidad, hay otros aspectos del ajuste del modelo que deben examinarse. Se pueden aplicar estadísticas similares a las utilizadas en la regresión lineal y logística para realizar estas tareas para los modelos Cox con algunas diferencias, pero las ideas esenciales son las mismas en los tres entornos. Es importante verificar la linealidad del vector de covariables, lo que se puede hacer examinando los residuos, tal como lo hacemos en la regresión lineal. Sin embargo, los residuos en los datos de TTE no son tan sencillos como en la regresión lineal, en parte porque se desconoce el valor del resultado para algunos de los datos y los residuos a menudo están sesgados. Se han desarrollado varios tipos diferentes de residuos para evaluar el ajuste del modelo de Cox para los datos de TTE. Los ejemplos incluyen Martingale y Schoenfeld, entre otros. También puede mirar los residuales para identificar observaciones muy influyentes y mal ajustadas. También hay pruebas de bondad de ajuste que son específicas de los modelos de Cox, como la prueba de Gronnesby y Borgan, y el índice de pronóstico de Hosmer y Lemeshow. También puede usar el AIC para comparar diferentes modelos, aunque el uso de R2 es problemático.

¿Por qué utilizar un enfoque paramétrico?

Una de las principales ventajas de los modelos semiparamétricos es que no es necesario especificar el riesgo de línea de base para estimar los cocientes de riesgo que describen diferencias en el riesgo relativo entre grupos. Sin embargo, puede ser que la estimación del peligro de referencia en sí sea de interés. En este caso, es necesario un enfoque paramétrico. En los enfoques paramétricos, se especifican tanto la función de riesgo como el efecto de las covariables. La función de riesgo se estima sobre la base de una distribución supuesta en la población subyacente.

Las ventajas de utilizar un enfoque paramétrico para el análisis de supervivencia son:

  • Los enfoques paramétricos son más informativos que los enfoques no paramétricos y semiparamétricos. Además de calcular estimaciones de efectos relativos, también se pueden utilizar para predecir el tiempo de supervivencia, las tasas de riesgo y los tiempos de supervivencia medios y medios. También se pueden utilizar para realizar predicciones de riesgo absoluto a lo largo del tiempo y para trazar curvas de supervivencia ajustadas por covariables.

  • Cuando la forma paramétrica se especifica correctamente, los modelos paramétricos tienen más poder que los modelos semiparamétricos. También son más eficientes, lo que lleva a errores estándar más pequeños y estimaciones más precisas.

  • Los enfoques paramétricos se basan en la máxima probabilidad total para estimar los parámetros.

  • Los residuos de los modelos paramétricos toman la forma familiar de la diferencia entre lo observado y lo esperado.

La principal desventaja de utilizar un enfoque paramétrico es que se basa en el supuesto de que la distribución de la población subyacente se ha especificado correctamente. Los modelos paramétricos no son robustos a la especificación errónea, por lo que los modelos semiparamétricos son más comunes en la literatura y son menos riesgosos de usar cuando hay incertidumbre sobre la distribución de la población subyacente.

¿Cómo eliges la forma paramétrica?

La elección de la forma paramétrica adecuada es la parte más difícil del análisis paramétrico de supervivencia. La especificación de la forma paramétrica debe estar impulsada por la hipótesis del estudio, junto con el conocimiento previo y la plausibilidad biológica de la forma del riesgo de referencia. Por ejemplo, si se sabe que el riesgo de muerte aumenta drásticamente después de la cirugía y luego disminuye y se aplana, sería inapropiado especificar la distribución exponencial, que supone un riesgo constante en el tiempo. Los datos se pueden utilizar para evaluar si el formulario especificado parece ajustarse a los datos, pero estos métodos basados ​​en datos deben complementar, no reemplazar, las selecciones basadas en hipótesis.

¿Cuál es la diferencia entre un modelo de riesgos proporcionales y un modelo de tiempo de falla acelerado?

Aunque el modelo de riesgos proporcionales de Cox es semiparamétrico, los modelos de riesgos proporcionales también pueden ser paramétricos. Los modelos paramétricos de riesgos proporcionales se pueden escribir como:

pros y contras de joe biden

h (t, X) = h0 (t) exp (Xi β) = h0 (t) λ

donde el riesgo de línea de base, h0 (t), depende solo del tiempo, t, pero no de X, y λ es una función de covariables específica de la unidad, que no depende de t, que escala la función de riesgo de línea de base hacia arriba o hacia abajo. λ no puede ser negativo. En este modelo, la tasa de riesgo es una función multiplicativa del riesgo de referencia y las razones de riesgo se pueden interpretar de la misma manera que en el modelo semiparamétrico de riesgos proporcionales.

Los modelos de tiempo de falla acelerado (AFT) son una clase de modelos de supervivencia paramétricos que se pueden linealizar tomando el logaritmo natural del modelo de tiempo de supervivencia. El ejemplo más simple de un modelo AFT es el modelo exponencial, que se escribe como:

ln (T) = β0 + β1X1 +…. + βpXp + ε *

La principal diferencia entre los modelos AFT y los modelos PH es que los modelos AFT asumen que los efectos de las covariables son multiplicativos en la escala de tiempo, mientras que los modelos Cox usan la escala de riesgo como se muestra arriba. Las estimaciones de los parámetros de los modelos AFT se interpretan como efectos en la escala de tiempo, que pueden acelerar o desacelerar el tiempo de supervivencia. Exp (β)> 1 de un modelo AFT significa que el factor acelera el tiempo de supervivencia o conduce a una supervivencia más larga. Exp (β)<1 decelerates survival time (shorter survival). AFT models assume that estimated time ratios are constant across the time scale. A time ratio of 2, for example, can be interpreted as the median time to death in group 1 is double the median time to death in group 2 (indicated longer survival for group 1).

Algunas distribuciones de error se pueden escribir e interpretar como modelos PH y AFT (es decir, exponencial, Weibull), otras son solo modelos PH (es decir, Gompertz) o solo modelos AFT (es decir, log-logístico) y otras no son modelos PH o AFT (es decir, ajustando una spline).

¿Qué formas pueden asumir los modelos paramétricos?

La función de riesgo puede tomar cualquier forma siempre que h (t)> 0 para todos los valores de t. Si bien la consideración principal para la forma paramétrica debe ser el conocimiento previo de la forma del peligro de línea de base, cada distribución tiene sus propias ventajas y desventajas. Algunas de las formas más comunes se explicarán brevemente, con más información disponible en la lista de recursos.

Distribución exponencial

La distribución exponencial supone que h (t) depende solo de los coeficientes y covariables del modelo y es constante en el tiempo. La principal ventaja de este modelo es que es tanto un modelo de riesgos proporcionales como un modelo de tiempo de falla acelerado, de modo que las estimaciones del efecto se pueden interpretar como cocientes de riesgo o cocientes de tiempo. El principal inconveniente de este modelo es que a menudo no es plausible asumir un peligro constante a lo largo del tiempo.

Distribución de Weibull

La distribución de Weibull es similar a la distribución exponencial. Mientras que la distribución exponencial supone un riesgo constante, la distribución de Weibull supone un riesgo monótono que puede aumentar o disminuir, pero no ambos. Tiene dos parámetros. El parámetro de forma (σ) controla si el peligro aumenta (σ1) (en la distribución exponencial, este parámetro se establece en 1). El parámetro de escala, (1 / σ) exp (-β0 / σ), determina la escala de este aumento / disminución. Dado que la distribución de Weibull se simplifica a la distribución exponencial cuando σ = 1, la hipótesis nula de que σ = 1 se puede probar mediante una prueba de Wald. La principal ventaja de este modelo es que es tanto un modelo PH como AFT, por lo que se pueden estimar tanto los ratios de riesgo como los ratios de tiempo. Una vez más, el principal inconveniente es que la suposición de monotonicidad del riesgo de referencia puede ser inverosímil en algunos casos.

Distribución de Gompertz

La distribución de Gompertz es un modelo de PH que es igual a la distribución log-Weibull, por lo que el logaritmo de la función de riesgo es lineal en t. Esta distribución tiene una tasa de fallas que aumenta exponencialmente y, a menudo, es apropiada para datos actuariales, ya que el riesgo de mortalidad también aumenta exponencialmente con el tiempo.

Distribución log-logística

La distribución log-logística es un modelo AFT con un término de error que sigue la distribución logística estándar. Puede adaptarse a peligros no monótonos y, por lo general, se adapta mejor cuando el peligro subyacente aumenta a un pico y luego disminuye, lo que puede ser plausible para ciertas enfermedades como la tuberculosis. La distribución log-logística no es un modelo PH, pero es un modelo de probabilidades proporcionales. Esto significa que está sujeto al supuesto de probabilidades proporcionales, pero la ventaja es que los coeficientes de pendiente se pueden interpretar como razones de tiempo y también como razones de probabilidades. Una razón de probabilidades de 2 de un modelo log-logístico paramétrico, por ejemplo, se interpretaría como las probabilidades de supervivencia más allá del tiempo t entre sujetos con x = 1 es el doble de probabilidades entre sujetos con x = 0.

Distribución gamma generalizada (GG)

La distribución gamma generalizada (GG) es en realidad una familia de distribuciones que contiene casi todas las distribuciones más comúnmente utilizadas, incluidas las distribuciones exponencial, Weibull, log normal y gamma. Esto permite realizar comparaciones entre las diferentes distribuciones. La familia GG también incluye los cuatro tipos más comunes de funciones de peligro, lo que hace que la distribución GG sea particularmente útil ya que la forma de la función de peligro puede ayudar a optimizar la selección del modelo.

Enfoque de estrías

Dado que la única limitación general de la especificación de la función de riesgo de línea de base es que h (t)> 0 para todos los valores de t, se pueden utilizar splines para obtener la máxima flexibilidad al modelar la forma del riesgo de línea de base. Las splines cúbicas restringidas son un método que se ha recomendado recientemente en la literatura para el análisis de supervivencia paramétrico, ya que este método permite flexibilidad en la forma, pero restringe la función para que sea lineal en los extremos donde los datos son escasos. Los splines se pueden utilizar para mejorar la estimación y también son ventajosos para la extrapolación, ya que maximizan el ajuste a los datos observados. Si se especifica correctamente, las estimaciones del efecto de los modelos que se ajustan mediante splines no deben estar sesgadas. Al igual que en otros análisis de regresión, los desafíos en el ajuste de splines pueden incluir la elección del número y la ubicación de los nudos y problemas de sobreajuste.

¿Cómo examina el ajuste del modelo paramétrico?

El componente más importante de evaluar el ajuste del modelo paramétrico es comprobar si los datos admiten la forma paramétrica especificada. Esto se puede evaluar visualmente graficando el riesgo acumulativo basado en el modelo frente a la función de riesgo acumulativo estimado de Kaplan-Meier. Si la forma especificada es correcta, el gráfico debe pasar por el origen con una pendiente de 1. La prueba de bondad de ajuste de Grønnesby-Borgan también se puede utilizar para determinar si el número observado de eventos es significativamente diferente del número esperado de eventos. en grupos diferenciados por puntajes de riesgo. Esta prueba es muy sensible al número de grupos elegidos y tiende a rechazar la hipótesis nula de un ajuste adecuado demasiado liberalmente si se eligen muchos grupos, especialmente en conjuntos de datos pequeños. Sin embargo, la prueba carece de poder para detectar violaciones del modelo si se eligen muy pocos grupos. Por esta razón, no parece aconsejable confiar únicamente en una prueba de bondad de ajuste para determinar si la forma paramétrica especificada es razonable.

AIC también se puede utilizar para comparar modelos ejecutados con diferentes formas paramétricas, con el AIC más bajo indicativo del mejor ajuste. Sin embargo, el AIC no se puede utilizar para comparar modelos paramétricos y semiparamétricos, ya que los modelos paramétricos se basan en tiempos de eventos observados y los modelos semiparamétricos se basan en el orden de los tiempos de eventos. Nuevamente, estas herramientas deben usarse para examinar si la forma especificada se ajusta a los datos, pero la plausibilidad del peligro subyacente especificado sigue siendo el aspecto más importante de la elección de una forma paramétrica.

Una vez que se ha determinado que la forma paramétrica especificada se ajusta bien a los datos, se pueden utilizar métodos similares a los descritos anteriormente para los modelos de riesgo semiproporcional para elegir entre diferentes modelos, como gráficos de residuos y pruebas de bondad de ajuste.

¿Qué pasa si los predictores cambian con el tiempo?

En las declaraciones modelo escritas anteriormente, hemos asumido que las exposiciones son constantes durante el transcurso del seguimiento. Las exposiciones con valores que cambian con el tiempo, o covariables que varían en el tiempo, se pueden incluir en los modelos de supervivencia cambiando la unidad del análisis del individuo al período de tiempo en el que la exposición es constante. Esto divide el tiempo-persona de los individuos en intervalos en los que cada persona contribuye al conjunto de riesgos de expuestos y no expuestos para esa covariable. El supuesto principal de incluir una covariable variable en el tiempo de esta manera es que el efecto de la covariable variable en el tiempo no depende del tiempo.

Para un modelo de riesgo proporcional de Cox, la inclusión de una covariable variable en el tiempo tomaría la forma de: h (t) = h0 (t) e ^ β1x1 (t). Las covariables que varían en el tiempo también se pueden incluir en modelos paramétricos, aunque es un poco más complicado y difícil de interpretar. Los modelos paramétricos también pueden modelar covariables variables en el tiempo utilizando splines para una mayor flexibilidad.

En general, se deben utilizar covariables variables en el tiempo cuando se plantea la hipótesis de que el riesgo depende más de valores posteriores de la covariable que del valor de la covariable en la línea de base. Los desafíos que surgen con las covariables que varían en el tiempo son datos faltantes sobre la covariable en diferentes puntos temporales y un posible sesgo en la estimación del riesgo si la covariable que varía en el tiempo es en realidad un mediador.

¿Qué es el análisis de riesgos competitivos?

Los métodos tradicionales de análisis de supervivencia asumen que solo ocurre un tipo de evento de interés. Sin embargo, existen métodos más avanzados para permitir la investigación de varios tipos de eventos en el mismo estudio, como la muerte por múltiples causas. El análisis de riesgos competitivos se utiliza para estos estudios en los que la duración de la supervivencia finaliza con el primero de varios eventos. Se necesitan métodos especiales porque analizar el tiempo hasta cada evento por separado puede estar sesgado. Específicamente en este contexto, el método KM tiende a sobreestimar la proporción de sujetos que experimentan eventos. El análisis de riesgos competitivos utiliza el método de incidencia acumulada, en el que la probabilidad general del evento en cualquier momento es la suma de las probabilidades específicas del evento. Los modelos generalmente se implementan ingresando a cada participante del estudio varias veces, una por tipo de evento. Para cada participante del estudio, el tiempo hasta cualquier evento se censura en el momento en que el paciente experimentó el primer evento. Para obtener más información, consulte la página de advancedpidemiology.org en riesgos competitivos .

¿Qué son los modelos de fragilidad y por qué son útiles para datos correlacionados?

Los datos de supervivencia correlacionados pueden surgir debido a eventos recurrentes experimentados por un individuo o cuando las observaciones se agrupan. Ya sea por falta de conocimiento o por viabilidad, es posible que no se midan algunas covariables relacionadas con el evento de interés. Los modelos de fragilidad dan cuenta de la heterogeneidad causada por las covariables no medidas al agregar efectos aleatorios, que actúan multiplicativamente sobre la función de riesgo. Los modelos de fragilidad son esencialmente extensiones del modelo de Cox con la adición de efectos aleatorios. Aunque se utilizan varios esquemas de clasificación y nomenclatura para describir estos modelos, cuatro tipos comunes de modelos de fragilidad incluyen fragilidad compartida, anidada, conjunta y aditiva.

¿Existen otros enfoques para analizar los datos de eventos recurrentes?

Los datos de eventos recurrentes están correlacionados ya que pueden ocurrir múltiples eventos dentro del mismo sujeto. Si bien los modelos de fragilidad son un método para explicar esta correlación en los análisis de eventos recurrentes, un enfoque más simple que también puede explicar esta correlación es el uso de errores estándar robustos (EE). Con la adición de SE robustos, el análisis de eventos recurrentes se puede realizar como una simple extensión de modelos semiparamétricos o paramétricos.

Aunque es fácil de implementar, hay varias formas de modelar datos de eventos recurrentes utilizando SE robustos. Estos enfoques difieren en cómo definen el conjunto de riesgos para cada recurrencia. De esta manera, responden preguntas de estudio ligeramente diferentes, por lo que la elección de qué enfoque de modelado utilizar debe basarse en la hipótesis del estudio y la validez de los supuestos del modelado.

El enfoque del proceso de conteo, o Andersen-Gill, para el modelado de eventos recurrentes asume que cada recurrencia es un evento independiente y no toma en cuenta el orden o el tipo de evento. En este modelo, el tiempo de seguimiento para cada sujeto comienza al comienzo del estudio y se divide en segmentos definidos por eventos (recurrencias). Los sujetos contribuyen al riesgo establecido para un evento siempre que estén bajo observación en ese momento (no censurados). Estos modelos son fáciles de ajustar como un modelo de Cox con la adición de un estimador SE robusto, y las razones de riesgo se interpretan como el efecto de la covariable en la tasa de recurrencia durante el período de seguimiento. Sin embargo, este modelo sería inapropiado si el supuesto de independencia no es razonable.

Los enfoques condicionales asumen que un sujeto no está en riesgo de un evento posterior hasta que ocurre un evento anterior y, por lo tanto, tienen en cuenta el orden de los eventos. Se ajustan mediante un modelo estratificado, con el número de evento (o número de recurrencia, en este caso), como variable de estrato e incluyendo EE robustos. Hay dos enfoques condicionales diferentes que utilizan diferentes escalas de tiempo y, por lo tanto, tienen diferentes conjuntos de riesgos. El enfoque de probabilidad condicional utiliza el tiempo desde el comienzo del estudio para definir los intervalos de tiempo y es apropiado cuando el interés está en el curso completo del proceso de eventos recurrentes. El enfoque del intervalo de tiempo esencialmente restablece el reloj para cada recurrencia utilizando el tiempo desde el evento anterior para definir intervalos de tiempo, y es más apropiado cuando las estimaciones de efectos específicos del evento (o recurrencia) son de interés.

Finalmente, los enfoques marginales (también conocidos como el enfoque WLW - Wei, Lin y Weissfeld -) consideran cada evento como un proceso separado, por lo que los sujetos están en riesgo de todos los eventos desde el inicio del seguimiento, independientemente de si experimentaron un evento anterior. Este modelo es apropiado cuando se piensa que los eventos son el resultado de diferentes procesos subyacentes, de modo que un sujeto podría experimentar un tercer evento, por ejemplo, sin experimentar el primero. Aunque esta suposición parece inverosímil con algunos tipos de datos, como las recurrencias del cáncer, podría usarse para modelar las recurrencias de lesiones durante un período de tiempo, cuando los sujetos podrían experimentar diferentes tipos de lesiones durante el período de tiempo que no tienen un orden natural. Los modelos marginales también se pueden ajustar utilizando modelos estratificados con SE robustos.

Lecturas

Este proyecto tuvo como objetivo describir las decisiones metodológicas y analíticas que uno puede enfrentar cuando se trabaja con datos de tiempo hasta el evento, pero de ninguna manera es exhaustivo. Los recursos se proporcionan a continuación para profundizar en estos temas.

collages en nueva york

Libros de texto y capítulos

Vittinghoff E, Glidden DV, Shiboski SC, McCulloch CE (2012). Métodos de regresión en bioestadística, 2nd New York, NY: Springer.

  • Texto introductorio a modelos lineales, logísticos, de supervivencia y de medidas repetidas, lo mejor para aquellos que desean un punto de partida básico.

  • El capítulo de análisis de supervivencia proporciona una buena descripción general, pero no profundidad. Los ejemplos están basados ​​en STATA.

Hosmer DW, Lemeshow S, May S. (2008) Análisis de supervivencia aplicado: modelado de regresión de datos de tiempo hasta el evento, 2ª ed. Hoboken, Nueva Jersey: John Wiley & Sons, Inc.

  • Descripción detallada de los modelos Cox no paramétricos, semiparamétricos y paramétricos, lo mejor para aquellos que tienen conocimientos en otras áreas de la estadística. Las técnicas avanzadas no se tratan en profundidad, pero se proporcionan referencias a otros libros de texto especializados.

Kleinbaum DG, Klein M (2012). Análisis de supervivencia: un texto de autoaprendizaje, 3ª ed. Nueva York, NY: Springer Science + Business Media, LLC

  • Excelente texto introductorio

Klein JP, Moeschberger ML (2005). Análisis de supervivencia: técnicas para datos censurados y truncados, 2ª ed. Nueva York, NY: Springer Science + Business Media, LLC

  • diseñado para estudiantes graduados, este libro ofrece muchos ejemplos prácticos

Therneau TM, Grambsch PM (2000). Modelado de datos de supervivencia: ampliación del modelo de Cox. Nueva York, NY: Springer Science + Business Media, LLC

  • Buena introducción al enfoque del proceso de conteo y al análisis de datos de supervivencia correlacionados. El autor también escribió el paquete de supervivencia en R

Allison PD (2010). Análisis de supervivencia con SAS: Guía práctica, 2ª ed. Cary, NC: Instituto SAS

  • Un gran texto aplicado para usuarios de SAS

Bagdonavicius V, Nikulin M (2002). Modelos de vida acelerada: modelado y análisis estadístico. Boca Raton, FL: Chapman & Hall / CRC Press.

  • Buen recurso para obtener más información sobre modelos de tiempo de falla acelerada paramétricos y semiparamétricos y cómo se comparan con los modelos de riesgo proporcional

Artículos metodológicos

Artículos introductorios / generales

Hougaard P. (1999). Fundamentos de los datos de supervivencia. Biometrics 55 (1): 13-22. PMID: 11318147 .

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Análisis de supervivencia parte I: conceptos básicos y primeros análisis. Br J Cancer 89 (2): 232-8. PMID: 12865907

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Análisis de supervivencia, parte II: análisis de datos multivariados: introducción a conceptos y métodos. Br J Cancer 89 (3): 431-6. PMID: 1288808

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Análisis de supervivencia, parte II: análisis de datos multivariados: elección de un modelo y evaluación de su idoneidad y ajuste. Br J Cancer 89 (4): 605-11. PMID: 12951864

Clark TG, Bradburn MJ, Love SB, Altman DG (2003). Análisis de supervivencia parte IV: conceptos y métodos adicionales en el análisis de supervivencia. Br J Cancer 89 (5): 781-6. PMID: 12942105

  • La serie de cuatro artículos anterior es una excelente descripción general introductoria de los métodos de análisis de supervivencia que está muy bien escrita y es fácil de entender; es muy recomendable.

Edad como escala de tiempo

Korn EL, Graubard BI, Midthune D (1997). Análisis del tiempo transcurrido hasta el evento del seguimiento longitudinal de una encuesta: elección de la escala de tiempo. Am J Epidemiol 145 (1): 72-80. PMID: 8982025

  • Documento que aboga por el uso de la edad como escala de tiempo en lugar del tiempo de estudio.

Ingram DD, Makuc DM, Feldman JJ (1997). Re: Análisis del tiempo transcurrido hasta el evento del seguimiento longitudinal de una encuesta: elección de la escala de tiempo. Am J Epidemiol 146 (6): 528-9. PMID: 9290515 .

  • Comente el artículo de Korn que describe las precauciones que se deben tomar al usar la edad como escala de tiempo.

Thiébaut AC, Bénichou J (2004). Elección de la escala de tiempo en el análisis del modelo de Cox de datos de cohortes epidemiológicos: un estudio de simulación. Stat Med 30; 23 (24): 3803-20. PMID: 15580597

  • Estudio de simulación que muestra la magnitud del sesgo para diferentes grados de asociación entre la edad y la covariable de interés cuando se utiliza el tiempo de estudio como escala de tiempo.

Canchola AJ, Stewart SL, Bernstein L, et al. Regresión de Cox utilizando diferentes escalas de tiempo. Disponible en: http://www.lexjansen.com/wuss/2003/DataAnalysis/i-cox_time_scales.pdf .

  • Un buen artículo que compara 5 modelos de regresión de Cox con variaciones en el tiempo de estudio o la edad como escala de tiempo con código SAS.

Censurar

Huang CY, Ning J, Qin J (2015). Inferencia de verosimilitud semiparamétrica para datos truncados por la izquierda y censurados por la derecha. Bioestadística [epub] PMID: 25796430 .

  • Este artículo tiene una buena introducción al análisis de datos censurados y proporciona un nuevo procedimiento de estimación para la distribución del tiempo de supervivencia con datos truncados a la izquierda y censurados a la derecha. Es muy denso y tiene un enfoque estadístico avanzado.

Cain KC, Harlow SD, Little RJ, Nan B, Yosef M, Taffe JR, Elliott MR (2011). Sesgo debido a truncamiento izquierdo y censura izquierda en estudios longitudinales de procesos de desarrollo y enfermedad. Am J Epidemiol 173 (9): 1078-84. PMID: 21422059 .

  • Un excelente recurso que explica el sesgo inherente a los datos censurados por la izquierda desde una perspectiva epidemiológica.

Sun J, Sun L, Zhu C (2007). Prueba del modelo de probabilidades proporcionales para datos censurados por intervalo. Datos de por vida Anal 13: 37–50. PMID 17160547 .

  • Otro artículo estadísticamente denso sobre un aspecto matizado del análisis de datos de ETT, pero proporciona una buena explicación de los datos censurados por intervalos.

Robins JM (1995a) Un método analítico para ensayos aleatorizados con censura informativa: Parte I. Lifetime Data Anal 1: 241-254. PMID 9385104 .

Robins JM (1995b) Un método analítico para ensayos aleatorizados con censura informativa: Parte II. Lifetime Data Anal 1: 417–434. PMID 9385113 .

  • Dos artículos que discuten métodos para lidiar con la censura informativa.

Métodos de supervivencia no paramétricos

Borgan Ø (2005) Estimador de Kaplan-Meier. Enciclopedia de bioestadística DOI: 10.1002 / 0470011815.b2a11042

  • Excelente descripción general del estimador de Kaplan-Meier y su relación con el estimador de Nelson-Aalen

Rodríguez G (2005). Estimación no paramétrica en modelos de supervivencia. Disponible de: http://data.princeton.edu/pop509/NonParametricSurvival.pdf

  • Introducción a los métodos no paramétricos y al modelo de riesgo proporcional de Cox que explica las relaciones entre métodos con las fórmulas matemáticas

Cole SR, Hernan MA (2004). Curvas de supervivencia ajustadas con ponderaciones de probabilidad inversa. Métodos de cálculo Programas Biomed 75 (1): 35-9. PMID: 15158046

  • Describe el uso de IPW para crear curvas de Kaplan-Meier ajustadas. Incluye un ejemplo y una macro SAS.

Zhang M (2015). Métodos robustos para mejorar la eficiencia y reducir el sesgo en la estimación de las curvas de supervivencia en ensayos clínicos aleatorizados. Datos de por vida Anal 21 (1): 119-37. PMID: 24522498

  • Método propuesto para curvas de supervivencia ajustadas por covariables en ECA

Métodos de supervivencia semiparamétricos

Cox DR (1972) Modelos de regresión y tablas de vida (con discusión). J R Statist Soc B 34: 187–220.

  • La referencia clásica.

Christensen E (1987) Análisis de supervivencia multivariante utilizando el modelo de regresión de Cox. Hepatología 7: 1346-1358. PMID 3679094 .

  • Describe el uso del modelo de Cox usando un ejemplo motivador. Excelente revisión de los aspectos clave del análisis del modelo de Cox, incluido cómo ajustar un modelo de Cox y la verificación de los supuestos del modelo.

Grambsch PM, Therneau TM (1994) Pruebas y diagnósticos de peligros proporcionales basados ​​en residuos ponderados. Biometrika 81: 515-526.

  • Un artículo en profundidad sobre la prueba del supuesto de riesgos proporcionales. Buena combinación de teoría y explicación estadística avanzada.

Ng’andu NH (1997) Una comparación empírica de pruebas estadísticas para evaluar el supuesto de riesgos proporcionales del modelo de Cox. Stat Med 16: 611–626. PMID 9131751 .

  • Otro documento en profundidad sobre la prueba del supuesto de riesgos proporcionales, este incluye una discusión sobre la verificación de los residuos y los efectos de la censura.

Métodos de supervivencia paramétricos

Rodríguez, G (2010). Modelos paramétricos de supervivencia. Disponible de: http://data.princeton.edu/pop509/ParametricSurvival.pdf

  • breve introducción a las distribuciones más comunes utilizadas en el análisis paramétrico de supervivencia

Nardi A, Schemper M (2003). Comparación de modelos de Cox y paramétricos en estudios clínicos, Stat Med 22 (23): 2597-610. PMID: 14652863

  • Proporciona buenos ejemplos que comparan modelos semiparamétricos con modelos que utilizan distribuciones paramétricas comunes y se centra en evaluar el ajuste del modelo.

Royston P, Parmar MK (2002). Modelos paramétricos flexibles de riesgos proporcionales y probabilidades proporcionales para datos de supervivencia censurados, con aplicación al modelado de pronóstico y estimación de los efectos del tratamiento. Stat Med 21 (15): 2175-97. PMID: 12210632

  • Buena explicación de los conceptos básicos de riesgos proporcionales y modelos de probabilidades y comparaciones con splines cúbicos

Cox C, Chu H, Schneider MF, Muñoz A (2007). Análisis paramétrico de supervivencia y taxonomía de funciones de riesgo para la distribución gamma generalizada. Statist Med 26: 4352–4374. PMID 17342754 .

  • Proporciona una excelente descripción general de los métodos de supervivencia paramétricos, incluida una taxonomía de las funciones de peligro y una discusión en profundidad de la familia de distribución gamma generalizada.

Crowther MJ, Lambert PC (2014). Un marco general para el análisis de supervivencia paramétrico. Stat Med 33 (30): 5280-97. PMID: 25220693

  • Describe supuestos restrictivos de distribuciones paramétricas de uso común y explica la metodología de splines cúbicos restringidos

Sparling YH, Younes N, Lachin JM, Bautista OM (2006). Modelos de supervivencia paramétricos para datos censurados por intervalo con covariables dependientes del tiempo. Biometrics 7 (4): 599-614. PMID: 16597670

  • Extensión y ejemplo de cómo usar modelos paramétricos con datos censurados por intervalo

Covariables que varían en el tiempo

Fisher LD, Lin DY (1999). Covariables dependientes del tiempo en el modelo de regresión de riesgos proporcionales de Cox. Annu Rev Public Health 20: 145-57. PMID: 10352854

  • Explicación completa y fácil de entender de las covariables que varían en el tiempo en los modelos de Cox, con un apéndice matemático

Petersen T (1986). Ajuste de modelos de supervivencia paramétricos con covariables dependientes del tiempo. Appl Statist 35 (3): 281-88.

  • Artículo denso, pero con un útil ejemplo aplicado.

Análisis de riesgo competitivo

Ver riesgos en competencia

Tai B, Machin D, White I, Gebski V (2001) Análisis de riesgos en competencia de pacientes con osteosarcoma: una comparación de cuatro enfoques diferentes. Stat Med 20: 661–684. PMID 11241570 .

  • Buen artículo en profundidad que describe cuatro métodos diferentes para analizar datos de riesgos competitivos y utiliza datos de un ensayo aleatorizado de pacientes con osteosarcoma para comparar estos cuatro enfoques.

Checkley W, Brower RG, Muñoz A (2010). Inferencia de eventos competidores mutuamente excluyentes a través de una mezcla de distribuciones gamma generalizadas. Epidemiology 21 (4): 557–565. PMID 20502337 .

  • Documento sobre riesgos competitivos utilizando la distribución gamma generalizada.

Análisis de datos agrupados y modelos de fragilidad

Yamaguchi T, Ohashi Y, Matsuyama Y (2002) Modelos de riesgos proporcionales con efectos aleatorios para examinar los efectos centrales en ensayos clínicos multicéntricos sobre el cáncer. Stat Methods Med Res 11: 221-236. PMID 12094756 .

  • Un artículo con una excelente explicación teórica y matemática de tener en cuenta la agrupación en clústeres al analizar los datos de supervivencia de ensayos clínicos multicéntricos.

O'Quigley J, Stare J (2002) Modelos de riesgos proporcionales con fragilidades y efectos aleatorios. Stat Med 21: 3219–3233. PMID 12375300 .

  • Una comparación directa de modelos de fragilidad y modelos de efectos aleatorios.

Balakrishnan N, Peng Y (2006). Modelo de fragilidad gamma generalizada. Statist Med 25: 2797-2816. PMID

  • Un artículo sobre modelos de fragilidad utilizando la distribución gamma generalizada como distribución de fragilidad.

Rondeau V, Mazroui Y, González JR (2012). paquete de fragilidad: un paquete R para el análisis de datos de supervivencia correlacionados con modelos de fragilidad mediante la estimación de verosimilitud penalizada o la estimación paramétrica. Revista de software estadístico 47 (4): 1-28.

  • Viñeta del paquete R con buena información de antecedentes sobre modelos de fragilidad.

Schaubel DE, Cai J (2005). Análisis de datos de eventos recurrentes agrupados con aplicación a las tasas de hospitalización entre pacientes con insuficiencia renal. Bioestadística 6 (3): 404-19. PMID 15831581 .

  • Excelente artículo en el que los autores presentan dos métodos para analizar datos de eventos recurrentes agrupados y luego comparan los resultados de los modelos propuestos con los basados ​​en un modelo de fragilidad.

Gharibvand L, Liu L (2009). Análisis de datos de supervivencia con eventos agrupados. Documento 237-2009 del Foro Global SAS 2009.

  • Fuente sucinta y fácil de entender para el análisis del tiempo hasta los datos del evento con eventos agrupados con procedimientos SAS.

Análisis de eventos recurrentes

Twisk JW, Smidt N, de Vente W (2005). Análisis aplicado de eventos recurrentes: una visión práctica. J Epidemiol Community Health 59 (8): 706-10. PMID: 16020650

optar por viajar fuera de nosotros
  • Introducción muy fácil de entender al modelado de eventos recurrentes y al concepto de conjuntos de riesgos.

Villegas R, Juliá O, Ocaña J (2013). Estudio empírico de tiempos de supervivencia correlacionados para eventos recurrentes con márgenes de riesgo proporcionales y el efecto de correlación y censura. BMC Med Res Methodol 13:95. PMID: 23883000

  • Utiliza simulaciones para probar la solidez de diferentes modelos para datos de eventos recurrentes

Kelly PJ, Lim LL (2000). Análisis de supervivencia para datos de eventos recurrentes: una aplicación a las enfermedades infecciosas infantiles. Stat Med 19 (1): 13-33. PMID: 10623190

  • Ejemplos aplicados de los cuatro enfoques principales para modelar datos de eventos recurrentes

Wei LJ, Lin DY, Weissfeld L (1989). Análisis de regresión de datos de tiempo de falla incompletos multivariados mediante el modelado de distribuciones marginales. Revista de la Asociación Estadounidense de Estadística 84 (108): 1065-1073

El artículo original que describe modelos marginales para el análisis de eventos recurrentes

Cursos

Instituto de Verano de Epidemiología y Salud de la Población de la Universidad de Columbia (EPIC)

Statistical Horizons, proveedor privado de seminarios estadísticos especializados impartidos por expertos en el campo.

Programa de verano del Consorcio Interuniversitario para la Investigación Política y Social (ICPSR) en Métodos Cuantitativos de Investigación Social, parte del Instituto de Investigación Social de la Universidad de Michigan

  • Seminario de 3 días sobre análisis de supervivencia, modelado de historial de eventos y análisis de duración ofrecido del 22 al 24 de junio de 2015 en Berkeley, CA, impartido por Tenko Raykov de la Universidad Estatal de Michigan. Descripción general completa de los métodos de supervivencia en todas las disciplinas (no solo en salud pública): http://www.icpsr.umich.edu/icpsrweb/sumprog/courses/0200

El Instituto de Investigación Estadística ofrece dos cursos en línea para el análisis de supervivencia, que se ofrecen varias veces al año. Estos cursos se basan en el libro de texto de Análisis aplicado de Klein y Kleinbaum (ver más abajo) y se pueden tomar a la carta o como parte de un programa de certificación en Estadística:

  • Introducción al análisis de supervivencia, con un enfoque en modelos de Cox semiparamétricos, impartido por David Kleinbaum o Matt Strickland: http://www.statistics.com/survival/

  • Análisis de supervivencia avanzado, incluidos modelos paramétricos, análisis de recurrencia y modelos de fragilidad, impartidos por Matt Strickland: http://www.statistics.com/survival2/

El Instituto de Investigación y Educación Digital de UCLA ofrece lo que ellos llaman seminarios a través de su sitio web para el análisis de supervivencia en diferentes software estadísticos. Estos seminarios demuestran cómo realizar un análisis de supervivencia aplicado, centrándose más en el código que en la teoría.

Artículos De Interés

La Elección Del Editor

Víctimas fallecidas del huracán Katrina
Víctimas fallecidas del huracán Katrina
El huracán Katrina tocó tierra cerca de Nueva Orleans el 29 de agosto de 2005, pero todavía hoy no conocemos el número real de muertos. ¿Cuántas personas perdieron la vida como resultado de ese trágico evento?
Google Street View podría salvarle la vida
Google Street View podría salvarle la vida
Las muertes por accidentes de tránsito de peatones en la ciudad de Nueva York están en su tasa más baja desde 1910 cuando la ciudad comenzó a mantener estadísticas confiables. En total, 134 peatones murieron en 2015, frente a los 139 del año anterior. A medida que el programa Vision Zero del alcalde Bill de Blasio busca nuevas vías para eliminar estas muertes por completo, la investigación de la escuela Mailman puede proporcionar una guía importante. en un
Michael Heller sabe lo que es 'mío
Michael Heller sabe lo que es 'mío'
En su nuevo libro, Mine! Cómo las reglas ocultas de propiedad controlan nuestras vidas, el profesor Heller explora las leyes y normas que gobiernan todo, desde las disputas con los vecinos hasta la mitigación del cambio climático.
La tasa de pobreza infantil en Estados Unidos sigue siendo obstinadamente alta a pesar de los importantes avances
La tasa de pobreza infantil en Estados Unidos sigue siendo obstinadamente alta a pesar de los importantes avances
Si bien muchas familias estadounidenses han experimentado ganancias económicas en los últimos años, los niños todavía tienen más probabilidades de vivir en hogares demasiado pobres para cubrir sus necesidades básicas, según una nueva investigación del Centro Nacional para Niños en la Pobreza (NCCP) de la Escuela Mailman de Columbia University. Salud pública. Utilizando los últimos datos disponibles de la Encuesta sobre la comunidad estadounidense,
Carpenter v. Estados Unidos
Carpenter v. Estados Unidos
Columbia Global Freedom of Expression busca promover la comprensión de las normas e instituciones nacionales e internacionales que mejor protegen el libre flujo de información y expresión en una comunidad global interconectada con importantes desafíos comunes que abordar. Para lograr su misión, Global Freedom of Expression emprende y encarga proyectos de investigación y políticas, organiza eventos y conferencias, y participa y contribuye a los debates globales sobre la protección de la libertad de expresión e información en el siglo XXI.
El ex alumno Chris Vola '10 publica 'I is for Illuminati: An Guide to our Paranoid Times
El ex alumno Chris Vola '10 publica 'I is for Illuminati: An Guide to our Paranoid Times'
El libro, que se acompaña de ilustraciones a todo color diseñadas exclusivamente para la obra de Keni Thomas, se basa en el estilo clásico de la cartilla ABC para explorar algunas de las teorías de la conspiración más perdurables de nuestro tiempo.
Reseña del libro: 'Diario de un hombre de compañía
Reseña del libro: 'Diario de un hombre de compañía'
Soy como Jonás en la ballena, escribe James Kunen en el 70CC del 27 de octubre de 2000, entrada de su crónica de estilo diario sobre la redención de la mediana edad, Diario de un hombre de compañía: perder un trabajo, encontrar una vida.