Modèle de régression binomiale négative

Une distribution de poisson est paramétrée par (lambda), qui se trouve être à la fois sa moyenne et sa variance. Bien que pratique à retenir, il n`est pas souvent réaliste. Une répartition des dénombrements aura généralement une variance qui n`est pas égale à sa moyenne. Lorsque nous voyons cela se produire avec des données que nous supposons (ou l`espoir) est poisson distribué, nous disons que nous avons sous-ou surdispersion, selon si la variance est plus petite ou plus grande que la moyenne. L`exécution de la régression de poisson sur les données de comptage qui présente ce comportement entraîne un modèle qui ne correspond pas bien. Lorsque la statistique de dispersion est proche d`un, un modèle de poisson s`adapte. S`il est plus grand qu`un, un modèle binomiial négatif s`adapte mieux. Mais peut-être plus utile pour l`interprétation des coefficients serait le ratio de taux d`incidence (IRR) pour chaque variable, qui est obtenue par l`exponentiation de chaque coefficient. Par exemple, sur un échantillon d`adultes, nous prévoyons que le taux de survie, à partir de notre modèle (4), sera alors que pour un nombre identique d`enfants, nous nous attendons à ce que leur taux de survie soit. Par conséquent, en divisant les deux taux, nous obtenons le ratio de taux (IRR) pour être où est notre fonction log-vraisemblable (5), et est la fonction log-vraisemblable avec le remplacement. Pour notre modèle NB2, cela simplifie, en d`autres termes, la distribution binomiale négative paramétrée alternativement converge à la distribution de poisson et r contrôle l`écart par rapport au poisson. Cela rend la distribution binomiale négative appropriée comme une alternative robuste au poisson, qui s`approche du poisson pour le grand r, mais qui a une plus grande variance que le poisson pour le petit r. est défini quand n est un nombre réel, au lieu d`un entier positif.

Mais dans notre cas de la distribution binomiale, il est zéro lorsque k > n. On peut alors dire, par exemple en régression binomiale négative [12], la distribution est spécifiée en termes de sa moyenne, m = (1 − p) r p {textstyle m = {frac {(1-p) r} {p}}}, qui est ensuite liée à des variables explicatives comme dans la régression linéaire ou d`autres Modèles. De l`expression pour la moyenne m, on peut dériver p = r m + r {textstyle p = {frac {r} {m + r}}} et 1 − p = m m + r {textstyle 1-p = {frac {m} {m + r}}}. Ensuite, en substituant ces expressions dans celle de la fonction de masse de probabilité lorsqu`elles sont à valeur réelle, on obtient cette paramétrilisation de la fonction de masse de probabilité en termes de m: Voici l`intrigue utilisant un modèle de poisson pour régresser le nombre de visites à la médecin dans une période de deux semaines sur le sexe, le revenu et l`état de santé. proc GENMOD Data = poissonreg; modèle daysabs = Math masculin langarts/dist = negbin; exécuter Lorsqu`ils sont appliqués à des problèmes réels, les résultats du succès et de l`échec peuvent ou non être des résultats que nous avons l`habitude d`afficher comme bons et mauvais, respectivement. Supposons que nous avons utilisé la distribution binomiale négative pour modéliser le nombre de jours d`une certaine machine fonctionne avant qu`il ne tombe en panne. Dans ce cas, le «succès» serait le résultat d`un jour où la machine fonctionnait correctement, alors qu`une panne serait un «échec». Si nous avons utilisé la distribution binomiale négative pour modéliser le nombre de tentatives d`objectif qu`un athlète fait avant de marquer des buts, cependant, chaque tentative infructueuse serait un «succès», et marquer un objectif serait «échec». Si nous jetons une pièce de monnaie, alors la distribution binomiale négative peut donner le nombre de têtes («succès») que nous sommes susceptibles de rencontrer avant que nous rencontriez un certain nombre de queues («échec»). Dans la fonction de masse de probabilité ci-dessous, p est la probabilité de succès, et (1 − p) est la probabilité d`échec. Pour le cas particulier où sont un entier, la distribution binomiale négative est connue sous le nom de la distribution Pascal.

Il s`agit de la distribution de probabilité d`un certain nombre d`échecs et de réussites dans une série d`essais de Bernoulli indépendants et à répartition identique. Pour les essais de k + r Bernoulli avec la probabilité de succès p, le binôme négatif donne la probabilité de k succès et r échecs, avec un échec sur le dernier essai.

PAGE TOP