• AgoraVox sur Twitter
  • RSS
  • Agoravox TV
  • Agoravox Mobile

Vicgo

Vicgo

Un anonyme qui refuse de choisir un camp, de camper une posture, un parti pris...

Tableau de bord

  • Premier article le 05/05/2011
  • Modérateur depuis le 02/05/2012
Rédaction Depuis Articles publiés Commentaires postés Commentaires reçus
L'inscription 36 298 1756
1 mois 0 0 0
5 jours 0 0 0
Modération Depuis Articles modérés Positivement Négativement
L'inscription 580 321 259
1 mois 0 0 0
5 jours 0 0 0

Ses articles classés par : ordre chronologique













Derniers commentaires



  • Vicgo Jean Mohamed De La Bastille 27 avril 2017 23:05

    @Jean Mohamed De La Bastille

    Nous sommes ici devant un Problème statistique à information faible :

    - La taille d’un échantillon n est à comparer au nombre ν de paramètres à estimer. Typiquement, pour une distribution dans R avec 2 paramètres à estimer les problèmes peuvent commencer avec n<20. Les problèmes deviennent sérieux lorsque ν ≈ n . . . Ce qui est notre cas ici. Les statisticiens sont de plus en plus confrontés à des tailles n plus petites que la dimension d des données. Ce qui est notre cas ici puisque 80 000 pour 36 millions...

    - Attitudes devant de petits échantillons Renoncer à l’analyse Régulariser les estimations Apporter de l’information extérieure aux données, ce qui conduit à l’inférence bayésienne .

    -Le paramètre θ associé au modèle statistique f(x ; θ) est considéré lui-même aléatoire de loi a priori Π(θ). Sachant les données x, θ suit une loi a posteriori Π(θ/x) : Π(θ/x) = L(θ/x)Π(θ) R L(θ/x)Π(θ)dθ . L’inférence statistique se conduit sur la base de cette loi a posteriori. Ici notre loi à priori correspond aux données que les sondeurs détiennent notamment grâce aux élections précédentes et aux sondages effectués.

    - La loi a priori Π(θ) résume l’information préalable à l’obtention des données que l’on possède sur le paramètre θ. Elle résume également l’incertitude sur la valeur de cette information. Elle fournit un cadre cohérent et contrôlable pour quantifier les connaissances et les opinions d’expert. Grâce au théorème de Bayes, elle donne naissance à la loi a posteriori Π(θ/x) qui tire toute l’information des données et de la loi a priori.


    Tu veux que je continues ?

    Là maintenant si tu veux je peux te parler de ta loi normal car là elle est adapté !


  • Vicgo Jean Mohamed De La Bastille 27 avril 2017 22:58

    @Alcyon

    Alors juste entre toi et moi Alcyon. Je suis prof de math pour des classes de 4ème, 3ème. J’ai aussi enseignée jusqu’au BTS les maths commerciales donc avec bcp de Statistiques notamment en BTS NRC et MUC.

    J’ai aussi enseigné la gestion commerciale et l’économie.

    Tu te trompes totalement d’approches mais tu n’en démord pas ! Tout ce que tu as dit est vrai mais pas dans situation dont on parle. Les lois statistiques que tu utilisent ne sont pas les bonnes. Elles sont trop standard. Les lois utilisées ici sont bien plus complexes car justement les paramètres ne correspondent pas à une lois normal et les caractères, ici le vote, ne sont pas aléatoires...Mais bon, à quoi ça sert que je m’égosille....

    Je voulais éviter cela car justement je voulais éviter que l’on en vienne à des explications trop mathématiques, c’est pour cela que je te remballe depuis le début...Mais puisque tu y tiens :


  • Vicgo Jean Mohamed De La Bastille 27 avril 2017 22:34

    @Alcyon

    Ah mais t’es encore là ?


  • Vicgo Jean Mohamed De La Bastille 27 avril 2017 22:04

    @Alcyon


    Vraiment pitoyable ! La taille de la population est de partout au contraire ! Comment calcules tu ton écart type et donc ton niveau de confiance ? Et comment calcul tu la moyenne obtenue ?

    C’est moi qui commence à avoir peur pour les élèves que tu as en soutien ! Connaître les formules ne sert pas à grand chose. Il est plus important d’en connaître le sens !

    Quand à cette formule, elle n’est pas du tout adapter à notre situation....Je te l’ai pourtant déjà expliqué ! Nous n’avons pas ici un échantillon ! Nous avons 400 échantillons qui correspondent chacun à des caractères spécifiques. Et sur ces 200 échantillon, on fait des sous-échantillon de 200 bulletins...

    Tu veux les formules ? Mort de rire !

    Je ne suis pas là pour jouer à celui qui a la plus grosse avec un neuneu qui parle beaucoup mais ne fait rien si ce n’est critiquer sans savoir.

    Les gens se foutent de tes formules...

    D’ailleurs à part tes copains relou et toi, qui je remarque vous prenez tous pour des demi-dieux alors que les autres sont des sous merde ( Je vous invite à cet égard à cliquer sur le profil de ces trolls pour comprendre ce qu’ils sont, des trou noirs !), à part vous, personne ne lie vos commentaires pourris....

    Hey ouias mon pote, les gens qui regardent cette page et il faut croire qu’ils sont nombreux, il la regarde pour l’article que J’ai écris !


    T’as les boules ?


  • Vicgo Jean Mohamed De La Bastille 27 avril 2017 21:34

    @Jean Mohamed De La Bastille

    Vu que toi et ton collègue est trop fort en math mais que vous n’avez rien compris, je vais faire un peu de pédagogie :

    -Nos sondeurs ont choisis 400 bureau de vote sur les 69 000 existtants. En cela, ils ont procédé à un premier échantillonnage avec tous les paramètres que cela induits. Nos sondeurs ont pris comme paramètres premiers, les résultats des élections présidentielles précédentes ainsi que les résultats des élections locales récentes. Ils se sont aussi appuyés sur les sondages des mois précédents et plus spécifiquement aux taux de certitude des sondés de voter ou non pour leur candidat. Ces paramètres ont donc conditionné leur choix de bureau électorale.

    - Les sondeurs pour être dans rapport rentable entre leur étude, la fiabilité de leur études et leur coût, ont choisis des communes de plus ou moins 1000 électeurs. Ils ont privilégié les communes fortement marqué politiquement pour faire des extrapolations. Ceci est important car beaucoup penseraient qu’ils prenaient des communes dans la moyenne, ce qui n’est pas le cas. Ceci permet d’avoir des intervalles de confiance plus faible mais aussi plus d’incertitude car l’écart-type et la variance sont plus importants.

    -Dans ces bureaux de vote extrapolarisé, nos sondeurs ont pris les deux cents premiers bulletins de vote ce qui représente un autre échantillonnage. Rien est dit sur le mélange des bulletins ou sur quelconque méthode quand au tirage des 200 bulletins de l’urne.Ceci est important car si comme on peut le penser, les 200 premiers bulletins de vote ne sont pas tirer de la manière, alors il y a un biais très important et le caractère aléatoire de l’échantillonnage en prend un sacré coup.

    -Comme je l’ai marqué plus haut : Si des mois en amont d’une élection présidentielle, seulement un citoyen sur quatre soit sûr de son choix de vote et en particulier dans un échantillon de sondage politique. C’étais le cas pour ces élections. Alors, la précision de l’estimation des intentions de vote pour le candidat X crédité de 24 % des intentions de vote sur le seule foi des « sûrs de leur choix » ne sera pas de ± 3 %, donc dans la fourchette (21-27). Elle sera de ± 6 %, soit dans la fourchette (24-30), ce qui n’est guère précis. Ce qu’il faut en retenir, c’est que la précision des estimations n’est pas unique pour une enquête donnée et que la précision se calcule non pas avec la taille de l’échantillon de l’enquête, mais avec celle du sous-échantillon concerné par l’estimation en cause, soit le nombre qui figure au dénominateur du calcul des proportions. Pour notre cas, nous tombons pile poil dans ce cas de figure et donc nous devons considéré une incertitude de 6 pour nos 4 premiers candidats.

    Et 6%, cela fait 12% d’incertitude pour ces estimations !

    Autre chose ?
Voir tous ses commentaires (20 par page)


Publicité


Publicité



Palmarès

Publicité


Agoravox.tv