Oh la vache, qu'est-ce qu'il me met.. et en plus avec raison.
Comme d'hab j'ai confondu les méthodes de validations d'hypothèses avec les méthodes descriptives .. ( tu peux redonern les vrais noms STP) et comme REDHAB, et celle là je ne me la pardonne pas, j'ai oublié que sur les variables non quantifiées .. je l'ai dans l'os pour les recherches de valeurs propres
Donc
(l'ACP n'est pas pertinente, car confirmatoire) parce que :
==> redonne stp les trois grandes branches que je meure pas idiot.
1) ces analyses te donneraient des facteurs, lesquels seraient à analyser à partir de tes données. Tu n'en auras pas une sortie toute faite. En gros, on te dira qu'un premier facteur explique 12% des données. Tu sauras quelles réponses formeront ces 12%, mais il te faudra encore savoir pourquoi, c'est-à-dire "qu'est-ce qui dans ces réponses se ressemble", et en conséquence comment nommer ton facteur, ce qui ne te met nullement à l'abri de l'interprétation humaine.
==> ca encore je peux prendre le risque mais le vrai pb que tu cites plus haut c'est que je ne maitrise pas la codif.
2) sauf erreur de ma part, les AF se calculent sur des données de type "par intervalle", et non des données nominales, comme ce serait le cas ici... ouh la belle erreur d'ingénieur

(si je me trompe, je te raconte pas comme je vais avoir l'air malin)
== et comme tu ne te trompes pas, je te dis pas comment j'ai lair c..
A mon avis, le seul moyen de faire c'est de travailler sur doc et de créer ta classification a priori. Mais pas n'importe comment. En fait, tout dépend des informations que tu cherches à obtenir ensuite dans ton analyse statistique.
==> ce qui est à moitié ce que je "leur" ai dit, à savoir que leur classif étant de m.., il n'en sortira rien
=> et à moitié le contraiore vu que je leur ai dit qu'il vallait mieux recuillir de la donnée brute riche qeu dela dnéne mal doée sur uen claaif de m..
==> dis moiq ue si ma solution est pas bonne, mon objection est bonne, ça me fera plaisir
Par exemple, les clampins qui disent être directeur sans autre précision, ça peut être aussi intéressant à analyser pour peu que tu t'intéresses à ça. Il te faut donc t'interroger d'abord sur les questions auxquelles tu veux avoir des réponses en utilisant ta base de données. Une fois que tu as quelques idées précises, il te suffit de fermer les items et de faire tourner un Chi2 pour savoir si l'âge du capitaine explique le cheval blanc d'Henri IV.
==> oui, mais là je ne cherche pas à démontre la corrélation de deux facteurs, je cherche à segmenter proprement ma population AVANT de procéder aux analyses suivantes
Ainsi, dans ton exemple, tu étais ennuyé parce que l'on ne sait pas la taille de la boîte et le niveau de responsabilité de l'individu. Et bien en deux ou trois questions fermées, tu peux l'appréhender :
1) Taille de la boîte
2) Nombre de personnes encadrées
Ou, si pertinent :
3) budget géré/an... etc.
La pertinence de cette fermeture peut elle-même être testée statistiquement.
==> autrement dit ??? je demande ces trois critères, je pose mes n "portraits robots" en leur asscoiation des valeurs probables des 3 critères et je vérifie que mes portraits sont corrélés aux sous-ensembles ?
En étant suffisament inventif, en se posant les bonnes questions et en utilisant une documentation pertinente, tu peux même réussir à obtenir des données par intervalle et donc lancer des analyses inférentielles beaucoup plus poussées, et donc informatives.
==> glou glou glou ... je suis largué
L'autre avantage, c'est qu'avec ce type de données, tu n'as pas besoin de te taper l'intentaire sur 30000 personnes. Tu peux te structurer un échantillon représentatif et fonctionner, comme tu l'as noté, avec des redressements statistiques et des intervalles de confiance qui n'invalideraient aucune de tes analyses par la suite.
==> ca sous entedn que je me dispense des "missing ? "
Pour mémoire, il suffit de 60 personnes pour faire tourner ton AF, 40 pour une ANOVA et seulement 10 pour une loi binomiale. Pour les méthodes de régression simple ou multiple, voire les modèles à équations structurales, on tape facilement beaucoup plus haut : entre 500 et 1000.
===> glou glou glou
Dernier point : si tu n'arrives pas à te débarrasser des questions semi-ouvertes, fais remplir les questionnaires par les intéressés eux-mêmes. Passer par quelqu'un, cela donne des données pas toujours conformes à la réalité.
==> ca je ne peux pas
j'en retiens
- que je dois structurer mieux mon questionnaire en fonction de l'analyse que je veux faire. Jai toujours espéré que les stats c'était garbage in, light out .. bouh ...
- qu'il est illusoire depenser que je vais collecter aujorud'hui pour els futures analyses de demain ( cf supra ..)
- que sur un questionnaire un peu bien conçu, je peux utiliser des questions de recoupement et améliorer la qualité de mes données - mais via des suppositions à valider
- que j'ai pas commpris le reste .. esssplique et merci