La statistique en psychologie

Free texts and images.
Jump to: navigation, search
La statistique en psychologie
written by Georges Darmois
1935
  • LA STATISTIQUE EN PSYCHOLOGIE

Les méthodes dont nous allons parler n'ont pas leur application restreinte à la psychologie, la plupart des idées générales s'appliquent en particulier à l'étude numérique des liens qui peuvent exister entre phénomènes économiques, mais chaque champ d'application des méthodes statistiques comporte quelques particularités de mesures et d'interprétation. Le problème précis dont nous voulons traiter est l'étude numérique des diverses aptitudes, des liens qu'elles peuvent présenter entre elles, et de la manière dont on peut essayer de se représenter la structure de l'édifice mental. Il s'agit d'un problème bien difficile, et sur lequel nous n'avons pas beaucoup de données de départ. Si la question n'était d'une telle importance, le plus sage serait peut-être d'attendre, de recherches de laboratoire, des idées plus claires sur le mécanisme mental. En fait, nous n'avons pas le temps d'attendre, et nous appelons à l'aide la statistique, dans l'espoir qu'elle dégrossira le problème et pourra fournir, à côté de certains progrès immédiats, une base à laquelle devront s'adapter les idées générales sur lesquelles se construira peut-être la théorie de l'avenir. Il s'agit ici de faire des mesures, de rechercher des liaisons, et de voir avec quelle précision les méthodes donnent les mesures, avec quelle précision les liaisons sont établies. Le corps de notions empruntées à la statistique sera donc celui des moyennes et des erreurs, en général, l'estimation des paramètres de structure d'une population et les erreurs possibles, enfin la théorie dite de la corrélation, ou plus généralement celle des lois de probabilité à plusieurs variables. Nous allons rappeler l'essentiel de ces notions fondamentales, eu les appliquant au problème qui nous intéresse.

La mesure d'une aptitude. Les erreurs. — Il y a des grandeurs dont on ne discute guère et dont la mesure ne soulève aucune difficulté, la taille d'un individu, les dimensions de son crâne. Mais quand nous parlons de l'aptitude à la géométrie, au dessin ou à la musique, de l'habileté d'un chasseur à tirer le perdreau, il s'agit de grandeurs assez différentes, d'une longueur ou d'un poids. Il est pourtant indiscutable que ces notions ont de l'importance et quelques-unes sont très utiles. Les aptitudes dont nous parlons se manifestent par le succès dans l'accomplissement de tâches appropriées. On peut, en fixant certaines règles, donner des cotes à différents individus d'un groupe s'essayant soit à résoudre une question de géométrie, soit à tirer des perdreaux. Mais nous trouvons quelque chose d'assez nouveau, du moins par son importance. Alors que la mesure de la taille d'un individu faite à plusieurs reprises, donnera des nombres très voisins, les cotes que nous obtiendrons pour un même individu, dans des tâches diverses rapportées à la même aptitude, seront eu général assez fortement fluctuantes. Y a-t-il lieu d'abandonner la notion de grandeur ? Non, car si les tâches sont nombreuses, nous verrons en général se dégager de mieux en mieux les plus aptes, les moins aptes. La cote générale sera de plus en plus stable. Nous pouvons dire qu'elle fixe de mieux en mieux une sorte de cote objective. Mais chaque mesure isolée ne donne pas cette cote vraie, elle est affectée d'une erreur. Prenons comme exemple un test d'intelligence (celui qu'ont établi M. et Mme Piéron). Le mot d'intelligence est fort vague. Le test en question comporte 88 questions destinées à mettre en évidence la forme logique, la forme verbale, la forme numérique, la forme usuelle et générale, de l'intelligence. On donne des points aux questions et on additionne. On a quatre notes. D'autre part, on a un groupement destiné à mettre en évidence l'aptitude à comprendre, à critiquer, à inventer. On obtient trois notes. Enfin une note globale est la somme de tous les points. Pour voir quelle est la précision de la méthode pour la note globale, on découpe en questions impaires et paires 2 groupes tout à fait analogues de 44 questions. Si la méthode était tout à fait précise, on devrait trouver les mêmes nombres, à très peu près. En réalité, les notes sont assez différentes et donnent un groupement qui, représenté géométriquement, entoure la droite x = y, où se trouveraient tous les points si la mesure était très précise. Nous allons voir comment on caractérise cette précision. Un deuxième test sera par exemple le test de mémoire logique. Il s'agit de reconstituer des couples de mots dont la plupart sont liés logiquement. La méthode de cotation est par addition.

Liaison de deux aptitudes. — Imaginons maintenant qu'on ait un groupe de 100 individus sur lesquels nous mesurons deux aptitudes différentes. Nous supposerons d'abord que la mesure est tout à fait précise, c'est-à-dire qu'elle atteint les valeurs vraies. Nous appellerons X(1), X(2), ..., X(100), Y(1), Y(2), ..., Y(100) les résultats des mesures et pour plus de netteté, nous les reporterons comme coordonnées de 100 points. Nous obtenons ainsi un nuage de points, analogue à celui dont nous avons parlé précédemment. Nous nous représenterons d'abord les individus mesurés comme un échantillon (non dévié systématiquement) d'une population plus ample dans laquelle règne une certaine répartition bien déterminée de X et Y. C'est cette répartition qui constitue la loi que nous cherchons. Elle serait une sorte de nuage beaucoup plus serré, disons continu, dans lequel nous avons marqué au hasard un nuage de 100 points. C'est à partir de ce dernier qu'il faut estimer les caractéristiques de la répartition, disons du nuage N(infini), le nuage expérimental étant N(100).

Les caractéristiques. — Pour résoudre le problème précédent, il faudrait avoir la valeur, en. tout point du plan, de la densité du nuage N(infini), soit une fonction de deux variables à estimer. En réalité, on se contente de caractéristiques plus simples. Elles ont des formes différentes, suivant qu'on s'attache à l'une ou l'autre de deux idées. La première est de se représenter la forme du nuage. Pour cela, on utilise les notions habituelles de la géométrie des masses, c'est-à-dire le centre de gravité, les moments du second ordre et les moments d'ordre supérieur. La deuxième idée s'attache à la liaison entre les deux grandeurs étudiées, et on se demandera quels renseignements la connaissance de l'une de ces grandeurs peut fournir sur l'autre, ou encore quelle est la répartition, disons en bref de l'intelligence, chez les enfants ayant la même cote de mémoire logique.

La forme du nuage. — On n'introduit en général que les moments jusqu'au second ordre, ou les valeurs moyennes de X, Y, X^2, XY, Y^2. Nous emploierons les notations

E(X) = X(0), E((X - X(0))^2), E(X - X(0))(Y - Y(0)), E((Y - Y(0))^2), E(Y) = Y0.

Ces notions, qui suffisent dans le cas extrêmement spécial de la loi de Gauss (dite généralement de Gauss-Bravais), ne donnent en réalité que le centre et les caractéristiques de ce que, dans la mécanique des masses, on appelle l'ellipse d'inertie. Pour la loi de Gauss, où la densité de probabilité est entière-ment connue par une telle ellipse, ces valeurs suffisent, mais il faut dire qu'elles risquent d'être, dans des cas plus complexes, tout à fait insuffisantes. On remplace en général parmi ces cinq caractéristiques, le moment mixte par le coefficient dit de corrélation. En posant :

E((X - X(0))^2) = ((sigma(x))^2), E((Y - Y(0))^2) = ((sigma(y))^2),

on aura :

E(X - X(0))(Y - Y(0)) = R*sigma(x)*sigma(y),

où R, dont la valeur absolue ne peut dépasser l'unité, est le coefficient de corrélation. Si l'on prend comme unités de mesures sigma(x) et sigma(y), le fait que R = 0 indique que l'ellipse d'inertie est un cercle ; si R = + 1 elle est réduite à une portion de la bissectrice X = Y. Si R = - 1 elle est réduite à une portion de X - Y.

La liaison des deux grandeurs. — Ici, on porte son attention sur la structure de la répartition de Y pour une valeur donnée de X. S'il arrivait que Y fût connu dès que X l'est, on aurait une liaison du type fonctionnel, Y étant fonction de X. Une liaison de type plus général est obtenue quand la répartition de la population sélectionnée à X constant dépend de la valeur fixée pour X. Il arrivera alors en général que la valeur moyenne de Y dans cette population sélectionnée dépendra de X. Le lieu du point moyen, dont l'ordonnée est cette moyenne liée, est appelé la courbe de régression de Y en X. De même, la dispersion de Y dans les mêmes conditions, ou dispersion liée de Y, sera généralement une fonction de X. Ce sont les deux caractéristiques principales de la répartition liée, celles qui permettront de dire : Pour une valeur donnée de X, la valeur moyenne de Y aura une valeur connue, et le risque d'erreur que l'on court en attribuant, à un individu où. X est connu, cette valeur pour Y, est indiqué parla valeur de la dispersion. C'est généralement le but que l'on se propose en cherchant une liaison ou corrélation entre deux grandeurs.

Relation entre les deux points de vue. — Dans un cas assez important, les moments du second ordre peuvent permettre de trouver la moyenne liée et la dispersion liée. C'est le cas où le lieu des points moyens est une droite et où la dispersion liée est constante. Dans ce cas, en effet, la droite de régression, qui passe par le centre de gravité, a pour coefficient angulaire

R*(sigma(y)/sigma(x)).

D'autre part, la dispersion liée a pour valeur sigma(y)*(sqrt(1 - (R^2))). La population sélectionnée est donc moins dispersée que la population non sélectionnée, et cela dans le rapport

sqrt(1 - (R^2)).

Si ces conditions particulières sont remplies, la connaissance de X(0)*Y(0), sigma(x)*sigma(y), donne donc des indications assez complètes. On essaiera donc, par un choix convenable des grandeurs à étudier, de rendre la régression linéaire et on verra si l'on peut admettre une dispersion liée peu variable. Si on ne le peut pas, il vaut mieux étudier directement les observations au deuxième point de vue.

L'estimation des caractéristiques. — Supposons qu'on dispose de 100 couples de mesures, qu'on a obtenues sans erreurs. On déduit de ces mesures des estimations de X(0),Y(0), sigma(x), sigma(y), R. Par exemple, on adopte les valeurs classiques :

(X(0))' = (X(1) + ... + X(100))/100,

((sigma(x)')^2) = ((X(1) - (X(0)'))^2) + ... + ((X(100) - (X(0)'))^2)/99,

R' = [(X(1) - (X(0)'))*(Y(1) - (Y(0)')) + ... + (X(100) - (X(0)'))*(Y(100) - (Y(0)')]/[(sqrt(Sigma((X(i) - (X(0)'))^2))*(sqrt(Sigma'((Y(i) - (Y(0)'))^2))].

On voit bien que ces estimations déduites de l'épreuve, dépendent des circonstances aléatoires qui ont offert aux mesures les individus du nuage N100. Ce sont donc des nombres aléatoires, et les risques d'erreur que l'on court en les adoptant pour les inconnues sont donnés par leurs écarts-types, ou plus précisément, par leur répartition autour de ces valeurs inconnues. Les écarts types de (X(0)')*(sigma(x)') sont donnés par les formules classiques, qui suffisent même si le nombre d'observations n'est pas très élevé, mais la loi de répartition de R', un peu compliquée quand ce nombre est faible, ne permet pas toujours de se contenter de l'écart type de R'. Nous renverrons ici à l'ouvrage de R. A. Fisher (Statistical Methods for Research Workers (nombreuses éditions successives depuis 1925), Londres et Edimbourg). Nous pouvons donc supposer que nous possédons des estimations des caractéristiques et de la liaison.

Le véritable problème. — En vérité, les valeurs obtenues ne sont pas les vraies. Si, pour l'individu i, le point véritable est M(i), le point donné par les mesures est P(i). Le nuage expérimental sera, dans notre cas, celui des 100 points P(i), et ce nuage est la résultante de la loi véritable et des erreurs de mesure.

La loi d'erreur. — Soit un individu déterminé pour lequel le point vrai est M(i) et supposons qu'on puisse le soumettre plu-sieurs fois à la mesure. S'il s'agissait de mesurer une longueur, cela ne présenterait aucune sérieuse difficulté d'interprétation. Ici, cela veut dire qu'il faut faire exécuter diverses tâches, mais que toutes peuvent être considérées comme différant seulement dans la forme, de la tâche qui doit mettre en évidence l'aptitude considérée. On obtiendrait ainsi, autour du point M, différents points P. Ces points constitueraient le nuage d'erreur attaché au point M(i). On comprend qu'un problème fondamental soit d'essayer d'apprendre quelque chose sur la structure de ce nuage d'erreur. Une fois cette information obtenue, on essaiera d'extraire la véritable loi, celle des points M(i). On voit que ce n'est pas très facile.

Structure du nuage d'erreur. — Les notions déjà rappelées s'appliquent. Ce nuage aura un centre de gravité et d'autres caractéristiques d'ordre plus élevé. Si la méthode est bonne, dépourvue d'erreur systématique adaptée à la recherche des points M, ce centre devra être le point M(i). Si la méthode est précise, le nuage sera assez petit. Il n'est pas déraisonnable alors de supposer que les caractéristiques du second ordre suffiront pour lui, on peut même, allant un peu plus loin, supposer que ce nuage d'erreur suit une loi de Gauss. Mais il paraît difficile d'étudier ce nuage autour de chaque point M, par une assez longue série de mesures. Il faut, en effet, varier les tâches de façon qu'elles ne soient pas trop semblables, car la mémoire jouerait partout un trop grand rôle ; il faut aussi que leurs différences ne les amènent pas à mesurer en réalité des choses différentes. On peut, sous certaines hypothèses naturelles, simplifier l'étude. Nous allons supposer que le nuage d'erreur est le même autour de chaque point M(i) ; disons, dans le langage de la théorie des probabilités, que le vecteur aléatoire M(i)P(i) est indépendant de son origine aléatoire M(i). Nous allons pouvoir rassembler toute l'information sur la loi d'erreur recueillie aux différents points M. L'idée la plus simple est de faire une double mesure en chaque point et d'utiliser les deux mesures ajoutées pour obtenir P(i), et retranchées pour obtenir ce qu'on pourrait appeler un terme d'erreur pure. C'est en fait, comme nous allons le voir, la méthode qui a été employée, bien qu'elle soit généralement présentée de tout autre façon. Soient P(i)(1)P(i)(2) les points qui résultent des mesures. On aura :

X(i)(1) = ksi(i) + lambda(1) X(i)(2) = ksi(i) + lambda(2) Y(i)(1) = eta(i) + mu(1) Y(i)(2) = eta(i) + mu(2)

ksi(i) eta(i) sont les coordonnées de M(i), lambda(1) mu(1) les composantes du vecteur M(i)P(1). Nous allons supposer que les valeurs moyennes de toutes les variables sont nulles. On aura par différence les composantes

lambda(2) - lambda(1), mu(2) - mu(1),

du vecteur P(2)P(1). Nous supposons indépendants les points aléatoires P(1)P(2). Il est clair qu'on a :

E((lambda(2) - lambda(1))^2) = 2*((sigma(lambda))^2), E(lambda(2) - lambda(1))(mu(2) - mu(1)) = 2*E(lambda*mu), E((mu(2) - mu(1))^2) = 2*((sigma(mu))^2),

et l'on voit bien qu'au facteur 2 près, les valeurs moyennes des premiers membres fourniront l'ellipse d'erreur.

Formules classiques. — De l'égalité :

X(i)(2) - X(i)(1) = lambda(2) - lambda(1)

on déduit :

2*((sigma(x))^2)*(1 - r(1,2)(X)) = 2*((sigma(lambda))^2)

r(1,2)(X) étant le coefficient de corrélation entre les deux variables

X(1) = ksi + lambda(1), X(2) = ksi + lambda(2).

On peut encore écrire:

  • 1) ((sigma(x))^2) = ((sigma(ksi))^2) + ((sigma(lambda))^2),

ce qui donne les formes équivalentes :

  • 2) ((sigma(lambda))^2) = ((sigma(x))^2)*(1 - r(1,2)(X)),
  • 3) ((sigma(x))^2)(r(1,2)(X)) = ((sigma(ksi))^2).

Par conséquent sigma(x) est généralement plus grand que sigma(ksi), le nuage expérimental est agrandi, sauf si r(1,2)(X) = 1, auquel cas il n'y aura pas d'erreur du tout. On aura les mêmes formules pour Y, et l'on doit ajouter

  • 4) E(X*Y) = E(ksi*eta) + E(lambda*mu).

Les formules classiques supposent E(lambda,mu) = 0. On obtient alors

R(X,Y) = rho(ksi,eta)*(sigma(ksi)/sigma(x))*(sigma(eta)/sigma(y)),

ou bien

  • 5) rho(ksi,eta) = R(X,Y)/[(sqrt(r(1,2)(x))*(sqrt(r(1,2)(y))].

La formule (5) est celle qu'a donnée Spearman pour la correction d'extension du nuage. Elle est appelée correction d'atténuation, parce que la corrélation entre X et Y est atténuée par la présence des erreurs.

Les formules générales. — En vérité, l'hypothèse E(lambda,mu) = 0 n'a d'autre raison que de simplifier les formules. Elle signifie en effet que le nuage d'erreur a ses axes parallèles aux axes de coordonnées, ou que les erreurs sur X et Y sont indépendantes. Il ne semble pas y avoir de difficultés très grandes, soit à vérifier si cette hypothèse est exacte, soit à préciser l'orientation des axes du nuage d'erreur. De façon générale, une fois connus les moments de la loi d'erreur, on aura :

E(X^2) = E(ksi^2) + E(lambda^2), E(X*Y) = E(ksi*eta) + E(lambda*mu), E(Y^2) = E(eta^2) + E(mu^2),

formules qu'on pourrait, s'il était utile, étendre aux moments du 3ème ordre.

Les formules pratiques. — Dans la réalité, l'instrument de mesure étant par exemple le test d'intelligence à 88 questions, on ne peut opérer une double mesure que sur un test à 44 questions. Considérons donc la grandeur ksi' comme obtenue dans un test à 44 questions. On aura bien pour les 2 tests à 44 questions :

X(1) = ksi' + lambda(1), X(2) = ksi' + lambda(2).

Le test à 88 questions fournira la valeur :

Z = 2*ksi' + lambda(1) + lambda(2), 2*ksi' = ksi.

En général, un test n fois plus long (c'est-à-dire composé de n parties mesurant chacune la grandeur ksi') mesurera la grandeur n*ksi'. On aura :

Z = X(1) + X(2) + ... + X(n), X(j) = ksi' + lambda(j).

On voit alors aisément ce que devient la formule 3).

((sigma(Z))^2)*(r(1,2)(Z)) = ((sigma(n*ksi'))^2) ((sigma(Z))^2) = (E(X(1) + ... + X(n))^2) = n*((sigma(x))^2) + n*(n-1)*E(X(i)*X(k)).

D'où :

  • 7) (r(1,2)(Z)) = [((sigma(ksi'))^2)/((sigma(x))^2)]*[n^2/(n + n*(n-1)*r(1,2)(X))] = (n*r(1,2)(X))/(1 + (n-1)*r(1,2)(X)).

Cette formule 7) relie la précision du test global (indiquée par r(1,2)(Z)) à la précision du test élémentaire. On voit que si l'on pouvait supposer n grand, r(1,2)(Z) serait voisin de l'unité. Cette formule, due également à Spearman, généralement dite formule de Brown-Spearman, est surtout appliquée dans le cas n = 2, qui correspond à la double mesure, faite sur le demi-test. Nous signalerons ici la forme particulière à utiliser dans le même cas n = 2, pour l'estimation de la valeur moyenne E(lambda,mu). Avec les notations qu'on vient d'employer, on a :

A') X(1) = ksi' + lambda(1), X(2) = ksi' + lambda(2), Y(1) = eta' + mu(1), Y(2) = eta' + mu(2).

Le test réel mesure 2*ksi', 2*eta' avec les erreurs lambda(1) + lambda(2), mu(1) + mu(2). On aura donc :

E(lambda*mu) = E(lambda(1)*mu(1)) + E(lambda(2)*mu(2))

  • 8) E(lambda*mu) = E(X(2) - X(1))(Y(2) - Y(1))

ce qui permet d'obtenir simplement la valeur de E(ksi*eta) donnée par la formule 4) :

4') E(ksi*eta) = 2*E[X(1)*Y(2) + X(2)*Y(1)].

On vérifie aisément d'ailleurs, puisque

ksi = 2*ksi', eta = 2*eta',

que la formule 4') se déduit des formules A'. La formule classique d'atténuation pourrait alors être remplacée par l'emploi simultané de 3) et de 8), ou bien de 3) et de 4'). Si l'on désigne par r le coefficient de corrélation de lambda*mu, on aurait par exemple :

5') rho(ksi*eta) = [1/((sqrt(r(1,2)(X))*(sqrt(r(1,2)(Y)))]*{R(X,Y) - r*sqrt(1 - r(1,2)(X))*sqrt(1 - r(1,2)(Y)}.

Les coefficients r(1,2)(X), r(1,2)(Y), r, sont caractéristiques des méthodes de mesure employées. On n'utilise généralement que les deux premiers, r étant supposé nul. r(1,2)(X) a été appelé par Spearman coefficient de reliability de la mesure X. Depuis une récente conférence de Psychotechnique (Conférence de septembre 1931 (Moscou). Voir le Travail Humain, 11e année, n° 1, mars 1933), on appelle plus volontiers r(1,2)(X) coefficient de fidélité de cette mesure.

Exemples numériques. — Nous tirons quelques valeurs numériques d'un travail dû à la collaboration de H. Laugier, Dr Toulouse et Mlle Weinberg, et paru dans le Bulletin de la Société de Biotypologie (Biotypologie. Tome II, décembre 1934, numéro 4). Pour le test d'intelligence, le coefficient de fidélité r(1,2)(X) a la valeur 0,790. Pour le test de mémoire logique, r(1,2)(Y) a la valeur 0,815. Le coefficient R(X,Y) a pour valeur 0,280. Avec les valeurs classiques 5) le coefficient corrigé est 0,35. L'élargissement du nuage 1/(sqrt(r(1,2)(X)) = 10/9 est donc de 1/10. Mais cet élargissement qui paraît faible correspond en fait à de sérieuses erreurs puisque d'après la formule 2), le rapport (sigma(lambda)/sigma(x)) vaut 0,44. Les observations sont faites sur un groupe, assez peu nombreux, de 82 enfants.. Les écarts types sur le coefficient de corrélation sont de 0,07 environ. Il est intéressant de signaler que des mesures faites en Amérique et rapportées par Kelley (Crossroads is the mind of man (Voir la Bibliographie p. 184)) donnent entre un test d'arithmétique et un test de mémoire logique un coefficient de corrélation non corrigé de 0,249, la valeur corrigée étant 0,36. Les élargissements du nuage expérimental sont encore de l'ordre du dixième.

Cas où l'on étudie ensemble un assez grand nombre d'aptitudes. — Imaginons maintenant qu'une vingtaine d'aptitudes paraissent intéressantes à étudier, et qu'elles nous semblent suffire à caractériser la structure mentale. A priori, on pourrait envisager l'hypothèse que toutes ces aptitudes soient indépendantes. La connaissance d'un nombre quelconque d'entre elles n'aurait alors aucune influence sur la répartition des autres. Une sous-population sélectionnée par la valeur des premières aptitudes serait aussi générale que la population entière. Il faudrait connaître les 20 grandeurs pour reconstruire l'édifice. En fait, il n'en est pas ainsi, les coefficients de corrélation en particulier, qui devraient être nuls ou plutôt très petits, dans le cas d'indépendance, sont tous positifs et quelques-uns d'entre eux ont des valeurs élevées. Ce résultat à lui tout seul est déjà très important. Mais on ne saurait en rester là. Il faut étudier la structure de l'édifice et chercher si on peut le concevoir reconstruit à l'aide des matériaux les plus simples. Nous avons ici, pour chaque individu, 20 mesures, nous dirons, conservant le langage géométrique, que ces 20 nombres constituent le point observé, nous supposons qu'il existe 20 vraies valeurs dont l'ensemble constitue le point M, disons le point visé. Nous aurons autant de points que d'individus étudiés. Ainsi sera constitué le nuage expérimental, dont il faut extraire une estimation du nuage vrai qui constitue la loi d'interdépendance des aptitudes étudiées.

Les différentes formes de nuages à n dimensions. — Pour fixer les idées prenons un espace à trois dimensions et supposons qu'il s'agisse de mesures sur des individus semblables, par exemple des cubes de densité uniforme, on mesurera une dimension linéaire, la surface, le poids. Si pour simplifier, on considère les logarithmes, on aura les trois mesures

log(l), 2*log(l), 3*log(l).

Les points sont donc sur une droite, il y a une seule variable déterminante.

Cas de deux variables. — Supposons que les individus soient des triangles et que les trois caractères soient leurs angles. Le point représentatif sera dans le plan :

x + y + z = Pi.

Il sera même à l'intérieur d'un triangle de ce plan. En réalité, les mesures faites n'étant jamais tout à fait précises, dans ce dernier cas, on obtient non pas un triangle, mais un nuage aplati au voisinage du plan de ce triangle. On retrouve ici cet effet de gonflement, d'élargissement que Ragnat Frisch, dans un travail consacré à la recherche des liaisons en économie politique (Confluence Analysis, Institut économique de l'Université d'Oslo, 1934) qualifie d'effet de coussin (Cushion effect). Cet effet est celui que nous avons déjà signalé ; à cause de l'importance des erreurs dans les mesures en psychologie, il est très sensible.

Cas de trois variables. — Il peut enfin arriver que le nuage considéré soit un véritable nuage, épais dans toutes ses dimensions. On voit que dans le cas de trois caractères, on peut envisager trois formes de nuages. Nous avons pris, pour plus de netteté, une droite au lieu d'une ligne, un plan au lieu d'une surface. Dans le travail de dégrossissage que la statistique peut faire dans les questions étudiées, nous supposerons toujours que les relations pouvant exister entre les différentes grandeurs sont du premier degré. Cette hypothèse n'est jamais déraisonnable en première approximation, elle simplifie notablement des calculs qui restent encore assez compliqués. On voit que s'il s'agit de 4 caractères, il y aura 4 types de nuages, à une, deux, trois ou quatre variables déterminantes. Le fait qu'il y a des erreurs de mesure modifie d'ailleurs l'allure de ces nuages, en les épaississant, les élargissant. Le problème est d'abord de déterminer le type de nuage vrai dont le nuage expérimental peut être considéré comme dérivé. Ce premier problème une fois résolu, il resterait encore un autre problème, celui d'expliquer la structure du nuage réduit.

Solution du premier problème, dans un cas simple. — Nous allons, comme nous l'avons indiqué d'abord, supposer que la loi d'erreur est une loi de Gauss, mais nous ferons de plus l'hypothèse que les ellipsoïdes qui indiquent la variation de là densité de cette loi de Gauss sont des sphères. Ainsi, pour chaque point M(i), la probabilité de trouver un point P à la distance rho est proportionnelle à :

exp[(-1/2)*((rho^2)/(sigma^2))],

où la constante sigma est l'écart type commun aux trois erreurs Sur les trois coordonnées. Le problème à résoudre, si le nuage est aplati au voisinage d'un plan, est de faire passer ce plan au mieux au travers du nuage des points P. Il s'agit de trouver des points Mi associés aux points P(i), ces points M(i) étant situés dans un plan d'équation :

a*x + b*y + c*z + d = 0.

Nous imposerons à ce plan la condition (maximum likelihood de R. A. Fisher) que la quantité :

exp[(-1/2)*((M(1)P(1)^2) + ... + (M(n)P(n)^2))/(sigma^2)],

ait la valeur la plus grande possible. On voit que le plan étant fixé, les distances MP(i) devront être le plus petites possibles, donc être les distances des points P(i) à ce plan : leur expression sera :

((a*x(i) + b*y(i) + c*z(i) + d)^2)/(a^2 + b^2 + c^2)

et le plan sera ensuite choisi de manière que la somme de ces quantités soit un minimum. Or, la solution de ce problème est simple. La forme quadratique

Sigma((a*x(i) + b*y(i) + c*z(i) + d)^2),

devra d'abord, pour d seule variable, avoir un minimum, ce qui exige, on le verra tout de suite, que le plan passe au centre de gravité des points P(i). Si l'on prend ce point comme origine, ce qui revient à rapporter, comme d'habitude, les xyz à leurs moyennes, on sera ramené à trouver le minimum du rapport de deux formes quadratiques

Sigma((a*x(i) + b*y(i) + c*z(i))^2), (a^2 + b^2 + c^2).

C'est un problème classique de la géométrie analytique, qui se ramène à la recherche des axes principaux d'un ellipsoïde, c'est-à-dire à la résolution de l'équation caractéristique, dite équation en lambda :

det[Sigma((x(i)^2) - lambda), Sigma(x(i)*y), Sigma(x(i)*z(i)), Sigma(x(i)*y(i)), Sigma((y(i)^2) - lambda), Sigma(y(i)*z(i)), Sigma(x(i)*z(i)), Sigma(y(i)*z(i)), Sigma((z(i)^2) - lambda)] = 0.

Cette équation a 3 racines réelles, positives ou nulles. C'est la plus petite qui nous intéresse. Si elle était nulle, tous les points P(i) seraient dans un plan, celui dont les coefficients a b c vérifient les trois équations compatibles

a*Sigma(x^2) + b*Sigma(x(i)*y(i)) + c*Sigma(x(i)*z(i)) = 0,

et les équations analogues formées avec les deux autres lignes du déterminant. Si la plus petite racine n'est pas nulle, soit lambda(0), les trois équations analogues fournissent le plan du minimum. La même méthode fournirait la droite passant au mieux au travers des points P(i), si l'on suppose le nuage aplati dans deux dimensions. Il faudrait alors prendre les deux plus petites racines de l'équation en lambda. Les deux plans correspondants se couperaient suivant la droite cherchée. Ce n'est que pour la commodité du langage géométrique habituel que nous avons supposé trois dimensions. Les résultats précédents subsistent avec un nombre quelconque de caractères. On voit qu'on détermine tout simplement les axes du nuage d'erreur. Cela paraît tout naturel, et ce sont les méthodes appliquées récemment par Thurstone et Hotelling, mais la raison du choix de ces axes rectangulaires dans une question qui, a priori, ne comporte pas de métrique, est vraiment dans la loi d'erreur (Voir N. ST-GEORGESCO, Thèse de l'Institut de Statistique, Journal de la Société de statistique de Paris, oct. 1930, p. 5).

Cas où la loi de Gauss n'est pas sphérique. — Il n'y a aucune difficulté à étendre cette méthode au cas d'une loi de Gauss quelconque, supposée connue. Donnons seulement les résultats dans l'espace à 3 dimensions. Les erreurs seront appelées lambda, mu, nu. La forme quadratique

E([a*lambda + b*mu + c*gamma]^2) = (a^2)*(sigma(lambda)^2) + (b^2)*(sigma(mu)^2) + (c^2)*(sigma(gamma)^2) + 2*a*b*E(lambda*mu)...

joue le rôle de :

(sigma^2)*(a^2 + b^2 + c^2),

et l'on est ramené à faire passer par le centre de gravité des points P(i) un plan qui rende minimum le rapport de

Sigma((a*x(i) + b*y(i) + c*z(i))^2),

à cette forme quadratique. Le problème est encore de chercher la plus petite racine d'une équation en lambda, mais cette fois c'est l'équation :

det[Sigma((x(i)^2) - thêta*(sigma(lambda)^2), Sigma(x(i)*y(i) - thêta*E(lambda*mu)), Sigma(x(i)*z(i) - thêta*E(lambda*nu)] = 0.

où pour éviter toute confusion, on a mis thêta à la place de lambda. Les résultats sont encore tout à fait généraux.

Quand ces solutions conviendront-elles. — Il faudra bien en-tendu que les racines que nous appelons les plus petites soient nettement plus petites que les autres et d'un ordre de grandeur qui s'explique par les erreurs de la méthode. Si, pour fixer les idées, nous nous bornons au cas d'une loi de Gauss sphérique, le rapport des deux formes quadratiques doit avoir un minimum qui soit de l'ordre de n*sigma(2), n étant le nombre des observations. En réalité, le calcul plus complet conduit à la valeur n - 3, nombre de points diminué du nombre des caractères. Et ce résultat est général. L'espérance mathématique de l'exposant (rho^2)/(sigma^2) doit être n - k, et les fluctuations du rapport, données par l'écart type, de l'ordre de sqrt(2(n - k)). Par conséquent, si l'on a quelque idée de (sigma^2), on se rendra compte s'il est raisonnable d'attribuer aux erreurs le gonflement du nuage qui devrait être dans un plan. Si la loi d'erreur est plus générale, les résultats restent les mêmes, la plus petite racine devra être jugée par les mêmes règles. S'il s'agit de deux degrés d'aplatissement, il faut prendre la somme des deux plus petites racines et appliquer des règles tout à fait analogues, qu'il est inutile d'énoncer ici en détail. On voit que, si la loi d'erreur est convenablement étudiée, elle permettra de dire si une dimension, ou deux... peuvent être négligées.

Variables déterminantes. — On peut ainsi opérer la réduction du groupe primitif à un certain nombre de variables, celles-ci pouvant être choisies assez arbitrairement parmi les variables primitives.

Le deuxième problème. La théorie de Spearman. — Cette réduction peut être faite en choisissant les variables déterminantes dont toutes les autres sont fonctions linéaires. Il y a là un large arbitraire pour le mathématicien. Il y en aura sans doute beaucoup moins pour le psychologue, qui fera choix, avec sa connaissance directe du sujet, des fonctions qui lui paraissent le plus dignes d'intérêt. Supposons pour fixer les idées qu'à partir de 20 aptitudes, nous ayons trouvé 8 de ces variables déterminantes. Nous ne les appelons pas indépendantes, parce que le mot a un sens particulier ici, et qu'en vérité, ces huit aptitudes seront généralement dépendantes ou en corrélation.

Disons, toujours dans notre langage, que le nuage, réduit à n'avoir plus que huit dimensions, n'a pas ses axes parallèles aux axes de coordonnées. Peut-on achever la solution en essayant de choisir des variables déterminantes qui soient vraiment indépendantes ? En vérité, ce problème, pour être résolu, exigerait la connaissance de la loi de probabilité complète, alors que, nous l'avons vu, on ne se risque guère à dépasser les moments du second ordre. En se bornant à ces moments, l'indépendance se réduit à la non-conciliation, les coefficients de corrélation étant seulement nuls. On voit facilement que cela revient à adopter comme nouveaux axes, un système conjugué par rapport à l'ellipsoïde d'inertie du nuage. La solution est donc indéterminée. Évidemment, on pourrait dire : prenons les axes principaux, mais cela n'aurait guère de sens, car si dans la première partie, la loi d'erreur indiquait une géométrie, ici il n'y en a plus qui s'impose, et parler d'axes rectangulaires a peu de signification (Hotelling, voir la Bibliographie p. 184). Il ne paraît donc pas intéressant d'introduire ces variables nouvelles, et les variables déterminantes resteront celles qu'on a choisies pour leur intérêt propre. Pourtant, on peut essayer de mieux comprendre et nous allons voir ce que cela signifie ici.

Analyse et explication d'une corrélation. — Imaginons qu'on joue dans une salle, et qu'après chaque partie, dont la règle reste secrète, on affiche à la porte huit résultats numériques, huit nombres entiers. Quelques statisticiens, analogues à celui (voir la conférence de M. Huber) qui cherchait à comprendre dans la nuit le mystère des feux sur la mer, examinent ces résultats et cherchent aussi à comprendre. Après une centaine de parties, ils auront vu quelle était la loi de probabilité de ces 8 entiers. Ils diront : Chacun d'eux est une variable aléatoire qui va de 2 à 12 avec une loi de probabilité qui ressemble beaucoup à celle qu'on obtient en ajoutant les points de deux dés. D'autre part, ces points sont liés entre eux. En particulier les coefficients de corrélation sont voisins de 1/2. Le statisticien pourrait en rester là. Il sait déjà pas mal de choses. Si, par exemple, on inscrivait les 7 premiers nombres et que l'établissement de jeux fasse parier quel est le huitième, ou entre quelles limites il est placé, il pourrait dire quelque chose d'assez précis. Mais il serait encore plus satisfait s'il avait trouvé une bonne théorie. Si par exemple, il pouvait dire : Tout se passe comme si, dans la salle, on jouait avec 9 dés que nous appellerons G, S(1), S(2), ..., S(8). Les 9 dés étant jetés, on forme les points :

G + S(1), G + S(2), ..., G + S(8),

et on les affiche. Ce statisticien aurait démontré la corrélation obtenue et trouvé ce que Spearman appelle le facteur commun G et les facteurs spécifiques S(1)...S(8). Et si on lui disait, les 7 premiers points sont

6 5 9 7 8 8 6

il répondrait, après un examen rapide, le facteur commun est 3 ou 4, et le dernier point peut être

3; 4 5 6 7 8 9

4; 5 6 7 8 9 10

1/2

1/2

l'un des nombres

4 5 6 7 8 9 10,

avec les probabilités :

1/12, 2/12, 2/12, 2/12, 2/12, 2/12, 1/12

On voit apparaître ici, avec la simplification qui vient des variables entières, les idées que Spearman a introduites en psychologie facteur commun et facteurs spécifiques, estimation du facteur commun quand on connaît les mesures de certaines aptitudes. Si l'on avait la 8e valeur, et que ce soit 7 par exemple, le facteur commun reste aléatoire, ce peut être 3 ou 4. Bien entendu, si c'était 10, il faudrait que ce soit 4, mais il s'agit là d'un cas extrême, dû à ce que nous employons des entiers.

La théorie de Spearman. — L'idée simple, qu'on peut trouver trop simple, est qu'il existerait quelques activités fondamentales, indépendantes, à l'aide desquelles se bâtissent les autres aptitudes. Chaque individu posséderait par exemple une dizaine d'activités de base, dont l'une, G, jouerait un rôle central, et figurerait partout. Les autres seraient indépendantes de G, et indépendantes entre elles, et l'on aurait pour un groupe, convenablement choisi, d'aptitudes

x(1) = m(1)*g + s(1), x(2) = m(2)*g + s(2).

Bien entendu, ces aptitudes ne sont pas quelconques, et on a pu remarquer comme une conséquence même de la théorie (E. B. WILSON, Proc. Nat. Ac. Sc., vol. XIV, 1928, p. 283) que des combinaisons linéaires des x n'ont plus en général de facteur au sens précédent, les parties spécifiques cessant en général d'être indépendantes. La théorie, fort élégante, a mis en ordre beaucoup de résultats, provoqué des recherches intéressantes des psychologues et des mathématiciens. J'ai dit qu'elle paraît un peu simple. Ce ne serait pas une raison pour l'écarter. En tout cas, si elle s'appliquait, ce ne pourrait être qu'à certaines aptitudes privilégiées. On trouvera, dans l'ouvrage de Spearman, "Abilities of man", un ensemble de mesures qui, avec la précision atteinte, peuvent entrer convenablement dans ce schéma. Il faut voir ce que donnent des mesures plus précises appliquées à des aptitudes plus nombreuses.

Conclusions. — Nous avons vu ce que peut faire la statistique dans l'étude numérique des aptitudes et de leurs liaisons. S'il faut se garder de tomber dans l'exagération et de calculer en série des moyennes, écarts types et coefficients de corrélation, il faut reconnaître qu'employées avec prudence, ces caractéristiques numériques perfectionnent notablement la connaissance d'une question. Elles ne donnent que rarement des idées à qui en est dé-pourvu, mais à qui soupçonne intelligemment quelque chose, elles donnent une impulsion très féconde. Qu'elles présentent des difficultés d'ordre pratique, et des calculs numériques parfois longs, c'est incontestable. Mais il y a des problèmes à la fois pressants et compliqués. La statistique les aborde sans exiger beaucoup au début, mais elle suggère par ses résultats. La statistique n'est pas une fin. Elle est capable en revanche de mettre des idées à l'épreuve des mesures, de conduire à rejeter une théorie, de conduire à la modifier. Si elle montre que deux aptitudes sont liées plus étroitement qu'on ne le pensait, c'est au psychologue à s'interroger, à rechercher si dans ses conceptions primitives, il n'avait pas oublié quelque chose. Il enrichit ainsi, ses idées ; sous la forme modifiée qu'elles ont alors, elle donneront à la statistique des tâches nouvelles ; ainsi se poursuivra la collaboration nécessaire, jusqu'à ce qu'un ordre satisfaisant soit mis dans les résultats des observations. La méthode statistique, en psychologie comme en bien d'autres domaines, apporte les résultats des recherches des théoriciens, comme des outils bien construits et précieux, ceux sans lesquels on ne pourrait rien construire.

  • Sorbonne.


BIBLIOGRAPHIE SOMMAIRE


  • C. SPEARMAN. - Abilities of Man, MacMillan, 1932.
  • R. A. FISHER. Statistical Methods for Research Workers, Olive and Boyd, 1932.
  • H. HOTELLING. — Analysis of a complex of statistical variables. Journal of Educational Psychology, 1933.
  • THURSTONE. — A simplified multiple factor method, A supplement to the theory, Chicago University Press.
  • J. O. ERWIN. — Statistical Methods in Psychology, 22ème Session de l'Institut International de Statistique, La Haye, 1934.
  • KELLEY. - Crossroads is the mind of man. Stanford University Press, 1928.
  • G. DARMOIS. — Statistique et applications, Armand Colin, 1934. L'analyse des conditions, Biotypologie, 1935.
  • W. BROWN et GODFREY, H. THOMPSON, The essentials of mental measurements, Cambridge University Press, 1925.
  • G. D.


  • Discussion
  • Le Président de séance, M. REY, remercie M. Darmois et donne la parole à M. Piéron.

M. PIÉRON. - M. Darmois, et nous l'en remercions, a bien voulu s'intéresser en mathématicien aux théories mathématiques des psychologues : il a ainsi mis à leur disposition des méthodes plus sûres et plus simples que celles qui ont été pro-posées par Spearman. D'autre part, maître de l'instrument mathématique, il a pu en préciser les limites : les conseils de prudence qu'il a ainsi donnés sont des plus utiles, et d'autant plus que les psychologues auraient pu se laisser griser par la puissance nouvelle de l'instrument ainsi mis entre leurs mains. Cela étant, le problème capital me paraît être l'essai d'application de la statistique au fonctionnement mental, c'est-à-dire à l'objet fondamental de la psychologie. Et le premier résultat essentiel, quoique négatif, est qu'il n'y a rien derrière les « fonctions isolées », telles que la mémoire, ou l'attention, etc. ; les divisions classiques, divisions du langage, utiles pour la pédagogie, mais où l'on avait voulu voir aussi des divisions réelles, fonctionnelles, tombent. En physiologie aussi, les fonctions comme la circulation, la respiration, ne sont qu'arbitrairement isolées : mais au moins arrive-t-on à justifier approximativement ces divisions. Rien de tel en psychologie. Est-ce donc que la fonction mentale est une unité, ou est-elle dissociable elle-même, sur d'autres lignes d'ailleurs que les divisions classiques ? Le problème est en pleine élaboration. La statistique permet de vérifier les hypothèses que l'on peut formuler en réponse à cette question. Spearman a cru démontrer l'existence du « facteur général », alors qu'il n'a fait qu'en démontrer la possibilité. Mais on pourrait aussi envisager l'hypothèse plus compliquée de plusieurs facteurs communs entre aptitudes diverses, en abandonnant le facteur général. On ne sait pas non plus quel est le nombre minimum de facteurs indépendants auxquels il pourrait être nécessaire de faire appel.

M. Jacques Hadamard. — Il ne m'appartient pas d'émettre un jugement sur la théorie de Spearman. Ne suffit-il pas pour le moment qu'elle fournisse une belle hypothèse de travail ?

M. Henri Wallon. — Tout en rendant hommage à la valeur des méthodes exposées par M. Darmois, je dois attirer l'attention sur les difficultés des mesures qui en sont la matière première. Les mesures en psychologie sont encore très empiriques, et souvent, sans doute, difficilement comparables entre elles, en particulier pour les tests d'intelligence.

M. FESSART. — Que pense M. Darmois des autres méthodes d'analyse, en particulier de l'emploi par Kelley et par Thurstone de plusieurs facteurs communs. Les difficultés mathématiques correspondantes sont-elles surmontables ?

M. DARMOIS. — Le formalisme mathématique est seulement un peu plus compliqué. Le privilège de la méthode de Spearman est d'être la plus simple, parmi l'infinité de méthodes par lesquelles on peut essayer d'analyser une corrélation observée.

M. FESSART. — Je me demande si l'on a le droit de parler en psychologie d'aptitudes indépendantes. Il n'y en a aucune preuve physiologique.

M. BAUER. — Cette décomposition en aptitudes indépendantes ne dépend-elle pas de la méthode expérimentale elle-même ? Pourquoi choisir initialement vingt aptitudes pour rechercher entre elles des relations linéaires. Souvenez-vous de ce qui s'est passé autrefois pour le problème de la décomposition du spectre de la lumière blanche, où c'était la méthode même employée qui déterminait le résultat apparent.

M. DARMOIS. — La méthode employée est la plus simple possible : c'est pourquoi on a commencé par elle.

M. PIÉRON. — En psychologie, nous n'en sommes même pas encore aux sept couleurs de Newton pour le spectre.

M. DARMOIS. — La méthode a déjà donné des renseignements très intéressants. En particulier, pour les corrélations entre les tests de réflexes et les accidents provoqués, on a pu aboutir à des conclusions nettes.