Le biais de publication en psychologie: qu'est-ce que c'est et pourquoi il cause des problèmes
La psychologie, en particulier son volet recherche, est en crise depuis quelques années, ce qui n'aide en rien sa crédibilité. Le problème ne se trouve pas seulement dans les problèmes lors de la réplication d'expériences classiques, mais également lors de la publication de nouveaux articles.
Le gros problème est qu'il semble y avoir un biais de publication important en psychologie., c'est-à-dire qu'il semble que la publication d'articles repose davantage sur des aspects tels que leur intérêt apparaissent au grand public plus que les résultats et les informations scientifiquement pertinentes qu'ils offrent au public monde.
Aujourd'hui, nous allons essayer de comprendre la gravité du problème, ce qu'il implique, comment cette conclusion a été atteinte. Et si c'est quelque chose d'exclusif aux sciences du comportement ou y en a-t-il d'autres qui sont également dans le même carrefour.
- Article associé: "Les biais cognitifs: découvrir un effet psychologique intéressant"
Qu'est-ce que le biais de publication en psychologie ?
Ces dernières années, divers chercheurs en psychologie ont mis en garde contre le manque d'études de réplication dans le domaine, ce qui a suggéré la possibilité qu'il y ait eu un biais de publication dans les sciences du comportement. Même si c'était quelque chose qui s'en venait, ce n'est qu'à la fin des années 2000 et au début de la décennie suivante qu'il a été prouvé que le La recherche psychologique a eu des problèmes, ce qui pourrait signifier la perte d'informations précieuses pour l'avancement de ce grand, quoique précaire, science.
L'un des premiers soupçons du problème était ce qui s'est passé avec l'expérience de Daryl Bem en 2011. L'expérience elle-même était simple:
Il s'agissait d'un échantillon composé de volontaires auxquels étaient présentés 48 mots. On leur a ensuite demandé d'écrire autant de mots qu'ils pouvaient se souvenir. Une fois cela fait, ils ont eu une séance d'entraînement, au cours de laquelle on leur a donné un sous-ensemble de ces 48 mots précédemment affichés et on leur a demandé de les écrire. L'hypothèse de départ était que certains participants se souviendraient mieux de ces mots que, plus tard, on leur aurait fait pratiquer.
Après la publication de ces travaux, trois autres équipes de recherche, séparément, ont tenté de reproduire les résultats observés dans les travaux de Bem. Bien que, pour l'essentiel, ils aient suivi la même procédure que l'œuvre originale, ils n'ont pas obtenu de résultats similaires. Ceci, malgré le fait que cela permettrait de tirer certaines conclusions, était une raison suffisante pour que les trois groupes de recherche aient de sérieux problèmes pour faire publier leurs résultats.
En premier lieu, puisqu'il s'agit d'une réplique d'une œuvre antérieure, cela donnait le sentiment que les revues scientifiques s'intéressaient à quelque chose de nouveau, d'original, et non à une "simple copie" de quelque chose d'ancien. A cela s'ajoute le fait que les résultats de ces trois nouvelles expériences, s'ils ne sont pas positifs, sont davantage perçus comme des études méthodologiquement mal fait et que cela expliquerait l'obtention de mauvais résultats plutôt que de penser que, peut-être, les nouvelles données représentaient une nouvelle avancée pour le science.
En psychologie, les études qui confirment leurs hypothèses et, par conséquent, obtiennent des résultats positifs plus ou moins clairs, semblent finir par se comporter comme des rumeurs. Ils sont facilement diffusés par la communauté, parfois sans même consulter la source originale d'où ils viennent ou sans réfléchir attentivement aux conclusions et aux discussions faites par l'auteur lui-même ou par les critiques de cet auteur emploi.
Lorsque les tentatives de répliquer des études antérieures ayant eu des résultats positifs échouent, ces répliques sont systématiquement non publiées.. Cela signifie que, malgré la réalisation d'une expérience qui confirme qu'une expérience classique n'était pas reproductible pour quelque raison ou motif que ce soit, comme il n'intéresse pas les revues, les auteurs eux-mêmes évitent de le publier, et de cette façon il n'est pas enregistré dans le littérature. Cela fait que ce qui est techniquement un mythe continue de se répandre en tant que fait scientifique.
D'autre part, il y a les habitudes ancrées dans le milieu de la recherche, des manières de procéder assez critiquables même si elles sont tellement généralisées qu'il devient fermer les yeux: modifier les plans d'expérience de manière à garantir des résultats positifs, décider de la taille de l'échantillon après avoir vérifié si les résultats résultats sont significatifs, sélectionner les études antérieures qui confirment l'hypothèse de l'étude en cours, en omettant ou en ignorant, comme quelqu'un qui ne veut pas la chose, celles qui réfuter.
Malgré le fait que les comportements que nous venons d'exposer sont critiquables mais, dans la mesure du possible, compréhensibles (mais pas forcément tolérables), il existe des cas de manipulation des données d'études pour s'assurer qu'elles finissent par être publiées qu'il peut y avoir des discussions ouvertes sur la fraude et un manque total de scrupules et d'éthique professionnel.
L'un des cas les plus embarrassants de l'histoire de la psychologie est le cas de Diederik Stapel, dont la fraude est considérée comme ayant des proportions bibliques: il en est venu à inventer toutes les données de certains de ses des expériences, c'est-à-dire parlant clairement, comme quelqu'un qui écrit un roman de fiction, ce monsieur a inventé recherche.
Cela suppose non seulement un manque de scrupules et une éthique scientifique qui brille par son absence, mais aussi une absence totale d'empathie. vis-à-vis de ceux qui ont utilisé leurs données dans des recherches ultérieures, faisant en sorte que ces études aient, dans une plus ou moins grande mesure, une composante fictif.
Les études qui ont mis en évidence ce biais
Kühberger, Fritz et Scherndl ont analysé en 2014 près de 1 000 articles publiés en psychologie depuis 2007, choisis au hasard. L'analyse a révélé de manière écrasante des biais de publication flagrants dans le domaine des sciences du comportement.
Selon ces chercheurs, théoriquement, la taille de l'effet et le nombre de personnes participant aux études devraient être indépendants. l'autre, cependant, leur analyse a révélé qu'il existe une forte corrélation négative entre ces deux variables sur la base d'études choisi. Cela signifie que les études avec des échantillons plus petits ont des tailles d'effet plus importantes que les études avec des échantillons plus grands.
Dans la même analyse, il a également été montré que le nombre d'études publiées avec des résultats positifs était supérieur au nombre d'études avec des résultats négatifs, étant le rapport d'environ 3:1. Cela indique que c'est la signification statistique des résultats qui détermine si l'étude sera publiée plutôt que si elle apporte vraiment un quelconque avantage à la science.
Mais apparemment, ce n'est pas seulement la psychologie qui souffre de ce type de biais vers des résultats positifs. En fait, On pourrait dire que c'est un phénomène répandu dans toutes les sciences., bien que la psychologie et la psychiatrie seraient les plus susceptibles de rapporter des résultats positifs, laissant de côté les études avec des résultats négatifs ou modérés. Ces données ont été observées à travers une revue réalisée par le sociologue Daniele Fanelli de l'Université d'Edimbourg. Il a passé en revue près de 4 600 études et a découvert qu'entre 1990 et 2007, la proportion de résultats positifs avait augmenté de plus de 22 %.
- Vous etes peut etre intéressé: "Histoire de la psychologie: auteurs et principales théories"
À quel point une réplique est-elle mauvaise ?
Il y a une croyance erronée qu'une réponse négative invalide le résultat original. Le fait qu'une enquête ait mené la même procédure expérimentale avec des résultats différents ne signifie pas que ni l'un ni l'autre la nouvelle enquête est mal menée sur le plan méthodologique ni que les résultats du travail initial ont été exagéré. Il existe de nombreuses raisons et facteurs qui peuvent faire en sorte que les résultats ne soient pas les mêmes, et tous nous permettre d'avoir une meilleure connaissance de la réalité, qui, après tout, est l'objectif de toute science.
Les nouvelles répliques ne doivent pas être vues comme une critique sévère des œuvres originales, ni comme un simple "copier-coller" d'une œuvre originale, uniquement avec un échantillon différent. C'est grâce à ces répliques qu'une meilleure compréhension d'un phénomène précédemment étudié est donnée, et permet de trouver des conditions dans lesquelles le phénomène ne se reproduit pas ou ne se produit pas de la même manière. Lorsque les facteurs qui conditionnent l'apparition ou non du phénomène sont compris, de meilleures théories peuvent être élaborées.
Prévenir les biais de publication
Résoudre la situation dans laquelle se trouvent la psychologie et la science en général est difficile, mais cela ne signifie pas nécessairement que le biais doit s'aggraver ou devenir chronique. afin qu'elle puisse être partagée avec la communauté scientifique, toute donnée utile implique l'effort de tous les chercheurs et une plus grande tolérance des revues envers les études aux résultats négatifs, certains auteurs ont proposé une série de mesures qui pourraient contribuer à mettre fin à la situation.
- Élimination des tests d'hypothèse.
- Attitude plus positive vis-à-vis des résultats non significatifs.
- Amélioration de l'examen par les pairs et de la publication.
Références bibliographiques:
- Kühberger A., Fritz A., Scherndl T. (2014) Biais de publication en psychologie: un diagnostic basé sur la corrélation entre la taille de l'effet et la taille de l'échantillon. PLoS One. 5;9(9):e105825. doi: 10.1371/journal.pone.0105825
- Blanco, F., Perales, J.C. et Vadillo, M.A. (2017). La psychologie peut-elle se sauver mateixa? Motivation, biais et reproductibilité. Annuaire de psychologie de la Société valencienne de psychologie, 18 (2), 231-252. http://roderic.uv.es/handle/10550/21652 DOI: 10.7203/anuari.psicologia.18.2.231
- Fanelli D. (2010). Les pressions pour publier augmentent-elles les préjugés des scientifiques? Un support empirique de US States Data. PloS un, 5(4), e10271. doi: 10.1371/journal.pone.0010271NLM