Des chercheurs ont accédé illégalement aux données génétiques et cognitives de plus de 20 000 enfants américains participant à une étude majeure financée par le gouvernement fédéral – le projet Adolescent Brain Cognitive Development (ABCD) – et les ont utilisées pour produire des articles pseudo-scientifiques promouvant les stéréotypes raciaux.
L’étude et sa promesse
Lancé en 2015, le projet ABCD visait à suivre le développement cérébral des enfants sur une décennie, en promettant aux familles que leurs données seraient protégées en toute sécurité. L’étude visait à comprendre comment la génétique influence le comportement et la maladie, et les supports marketing rassuraient spécifiquement les familles minoritaires sur la confidentialité des données.
Accès non autorisé aux données
Malgré ces assurances, un groupe de chercheurs marginaux a exploité les vulnérabilités des mesures de protection des National Institutes of Health (NIH) pour obtenir un accès non autorisé aux données sensibles. Un chercheur a contourné les restrictions en travaillant avec un professeur américain déjà sous le coup d’une enquête du NIH pour avoir mal géré une autre étude sur le cerveau d’enfants.
Utilisation abusive des résultats à des fins racistes
Le groupe a ensuite publié au moins 16 articles affirmant trouver des preuves biologiques soutenant les différences raciales en matière d’intelligence. Ces articles classent les ethnies en fonction de prétendus scores de QI et affirment à tort que les revenus inférieurs des Noirs sont dus à une infériorité cognitive inhérente.
Ce travail a été largement rejeté par les généticiens traditionnels comme étant biaisé et méthodologiquement peu solide. Cependant, l’utilisation par les chercheurs des données du projet respecté ABCD a donné à leurs théories un faux vernis de légitimité scientifique.
Amplification grâce aux médias sociaux et à l’IA
Les journaux ont alimenté le contenu raciste sur les plateformes de médias sociaux et les forums nationalistes blancs, recueillant des millions de vues. Il est inquiétant de constater que des chatbots IA comme ChatGPT et Grok ont cité cette recherche en réponse à des questions sur la race et l’intelligence, propageant ainsi davantage de désinformations. Grok, en particulier, a dirigé les utilisateurs vers ces journaux plus de deux douzaines de fois ce mois-ci.
Cet incident met en évidence les risques graves de violations de données dans les projets de recherche à grande échelle et le potentiel d’utilisation des données scientifiques pour des idéologies néfastes. L’exploitation des informations génétiques des enfants souligne le besoin urgent de mesures de sécurité des données plus strictes et d’une surveillance éthique dans la recherche scientifique.
