L’IA nous rend-elle plus bêtes ?
La question semble provocante, presque caricaturale. Pourtant, plusieurs études scientifiques sérieuses alertent : notre quotient intellectuel moyen baisse depuis les années 1980. Dans un monde où les outils numériques et l’intelligence artificielle prennent une place croissante, certains chercheurs se demandent si la technologie ne contribuerait pas à une forme d’atrophie cognitive.
Le QI recule : la fin de l’effet Flynn
Tout au long du XXe siècle, le niveau de QI moyen n’a cessé de grimper. C’est ce que l’on appelle l’effet Flynn. Mais depuis la fin des années 1980, la tendance s’est inversée. Selon une étude parue dans la revue Intelligence, les jeunes générations perdraient en moyenne 1,8 point de QI par décennie.
Contrairement à ce que l’on pourrait croire, cette baisse n’est pas liée à la génétique. Les chercheurs pointent plutôt des facteurs environnementaux : qualité de l’éducation, exposition aux écrans, habitudes de lecture, alimentation, et bien sûr, usage intensif des technologies numériques.
La technologie nous simplifie-t-elle à l’excès ?
Smartphones, moteurs de recherche, assistants vocaux, IA génératives… Toutes ces technologies allègent notre charge mentale. Mais à quel prix ? Comme l’explique l’expert en IA Toby Walsh, « nous sommes en train d’abandonner l’effort de penser par nous-mêmes ».
Il ne s’agit pas seulement d’un confort passager. À long terme, le cerveau s’adapte à ne plus mobiliser certaines fonctions. Moins on exerce notre mémoire, notre esprit critique ou notre capacité de synthèse, plus ces compétences s’érodent.
Les fonctions cognitives en première ligne
Les effets du numérique ne sont pas uniformes. La mémoire de travail, la concentration, la pensée critique et la créativité figurent parmi les premières victimes. Une étude récente publiée dans PNAS montre que l’exposition continue à des contenus courts, passifs et fragmentés affaiblit la capacité à raisonner de manière profonde et complexe.
Chez les étudiants, cela se traduit par une baisse des performances de lecture analytique. Chez les adultes, par une difficulté croissante à traiter des problèmes non routiniers. Et même chez les experts, certains travaux suggèrent un appauvrissement de la capacité à penser en dehors des cadres établis.
Corrélation ou véritable causalité ?
Faut-il pour autant accuser directement l’IA ou les écrans ? La prudence est de mise. Les études montrent des corrélations, mais peu de preuves formelles de causalité directe. Néanmoins, les coïncidences sont troublantes, et le principe de précaution mérite d’être pris au sérieux.
Par ailleurs, la technologie n’est pas forcément néfaste. Elle peut aussi stimuler certaines compétences — à condition d’être utilisée comme un outil, et non comme un substitut à la réflexion.
Peut-on inverser la tendance ?
Bonne nouvelle : le déclin n’est pas une fatalité. Pour préserver et développer nos capacités cognitives, il est essentiel de :
- Lire régulièrement des contenus complexes et argumentés
- Réduire les expositions passives aux écrans
- Pratiquer la mémorisation active, les jeux de logique, la réflexion critique
- Revaloriser les humanités et l’effort intellectuel dans l’éducation
L’IA peut aussi jouer un rôle éducatif positif, si elle est pensée comme un levier de réflexion plutôt qu’un assistant automatique.
Conclusion : vers une idiocratie évitable
Nous ne sommes pas condamnés à devenir plus bêtes. Mais les signaux sont clairs : la dépendance excessive à la technologie, sans encadrement, affaiblit certaines de nos facultés mentales. Si nous voulons éviter une dérive vers une société d’idiocratie, il nous faudra réapprendre à penser par nous-mêmes, cultiver la lenteur intellectuelle, et remettre la complexité au cœur de nos apprentissages.
La technologie peut nous accompagner. Elle ne doit pas penser à notre place.