Face à l'IA, comment préserver notre esprit critique ?
Ce texte explore la crise de la pensée critique engendrée par l'intégration rapide de l'intelligence artificielle dans l'éducation, alertant sur le risque d’une atrophie cognitive progressive due à la délégation excessive des fonctions intellectuelles.
Le 15 avril 2025
Ainsi, la délégation excessive des fonctions cognitives supérieures aux systèmes automatisés pourrait engendrer une atrophie cérébrale progressive.
Le manque d'engagement intellectuel et l'absence de questionnements rigoureux, facilités par la commodité de l'IA, entravent le développement crucial de la pensée critique.
Un nombre considérable de personnes se contente de manipuler des outils numériques, négligeant d'acquérir une compréhension fondamentale de leurs principes de fonctionnement et sacrifiant ainsi leur capacité d'analyse critique pour un confort technologique immédiat.
Nous constatons déjà un taux élevé d'utilisation de l'IA pour la triche :
Selon une enquête d'Impact Research, "près de 40% des collégiens et lycéens américains ont reconnu qu’ils utilisaient une IA pour réaliser leurs devoirs sans l'autorisation préalable de leurs professeurs." Parmi ceux qui utilisent l'IA, ce chiffre atteint près de 50%. Ainsi, une élève du New Jersey explique qu'elle a eu recours à l'IA parce que le travail était "ennuyeux ou difficile", qu'elle souhaitait "obtenir une meilleure note" ou qu'elle n'avait pas eu "le temps de les terminer".
Les élèves qui trichent utilisent principalement ChatGPT (OpenAI) et Gemini (Google) pour diverses tâches, allant de la recherche d'idées et la révision de concepts à la rédaction complète de devoirs et la résolution de problèmes mathématiques.
Siya Raj Purohit, d'OpenAI, déclare : "OpenAI n'a pas inventé la tricherie. Les personnes qui souhaitent tricher trouveront toujours un moyen de le faire." L'entreprise espère que les étudiants prendront l'habitude de consulter ChatGPT pour leurs questions, comme ils le feraient avec Google.
La tricherie préoccupe les enseignants, comme John B. King Jr, recteur de l'université d'État de New York, qui s'inquiète : "Il y a probablement de nombreux élèves et étudiants, du secondaire à l'université, qui ont utilisé ChatGPT pour faire leurs devoirs hier soir sans rien apprendre. C'est inquiétant."
Pour y remédier, Leah Belsky, vice-présidente d'OpenAI, suggère que les établissements scolaires devraient "ouvrir les portes de leurs classes à l'IA" et que les enseignants devraient intégrer l'IA dans leur enseignement pour en faire un outil d'apprentissage encadré.
Parallèlement, des entreprises comme Pangram Labs et Turnitin proposent des logiciels pour identifier les textes générés par l'IA, mais leur fiabilité demeure sujette à débat. Annie Chechitelli de Turnitin affirme que leur outil peut détecter les écrits générés par l'IA dans "environ 85% des cas".
Ce qui est préoccupant, c'est l'intégration rapide de l'IA générative dans la vie quotidienne des élèves, qui a ouvert une voie facile vers la triche scolaire à grande échelle. Les enseignants et les parents se trouvent face à un défi complexe, car les méthodes traditionnelles de surveillance et de détection sont désormais dépassées. Les entreprises d'IA, tout en reconnaissant le problème, proposent des solutions axées sur l'intégration de l'IA dans l'éducation plutôt que sur la prévention de la triche. L'enjeu majeur réside dans la nécessité de repenser les pratiques pédagogiques et les méthodes d'évaluation pour garantir que les élèves développent réellement les compétences essentielles à leur réussite future, tout en naviguant de manière éthique dans un monde de plus en plus influencé par l'intelligence artificielle.