À l'ère du capitalisme de surveillance, nous savons que les géants du numérique transforment nos comportements en «surplus» monétisable. Or, dans ce contexte, il peut sembler paradoxal de plaider pour une utilisation des données en éducation. Pourtant, entre le big data des GAFAM et les micro-données d'une salle de classe, il existe une importante différence d'échelle et d'intention. Mais pour combien de temps ?
Big data
Comme le souligne Shoshana Zuboff (2020), au début du XXIe siècle Google a découvert que «nous avons moins de valeur que les paris sur notre comportement futur» (p.25). Cette logique marchande s'est rapidement étendue à l'ensemble de l'écosystème numérique, créant ce qu'elle appelle le «capitalisme de surveillance». Dans ce contexte, les données massives (big data) sont exploitées non pas pour améliorer nos vies, mais pour prédire et influencer nos comportements au profit d'intérêts commerciaux.
Google a découvert en premier cette mine d'or du «surplus comportemental», suivi de près par Facebook qui en a fait son modèle d'affaires, puis par Microsoft (p.27). Chacun a ensuite développé de puissants algorithmes qui traitent ces données et les rendent utilisables pour modifier les comportements. La partie qui se joue soulève des enjeux majeurs pour l'humanité.
Small data
À une échelle plus modeste, mais plus pertinente pour l'éducation, les small data offrent une perspective différente. Comme le soulignent Berlin Fang et Jennifer Shewmaker, «bien que les collèges et universités cherchent à utiliser des données massives, complexes et agrégées pour générer des insights sur les étudiants, le big data est limité dans son utilisation pour concevoir des interventions en raison de ses limites inhérentes.» C'est le small data qui est plus pertinent sur ce plan.
Shewmaker et ses collègues expliquent comment l'université Abilene Christian a mis en place dès les années 2010 le programme SOAR (Student Opportunities, Advocacy and Resources), un système d'alerte précoce où professeurs, conseillers et autres intervenants peuvent signaler les étudiants à risque. Le programme recueille et analyse des données ciblées touchant autant les difficultés académiques (notes, présence, devoirs) que personnelles (santé physique et mentale, gestion de vie, orientation). SOAR agit ensuite comme liaison pour diriger les étudiants vers les ressources appropriées : consultations pour le stress et l'anxiété, aide financière, tutorat ou centre d'aide en écriture.
Micro data
Le projet de monitorage que j'expérimente depuis deux trimestres s'inscrit dans cette logique d'identification précoce et d'accompagnement ciblé, comme en témoignent les observations de cet automne. Ce projet pilote illustre la pertinence d'une approche basée sur les micro data. En suivant systématiquement l'assiduité, la complétion des travaux et la maîtrise des critères d'évaluation, on peut mettre en place un système de monitorage inspiré du modèle de la Réponse à l'Intervention (RàI).
Les données récoltées révèlent des patterns significatifs. On peut notamment observer que l'assiduité et la complétion des travaux sont fortement corrélées à la réussite, que les rétroactions différenciées permettent vraiment l'amélioration des élèves et que les interventions précoces, basées sur les données de monitorage, ont permis d'identifier et de mieux accompagner les étudiants à risque. Quand tout ceci est guidé par une relation pédagogique saine, cette approche participe à créer un environnement sécuritaire et un enseignement efficace qui favorisent l'apprentissage.
Des biais réducteurs
Cependant, comme nous met en garde Yuval Noah Harari, «les technologies de l'information ne sont jamais neutres» (p.277). Le risque existe de voir ces outils de monitorage se transformer en systèmes de surveillance, voire de contrôle. Mon expérimentation, même si elle est de l'ordre du «micro», soulève plusieurs questions éthiques importantes que j'aimerais partager parce qu'elles m'habitent sans cesse.
D'abord, la question des biais. Personne n'y échappe, même avec de la bonne volonté. Le système de classification des apprentissages, bien qu'utile, peut conduire à un profilage réducteur des étudiant·es. Les patterns identifiés ne doivent pas devenir des prophéties autoréalisatrices.
Pourtant, le risque de réduction et de profilage apparaît clairement lorsqu'on examine certains cas. Prenons l'exemple d'un·e étudiant·e dont les données révèlent un niveau organisationnel insuffisant, un déficit sur le plan de la méthode et la nécessité d'une intervention structurée. La tentation serait grande de le ou la catégoriser comme «cas perdu sur le plan méthodologique». Or, une analyse plus fine montre une assiduité appréciable et une progression possible, suggérant un engagement réel malgré les difficultés.
À l'autre bout du spectre, un·e étudiant·e démontrant l'excellence sur plusieurs critères avec un rendement élevé pourrait être étiqueté·e comme «l'élève modèle qui n'a pas besoin d'aide», négligeant ainsi ses besoins d'accompagnement pour maintenir ce niveau ou ses défis dans des aspects non mesurés par les données.
Ces exemples illustrent un risque de transformer des indicateurs descriptifs en jugements hâtifs sur la valeur ou le potentiel des élèves. Un monitorage éthique doit considérer les données comme des outils d'accompagnement parmi d'autres, non comme des verdicts.
Ensuite, il faut s'assurer de la protection des données. Dans un monde où, comme le note Harari, «l'intimité est une arme» (p.261), la confidentialité des données étudiantes doit être une priorité.
Les dérives possibles
Les données en apparence anodines que nous récoltons aujourd'hui — présence en classe, remise des travaux, progression dans la maîtrise des critères — pourraient, avec les progrès de l'IA, révéler bien plus que de simples indicateurs d'apprentissage. Comme le souligne Harari, «dans un monde où des humains surveillaient les humains, la vie privée était la norme par défaut. Mais dans un monde où des ordinateurs surveillent les humains, il pourrait devenir possible, pour la première fois dans l'histoire, d'annihiler cette sphère intime» (p.295).
Usons ici d'un peu d'imagination. Imaginons qu'un système d'analyse avancé croise nos micro-données avec d'autres sources : la variation des taux de présence pourrait être interprétée comme un indicateur de santé mentale, les fluctuations dans la qualité des travaux comme des marqueurs de situations instables ou difficiles, les patterns de progression comme des prédicteurs de «fiabilité sociale». Dans un monde où les systèmes de crédit social deviennent une réalité (comme en Chine), ces données pourraient être récupérées pour évaluer la «valeur sociale» d'un individu. Un étudiant ayant connu des périodes d'absentéisme ou des retards chroniques dans la remise de ses travaux pourrait voir ces «écarts de conduite» le suivre bien au-delà de sa formation, affectant ses opportunités professionnelles ou son accès à certains services. Ce qui était conçu comme un outil de soutien pédagogique risquerait alors de se transformer en instrument de profilage et de contrôle social.
Bien sûr, nous ne sommes pas en Chine. Mais cette projection n'est pas de la science-fiction : déjà, des algorithmes sont capables d'inférer des traits de personnalité, des tendances politiques ou des problèmes de santé à partir de données comportementales basiques. La prudence dans la collecte et la conservation de nos données n'est donc pas de la paranoïa. C'est de la simple prévoyance.
L'endiguement
Ceci dit, je crois que mon expérimentation depuis deux trimestres démontre qu'une utilisation éthique et bénéfique des données en éducation est non seulement possible, mais souhaitable. La clé réside d'abord dans le maintien d'une échelle humaine : en privilégiant les micro-data plutôt que le big ou le small data, nous gardons le contrôle sur la collecte et l'utilisation des informations. Les données récoltées servent à comprendre le processus d'apprentissage en cours pour mieux l'accompagner, non à établir des profils prédictifs qui pourraient enfermer l'étudiant·e dans une trajectoire prédéterminée.
Un autre élément important est la transparence avec les étudiant·es. En les impliquant dans la compréhension du processus de monitorage, nous pouvons en faire des acteurs et des actrices de leur apprentissage plutôt que de simples objets d'observation.
Cette dimension «participative» s'accompagne nécessairement d'une protection rigoureuse de la confidentialité des données. La responsabilité de l'institution — et de l'enseignant·e — envers les données des étudiant·es doit être très rigoureuse. Sauf que l'erreur est humaine. Inévitablement, un jour, une erreur surviendra. De quelle ampleur sera-t-elle ? Comment pourrons-nous la «corriger» ?
Établir une frontière physique entre les données et leur traitement est une option encore possible aujourd'hui, mais il faut se rappeler que tout est connecté en permanence. C'est une raison pour laquelle je crois qu'il est important d'endiguer (Suleyman, 2023) l'apport de l'intelligence artificielle en traitant soi-même les données dans un tableur plutôt qu'en les laissant aux soins d'une IA externe. Je ne veux pas que Copilot (Microsoft) fasse le travail à ma place. J'ai développé ce qu'il faut, j'ai développé ce qui est suffisant pour moi. C’est moi «qui sait», c’est moi «qui décide» et c’est moi «qui décide qui décide», comme dirait Zuboff.
Le monitorage des apprentissages n'est pas une fin en soi, mais un outil au service d'une pédagogie plus attentive et plus efficace. Comme le démontrent les résultats que j'examine depuis quelque temps, le monitorage permet des interventions plus ciblées et plus précoces et, couplé à un mode d'intervention, il contribue vraiment à la réussite des étudiant·es.
La véritable question n'est donc pas tant de savoir si nous devons utiliser les données en éducation, mais de comment les utiliser de manière éthique et bénéfique. Alors qu’apparaissent déjà les dark data de l’internet ubiquitaire, dans un monde où la donnée est devenue une nouvelle forme de capital, l'éducation doit trouver sa propre voie, centrée sur l'humain et l'apprentissage plutôt que sur la surveillance et le contrôle. C'est sur ce terrain que nous nous nous trouvons.
Références :
Berlin, F., & Shewmaker, J. (2023). The Case for Small Data in Higher Education. Brock Education Journal. [En ligne]
Gauthier, C., Bissonnette, S., & Van der Maren, J.-M. (2023). La pertinence de l'utilisation des données probantes en éducation à la lumière des rapports théorie-pratique. Manuscrit non publié, Université TÉLUQ. [En ligne]
Harari, Y. N. (2024). Nexus. Albin Michel.
Suleyman, Mustafa, et Michael Bhaskar (2023). La Déferlante : technologie, pouvoir et le dilemme majeur du XXIe siècle. Fayard.
Zuboff, S. (2020). L'âge du capitalisme de surveillance. Zulma.