La disruption est une stratégie de transformation rapide et brutale qui vise à créer un choc systémique pour imposer un changement avant toute forme de résistance ou d'adaptation. Si cette approche est particulièrement visible dans le domaine technologique, elle ne se limite cependant pas à la simple innovation technique. La disruption est véritablement une stratégie délibérée de transformation sociale accélérée, dont les effets bouleversent profondément nos institutions, particulièrement dans le domaine de l'éducation.
Je propose ici de voir comment les acteurs et actrices de la disruption utilisent la vitesse pour contourner les mécanismes démocratiques de régulation. Dans le but de modifier les comportements à grande échelle (pour des raisons commerciales), ils et elles expérimentent directement sur la société, sans principe de précaution. Ce phénomène soulève des questions fondamentales pour nous, car les institutions éducatives s'inscrivent traditionnellement dans le temps long de la réflexion et du développement des savoirs. Cette tension entre l'accélération technologique et le rythme nécessaire à l'apprentissage authentique est au cœur des défis pédagogiques contemporains.
Blitzkrieg : la vitesse comme arme
Dans son ouvrage Disruption, l'ancien étudiant de l'Université du Québec à Montréal devenu «prospectiviste», Stéphane Mallard, expose comment la disruption constitue une stratégie consciente et assumée de transformation radicale qui s'oppose délibérément aux modèles traditionnels d'organisation et de changement social.
En effet, Mallard souligne notamment l'opposition avec les « schémas d'organisation fordistes et militaires » du XXe siècle, qu'il juge « vulnérables et inefficaces » face à la disruption. Sur l'aspect stratégique et la nécessité d'anticiper, l'auteur insiste : « pour penser la disruption, il faut s'imaginer déjà disrupté » (2018, p. 62). Cette urgence permanente n'est pas anodine. Dans son analyse, Mallard fait de la vitesse et de l'imprévisibilité les atouts majeurs de la disruption : « Dans le monde de la disruption, la planification est impossible : l'incertitude, l'agilité et la rapidité sont les nouvelles normes. » (2018, p. 207)
En réalité, cette stratégie a fait l'objet d'une analyse approfondie par la sociologue Shoshana Zuboff qui, après dix ans de recherche, la compare aux approches militaires de « choc et stupeur » (Shock and Awe). Dans L'Âge du capitalisme de surveillance, elle démontre que « les vitesses du capitalisme de surveillance surpassent la démocratie, comme elles surpassent notre capacité à comprendre ce qui se passe et à en méditer les conséquences ». (2020, p. 463)
L'analyse très intéressante et très rigoureuse de Zuboff révèle que la disruption n'est pas seulement technologique, mais fondamentalement politique. Elle conduit à une érosion de la confiance dans les institutions démocratiques et à une fragmentation du corps social, caractérisée par une incapacité croissante au dialogue constructif et une paralysie des mécanismes traditionnels de réforme.
Cette analyse rejoint celle de Martin Gurri qui, dans The Revolt of the Public, décrit notre situation actuelle : « Nous sommes pris entre un ancien monde de moins en moins capable de nous soutenir intellectuellement et spirituellement, peut-être même matériellement, et un nouveau monde qui n'est pas encore né. Étant donné la nature des forces de changement, nous pourrions rester coincés pendant des décennies dans cette posture inconfortable. Vous qui êtes jeunes aujourd'hui ne vivrez peut-être pas assez longtemps pour en voir la résolution.» (Gurri, p. 66)
Des maux qui sonnent
Cette transformation rapide de nos modes de socialisation s'inscrit dans une stratégie délibérée des géants du numérique, une approche que l'on pourrait qualifier de disruption «systémique».
On voit très bien, depuis deux ans, comment certains concepteurs et conceptrices des systèmes d'IA — Open AI pour ne pas les nommer — traitent le monde extérieur comme un laboratoire. Les modèles d’IA sont mis en ligne selon la même logique qui préside à leur conception : après avoir exploité (pillé ?) un nombre considérable de données pour créer les algorithmes qui les animent, on compte ensuite sur une masse d'utilisateurs et d'utilisatrices pour les raffiner via leurs interactions. Cette méthode s'avère redoutablement efficace sur le plan technique. Le problème, c'est que cette expérimentation technique a lieu dans une société bien réelle et produit des impacts sociaux, politiques et culturels majeurs.
Les conséquences sont considérables. La psychologue Jean Twenge identifie 2012 comme un point de bascule majeur, «exactement le moment où la proportion d'Américains possédant un smartphone dépassait les 50%». Les impacts sur la jeune génération sont particulièrement préoccupants. Selon Jonathan Haidt, auteur de La génération anxieuse, on observe «un grand pic d'anxiété et de dépression apparu dans les années 2012-2013 [...] Le pourcentage de jeunes adolescents diagnostiqués pour des troubles d'anxiété et de dépression s'est alors mis à flamber – respectivement de +135% et de +106%».
C'est la socialisation elle-même qui est profondément affectée. Twenge rapporte une chute de plus de 40% entre 2000 et 2015 du nombre d'adolescent·es qui voient leurs ami·es quotidiennement. Les espaces physiques de socialisation ont été largement remplacés par des espaces virtuels, transformant radicalement les conditions d'apprentissage et de développement psychosocial des nouvelles générations. La relation aux autres et au monde est médiée par les technologies numériques. Par un filtre très puissant.
C'est comme si le monde était devenu un immense laboratoire, alors que la fonction même d'un laboratoire est précisément d'être isolé et contrôlé. Et l'expérimentation est complètement débridée. L’utopie de la Silicon Valley est expérimentée non seulement sous nos yeux, mais dans nos têtes. Le principe de précaution semble avoir perdu toute pertinence.
L'expérimentation à grande échelle
Sur l'ambition de transformation radicale, Mallard est explicite : « Les disrupteurs [...] s'attaquent frontalement aux problèmes les plus complexes à résoudre. Ils savent que plus la difficulté est grande, plus importante est la source de disruption et qu'une fois le problème réglé, c'est tout le secteur qui tombe. » (2018, p. 116)
Or, cette philosophie de la disruption s'est incarnée de manière emblématique dans le motto de Facebook en 2009 : « Move Fast. Break Things » (Aller vite. Casser des choses). Cette devise révèle une approche où l'urgence prime sur toute réflexion quant aux conséquences. Il ne s'agit plus seulement de risquer de briser un modèle d'affaires, mais d'accepter de fragiliser le tissu social lui-même. Comme le souligne Christopher Wylie, lanceur d'alerte du scandale Cambridge Analytica, « Dans la nouvelle itération du capitalisme, les matériaux bruts ne sont plus le pétrole ou les minéraux, mais plutôt les comportements et l'attention transformés en marchandise » (2020, p. 424). Le cas Cambridge Analytica illustre parfaitement les enjeux de cette nouvelle économie comportementale.
Rappelons que cette société de conseil a utilisé sans consentement les données personnelles de millions d'utilisateurs et utilisatrices de Facebook pour influencer des élections majeures, notamment la présidentielle américaine de 2016 et le référendum sur le Brexit. Le scandale a éclaté en 2018 quand des lanceurs et lanceuses d'alerte, dont Christopher Wylie, ont révélé que l'entreprise avait collecté les données de plus de 87 millions de personnes via une application tierce présentée comme un simple questionnaire de personnalité. Ces données ont servi à créer des profils psychologiques détaillés permettant de cibler des messages politiques personnalisés visant à manipuler le comportement électoral.
L'affaire Cambridge Analytica a mis en lumière trois aspects fondamentaux de l'ère numérique. D'abord l'utilisation de techniques de manipulation psychologique assez poussées peut avoir un impact décisif sur les processus démocratiques. Ensuite des plateformes comme Facebook disposent d'un pouvoir sans précédent sur nos sociétés. Enfin, l'absence de régulation sur la collecte et l'utilisation des données personnelles ouvre la voie à des pratiques de micro-segmentation et de ciblage comportemental aux conséquences potentiellement dévastatrices pour le fonctionnement démocratique.
La modification comportementale comme objectif
Ce que je nous invite à voir, c’est que le scandale Cambridge Analytica n'est que la partie visible d'un phénomène beaucoup plus profond. C'est la pointe de l'iceberg. Comme l'analyse Shoshana Zuboff dans son étude approfondie : « L'opération Facebook dans toute son ampleur est une immense expérience de modification des comportements conçue non seulement pour tester les capacités spécifiques de ses mécanismes d'ajustement — à l'œuvre dans ses “tests à grande échelle” — mais aussi pour réitérer ce type d'expérience sur la toile sociale et psychologique la plus vaste possible. » (2020, p. 622)
Cette logique de contrôle et de domination n'est pas nouvelle. Comme le souligne Stéphane Mallard, « L'ambition d'un projet de disruption doit être monopolistique ou rien. » L'auteur voit une logique darwinienne derrière la disruption : « le digital est darwinien : il sélectionne et récompense tout ce qui est adapté à son environnement. Dans la nature, cette sélection darwinienne a lieu sur des variations aléatoires. Il faut donc réintroduire dans le digital cet aléatoire : l'attitude du disrupteur doit être chaotique. » (2018, p. 208)
Ce projet de modification comportementale à grande échelle crée un paradoxe saisissant : alors que les technologies numériques et l'intelligence artificielle promettent plus d'autonomie aux individus, elles créent simultanément de nouvelles dépendances et fragilisent notre capacité de réflexion et d'action. L'arrivée récente de systèmes d'IA générative comme GPT-4 et d'agents IA de plus en plus autonomes rend cette tension particulièrement visible dans le domaine éducatif.
Au cœur de ce paradoxe se trouve notre rapport à la pensée authentique. Nous avons vu dans une chronique antérieure que l'être humain n'est pas «génétiquement programmé» pour réfléchir. Si nous sommes capables de pensée automatique — rapide mais biaisée — la réflexion profonde demande un effort considérable. Et cet effort, limité par la mémoire de travail et le contrôle inhibiteur, est généralement inconfortable et ne garantit même pas l'exactitude du raisonnement.
La délégation croissante de nos tâches cognitives aux systèmes automatisés n'est pas sans conséquence. Comme le met en garde le chercheur Michel Desmurget : « Plus nous abandonnons à la machine une part importante de nos activités cognitives et moins nos neurones trouvent matière à se structurer, s'organiser et se câbler. » (2019, p. 231) Cette observation soulève des questions fondamentales pour les pédagogues : comment maintenir l'exigence de la pensée critique à l'ère de l'automatisation cognitive ? Comment développer l'autonomie intellectuelle quand les outils numériques nous poussent vers une forme de dépendance cognitive ? Comment demeurer vigilant ?
«Le capitalisme industriel reposait sur l'exploitation et le contrôle de la nature — les conséquences sont catastrophiques, ce dont nous ne prenons conscience que maintenant. Quant au capitalisme de surveillance, il se structure, comme je l'ai suggéré, sur l'exploitation et le contrôle de la nature humaine. Le marché nous réduit à notre seul comportement, transformé en une autre marchandise fictive et empaquetée pour atterrir dans d'autres paniers. Nous pouvons constater plus clairement au vu des principes sociaux de la société instrumentarienne, déjà incarnés dans les expériences que vivent nos jeunes, la manière dont ce nouveau capitalisme vise à remodeler notre nature pour assurer son succès.»
— Shoshana Zuboff, L’âge du capitalisme de surveillance (p. 624)
Penser
Devant notre avenir en péril, où se superposent les crises climatiques, sociales et politiques, les neurosciences nous apprennent que nous devons être plus intelligents que notre cerveau primitif. Plus que jamais, nous avons besoin d'inhiber les automatismes et les biais qui nous apparaissent comme des évidences. Nous avons besoin d'une éducation qui valorise le temps long, l'effort, voire parfois même l'inconfort nécessaire à la pensée authentique. Cette pensée critique n'est pas tant menacée par l'intelligence artificielle que par la tentation de ne pas penser tout court — un problème qui n'est pas nouveau, mais inscrit au plus profond de nos gènes.
Cette réflexion fait écho aux avertissements d'Hannah Arendt sur le lien entre l'incapacité de penser et l'émergence du mal. Dans le contexte mondial de 2025, cette mise en garde prend une résonance assez particulière, mettons.
La réponse à ces défis pourrait notamment venir de l'éducation. L'école peut être cet espace où l'on apprend à penser de manière authentique, à prendre le temps nécessaire à la réflexion, et à développer une distance critique face aux technologies et aux nouveaux pouvoirs.
Comme nous l'avons vu dans la dernière chronique, c'est précisément parce qu'à sa naissance le cerveau humain n'est pas encore mature — contrairement à celui du poulain ou de l'abeille — qu'Homo sapiens a cette possibilité inédite sur la planète de prendre une distance avec ses instincts d'animal. Grâce à la communauté et à la coopération, ce risque à sa survie est devenu un gage de réussite. C'est ainsi que sont nés l'apprentissage, la culture, l'éducation et la transmission intergénérationnelle par la famille et la communauté d'un savoir partagé. C'est l'éducation qui a rendu possible notre monde. C'est en ce sens qu'Hannah Arendt défend son conservatisme : nous avons besoin de codes communs pour assurer une cohésion au monde et nous devons en transmettre les clés aux jeunes générations.
La modernité — le capitalisme — a construit une société qui exige des solutions innovantes à des problèmes complexes, tout en réduisant progressivement notre capacité de concentration et de réflexion approfondie. Face à ces bouleversements, l'éducation apparaît non pas comme une solution miracle, mais comme un espace privilégié où développer les outils nécessaires à notre époque. L'école doit demeurer ce lieu essentiel où l'on apprend à penser par soi-même.
Cette mission est d'autant plus importante que notre culture contemporaine valorise la rapidité et le plaisir immédiat. Les réseaux sociaux nous maintiennent dans un mode de pensée rapide et biaisé (le Système 1), alors que la société et la civilisation reposent sur notre capacité à mobiliser une pensée plus lente et réfléchie (le Système 2). Comme le souligne Sébastien Bohler dans Où est le sens?, il faut parfois accepter une forme de «sacrifice» de la facilité pour accéder à une pensée authentique.(2020, p. 296)
Agir
«La pensée a évolué comme une extension de la capacité à agir efficacement ; elle a évolué pour nous rendre meilleurs dans l'accomplissement de ce qui est nécessaire pour atteindre nos objectifs. La pensée nous permet de choisir parmi un ensemble d'actions possibles en prédisant les effets de chaque action et en imaginant comment le monde serait si nous avions pris différentes actions dans le passé.» (2017, p. 10) Cette observation de Sloman et Fernbach nous rappelle que penser et agir sont intimement liés.
Penser, comme un sport, demande un entraînement : de la pratique et de la répétition, de la discipline et de la motivation, des exemples et des modèles. Penser demande des mots, pas seulement des emojis ; des phrases complètes, pas seulement des memes et, surtout, des paragraphes qui dépassent quelques centaines de caractères. Penser demande de ralentir. Il faut penser pour être libre et cela demande un espace-temps de qualité.
À l’heure où le contrôle comportemental devient un commerce très lucratif, la salle de classe peut être cet espace-temps privilégié.
Dans Penser librement, Hannah Arendt écrivait : «Comme nous agissons toujours au sein d'un réseau de relations, les conséquences de chacun de nos actes sont sans limites, chaque action déclenchant non une réaction, mais une chaîne de réactions, et chacun de ces processus provoquant de nouveaux processus imprévisibles. Cette absence de limites est fatale ; il serait vain de chercher à restreindre nos actions à un cadre limité ou de livrer tout le matériel pertinent à d'énormes ordinateurs. L'acte le plus infime accompli dans le cadre le plus restreint porte la graine de la même absence de limites et d'imprévisibilité ; un acte, un geste, un mot suffisent pour modifier chaque constellation d'événements. Dans l'action en effet, au contraire du travail, nous ne pouvons jamais savoir réellement ce que nous faisons.» (2021, p. 64)
C'est dans cette mesure, peut-être, que réside notre liberté. À l'image du battement d'aile du papillon, chaque action pédagogique, aussi modeste soit-elle, porte en elle la possibilité d'un changement profond. Face à la disruption technologique qui menace notre capacité même à penser, les enseignantes et enseignants peuvent jouer un rôle essentiel en préservant et en cultivant ces espaces de pensée authentique. Non pas en rejetant les technologies, mais en les mettant au service d'une pédagogie qui valorise la réflexion, l'effort et l'autonomie intellectuelle.
Références
Arendt, Hannah (1966). Eichmann à Jérusalem. Rapport sur la banalité du mal. Gallimard.
Arendt, Hannah (1972). La crise de la culture. Gallimard.
Arendt, Hannah (2021). Penser librement. Payot.
Bohler, Sébastien (2020). Où est le sens ? : les découvertes sur notre cerveau qui changent l'avenir de notre civilisation. Robert Laffont.
Desmurget, Michel (2019). La fabrique du crétin digital: les dangers des écrans pour nos enfants. Seuil.
Gurri, Martin (2018). The Revolt of the Public and the Crisis of Authority in the New Millennium. San Francisco : Stripe Press.
Haidt, Jonathan (2025). Génération anxieuse ; Comment les réseaux sociaux menacent la santé mentale des jeunes. Groupe Margot.
Legros, Martin (2025). Jonathan Haidt : "L'anxiété est le trouble dominant de la génération née avec les réseaux sociaux". Philosophie Magazine, n° 186, février 2025, p. 20. [En ligne]
Mallard, Stéphane (2018). Disruption : intelligence artificielle, fin du salariat, humanité augmentée. Dunod.
Sloman, S. & Fernbach, P. (2017). The Knowledge Illusion: Why We Never Think Alone. Macmillan.
Twenge, Jean M. (2017). Has the Smartphone Destroyed a Generation?. The Atlantic. [En ligne]
Twenge, Jean M. (2018). Génération Internet : comment les écrans rendent nos ados immatures et déprimés. Mardaga.
Wylie, Christopher (2020). Mindfuck : le complot Cambridge Analytica pour s'emparer de nos cerveaux. Grasset.
Zuboff, Shoshana (2020). L'âge du capitalisme de surveillance. Zulma.
Bonjour Grégoire,
Quel effort tu te demandais en produisant un article par semaine. Un rapport temporel effort/effet (long d'écriture, court de lecture) bien exigeant. Articles que j'aime bien lire et aimerai lire mensuellement.
Dans ton texte faisant mention de la disruption technologique, je porte à ton attention le fait qu'il y a, derrière la technologie, des humains qui la conçoivent et la développent (du moins pour le moment). Ces humains dits experts TI doivent également emboîter le pas de la précaution à prendre pour que demain, l'humain numériquement instrumenté pense. Dans mon effort de recherche, j'entrevois la sortie des experts TI (un bien petit nombre) du cadre classique de conception/développement pour offrir aux usagers de cette technologie (un grand nombre) un niveau plus élevé de "sophistication cognitive" (Dubuc, 2020)[1].
« La minorité dévie. En ce sens elle fait dévier le reste » (Ollendorff, 2009)[2].
Ici-bas, mon résumé succinct de la pensée d'Ollendorff.
« L'inconscient est une machine. La déterritorialisation des idées ou des lieux physiques et la ligne de fuite qui nous transporte hors du cadre, sont les gages de l’indépendance d’une œuvre trouvant la terre d’accueil où placer sa machine à soi. » (Mon extrait)
[1] Dubuc, Bruno (2020). Un « concours » pour tester deux grandes théories rivales sur la conscience. Le Blogue du Cerveau à tous les niveaux.
[2] Ollendroff, Guillaume (2011). Deleuze et Guattari, La machine à gazouiller. Libertaire.free.fr.
Au plaisir de partager et d'apprendre,