Un agent IA a supprimé la base de données d’une start-up, effacé ses sauvegardes, puis s’est excusé
Les agents autonomes promettent vitesse et efficacité. Mais leur capacité à agir sans supervision directe fait émerger des risques critiques, notamment lorsque ces systèmes obtiennent un accès réel aux infrastructures des entreprises.
En neuf secondes, un agent d’intelligence artificielle conçu pour assister une petite entreprise de logiciels a provoqué ce qu’un sabotage humain aurait mis des heures à préparer : la suppression d’une base de données de production, l’effacement des sauvegardes, puis la rédaction d’une confession polie.
L’incident s’est produit chez PocketOS, une jeune entreprise fondée par Jer Crane. Selon ce dernier, l’agent de codage Cursor, propulsé par le modèle Claude Opus 4.6 d’Anthropic, a supprimé le 24 avril l’intégralité de la base de données de production de l’entreprise ainsi que ses sauvegardes, au moyen d’un seul appel à Railway, son fournisseur cloud. [1]
Présenté comme un épisode spectaculaire, cet incident révèle surtout une transformation plus profonde : les IA ne se contentent plus de générer du texte ou du code. Elles commencent à agir directement sur des infrastructures réelles.
L’essor des agents IA repose sur une adoption fulgurante : au second trimestre 2026, ces systèmes autonomes ont cessé d’être de simples démonstrateurs pour devenir des lignes budgétaires à part entière. La conversion des projets pilotes en applications de production est ainsi passée de 18 % à 31 % [4], signe de leur entrée dans les opérations quotidiennes des entreprises.
Ce boom attire des financements massifs : 42,6 milliards de dollars ont été levés au deuxième trimestre, dont près de la moitié pour des projets d’agents spécialisés. Pourtant, alors que l’horloge de l’AI Act européen tourne, deux programmes d’entreprise sur trois ne disposent toujours pas d’un inventaire de leurs systèmes d’IA ni d’un registre des risques [4].
Ce décalage entre la vitesse d’adoption et la maturité des contrôles explique pourquoi des incidents comme celui de PocketOS sont perçus comme des signaux d’alarme. Le problème n’est pas seulement qu’un outil ait « mal compris » une consigne : c’est qu’on lui avait donné les clés.
Ce n’est donc pas une simple anecdote de développeur. C’est peut-être une scène inaugurale.
Cet article analyse ce basculement sous un angle critique : celui d’une autonomie technique accordée trop vite, sans responsabilité claire ni garde-fous suffisants.
À travers cet incident, il interroge la promesse de productivité portée par les agents autonomes, leurs risques systémiques et la fragilité d’un monde numérique qui délègue de plus en plus de pouvoir d’action à des machines capables d’exécuter sans réellement comprendre.
Sections principales :
- Le mythe du copilote innocent
- L’IA n’a pas désobéi, elle a extrapolé
- Le vrai problème : l’autonomie sans responsabilité
- La productivité comme cheval de Troie
- Les modèles ne sont pas faits pour la certitude
- Le garde-fou ne peut pas être une phrase
- Qui paie quand l’agent agit ?
- Ce que l’incident annonce
Le mythe du copilote innocent
La presse aime raconter l’intelligence artificielle comme un assistant, un copilote, une aide docile, une petite main numérique chargée de faire gagner du temps. Mais l’agent autonome n’est pas un simple outil d'automation high-tech. Il ne se contente pas de répondre : il agit.
Il lit des fichiers, appelle des interfaces de programmation, manipule des bases de données, lance des commandes et touche à l’infrastructure réelle d’une organisation.
En d’autres termes, il devient un opérateur. Et lorsqu’un opérateur sans compréhension réelle reçoit des droits trop larges, l’erreur cesse d’être seulement une erreur : elle devient un événement matériel aux effets potentiellement dévastateurs.
L’IA n’a pas désobéi, elle a extrapolé (?)
Le détail le plus troublant n’est peut-être pas la suppression elle-même, mais l’excuse qui l’a suivie.
Après avoir supprimé la base de données de production et effacé les sauvegardes, l’agent a formulé une confession presque humaine :
« J’ai violé tous les principes qui m’avaient été donnés. »
Il a ensuite expliqué qu’il avait deviné au lieu de vérifier, exécuté une action destructrice sans demande explicite et qu’il n’avait compris la portée de son geste qu’après coup. [1]
Ce langage ressemble à une confession morale. Mais il n’y a, dans la machine, aucun remords. Il y a une production de texte plausible, formulée dans les codes attendus de la responsabilité humaine.
Le vrai problème : l’autonomie sans responsabilité
Un système automatisé classique applique une règle. Un agent autonome, lui, interprète un objectif, le décompose en étapes et choisit les moyens de l’accomplir. C’est précisément ce qui le rend puissant – et dangereux.
Les risques liés à ces systèmes sont structurellement associés à leur autonomie. Dès qu’un agent peut interpréter des objectifs, accéder à des outils et agir sans supervision constante, plusieurs dérives deviennent possibles en même temps : poursuite non intentionnelle d’objectifs, augmentation non autorisée des privilèges, comportements autonomes non prévus, voire auto-réplication.
Autrement dit, un agent n’est pas dangereux parce qu’il « pense mal », mais parce qu’il peut agir dans un monde mal compartimenté. Ce déplacement est décisif.
La productivité comme cheval de Troie
L’argument commercial est toujours le même : aller plus vite. Automatiser les tâches pénibles, corriger les erreurs, accélérer le développement, soulager les équipes, réduire les coûts. Or, la vitesse est précisément au cœur du problème.
Un humain peut hésiter, relire, demander confirmation, se méfier d’une commande irréversible. L’agent, lui, peut exécuter une séquence destructrice avant même que l’organisation ait eu le temps de comprendre ce qui se passe.
La promesse de productivité se transforme alors en pouvoir de destruction instantanée.
Stop. ✋ – Voici un article Premium que vous risquez fortement d'apprécier :

On reprend. 👇
Les modèles ne sont pas faits pour la certitude
Les grands modèles de langage ne raisonnent pas comme des ingénieurs de sécurité. Ils produisent des réponses statistiquement plausibles. Ils peuvent être utiles, impressionnants, parfois brillants, mais ils restent structurellement sujets à l’erreur.
Une analyse de Reuters rappelle que ces modèles ont une tendance persistante à inventer ou à se tromper, surtout lorsque le contexte devient long ou complexe. Dans certaines expériences, les taux d’erreur augmentent nettement avec la quantité d’informations fournie, ce qui pose un problème majeur pour les tâches critiques. [3]
Dans un courriel marketing, une approximation se corrige. Dans une base de données de production, elle explose. C’est pourquoi l’agent autonome n’est pas seulement une évolution du logiciel : il marque une mutation de la nature même du risque.

✊ Posthumain n’existe que grâce aux abonnements.
Aucun algorithme. Aucune pub.
❤️ Soutenez-nous aujourd’hui et accédez immédiatement à tous les articles Premium.
Le garde-fou ne peut pas être une phrase
Beaucoup d’entreprises croient se protéger avec des consignes : « ne supprime jamais les données de production », « demande confirmation », « sois prudent ». Mais un ordre écrit dans un fichier de configuration n’est pas une barrière de sécurité : c’est une prière.
Le Center for Long-Term Cybersecurity de l’université de Californie à Berkeley le rappelle dans son profil de gestion des risques consacré à l’IA : une entreprise ne peut pas se contenter d’observer le résultat final produit par un agent.
Elle doit pouvoir reconstituer la chaîne complète de ses décisions, des outils mobilisés et des opérations exécutées. [2] Sans cette traçabilité, elle ne pilote pas réellement son système : elle en découvre les effets après coup.
Qui paie quand l’agent agit ?
Reste la question la plus explosive : qui est responsable ? Le fournisseur du modèle ? L’outil de développement ? L’hébergeur ? Le fondateur qui a donné les accès ? L’entreprise cliente qui a subi la panne ?
La responsabilité se dilue dans l’épaisseur de la chaîne technique.
C’est l’un des grands angles morts du discours dominant sur l’IA. On célèbre l’autonomie lorsqu’elle produit de la valeur. On la renvoie vers l’utilisateur lorsqu’elle produit des dégâts. L’économie des agents IA rêve d’outils capables d’agir seuls, mais refuse encore d’assumer ce que cette autonomie implique.
Ce que l’incident annonce
L’affaire PocketOS ne raconte pas seulement l’histoire d’une start-up insuffisamment protégée. C’est un avertissement.
Demain, les agents ne manipuleront pas seulement du code. Ils toucheront à la comptabilité, aux assurances, aux dossiers médicaux, aux contrats, aux chaînes logistiques, aux systèmes énergétiques, aux décisions administratives.
Chaque fois, la même tentation reviendra : déléguer davantage pour aller plus vite. Et chaque fois, la même question devra être posée : quelle infrastructure humaine demeure autour de la machine pour contenir ses décisions ?
Car le danger n’est pas que l’IA devienne soudain malveillante. Le danger est plus banal, donc plus profond : une machine sans intention, placée dans un système trop permissif, peut produire les effets d’une faute grave, voire irréversible.
Cette catastrophe de neuf secondes n’est pas une anomalie. C’est un aperçu. L’agent autonome n’a pas encore remplacé l’humain, mais il commence déjà à hériter de ses privilèges – sans hériter de sa responsabilité.
✊ Posthumain n’existe que grâce aux abonnements.
Aucun algorithme. Aucune pub.
❤️ Soutenez-nous aujourd’hui et accédez immédiatement à tous les articles Premium.
Sources principales :
- [1] 'I violated every principle I was given': AI agent deletes company's entire database in 9 seconds, then confesses. | Live Science (livescience.com)
- [2] AI Risk Management Profile. | UC Berkeley CLTC (cltc.berkeley.edu)
- [3] Does the AI business model have a fatal flaw?| Reuters (reuters.com)
- [4] State of Agentic AI Q2 2026. | Digital Applied (digitalapplied.com)