Le sous-titre de cet article pourrait également être : « Ce que Moltbook et Moltbot révèlent sur les nouveaux profils de risque, les failles de sécurité et les points aveugles réglementaires ». Le réseau social est géré sans humains, mais exclusivement par des agents d’intelligence artificielle. A première vue, cela peut ressembler à une curieuse expérience technologique. Mais des plateformes comme Moltbook – et le logiciel d’agent Moltbot qui lui est associé – touchent à des questions centrales qui deviennent de plus en plus pertinentes pour les assureurs, les gestionnaires de risques et les régulateurs. Il s’agit de contrôle, de responsabilité et de sécurité dans un monde où les systèmes d’IA ne se contentent pas de réagir, mais agissent et interagissent de manière autonome.
Moltbook n’est pas un réseau social classique, mais un espace d’observation public. Toutes les contributions, commentaires et évaluations proviennent d’agents IA connectés via des interfaces. Les humains ne peuvent qu’observer. Ce qui est visible ici, c’est un espace numérique dans lequel les machines communiquent entre elles, renforcent les arguments et définissent des thèmes, sans contrôle humain direct en cours de fonctionnement.
Pour les assureurs, cette structure est cruciale. En effet, les risques ne résultent plus seulement d’algorithmes individuels, mais de l’interaction de plusieurs systèmes. La responsabilité est fragmentée, la causalité est plus difficile à prouver. Les modèles classiques d’attribution des responsabilités sont ainsi mis sous pression.
Moltbot : quand l’IA accède aux systèmes réels
Ces questions sont particulièrement évidentes lorsqu’on se penche sur Moltbot, l’agent d’intelligence artificielle étroitement lié à l’écosystème Moltbook. L’agent open source fonctionne en local sur l’ordinateur, communique via des services de messagerie comme WhatsApp ou Telegram et peut agir de manière autonome : envoyer des messages, modifier des fichiers, exploiter des pages web, réserver des rendez-vous ou exécuter du code.
La différence avec les outils d’IA connus réside dans le fait que Moltbot ne se contente pas de faire des suggestions, mais exécute des actions. Ainsi, un système d’IA obtient en fait le même accès aux appareils, comptes et données qu’un utilisateur humain.
Classification de première main : Dharmesh Shah
L’engouement autour de Moltbot a également attiré l’attention de Dharmesh Shah, fondateur et directeur technique de HubSpot. Dans une analyse très remarquée, il parle d’un « reality check » nécessaire. Selon lui, la technologie est réelle et en partie impressionnante, par exemple pour les appels automatisés, l’organisation de rendez-vous ou les transactions en ligne complexes. Dans le même temps, M. Shah met explicitement en garde contre une utilisation prématurée.
Son point central : la plupart des gens sous-estiment ce qu’ils autorisent réellement à un tel agent. Autoriser Moltbot à accéder aux messages, aux fichiers et aux fonctions du système, c’est autoriser un système d’IA à agir en son nom. Les erreurs, les mauvaises interprétations ou les failles de sécurité peuvent avoir des conséquences réelles, allant de l’envoi involontaire de messages à l’accès incontrôlé au système.
Des risques de sécurité plutôt que de la science-fiction
Du point de vue des risques et des assurances, l’évaluation de Shah est particulièrement pertinente. Moltbot n’est pas un service cloud avec des garanties de sécurité claires, mais fonctionne localement, souvent sur des appareils privés. La responsabilité de la configuration, des restrictions d’accès et des mises à jour incombe entièrement à l’utilisateur. Les erreurs de configuration ne sont donc pas exceptionnelles, mais constituent un risque structurel.
Shah recommande donc expressément de ne pas utiliser de tels agents sur des systèmes principaux en production. Trop nouveau, trop complexe, trop de questions en suspens. Pour les assureurs, il s’agit d’un schéma bien connu : un impact élevé associé à une faible maturité signifie un risque classique de phase précoce.
La réglementation rencontre les systèmes émergents
Un problème fondamental se pose du point de vue de la réglementation. Les cadres réglementaires existants, y compris dans le cadre de la gouvernance de l’IA, sont généralement conçus pour des modèles uniques ou des applications clairement délimitées. Cependant, des systèmes tels que Moltbook et Moltbot montrent que les risques résultent de plus en plus d’interactions dynamiques.
Lorsqu’un agent IA agit de manière autonome, apprend, se souvient du contexte et interagit avec d’autres agents, la transparence seule ne suffit plus. Pour les autorités de surveillance, il devient crucial de savoir comment contrôler l’accès, la logique de décision et les mécanismes d’escalade. Pour les assureurs, la question est de savoir comment ces risques émergents difficilement quantifiables peuvent être assurés.
Pas un réseau social, mais un espace d’observation
Moltbook n’est pas un réseau social classique, mais un espace d’observation. Les contributions, commentaires et évaluations proviennent exclusivement d’agents IA connectés via des interfaces de programmation. Les humains ne peuvent que lire. Ce qui est visible ici, c’est un espace numérique dans lequel les machines communiquent entre elles, échangent des arguments et renforcent le contenu, sans contrôle humain direct en cours de fonctionnement.
Pour les secteurs réglementés, comme celui de l’assurance, c’est précisément un point critique. En effet, dès que les systèmes n’agissent plus de manière isolée mais en interaction, le profil de risque se déplace. La responsabilité et le contrôle deviennent plus diffus, en particulier lorsque les décisions ou les récits résultent de l’interaction entre plusieurs modèles.
Pas de produit, mais un signal d’alerte clair
Ni Moltbook ni Moltbot ne sont actuellement des solutions prêtes à être commercialisées pour les industries réglementées. C’est pourtant là que réside leur valeur. Ils permettent de voir où vont les applications d’IA : loin des outils isolés, elles deviennent des systèmes connectés et agissants avec un accès réel aux processus, aux données et aux décisions.
Moltbook et Moltbot ne montrent pas tant à quel point l’intelligence artificielle est déjà technologiquement avancée, mais plutôt à quel point l’écart entre la faisabilité technique et la protection réglementaire est devenu important. Pour le secteur de l’assurance, le gain de connaissances ne réside pas dans l’émerveillement face aux agents autonomes, mais dans la question objective de savoir comment évaluer les risques qui ne résultent pas d’erreurs individuelles, mais de l’interaction de systèmes agissant de manière autonome. Ou, comme le dit Dharmesh Shah, en substance : L’avenir est visible, mais pas encore assez sûr pour être utilisé à grande échelle.
Binci Heeb
Lire aussi : Du modèle à l’état d’esprit : pourquoi le dernier kilomètre de l’IA fait la différence entre le succès et l’échec