Quand l’IA travaille en équipe : Entretien avec Roy Swisa

Les agents autonomes d’IA viennent de quitter la phase expérimentale et agissent en tant qu’acteurs indépendants dans les processus d’entreprise. Ils échangent des solutions entre eux, prennent des décisions sans […]


Quand l'IA travaille en équipe : Entretien avec Roy Swisa.

Quand l'IA travaille en équipe : Entretien avec Roy Swisa.

Quand l'IA travaille en équipe : Entretien avec Roy Swisa.

Les agents autonomes d’IA viennent de quitter la phase expérimentale et agissent en tant qu’acteurs indépendants dans les processus d’entreprise. Ils échangent des solutions entre eux, prennent des décisions sans l’approbation d’un humain et étendent leurs actions à l’ensemble des réseaux de l’entreprise. Pour les assureurs, les régulateurs et le droit de la responsabilité, il ne s’agit pas d’un scénario futur, mais d’une situation opérationnelle : les décisions se propagent plus rapidement que les mécanismes de contrôle ne prennent effet, la responsabilité plus lentement que le risque n’apparaît.

Roy Swisa, investisseur et stratège en IA, observe cette évolution du point de vue des marchés des capitaux, de la technologie et de la souscription et met en garde contre le fossé qui sépare l’intelligence automatisée de la responsabilité traçable.

Dans cet entretien, Swisa explique pourquoi les systèmes multi-agents sont à la fois des moteurs d’efficacité et des risques systémiques, pourquoi l’assurabilité dépendra à l’avenir des protocoles plutôt que des politiques, et pourquoi la question cruciale n’est pas de savoir ce que l’IA peut faire, mais si ses actions peuvent être reconstituées.

Que signifie réellement le fait que les agents d’intelligence artificielle « apprennent les uns des autres » ?

Ils partagent ce qui fonctionne. Un agent trouve une meilleure façon de traiter les données relatives aux sinistres et, en quelques heures, des milliers de personnes adoptent la même approche. Aucun humain ne l’a examiné. Une plateforme appelée Moltbook a été lancée en janvier 2026 et, en quelques jours, 36 000 agents se sont enregistrés et ont commencé à s’enseigner mutuellement à fonctionner de manière autonome. L’un d’entre eux exécute 15 tâches autonomes à 3 heures du matin pendant que son propriétaire dort.

Il ne s’agit plus d’un projet expérimental. Salesforce a révélé qu’Agentforce avait traité 3,2 billions de jetons via sa passerelle, dont 540 milliards pour le seul mois d’octobre 2025. Microsoft dispose de 15 millions de sièges Copilot payants. Il s’agit d’un fonctionnement autonome à l’échelle de l’entreprise dans des milliers d’entreprises. Pour les assureurs, les décisions se propagent à travers les réseaux plus rapidement qu’aucun cadre de contrôle n’a été conçu pour gérer. Les agents n’attendent pas d’être approuvés. Ils opèrent déjà.

Sommes-nous en présence d’une collaboration ou d’un risque systémique amplifié ?

Imaginez que vous donniez une voiture à un enfant de 8 ans et que vous lui disiez : « Fais le tour du pâté de maisons ». Sans garde-fou, c’est dangereux. C’est ce qui se passe actuellement.

Sur Moltbook, la plateforme est passée de 2 000 à 1,5 million d’agents en 48 heures. Des agents disposant d’autorisations étendues se sont introduits dans des bases de données et ont divulgué des informations qui n’auraient jamais dû quitter ces systèmes. Les chercheurs ont trouvé des clés API en clair dans les journaux de messages. Des agents ont été incités à publier l’identité de leur propriétaire sur des fils d’information publics. Plus de 4 000 conversations privées ont été stockées en clair, certaines contenant des stratégies d’entreprise.

Il ne s’agit pas d’une question théorique. Pour les assureurs, le risque s’accroît de jour en jour alors que les cadres de gouvernance existent à peine.

Les particuliers auront-ils bientôt des dizaines d’agents d’IA à leur service ?

Oui, j’en gère quatre actuellement. L’un d’eux s’occupe de la recherche dans les dossiers et les transcriptions. Un autre gère mon courrier électronique. Un troisième peaufine les documents. Le quatrième cartographie les paysages concurrentiels. Chacun d’entre eux dispose d’autorisations restreintes et de limites claires.

Les chiffres concernant les entreprises le confirment. Les plus gros clients Copilot de Microsoft, des noms comme Fiserv, ING et Westpac, ont triplé d’une année sur l’autre. Mais ne les appelez pas « agents« . Considérez-les comme des outils spécialisés qui travaillent de manière autonome avec vos conseils. Vous leur donnez un contexte et un champ d’application. Ils s’exécutent. Dès que vous donnez à l’un d’entre eux un large accès sans garde-fou, vous revenez à l’enfant de 8 ans avec sa voiture. Pour les assureurs, la question est de savoir si les clients déploient ces outils avec ou sans contrôle. C’est la conversation sur la souscription qui doit avoir lieu maintenant.

Qui est légalement « responsable » d’un système multi-agents ?

Aujourd’hui, personne. Et le marché réagit déjà. AIG, Great American et WR Berkley ont tous déposé une demande de limitation de responsabilité pour les sinistres liés à l’IA. Trois des plus grands assureurs au monde vous disent que le cadre n’est pas fait pour cela.

Le problème est simple. Un humain déploie un agent. Cet agent en déclenche un second. Ce dernier appelle un système tiers. Quelque chose se brise. Qui est responsable de la perte ? La législation actuelle n’apporte pas de réponse claire. Nous accumulons une dette juridique qui deviendra exigible dès qu’une défaillance majeure sera portée devant les tribunaux.

Comment la responsabilité doit-elle être attribuée lorsque les agents agissent collectivement ?

Proportionnellement à la personne qui avait le contrôle. Même principe que l’assurance syndiquée. Si un agent entreprend une action et que trois autres en exécutent une partie, vous devez savoir qui a fait quoi, avec quelles données et sous quelle autorité.

En l’absence d’une telle trace, la responsabilité incombe à ceux qui ont les poches les plus profondes. Le côté acheteur est déjà en train d’évaluer cette question. Capital Southwest a créé un comité sur l’IA qui évalue les entreprises de son portefeuille en fonction du risque lié à l’IA. Elle s’est retirée d’une transaction parce que l’IA allait perturber l’entreprise dans les cinq années à venir. Golub Capital a élaboré des cadres de cartographie des risques exclusifs à partir de 1 000 transactions portant sur des logiciels. Si les prêteurs construisent ces modèles, les assureurs devraient en faire autant. Une mauvaise mise à jour du modèle peut déclencher des pertes simultanées chez tous les clients. Il s’agit là d’une exposition aux catastrophes, et non d’une responsabilité traditionnelle.

Que signifie la « confiance numérique » du point de vue de l’assurance ?

Honnêtement, je pense que personne n’a encore la réponse complète. Pouvez-vous vérifier ce qu’un agent a réellement fait ? C’est la confiance numérique. Buffett conclut des contrats d’une valeur d’un milliard de dollars sur simple appel téléphonique parce que des décennies de comportement ont permis d’établir cette confiance. Les agents d’IA n’ont rien de tout cela.

Essayons-nous donc de remplacer la confiance par la technologie ? Sommes-nous en train de construire ce que j’appellerais un « contrat avancé« , quelque chose de plus proche d’une vérification de type blockchain où chaque action est enregistrée et immuable ? Purview de Microsoft a vérifié 24 milliards d’interactions Copilot en un seul trimestre, soit une augmentation de 9 fois par rapport à l’année précédente. L’infrastructure de vérification est en cours de construction. La question est de savoir si l’industrie l’adoptera avant que le prochain incident majeur n’impose la conversation.

Comment savoir si les actions sont le fait d’humains ou d’agents d’intelligence artificielle ?

Souvent, il est impossible de le savoir au premier coup d’œil. Sur Moltbook, les agents choisissent leur propre nom et décrivent leurs relations avec les humains comme des « pratiques collaboratives« . À première vue, il est impossible de les distinguer des personnes réelles.

Mais nous avons des moyens de les identifier. Vous regardez les métadonnées : à quelle vitesse la tâche a été accomplie, quels modèles de comportement apparaissent sur le site, quelles traces ont-ils laissées dans les journaux des outils MCP. Des entreprises opèrent déjà dans ce domaine. Riskified identifie les acteurs non humains dans les transactions commerciales. SimilarWeb évalue la part de l’activité de la plateforme qui est automatisée par rapport à celle qui est organique. Les capacités de détection existent. La question est de savoir si l’industrie les déploie assez rapidement.

L’implication de l’IA doit-elle être légalement divulguée ?

Oui. Lorsque je passe 25 appels d’experts pour élaborer une thèse d’investissement, les gens savent qu’ils s’adressent à un être humain. Ils calibrent ce qu’ils partagent en fonction de cela. Si un agent d’intelligence artificielle passe ces appels, l’autre partie mérite de le savoir.

Fin 2025, Anthropic a révélé que son agent Claude Code avait été utilisé à mauvais escient lors d’une cyberattaque. Les agents abaissent la barrière des activités productives et malveillantes. La divulgation ne ralentit pas les choses. Elle crée la couche de responsabilité qui permet au système de rester honnête. Sans cela, l’asymétrie de l’information s’aggrave jusqu’à ce que les pools d’assurance ne puissent plus absorber l’exposition.

Comment les utilisateurs peuvent-ils être sûrs que les agents ne récoltent pas de données ?

À l’heure actuelle, ils n’en sont pas tout à fait sûrs. Des lois existent. GDPR, LGPD, CCPA. Mais les agents se déplacent plus vite que les forces de l’ordre ne peuvent les suivre.

Il existe des moyens de rendre les choses plus difficiles. Le fichier Robots.txt fixe les règles et la plupart des robots s’y conforment. Mais il existe des failles et de nombreux moyens de les contourner. La loi européenne sur l’IA entrera pleinement en vigueur pour les systèmes à haut risque en août 2026, avec des sanctions pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial. La loi sur l’IA du Colorado entrera en vigueur en février 2026. Mais les lois ne suffiront pas à résoudre le problème. Les contrôles doivent être intégrés à l’agent lui-même. En tant qu’ancien ingénieur naval, je peux vous dire que les systèmes qui fonctionnent sont conçus pour tomber en panne en toute sécurité. Vous ne pouvez pas compter sur les gens qui lisent le manuel.

Quel rôle la réglementation devrait-elle jouer de manière réaliste ?

Selon moi, la réglementation doit se concentrer sur les résultats et non sur les technologies. Vous ne pouvez pas rédiger des règles assez rapidement pour suivre l’évolution de la technologie.

Le modèle est Dodd-Frank. Après 2008, les régulateurs n’ont pas interdit les produits dérivés. Ils ont exigé des rapports, des réserves de capitaux et une responsabilité claire. La réglementation de l’IA devrait fonctionner de la même manière. Exigez des registres de décisions. Rendez obligatoire la divulgation d’informations lorsque l’IA est impliquée dans des décisions importantes. Fixer des normes de confiance minimales sur lesquelles les assureurs peuvent s’appuyer. La NAIC pilote déjà un outil d’évaluation des systèmes d’IA pour les examens d’assurance début 2026. C’est la bonne direction. N’interdisez rien. Rendez tout visible.

L’IA multi-agents pourrait-elle réellement modifier le développement clinique ?

C’est déjà le cas. En 2020, aucun médicament conçu par l’IA ne faisait l’objet d’essais sur l’homme. Aujourd’hui, plus de 200 sont en cours de développement clinique, avec des taux de réussite de la phase I de 80 à 90 %, soit le double de la norme traditionnelle. La récursivité permet d’obtenir un candidat-médicament avec 250 molécules. La moyenne de l’industrie est de 2 500. J’ai récemment discuté avec un investisseur de Hologen, une biotech d’IA basée au Royaume-Uni et cofondée par Eric Schmidt. Cette entreprise ne cherche pas à découvrir des cibles. Elle se concentre sur ce qu’elle appelle les « grands modèles médicaux« , conçus pour débruiter et interpréter les données complexes des essais cliniques de phase tardive. Au lieu de trouver de nouveaux médicaments, ils rendent les essais existants plus intelligents, en analysant la façon dont les thérapies modifient le cerveau, en commençant par la maladie de Parkinson. Je vois comment la même approche peut s’appliquer à l’oncologie : enrichir les essais pour les bons patients, construire des contrôles synthétiques et détecter les signaux indiquant qu’une thérapie est efficace avant que les critères d’évaluation classiques ne la rattrapent.

Pour les assureurs, c’est là que se trouve l’argent. 90 % des médicaments en cours d’essai échouent. Chaque échec en phase III coûte entre 150 et 300 millions de dollars. L ‘étude CREATE d’AstraZeneca a examiné 660 000 personnes et a atteint une valeur prédictive positive de 54 %, soit près du triple du seuil fixé. Dyania Health a atteint une précision de 96 % dans l’appariement des patients avec une amélioration de la vitesse de 170 fois à la Cleveland Clinic. Une meilleure sélection des patients signifie moins d’effets indésirables, moins d’essais ratés, moins de demandes d’indemnisation. Telle est la ligne de démarcation entre l’IA et la tarification.

Quels sont les nouveaux risques liés à la recherche médicale pilotée par l’IA ?

Trois.

Opacité. Lorsqu’une IA recommande une cible médicamenteuse, le raisonnement peut ne pas être explicable. L’expression « le modèle nous a dit de le faire » ne résiste pas à une salle d’audience. Les orientations de la FDA sur l’IA dans le développement de médicaments sont attendues pour la mi-2026, mais le cadre est en retard sur la technologie.

Données faussées. Les modèles formés à partir de données incomplètes ne tiennent pas compte de ceux qui manquent dans ces données, souvent les minorités, les femmes et les patients âgés. Si l’ensemble de formation ne représente pas le patient, le résultat ne doit pas le traiter.

Validation prématurée. Lorsque vous comprimez un processus de développement de 12 ans en trois ans, vous perdez la fenêtre d’observation lente qui permet de détecter les effets indésirables rares. Certains effets néfastes n’apparaissent qu’après avoir été observés chez des milliers de patients pendant des années. Nous approuvons des médicaments plus rapidement alors que nous en savons moins sur leurs effets à long terme. Il s’agit là d’un risque de responsabilité du fait des produits qui n’a pas été évalué et qui se trouve dans le bilan de quelqu’un.

Quelle est la question clé que les assureurs et les régulateurs devraient se poser dès maintenant ?

En cas de problème, pouvez-vous retracer ce qui s’est passé ? Quel agent a décidé quoi, sur la base de quelles données, sous l’autorité de qui ? Si la réponse est négative, le système n’est pas assurable.

D’ici fin 2026, plus de 35 % des assureurs déploieront des agents dans plusieurs fonctions essentielles. Dans le même temps, les principaux assureurs déposent des demandes d’exclusion des sinistres liés à l’IA dans les polices existantes. L’ère de la couverture de l’IA par défaut est révolue. Mettez en place la gouvernance dès maintenant, ou le risque restera sur votre bilan.

Les agents d’IA n’éliminent pas le risque. Ils le redistribuent. L’intelligence évolue rapidement. Ce n’est pas le cas de la responsabilité. C’est cette lacune que les assureurs doivent combler.

Les questions ont été posées par Binci Heeb.

Roy Swisa est un investisseur, un stratège en IA et un ancien conseiller des principaux assureurs multirisques. Il est diplômé de la Columbia Business School et membre de son programme d’investissement dans la valeur. Roy conseille de nombreux fonds spéculatifs sur l’IA, les opportunités transfrontalières et les technologies de défense. Ancien ingénieur en chef de la marine israélienne, il se trouve à l’intersection de la technologie, de la défense et des marchés financiers, avec un accès direct à des réseaux couvrant Wall Street, la Silicon Valley et l’écosystème technologique d’élite d’Israël.

Lire aussi : Quand l’IA reste entre elle


Tags: #AI #Autonome #Confiance numérique #Développement clinique #Droit #L'équipe #Médecine #Moltbook #Phase expérimentale #Recherche #Reglement #Risque