L’intelligence artificielle n’est plus un sujet d’avenir : elle décide déjà aujourd’hui de la tarification, de la sélection des risques et de la compétitivité. Mais alors que les algorithmes deviennent de plus en plus précis, une question reste sans réponse : Qui en assumera la responsabilité ? Katrin J. Yuan, CEO du Swiss Future Institute, membre du conseil d’administration et présidente du AI Future Council, demande que les conseils d’administration disposent de plus d’expertise en matière d’IA et met en garde contre l’auto-illusion stratégique.
Les assureurs ont toujours été des entreprises de données. Mais avec l’IA, les règles du jeu changent : les décisions sont automatisées, les modèles apprennent de manière autonome, les marges sont créées par la rapidité. Katrin J. Yuan travaille à l’interface de la finance, de la gouvernance et de l’IA. Dans un entretien avec thebrokernews, elle parle de la perte de contrôle des cadres supérieurs, de la responsabilité algorithmique et des raisons pour lesquelles l’IA devient une question de leadership.
Madame Yuan, de nombreux conseils d’administration ont-ils depuis longtemps perdu le contrôle du sujet de l’IA ?
Le contrôle nécessite une pénétration intellectuelle. Dans de nombreux comités DACH, le paradigme de la délégation prévaut encore : L’IA est confiée au département informatique et les tableaux de bord sont présentés une fois par trimestre. On a l’impression que « l’IA oui, pour les autres ». C’est une erreur. Quiconque ne considère pas l’IA comme un enjeu important dirige son entreprise à l’aveuglette à travers la plus grande transformation économique depuis l’industrialisation. Comme un « angle mort », ils ne voient pas tout ce qui est possible et passent à côté de beaucoup de choses, ce qui soulève la question suivante : « Combien de temps pouvez-vous vous permettre de conduire comme vous le faites ? Combien de temps pouvez-vous vous permettre de conduire ainsi ? Nous constatons souvent un décalage dangereux entre les exigences réglementaires (conformité) et la réalité technologique. Aujourd’hui, un véritable contrôle implique de pouvoir quantifier les coûts d’opportunité de l’inaction. Car ne rien faire coûte cher.
La « stratégie IA » dans les entreprises est-elle souvent de la substance ou plutôt de la rhétorique PowerPoint avec un budget ?
Nous vivons ce qui semble être l’apogée du « lavage de l’IA ». Des projets pilotes sont lancés qui ressemblent à des zoos numériques pour enfants – agréables à regarder, mais sans impact sur les processus de base. Une stratégie ne mérite ce nom que si elle modifie l’allocation du capital et supprime les vieilles habitudes. La plupart des présentations PowerPoint sont défensives : « Nous faisons aussi quelque chose avec ChatGPT ». La véritable substance apparaît là où l’IA réduit les coûts marginaux et augmente considérablement la valeur à vie des clients. Il est important de ne pas acheter le « prochain meilleur outil » et de chercher ensuite des cas d’utilisation, mais de poser d’abord les questions fondamentales à un niveau stratégique et culturel dans la compréhension de l’entreprise. La technologie seule ne résout pas les problèmes. Quiconque parle d’IA doit être à la hauteur.
Quiconque considère l’IA comme un projet informatique n’a pas compris le modèle commercial. Êtes-vous d’accord ?
Sans restriction. Les projets informatiques optimisent le statu quo : L’IA, en revanche, remet en question la raison d’être des structures existantes. Si une IA règle des litiges en quelques secondes, je n’ai pas besoin d’un logiciel plus rapide pour les greffiers, j’ai besoin d’un nouveau modèle d’organisation. En forçant l’IA à entrer dans le corset de l’architecture informatique traditionnelle, on réduit son potentiel. Nous devons abandonner la « pensée outil » au profit d’une « pensée plateforme ». L’IA n’est pas un ajout, mais la nouvelle fondation sur laquelle l’ensemble du modèle d’entreprise sera redimensionné. De nouvelles opportunités formidables, une grande liberté s’accompagne d’une grande responsabilité, comme j’aime à le dire.
Lorsque des algorithmes décident des primes, le pouvoir passe-t-il de l’homme à la machine ?
Il s’agit d’un mythe très répandu. Le pouvoir n’est pas transféré à la machine, mais il est concentré entre les mains de ceux qui définissent les paramètres et les objectifs des algorithmes. La machine est un exécutant très efficace des intentions humaines ou de l’ignorance humaine. Le véritable changement de pouvoir s’opère au sein des hiérarchies : Le véritable changement de pouvoir s’opère au sein des hiérarchies : du gestionnaire expérimenté « à l’instinct » au stratège compétent en matière de données. Paradoxalement, la responsabilité humaine augmente précisément là où la machine prend le dessus.
La tarification personnalisée de l’IA met-elle en péril le principe de solidarité de l’assurance ?
Nous nous dirigeons vers un trilemme éthique. Techniquement, la tarification « segmentée » est presque parfaitement possible grâce à l’IA. Mais si nous considérons chaque risque individuel de manière isolée, nous détruisons l’idée fondamentale de l’assurance en tant que communauté collective. Le défi pour les PDG de DACH est de créer une solidarité intelligente. à développer : Comment utiliser les données pour la prévention (qui aide tout le monde) sans exclure ceux qui sont statistiquement « plus chers » ? Ceux qui s’appuient uniquement sur la précision technique perdront leur licence sociale d’exploitation. Au Swiss Future Institute, nous envisageons les choses sous plusieurs angles et à travers le prisme de l’avenir. Le sujet deviendra très passionnant à l’avenir en raison des développements géopolitiques, technologiques, réglementaires et sociodémographiques.
Le manque d’expertise en matière d’IA au sein du conseil d’administration constitue-t-il aujourd’hui un risque pour la gouvernance ?
Absolument. C’est comparable à un conseil d’administration des années 90 qui ne savait pas lire un bilan. Si l’organe de surveillance ne comprend pas les risques de biais algorithmiques, de monopoles de données ou de dettes techniques, il manque à son devoir de diligence. Nous n’avons pas besoin d’informaticiens au conseil d’administration, mais nous avons besoin d’une « culture algorithmique ». Ceux qui ne peuvent pas examiner la boîte noire ne peuvent pas protéger l’entreprise contre les risques systémiques de l’avenir. Aujourd’hui, il s’agit d’une question de responsabilité. En tant que membre du conseil d’administration, je continue à me former parce que je suis actuellement pertinent, capable et responsable dans mon engagement stratégique envers l’entreprise. Il ne suffit pas de se reposer sur les lauriers des succès passés, il faut aussi assurer le succès de l’avenir. Lorsque les paramètres du jeu changent, je change avec eux en tant que membre du conseil d’administration. En tant que professeur d’université et auteur sur l’IA, je parle des « compétences du futur » et de la manière dont les compétences humaines changeront à l’ère de la machine.
Combien de dirigeants sous-estiment la rapidité de l’avantage concurrentiel de l’IA ?
La majorité des gens pensent encore de manière linéaire, alors que la technologie évolue de manière exponentielle. Dans le domaine du conseil traditionnel, nous avons appris que les grands mangent les petits. À l’ère de l’IA, il en va de même : le plus rapide mange le plus lent et le plus rapide devient un géant du jour au lendemain grâce à l’IA. Le point de basculement se fait souvent progressivement, et une fois que l’avantage concurrentiel du concurrent devient visible sur le bilan, l’avance est généralement déjà inattaquable. Certains sous-estiment non seulement la technologie, mais aussi la vitesse de consolidation du marché. Rester sur la touche et regarder les autres faire la course a un coût.
La direction souhaite-t-elle vraiment une transparence totale sur sa propre logique décisionnelle ?
C’est là le nœud du problème. Nous exigeons une IA explicable parce que nous nous méfions des algorithmes. Mais les décisions humaines des cadres intermédiaires sont-elles toujours transparentes et logiques ? L’IA révèle souvent à quel point les décisions humaines sont incohérentes et biaisées. L’explicabilité est une arme à double tranchant : elle oblige les dirigeants à faire preuve d’une honnêteté intellectuelle radicale, à laquelle beaucoup sont réticents. Quiconque exige de l’IA qu’elle soit transparente doit être prêt à rendre mesurables ses propres privilèges et intuitions, à divulguer ses processus et ses paramètres.
Discrimination par l’IA : problème de données ou échec éthique ?
Un problème de données est un symptôme, l’échec éthique en est la cause. Les données ne sont que l’empreinte historique de nos erreurs sociétales. Si un modèle est discriminatoire, c’est parce que la direction a ignoré l’angle mort de son propre historique de données et ne l’a pas suffisamment testé et corrigé. Cela est possible en termes de données. Quiconque alimente une IA avec des données sales du passé et s’attend à un résultat propre agit naïvement. Aujourd’hui, le leadership éthique signifie utiliser activement l’IA comme un outil pour corriger les biais humains au lieu de copier le statu quo, d’automatiser et d’augmenter de manière incontrôlée. Il s’agit d’un élément fondamentalement pertinent qui doit être abordé dès le départ et pas seulement à la fin, lorsque l’IA est dans l’entreprise mais ne fonctionne pas comme prévu.
La loi européenne sur l’IA va-t-elle affaiblir l’Europe ou l’obliger à prendre des mesures structurées ?
La question est de savoir s’il s’agit d’une réglementation initiale, suffisante ou excessive du monde avant l’émergence du nouveau monde. Qu’est-ce qui vient en premier, l’innovation ou la réglementation ? Idéalement, l’une soutient l’autre sans l’entraver. Oui, certains considèrent la loi sur l’IA comme un fardeau bureaucratique. D’un autre côté, elle offre également la possibilité d’un label de qualité « Made in Europe ». Si nous parvenons à intégrer l’éthique et la conformité dans le processus de conception, nous construirons des systèmes auxquels les clients du monde entier feront davantage confiance qu’aux modèles du Far West américain. La confiance est un avantage concurrentiel important si nous considérons la réglementation non pas comme un panneau d’arrêt, mais comme une infrastructure à grande vitesse. Le train doit circuler rapidement et en toute sécurité sans dérailler.
Pourquoi si peu de modèles commerciaux radicalement nouveaux émergent-ils des pools de données ?
Parce que la plupart des assureurs gèrent leurs données comme des archives et non comme un laboratoire. Les données sont utilisées pour expliquer le passé (reporting) au lieu de façonner l’avenir (prédiction). En outre, les systèmes hérités et les structures en silos entravent le flux créatif. L’innovation radicale est créée aux interfaces, mais les données sont stockées dans des caves séparées. Nous devons cesser de penser en termes de produits (voiture, maison, vie) et commencer à penser en termes d’événements et de phases de la vie, que nous accompagnons à l’aide de données. Le client évolue tout au long de son cycle de vie et nous devons l’accompagner et le rencontrer là où il vit.
L’IA pourrait-elle conduire à ce que seuls les fournisseurs les plus riches en données survivent à long terme ?
La richesse des données à elle seule n’est plus un fossé si vous ne disposez pas d’un pipeline de données à l’action. Nous assistons à une polarisation : d’un côté, les géants des données, qui gagnent grâce au volume, et de l’autre, les« spécialistes » agiles, qui gagnent grâce à des algorithmes supérieurs et à des connaissances de niche. Le milieu, c’est-à-dire les entreprises qui disposent d’une grande quantité de données mais dont la mise en œuvre est lente, est écrasé entre ces deux pôles. Les gagnants ne sont pas nécessairement ceux qui ont le plus de données, mais ceux qui ont le taux d’apprentissage le plus élevé par jour. J’aime à dire que ce ne sont pas les plus grands qui survivent, mais ceux qui s’adaptent le mieux.
Faut-il imposer des profils de compétences en IA aux membres des conseils d’administration ?
En tant qu’entrepreneur et membre d’un conseil d’administration, je préconise un engagement volontaire avant l’arrivée du régulateur. Un conseil d’administration doit être capable de lire une carte d’impact de l’IA pour son entreprise. Quiconque accepte un mandat de conseil d’administration dans l’industrie financière aujourd’hui sans maîtriser les bases de l’apprentissage automatique et de l’éthique des données agit fondamentalement de manière irresponsable. Nous n’avons pas besoin de conseils d’experts, nous avons besoin de conseils dirigés par des experts qui ont une grande culture numérique. Et cela commence par le conseil d’administration.
L’IA remplacera-t-elle davantage d’emplois ou détruira-t-elle les mythes du management ?
Surtout, elle remplacera la médiocrité. Là où l’homme n’est qu’une interface humaine entre deux systèmes, l’IA prendra le relais. Mais la démystification du management est bien plus passionnante : L’IA détruit le mythe du leader omniscient. À l’avenir, le véritable leadership ne sera plus défini par la connaissance (l’IA la possède), mais par la capacité à poser les bonnes questions, à façonner la culture et à porter des jugements moraux dans des situations complexes, à relier les points et à interpréter les données. La gestion sera différente, plus difficile, et non plus facile. Dans mon livre AI Knowledge for Leaders, j’explique comment le rôle du leadership, la préparation à l’avenir et la compréhension changeront fondamentalement. Les personnes ne deviendront pas nécessairement moins importantes, mais elles prendront une signification différente.
Une vérité dérangeante sur l’IA dans le secteur de l’assurance ?
Le secteur attend le big bang, mais la disruption s’opère déjà discrètement chaque jour. L’inconfortable vérité est que de nombreux assureurs utilisent actuellement beaucoup d’argent et d’IA pour optimiser un modèle commercial qui pourrait être obsolète dans dix ans grâce à la prévention et à la gestion des risques en temps réel. Nous construisons des machines à écrire plus efficaces alors que le monde passe à la commande vocale. Je visite l’Asie, les États-Unis et l’Europe chaque année et je vois les comparaisons directes et les tendances de ce qui est déjà possible aujourd’hui. Il y a encore beaucoup de choses passionnantes à venir.
Les questions ont été posées par Binci Heeb.
Note:
Le Symposium sur l’avenir 2026 de l’Institut suisse de l’avenir aura lieu les 26 et 27 mars 2026 à Zurich .
Swiss Future Institute AG
Masterclass | Adhésion | Future Symposium | Consulting
T/WA +41795227613
Email ai@futureinstitute.ch
Follow and Connect
LinkedIn | Instagram | Youtube
Lisez aussi : LBC Insurance Radar 9 : l’IA devient une tâche de gestion