La confiance n’est pas une fonctionnalité

L’appel est arrivé peu après 21 heures. Une voix de client, calme mais tendue en dessous. Et une question qui va plus loin que n’importe quel sinistre refusé : si […]


La confiance n'est pas une fonctionnalité : chronique mensuelle de Marcus Selzer.

La confiance n'est pas une fonctionnalité : chronique mensuelle de Marcus Selzer.

La confiance n'est pas une fonctionnalité : chronique mensuelle de Marcus Selzer.

L’appel est arrivé peu après 21 heures. Une voix de client, calme mais tendue en dessous. Et une question qui va plus loin que n’importe quel sinistre refusé : si quelqu’un s’engage encore vraiment dans ce secteur. Une question qui reste.

L’appel a été passé peu après neuf heures.

Une cliente, la cinquantaine, assurée depuis vingt ans, voix calme, mais on sentait la tension en dessous. Son sinistre avait été refusé, automatiquement, personne n’avait jamais regardé.

Elle n’a pas demandé : « Pourquoi l’algorithme a-t-il calculé cela comme ça ? »

Elle a demandé : « Quelqu’un d’autre va-t-il m’aider ici ? »

Je n’ai pas oublié cette phrase, non pas à cause de la cliente, mais à cause de la question qu’elle a suscitée en moi : Qui lui aurait répondu ?

La tentation silencieuse de l’efficacité

Nous vivons actuellement un moment où le secteur de l’assurance est confronté à une tentation silencieuse, non pas la tentation de prendre trop de risques ou de ne pas assez réglementer, mais une tentation plus ancienne et plus subtile : la tentation de céder des responsabilités sans avoir à les appeler ainsi.

On appelle cela l’efficacité. On appelle cela la mise à l’échelle. On appelle cela la numérisation, et en dessous, il y a parfois autre chose.

Quand les décisions sont déléguées

J’observe ce schéma depuis des années, pas seulement dans l’assurance, mais partout où les décisions sont de plus en plus déléguées à des systèmes. Et j’observe à quel point les dirigeants semblent souvent soulagés lorsqu’un algorithme prend une décision difficile : pas de discussion, pas de remise en question, pas de conversation désagréable. Le malaise ne vient que plus tard, généralement lorsque quelqu’un appelle.

La question sous-jacente n’est pas une question de technologie, c’est une question de caractère : qu’est-ce que je suis prêt à assumer moi-même ?

Pourquoi la confiance est humaine

Voici ce qui se passe psychologiquement dans ces moments-là. D’un point de vue neurobiologique, la confiance ne vient pas du fait que quelqu’un peut comprendre une décision, mais du fait qu’il sent qu’une autre personne l’assume. Notre cerveau a évolué pour faire confiance à des acteurs sociaux, des êtres qui ont des intentions, peuvent faire des erreurs et en assument les conséquences.

Les algorithmes n’entrent pas dans cette catégorie, non pas parce qu’ils décident moins bien, mais parce qu’ils ne peuvent pas s’engager.

Aversion algorithmique

Cela signifie que même si un système prend la meilleure décision objective, statistiquement plus fondée, plus juste qu’un être humain ne le ferait jamais, il ne peut pas établir la confiance, non pas parce qu’il a tort, mais parce que le cerveau de l’autre personne ne reçoit tout simplement pas de signal de confiance.

En sciences du comportement, on appelle cela l’aversion algorithmique: la profonde aversion pour les jugements algorithmiques dès que quelque chose ne va pas. C’est documenté, reproductible et parfaitement humain. Pour le secteur de l’assurance, cela signifie quelque chose de concret : les clients qui reçoivent une décision automatisée ne remettent pas en question le système en cas de refus. Ils remettent en question la relation.

Quand les gens ont le droit de faire des erreurs

Si une personne prend une mauvaise décision, elle peut s’expliquer. Elle peut dire : j’ai vu les choses de cette façon et j’avais tort. Elle peut s’excuser, réévaluer le cas, regagner la confiance petit à petit. Ces moments sont désagréables, mais ils constituent le fondement sur lequel la perte de confiance est réparée.

Un algorithme ne peut pas faire cela : il continue à optimiser selon les mêmes paramètres jusqu’à ce que quelqu’un change les paramètres, et pour la cliente, cela signifie qu’elle ne peut appeler personne, convaincre personne, mais seulement accepter ou porter plainte.

La réglementation comme réalité

Les régulateurs l’ont déjà compris, même si le secteur hésite encore. La FINMA et les directives européennes exigent de plus en plus que les décisions automatisées soient explicables, non pas par scepticisme vis-à-vis de la technologie, mais parce que les régulateurs savent ce que les psychologues savent depuis longtemps : Une décision que personne ne peut justifier n’est pas une décision. C’est un risque.

En discutant avec des dirigeants qui doivent prendre des décisions sous pression, j’observe régulièrement comment les systèmes de décision automatisés établissent inconsciemment un phénomène que les psychologues appellent la diffusion de responsabilité. La responsabilité se répartit si largement sur le système, les données, le modèle et la supervision qu’au final, plus personne n’est vraiment responsable. Tout le monde a participé à la décision, personne n’a décidé.

Le courtier face à un dilemme

C’est tentant pour les dirigeants des organisations axées sur l’efficacité, mais c’est dangereux pour l’existence des courtiers, car le courtier se trouve au milieu. Il a conseillé la cliente, recommandé le produit, établi la relation. Si l’assureur refuse de manière automatisée et que le courtier doit expliquer sans connaître la décision, il se retrouve sans réponse devant sa clientèle.

Cela n’endommage pas le système. Cela l’endommage.

Qui nous voulons être

Je n’écris pas ici sur la technologie, mais sur ce que nous voulons être lorsque le système décide pour nous. Cela se voit tous les jours, dans des moments concrets : Qui signe une décision prise par un modèle sans la remettre en question ? Qui explique à une cliente pourquoi son sinistre a été refusé, en restant réellement présent au lieu de renvoyer au système ? Qui prend en charge la conversation que personne ne veut avoir ?

Le leadership se manifeste dans l’inconfort

Le leadership ne se mesure pas à la manière dont on met en place des systèmes. Il se manifeste dans la manière dont on gère ce que les systèmes ne peuvent pas faire.

Et les systèmes ne peuvent pas s’engager : Seuls les êtres humains le peuvent.

La question n’a jamais été : « Combien d’IA allons-nous utiliser ? » La question a toujours été : « Qu’est-ce que je suis prêt à assumer moi-même ? »

Une promesse qui tient

L’efficacité est importante, la mise à l’échelle est importante, et les modèles qui prennent des décisions mieux qu’un être humain sous la pression du temps sont importants. Mais l’assurance, réduite à sa plus simple expression, est une promesse : Vous payez aujourd’hui pour que quelqu’un soit là demain si quelque chose se passe mal. Cette promesse ne fonctionne pas parce qu’on peut la calculer. Elle fonctionne parce que vous y croyez.

Et la foi a besoin de quelqu’un qui la défende.

La confiance n’est pas une fonctionnalité que l’on peut intégrer dans un modèle. C’est une attitude que l’on choisit ou non au quotidien.

À la fin, quelqu’un décolle

La cliente de l’autre jour a été remboursée de son sinistre après qu’une personne ait jeté un coup d’œil. Elle a appelé une amie pour lui dire qu’elle était bien assurée.

Cela ne figure dans aucun KPI, mais c’est la seule raison pour laquelle cette industrie existera encore demain. Derrière tout cela, il y a quelqu’un qui a décroché le téléphone.

Marcus Selzer

Lire aussi : Quand la tête bat l’IA


Tags: #Algorithme #Confiance #Courtier #Dilemme #Erreur #Humain #Promesse #Réclamation #Règlement #Tentation