Les nouveaux enjeux de l’assurance, entre segmentation et mutualisation
Au cœur de l’activité des assurances, le concept de mutualisation des risques est fondamental.
Basé sur la loi des grands nombres, la logique de mutualisation implique de considérer que les dommages subis par un ensemble d’individus sont des variables aléatoires identiques et indépendantes. Autrement dit, ce principe suppose d’être appliqué au sein d’une population de risques homogènes, d’où les segmentations en classe d’assurés avec des profils et des risques différents entre les groupes et homogènes dans les groupes.
Cependant, l’explosion exponentielle des données (Big Data) et des moyens de collecte de plus en plus complexes (Objets connectés / IoT) permet aujourd’hui un affinage de ces segmentations en groupes plus restreints, et donc conduit potentiellement à l’idée de tarification individuel entrainant un paradoxe avec le principe de base de la mutualisation des risques à l’origine des assurances.
Analyse prédictive, Big Data et Assurance
Le principe actuariel de découpage en groupes homogènes en termes de risque, basé historiquement sur peu de données, semble atteindre ses limites obligeant à repenser ses principes grâce aux nombreuses innovations émergentes. En effet, les données sont de plus en plus nombreuses et détaillées, provenant des assurés eux-mêmes qui sont plus ouverts à fournir des données en échange d’une amélioration des conditions (prix, couverture, …) ou en provenance de services et de nouvelles technologies, notamment les objets connectés, conduisant à des segmentations très fines opposées au principe de solidarité entre assurés. La problématique actuelle des assureurs est donc de savoir s’il est nécessaire et pertinent de segmenter finement et à quel niveau. Dans ce contexte, les travaux de Charpentier et al. [1] offre une vision assez simple et compréhensive des enjeux actuels.
Le principe de la mutualisation tend à regrouper des assurés potentiellement exposés à des risques identiques, traités cependant de manière aléatoire. Cette mutualisation des risques impose un calcul de probabilités permettant d’expliquer que les statistiques revêtent une importance majeure dans le domaine de l’assurance. Si les grandes compagnies se montrent assez souples dans leur politique de souscription, c’est justement parce que le nombre d’assurés est élevé, ce qui permet en parallèle d’offrir des tarifs attractifs. Une compagnie d’importance moindre est logiquement plus sélective avec une prise de risques moins élevée et donc des tarifs également compétitifs. L’assurance repose donc sur cet équilibre entre la nécessité d’avoir un segment suffisamment large pour être fiable et la nécessité de proposer un prix compétitif et accessible aux assurés dont les risques sont peu élevés. Le profil de chaque assuré potentiel ayant une influence majeure sur le tarif de la cotisation, comparer les offres devient une étape difficilement incontournable.
Au travers de la définition de ce principe, on voit donc deux points clés :
- d’une part le calcul du risque le plus fin possible
- et d’autre part la concurrence entre les assurances.
L’explosion des données permet d’avoir une connaissance plus précise des comportements mais aussi de proposer, au travers de comparateurs, des outils de décision pour la meilleure garantie au meilleur prix. Le Big Data permet ainsi de faire passer l’assurance de l’analyse simple à l’analyse prescriptive.
Le périmètre des données devient nécessairement de plus en plus vastes ne se limite plus aux données disponibles en interne. Il n’est pas ici question de tendre vers « l’infobésité » (en accumulant toujours plus d’information non exploitée) mais plutôt de se donner de nouveaux angles de vue en s’appuyant sur quatre sources principales de données :
- Les « logs » des sites internet et « third party data » i.e. formulaire, cookies, … permettant ainsi de mesurer les comportements en termes de navigation, configuration, temps passé …
- Les « insights » des médias sociaux : analyse de sentiments, animation pertinente de communautés, diffusion d’informations et récolte de retours produits.
- L’Open data : ensemble de données publiques gratuites mise à disposition par les organismes publics comme l’Etat ou les collectivités locales telles que data.gouv.fr ou la sécurité sociale.
- L’internet des Objets (IoT) permettant de collecter des informations provenant d’objets connectés (téléphones mobiles par exemple).
L’apport de ces données en complément des données disponibles aux seins des systèmes d’informations de gestion, permet aux assureurs :
- Connaître plus précisément des comportements pour affiner au plus près les garanties et les prix.
- Répondre aux attentes des assurés ou futurs assurés de payer un prix correspondant à leurs véritables risques
- Utiliser la collecte des données des objets connectés pour personnaliser les tarifs et les faire évoluer en temps-réel.
- Lutter contre la fraude en identifiant des comportements anormaux.
- Devancer la résiliation d’un contrat ou un besoin nouveau (affiner le taux d’attrition).
- Augmenter la conversion de souscriptions en ligne
- Permettre d’offrir de la prévention, des conseils et/ou un accompagnement plus personnalisés.
Segmentation ou mutualisation ?
Le calcul des tarifications des assurés tel qu’effectué pour le moment est basé sur des facteurs de risques. Sans segmentation, le juste prix d’un risque est l’espérance mathématique de la charge annuelle. En d’autre termes, la somme des primes doit permettre d’indemniser l’ensemble des sinistres survenus par les assurés. Dans ce cas, en moyenne, l’assureur est à l’équilibre mais doit supporter à sa charge l’intégralité du risque reposant sur l’hétérogénéité du portefeuille.
A l’inverse, si l’on suppose une tarification avec une segmentation idéale, c’est-à-dire que l’assureur dispose d’une connaissance parfaite des classes de risque. Ainsi, l’assureur sera en moyenne à l’équilibre, mais le risque est reparti par ce dernier et les segments (auto-régulation intra-groupe).
Illustrons notre cas par deux assureurs sur le marché. La première société ne segmente pas alors que la seconde tient compte de l’information parfaite dont elle dispose. Les travaux de Charpentier et al. montrent que les « bons » risques ont une prime plus basse chez l’assureur qui segmente et que les « mauvais » risques ont une prime plus basse chez l’assureur qui ne segmente pas. Dans ce cas de figure, l’assureur qui ne segmente pas n’ayant plus les « bons » risques pour garantir un équilibre financier menace de s’effondrer, tandis que la segmentation assure de rester à l’équilibre en limitant des contrats périlleux. Ainsi, on entre alors dans une « spirale de la segmentation » dans laquelle les assureurs qui ne segmentent pas courent à leur perte.
Cependant, malgré une explosion des données, la connaissance parfaite des classes de risque reste utopique. Il est donc plus réaliste de supposer que l’assureur dispose d’un ensemble de variables explicatives plus ou moins important mais non exhaustif. En se replaçant dans un contexte de concurrence avec un assureur ne segmentant pas, on retombe sur un cas comparable au précédent, à savoir que les assureurs qui segmentent sont en moyenne à l’équilibre alors que ceux qui n’ont pas segmenté perdent de l’argent (en moyenne) en attirant massivement les « mauvais » risques. Néanmoins, les auteurs de l’étude exposent également que, dans ce cas, l’assureur, segmentant, peut aussi se retrouver avec une part de marché faible induisant un autre risque lié à la taille de son portefeuille (plus volatile).
Alors, pour disposer d’une vision encore plus réaliste, il est nécessaire d’étudier le cas où ces différents assureurs coexistent sur le marché : un assureur ne segmentant pas, deux assureurs segmentant imparfaitement et un dernier segmentant plus finement. Les conclusions des auteurs de l’étude [1] sont les suivantes :
-
- D’un côté, l’assureur, qui ne segmente pas, se trouve en réelle difficulté car il a récupéré les plus « mauvais » risques, largement sous-tarifés.
- De l’autre côté, l’assureur qui segmente le plus finement est certes à l’équilibre financier, mais sur une niche de population beaucoup plus petite ; de plus, la variabilité de son ratio sinistres/primes est très importante. Cette société a quasiment une chance sur cinq d’avoir un ratio plus mauvais que celui du marché.
Au travers de leur étude assez simpliste dans l’approche, on voit le comportement des assurances évoluer. Néanmoins, l’utilisation de la prime pure comme prime n’est pas suffisante car elle ne tient pas compte de la marge de solvabilité généralement utilisée. Dans ces conclusions, la société qui a ici le plus segmenté pourrait alors disparaître du marché.
En conclusion …
La segmentation et la mutualisation apparaissent clairement comme les deux faces d’une même pièce pour reprendre les termes de Charpentier et al.
L’évolution des comportements, et plus particulièrement des attentes des assurés induit par les évolutions technologiques permet une connaissance et donc une anticipation des besoins plus précise qui semble être à l’encontre du principe de mutualisation. Néanmoins, ce besoin exprimé, dans un contexte de concurrence, elle-même exacerbé par les nouvelles technologies (meilleure connaissance des produits, comparateurs, …) doit trouver une réponse satisfaisante tout en imposant une solidarité minimale.
Ce changement de paradigme dans lequel l’assuré est au centre, participatif et acteur, bouleverse le paysage de l’assurance. Il n’est actuellement pas possible de mesurer l’ampleur de la spirale de la segmentation ; certains avançant une possible responsabilisation des assurés, poussant les assureurs à repenser les missions de prévention, d’autres des limites sociales laissant des personnes sans protection.
Toutefois, ce virage se doit d’être négocié avec l’accélération des technologies L’art de la tarification devient désormais beaucoup plus subtil en tenant compte de facteurs qui apparaissaient encore récemment comme non mesurables mais qui peuvent et doivent maintenant être investigués.
[1] Arthur Charpentier, Michel Denuit et Romuald Elie, 2016, Segmentation et mutualisation les deux faces d’une même pièce ?, http://freakonometrics.hypotheses.org/19659