Skip to main content
Article

La nouvelle ère en Insurance Analytics, propulsée par la technologie, les outils et le talent

N/A
N/A

Février 15, 2018

Que doivent savoir les assureurs de la nature changeante des outils d’analyse ?

Les outils d’analyse avancés aident certains assureurs à proposer des solutions et des produits innovants. Que doivent savoir les assureurs de la nature changeante des outils d’analyse ? L’investissement en vaut-il la peine ? Claudine Modlin et Graham Wright, tous deux spécialistes en analyse prédictive dans le domaine de l’IARD chez Willis Towers Watson, nous parlent de technologie, d’outils et de talent – des sujets qui peuvent vous aider à décider.

Q — La tarification en assurances est clairement un domaine où même de petites améliorations peuvent constituer de grands avantages pour les assureurs. Connaissez-vous une méthode d’analyse couramment utilisée parce qu’elle est plus performante que toutes les autres ?

A — Modlin : Il n’y a pas de méthode en particulier qui serait plus adaptée à tous types de données ou problèmes commerciaux. Il est important d’explorer différentes méthodes et de considérer comment l’une d’elles sera sélectionnée.

Des méthodes comme les modèles linéaires généralisés (GLM) font partie depuis longtemps des standards industriels mondiaux pour l’analyse de la tarification. Ceci en raison de leur cadre statistique fiable, de leur haut niveau de transparence et de leur algorithme facilement utilisable dans les moteurs d’évaluation en assurance. Les assureurs explorent également des méthodes d’apprentissage artificielles pour la tarification, mais il est difficile de les imaginer remplacer complètement cette première méthode (GLM) éprouvée sur le marché. Ceci en raison de sa transparence et des problèmes de déploiement : notamment sur les marchés réglementés comme aux États-Unis. Il est plus probable qu’à court terme, les méthodes d’apprentissage artificielles soient utilisées afin d’améliorer les GLM dans la tarification pour :

  • Introduire de nouvelles variables ou combinaisons de variables dans les modèles
  • Réduire plus efficacement des listes de parfois plusieurs centaines ou de milliers de variables prédictives
  • Identifier les défauts de modèles
  • Identifier les opportunités de construire des hiérarchies de modèles (c’est-à-dire, utiliser un grand nombre de modèles simples et bien définis plutôt qu’un petit nombre de modèles complexes et approximatifs)

A — Wright : De nombreux praticiens britanniques se souviennent que voici peu de temps, les coûts des blessures corporelles causées par des accidents automobiles ont commencé à augmenter. Et les modèles n’expliquaient pas bien ce phénomène. Ce ne sont pas les machines, mais des êtres humains, qui ont observé que les sinistres avec des dégâts corporels et un dommage matériel important au véhicule, avaient une « expérience sinistre » très différente de ceux qui n’en avaient pas. Construire une hiérarchie de modèles selon ces critères a permis aux actuaires de comprendre bien plus efficacement ce qui engendrait les coûts de sinistre.

Naturellement, nous pourrions nous attendre à ce que les méthodes d’apprentissage artificiel détectent des modèles que d’autres méthodes pourraient manquer. Cependant, il n’est pas facile d’identifier et d’expliquer les enseignements que révèlent ces méthodes. Nous avons toutefois fait des progrès dans l’extraction et la visualisation des enseignements de celles-ci.

Il est également utile de noter que nous avons automatisé avec succès des méthodes comme les GLM afin qu’elles imitent encore plus les résultats de l’apprentissage automatique. Notamment lorsque le modélisateur souhaite céder le contrôle et même permettre aux méthodes statistiques de trouver des modèles que nous ne pouvons pas toujours expliquer. Ce qui est réellement au cœur du choix de la méthode : les choix des praticiens varient en fonction de leur capacité à interpréter ou à comprendre. Cela constitue des exigences essentielles envers leurs modèles.

Q — Mais le choix de la méthode ou du modèle est-il vraiment ce qui compte dans les outils d’analyse des assurances ?

A — Wright : En soi, non – c’est une dimension. J’aime y penser comme le fait de demander à la machine de réaliser des activités de routine et de permettre aux êtres humains de penser intelligemment. La plus-value de notre rôle réside dans la définition du problème afin de mieux utiliser les outils d’analyse. Considérez l’organisation de chaque analyse en quatre quadrants (voir le schéma).

Méthode versus problème

Chart showing méthode versus problème

Nous avons longtemps vécu dans la partie en haut à gauche, concentrés à faire ce que nous avons toujours fait, mais en le faisant mieux à chaque fois. Le battage autour des méthodes et les arcanes des propositions d’outils d’analyse faisant appel à l’externalisation, comme sur Kaggle se réduisent la colonne de gauche, concourant pour savoir quelle est la meilleure méthode. En soi, son unique composante (la méthode) passe à côté de la question. Le problème doit être correctement défini avant de lui imposer de nouvelles méthodes.

A — Modlin : Je suis d’accord. La définition du problème peut avoir un rapport avec la réponse que nous essayons de prévoir. Les gestionnaires de sinistres cherchent des outils d’analyse avancés afin d’aider à identifier des sinistres potentiellement complexes à un stade précoce du cycle de vie afin qu’ils puissent être gérées avec les ressources et les protocoles appropriés. Le défi consiste à savoir comment définir le terme « complexe », qui tend souvent à être défini comme un sinistre potentiellement important, ou de probabilité potentiellement élevée. Cependant, il y a un bénéfice marginal dans un modèle qui informe les gestionnaires de sinistres quels incidents résulteront en sinistres importants. Un modèle de réponse plus approprié pour l’identification de la complexité peut éventuellement être lié au niveau d’intensification de la sévérité du sinistre (c’est-à-dire la différence entre la valeur de remboursement et la réserve constituée initialement).

Les caractéristiques que nous considérons dans nos prévisions peuvent également définir le problème. Des techniques comme la modélisation du sujet ouvrent la voie à la création d’indicateurs totalement nouveaux. Par exemple, en extrayant des données non structurées comme les notes des enquêteurs d’assurances.

A — Wright : En pratique, la définition du problème n’est pas aussi simple qu’une caractérisation discrète (comme le montre le schéma), mais plutôt un spectre continu. Le meilleur gain potentiel en perspicacité serait de résoudre les problèmes récemment définis par des techniques récemment définies.

A — Modlin : Il est également important que les « quantitatifs » et les experts du domaine se mettent d’accord sur les indicateurs clés qui devraient être utilisés afin d’évaluer différentes méthodes pour le monde des affaires. Les statisticiens se fient souvent à des évaluations statistiques pures qui permettent de démontrer l’amélioration d’un modèle par rapport à un autre. En fait, c’est la métrique de choix utilisée dans les « substituts » des compétitions sur Kaggle. Cependant, cette méthode n’est pas très utilisée par les professionnels, qui sont plutôt intéressés par les indicateurs clés de performance, comme l’amélioration du taux de sinistralité ou des économies de frais.

En outre, le degré de précision doit être adapté en fonction du domaine d’application. Par exemple, une application marketing qui vise à segmenter des clients en trois grandes catégories ne requière pas le même degré de précision ou d’effort qu’une segmentation tarifaire. Enfin, avant qu’un projet d’outils d’analyse ne soit mis en place, il est important que toutes les parties prenantes discutent de la transparence/de « l’interprétabilité » du modèle et des exigences de déploiement.

Q — Tout cela est très bien, mais pourquoi les assureurs doivent-ils investir dans des outils d’analyse avancés ? Quelle est leur valeur ajoutée ?

A — Modlin : Nous avons démontré à travers de nombreux travaux qu’il existe un certain avantage à intégrer une gamme de techniques dans la résolution de problèmes liés aux assurances. Dans certaines circonstances, les méthodes d’apprentissage automatique sont plus performantes que les techniques statistiques traditionnelles, prévoyant des pertes ou d’autres types de comportement du client. Mais la concrétisation de cette valeur ajoutée dépend largement de ce que requiert la mise en place de ces nouvelles méthodes. Certaines applications comme la tarification et l’assurance demandent un haut niveau « d’interprétabilité » pour différents types d’organisme (régulateur, agent, assureur et client). D’autres applications, comme le développement de listes de marchés cibles ou l’identification de déclarations de sinistres potentiellement frauduleuses, peuvent ne pas requérir le même niveau de compréhension. En outre, de nombreux assureurs éprouvent actuellement des difficultés liées au déploiement de certains résultats provenant de ces nouvelles techniques qui varient en fonction de l’application et sont en constante évolution.

L’évolution des technologies a permis l’existence d’outils d’analyse avancés. Dans le secteur de l’assurance, on se situe pour celle-ci probablement près du pic des attentes exagérées sur le graphe du « Cycle du Hype » de Gartner (courbe décrivant l'évolution de l'intérêt pour une nouvelle technologie). La plupart des gens serait d’accord pour dire qu’il existe encore du travail à réaliser avant d’atteindre enfin un état stable et une meilleure productivité. Il y a encore une incertitude liée à ce « voyage » : combien de temps durera-t-il ? Et quelle importance de gains de productivité durables cela engendrera-t-il ? Le consensus général est qu’il y a plus d’expérimentation et d’apprentissage que de mise en œuvre pratique de ces nouveaux outils, mais cela va changer. L’apprentissage encouragera la mise en place, ce qui produira des bénéfices tangibles à un stade précoce. Et une recherche continue accentuera encore les bénéfices et créera un avantage compétitif à un stade précoce.

A — Wright : Au Royaume-Uni et aux États-Unis, nous avons constaté des vagues de transformations du système ayant eu lieu une fois par génération, ce qui permet aux assureurs de surmonter certains de ces défis de mise en place progressivement. Ceci dit, le défi de « l’interprétabilité » subsiste.

Dans le contexte de la méthode versus le problème (voir le schéma), il existe une plus-value à se « déplacer » en bas à droite de la grille. Il reste à savoir dans quelle mesure une valeur supplémentaire est produite.

Même sans mettre en œuvre un changement intégral dans l’approche, les connaissances acquises lors de l’utilisation de techniques d’analyse de données offrent une immense plus-value. Certaines solutions agissent comme des facteurs favorables et ne sont pas attribuables à la ligne du bas. Par exemple, les outils d’analyse exploitant de grands portefeuilles de données peuvent assister les stratégies marketing de segmentation plus affinées et fournir une valeur à long terme.

Q — Quel est votre point clé à retenir pour les praticiens de l’assurance ?

A — Modlin : Le secteur des assurances bénéficiera sans aucun doute du développement du vivier de talents et des outils. Notre secteur fait face au défi posé par les nouveaux outils d’analyse : articuler le problème correctement plutôt que de se concentrer excessivement sur l’essai de nouvelles méthodes. Les méthodes sont évaluées à travers des mesures statistiques et commerciales. Les exigences de mise en place doivent toujours être prises en compte. Nous vivrons des réussites et des échecs à court terme, mais même les échecs nous apprendront comment tirer profit des outils d’analyse avancés.

A — Wright : Nous avons besoin d’un équilibre de connaissances dans le domaine des assurances et d’expertise en sciences des données afin de bénéficier pleinement des outils d’analyse avancés. Les nouvelles techniques s’occupant de problèmes existants apporteront sûrement quelques bénéfices. Mais la valeur réelle proviendra de la perception et l’identification de nouveaux problèmes associés au déploiement de l’apprentissage artificiel sur les bonnes tâches. Tandis que le rôle de l’analyste traditionnel n’est pas à risque, il subira tout de même un changement. Les méthodes d’apprentissage artificiel sont à déployer sur les bonnes tâches, permettant de se concentrer sur le travail à valeur ajoutée.

Contact Us
Related content tags, list of links Article