Fonctions de dommages – Architecture – e-flux


L'industrie de l'assurance est un consolidateur influent des connaissances sur les risques. Accident après accident et peste après peste, les assureurs gagnent leur vie en rassemblant des données sur les événements dangereux et les personnes qu'ils affectent. Les informations sur les pertes passées permettent aux assureurs de «regarder» l'avenir. Avec suffisamment de points de données, un assureur peut estimer la probabilité qu'une calamité spécifique arrive à une personne aléatoire tirée de la population en général. Ces connaissances actuarielles aident un assureur à fixer un prix pour ses services, mais elles ont aussi d'immenses conséquences pour d'autres secteurs de la vie économique et sociale.

Dans le domaine de l'immobilier, par exemple, la manière dont les assureurs évaluent les risques de catastrophe naturelle influence à la fois la constructibilité et la conception de l'environnement bâti. Les assureurs savent quels bâtiments subissent le plus de dommages dans différentes conditions de catastrophe et ajustent leur souscription en conséquence. Cependant, avec l'avènement du changement climatique, la nature ne se comporte plus comme avant, et les données passées deviennent moins prédictives des événements futurs. En conséquence, les assureurs et les sociétés d'analyse auxiliaires qui les desservent sont sous pression pour développer de nouvelles stratégies de gestion de l'exposition aux risques climatiques. Ces nouvelles stratégies reposent sur le fait de rendre l'environnement bâti plus lisible pour l'évaluation des risques, mais ce faisant, elles créent également de nouvelles vulnérabilités pour les assurés individuels.

Simulation d'événements catastrophiques

Les conditions météorologiques extrêmes ont longtemps posé un défi aux modes traditionnels d'évaluation des risques. Comme les événements catastrophiques sont relativement rares, ils ne se prêtent pas aux statistiques actuarielles qui définissent d'autres pertes assurables (comme les accidents de voiture, les cambriolages à domicile ou les incidences de cancer). Ce problème de «non-calculabilité» a changé dans les années 1980, lorsqu'un groupe de sociétés tierces appelées «catastrophe» ou modélisateurs «cat» a développé un moyen d'estimer l'occurrence des catastrophes naturelles à l'aide de simulations informatiques. Ces sociétés sont apparues explicitement pour servir les assureurs qui, jusque-là, s'étaient souvent appuyés sur des techniques informelles pour évaluer leur exposition aux catastrophes.

Les modèles Cat ont réussi à ajouter de la précision et de l'exactitude pour estimer les efforts en combinant plusieurs formes d'expertise. Les «modules de risque» des modèles utilisent des méthodes stochastiques pour générer des milliers de catastrophes modélisées en fonction des paramètres des catastrophes passées (c'est-à-dire les tremblements de terre, les inondations, les incendies de forêt et les conditions météorologiques extrêmes). Pendant ce temps, le «module de dommages» encode des informations techniques sur l'environnement bâti, tirées de bases de données contenant des détails sur toutes les immobilisations du portefeuille d'un assureur (c'est-à-dire les types de bâtiments, la matérialité de ces structures et leurs dates de construction). Enfin, un modèle de perte financière traduit les vulnérabilités physiques en dollars et en cents.

Schéma d'un modèle de catastrophe, avec ses trois modules: le module de risque, le module de dommages (ou de vulnérabilité) et le module de perte financière. La conception des modèles est restée pratiquement inchangée depuis leur création au milieu des années 1980. De Richard Murnane, «Modèles de risque de catastrophe pour les incendies de forêt dans l'interface entre la forêt et la ville: ce dont les assureurs ont besoin», Examen des dangers naturels, 7, non. 4 (2006): 150-156.

Chaque type de catastrophe suit la formule générale, avec des ajustements et des ajustements évidents. Compte tenu des ouragans de l'Atlantique Nord, les modélisateurs prennent le petit enregistrement d'ouragans qui ont touché terre (moins de deux cents points de données) pour produire des tempêtes «synthétiques» plausibles dans le module de risque. Ces événements synthétiques se déroulent dans une version simulée du bassin de l'Atlantique Nord où, tout comme le monde réel, beaucoup tournent sans danger vers la mer. Finalement, cependant, certaines tempêtes tournent à l'intérieur des terres où leurs trajectoires virtuelles les mettent en contact avec le littoral américain. Cette rencontre entre les vents destructeurs d'un ouragan synthétique et une copie informatique d'une communauté côtière se produit sur des milliers d'itérations dans le modèle jusqu'à ce qu'une distribution statistique soit atteinte qui représente la propagation des tempêtes susceptibles de frapper un territoire donné (si cela était possible recueillir ce nombre d’observations, ce qui prendrait des milliers d’années). Cette distribution est ce qui produit des estimations actuarielles des dommages.

Au départ, la simulation des risques a résolu la sous-estimation généralisée du risque qui affectait les techniques d’évaluation antérieures des assureurs. Mais le changement climatique soulève de nouvelles questions sur les estimations des pertes basées sur des modèles de catastrophe. Cela est d'autant plus vrai que les catastrophes naturelles semblent devenir de plus en plus destructrices, érodant l'utilité des données de référence historiques.

Une réponse des modélisateurs de chats à ces changements dans les conditions météorologiques extrêmes a été d'essayer de combiner les données de modèles climatiques projectifs avec leurs techniques de simulation. Jusqu'à présent, cela a été un ajustement inconfortable. Les modèles climatiques sont basés sur des équations thermodynamiques du comportement atmosphérique, et les demandes de calcul d'estimation dynamique (plutôt que stochastique) de phénomènes tels que l'activité des ouragans restent une approche coûteuse et non testée commercialement pour l'estimation des catastrophes au niveau des propriétés. Cela a poussé les modélisateurs de chats à prendre des raccourcis scientifiques qui ont produit des estimations de pertes douteuses, qui à leur tour ont obligé les régulateurs américains de l'assurance à exclure l'utilisation de nouveaux modèles pour fixer les tarifs de l'assurance habitation.

Visualisation d'un modèle climatique de circulation globale. Les courants d'air réguliers et les tourbillons à travers l'Atlantique Nord sont facilement visibles. Cependant, le comportement important d'un ouragan – ce qu'il fait dans les dernières étapes de sa vie – est très erratique et se produit à une si petite échelle dans le système mondial, ce qui rend sa modélisation extrêmement difficile à l'aide de méthodes de modélisation dynamique. © Laboratoire national Los Alamos, 2015.

En raison en partie des défis du changement climatique, les modélisateurs de chats s'efforcent maintenant de créer plus de légitimité dans leurs simulations de dangers troublés en élargissant leurs connaissances sur l'environnement bâti. Plus les modélisateurs disposent d'informations sur les bâtiments dans leurs bases de données, mieux ils peuvent prévoir comment un bâtiment réagira sous différentes contraintes. Cela renforce l'exactitude des estimations de sinistres qu'ils vendent aux assureurs, quelle que soit la météo. Les sociétés de modélisation sont donc dans une course pour accumuler des données «complètes» sur les structures existantes aux États-Unis.

L'imagerie spatiale capturée par des drones et des avions, ou en grattant sur le Web des photos existantes de bâtiments, est l'une des façons les moins chères d'y parvenir. Bien qu'en partie destinées à stabiliser la confiance dans les outils d'évaluation des risques catastrophiques des assureurs, ces pratiques de données participent également à des tendances économiques plus larges consistant à exploiter les données des consommateurs, souvent à l'insu du consommateur, afin de construire des connaissances plus prédictives sur le comportement individuel à l'avantage de ceux-ci. qui collectent les données. En soumettant les espaces privés de nos maisons à de nouvelles formes d’observation des entreprises, les mouvements des assureurs vers la «globalité» ressemblent à ce que le spécialiste des affaires Shoshana Zuboff appelle le «capitalisme de surveillance». L'imprévisibilité des conditions météorologiques extrêmes fournit une justification pour scruter nos maisons et nos entreprises d'une manière sans précédent, couplant la promesse de produits d'assurance moins chers et plus réactifs avec des flux de revenus encore imprévus offerts par les nouvelles formes de big data. Mais si de meilleures données sur les bâtiments peuvent contribuer à réduire l'exposition des assureurs au niveau de leurs portefeuilles, elles ont également le potentiel d'introduire les consommateurs à de nouveaux risques liés aux algorithmes.

Catalogage des vulnérabilités

La collecte de données sur la vulnérabilité de l'environnement bâti est une tâche sans fin. La nouvelle construction se marie à l'ancienne à mesure que les matériaux de construction changent et que les conceptions évoluent pour répondre aux normes architecturales de l'époque. Les assureurs immobiliers ont intérêt à connaître à la fois la valeur et les caractéristiques des structures qu'ils assurent. En conséquence, les assureurs et les sociétés de modélisation de chats qu’ils emploient, rassemblent des informations rudimentaires sur ce qu’un des premiers théoriciens des modèles de chats appelait «éléments à risque»: un catalogue de tous les bâtiments contenus dans le portefeuille de polices d’assurance d’un souscripteur. Ces informations sont également connues sous le nom de «données d’exposition» de l’assureur ou, plus familièrement, de «livre des affaires».

Du point de vue du modélisateur, les données les plus importantes sur les «éléments à risque» sont leur emplacement, leur occupation, leur hauteur, le type de construction et l'année de construction. Celles-ci sont considérées comme les «caractéristiques principales» d’un bâtiment et les principaux ingrédients qu’un modeleur de chat utilise pour évaluer la vulnérabilité du bâtiment. Par exemple, l’occupation d’un bâtiment dépend de sa fonction: s’agit-il d’un bâtiment résidentiel, industriel ou commercial? S'il s'agit d'une résidence, s'agit-il d'une maison unifamiliale ou multifamiliale, d'un immeuble d'appartements ou d'un condominium? Le type de construction englobe les matériaux de base utilisés dans la structure d’un bâtiment: le bâtiment est-il en bois ou en maçonnerie? La maçonnerie est-elle renforcée ou non renforcée? S'il est renforcé, est-ce en acier ou en béton? La hauteur, quant à elle, compte pour les dangers tels que le vent, les incendies et les tremblements de terre, car ces événements interagissent différemment avec les structures hautes par rapport aux plus courtes. Et la date de construction sert de proxy pour les informations sur la qualité et la conception d'un bâtiment – impliquée par l'évolution des codes du bâtiment locaux.

Ces données sont stockées par les modélisateurs dans des tables d'attribution qui servent à construire des relations mathématiques entre différentes classes de bâtiments et leur potentiel de perte dans différents scénarios de catastrophe. Pour de nombreux bâtiments, ces données sont incomplètes et les modélisateurs doivent saisir des variables fictives dans leurs tableaux, ce qui réduit la précision de leurs prévisions. Certains propriétaires – en particulier de structures commerciales de grande valeur – ont cherché des moyens d'améliorer la façon dont les modélisateurs mesurent leur vulnérabilité afin de réduire leurs primes. Les propriétaires le font en payant des inspecteurs pour collecter des données sur ce qu'on appelle des «caractéristiques secondaires». Pour les immeubles commerciaux et de bureaux, ces caractéristiques comprennent des catégories plus fines de conception structurelle, par exemple si les garages de stationnement font partie de la structure ou non. Si oui, sont-ils souterrains ou hors sol? Le système HVAC est-il installé sur le toit ou à l'intérieur? Les objets à l'intérieur du bâtiment sont-ils vulnérables à l'eau ou résistants à l'eau? Les fenêtres sont-elles en verre trempé ou résistantes aux chocs? Chaque caractéristique implique une relation différente avec la vulnérabilité.

Codes de classe de construction UNICEDE pour les structures en bois; chaque numéro de code est lié à une fonction de dommages exclusive au sein du modèle de chat Touchstone® de la société d'analyse des risques AIR. © AIR Worldwide 2019.

Pour garder une trace des informations sur les «éléments à risque», les modélisateurs attribuent des codes à chaque caractéristique d'un bâtiment. Ces schémas de codage, avec des noms tels que Universal Cession Electronic Data Exchange (UNICEDE) et Exposure Data Model (EDM), fournissent un «dictionnaire de données» de l'environnement bâti. Chaque catégorie codée relie les informations sur les structures dans le monde réel à une taxonomie normalisée qui est utilisée pour cataloguer et peupler une version virtuelle des biens assurés dans un modèle de catastrophe. Cependant, l'information utile pour les assureurs est de comprendre les pertes potentielles qu'une catastrophe naturelle, comme un ouragan, pourrait infliger si elle rencontre les bâtiments de leur portefeuille.

Prédire la perte

Les dommages causés par un événement tel qu'un ouragan peuvent être définis mathématiquement comme les effets d'une force, dans ce cas la vitesse du vent, sur l'intégrité matérielle d'une structure sur la trajectoire d'un ouragan. À mesure que la vitesse augmente (101 mph, 102 mph… 155 mph), l'intégrité structurelle diminue, jusqu'à ce qu'à un moment donné un bâtiment soit complètement compromis (100% de dégâts). Don Friedman, un pionnier de la modélisation des catastrophes, a conceptualisé cela comme les «relations de vulnérabilité des« éléments à risque ».» Dans les versions actuelles des modèles de chat, cette notion de vulnérabilité a été davantage formalisée en une famille d'algorithmes appelée «dommages les fonctions." Ces équations mathématiques prédisent le comportement des caractéristiques primaires et secondaires d'un bâtiment face à différents périls et sous-périls (tremblements de terre, incendie, inondations et vent, ainsi que vent direct, débris éoliens et pluie poussée par le vent), et permettre aux assureurs d'estimer ce qu'on appelle la «valeur au coût de remplacement» d'une structure. Pour chaque caractéristique structurelle d'un bâtiment identifiée dans le schéma de codage du modèle de catastrophe, il existe une fonction d'endommagement.

Les modélisateurs ajoutent fréquemment de nouvelles caractéristiques à leurs catalogues de vulnérabilités suite à des catastrophes majeures, lorsque les performances de populations entières de bâtiments deviennent momentanément visibles. Les équipes d'enquête sur le terrain se rendent dans les zones sinistrées et recueillent des observations qui peuvent entraîner des changements dans la façon dont les modélisateurs de chats élaborent leurs équations prédictives. À la suite des saisons des ouragans de 2004 et 2005, par exemple, deux nouvelles catégories «d'occupation» commerciale ont été ajoutées aux modèles: les casinos fluviaux et les stations-service. Les deux structures ont subi une quantité démesurée de dommages que les modèles avaient largement sous-estimés, entraînant des pertes plus élevées que prévu pour les assureurs. De nouvelles fonctions de dommages ont été écrites pour capturer les vulnérabilités spécifiques des deux types d'occupation. Une vulnérabilité plus élevée se traduit souvent par des primes plus élevées et, selon la géographie, les augmentations peuvent être importantes. Dans certaines régions côtières des États-Unis, jusqu'à quarante pour cent des primes d'assurance peuvent servir à couvrir les risques catastrophiques et les coûts de réassurance.

Représentation stylisée d'un mécanisme de transfert convexe et incurvé vers le haut du stresseur aux dommages. Dans l'encart, l'axe horizontal montre les dommages les plus importants (plage supérieure de l'axe vertical dans l'image principale) sur l'échelle logarithmique. D'après Matteo Coronese et al., «Preuve de la forte augmentation des dommages économiques des catastrophes naturelles extrêmes», Actes de l'Académie nationale des sciences, 116, non. 43 (2019): 21450-21455.

Si la «vérification au sol» par les équipes de modélisation fournit une importante boucle de rétroaction entre le virtuel et le matériel, les sources de données les plus abondantes pour établir les fonctions de dommages sont peut-être les «données de perte» internes des assureurs. Décrites par un modélisateur de chats comme «la propre version des« mégadonnées »des assureurs», les données sur les pertes arrivent en flux constant après une catastrophe lorsque les propriétaires et les petites entreprises font des réclamations contre leurs polices et les experts en sinistres descendent pour déterminer la véracité des réclamations. En comparant les données d'exposition (caractéristiques primaires et secondaires des élémets à risque) et les données de perte (ce qui s'est réellement passé), les assureurs peuvent corréler les informations sur les propriétés de leur portefeuille et le montant réel des dommages, par type de propriété, causés par une catastrophe. un événement. Les différences entre ce que les modèles ont prédit et ce qui s'est réellement passé offrent de nouvelles opportunités pour affiner davantage les fonctions de dommages.

Contrôle du facteur humain

D'autres défis existent pour estimer les vulnérabilités. L'environnement bâti n'est pas statique et les réponses sociales aux risques influencent et modifient le comportement des structures au fil du temps. Ces changements sont souvent liés aux efforts visant à améliorer ce que l'on appelle les codes du bâtiment: des règles locales pour les normes de construction minimales que les promoteurs et les entrepreneurs doivent suivre pour recevoir un permis de construire. L'expérience a montré que les codes sont souvent imparfaitement appliqués, ce qui signifie que les codes eux-mêmes ne peuvent être tenus pour acquis. Les codes du bâtiment sont donc un facteur de confusion majeur pour les modélisateurs en ce qui concerne la formulation d’hypothèses sur l’exposition d’une propriété souscrite.

Pour contrôler cette incertitude, les modélisateurs ont introduit des évaluations de la robustesse du code du bâtiment mise en vigueur dans leurs modèles. Verisk Analytics, la société mère du grand modélisateur de chats Applied Insurance Research (AIR), possède une filiale qui gère le calendrier de classification de l'efficacité du code du bâtiment (BCEGS), qui classe de nombreuses communautés en Amérique sur une échelle de 1 à 10 pour déterminer dans quelle mesure ils appliquent les codes du bâtiment dans leurs livres. Un meilleur classement crée des rabais d'assurance, tandis qu'un mauvais classement donne aux modélisateurs une justification pour handicaper leurs modèles, en pondérant les ratios de dommages au-dessus de ce que le code du bâtiment impliquerait normalement pour refléter le manque de contrôle de la qualité.

Recréation de la notation du calendrier de nivellement efficace du code du bâtiment (BCEGS) trouvée dans un rapport générique de tarification des bâtiments (BUR). Les pourcentages produisent le score (1-10) que les modélisateurs de chats utilisent pour ajuster le poids qu'ils appliquent aux codes du bâtiment dans leurs modules de dommages.

L'incapacité de prendre les normes de construction pour acquises n'est qu'un des maillons persistants d'une chaîne de difficultés auxquelles sont confrontés les modélisateurs dans leurs tentatives de virtualiser l'environnement bâti. Des données d'exposition insuffisantes constituent une autre source de résistance à l'estimation précise des dommages potentiels. Les caractéristiques principales d’un seul bâtiment ou d’un ensemble complet d’immeubles du portefeuille d’un assureur peuvent être mal codées ou simplement inconnues. Il n'y a pas de dépôt du gouvernement central dans lequel réside le bâtiment. Les modélisateurs reçoivent fréquemment leurs données de leurs clients (compagnies d'assurance), qui à leur tour collectent des données auprès de leurs agents ou clients. Il est difficile de normaliser un processus aussi dispersé et ad hoc de collecte de données, et les modélisateurs sont souvent obligés de remplir leurs tableaux de données avec des variables de remplacement pour des caractéristiques inconnues. Ces nombres faux, ou fictifs, sont essentiels pour les processus de calcul formels, mais ils peuvent sous-(et plus vraisemblablement plus de-) représentent des vulnérabilités réelles.

Auparavant, ces difficultés persistantes en matière de données étaient trop décourageantes et exigeantes en main-d'œuvre pour être corrigées, de sorte que les modélisateurs vivaient simplement avec elles. Mais maintenant, à mesure que les technologies bon marché de production d'images des structures de bâtiments deviennent de plus en plus disponibles, il est possible de commencer à combler ces lacunes grâce à la collecte complète de données d'exposition. La recherche de plus de connaissances sur les «éléments à risque» est également devenue un bon argument commercial pour gérer l'érosion de la précision des modèles due à l'évolution des régimes climatiques. Enfin, fidèles à l'esprit du «capitalisme de surveillance», les entreprises misent sur le fait que ces données supplémentaires de propriété privée portent en elles une valeur qui va au-delà de leur utilisation pour améliorer les fonctions de dommages. Plus les données sont complètes, plus la valeur est élevée.

Intégralité

Du point de vue des assureurs, rendre les données complètes implique d’améliorer les informations sur leur exposition aux sinistres. L'exposition est l'information que les assureurs – pas seulement les assureurs de biens, mais tous les assureurs – demandent à un preneur potentiel de partager sur le risque sous-jacent pour lequel l'assurance est recherchée. L’exposition correspond à des problèmes de santé préexistants, à l’âge du conducteur, aux habitudes de tabagisme d’une personne et à la conception structurelle d’un bâtiment. Ce sont les informations qui aident un assureur à déterminer le montant de la prime qu'il va facturer pour souscrire un risque. L'exhaustivité, en tant qu'impératif commercial, cible l'exposition en tirant parti de l'explosion de données clients continues, en temps réel et pertinentes au risque qui deviennent disponibles dans presque toutes les branches de l'assurance, de l'assurance médicale et maladie à l'assurance automobile et vie.

Dans le secteur automobile, par exemple, les assureurs offrent désormais une assurance à la conduite. Les personnes désireuses de partager les données d'odomètre peuvent bénéficier de réductions de leurs primes en montrant qu'elles conduisent moins que la moyenne et présentent ainsi moins de risque de causer ou de subir un accident. Les assureurs automobiles explorent une assurance encore plus personnalisée en fonction du comportement de conduite réel. Certaines entreprises offrent des réductions aux conducteurs désireux d'installer des dispositifs de surveillance dans leur voiture qui téléchargent un flux constant de suivi de données télématiques lorsque les conducteurs accélèrent rapidement, freinent brusquement, tournent dans un virage difficile ou même quittent la route des yeux. Dans le secteur de la santé, des innovations similaires sont en cours. Les assureurs envisagent de proposer aux clients des économies d'assurance s'ils associent des trackers de fitness comme Fitbits ou des applications comme Strava pour mesurer le comportement physique et les engagements en matière de santé qui pourraient différencier le risque d'un individu, par exemple, d'arrêt cardiaque du reste de la population.

Cette même tendance à l'exhaustivité, et son argument économique sous-jacent, affecte également les assurances IARD et les modélisateurs de chats qui les servent. L'idée que de meilleures données conduisent à une meilleure tarification est une justification difficile à ignorer. Comme l'explique Mahmod Khater, Chief Technology Officer (CTO) de CoreLogic, une société de modélisation de chat et de données immobilières:

Si vous commencez réellement par l'incertitude des modèles (cat), l'incertitude la plus élevée existe dans l'exposition pour toute compagnie d'assurance ou société de réassurance. Ainsi, lorsque nous modélisons sans ce type d'informations (d'exposition), nous devons faire des hypothèses. Faire des hypothèses signifie de l’incertitude, mais il y a toutes ces bonnes données… qui nous permettraient d’éliminer la plupart de cette incertitude. Cela nous permettrait de savoir quels types de bâtiments sont là, puis de les utiliser pour vraiment quantifier la valeur des bâtiments et de l'utiliser dans le processus (d'assurance).

«Toutes ces bonnes données» se réfèrent à de nouvelles sources «secondaires» de données d'exposition qui vont au-delà de l'ensemble typique de «caractéristiques primaires» (occupation, type de construction, taille, âge) que les modélisateurs de chats utilisent pour les estimations actuelles des risques. Une information de résolution plus élevée peut avoir une influence majeure sur l'évaluation de la valeur du coût de remplacement d'une maison, la mesure de base utilisée pour fixer les primes d'assurance habitation. Pour les propriétés résidentielles, les caractéristiques secondaires élargies comprennent des informations sur les toits, les piscines et autres structures adjacentes, ainsi que le contenu intérieur comme les comptoirs en marbre ou en granit et les planchers de bois. Dans les zones de fort vent, par exemple, les toits en croupe (toits qui descendent de tous les côtés d'une maison) résistent bien mieux aux vents d'ouragan que les toits à pignon (le toit typique à ossature A), et les toits métalliques ont tendance à rester mieux fixés que toits de tuiles d'argile (et causent moins de dommages aux autres structures environnantes). Cette information n'est actuellement pas incluse dans la plupart des modèles de chats, mais donne aux assureurs une bien meilleure idée du type de dommage qu'une maison particulière pourrait subir lors d'un ouragan par rapport à la maison d'un voisin.

L’introduction de données sur les «caractéristiques secondaires» dans les bases de données d’exposition des modélisateurs de chats était jusqu’à une date récente prohibitive. Ces informations sont difficiles à collecter, ce qui nécessite des visites sur place par de vraies personnes avec des blocs-notes et des stylos en main. Les inspections visant à recueillir les caractéristiques des bâtiments secondaires ne sont généralement effectuées que pour les grands propriétaires de propriétés commerciales. Du point de vue de l’assureur, cependant, les structures résidentielles sont à l’origine de la majorité des pertes lors de catastrophes telles que les ouragans. Pourtant, ce n'est qu'au cours de la dernière demi-décennie que la collecte de données d'exposition secondaires sur les logements privés est devenue suffisamment bon marché pour devenir un élément de campagne pour les entreprises de modélisation de chats. La commercialisation rapide de drones capables d'arpenter les bâtiments d'en haut et de technologies de mise au rebut du Web qui peuvent exploiter des portefeuilles d'images provenant de sites Web d'agents immobiliers a mis de nouvelles espèces de mégadonnées en contact avec les bases de données d'exposition des modélisateurs de chats.

Tondre le ciel

La stratégie de Verisk Analytic pour améliorer la capacité de prédiction de leurs fonctions de dommages est liée à leur investissement dans une filiale d’imagerie aérienne appelée Geomni. Les structures résidentielles, contrairement aux bâtiments commerciaux, sont produites en volume et suivent un ensemble de conceptions relativement limité. Et l'un de leurs composants les plus vulnérables – leurs toits – est visible d'en haut. Obtenir de meilleures informations sur les toitures est une priorité pour l'industrie, où les études actuelles estiment que la mauvaise catégorisation de l'âge des toits coûte à elle seule aux assureurs américains plus d'un milliard de dollars par an en polices écrasées.

Geomni exploite une flotte d'une centaine d'aéronefs à voilure fixe et de véhicules aériens sans pilote situés dans tout le pays qui effectuent des scans systématiques de tous les biens d'un territoire donné, fournissant des images obliques et orthogonales à haute résolution actualisées entre une à trois fois par an pendant chaque coin de la zone continentale des États-Unis. En «tondant le ciel», comme me l'a décrit un haut responsable de la modélisation des catastrophes, l'entreprise développe plusieurs perspectives sur la même propriété. L'imagerie peut ensuite être utilisée pour modéliser la propriété de manière volumétrique à l'aide de la photogrammétrie, qui fait correspondre les pixels d'une image à l'objet dans le monde réel (par exemple, le type et la texture du toit), puis soumise à des algorithmes d'apprentissage automatique, ce qui améliore le processus de correspondance en tant que la base d'image augmente avec le temps. Ces données sont combinées avec d'autres informations sur l'environnement bâti et introduites dans un modèle de chat pour une «vraie réalité au sol».

L'imagerie aérienne peut être utilisée par les modélisateurs de chats pour: 1) déterminer dans quelle mesure les données d'exposition d'un assureur correspondent à l'imagerie des bâtiments qu'ils souscrivent; 2) atténuer le risque moral en s'appuyant sur les résultats de l'apprentissage automatique pour obtenir des informations sur la propriété, plutôt que de se tourner vers les propriétaires pour obtenir ces informations, comme cela se fait actuellement; et 3) assurer une plus grande stabilité de l'évaluation des risques par des modèles de chats (c'est-à-dire augmenter les bases de données globales sur l'exposition des propriétés).

Échantillon d'images photographiques Geomni avant et après la catastrophe. Camp Fire, Californie, 2018. Tiré du matériel marketing Geomni.

La proposition commerciale, selon le site promotionnel de Geomni, est de créer un référentiel unique de données sur les caractéristiques des bâtiments secondaires que les assureurs «peuvent utiliser… pour comprendre avec précision la croissance et le changement, déterminer les dommages, découvrir les dangers, évaluer les risques et effectuer des évaluations.» L'entreprise recueille des informations sur les empreintes de bâtiments, les formes de toits, les types de toits, les pentes de toits, les piscines, les dépendances, le pourcentage de couvert arboré, etc. De plus, l'entreprise peut déployer ses avions dans les 48 heures suivant la survenue d'une catastrophe pour effectuer le traitement des images avant et après une catastrophe naturelle. Cela peut fournir une version augmentée de l '«enquête sur les dommages» en personne, qui à son tour peut contribuer à améliorer les fonctions de dommages et les estimations de la vulnérabilité.

La vue complète de la propriété®

Alors que Geomni se concentre particulièrement sur l'extérieur des structures pour améliorer les estimations des risques, d'autres concurrents collectent, agrégent et modélisent des informations sur l'intérieur des maisons et conditionnent ces données pour les actuaires. CoreLogic, un autre important modélisateur de chats, est également un fournisseur d'informations et d'analyses immobilières pour les secteurs des hypothèques et de l'immobilier. Il a été fondé en particulier pour aider les prêteurs hypothécaires à prévenir la fraude des emprunteurs et à gérer les risques de garantie, tels que les risques naturels, sur les actifs immobiliers sous-jacents. L'unité des risques structurels et de l'évaluation de CoreLogic a développé une approche commercialisée sous le nom de vue complète de la propriété® qui combine des centaines de sources de données pour générer des informations détaillées sur les caractéristiques extérieures d'un bâtiment et ses composants intérieurs.

Une différence majeure par rapport aux efforts de Verisk pour «tondre le ciel» réside dans les efforts de CoreLogic pour estimer le contenu des bâtiments (c'est-à-dire le type de matériaux de construction et de biens à l'intérieur d'une maison). Il s'agit d'un processus extrêmement difficile qui dépend presque entièrement des informations fournies par les propriétaires individuels ou les évaluateurs. Pourtant, en tant que société de transaction immobilière, CoreLogic construit des produits pour le secteur immobilier, y compris une plate-forme logicielle qui héberge des services d'annonces multiples (MLS). Les systèmes MLS sont l'épine dorsale des marchés immobiliers locaux, permettant aux courtiers du même territoire d'accéder aux listes d'autres courtiers, faisant ainsi correspondre acheteurs et vendeurs tout en fournissant à chaque courtier une commission sur les ventes organisées conjointement. Des centaines de systèmes MLS ont été mis en place par des associations locales d'agents immobiliers aux États-Unis, et CoreLogic est devenu un fournisseur majeur pour l'hébergement de transactions MLS.

En échange de leurs services, CoreLogic garantit les droits de licence sur certaines des données stockées sur ces plateformes, y compris les photos des propriétés répertoriées. Grâce à ces accords, selon les brochures marketing du groupe:

Les assureurs ont désormais une fenêtre virtuelle sur une maison et peuvent facilement valider les caractéristiques de la propriété sans quitter leur bureau. Pour les souscripteurs et les agents, cela signifie une efficacité accrue au point de vente et des propriétaires plus heureux puisqu'ils n'ont plus à répondre à une série de questions apparemment sans fin sur leur maison… Avec une moyenne de 13 photos intérieures et extérieures par adresse résidentielle, (CoreLogic ) vous aidera à identifier les risques cachés tels qu'une piscine creusée qui n'est pas clôturée, des propriétés en détresse ou des violations de code évidentes.

Inscription immobilière sur UtahRealEstate.com, un service d'annonces multiples. Les photos intérieures (cette liste en contient 53) sont des exemples des types d'images auxquels CoreLogic a accès en tant que propriétaire du logiciel de la plate-forme MLS. Tiré de UtahRealEstate.com, 2020.

La société annonce que les photos de propriétés fournies par le MLS peuvent être combinées avec des recherches corrélant «plus de 100 000 articles de construction et 90 métiers de la main-d'œuvre, ainsi que la taille des équipes de construction, la productivité, les coûts accessoires et les variations de code», le transfert de titre, les informations de saisie, les impôts publics les dossiers des évaluateurs et les permis de travail, qui servent tous à suivre les améliorations et les restaurations apportées à des propriétés spécifiques. Cette quantité vertigineuse d'informations vise à réduire l'incertitude globale du modèle et à permettre à l'entreprise de prétendre que ses estimations du coût de remplacement sont plus actuelles et à jour que celles de ses concurrents. Le prétendu «propriétaire plus heureux» est juxtaposé aux intérêts des compagnies d'assurance, qui peuvent désormais rejeter plus facilement les réclamations parce que leurs clients ne parviennent pas à entretenir leur propriété ou qu'il peut être démontré qu'ils ont enfreint les codes du bâtiment locaux, que ce soit volontairement ou non.

Conclusion

L'influence du changement climatique sur les risques naturels introduit de nouvelles incertitudes dans le calcul des risques d'assurance. Cependant, la compréhension des risques naturels n'est qu'un élément de la prévision précise des pertes dues aux catastrophes. Les normes sociales telles que les codes du bâtiment et d'autres efforts pour atténuer les risques ont une influence majeure sur la façon dont une catastrophe se déroule dans le temps et dans l'espace. Pourtant, le monde social n'est jamais «fini» et il reste donc difficile de modéliser les changements dans les structures sociales. Une réponse aux obstacles liés à la simulation précise des états futurs consiste à réduire l'incertitude des données d'exposition en documentant de manière exhaustive l'environnement bâti existant.

L’accumulation de données sur les maisons et les bâtiments approfondit les variables prédictives des bases de données d’exposition des évaluateurs des risques. Cela peut réduire le temps nécessaire à un assureur pour régler une réclamation après une catastrophe et rendre l'allocation des ressources de l'entreprise plus efficace pendant la première étape cruciale d'un rétablissement. Cela pourrait même renforcer les arguments en faveur d'une meilleure application du code du bâtiment et d'une augmentation des dépenses publiques pour l'atténuation des risques. Pourtant, cela représente également une violation potentiellement invasive de la vie privée. The imagery from above, the photo from within—the customer has no idea these interventions have taken place. How does a homeowner gain a sense of the role intimate spatial images play in the availability of their insurance? Do premiums only go up, or do corporate savings from increased efficiencies also translate into more affordable insurance? Is fraud detection a secondary, or primary imperative of these new calculative devices? If the algorithm classes a claim as fraudulent, what kind of grief must an individual go through to prove otherwise?

Additionally, while these innovations may be justified to improve portfolio-level loss estimates, what else might they be used for? As Todd Stennett, an executive of Geomni, put it at an trade fair in 2018: “We are looking for folks who are interested in working (this) data into all other end user applications outside of insurance and we’ve got pretty much a whiteboard; we can work with you to write some numbers that would make sense…and help you make more money and help us monetize this content into other vertical markets.” In the logic of surveillance capitalism, these companies would be negligent if they did not try and convert comprehensiveness into new and unforeseen revenue streams. Data accumulation becomes its own rationale. But what, or who, governs the collection, sharing and use of this data?

Catastrophe models are important tools that have helped stabilize insurance markets in the face of changing natural disasters. The main purpose of the models, as one of the head engineers at the modeling firm AIR puts it, “is not to predict losses at a location for a given event, but to provide reliable estimates of potential losses to portfolios of properties…and to effectively differentiate the vulnerability of properties in different regions.” By increasing the resolution on individually coded, periodically updated identifiers for each property in an insurer’s portfolio, cat modelers are expanding techniques of differentiation, while also heightening lived experiences of difference. Whether comprehensiveness, however, can enhance resilience to disasters without also introducing new algorithmically encoded social disparities is an open question that deserves ongoing scrutiny.

×

Accumulation is sponsored by the PhD Program in Architecture at the University of Pennsylvania Weitzman School of Design.

Ian Gray is a PhD student in sociology at the University of California Los Angeles and a visiting predoctoral fellow at the Max Planck Institute for the History of Science in Berlin.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *