Sépia
Séminaire du 21/11/2013
Page précédente - Envoyer ce document

Structurer, contrôler et exploiter les données

Solvabilité 2 impose une attention particulière à la qualité des données utilisées dans le cadre de la réglementation prudentielle (provisions, SCR, MCR et ORSA). Ainsi, la mise en œuvre de la directive implique-t-elle des contraintes spécifiques pour les processus d'obtention, de retraitement, d'exploitation et de traçabilité des données.


Objectif de la journée

Dresser un panorama aussi complet que possible, en l'état d'élaboration des textes, des différents chantiers associés, réglementaire, technique et opérationnel.

Programme

8h45 Accueil et café

Matin

1- Contrôle et qualité des données : le point de vue du Régulateur - Thierry AURAN (ACPR)

Après avoir fait le point sur les données quantitatives à fournir dans un environnement Solvabilité II, et la réglementation afférente, l’intervenant évoquera la notion de jugement d'expert introduite par la directive, et notamment son application pratique dans les modèles internes. Puis il présentera le rôle de l’actuaire dans la gestion de la qualité des données et les bonnes pratiques pour mettre en œuvre un système de qualité des données. Le contrôle des systèmes d’information de l’ACPR mise en place en 2010 sera présenté et notamment le contrôle relatif à la qualité des données.

2 –Mise en place d’un entrepôt de données : extraction, contrôle et reconstruction des données Hervé MORAND (Synalis Consulting)

- Pourquoi le contexte règlementaire conduit à la construction d’un entrepôt de données ?
- Quels constats peut-on faire sur les systèmes d’informations ?
- Proposition de solutions pragmatiques en termes d’architecture et de démarche d’implémentation
- Panorama des méthodes de contrôle des données

Après-midi

3 – L’organisation des données : un des enjeux du pilier 3 pour optimiser la production des rapports et des états réglementaires. Delphine DO-HUU (Prim’ACT) et Eric PAGE (Effisoft)

1. Rappel du contexte Pilier 3 – les attentes en phases préparatoire et au-delà.
2. Le périmètre des données
a. Une organisation des données par responsables
b. L’importance du contrôle des données (contrôle de cohérence intra et inter état)
c. Les contraintes méthodologiques des analyses N et N-1
3. Comment faire de cette contrainte réglementaire, un véritable outil de reporting interne
a. Une organisation possible des données S2 autour d’un datamart/datawarehouse (Effisoft) pour optimise la production de états
b. Capitaliser sur la construction de ces données pour construire son propre référentiel – tableau de bord de suivi des risques sur une maille plus fine d’analyse.

4 – La méthodologie de la gestion du risque des données Hans WILLERT (Magellan Consulting)

La conformité du cadre général de la gestion des risques ne peut être complète sans la mise en place d'une gouvernance des données. Celle-ci est un élément indispensable de l'ERM. Basée sur une cartographie complète des flux et des transformations des données permet d'identifier les garants de leur exhaustivité, leur qualité et leur contrôle permanent.

17h30 Fin de la session

> Télécharger le programme complet et le bulletin d'inscription