La banque de détail LCL a choisi de mettre en place une architecture de données basée sur la plateforme Hadoop de Cloudera, afin d’accompagner ses ambitions en matière de big data, d’applications analytiques et d’intelligence artificielle. Pour y arriver, l’entreprise a préféré un passage à l’échelle rapide à une succession de POC sans fin.
Avec 1700 agences et 17 500 collaborateurs, la banque LCL est l’une des grandes banques de détail françaises. Il y a environ trois ans, l’entreprise a choisi d’entamer une trajectoire Data pour mettre la donnée au coeur de ses systèmes d’information. « Nous avons commencé par positionner les cas d’usages qui se présentaient à nous, notamment autour du big data, avec des sujets d’intelligence artificielle (IA) également en perspective », explique Frédéric Chassard, responsable des systèmes d’information Data Analytics, Pilotage de la banque et Engineering de l’IA chez LCL. Parmi les cas d’usage envisagés figurait l’acquisition d’une meilleure connaissance du client, afin de renforcer la relation client et d’identifier de nouvelles opportunités commerciales. Une autre piste concernait l’exposition de données issues du big data sous forme de services, afin d’alimenter les portails des conseillers en temps réel. Enfin, en tant que banque LCL mène de nombreux projets réglementaires (lutte contre la fraude, Know Your Customer, OFAC, etc.), sur lesquels l’approche data-centric pouvait permettre d’apporter des réponses différentes. « En déployant ces sujets dans un nouvel univers, on peut traiter autrement les données clients », souligne Frédéric Chassard. Pour celui-ci, il est essentiel d’allier une stratégie big data avec des projets qui permettent de la mettre en oeuvre. « C’est un aspect à ne pas négliger : il faut faire en sorte que la stratégie ne soit pas hors sol, mais en lien avec les enjeux et les projets de la banque. »
Notre projet nous a conduits à revoir les différents segments de clientèle par rapport à la typologie des conseillers, pour renforcer la proximité avec les clients. Frédéric Chassard, LCL
Un autre principe clef a servi de fil conducteur sur ce parcours : d’emblée, la banque a orienté sa réflexion sur le passage à l’échelle, avec la volonté de ne pas enchaîner les proof of concept (PoC). « Notre objectif était de réaliser les business cases pour tous les collaborateurs de notre réseau commercial, pas de nous contenter de démontrer des algorithmes devant nos écrans », souligne Frédéric Chassard. Dans cette optique, l’équipe chargée du programme s’est demandé quels étaient les fondamentaux à mettre en place. « Au niveau IT, il s’agissait de mettre en place la technologie et l’infrastructure permettant de réaliser ces cas d’usage à l’échelle envisagée », pointe le responsable data, ce qui impliquait de construire « un socle Data disponible, robuste et puissant ». La mise en place de ce socle Data a donné lieu à un travail collectif, dans lequel différentes directions métier se sont impliquées : conformité, relation client… « Ce socle a vocation à fournir et constituer un levier de diffusion et de consommation des données, au service du socle digital pour les sites Web et l’application mobile, ainsi que pour les applications CRM », indique le responsable. À l’issue de cette réflexion, LCL a décidé de bâtir une infrastructure taillée pour les projets d’IA : des machines équipées de GPU pour la partie matérielle, et côté logiciel, une distribution Hadoop afin de pouvoir gérer de gros volumes de données. « Nous avons adopté une approche de data hub, combinant une partie big data et un entrepôt de données. Cette architecture hybride a été pensée pour adresser de multiples cas d’usage, pas seulement autour des applications analytiques et de l’IA », explique Frédéric Chassard.
Plusieurs cas d’usage en production
Pour la brique big data, la banque a retenu la solution CDH de Cloudera, l’entrepôt de données reposant quant à lui sur une solution de Teradata. CDH permet de répondre à différents besoins essentiels dans le contexte de LCL, notamment autour de la sécurité et de la traçabilité des données. L’équipe souhaitait en effet un niveau d’habilitation suffisamment fin pour adresser tous les usages, ainsi que des capacités de suivi du cycle de vie des données. La solution de Cloudera permet également de supporter des traitements en mode batch comme en streaming, et elle laisse la possibilité de déborder dans le cloud le moment venu, une flexibilité appréciable dans un contexte de forte croissance des volumes de données. « C’est une perspective à avoir en tête pour les projets de big data », estime Frédéric Chassard. Un autre avantage de CDH est son intégration avec l’écosystème applicatif, notamment les solutions de data science et de data visualisation. La plateforme offre aussi une architecture résiliente, capable d’assurer un niveau de service élevé, des aspects importants pour envisager des déploiements à l’échelle de l’entreprise. « L’infrastructure est un composant à part entière du système d’information. Quand on veut passer à l’échelle, on ne peut pas se permettre des arrêts de service », souligne le responsable data. Enfin, Cloudera dispose d’outils d’administration et de supervision plus simples et accessibles que sur d’autres plateformes, un aspect important pour les équipes du CAGIP (Crédit Agricole Group Infrastructure Platform), chargées de l’exploitation.
[…]
Aurélie Chandeze
Pour lire la suite de l’article, rendez-vous sur le site de notre publication sœur CIO