Pour vous, Erwan Medy, responsable data & analyste stratégique à la direction des données et de la stratégie de l’UMG Groupe VYV, débriefe des évènements majeurs de la donnée, des technologies numériques et de la e-santé.
Dans cet épisode, le salon Big Data AI Paris qui s’est tenu à Paris les 28 et 29 septembre 2021.
Généralités
- Un public important sur place mais également en distanciel et un panel d’exposants assez large aussi. On retrouve les classiques Informatica, Alteryx, Collibra, Dataiku… On passe sur tous les DataGalaxy, Datacadabra, DataBricks, Data Eclosion, sociétés qui proposent toutes des plateformes de traitement de données ou de l’accompagnement aux projets data et qui sont là dans une démarche commerciale. Trois stands du Crédit Agricole ce qui, couplé avec l’investissement massif de ce groupe dans The Camp montre son ambition d’innovation.
- De manière générale, cette édition est un cran en dessous de celles auxquelles j’ai pu assister les années précédentes. Les « conférences stratégiques » qui portent habituellement les propos d’institutionnels pertinents (ANSSI, ministères ou organisation interministérielle sur la donnée…) sont ici réduites par rapport à des retours d’expérience avec des présentations communes client – fournisseur. Si c’est globalement intéressant, c’est un peu trop promotionnel, personne n’ayant intérêt à pointer les faiblesses de telle ou telle approche.
Perception du positionnement du groupe
- Certains acteurs non digitalement natifs témoignent d’une maturité intéressante, avec des process d’industrialisation avancés : Crédit Mutuel, La Redoute (ils sont top eux), Bouygues Télécom, Monoprix
- Les acteurs de l’assurance présentent les mêmes problématiques que nous :
- GMF (groupe covéa) travaille avec Kili sur l’analyse des parcours omnicanaux. Approche humble, réaliste et concrète. Je ne sais pas quelle est la maturité des entitésdu Groupe VYV sur ces sujets (GMF uploade dans leur plateforme appels + CRM + campagnes marketing digitale) mais eux arrivent à optimiser les relances mail et à mesurer leur impact sur la souscription. Pas encore de mesure sur le churn mais ROI atteint en termes de ressources humaines pour l’analyse des parcours.
- Très grand succès (salle comble) de la présentation Shapash de la MAIF, extrêmement avancé d’un point de vue organisation, vision et réalisation.
- Si nous ne sommes pas les plus avancés sur les projets data, notre approche de l’éthique est par contre à la fois très différenciante de ce qui a été présenté, et également très pertinente par rapport aux réalités du numérique comme le montre l’intervention de Catherine Tessier, chercheuse à l’ONERA, assez importante dans les discussions sur l’éthique de l’IA (membre du CERNA, du COERLE ou encore du Comité National Pilote d’Ethique du Numérique, ou du groupe d’expert pour l’UNESCO) :
- L’éthique est à bien distinguer de la conformité. La loi a une dimension d’obligation, l’éthique est un cadre de réflexion. Seule la version anglaise « ethical » implique une notion de conformité à des standards.
- L’éthique est une discipline qui nécessite de la précision, et ne peut pas se contenter d’approximation ou de déclarations d’intentions décorrélées des réalités terrain.
- L’éthique de l’IA ou du numérique nécessite de rompre avec l’anthropomorphisme trop souvent projeté, et souvent à haut niveau (IA de confiance ça ne veut rien dire, loyauté… sont des traits propres à l’homme). De ce fait il vaut mieux par exemple parler de conduite automatisée plutôt que de voiture autonome. Cela ne veut rien dire que de parler de « système de reconnaissance faciale éthique ».
- Le fondement, voire la raison d’être de l’éthique, c’est que les principes et les exigences ne peuvent pas être simultanément satisfaits (ex performance vs transparence des algorithmes).
- Nombreux paradoxes : les IA doivent respecter des principes mais constituent des menaces pour ces mêmes principes, les IA aident à accomplir des objectifs (égalité dans la santé…) mais portent en elles des menaces de s’éloigner beaucoup plus de ces objectifs (renforcer capacités humaines vs restriction des choix, vision scientiste de la techno vs empreinte énergétique…)
- Interrogations sur la signification concrète du « contrôle humain de l’IAé : contrôle continu ? En temps réel ? Qui est cet humain ? Comment contrôler la pertinence de son intervention ?
Cadre stratégique et réglementaire
- Thierry Breton fait le service après-vente de l’Europe : brevets majoritairement européens dans la 5G, prépondérances des acteurs européens pour construire les machines qui construisent les semi conducteurs… Bon c’est intéressant mais en termes d’usage nous n’y sommes pas encore et le cloud de Thales est loin de pouvoir rivaliser avec les autres géants. A voir comment les investissements issus de l’Europe (environ 30% pour le numérique des 750 milliards) sont utilisés. Il est probable que l’Europe mise sur les données industrielles, plus que sur les données personnelles. A voir si les infrastructures européennes peuvent suivre mais la réalité est que les acteurs pertinents n’ont soit pas la taille, soit pas les compétences, soit les compétences mais trop dispersées (Dassault, Thales, Orange, Cap Gemini, Atos + toutes les très bonnes petites boites européennes). A suivre aussi les grands projets technologiques comme les constellations de satellites pour de la cryptographie quantique…
- Les réglementations européennes avancent (Digital Single Act et Digital Market Act) et se préparent la régulation sur l’IA, moins avancée que les deux autres et qui témoigne d’une approche prudente de l’Europe pour ne pas tout casser. Il annonce le texte d’ici 18 mois. A noter aussi l’European Chip Act pour restaurer un peu de souveraineté sur les semi conducteurs et pouvoir rivaliser avec les capacités de gravage asiatiques (entre 2 et 5 nm).
- Sur le règlement européen de l’IA :
-
- Il semble que le projet soit quant même assez avancé, voire stabilisé. Son intérêt réside dans son approche horizontale qui permettra de pluger les régulations sectorielles (santé, défense, assurance…). Ce texte devra s’articuler avec l’existant sur les données (RGPD) et aura la très lourde tâche de transcrire les autres textes plus fondateurs (traité de l’Union européenne, traité sur le fonctionnement de l’Union européenne et jusqu’à la charte des droits fondamentaux).
- Plus concrètement, il y aura quatre types de systèmes d’IA : interdits (altération de la conscience, scorin social, manipulation des personnes vulnérables, biométrie en temps réel dans l’espace public sauf exception type terrorisme), à haut risque (relatifs à la sécurité), particuliers (globalement l’essentiel du commercial) et enfin sont exclus les applicatifs militaires.
- Le règlement a une portée très large puisqu’il concerne les producteurs d’IA (établis en UE, opérant en UE ou dont les résultats sont utilisables en UE), les utilisateurs d’IA (idem que précédent) et les fournisseurs d’IA (importateurs, distributeurs, mandataires).
- Les exigences relatives sont de plusieurs ordres : système de gestion des risques (sur une logique de minimisation dès la conception), données définies et gouvernées, documentation technique impérative et mise à jour, journal d’activité permettant le traçage enregistré, cybersécurité, qualité en termes de robustesse, contrôle humain (à voir en pratique cf point de Tessier), information pour la transparence et les utilisateurs.
- Le texte prévoit des sanctions à l’image du RGPD (jusqu’à 30 millions ou 6% du CA).