Si vous êtes arrivé ici aujourd’hui, alors vous faites probablement partie des 3,8 milliards d’êtres humains dotés d’un smartphone. Ce matin au réveil, comme 2,8 milliards d’autres utilisateurs mensuels, vous avez probablement ouvert votre réseau social préféré, souhaité l’anniversaire à votre vieil ami de lycée, consulté la météo, écouté FranceInfo, le tout en calculant le trajet le plus rapide pour arriver au bureau. Panne de métro, dommage google ne l’avait pas prévue celle-là, il faut que vous partagiez ça sur Insta. Instantanéité, gratuité, au creux de votre main résident d’infinies possibilités. Avant d’aller plus loin, on tenait simplement à vous rappeler ce qui se cache derrière votre nouvel écran LCD.
Intelligence artificielle et marketing : décryptage d’une économie fondée sur le profilage.
Les nouvelles technologies nous ont permis de repenser nos modes de vie, aussi bien sur le plan professionnel que sur le plan personnel. Mais alors que les interactions sociales et l’accès aux services et aux biens de consommation se sont vus largement facilités, quelle est la place de votre privée ?
Comme tout autre utilisateur d’internet, vous n’aspirez qu’à posséder le meilleur. Et ça, les entreprises, et particulièrement les GAFAM, l’ont bien compris, quitte à parfois, m^me souvent, outre passer leurs droits, concernant le RGPD. D’un marketing de masse, les entreprises ont repensé leurs modèles pour virer vers une personnalisation de masse. Pour comprendre comment cette personnalisation est rendue possible, il convient de s’intéresser à l’intelligence artificielle. Dans la sphère marketing, l’intelligence artificielle s’articule autour de trois principaux enjeux :
Combinées ensemble, ces solutions d’intelligences artificielles permettent la création de ce que l’activiste Eli Pariser a qualifié de « bulles de filtres »3. Les algorithmes sont aujourd’hui capables de proposer à deux personnes vivant sous le même toit des résultats différents pour les mêmes termes de recherche. L’utilisateur évolue alors dans une bulle qui aura été conçue spécifiquement pour lui selon un profilage très fin de sa personnalité. Et c’est vous, qui sans même vous en rendre compte, alimentez au quotidien votre profil virtuel.
Pour comprendre comment les géants d’internet sont capables de définir votre profil à un niveau de précision inégalée, il convient de s’intéresser aux algorithmes qui composent ce que l’on appelle – de manière parfois trop générale – l’intelligence artificielle.
Très concrètement, un algorithme est un programme informatique conçu pour répondre à une problématique définie et selon des règles opératoires précises. Mais ce qu’il est vraiment intéressant de remarquer lorsque l’on parle d’intelligence artificielle, c’est l’approche « bottom up » qui caractérise ces algorithmes.
Alors qu’il y a quelques années encore, les ingénieurs abordaient une démarche « top down » en paramétrant leurs machines très précisément pour arriver à un résultat recherché, aujourd’hui les machines sont paramétrées de telle sorte qu’elles partent des résultats (de vos données), pour créer des modèles capables de réaliser les prédictions recherchées. C’est ce que l’on appelle le « machine learning ». Vos données sont collectées à travers une plateforme (un réseau social par exemple), préparées et structurées selon un ou plusieurs modèles d’analyse (règles opératoires) qui vont ensuite être testés et entrainés dans le but de parvenir à la finalité souhaitée.
Pour replacer ce concept dans la pratique, prenons l’exemple de l’algorithme de machine learning de Facebook. Afin de déterminer votre profil virtuel, l’algorithme va enregistrer et analyser toutes les informations relatives à votre utilisation du réseau social, en passant par les données de votre profil, à celles de vos amis, au nombre de clics sur les différentes pages, à vos likes et commentaires sur les publications et bien plus encore. Sur la base de ces informations combinées, Facebook va être capable de pousser sur votre écran des contenus conçus sur mesure susceptibles de vous intéresser. Plus vous passez de temps sur le réseau social, plus vous fournissez d’informations à l’algorithme, plus sa connaissance de vous-même sera fine et précise, plus la bulle de filtre sera robuste.
Mais alors que ce concept même de profilage, défini à l’article 4 du RGPD, pose débat par son caractère intrusif dans la vie privée des personnes, quels sont les enjeux de l’omniprésence de telles technologies dans notre quotidien ?
Alors que le machine learning était initialement réservé quasiment exclusivement aux géants du web, toute entreprise peut désormais tirer profit de ces technologies. A mesure que nous assistons à une croissance inouïe de la technologie, marquée tant par sa rapidité que sa capacité à repousser les contours de l’état de l’art, il ne serait pas prudent de négliger leur tendance à absorber une quantité grandissante de données personnelles, et cela souvent au dépend de la vie privée des personnes.
Désormais en Europe, le profilage à visée marketing est dans la majorité des cas conditionné par le consentement de la personne concernée (Article 22 du RGPD). Cependant, comment s’assurer que le consentement ait été donné de manière libre et éclairée alors même que l’utilisateur n’a pas de réelle visibilité ni sur les données collectées à son sujet, ni sur les destinataires de ses données, et encore moins sur la manière dont ses données sont croisées, structurées et analysées.
Alors que les algorithmes sont souvent qualifiés de « boites noires » dû au manque de visibilité qu’ils affichent, tant pour les utilisateurs que pour leurs programmeurs eux-mêmes, la question de l’éthique dans l’intelligence artificielle est de plus en plus présente au sein des débats des organisations de protection de la vie privée et des législateurs. Malheureusement la complexité des technologies d’intelligences artificielles et leur évolution rapide ayant de loin devancé les législations en la matière, la question du contrôle des personnes concernées sur leurs données personnelles reste un sujet qui, malgré des pistes de réflexion envisagées, n’a toujours pas trouvé de réponse concrète.
Bien que l’éthique et la confidentialité dans l’intelligence artificielle soient encore au stade de la discussion, les organisations de protection de la vie privée, les entreprises et les législateurs s’accordent sur une vision d’une intelligence artificielle respectueuse de la vie privée articulée autour de 4 piliers principaux.
Le premier pilier est celui du concept d’explicabilité de l’intelligence artificielle. Comme nous l’avons vu plus haut, la rétro ingénierie des algorithmes de machine learning est quasiment impossible, leurs créateurs eux-mêmes ignorant dans la majorité des cas quelles sont les décisions prises par les algorithmes et comment ces décisions s’articulent entre elles pour parvenir au résultat attendu. Or, comme le RGPD l’exige, toute personne concernée faisant l’objet d’une prise de décision automatisée a le droit d’obtenir une intervention humaine de la part du responsable du traitement afin de contester la décision prise. Comment démystifier les algorithmes pour rendre ce droit aux personnes concernées ?
Le second pilier, souvent débattue, est celui de la transparence (lire le dossier de presse). Alors que de nombreuses entreprises ont désormais accès aux technologies d’intelligence artificielle et sont extrêmement friandes des données des utilisateurs pour entrainer leurs algorithmes, il est fréquent que les utilisateurs ne soient pas informés de la collecte de leurs données, de leur stockage dans des data lakes et de leur partage avec les nombreux partenaires commerciaux du responsable de traitement. Comment s’assurer que les données utilisées par les algorithmes aient été collectées de manière loyale, licite et transparente ?
Le troisième pilier sur lequel les groupes de réflexion s’appuient est celui de l’évaluation des risques et notamment ceux liés aux potentiels biais dans la conception des algorithmes et dans les sources de données qui les alimentent. Un système biaisé est susceptible d’avoir des conséquences sévères sur les personnes concernées ; conséquences difficilement réversibles dans le contexte de boite noire que nous définissions plus tôt. Comment anticiper les risques pour lutter efficacement contre les biais de conception des algorithmes ? Comment affiner la collecte des données et la limiter uniquement aux données pertinentes pour la création des modèles ?
Enfin, le quatrième pilier, qui permet afin de garantir que les intelligences artificielles restent respectueuses de la vie privée des personnes, est celui de la capacité à il est nécessaire d’être capable de les auditer de manière régulière. Le but recherché ici est d’assurer le respect des exigences éthiques et règlementaires en la matière. Cependant, sans notre premier concept d’explicabilité des algorithmes, ces audits restent difficilement réalisables en pratique. Quels critères prendre en compte pour évaluer le respect de la confidentialité dans les algorithmes ? Comment retracer le chemin parcouru par les données personnelles depuis leur collecte jusqu’à l’affichage d’une publicité sur les écrans des personnes concernées ?
Bien que les technologies d’intelligence artificielle aient fait l’objet d’une croissance impressionnante au cours des dernières années, celle-ci a largement devancé leur contrôle. Alors que les algorithmes sont capables sur la base des informations collectées, souvent à votre insu, de définir votre profil virtuel de manière extrêmement précise, la question de la confidentialité est plus que jamais cruciale. Explicabilité des algorithmes, transparence, anticipation des biais et audits réguliers sont autant de pistes de réflexion qui permettront une avancée de la technologie éthique et respectueuse de votre vie privée. En attendant, gardez bien à l’esprit que lorsque le produit est gratuit, alors vous êtes le produit.
– Andréa Parisot
Retrouver nous en ligne pour un webinaire consacré à l’ « Utilisation de l’IA dans les processus marketing », le 30 mars 2021 de 9h à 10h.
Le webinaire sera animé par des experts en la matière :
Chafika Chettaoui – Group Chief Data Officer chez Suez
Aurore Raingeard – DPO chez Bpifrance
Anton Kisyelyov – Rédacteur en chef et éditeur Propriété industrielle Protection des données personnelles, chez Lexis Nexis