Skip navigation
Like what you’re reading?

IA et vie privée : Tout ce que vous devez savoir sur la confiance et la technologie

Disponible en English Français
Nous vous présentons ci-dessous les principes de base de l'IA et de la protection de la vie privée, en vous expliquant ce qu'elle est, ce qu'elle signifie dans le monde d'aujourd'hui et quelles sont les meilleures pratiques pour développer une IA sûre et digne de confiance.

Head of Ericsson Product Privacy Office

Hashtags
Hashtags
#ai #privacy
IA et vie privée : Tout ce que vous devez savoir sur la confiance et la technologie

Head of Ericsson Product Privacy Office

Head of Ericsson Product Privacy Office

Contributeur (+1)
Hashtags
#ai #privacy

L'intelligence artificielle. Elle est présente dans nos cultures sous une forme ou une autre depuis l'époque des Grecs anciens et de leurs mythes, jusqu'à Frankenstein et Asimov. Cette longue et riche histoire n'enlève rien au fait que l'IA est aujourd'hui au cœur de notre monde. Pour Ericsson et ses clients, la technologie de l'IA est un outil commercial essentiel.

En regardant l'histoire de l'IA, nous voyons un thème récurrent. Les conséquences sur la vie privée et les droits de l'homme. L'utilisation de l'IA à tort ou sans diligence raisonnable peut conduire à une escalade généralisée de problèmes sur de nombreux fronts.

Aujourd'hui, pour atténuer ces risques, nous assistons à des tentatives de régulation de l'IA, tant dans l'industrie que dans les administrations publiques, et à la mise en place d'une base de confiance qui permettra de faire en sorte que les histoires fictives mentionnées plus haut ne soient que cela : une œuvre de fiction.

Que faut-il faire pour que l'IA s'aligne sur les principes moraux et éthiques des humains ? Découvrez-le dans le rapport AI Ethics Inside d'Ericsson.

La première question : qu'est-ce que l'IA ?

Avant de commencer à examiner les implications de l'IA sur la vie privée, définissons ce qu'elle signifie.

Il est de la plus haute importance de clarifier d'abord ce que signifie l'IA, car elle peut avoir des significations différentes selon les personnes, et il n'existe pas de définition commune dans le secteur. Nous allons donc tenter de décrire la manière dont nous traitons cette définition au sein d'Ericsson. Chez Ericsson, nous considérons l'IA comme un ensemble de technologies (par exemple l'apprentissage automatique, l'apprentissage profond) qui permettent des fonctions telles que la reconnaissance d'images, la génération de texte ou l'analyse de texte. Ces technologies affichent un certain degré d'autonomie et ressemblent, dans une certaine mesure, à la capacité d'un humain à "raisonner " et à parvenir à une conclusion.

Nous disposons des lignes directrices éthiques d'Ericsson pour une IA digne de confiance, qui s'appuient elles-mêmes sur les lignes directrices de l'UE en matière d'IA digne de confiance. Cette directive de l'UE met en évidence trois éléments clés pour l'IA et la manière dont nous construisons la fiabilité : l’IA doit être en conformité avec la loi, l’IA doit être éthique et l’IA doit être fiable.

Ci-dessus : Les trois éléments constitutifs d'une IA digne de confiance

Ci-dessus : Les trois éléments constitutifs d'une IA digne de confiance

Comment fonctionne l'IA ?

L'IA est basée sur des modèles. Pour expliquer cela, nous prenons comme exemple un simple arbre de décision. Dont le processus commence au sommet, puis descend des branches à des niveaux inférieurs en fonction d'une décision. Cette technique est souvent utilisée avec de petits ensembles de données car elle offre une grande transparence, mais peut poser des difficultés de compréhension avec une quantité croissante de données.

Ci-dessus : Exemple d'un arbre de décision simple (source : autorité norvégienne de protection des données Datatylsnet)

Ci-dessus : Exemple d'un arbre de décision simple (source : Norwegian Data Protection Authority Datatylsnet).

En substance, ce que ce modèle démontre est le suivant : "Si vous êtes de bonne humeur, et que vous êtes fatigué, et que vous avez faim, vous ne serez pas productif".

Toutefois, ce modèle illustre également l'impact des préjugés dans l'IA. Par exemple, si nous regardons comment ce modèle fonctionne et progresse, il arrive à un scénario dans lequel le modèle "décide" qu'une personne affamée n'est pas productive. C'est un point d'inflexion dans la décision : "affamé -> non productif". "Pas faim -> pas productif".

Il devient évident que le biais en soi n'est ni bon ni mauvais, ni juste ni injuste. C'est juste le point d'inflexion où le modèle décide "A" au lieu de "B". Nous pouvons tous nous identifier à ce que ce modèle décrit, car nous avons tous eu faim et ressenti à quel point nous sommes improductifs dans une telle situation. Si nous allons un peu plus loin et que nous appliquons ce modèle à la vie privée, nous pouvons voir comment ce type de partialité serait injuste si l'IA "décidait" que le manque de productivité est dû au sexe ou à l'âge.

Quelle est la relation entre l'IA et la vie privée ?

Avec la digitalisation croissante des applications centrées sur le consommateur, des médias, de l'information et du commerce, nous avons assisté à des développements majeurs de la technologie et de l'utilisation de l'intelligence artificielle au cours des dernières années. Nous avons également constaté que toutes les IA ne font pas usage d'informations personnelles. En fait, il existe de nombreux cas d’usage des réseaux 5G visant à améliorer la qualité et la fiabilité de l'infrastructure qui ne nécessitent pas d'alimenter l'IA en données relatives à la vie privée.

D'autre part, en ce qui concerne l'IA et la vie privée, nous avons également remarqué que l'impact sur la vie privée doit être traité avec une attention particulière. Par exemple, les systèmes d'IA peuvent avoir la capacité de repérer et d'identifier une personne qui n'était pas censée être identifiable du point de vue de l'ensemble de données d'entrée. Cette identification peut se produire même accidentellement à la suite du calcul de l'IA, exposant la personne en question à des conséquences imprévisibles. Pour ces raisons, nous expliquons plus loin dans ce blog la méthodologie que nous avons développée et les étapes nécessaires pour garantir un niveau satisfaisant de protection de la vie privée lors du développement de systèmes d'IA.

Comment faire confiance aux systèmes d'IA ?

Voilà pour ce qui est de l'essentiel. Voyons maintenant comment construire une IA digne de confiance (avec une confidentialité inhérente à la conception) dans un système réel. Les systèmes de réseau sont le meilleur point de départ - un domaine dans lequel nous constatons une utilisation croissante de l'IA et des changements importants à venir.

Ici, comme avec tous les systèmes d'IA, il y a trois interfaces clés avec lesquelles travailler : les données d'entrée de l'IA, l'IA au sein du réseau et les données de sortie de l'IA. Ces trois domaines posent des problèmes de confidentialité et, afin de garantir la fiabilité de l'IA à chaque étape, nous nous efforçons d'imposer des exigences à ceux qui, chez Ericsson, travaillent avec l'IA à chaque étape. Nous fondons ces exigences sur les obligations légales, les demandes des clients et ce que nous considérons comme les meilleures pratiques, et nous essayons d'aligner ces exigences sur la direction dans laquelle nous voyons l'industrie évoluer.

Ci-dessus : Une IA digne de confiance dans un système de réseau

Ci-dessus : Une IA digne de confiance dans un système de réseau

Données d'entrée

Les données d'entrée sont assez simples à comprendre. Il s'agit tout simplement des données utilisées pour alimenter le modèle d'IA. Elles peuvent être de nature personnelle ou non personnelle. Quelle que soit la façon dont elles sont définies, nous devons nous assurer que des règles sont en place, car il est impossible de déterminer exactement ce qui peut être produit à la fin (des données personnelles peuvent même être fabriquées dans le système, ou du moins déduites). Ceci, ajouté à la nature large des définitions des données personnelles, laisse peu ou pas de place à l'erreur.

Chez Ericsson, nous avons mis en place des exigences qui couvrent tous les aspects de la qualité des données, la capacité de dépersonnaliser les données, la minimisation des données et la capacité de séparer les données en données de production, de test et de formation.

L'étape de la boîte noire

Le milieu du processus, ou l'étape de la boîte noire, est peut-être le domaine le plus difficile à expliquer en détail.

Et ce, pour deux raisons principales : Premièrement, c'est l'étape où les modèles d'apprentissage automatique et de raisonnement sont mis en œuvre, ce qui peut parfois être difficile à expliquer. Deuxièmement, étant donné l'importance commerciale de ces processus souvent sensibles, toute tentative d'explication (à moins d'une obligation légale) risque de révéler des secrets commerciaux.

Cependant, ce que nous pouvons dire, c'est que chez Ericsson, nous avons des exigences strictes à ce stade, qui comprennent des aspects tels que la responsabilité, la transparence, la capacité d'expliquer l'IA et la protection de la configuration.

Données de sortie

Enfin, nous avons les données de sortie. Il convient une fois de plus de mentionner ici que, même si nous connaissons et contrôlons les données d'entrée et que nous savons ce qui se passe dans la "boîte noire", il peut toujours y avoir des surprises et de nouvelles données produites à la sortie. Ces données peuvent également être sensibles par nature, ce qui peut accroître la protection que nous devons leur accorder. Les règles que nous avons ici commencent dans la même veine que les données d'entrée en termes de qualité des données, de contrôle d'accès et de sécurité générale des données. Toutefois, nous avons également des exigences supplémentaires, telles que la notification aux utilisateurs de l'utilisation de l'IA, la possibilité d'expliquer les résultats et, fait intéressant, la nécessité d'obtenir une autorisation avant de construire une boucle de données.

Types d'ensembles de données utilisées en IA

Pour beaucoup, les "données" sont un vaste sujet, en particulier dans le domaine de la vie privée. Même les données personnelles, souvent considérées comme étroites par définition, sont un terme aussi varié et diversifié.

En matière d'IA, l'utilisation des données est élargie aux "types d'ensembles de données". Chez Ericsson, nous en traitons trois types distincts en matière d'IA : les données de production, les données synthétiques et les données hybrides.

Ci-dessus : Les types d'ensembles de données utilisés en IA

Ci-dessus : Les types d'ensembles de données utilisés en IA

Données de production

Les données de production sont les données réelles en direct qui sont introduites dans l'IA à partir d'un système ou d'un réseau déployé. C'est là que les exigences entrent en jeu et prévoient des règles strictes régissant le stockage, l'utilisation et les résultats, principalement parce que ces ensembles de données sont susceptibles de contenir des informations personnelles. 

Données synthétiques

Données qui présentent les mêmes propriétés que les données de production, mais qui ne contiennent pas de données réelles sur les abonnés et ont été générées artificiellement. Ces données peuvent être traitées avec un niveau de risque beaucoup plus faible du point de vue de la vie privée, car elles n'identifient pas directement ou indirectement un individu. Ces données sont généralement utilisées pour former, tester et vérifier les résultats de l'IA.

Données hybrides

Une combinaison de données de production et de données hybrides. Ces données ont certaines incidences sur la vie privée, comme l'identifiabilité des personnes. D'autre part, ces données sont également extrêmement utiles pour simuler des scénarios de production réels et peuvent donc être utilisées pour former, tester et vérifier les résultats de l'IA.

Ensembles de données naturellement biaisés et biais inhérents

Il est important de noter que tous les ensembles de données susmentionnés peuvent être naturellement biaisés en se basant uniquement sur l'échantillon. Par exemple, un ensemble de données qui contient plus d'ingénieurs masculins que d'ingénieurs féminins pourrait conduire à des résultats biaisés qui nuisent à la minorité de l'échantillon figurant dans l'ensemble de données du point de vue de la vie privée. Il faut toujours en tenir compte lors de l'évaluation de l'impact sur la vie privée.

Évaluation de l'impact de l'IA sur la vie privée

Le moyen le plus efficace d'identifier les risques inhérents à la vie privée liés aux ensembles de données, et à l'IA en général, est d'effectuer une évaluation des incidences sur la vie privée (PIA). Chez Ericsson, l'évaluation interne des incidences sur la vie privée est une pratique bien établie qui a été affinée au fil des ans.

Cependant, en raison de la nature fluide de l'IA, nous avons créé une méthode supplémentaire d'évaluation de la vie privée pour ceux qui cherchent à utiliser l'IA ; elle doit être complétée et fournit non seulement à l'évaluateur de la vie privée une connaissance approfondie des implications de l'IA, mais aussi des informations concrètes sur ce qui se passe. Nous avons divisé ce document en quatre sections principales :

  • Évaluation des cas d’usage de l'IA : Les cas d’usage prévus doivent être décrits, y compris les données d'entrée nécessaires, les opérations de traitement des données et le résultat escompté.
  • Évaluation de l'impact algorithmique : L'algorithme doit être évalué du point de vue de la vie privée et l'impact éventuel de l'algorithme sur la vie privée doit être documenté. Dans les directives internes d'Ericsson, nous énumérons ici plusieurs questions pour aider à orienter le processus.
  • Choix de conception et justification : il convient d'expliquer pourquoi certains choix de conception ont été faits lors du développement du système d'IA. L'explication doit couvrir les détails concernant les données traitées et la manière dont elles sont traitées dans le système.
  • Résultats du niveau de vérification de la sortie : Il convient de décrire si et dans quelles conditions les résultats peuvent ne pas être alignés sur les attentes des cas d’usage, en suivant une approche fondée sur les risques.

L'avenir de l'IA et de la vie privée

Il est évident que le sujet de l'IA et de la vie privée est à la fois long et complexe. Nous espérons avoir résumé certains des points clés mentionnés ci-dessus, allant de son importance à son évolution actuelle. Nous avons également abordé la manière dont Ericsson aborde et garantit que, pour toutes ses technologies d'IA, la vie privée est intégrée au processus du début à la fin.

Ericsson suit la définition de l'IA de l'UE et toutes ses caractéristiques inhérentes. Cela inclut le fait que notre IA doit être légale, éthique et robuste. Nous sommes conscients que l'avenir de la vie privée et celui de l'IA sont intimement liés en raison de leur nature, comme en témoignent les récentes affaires et les amendes qui y sont associées.

Nous sommes conscients que le secteur de l'IA est en pleine mutation. Qu'il s'agisse des technologies utilisées, des besoins des clients pour une IA plus intelligente ou des réglementations qui arrivent à grands pas. Même si tous ces changements dans l'IA n'ont pas d'impact direct sur la vie privée, nous devons être prêts. Chez Ericsson, nous pouvons affirmer avec certitude que nous avons une longueur d'avance à cet égard et que nous disposons d'un système adaptable qui peut non seulement suivre le rythme de l'évolution en cours, mais qui nous permet également d'être en mesure de contribuer à façonner l'ensemble du domaine de l'IA de manière à ce qu'il respecte les principes clés de la vie privée à l'avenir.

En savoir plus

Les réseaux mobiles font partie de l'infrastructure critique pour la société, les industries et les consommateurs.  Découvrez comment Ericsson construit des systèmes fiables pour répondre à ces exigences critiques.

Lisez le document d'Ericsson intitulé « AI - ethics inside ? »

Lisez le livre blanc d'Ericsson : Explainable AI - comment les humains peuvent faire confiance à l'IA.

Lisez le numéro spécial 2021 de la revue Ericsson Tech Review AI.

Consultez les articles de blog connexes de nos collègues :

Cadres d'IA éthiques : Une dimension critique pour la conception de l'IA dans les télécoms.

Biais de l'IA et droits de l'homme : Pourquoi l'IA éthique est importante

Éthique et IA : 8 étapes pour instaurer la confiance dans les technologies intelligentes

Vous voulez en savoir plus ? Visitez notre bibliothèque complète d'articles de blog sur l'IA et l'apprentissage automatique.

 

The Ericsson Blog

Like what you’re reading? Please sign up for email updates on your favorite topics.

Subscribe now

At the Ericsson Blog, we provide insight to make complex ideas on technology, innovation and business simple.