Quatre avantages de l'IA pour la sécurité, la sûreté et la transparence dans les télécommunications
L'intelligence artificielle (IA) offre des avantages considérables pour les télécommunications. Mais elle pose également de nouveaux défis, notamment en matière de fiabilité, de sécurité et de respect de la vie privée. Rejoignez-nous pour explorer les avantages de l'IA en matière de sécurité et découvrir comment elle peut contribuer à protéger nos réseaux, nos informations et même nos vies.
Grâce à ses capacités uniques d'intelligence, d'efficacité et d'automatisation, l'utilisation de l'IA a entraîné des changements évolutifs dans les industries du monde entier. L'industrie des télécommunications n'est pas étrangère à la technologie de l'IA. Chez Ericsson, nous travaillons et développons des technologies basées sur l'IA depuis des décennies pour aider à gérer et automatiser des données de réseau complexes, prédire des modèles et des problèmes, et améliorer les performances du réseau. Ces dernières années, l'utilisation de l'IA dans le secteur des télécommunications au sens large a considérablement augmenté, transformant les cas d'usage, les produits et les services. De même, alors que les progrès des grands modèles de langage (LLM) ont fait de l'IA un sujet d'actualité, les cas d'usage de l'IA générative pour transformer les télécommunications se sont multipliés, ajoutant leur poids à la liste des avantages que l'IA peut offrir.
Mais à mesure que cette évolution progresse, nous devons également reconnaître que les avantages ne nous sont pas toujours favorables. L'IA, bien qu'offrant des avantages significatifs, apporte également une nouvelle série de défis pour les réseaux de télécommunications.
Comme nous l'avons indiqué dans notre récent article de blog, le premier d'une nouvelle série sur la sécurité de la 5G, notre secteur est confronté à un paysage de menaces de plus en plus complexe et évolutif. À mesure que la 5G progresse et que notre technologie s'oriente vers le cloud et l’edge computing, notre écosystème devient de plus en plus imbriqué dans celui du secteur des technologies de l'information, ce qui ouvre de nouvelles possibilités aux cybercriminels pour trouver - et exploiter - les vulnérabilités de nos réseaux et de nos systèmes.
L'essor de l'IA générative et des LLM a également donné à ces adversaires des outils puissants leur permettant d'identifier les vulnérabilités et d'exécuter des attaques rapides sur les systèmes de télécommunications, y compris les composants d'IA conçus pour les sécuriser. En fait, selon un rapport récent de Sapio Research and Deep Instinct, 85 % des professionnels de la sécurité interrogés ont attribué la récente augmentation des attaques à des acteurs malveillants utilisant l’IA générative. Se défendre contre ces menaces et y répondre dans un environnement complexe et dynamique nécessite des solutions de haute technologie et de l’automatisation – le genre de solutions qui ne peuvent être réalisées qu'avec la puissance de l'IA.
Il existe également des défis en matière de fiabilité et de responsabilité.. L'IA peut générer de l'incertitude, en particulier lorsque les résultats sont générés par des modèles d'IA probabilistes et non transparents, ou qu'il n'y a pas suffisamment de transparence ou d'explications sur les résultats ou le fonctionnement des modèles.
Il est primordial de veiller à ce que les choses soient bien faites, à chaque étape du processus. De la sélection et de l'examen des données à utiliser pour la formation, au développement et au test des algorithmes eux-mêmes, en passant par les données auxquelles ils auront accès et les décisions et actions qu'ils prendront, nous devons maintenir l'action et la responsabilité humaines dans l'ensemble de ce processus. Heureusement, c'est possible, en introduisant de la transparence et de l'explicabilité à chaque étape - une transparence et un niveau de compréhension rendus possibles par les connaissances et les explications de l'IA. Notre première étape doit toujours être de jeter les bases de la confiance dans l'IA, comme l'explique notre livre blanc sur l'IA digne de confiance.
Pour mieux comprendre cette situation, nous allons explorer quatre des principaux domaines dans lesquels l'IA peut être utilisée pour renforcer la sécurité et la confiance dans le domaine des télécommunications, afin de protéger nos réseaux, nos informations et même nos vies.
1. L'IA comme contre-mesure aux menaces et à la fraude
Une prévention et une détection des menaces adaptables
En tirant parti de la puissance de traitement des big data et des capacités prédictives de l'IA et de la machine learning (ML), nous sommes désormais en mesure de détecter et de prévenir plus facilement divers types de fraudes dans le secteur des télécommunications. En entraînant ces algorithmes avec de grandes quantités de données historiques sur les réseaux, ils peuvent apprendre à reconnaître un comportement "habituel" - même avec des complexités telles que l'évolution du trafic, la topologie du réseau et d'autres facteurs dynamiques. Sur la base de ces connaissances, le modèle d'IA peut alors être utilisé pour détecter efficacement tout comportement anormal - et les menaces potentielles.
Les outils pilotés par l'IA peuvent même s'adapter aux nouvelles menaces, en améliorant la détection au fur et à mesure qu'ils apprennent. Grâce à cette adaptabilité, les systèmes alimentés par l'IA peuvent faire la distinction entre le trafic légitime et les menaces potentielles avec une plus grande précision, réduisant ainsi les faux positifs. Les algorithmes d'IA, capables d'analyser de vastes ensembles de données, peuvent également prédire de futures attaques potentielles en analysant les schémas du trafic réseau. Comme les systèmes pilotés par l'IA peuvent comprendre le comportement des entités du réseau et identifier les anomalies, ils peuvent gérer des réseaux de grande taille et en expansion sans augmentation substantielle de la supervision manuelle.
L'IA pour une prédiction avancée des vulnérabilités
La sécurité des logiciels est également une préoccupation essentielle à mesure que la transformation numérique progresse. Les vulnérabilités logicielles peuvent, plus que jamais, poser des risques pour les infrastructures et les systèmes critiques. Chez Ericsson, nous avons pu démontrer l'utilisation de la machine learning (ML) comme méthode d'assurance logicielle, en prédisant les vulnérabilités des logiciels avant leur publication, à partir d'une analyse intelligente du code source.
Arrêter les escrocs dans leurs traces (numériques)
Comme nous l'avons vu dans ce billet de blog de 2020 sur l'IA et la sécurité dans les réseaux mobiles, la détection des anomalies est un domaine bien établi où l'IA a été utilisée de manière significative depuis un certain temps, aidant à lutter contre la fraude contre l'équipement ou l'infrastructure de l'utilisateur, tels que les fausses stations de base. D'autres cas d'usage pour la prévention de la fraude comprennent le clonage de cartes SIM, la fraude au partage des revenus internationaux et la fraude par contournement.
La prévention du phishing et des spams téléphoniques est un autre cas d'usage important où l'IA porte la défense à un tout autre niveau, en utilisant l'analyse des données du réseau et des informations transmises pour détecter et bloquer les tentatives de phishing et spams, protégeant ainsi les utilisateurs contre les escroqueries potentielles et les acteurs malveillants. Alors que le filtrage des courriels pour détecter les spams ou les tentatives d'hameçonnage était jusqu'à présent relativement simple, ces menaces d'ingénierie sociale deviennent de plus en plus sophistiquées. Grâce aux LLM génératifs, les cybercriminels n'ont plus besoin que d'une expertise technique limitée, voire de compétences linguistiques, pour mener des attaques rapides et efficaces en grand nombre.
En analysant les données, l'IA peut automatiser la surveillance des comportements suspects, tels qu'un appareil envoyant un grand nombre de SMS à des numéros inconnus, ou des textes contenant des URL suspectes pouvant mener à des sites web frauduleux. En détectant ces anomalies, l'IA peut signaler des menaces potentielles, ce qui permet d'approfondir l'enquête pour en déterminer la nature.
Le besoin de rapidité dans la réponse aux menaces
L'un des principaux avantages qui mérite d'être souligné séparément dans le domaine de la détection des menaces est la simple question de l'urgence. Pour lutter contre les menaces avancées posées par les cybercriminels d'aujourd'hui, nous devons utiliser des solutions d'IA - des systèmes capables de s'adapter, d'apprendre et de répondre aux menaces émergentes plus rapidement que les mesures de sécurité traditionnelles. Les adversaires utilisant l'IA pour mener des attaques rapides, nos mécanismes de défense doivent être tout aussi agiles. Les solutions basées sur l'IA et le ML et l'automatisation de la sécurité des réseaux offrent la possibilité de surveiller les menaces potentielles (même celles qui n'ont jamais été vues auparavant) et de réagir en temps réel, en neutralisant les menaces dès leur apparition - et non après, une fois que le mal est fait.
2. Sécurité physique : La sécurité alimentée par l'IA permet de sauver des vies, d'économiser de l'énergie et de réduire les coûts
La capacité de l'IA à analyser des images ou des séquences pour permettre des cas d'usage de surveillance et de maintenance à distance pour les équipements et infrastructures physiques fait plus qu'ajouter de la commodité et protéger les équipements de valeur. Elle réduit également les risques de sécurité pour les techniciens et les autres membres du personnel.
Comme nous l'avons mentionné plus tôt dans cette série dans notre article sur le développement durable et la consommation d'énergie, l'utilisation de prédictions d'IA basées sur des données de réseau réelles pour simuler un test de conduite virtuel peut non seulement réduire les émissions de carbone, mais aussi supprimer la nécessité de conduire physiquement, réduisant ainsi les risques pour les conducteurs qui, autrement, passeraient potentiellement des heures sur la route. De même, si les techniciens ou d'autres membres du personnel sont en mesure de surveiller un site ou de s'y engager à distance ou par le biais de simulations alimentées par l'IA, les risques de sécurité liés aux déplacements sur les sites ou à la nécessité d’escalader les tours peuvent être considérablement réduits, voire supprimés.
Un scénario similaire est centré sur la maintenance prédictive. Grâce à l'IA, les techniciens peuvent prédire les défaillances ou les vulnérabilités des systèmes, ce qui permet aux opérateurs de télécommunications de résoudre les problèmes avant qu'ils ne deviennent des menaces critiques - soit pour leur infrastructure, soit pour la sécurité de leur personnel.
Par exemple, chez Ericsson, nous avons récemment développé un outil alimenté par l'IA pour aider les techniciens à identifier les problèmes de maintenance potentiels à l'aide d'appareils tels que des drones, ou même leur téléphone portable. Les techniciens peuvent capturer des images de l'équipement - des unités radio ou des câbles par exemple. Le logiciel analyserait et identifierait alors tout problème ou danger potentiel, recommandant des actions de maintenance préventive à entreprendre, améliorant à la fois la résilience et la performance, mais aidant également à prévenir tout incident physique dû à un équipement peu sûr ou mal entretenu, ou évitant la nécessité de grimper sur les tours.
L'IA est également utilisée pour moderniser la sécurité des travailleurs sur le terrain. En utilisant une application mobile qui réunit l'IA, la vision par ordinateur et les technologies IoT, les équipes de terrain et les responsables peuvent bénéficier d'une sécurité et d'une conformité améliorées. Par exemple, ils peuvent valider qu'un travailleur porte l'équipement de protection adéquat, comme un casque de sécurité, un gilet, des gants de travail et des bottes, avant d'entreprendre une tâche. L'application peut également aider une équipe grâce à des mises à jour météorologiques en direct ou, en cas d'accident, même aider à identifier un centre de traumatologie à proximité en automatisant le plan d'action d'urgence (PAE).
Avec Ericsson Safe Work, les travailleurs sur le terrain peuvent bénéficier de mesures de sécurité modernisées via une application mobile alimentée par l'IA, en vérifiant l'équipement de protection ou en identifiant les centres médicaux à proximité.
3. Protéger la vie privée et les informations sensibles
L'adoption de l'IA suscite beaucoup de craintes dans les esprits - et il n'est pas difficile de comprendre pourquoi, si l'on considère la façon dont la culture de la science-fiction a représenté cette technologie - comme une menace potentielle inquiétante pour notre autonomie et nos droits de l'homme. Surmonter cette peur et instaurer la confiance à chaque étape est potentiellement le plus grand défi auquel l'IA est confrontée. Cela est particulièrement important lorsque l'IA a des responsabilités nécessitant l'utilisation de nos données ou la gestion de mesures de sécurité, comme c'est le cas dans notre société de plus en plus numérisée.
Lire notre rapport sur l'éthique de l'IA
Que signifie faire pleinement confiance à une technologie ? Découvrez comment les technologies à croissance rapide doivent s'aligner sur des principes éthiques pour être adoptées par la société.
Cliquez iciHeureusement, de nombreux travaux ont déjà été réalisés sur l'IA et la protection de la vie privée et sur la manière de développer une IA digne de confiance. La protection des informations sensibles ou personnelles est un élément clé à cet égard, en veillant à ce que les données sensibles soient protégées - d'autant plus que, si des protections appropriées ne sont pas mises en place, les systèmes d'IA peuvent être en mesure d'identifier et d'exposer une personne ou un élément d'information autrement anonyme, même de manière accidentelle.
4. Transparence et chaîne de confiance
La confiance dans les réseaux de télécommunications peut être considérée comme une réaction en chaîne. Si nous comprenons et faisons confiance aux composants de l’'IA et du ML (y compris les données d'entrée sur lesquelles ils sont formés ou avec lesquelles ils travaillent, et leur gestion), nous pouvons faire confiance aux résultats et aux mesures de sécurité qu'ils mettent en œuvre, ce qui conduit à une confiance globale dans le réseau. Mais une seule rupture dans cette chaîne peut compromettre l'ensemble du système.
Valider l'exactitude : comprendre ce qui se trouve dans la boîte noire
L'étape de la "boîte noire" est la partie du processus où les modèles complexes sont appliqués et où les processus de prise de décision ont lieu. Il s'agit ici de comprendre et d'expliquer ce qui se passe réellement dans cette boîte noire. Pourquoi le modèle d'IA a-t-il pris une certaine décision ? Comment est-il parvenu à cette décision ? Nous devons également identifier et évaluer tout comportement nouveau ou inattendu, en particulier lorsque le modèle est déployé d'un environnement simulé vers un banc d'essai ou un réseau réel.
C'est là que l'IA explicable entre en jeu. Premièrement, l'IA explicable peut aider à expliquer (en utilisant le langage naturel) les actions et les décisions prises dans les coulisses d'un système d'IA, ce qui permet aux utilisateurs non experts (clients externes ou utilisateurs internes) de poser des questions et de mieux comprendre les politiques ou les actions - un facteur clé lorsqu'il s'agit de transparence et de confiance de la part des clients.
Deuxièmement, les méthodes d'IA explicables, telles que la méthode BEERL (Both Ends Explainability for Reinforcement Learning) que nous avons développée, peuvent nous fournir des caractéristiques et des explications internes détaillées qui sont très utiles pour développer et tester l'exactitude des modèles d'IA, garantissant ainsi la précision et la responsabilité des modèles eux-mêmes.
Exemple de politique d'inclinaison électrique d'une antenne à distance, utilisant des méthodes d'IA explicable ainsi qu'un modèle de langage naturel pour répondre aux questions sur les décisions prises par l'IA.
Permettre l'automatisation - partager les prédictions pour une action proactive
L'IA explicable soutient également l'automatisation des cas d'usage des télécommunications et la résolution des problèmes de manière proactive - avant qu'ils ne surviennent, plutôt qu'après qu'ils se soient produits. L'un de ces exemples est l’assurance de tranche de réseau, qui garantit que la tranche de réseau répondra à toutes les exigences de qualité de service de l'accord de niveau de service (SLA) tout au long de son cycle de vie. Si l'accord de niveau de service n'est pas respecté, une pénalité devra être payée. L'IA et l'IA explicable peuvent aider en prédisant et en identifiant les problèmes à l'avance. Le problème identifié peut alors être partagé avec d'autres modules basés sur l'IA afin de fournir des recommandations appropriées sur les mesures à prendre pour résoudre toute violation potentielle avant qu'elle ne se produise. De plus amples détails sont disponibles dans notre livre blanc sur l'IA explicable.
Aller de l'avant dans un environnement en évolution rapide
Enfin, la gouvernance a un rôle majeur à jouer dans la mise en place de systèmes fiables. Peut-être accélérée par la peur culturelle de l'IA que nous avons évoquée plus haut, l'élaboration de réglementations relatives à l'IA semble progresser rapidement, plus rapidement que toute autre avancée technologique récente. Des réglementations telles que la loi européenne sur l'intelligence artificielle ont déjà été introduites, suivies très récemment par le décret américain sur le développement sûr, sécurisé et fiable de l'IA et la loi canadienne sur l'intelligence artificielle et les données.
Nous continuerons, bien entendu, à suivre de près les développements réglementaires au fur et à mesure de leur évolution, et à mettre en œuvre toute adhésion requise dans le cadre de nos processus de développement normaux. Nous espérons voir des progrès tout aussi rapides en ce qui concerne les efforts de normalisation autour de l'IA digne de confiance, car l'alignement et la participation de l'industrie seront essentiels pour aider à guider cette technologie dans la bonne direction et s'assurer que nous pouvons développer des systèmes et des solutions d'IA responsables et dignes de confiance (tout en empêchant leur utilisation abusive).
Série de blogs sur les avantages de l'IA dans les réseaux
Nous espérons que vous avez apprécié cet épisode sur la façon dont l'IA transforme la sécurité des télécommunications. Vous pouvez lire la suite de notre série de blogs sur les avantages de l'IA dans les réseaux ici, ou vous inscrire ci-dessous pour être informé des prochains articles.
Inscrivez-vous à notre série de blogs sur les bénéfices de l'IA dans les réseaux
Ne manquez rien - inscrivez-vous dès aujourd'hui et soyez informé de la sortie de chaque article.
S’inscire maintenantEn savoir plus
En savoir plus sur notre série de blogs "Avantages de l'IA dans les réseaux".
Pour en savoir plus sur l'éthique et la confiance dans l'IA, sur ce que cela signifie pour les télécommunications et sur les "lignes directrices éthiques pour une IA digne de confiance" de la Commission européenne qu'Ericsson a adoptées, consultez notre livre blanc "Trustworthy AI" (IA digne de confiance).
Plongez plus profondément dans l'IA explicable et la façon dont les humains peuvent faire confiance à l'IA dans ce livre blanc.
En savoir plus sur la sécurité des télécommunications dans un monde connecté
CONTENU ASSOCIÉ
Like what you’re reading? Please sign up for email updates on your favorite topics.
Subscribe nowAt the Ericsson Blog, we provide insight to make complex ideas on technology, innovation and business simple.