LE CLUB DES ACTEURS DE LA PERFORMANCE PUBLIQUE

Partager

Cisco est le leader mondial des technologies qui permet à l'Internet d’exister depuis plus de 35 ans. Leur mission : connecter de manière sécurisée les personnes, les applications et les objets.

Cisco place l’innovation au cœur de sa stratégie et a notamment investi 6,3 milliards de dollars en 2020. Aujourd’hui, c’est un acteur majeur du travail collaboratif et à distance, des infrastructures de transport, des centres de données et de la sécurité.

En s’appuyant sur son écosystème de partenaires français, Cisco accompagne ainsi ses clients du secteur public dans la numérisation de leur métier. De l’administration centrale, aux collectivités territoriales et établissements scolaires mais aussi dans les hôpitaux, leurs solutions permettent aux agents publics de mener à bien leurs tâches au service des citoyens.

Pour plus de renseignements : http://www.cisco.fr
Pour consulter l’information en continu, visitez http://newsroom.cisco.com.

Cisco sera représenté au sein du Club par Stéphane Dolon, directeur secteur public.
 

6 min

Julie Robin : “Unir entreprises technologiques et gouvernements pour la cybersécurité”

Face aux menaces autour de l’Intelligence Artificielle en 2024, les entreprises technologiques et les gouvernements doivent s'unir pour la cybersécurité. Une tribune de Julie Robin, directrice des affaires publiques chez Cisco France. 

Grâce à l’Intelligence Artificielle, les entreprises technologiques et les gouvernements vont pouvoir unir leurs forces afin de développer des systèmes avancés de détection des menaces et offrir un Internet plus sécurisé. L'ingéniosité humaine, renforcée par les capacités de l'IA, offre de nouvelles voies pour résoudre des problèmes sociétaux complexes, tels qu'une production agricole plus efficace, la recherche médicale et la production d'énergie durable. L'IA pourrait même permettre d’exploiter la puissance des réseaux à grande échelle pour lutter contre les cybermenaces.

Toutefois, avant de parvenir à atteindre ces objectifs ambitieux, il faut travailler à contrer la menace croissante que l'IA fait peser sur les personnes, les entreprises et la société en matière de désinformation. Avec les avancées technologiques réalisées dans le domaine de l'IA, il n’a jamais été aussi rapide, facile et peu onéreux de manipuler et de détourner des contenus numériques dans le but d'induire en erreur et de duper à grande échelle. Dans ce domaine, l’ensemble des acteurs – concepteurs, utilisateurs, régulateurs – ont un rôle important à jouer si nous voulons bénéficier des avantages que peut offrir l'IA tout en maîtrisant efficacement les nouveaux risques qu'elle engendre.

Malgré les efforts déployés par les secteurs public et privé pour détecter et prévenir les effets de cette guerre de la désinformation, ses ramifications ne sont plus théoriques. Les impacts matériels et réputationnels de la manipulation alimentée par l'IA sont clairs, et l'IA joue un rôle croissant dans les arnaques, la fraude et les campagnes d'opinion.

La surface d'attaque ainsi que les sources permettant de générer de la désinformation grâce à l'IA s'élargissent

Les tentatives alimentées par l'IA d'influencer les cœurs, les esprits et les processus électoraux ont été bien médiatisées, cependant, la sensibilisation du public n'a guère permis de répondre à cette préoccupation croissante. Cela n'a pas non plus empêché des individus ou des organisations moins connus d'être ciblés. Alors que les motifs varient, l'arme de l'IA pour discréditer des figures privées et publiques, nuire à des organisations, voler de l'argent et déformer les perceptions de la réalité exige une réponse coordonnée et mondiale quant à la provenance du contenu.

Au fur et à mesure qu’augmente le volume de données générées par le biais des opérations courantes des entreprises et de nos vies numériques, la surface d'attaque ainsi que les sources permettant de générer de la désinformation grâce à l'IA s'élargissent. Avec la croissance des volumes de données, la précision de l'IA s’améliore.

À titre d’exemple, les personnes dont le visage est reconnaissable parce qu’elles ont été l’objet de nombreuses heures de séquences vidéo de haute qualité deviennent des cibles, tout comme les détenteurs de grandes quantités de données telles que les plateformes de médias sociaux, les entreprises et les gouvernements.

Une partie de la réponse consiste à s'assurer que les entreprises développant des technologies alimentées par l'IA le font de manière responsable. Chez Cisco, nous avons une expérience étendue dans le développement de logiciels sécurisés, y compris dans le domaine des technologies alimentées par l'IA. Nous sommes par ailleurs un leader de l'industrie dans le développement de principes et de pratiques d'IA responsables visant à assurer la transparence, l'équité, la responsabilité, la fiabilité, la sécurité et la confidentialité.

Nous avons également vu des gouvernements interagir avec l'industrie pour mieux comprendre à la fois la promesse et le risque qui émanent des outils largement disponibles de génération de contenu alimentés par l'IA. Le règlement européen sur l’IA récemment adopté visait à atteindre cet équilibre. Il conviendra désormais de suivre attentivement sa mise en œuvre car les développeurs de technologie, ceux qui la mettent en œuvre, les utilisateurs et les gouvernements doivent encore travailler davantage, ensemble et en parallèle.

Accélérer le rythme

Le récent « Indice de préparation à la cybersécurité » de Cisco a révélé que seulement 15 % des organisations étaient prêtes à résister à une menace de cybersécurité. 22 % sont en mesure de protéger leurs données. Alors qu'il est évident que la pression est forte pour exploiter les capacités de l'IA, l' « Indice de préparation à l'IA » publié par Cisco en 2023 a montré que 86 % des organisations dans le monde n’étaient pas pleinement préparées à intégrer l'IA dans leurs entreprises. 

En 2024, nous verrons très certainement les organisations faire des progrès considérables pour relever ces doubles défis. Elles devraient en particulier concentrer leur attention sur le développement de systèmes permettant d’améliorer la fiabilité des détections dans le domaine de l’IA, et ainsi atténuer les risques associés.

Dans ses prédictions technologiques pour 2024, notre Executive Vice President and Chief Customer Experience Officer, Liz Centoni, a ainsi résumé la situation : « Les nouvelles solutions d'IA inclusives protégeront contre les voix clonées, les deepfakes, les bots des réseaux sociaux et les campagnes d'influence. Les modèles d'IA seront entraînés sur de grands ensembles de données pour une meilleure précision et efficacité. De nouveaux mécanismes d'authentification et de provenance favoriseront la transparence et la responsabilité. »

À ce jour, détecter du contenu écrit généré par l'IA s'est avéré particulièrement difficile. Les outils de détection d'IA n'ont donné que de faibles niveaux de précision, interprétant souvent un contenu généré par l’IA comme généré par des humains, et vice-versa. Ceci a des conséquences évidentes pour les domaines où l’IA pourrait être interdite. Nous pouvons citer en exemple l’éducation, où les étudiants peuvent être pénalisés si le contenu qu'ils ont personnellement écrit « échoue » à l'algorithme d'un détecteur d'IA.

Pour renforcer la protection contre les dérives liées à l'IA, nous pouvons nous attendre à ce que les entreprises technologiques investissent davantage dans ce domaine - améliorant la détection de toutes les formes de production d'IA. Cela peut prendre la forme du développement de mécanismes pour l'authentification du contenu et de sa provenance, permettant aux utilisateurs de vérifier l'authenticité et la source du contenu généré par l'IA.

Exploiter une réponse collective

En 2024, nous anticipons une augmentation significative des interactions public-privé visant à combattre la mauvaise utilisation du contenu généré par l'IA. En France, Cisco s’est toujours attaché à travailler étroitement avec les pouvoirs publics : Cisco a ainsi investi, humainement et financièrement, dans le Campus Cyber, Cybermalveillance et Cyberbooster, pour contribuer au succès de ces projets.

Ces actions s’inscrivent dans la continuité de la conviction portée par Liz Centoni que, « conformément aux Principes directeurs du G7 sur l'IA concernant les menaces contre la démocratie, au Safe AI Executive Order de l'administration Biden et à l’EU AI Act, nous verrons également plus de collaboration entre le secteur privé et les gouvernements pour sensibiliser face aux menaces et mettre en œuvre des mesures de vérification et de sécurité ».

Cela inclura probablement des sanctions contre ceux qui sont responsables des campagnes de désinformation numérique. Pour répondre aux préoccupations réglementaires, les entreprises devront redoubler d'efforts pour protéger leurs données et détecter les menaces avant que des effets dommageables puissent se faire sentir. Cela signifiera une vigilance constante, des évaluations régulières des vulnérabilités, des mises à jour diligentes des systèmes de sécurité et un audit approfondi de l'infrastructure réseau.

De plus, le double rôle de l'IA, à la fois menace et remède à la désinformation, nécessite de la transparence et une approche ouverte afin de protéger les valeurs démocratiques et les droits individuels. Aborder les deux côtés de l'équation implique de repenser l'infrastructure informatique. Les dirigeants d'entreprise sont en fait en train de prendre conscience que leur infrastructure technique est leur infrastructure commerciale.

La détection précoce par la surveillance et l'observabilité, par exemple, sur la complexe tapisserie de l'infrastructure, des composants réseau, du code d'application et de ses dépendances, et de l'expérience utilisateur, peut faire partie de la solution. Identifier et lier les résultats potentiels à une réponse efficace et efficiente est crucial.

Les technologies propulsées par l'IA peuvent enfin débloquer les réponses aux problèmes qui ont mis en échec l'innovation humaine tout au long de l'histoire, mais elles déclencheront également de nouveaux problèmes hors de la portée de notre propre expérience et de notre expertise. Une technologie et des régulations soigneusement développées et stratégiquement déployées peuvent nous permettre d’y répondre, à condition que nous reconnaissions tous la responsabilité que nous partageons dans ce domaine.

Les entreprises technologiques ont un rôle fondamental à jouer pour aider les gouvernements à assurer la conformité avec les nouvelles réglementations. Cela concerne tant le développement des capacités technologiques qui rendent la conformité possible que la promotion d'une culture d'utilisation responsable de l'IA. Pour que l’IA soit pleinement une opportunité et non pas une menace, nous devons mettre en œuvre des mécanismes de vérification robustes et des mesures de cybersécurité adaptées et, avant cela, faire de la collaboration public-privé le socle de la régulation de demain.

Club des acteurs publics

Votre navigateur est désuet!

Mettez à jour votre navigateur pour afficher correctement ce site Web. Mettre à jour maintenant

×