La France lance l’INSESIA dédiée à la sécurité de l’IA

Le Gouvernement lance l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Un engagement national pour une IA sécurisée et maîtrisée.

L’intelligence artificielle (IA) transforme profondément notre société et nos économies. Pour accompagner cette évolution tout en garantissant la sécurité nationale, le gouvernement annonce la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Cet institut, piloté par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE), vise à structurer l’écosystème français en matière d’évaluation et de régulation de l’IA.

Un cadre international et national pour la régulation de l’IA

L’initiative s’inscrit dans la continuité de la Déclaration de Séoul pour une IA sûre, novatrice et inclusive, adoptée en mai 2024 par plusieurs grandes puissances, dont la France, les États-Unis, le Royaume-Uni et l’Union européenne. Cette déclaration met en avant la nécessité de renforcer les mécanismes de sécurité et de régulation des modèles d’IA pour assurer leur fiabilité et leur transparence.

L’INESIA ambitionne de fédérer les acteurs français de premier plan dans le domaine de la cybersécurité et de la régulation numérique. Parmi eux, l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire National de Métrologie et d’Essais (LNE) et le Pôle d’expertise de la régulation numérique (PEReN). Cette collaboration renforcera les capacités d’évaluation et d’anticipation des risques liés à l’IA.

Des missions stratégiques pour un développement maîtrisé de l’IA

L’INESIA se fixe plusieurs objectifs clés : Analyser les risques systémiques liés à l’IA, notamment dans le cadre de la sécurité nationale. Soutenir la mise en œuvre de la régulation de l’IA, en conformité avec les exigences européennes et internationales. Évaluer la performance et la fiabilité des modèles d’IA, pour garantir leur robustesse et leur intégrité. Diffuser les bonnes pratiques et sensibiliser les acteurs publics et privés, afin de promouvoir une IA responsable et sécurisée.

L’institut jouera un rôle clé dans l’élaboration des normes et des standards de sécurité, en collaborant avec d’autres entités internationales telles que l’AI Safety Institute du Royaume-Uni et l’AI Office de la Commission européenne.

Un positionnement stratégique sur la scène internationale

Avec la création de l’INESIA, la France entend affirmer son leadership dans le domaine de la régulation de l’IA. L’institut sera un acteur clé au sein du réseau international des AI Safety Institutes, en partenariat avec des pays comme le Canada, le Japon, Singapour et le Kenya. Cette collaboration renforcera la coopération scientifique et technologique pour anticiper les défis posés par l’IA.

L’INESIA contribuera également à la mise en place de protocoles d’évaluation communs, facilitant ainsi l’intégration de normes de sécurité harmonisées à l’échelle mondiale.

Un soutien à l’innovation dans un cadre de confiance

Au-delà de la régulation, l’INESIA encouragera également l’innovation en matière d’IA. En structurant un écosystème dynamique de chercheurs et d’ingénieurs, il favorisera le développement de solutions sûres et performantes, adaptées aux besoins de l’industrie, de la santé, de l’éducation et des services publics.

L’institut s’inscrit ainsi dans une approche équilibrée : accompagner la transformation numérique tout en veillant à la protection des citoyens et des infrastructures critiques. Cette initiative marque une étape clé vers une IA plus transparente, éthique et bénéfique pour l’ensemble de la société.

L’Europe dit stop aux dérives de l’IA

Depuis 2018, le Règlement général sur la protection des données (RGPD) offre aux consommateurs européens une meilleure protection de leur vie privée en ligne. Cependant, avec l’évolution rapide de l’intelligence artificielle (IA), de nouvelles préoccupations ont émergé concernant la collecte, le traitement et l’analyse des données personnelles. Face à ces défis, l’Union européenne a adopté en 2024 le Règlement sur l’intelligence artificielle, connu sous le nom d’AI Act. Cette législation vise à encadrer le développement de l’IA pour éviter les abus tout en favorisant l’innovation technologique. Elle s’appliquera progressivement dans tous les pays membres de l’UE d’ici 2026 et concerne toutes les entreprises, européennes ou non, qui vendent, utilisent ou déploient des systèmes d’IA au sein de l’UE.

Interdiction des pratiques à risque dès le 2 février

À partir du 2 février, certaines pratiques jugées inacceptables seront interdites en Europe. Par exemple, la « notation sociale », qui consiste à évaluer les consommateurs sur la base de leur comportement social et économique pour l’attribution d’avantages ou de restrictions, sera proscrite. De plus, les systèmes d’IA qui ciblent intentionnellement des personnes vulnérables, comme les enfants, pour en tirer profit, seront également interdits. Cela inclut les applications qui exploitent la naïveté des enfants pour les inciter à faire des achats en ligne ou les techniques manipulatrices qui influencent les choix des consommateurs à travers des vidéos truquées réalisées avec l’IA.

Vers une régulation complète de l’IA

D’ici le 2 août 2026, le règlement européen prévoit de réguler tout système d’IA présentant des risques, qu’ils soient minimes ou élevés. Tout contenu vidéo, audio, image ou texte généré ou manipulé par une IA devra être identifiable comme tel, par exemple via un filigrane indiquant un potentiel trucage. Les entreprises refusant de se conformer aux nouvelles règles encourront des sanctions pouvant aller jusqu’à 35 millions d’euros ou 7% de leur chiffre d’affaires.

Laisser un commentaire Annuler la réponse