Archives de catégorie : IA

Le cyber espionnage chinois bondit de 150 %

Un rapport met en évidence une augmentation spectaculaire des cyberattaques, notamment une hausse de 150 % des activités cyber chinoises et une explosion des manipulations assistées par l’intelligence artificielle. Le paysage de la cybersécurité se complexifie dangereusement.

La menace cybernétique mondiale ne cesse de croître, portée par des acteurs étatiques et cybercriminels de plus en plus sophistiqués. Le Global Threat Report 2025 de CrowdStrike dévoile des chiffres inquiétants : une augmentation de 442 % des attaques de vishing, une montée en flèche des cyberattaques chinoises et des intrusions sans malware qui défient les solutions de sécurité traditionnelles. Face à ces nouvelles menaces, les entreprises et les gouvernements doivent revoir leurs stratégies et adopter une approche plus proactive pour anticiper les cyberattaques de demain.

L’espionnage cyber chinois atteint des sommets

Les attaques cyber chinoises ont connu une augmentation de 150 %, avec une explosion de 300 % pour les secteurs critiques comme la finance, l’industrie et les médias. En 2024, sept nouveaux groupes de pirates chinois ont été identifiés, illustrant une montée en puissance agressive des opérations d’espionnage commanditées par Pékin. Ces attaques visent avant tout l’acquisition de données sensibles et l’infiltration de réseaux stratégiques.

Cette recrudescence s’inscrit dans une tendance globale où les États-nations exploitent des cyber opérations pour asseoir leur influence géopolitique. Ces actions sont souvent menées sous le couvert de sociétés écran ou via des groupes affiliés, compliquant leur détection et leur attribution. L’espionnage économique et industriel reste une priorité pour ces cyber opérateurs qui ciblent en priorité les innovations technologiques et les secrets commerciaux.

En 2024, sept nouveaux groupes d’attaquants liés à la Chine, contribuant à une hausse de 150 % des cyberattaques d’espionnage.

L’intelligence artificielle au service des cybercriminels

L’ingénierie sociale assistée par l’IA est désormais une arme incontournable pour les cybercriminels. Le rapport met en lumière une augmentation de 442 % des attaques de vishing, où des voix synthétiques convaincantes sont utilisées pour tromper les victimes et dérober des informations sensibles. Des groupes tels que CURLY SPIDER, CHATTY SPIDER et PLUMP SPIDER ont perfectionné ces techniques pour contourner les systèmes de détection et infiltrer des réseaux sécurisés.

L’Iran, de son côté, a exploité l’IA pour identifier des vulnérabilités et développer des exploits ciblant les infrastructures critiques. Cette utilisation offensive de l’intelligence artificielle permet aux attaquants de déployer des campagnes de piratage plus efficaces et difficiles à repérer. Par ailleurs, l’essor des intrusions sans malware complique la tâche des équipes de cybersécurité : désormais, 79 % des attaques initiales ne reposent plus sur des logiciels malveillants mais sur l’exploitation d’identifiants volés.

Exergue : Le vishing a explosé de 442 % en 2024, porté par l’ingénierie sociale assistée par l’intelligence artificielle.

Une cybersécurité sous pression

Les entreprises et institutions doivent faire face à une réduction drastique des délais d’intrusion. En 2024, le temps moyen pour compromettre un système est passé à 48 minutes, avec un record de 51 secondes. Cette rapidité rend la détection et la réponse d’autant plus complexes, nécessitant une approche unifiée et en temps réel.

Les attaques internes sont également en hausse, notamment sous l’impulsion du groupe FAMOUS CHOLLIMA, lié à la Corée du Nord. En 2024, ce groupe a été impliqué dans 304 incidents de cybersécurité, dont 40 % provenaient de cybercriminels infiltrés sous de fausses identités pour accéder aux systèmes. Par ailleurs, les intrusions dans le cloud ont augmenté de 26 % en un an, les cybercriminels exploitant des comptes légitimes pour masquer leur présence et éviter la détection.

Trump dynamite la protection des données : vers un open bar numérique ?

La récente décision de l’administration Trump de démanteler le Privacy and Civil Liberties Oversight Board (PCLOB) marque un tournant critique dans les relations transatlantiques en matière de protection des données.

Depuis des années, l’Europe tente de résister aux assauts américains sur la protection des données. Mais si vous pensiez que la bataille était déjà un champ de ruines, Trump vient d’arriver avec un bulldozer. Le président républicain supprime les dernières barrières juridiques qui protégeaient les citoyens étrangers contre la collecte et l’exploitation massive de leurs informations personnelles par les entreprises américaines.

Une privacité numérique déjà en miettes

Le Cloud Act et le Patriot Act avaient déjà sérieusement entaillé la vie privée numérique. Le Privacy Shield, censé encadrer le transfert des données entre l’Europe et les États-Unis, a été invalidé deux fois (2015 et 2020) par la Cour de justice de l’UE pour non-respect du RGPD et des droits fondamentaux. Aujourd’hui, les entreprises européennes qui utilisent AWS, Microsoft ou Google verront leurs données encore plus exposées.

L’IA américaine et la surveillance globale

Les données collectées alimenteront directement les modèles d’intelligence artificielle made in U.S.A. Grok 3, le dernier-né d’Elon Musk, s’entraîne déjà sur tous les échanges de X (ex-Twitter) et sur les informations exfiltrées par ses DOGE kids. Si demain, plus aucune restriction ne protège les données étrangères, ce sont des milliards d’informations personnelles qui nourriront ces modèles et renforceront les capacités de surveillance de l’État américain.

Les implications sont immenses. Non seulement les entreprises privées américaines, mais également le gouvernement des États-Unis, auront accès à une quantité illimitée de données européennes. Une surveillance renforcée s’installe, avec un contrôle accru sur les flux d’informations, les transactions commerciales et même les interactions sociales.

Le Royaume-Uni : un précédent inquiétant

Apple a annoncé ne plus pouvoir proposer de chiffrage avancé sur son cloud au Royaume-Uni, une décision qui, selon la presse américaine, ferait suite à une demande des autorités britanniques d’accéder aux données de ses utilisateurs. L’entreprise californienne affirme qu’elle n’a jamais mis en place de « porte dérobée » ou de « clé principale », mais le gouvernement britannique aurait demandé un accès aux données stockées sur le cloud, au nom de la sécurité nationale.

Cette affaire illustre comment les gouvernements exercent une pression croissante sur les entreprises technologiques pour accéder aux informations privées des citoyens. Les utilisateurs britanniques d’Apple qui n’avaient pas activé la fonction « protection avancée des données » (ADP) ne pourront plus le faire. Ceux qui l’ont déjà activée devront la désactiver sous peine de voir leurs services réduits.

Conséquences directes : Une réduction drastique des protections pour les données personnelles. Une augmentation du risque de surveillance gouvernementale. Une remise en cause du chiffrement des sauvegardes iCloud, des photos, notes et mémos vocaux.

L’Europe doit-elle enfin se défendre ?

L’UE et la Suisse sont-elles prêtes à faire face ? Voient-elles seulement le vent tourner ? Quand nos échanges, nos décisions, nos savoirs deviennent une matière première pour d’autres, ce n’est plus seulement une fuite, c’est une perte de souveraineté.

L’Union européenne, face à l’invalidation du Privacy Shield, peine à trouver une solution. Le RGPD, bien que strict, se heurte aux réalités technologiques et à la puissance des géants américains du numérique. Le risque est immense : une dépendance totale au cloud américain, et donc une vulnérabilité accrue face à la collecte massive des données européennes.

Faut-il enterrer définitivement l’idée d’un Privacy Shield 3 ou est-ce le moment de sortir du piège d’un cloud américain en mode open bar ?

Ce qui se joue ici n’est pas qu’une question de vie privée, mais bien de survie numérique. L’Europe doit-elle se résoudre à devenir une colonie digitale des États-Unis, ou peut-elle encore défendre sa souveraineté ?

Pour suivre l’actualité cybersécurité en temps réel, inscrivez-vous à la newsletter et rejoignez nos canaux WhatsApp et réseaux sociaux !

GRASP : Une plateforme mondiale pour anticiper les risques de l’intelligence artificielle

L’intelligence artificielle progresse rapidement et transforme nos sociétés. Cependant, elle soulève aussi des défis cruciaux en matière de sécurité et de gouvernance. Pour répondre à ces enjeux, GRASP (Global Risk and AI Safety Preparedness) a été lancée afin de fournir une cartographie des risques liés à l’IA et d’identifier les meilleures solutions pour les atténuer.

Lancée le 9 février 2025 à l’occasion de l’événement AI Safety Connect à Paris, la plateforme GRASP est le fruit d’une collaboration entre la Mohammed Bin Rashid School of Government (MBRSG) et le Future of Life Institute (FLI). Son objectif est de structurer les menaces potentielles associées à l’IA et de proposer des stratégies d’atténuation adaptées. Grâce à une base de données interactive, elle permet aux gouvernements, chercheurs et entreprises d’accéder aux solutions existantes pour garantir une intelligence artificielle plus sûre et maîtrisée.

Une initiative internationale pour mieux comprendre les dangers de l’IA

Face à l’essor rapide de l’intelligence artificielle, les experts alertent sur les risques potentiels liés à son utilisation. Développée sous l’égide de la MBRSG, avec la participation d’institutions renommées telles que le Center for AI Security (CeSIA), Apart Research et l’Institut de Pékin pour la sécurité et la gouvernance de l’IA, GRASP vise à centraliser et structurer les connaissances en matière de sécurité de l’IA.

La plateforme est intégrée au projet SAFE (Safety and Assurance of Generative AI) du Global Partnership on AI (GPAI), en collaboration avec l’OCDE. Elle s’appuie également sur les recherches du MIT AI Risk Repository, qui recense plus de 80 types de risques et 200 solutions.

Une classification des risques identifiés

GRASP propose une cartographie détaillée des dangers liés à l’intelligence artificielle, divisée en trois grandes catégories :

  • L’utilisation malveillante de l’IA : Cyberattaques automatisées, diffusion de fausses informations, développement d’armes autonomes, surveillance intrusive.
  • Les défaillances et dérives technologiques : Erreurs de programmation, comportements imprévus, dérives des IA auto-apprenantes, perte de contrôle sur les systèmes avancés.
  • Les impacts sociétaux : Discrimination algorithmique, inégalités économiques, manipulation de l’opinion publique, effets sur la santé mentale et cognitive.

Grâce à cette classification, GRASP permet d’anticiper les menaces et d’adopter des mesures adaptées pour renforcer la sécurité de l’IA.

Un outil pour les décideurs et les chercheurs

GRASP ne se limite pas à un simple inventaire des risques : la plateforme est conçue pour être un véritable outil d’aide à la décision. Parmi ses fonctionnalités, on retrouve :

  • Une base de données interactive répertoriant les menaces et leurs solutions.
  • Une approche modulaire associant chaque risque à des stratégies d’atténuation concrètes.
  • Des études de cas détaillées illustrant les enjeux réels de la sécurité de l’IA.
  • Un moteur de recherche avancé permettant de filtrer les informations par domaine d’application ou niveau de criticité.

L’objectif est de permettre aux gouvernements, entreprises et chercheurs d’accéder facilement aux solutions existantes et de contribuer à la mise en place d’une intelligence artificielle responsable et maîtrisée.

Vers une gouvernance mondiale proactive

Le projet GRASP est dirigé par Cyrus Hodes, Fellow of Practice à la MBRSG et co-responsable du projet SAFE au sein du GPAI. Son ambition est d’intégrer pleinement les recommandations de GRASP aux initiatives de gouvernance de l’IA portées par l’OCDE et d’autres instances internationales.

Avec la montée en puissance de l’IA générative et des modèles toujours plus performants, la question de la régulation et de la prévention des risques devient cruciale. GRASP constitue une réponse concrète aux défis posés par ces technologies et s’inscrit dans une démarche de transparence et de responsabilité.

Quel avenir pour la régulation de l’intelligence artificielle ?

Alors que GRASP apporte un cadre structuré pour identifier et atténuer les risques, la question demeure : comment garantir une adoption efficace et universelle de ces recommandations ? Les prochaines années seront déterminantes pour observer l’impact réel de cette initiative et la manière dont elle influencera la gouvernance de l’IA à l’échelle mondiale. Un autre projet, du nom d’ATLTA, propose ce type de « veille ». ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) est une base de connaissances mondiale répertoriant les tactiques et techniques utilisées par les adversaires contre les systèmes d’IA. Elle s’appuie sur des observations d’attaques réelles ainsi que sur des démonstrations pratiques réalisées par des équipes rouges et des groupes de sécurité spécialisés en IA.

Lors de la DEF CON 2024 de Las Vegas, le plus grand rendez-vous de hacker éthiques travaillait déjà sur comprendre et trouver des solutions cybersécurité et régulation autour de l’IA. Le Generative Red Team 2 (GRT2) avait été organisé dans l’AI Village lors de DEF CON 32. Il s’agissait d’un défi de red teaming axé sur l’intelligence artificielle générative, conçu sous la forme d’un « bug bash ». Les participants étaient invités à évaluer un modèle d’apprentissage automatique, à identifier ses vulnérabilités et ses défauts, puis à fournir des explications accompagnées de preuves pour garantir la reproductibilité et l’importance de leurs découvertes.

La France lance l’INSESIA dédiée à la sécurité de l’IA

Le Gouvernement lance l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Un engagement national pour une IA sécurisée et maîtrisée.

L’intelligence artificielle (IA) transforme profondément notre société et nos économies. Pour accompagner cette évolution tout en garantissant la sécurité nationale, le gouvernement annonce la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Cet institut, piloté par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE), vise à structurer l’écosystème français en matière d’évaluation et de régulation de l’IA.

Un cadre international et national pour la régulation de l’IA

L’initiative s’inscrit dans la continuité de la Déclaration de Séoul pour une IA sûre, novatrice et inclusive, adoptée en mai 2024 par plusieurs grandes puissances, dont la France, les États-Unis, le Royaume-Uni et l’Union européenne. Cette déclaration met en avant la nécessité de renforcer les mécanismes de sécurité et de régulation des modèles d’IA pour assurer leur fiabilité et leur transparence.

L’INESIA ambitionne de fédérer les acteurs français de premier plan dans le domaine de la cybersécurité et de la régulation numérique. Parmi eux, l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire National de Métrologie et d’Essais (LNE) et le Pôle d’expertise de la régulation numérique (PEReN). Cette collaboration renforcera les capacités d’évaluation et d’anticipation des risques liés à l’IA.

Des missions stratégiques pour un développement maîtrisé de l’IA

L’INESIA se fixe plusieurs objectifs clés : Analyser les risques systémiques liés à l’IA, notamment dans le cadre de la sécurité nationale. Soutenir la mise en œuvre de la régulation de l’IA, en conformité avec les exigences européennes et internationales. Évaluer la performance et la fiabilité des modèles d’IA, pour garantir leur robustesse et leur intégrité. Diffuser les bonnes pratiques et sensibiliser les acteurs publics et privés, afin de promouvoir une IA responsable et sécurisée.

L’institut jouera un rôle clé dans l’élaboration des normes et des standards de sécurité, en collaborant avec d’autres entités internationales telles que l’AI Safety Institute du Royaume-Uni et l’AI Office de la Commission européenne.

Un positionnement stratégique sur la scène internationale

Avec la création de l’INESIA, la France entend affirmer son leadership dans le domaine de la régulation de l’IA. L’institut sera un acteur clé au sein du réseau international des AI Safety Institutes, en partenariat avec des pays comme le Canada, le Japon, Singapour et le Kenya. Cette collaboration renforcera la coopération scientifique et technologique pour anticiper les défis posés par l’IA.

L’INESIA contribuera également à la mise en place de protocoles d’évaluation communs, facilitant ainsi l’intégration de normes de sécurité harmonisées à l’échelle mondiale.

Un soutien à l’innovation dans un cadre de confiance

Au-delà de la régulation, l’INESIA encouragera également l’innovation en matière d’IA. En structurant un écosystème dynamique de chercheurs et d’ingénieurs, il favorisera le développement de solutions sûres et performantes, adaptées aux besoins de l’industrie, de la santé, de l’éducation et des services publics.

L’institut s’inscrit ainsi dans une approche équilibrée : accompagner la transformation numérique tout en veillant à la protection des citoyens et des infrastructures critiques. Cette initiative marque une étape clé vers une IA plus transparente, éthique et bénéfique pour l’ensemble de la société.

L’Europe dit stop aux dérives de l’IA

Depuis 2018, le Règlement général sur la protection des données (RGPD) offre aux consommateurs européens une meilleure protection de leur vie privée en ligne. Cependant, avec l’évolution rapide de l’intelligence artificielle (IA), de nouvelles préoccupations ont émergé concernant la collecte, le traitement et l’analyse des données personnelles. Face à ces défis, l’Union européenne a adopté en 2024 le Règlement sur l’intelligence artificielle, connu sous le nom d’AI Act. Cette législation vise à encadrer le développement de l’IA pour éviter les abus tout en favorisant l’innovation technologique. Elle s’appliquera progressivement dans tous les pays membres de l’UE d’ici 2026 et concerne toutes les entreprises, européennes ou non, qui vendent, utilisent ou déploient des systèmes d’IA au sein de l’UE.

Interdiction des pratiques à risque dès le 2 février

À partir du 2 février, certaines pratiques jugées inacceptables seront interdites en Europe. Par exemple, la « notation sociale », qui consiste à évaluer les consommateurs sur la base de leur comportement social et économique pour l’attribution d’avantages ou de restrictions, sera proscrite. De plus, les systèmes d’IA qui ciblent intentionnellement des personnes vulnérables, comme les enfants, pour en tirer profit, seront également interdits. Cela inclut les applications qui exploitent la naïveté des enfants pour les inciter à faire des achats en ligne ou les techniques manipulatrices qui influencent les choix des consommateurs à travers des vidéos truquées réalisées avec l’IA.

Vers une régulation complète de l’IA

D’ici le 2 août 2026, le règlement européen prévoit de réguler tout système d’IA présentant des risques, qu’ils soient minimes ou élevés. Tout contenu vidéo, audio, image ou texte généré ou manipulé par une IA devra être identifiable comme tel, par exemple via un filigrane indiquant un potentiel trucage. Les entreprises refusant de se conformer aux nouvelles règles encourront des sanctions pouvant aller jusqu’à 35 millions d’euros ou 7% de leur chiffre d’affaires.

LinkedIn accusée de partager des données privées : une controverse autour de la confidentialité et de l’IA

LinkedIn, réseau professionnel de Microsoft, est accusé aux États-Unis d’avoir partagé des données privées d’abonnés Premium pour former des modèles d’intelligence artificielle, déclenchant une controverse sur la confidentialité des utilisateurs.

LinkedIn, plateforme professionnelle appartenant à Microsoft, est sous le feu des projecteurs après des accusations graves concernant la confidentialité des données de ses utilisateurs Premium. Ces derniers affirment que leurs messages privés auraient été partagés à des tiers, sans leur consentement explicite, pour entraîner des modèles d’intelligence artificielle (IA). Cette affaire, désormais portée devant le tribunal fédéral de San Jose en Californie, soulève de nombreuses questions sur l’éthique des pratiques de la plateforme. En août, LinkedIn aurait introduit discrètement un paramètre de confidentialité permettant de désactiver ce partage, suivi d’une mise à jour controversée de sa politique en septembre. Les plaignants réclament des réparations financières significatives, dénonçant une violation de la vie privée et un manquement aux promesses contractuelles. Cet épisode soulève des inquiétudes croissantes quant à l’impact de l’IA sur la protection des données personnelles.

Une mise en accusation fondée sur la violation de la vie privée

La plainte déposée contre LinkedIn repose sur une accusation précise : la plateforme aurait utilisé les données personnelles de ses abonnés Premium pour alimenter des modèles d’intelligence artificielle sans leur consentement éclairé. Les messages privés, souvent considérés comme inviolables par les utilisateurs, auraient été analysés et traités dans ce but. Cette situation est perçue comme une rupture de confiance entre les abonnés et LinkedIn, une entreprise qui s’est pourtant engagée publiquement à protéger la confidentialité de ses utilisateurs.

L’un des aspects les plus troublants de cette affaire réside dans l’introduction d’un paramètre de confidentialité en août dernier. Ce paramètre permettait aux abonnés de désactiver le partage de leurs données personnelles, mais il aurait été mis en place discrètement, sans notification explicite aux utilisateurs. En septembre, une mise à jour de la politique de confidentialité aurait confirmé que ces données pouvaient être utilisées à des fins d’apprentissage automatique. Cette opacité dans la communication a renforcé la colère des utilisateurs concernés.

Un autre élément central de cette affaire est l’accusation selon laquelle LinkedIn était « pleinement consciente » des violations de la vie privée qu’elle aurait commises. Cette affirmation découle des preuves apportées dans la plainte, notamment les modifications successives des paramètres de confidentialité et de la politique d’utilisation des données. Cela soulève une question cruciale : jusqu’où une plateforme professionnelle peut-elle aller dans l’exploitation des données personnelles sans franchir les limites éthiques et légales ?

Les enjeux juridiques et financiers pour LinkedIn

Sur le plan juridique, l’affaire a été portée devant le tribunal fédéral de San Jose, en Californie. La plainte exige des dommages-intérêts pour rupture de contrat et non-respect des lois californiennes sur la confidentialité des données. Une des demandes les plus marquantes concerne une compensation de 1 000 dollars par utilisateur pour violation d’une loi fédérale. Si cette indemnisation était accordée, elle pourrait représenter des millions de dollars pour LinkedIn, étant donné l’ampleur de sa base d’abonnés Premium.

Ce procès met également en lumière la manière dont les plateformes numériques interprètent les législations existantes en matière de protection des données. La Californie, avec son « California Consumer Privacy Act » (CCPA), impose des normes élevées en matière de confidentialité. Cependant, les plaignants affirment que LinkedIn n’a pas respecté ces obligations, en particulier concernant le consentement explicite et l’information des utilisateurs.

Pour LinkedIn, cette affaire pourrait avoir des conséquences importantes, non seulement en termes financiers, mais aussi sur sa réputation. La plateforme, qui revendique être un lieu sûr pour les professionnels, risque de perdre la confiance de ses utilisateurs si les accusations sont avérées. Cette perte de confiance pourrait entraîner une baisse des abonnements Premium, une source de revenus clé pour LinkedIn.

Par ailleurs, cette affaire soulève une question plus large : celle de l’utilisation des données personnelles dans le développement des technologies d’intelligence artificielle. À une époque où l’IA est de plus en plus intégrée dans les outils professionnels et personnels, les utilisateurs sont en droit de s’interroger sur la transparence des pratiques des entreprises technologiques. Microsoft, maison-mère de LinkedIn, pourrait également être impactée par cette controverse, notamment en raison de son rôle dans l’intégration de l’IA dans ses outils phares, tels que Word et Excel.

Confidentialité, IA et avenir des plateformes numériques

Cette affaire LinkedIn met en lumière un problème fondamental : l’équilibre délicat entre innovation technologique et protection des droits des utilisateurs. L’intégration de l’intelligence artificielle dans les plateformes numériques offre des opportunités inédites, mais elle pose également des défis éthiques majeurs. Les utilisateurs souhaitent profiter des avantages de l’IA sans compromettre leur vie privée.

Pour les abonnés Premium de LinkedIn, la possibilité que leurs messages privés aient été utilisés pour entraîner des modèles d’IA représente une atteinte grave à leur confiance. Ce cas met également en évidence la nécessité pour les plateformes de mettre en place des politiques claires et transparentes concernant l’utilisation des données. Les utilisateurs doivent être informés de manière proactive et avoir un contrôle total sur leurs informations personnelles.

Cette affaire pourrait également avoir un impact au-delà de LinkedIn. Les régulateurs et législateurs, déjà préoccupés par la protection des données dans un monde de plus en plus connecté, pourraient utiliser ce cas comme un exemple pour renforcer les lois existantes. À l’échelle mondiale, des initiatives telles que le Règlement général sur la protection des données (RGPD) en Europe ont déjà montré l’importance de cadres juridiques solides pour protéger les consommateurs.

Enfin, cette controverse souligne une réalité préoccupante : l’IA, bien qu’elle soit un outil puissant, dépend largement des données qu’elle consomme. Les entreprises technologiques doivent trouver des moyens d’entraîner leurs modèles sans porter atteinte à la vie privée des utilisateurs. Cela pourrait passer par des solutions telles que la fédération des données ou l’anonymisation, mais ces technologies nécessitent des investissements significatifs et un engagement ferme envers des pratiques éthiques.

Phishing, applications cloud et IA générative : l’urgence d’une cybersécurité de nouvelle génération

En 2024, les clics sur des liens de phishing ont triplé, alors que l’usage des outils d’IA générative en entreprise s’intensifiait.

L’année 2024 a vu l’explosion des menaces cyber, notamment le phishing et les mauvaises pratiques liées aux applications cloud personnelles et à l’IA générative. Plusieurs rapports (Netskope, Microsoft, ZATAZ) révèlent que les clics sur des liens de phishing ont triplé, illustrant la sophistication croissante de ces attaques. En parallèle, l’adoption massive d’outils d’IA générative comme ChatGPT a accru les risques de fuites de données sensibles. Ces évolutions mettent en lumière l’urgence d’une approche nouvelle en matière de cybersécurité, mêlant outils de pointe, sensibilisation renforcée et stratégies proactives pour protéger les entreprises et leurs données. Des questions qui seront posées, à Paris, en Janvier, lors d’un rendez-vous politique autour de l’IA. (Elon Musk sera présent selon les infos de DataSecurityBreach.fr)

Phishing : une menace toujours plus sophistiquée

En 2024, les cybercriminels ont redoublé d’efforts pour perfectionner leurs attaques, entraînant une hausse de 190 % des incidents liés au phishing.

Des attaques toujours plus ciblées

Les campagnes de phishing modernes exploitent des outils sophistiqués, souvent alimentés par l’IA générative, pour créer des messages hyper-personnalisés. Les attaques se sont particulièrement concentrées sur les identifiants Microsoft, avec 42 % des attaques visant cette cible. L’utilisation d’applications cloud populaires comme Google Drive ou Microsoft OneDrive pour héberger des contenus malveillants a multiplié les points d’entrée pour les hackers.

Des techniques renforcées par l’IA

L’IA générative permet de produire des emails frauduleux d’une qualité impressionnante, rendant la détection humaine difficile. Les entreprises doivent donc s’équiper d’outils capables d’analyser les comportements pour repérer des anomalies et bloquer les tentatives de phishing en temps réel.

Prévention et formation : un duo indispensable

La sensibilisation des employés reste essentielle, mais elle doit être accompagnée de solutions technologiques robustes. Les simulations régulières de phishing et l’analyse comportementale des clics suspects sont des mesures indispensables.

L’utilisation croissante d’applications cloud personnelles par les employés, en particulier dans les environnements de travail hybrides, représente un défi majeur. En 2024, près de 88 % des organisations ont rapporté des incidents liés à des outils non autorisés.

Les applications cloud personnelles sont fréquemment utilisées pour stocker ou partager des données sensibles, ce qui expose les entreprises à des risques importants. Les données réglementées, telles que les informations financières et médicales, constituent 60 % des violations signalées, suivies par la propriété intellectuelle et les codes source.

Dans de nombreux cas, les violations sont dues à un manque de sensibilisation. Par exemple, les employés utilisent des outils gratuits, souvent peu sécurisés, pour partager des fichiers professionnels, ignorant les conséquences potentielles.

Les solutions possibles

Pour contrer ces pratiques, les entreprises doivent :

Mettre en place des politiques restrictives interdisant l’usage d’applications non approuvées.
Utiliser des outils de Cloud Access Security Broker (CASB) pour surveiller et bloquer les transferts non autorisés.
Renforcer la formation en expliquant les risques juridiques et financiers des mauvaises pratiques.
Exergue : « Les applications cloud personnelles sont un angle mort de la cybersécurité. »

La mise en place de systèmes de surveillance en temps réel et de contrôles d’accès est essentielle pour limiter les risques liés à ces usages. De plus, les entreprises doivent privilégier des solutions qui permettent une traçabilité des données et une intervention rapide en cas d’incident.

IA générative : moteur d’innovation et de risques

Les outils d’IA générative, tels que ChatGPT, sont devenus des acteurs incontournables dans le paysage professionnel. Leur adoption rapide, bien que bénéfique, présente des risques non négligeables.

L’essor des outils d’IA générative

En 2024, 94 % des entreprises utilisent des applications d’IA générative, avec une moyenne de 9,6 outils par organisation. Ces applications facilitent des tâches variées, de la rédaction de rapports au brainstorming créatif. Toutefois, leur utilisation sans contrôle strict expose les organisations à des menaces inédites.

Les risques majeurs

Les cybercriminels exploitent ces technologies pour concevoir des attaques de phishing sur mesure. Par ailleurs, les employés peuvent, par inadvertance, introduire des informations confidentielles dans ces outils, qui ne garantissent pas toujours la confidentialité des données.

Des réponses technologiques et humaines

Pour limiter ces risques, 45 % des entreprises ont déployé des solutions de prévention des pertes de données (DLP). Ces outils surveillent en permanence les interactions entre les employés et les plateformes d’IA générative. En parallèle, les organisations investissent dans des programmes de coaching en temps réel, qui alertent les utilisateurs lorsqu’ils effectuent des actions à risque.

L’avenir passe également par l’élaboration de politiques claires et par l’intégration de mesures de contrôle automatisées. Ces initiatives permettront de concilier innovation et sécurité, tout en réduisant les vulnérabilités.

Bref, face à des menaces cyber de plus en plus sophistiquées, les entreprises doivent adopter une approche proactive. DataSecuritybreach.fr rappel que cela doit inclure : L’intégration d’outils de détection avancée ; La formation continue des employés. L’élaboration de politiques claires pour l’usage des applications cloud et de l’IA.

GPT-4 et l’analyse financière : une révolution en marche ?

Une étude récente a révélé que le GPT-4 d’OpenAI pourrait analyser les états financiers et, dans certains cas, prédire les performances futures d’une entreprise mieux qu’un analyste humain.

Menée par trois chercheurs de la Booth School of Business de l’Université de Chicago — Alex Kim, Maximilian Muhn et Valeri Nikolaev — cette étude soulève des questions sur l’avenir de l’analyse financière et le rôle potentiel de l’IA dans ce domaine. Les chercheurs ont déterminé si GPT-4 pouvait analyser les états financiers uniquement en se basant sur les chiffres, sans aucun contexte textuel. Pour ce faire, ils ont exclu des éléments comme la section « Management Discussion and Analysis » (MD&A) des rapports trimestriels. Leur objectif principal était d’évaluer la capacité des grands modèles linguistiques (LLM) à comprendre et synthétiser des données purement financières.

L’étude a examiné plus de 150 000 observations liées à 15 000 sociétés entre 1968 et 2021. En comparant les performances des analystes financiers et de GPT-4, ils ont découvert que les analystes humains avaient une précision de 53 % dans leurs prévisions sur un mois concernant l’orientation des bénéfices futurs. Lorsque GPT-4 a analysé des états financiers anonymisés sans aucune information textuelle et avec une simple invite, il a obtenu un score légèrement inférieur à celui des analystes, avec une précision de 52 %. Cependant, lorsque les chercheurs ont utilisé une invite de commande de chaîne de pensée, fournissant plus d’instructions et de conseils, le modèle a atteint une précision de 60 %.

Ces résultats montrent que, lorsqu’il est correctement guidé, GPT-4 peut surpasser les analystes humains, même sans les informations textuelles souvent cruciales dans les rapports financiers. Cela démontre la capacité de l’IA à traiter des données complexes et à fournir des analyses précises, surtout lorsqu’elle est assistée par des instructions détaillées.

L’IA, l’analyse financière et la Fraude au Président

L’étude souligne que l’analyse et la prévision financières nécessitent jugement, bon sens et intuition, des qualités qui peuvent dérouter à la fois les humains et les machines. Ni les analystes humains ni GPT-4 n’ont réussi à atteindre une précision proche de 100 % dans leurs analyses, en partie à cause de la complexité inhérente à ces tâches.

Mustafa Suleiman, cofondateur de DeepMind, a souligné que les assistants IA pourraient devenir une ressource précieuse et accessible pour tous dans un avenir proche. Cependant, la recherche de Kim, Muhn et Nikolaev indique que les analystes humains ne seront probablement pas remplacés par l’IA dans l’immédiat. Pour l’instant, l’IA sert de complément aux capacités humaines, offrant des outils qui peuvent améliorer la précision des analyses financières. Les chercheurs ont également noté que le GPT-4 pouvait mieux analyser les grandes entreprises, comme Apple, en raison de leur moindre idiosyncrasie par rapport aux petites entreprises, dont les performances peuvent varier en fonction de facteurs imprévisibles comme les essais cliniques pour les sociétés de biotechnologie.

Bien que les LLM, y compris GPT-4, puissent être biaisés, les chercheurs ont constaté que le modèle se comportait généralement bien en moyenne. Les biais peuvent être subtils et variés, mais la performance globale du modèle suggère une capacité de prévision raisonnablement fiable.

Vous comprenez pourquoi aujourd’hui, il est impassable d’utiliser ce genre de d’outil pour rédiger/corriger un rapport lié à votre entreprise. Des monstres numériques, comme ChatGPT sont capables de fournir la moindre information à qui saura les demander.

Le rôle de l’IA dans la Cybersécurité : entre Menaces et opportunités

L’ère numérique actuelle connaît une évolution rapide, et l’intelligence artificielle (IA) en est un acteur majeur. Selon le McKinsey Global Institute, l’IA générative pourrait apporter entre 2,6 et 4,4 milliards de dollars à l’économie mondiale chaque année, augmentant l’impact économique de l’IA de 15 à 40 %. Cependant, cette avancée s’accompagne de risques significatifs, notamment dans le domaine de la cybersécurité​​.

Notre partenaire Barracuda revient dans un nouveau livre blanc sur Le rôle de l’IA dans la Cybersécurité. L’IA modifie profondément le paysage des menaces en cybersécurité. Depuis la fin de 2022, les attaques de phishing ont augmenté de 1265 %, et celles ciblant les identifiants de 967 %. Cette montée en puissance coïncide avec le lancement de ChatGPT et d’autres outils d’IA générative, facilitant la création d’e-mails de phishing convaincants et difficiles à distinguer des messages légitimes​​.

Data Security Breach a retrouvé dans ce livre blanc à télécharger ICI plusieurs points d’exploitations de l’Intelligence Artificielle par les cybercriminels.
D’abord, le Phishing/Spear phishing/Spoofing : L’IA permet de générer des e-mails de phishing personnalisés et contextuellement pertinents, augmentant le taux de succès des attaques​​.
La génération de malwares : Des outils comme WormGPT permettent de créer des malwares adaptatifs capables d’échapper aux mesures de sécurité traditionnelles​​.
Les Deepfakes / fausses informations : Les vidéos et enregistrements audio falsifiés peuvent usurper l’identité de dirigeants pour extorquer des fonds ou diffuser des malwares​​.

Ensuite, localisation de contenu : L’IA permet de créer des contenus de phishing adaptés culturellement et linguistiquement, rendant les attaques plus convaincantes​​.

Enfin, le vol d’accès et d’identifiants : Les outils d’IA facilitent le bourrage d’identifiants et la création de fausses pages de connexion pour voler les informations sensibles​​.

Cependant, l’IA offre également des opportunités pour renforcer la cybersécurité. Elle peut aider à protéger les entreprises en détectant les anomalies, en identifiant les tentatives d’accès non autorisées et en automatisant les réponses aux incidents. Les solutions basées sur l’IA, telles que Barracuda Email Threat Scanner et Barracuda XDR, utilisent l’apprentissage automatique pour analyser les schémas de menace et améliorer la sécurité globale des systèmes d’information​​.

Nouveau moyen de communication Anonyme avec des Chatbots lancé par DuckDuckGo

Le moteur de recherche DuckDuckGo a récemment dévoilé une innovation dans le domaine de la communication numérique : une nouvelle fonctionnalité baptisée DuckDuckGo AI.

Comme détaillé sur leur site officiel Spread Privacy, le service gratuit DuckDuckGo AI offre la possibilité de dialoguer avec divers chatbots intelligents tout en garantissant une anonymité complète.

L’un des aspects les plus remarquables de DuckDuckGo AI est son engagement envers la confidentialité des utilisateurs. Les développeurs ont pris des mesures rigoureuses pour assurer que les données des dialogues ne seront pas utilisées pour entraîner des modèles linguistiques. Pendant la communication, l’adresse IP des utilisateurs est masquée, les modèles ne voyant que l’adresse IP de DuckDuckGo. Cette méthode empêche les chatbots d’identifier les interlocuteurs, renforçant ainsi la confidentialité des échanges. DuckDuckGo AI indique ne pas conserver les historiques de conversation. Seules des copies anonymisées temporaires sont maintenues, et elles sont supprimées au bout de 30 jours. Cette approche garantit que les utilisateurs peuvent interagir avec les chatbots sans craindre pour la sécurité de leurs données personnelles.

Diversité des modèles linguistiques

DuckDuckGo AI supporte actuellement plusieurs modèles linguistiques de pointe, dont : GPT-3.5 Turbo d’OpenAI ; Claude 3 Haiku d’Anthropic ; Meta Llama 3 ; Mixtral 8x7B ; Des choix permettant aux utilisateurs d’expérimenter différents styles et capacités de dialogue. DuckDuckGo prévoit d’étendre cette liste à l’avenir, offrant ainsi encore plus de choix aux utilisateurs. Actuellement en phase de bêta-test, DuckDuckGo AI est accessible gratuitement, avec des quotas journaliers limités. Pour ceux qui souhaitent utiliser l’outil de manière plus intensive, une souscription sera nécessaire. Cette phase de test permettra aux développeurs de peaufiner le service avant son lancement officiel, en s’assurant qu’il réponde aux attentes et aux exigences des utilisateurs.

Augmentation de l’utilisation de l’IA dans les crimes liés aux cryptomonnaies

Pendant ce temps, l’IA gagne du terrain chez les vilains ! Elliptic, une entreprise spécialisée dans la sécurité des cryptomonnaies, rapporte une augmentation de l’utilisation de l’intelligence artificielle (IA) dans les activités criminelles liées aux cryptomonnaies. Le rapport identifie cinq principales typologies de ces crimes que ZATAZ vous a regroupé.

Deepfakes et Matériel Publicitaire : utilisation de l’IA générative pour créer des deepfakes et du matériel publicitaire trompeur pour des escroqueries.
Escroqueries et Manipulation de Marché : lancement de tokens IA, plateformes d’investissement, schémas de Ponzi et fraudes romantiques.
Exploitation de Vulnérabilités : utilisation de grands modèles de langage pour détecter des failles dans le code et développer des exploits.
Arnaques et Désinformation : échelle des arnaques crypto et campagnes de désinformation amplifiées par des outils IA.
Darknet et Documents Contrefaits : création de vidéos factices et de documents contrefaits pour passer les procédures KYC sur les plateformes crypto.

Les spécialistes ont analysé 18 cas réels, notamment l’utilisation de deepfakes de personnalités comme Elon Musk et Brad Garlinghouse pour promouvoir des airdrops frauduleux. Les escroqueries romantiques, où les criminels utilisent l’IA pour améliorer les scénarios, sont également en hausse. Les criminels créent de faux sites Web et des supports marketing, y compris de fausses publications dans des magazines réputés, pour rendre les arnaques plus crédibles. Sur le darknet, des services proposent la création de faux documents d’identité pour ouvrir des comptes sur des plateformes de cryptomonnaies.

Vasa-1 : un nouveau modèle d’ia pour créer des avatars animés à partir d’une photo

Microsoft Research Asia a récemment dévoilé VASA-1, un modèle d’intelligence artificielle capable de transformer une simple photo en vidéo animée.

Microsoft a donc décidé de se transformer en Skynet et a tiré sur toutes les ficelles liées à l’IA. Nouveauté du moment, Vasa-1. Cette technologie, présentée par Microsoft Research Asia utilise un fragment audio pour donner vie à une image. Le modèle est conçu pour créer des avatars vidéo réalistes, ce qui peut révolutionner la manière dont nous interagissons avec les médias numériques. C’est surtout inquiétant de se dire que des chercheurs continuent de travailler sur des solutions qui seront rapidement détournées. La régulation concernant l’IA étant moins draconienne en Asie qu’en Europe et aux USA, voilà peut-être pourquoi nos apprentis sorciers de l’IA se sont penchés sur cette possibilité.

Applications potentielles de vasa-1

Selon le rapport de recherche accompagnant la présentation du modèle, VASA-1 ouvre la possibilité de participer à des réunions virtuelles avec des avatars qui reproduisent fidèlement les comportements humains lors d’une conversation. Ca fera beaucoup rire cette comptable qui a été piégée, voilà quelques semaines, dans un tchat vidéo par des pirates et les avatars générés par l’IA. Bref, Vasa-1 soulève des questions sur son utilisation pour manipuler des vidéos afin de faire dire n’importe quoi à n’importe qui.

Comment fonctionne le modèle vasa-1 ?

VASA-1 repose sur l’apprentissage automatique pour analyser une photo statique et générer des vidéos animées réalistes. Le modèle ne clone pas les voix mais anime l’avatar en fonction des sons existants. Il peut ajouter des mouvements de tête, des tics faciaux, et d’autres nuances comportementales qui rendent l’animation étonnamment réelle. Un paradis pour deepfake, des vidéos malveillantes générées par l’IA ?

Le défi des deepfakes

La création de deepfakes, ou hyper-trucages, n’est pas une nouveauté. Cependant, l’approche de VASA-1, qui utilise une seule photo pour y incorporer des émotions et des comportements, est relativement nouvelle. Le modèle se distingue également par une excellente synchronisation labiale et la représentation de mouvements réalistes. Pour son développement, Microsoft Research a utilisé VoxCeleb2, un vaste ensemble de données composé de clips vidéo de célébrités issus de YouTube. Les célébrités ont-elles donné leurs accords pour que leur image et leur voix soient exploitées ? Dans sa démonstration Microsoft Asia a utilisé des portraits générés par StyleGAN2 ou DALL·E-3. « Il s’agit uniquement d’une démonstration de recherche et il n’y a pas de plan de sortie de produit ou d’API. » confirment les 9 chercheurs.

Le potentiel d’abus de VASA-1 est une préoccupation majeure, ce qui explique pourquoi Microsoft a décidé de ne pas publier le code du modèle pour le moment. En combinaison avec la technologie de clonage vocal, des individus mal intentionnés pourraient l’utiliser pour falsifier des vidéos de réunions, menant à des tentatives d’extorsion ou à la propagation de fausses informations. Bref à suivre ! « I’ll be back » dirait même une création de Skynet !

Des pirates Russes, Iraniens, Chinois et Nord-Coréens repérés sur ChatGPT

Cyber Signals : lutte contre les cybermenaces et protection renforcée à l’ère de l’intelligence artificielle. Microsoft analyse les requêtes faîtes avec ChatGPT et découvre des utilisations pirates !

L’essor de l’IA générative ouvre de nouvelles perspectives pour renforcer la cybersécurité, mais nous expose également à de nombreux risques. Le blog spécialisé dans les questions de lutte contre le cybercrime ZATAZ avait révélé, en janvier 2024, comment des pirates hispaniques avaient intégré l’Intelligence Artificielles dans un de leur outil d’hameçonnage [Phishing]. Bref, les acteurs malveillants exploitent cette nouvelle technologie pour renforcer leurs activités frauduleuses, que ce soit en créant des deepfakes, en améliorant la programmation des logiciels ou en y rajoutant des couches supplémentaires « d’intelligence » pour renforcer leurs attaques. Dans sa 6e édition de Cyber Signals, publiée par Microsoft, on découvre que le firme de Redmond analyse les requêtes utilisées par les internautes dans ChatGPT et a découvert la présence de malveillants étatiques.

Dans ce rapport, il est expliqué comment il a été possible d’identifier et de déjouer des tentatives de cyberattaques de groupes malveillants russes, nord-coréens, iraniens et chinois. Ces derniers ont tenté d’utiliser des LLM (Large Langage Models) comme ChatGPT pour perfectionner leurs cyberattaques.

En collaboration avec OpenAI, Microsoft (actionnaire à 49% d’OpenAI) explique avoir repéré des acteurs malveillants affiliés à des États connus sous les noms de Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon et Salmon Typhoon.

Le LLMH : Large Langage Models Hack

Les cybercriminels et les acteurs soutenus par des États s’appuient sur l’IA, y compris les LLM, pour améliorer leur efficacité et tirer parti de plates-formes susceptibles de servir leurs objectifs et leurs techniques d’attaque.

Bien que les motivations et la sophistication des acteurs malveillants soient différentes, ils opèrent de la même manière lorsqu’ils déploient des attaques. Ils procèdent notamment à une reconnaissance, comme la recherche des industries, des emplacements et des relations des victimes potentielles ; ils ont recours au code, de façon à améliorer des scripts logiciels et à développer des logiciels malveillants ; et ils recherchent de l’aide dans l’apprentissage et l’utilisation des langages humains et des langages de programmation.

Les recherches avec OpenAI n’ont pas permis d’identifier d’attaques significatives utilisant les LLM.

YouTube impose des règles pour les contenus générés par l’IA

La révolution de l’intelligence artificielle (IA) est en train de bouleverser notre monde à bien des égards, et l’une des dernières frontières à être touchée est l’industrie du contenu vidéo en ligne. YouTube, la plate-forme vidéo la plus importante du monde, est en train de prendre des mesures pour réglementer ces nouvelles formes de médias créés par des machines intelligentes. Dans cet article, nous allons examiner les nouvelles règles que YouTube a mises en place pour encadrer les contenus générés par l’IA.

L’IA à l’assaut de YouTube ? Il est indéniable que l’IA est devenue une force majeure dans le monde de la création de contenu. Des algorithmes sophistiqués peuvent désormais générer des vidéos, des images et même des textes de manière quasi indiscernable de ce que produiraient des créateurs humains. YouTube, anticipant une augmentation future du nombre de vidéos créées par des machines, a décidé d’établir des directives claires pour ces types de contenus.

La transparence en premier

Une des règles majeures mises en place par YouTube est la nécessité de transparence. Les créateurs doivent désormais indiquer clairement si une vidéo a été générée par l’IA ou si elle contient des éléments créés ou adaptés par des algorithmes. Cela est particulièrement important pour les contenus qui semblent réalistes, car il est essentiel que les téléspectateurs sachent si des outils d’IA ont été utilisés dans leur création.

Un porte-parole de YouTube a expliqué cette décision en déclarant : « Nous voulons que les utilisateurs aient un contexte lorsqu’ils regardent un contenu réaliste. Cela leur permet de savoir si des outils d’IA et d’autres changements synthétiques ont été utilisés pour le créer. » Cette mesure vise à éviter que les téléspectateurs ne soient induits en erreur par des vidéos qui semblent être le fruit du travail humain.

Les conséquences du non-respect des règles

YouTube prend ces nouvelles règles très au sérieux. Les créateurs qui ne respectent pas l’obligation d’indiquer l’utilisation de l’IA dans leurs vidéos peuvent être bannis de la plate-forme. Cette mesure vise à garantir l’intégrité et la confiance des utilisateurs dans le contenu qu’ils consomment sur YouTube.

YouTube n’est pas la première plate-forme à devoir faire face à la question de la réalité des contenus générés par l’IA, et elle ne sera certainement pas la dernière. Avec l’avancée rapide des outils d’IA, la distinction entre ce qui est « réel » et ce qui ne l’est pas devient de plus en plus floue. Les réseaux sociaux tels que TikTok et Instagram sont depuis longtemps critiqués pour l’utilisation de filtres d’IA qui modifient l’apparence des utilisateurs. Cela peut créer des idéaux de beauté irréalistes, en particulier pour les adolescents qui sont de grands consommateurs de ces plateformes.

De plus, les outils d’IA sophistiqués peuvent être utilisés pour créer des « deepfakes », des vidéos hyper-truquées dans lesquelles des personnalités politiques ou célèbres disent des choses qu’elles n’ont jamais dites. YouTube a déjà mis en place des outils pour signaler et supprimer de telles vidéos.

Décret pour de nouvelles normes liées à l’intelligence artificielle

Le 30 octobre, l’administration du président américain Joe Biden a publié un décret établissant de nouvelles normes en matière de sûreté et de sécurité de l’intelligence artificielle.

Ces nouvelles normes décidées par l’administration Biden, alors qu’au même moment, à Londres, un rendez-vous politique tentait de mettre en place une coalition IA, se divise en 26 points, classé en huit groupes, dont chacun vise à garantir que l’IA est utilisée pour maximiser les bénéfices escomptés et minimiser les risques. En outre, la mise en œuvre du document devrait placer les États-Unis à l’avant-garde de l’identification des obstacles à la technologie et de la promotion de la poursuite de la recherche. Bref, la course aux normes reste la course au monopole visant l’IA. « Le décret […] protège la vie privée des Américains, fait progresser l’égalité et les droits civils, protège les intérêts des consommateurs et des travailleurs, encourage l’innovation et la concurrence, fait progresser le leadership américain dans le monde et bien plus encore« , indique la Maison Blanche.

Le document exige que les développeurs des systèmes d’IA « les plus puissants » partagent les résultats des tests de sécurité et les « informations critiques » avec le gouvernement. Pour garantir la sécurité et la fiabilité de la technologie, il est prévu de développer des outils et des tests standardisés. A noter que cet été, lors de la Def Con de Las Vegas, la grande messe du hacking, un village avait été mis en place afin de hacker les IA proposées par les géants américains du secteur.

Le document parle de la croissance de « la fraude et de la tromperie utilisant l’intelligence artificielle« , de la nécessité de créer des outils pour trouver et éliminer les vulnérabilités des logiciels critiques, ainsi que de l’élaboration d’un mémorandum sur la sécurité nationale. Cette dernière est destinée à guider les actions futures dans le domaine de l’IA et de la sécurité.

« Sans garanties, l’intelligence artificielle pourrait mettre encore davantage en danger la vie privée des Américains. L’IA facilite non seulement l’extraction, l’identification et l’utilisation des données personnelles, mais elle incite également davantage à le faire, car les entreprises utilisent les données pour former les systèmes d’IA« , indique l’ordonnance.

Selon le document, une utilisation irresponsable de la technologie peut conduire à la discrimination, aux préjugés et à d’autres abus. En mai, Sam Altman, PDG d’OpenAI, s’était exprimé devant le Congrès américain et avait appelé le gouvernement à réglementer l’utilisation et le développement de l’intelligence artificielle.

En juin, des représentants de l’ONU avaient déclaré que les deepfakes créés par l’IA nuisaient à l’intégrité de l’information et conduisent à l’incitation à la haine dans la société. Des fakes news et autres deepfakes que la Cyber émission de ZATAZ, sur Twitch, présentait aux spectateurs.

Pendant ce temps, en Angleterre, un accord historique s’est conclu à Bletchley Park : 28 pays leaders en intelligence artificielle ont conclu un accord mondial inédit. Cette Déclaration de Bletchley marque une avancée majeure dans le développement responsable et sécurisé de l’IA avancée. Les États-Unis, l’UE et la Chine, réunis par le Royaume-Uni, ont uni leurs forces pour établir une vision commune des opportunités et des risques liés à l’IA frontalière, soulignant ainsi l’impératif d’une collaboration internationale.

La conférence de Bletchley préfigure les futures instances comme l’AIEA dans le nucléaire (l’Agence Internationale de l’Énergie Atomique). « Une excellente façon de mettre toutes les grandes puissances au même diapason sur une même sémantique avant de trouver un référentiel qui permette à chacun d’évaluer la dangerosité de tel ou tel développement. » confirme Stéphane Roder, CEO d’AI Builders. Une façon aussi de se contrôler les uns les autres, de redonner confiance au public, mais surtout de se donner bonne conscience quand on sait que la Chine fait un usage massif de l’IA pour la notation sociale ou que toutes les armées du monde ont des armes contenant de l’IA.

Bard, l’IA de Google qui renifle vos données

A noter que l’intelligence artificielle lancée par Google, Bard, va bientôt renifler les documents et les mails des utilisateurs des produits du géant américain. Google explique qu’il s’agit d’une évolution pratique et positive pour ses clients. Dans sa dernière mise à jour, Bard Extension, l’Intelligence Artificielle de la firme Californienne peut se connecter à Maps, YouTube, Gmail et à votre calendrier Google. Bard va tout voir, tout savoir afin de mieux répondre à vos requêtes de recherche.

Google indique que cette « connexion entre Bard et vos autres applications n’était pas visible par des humains, mais uniquement utilisée pour entraîner Bard au quotidien […] Les informations ne seraient pas utilisées pour entraîner ses modèles ou pour vous noyer sous les publicités ciblées« . Espérons que cela ne sera pas comme son concurrent Microsoft dont plusieurs millions de documents utilisés pour entrainer son IA ont fuité. Le blog ZATAZ, référence de l’actualité dédiée à la cybersécurité, a expliqué dans son émission sur Twitch [zataz émission sur Twitch] avoir vu en vente dans un espace pirate les données IA de Microsoft.

A noter qu’il est possible de bloquer l’IA Bard de Google. Pour cela, ouvrez un navigateur Web et accédez à la page « Gérer les applications et services tiers ayant accès à votre compte ». Connectez-vous à votre compte Google. Dans la liste des applications et services, recherchez « Bard ». Sélectionnez le bouton « Supprimer l’accès ». Voilà, Bard ne pourra plus accéder à vos applications Google. Je vous conseille de vérifier dans chaque application Google que Bard est bien devenu sourd, aveugle et muet. Pour cela, rendez-vous vous dans les paramètres de vos applications. Recherchez « Bard ».