Archives de catégorie : IA

ChatGPT accusé à Moscou de transmettre des données au Pentagone

OpenAI est accusée par un responsable russe de partager automatiquement avec les agences américaines les requêtes en russe envoyées via ChatGPT.

Selon le site Caliber, Alexander Asafov, premier vice-président de la commission de la Chambre publique de Moscou sur la société civile, affirme que les demandes en langue russe soumises à ChatGPT seraient transférées « proactivement et automatiquement » au FBI et au Pentagone. Il ajoute que des dirigeants d’entreprises d’intelligence artificielle auraient reçu cette année « des grades au Pentagone ». Aucune preuve n’a été apportée pour étayer ces accusations.

Une rhétorique géopolitique

Cette déclaration s’inscrit dans une série de prises de position russes qui présentent les grands acteurs occidentaux du numérique comme des instruments d’ingérence. En ciblant OpenAI, Moscou met l’accent sur l’usage de l’IA générative en Russie et sur les risques supposés d’espionnage. L’accusation d’un transfert automatique au FBI et au Pentagone relève davantage d’un discours politique que d’une information vérifiée.

L’angle cyber et renseignement

La Russie multiplie les alertes autour de la collecte de données par les plateformes étrangères, qu’elle considère comme un levier de surveillance occidentale. La référence à un lien direct entre OpenAI et le Pentagone illustre une stratégie classique : associer les outils numériques à une infrastructure de renseignement militaire. Cette rhétorique vise autant l’opinion publique russe que les utilisateurs potentiels de l’IA dans la région.

Ni OpenAI ni les autorités américaines n’ont réagi à cette déclaration au moment de la publication. La formulation employée par Asafov — « automatiquement » et « initiative » d’OpenAI — ne repose sur aucune documentation technique accessible. À ce stade, il s’agit d’une accusation politique relayée par la presse locale, sans élément de corroboration indépendant.

La question centrale reste donc : cette accusation relève-t-elle d’une alerte fondée sur des renseignements techniques, ou d’une construction géopolitique destinée à encadrer l’usage de l’IA en Russie ?

Yandex sanctionné pour avoir refusé l’accès du FSB à Alisa

Le conflit entre innovation domestique et sécurité d’État s’expose publiquement. Yandex vient d’être sanctionné pour n’avoir pas ouvert au FSB un accès permanent à sa maison intelligente Alisa.

Un tribunal de Moscou a condamné Yandex à une amende de 10 000 roubles (environ 105 euros) pour avoir refusé de donner au FSB un accès permanent à sa plateforme de maison intelligente « Alisa ». La décision, prise fin juin 2025, dépasse le cadre d’une simple sanction financière : elle illustre l’extension de la loi Yarovaya aux objets connectés. Derrière ce jugement se profile un enjeu central pour la Russie : intégrer la sphère privée dans le dispositif de surveillance numérique. Quelles conséquences pour l’avenir des technologies domestiques, pour les entreprises opérant en Russie et pour les citoyens dont le foyer devient zone de contrôle ?

Les faits

Le 28 mai 2025, le FSB a transmis à Roskomnadzor un rapport d’inspection. Selon les services de sécurité, Yandex n’avait pas mis en place l’accès permanent requis à la ressource « yandex.ru/alice/smart-home ». La demande initiale consistait à garantir une disponibilité totale, 24 h sur 24, aux flux générés par l’écosystème Alisa.

L’affaire a été portée devant le tribunal du district de Khamovniki, à Moscou. Le 27 juin, le juge Vladislav Pojilovski a rendu sa décision : la culpabilité de Yandex était établie. En tant qu’« organisateur de la diffusion d’informations » (ORI), la société avait l’obligation légale de se conformer aux prescriptions. Le non-respect est considéré comme une infraction administrative, selon l’article 19.5 du Code de la Fédération de Russie.

Le représentant de Yandex ne s’est pas présenté à l’audience. Le tribunal, après analyse des pièces, a jugé l’entreprise coupable et infligé une amende de 10 000 roubles (105 euros).

Le montant peut sembler dérisoire. Mais le symbole est lourd : c’est la première fois qu’une plateforme de maison intelligente est sanctionnée pour avoir refusé l’accès intégral aux services de renseignement.

La décision marque une étape. Jusqu’ici, les sanctions avaient visé des messageries chiffrées comme Telegram. Avec Alisa, l’État russe franchit un seuil : celui de la vie domestique.

Les enjeux

La loi Yarovaya, adoptée en 2016, oblige les ORI à conserver et transmettre les communications aux autorités. L’esprit initial visait les fournisseurs de messageries, les réseaux sociaux et les services de courrier électronique. Mais son extension progressive touche désormais tout système numérique capable de traiter des données personnelles.

La qualification d’ORI appliquée à Alisa pose problème. Les messageries véhiculent des textes et des fichiers ; la maison intelligente produit des flux de voix, de vidéos, de données de capteurs. Assimiler ces deux réalités sous une même catégorie légale entraîne une application uniforme de la loi à des environnements techniques radicalement différents.

RUne phrase prononcée dans un salon devient, juridiquement, l’équivalent d’un message envoyé sur une messagerie cryptée.

Implications techniques

L’assistant vocal Alisa n’est pas un simple logiciel. Il coordonne des dizaines d’appareils connectés : enceintes, thermostats, caméras de surveillance, volets roulants, détecteurs de mouvement, téléviseurs. Mettre en place un accès complet pour le FSB suppose de centraliser ces flux dans une interface unique et de maintenir un accès permanent.

Cela équivaudrait à donner aux services de renseignement une cartographie détaillée du foyer : horaires de présence, habitudes de consommation, conversations privées, voire données médicales si des capteurs de santé sont connectés.

Développer une telle passerelle est extrêmement coûteux. Les investissements se chiffrent en millions d’euros. Pour une entreprise déjà soumise à de fortes contraintes réglementaires et économiques, la perspective de payer une amende symbolique est parfois plus rentable que de modifier toute l’architecture technique.

Certains analystes estiment que Yandex a délibérément choisi de ne pas se conformer. En acceptant la sanction, l’entreprise évite à la fois un coût démesuré et la perte de confiance des utilisateurs.

L’affaire révèle une faille du droit russe : l’absence de distinction entre services numériques hétérogènes. Une messagerie chiffrée et un réfrigérateur connecté sont rangés dans la même catégorie. Cette généralisation, pratique pour les services de sécurité, ignore les réalités techniques et complique l’application.

La décision judiciaire ouvre une perspective inquiétante : l’extension de la surveillance à tous les objets connectés. Les détecteurs de fumée, les voitures autonomes, les équipements médicaux domestiques pourraient demain être intégrés dans le réseau de contrôle.

Chaque foyer, chaque appareil deviendrait une antenne potentielle du système sécuritaire.

Yandex condamné pour refus d’accès du FSB à sa maison intelligente Alisa. Analyse d’une décision qui élargit la loi Yarovaya aux objets connectés et à la sphère privée.

Lipsync-2-pro : l’arme secrète de la synchronisation labiale ultra-réaliste

La nouvelle IA de Sync Labs promet un doublage 4K précis, multilingue et fidèle à l’élocution originale.

Avec lipsync-2-pro, Sync Labs propulse la synchronisation labiale dans une nouvelle ère : résolution 4K, rendu studio, adaptation automatique au style vocal et détection du locuteur. Le tout dans plus de 95 langues. Une avancée technologique majeure pour le cinéma, le contenu digital et les opérations de renseignement.

Une révolution invisible : l’IA derrière les lèvres

Quand Thomas, un cinéaste indépendant lyonnais, découvre lipsync-2-pro, il comprend instantanément qu’il vient de gagner des mois de postproduction. En un clic, il double son court-métrage de 12 minutes dans six langues différentes. Les visages sont nets, les mouvements de lèvres parfaitement synchronisés, la barbe et les dents conservées avec un réalisme troublant. Pour la première fois, l’illusion est totale.

Sorti en 2025, ce modèle développé par Sync Labs repousse les limites de la synchronisation labiale. Contrairement à ses prédécesseurs, lipsync-2-pro ne floute pas les détails, ne transforme pas l’élocution, et surtout, il comprend qui parle, quand, et comment. C’est l’aboutissement de plusieurs années de recherche en super-résolution, en modélisation faciale, et en deep learning linguistique.

Car derrière cette prouesse technologique se cache une ambition bien plus vaste : uniformiser la voix numérique dans le respect du naturel, quelle que soit la langue, le visage ou le format de la vidéo.

La voix d’un autre, avec votre visage

Au cœur de lipsync-2-pro se trouve une technologie de diffusion à super-résolution. Elle permet de générer des vidéos en qualité 4K, sans sacrifier les détails les plus subtils : rides, texture de la peau, pilosité, dents visibles ou non… tout est reconstitué avec une précision quasi organique. Contrairement aux anciens systèmes qui réécrivaient une bouche figée sur un visage pixelisé, lipsync-2-pro conserve l’identité visuelle et émotionnelle du locuteur.

Mais ce n’est pas tout. Le modèle s’adapte au style d’élocution, ce qui lui permet de préserver le rythme, les pauses, l’intonation. Une performance rendue possible par un mécanisme de type zero-shot, qui ne nécessite aucun entraînement préalable. En pratique, cela signifie qu’un simple extrait audio, doublé dans une autre langue, suffit pour générer une version entièrement synchronisée, sans perdre l’ADN vocal du personnage d’origine.

Un autre atout de taille : le modèle détecte automatiquement le locuteur actif dans les scènes polyphoniques. Plus besoin de découper manuellement les dialogues, ni de réencoder les plans individuellement. Cette capacité à gérer des interactions complexes ouvre la voie à des usages jusque-là hors de portée de l’intelligence artificielle.

Une IA multilingue taillée pour le renseignement

Avec la prise en charge de plus de 95 langues, lipsync-2-pro dépasse le cadre du cinéma ou du marketing digital. Il devient un outil stratégique dans le champ du cyber, du renseignement et de la communication d’influence. Imaginez pouvoir reconstituer un discours, un interrogatoire ou une vidéo de propagande dans une autre langue tout en conservant les caractéristiques physiques et orales du locuteur. Le gain analytique est immense.

Dans un monde où la désinformation s’appuie de plus en plus sur des vidéos trafiquées ou des contenus traduits de manière brute, lipsync-2-pro permet de croiser les langues sans altérer la forme, ouvrant de nouveaux horizons pour les analystes en OSINT, les linguistes en mission ou les services de contre-influence. En doublant un contenu tout en maintenant la synchronisation labiale parfaite, l’outil conserve la crédibilité émotionnelle du message original, ce qui est crucial pour comprendre les intentions réelles de l’orateur.

Autre fonctionnalité précieuse : la modification des dialogues en postproduction, qui permet de corriger, effacer ou adapter des propos sans réenregistrer l’audio ou reconstituer la scène. Cette capacité donne aux agences et studios un contrôle narratif inédit sur les contenus sensibles.

La vidéo multilingue à la portée de tous

Ce niveau de finesse a un prix : lipsync-2-pro consomme plus de ressources et coûte entre 0,067 $ et 0,083 $ la seconde (soit environ 0,063 € à 0,078 €) en traitement, et tourne 1,5 à 2 fois plus lentement que la version précédente. Mais pour les professionnels, le rapport temps/qualité est imbattable.

Pour les créateurs de contenu, les journalistes ou les cinéastes indépendants, lipsync-2-pro change radicalement la donne. Il devient possible de tourner dans sa langue maternelle, puis de générer automatiquement une version pour un public international, sans studio de doublage, ni perte de qualité. Une économie de temps, mais surtout une liberté artistique décuplée.

Les blogueurs peuvent ainsi s’ouvrir à des marchés étrangers en conservant leur identité visuelle et sonore. Les studios, eux, peuvent adapter leur catalogue existant à de nouveaux territoires sans coûts de localisation massifs. Et les communicants institutionnels, produire des messages multilingues au style cohérent, crédible et instantanément diffusables.

Une technologie de rupture ou d’illusion ?

La frontière entre amélioration et manipulation devient ténue. Comme toute technologie de génération réaliste, lipsync-2-pro soulève des questions éthiques. L’outil peut-il être utilisé pour créer de faux témoignages crédibles ? Pour altérer un message, tout en conservant l’apparence de véracité ? Des garde-fous existent, mais l’enjeu dépasse la technique : il touche à notre capacité collective à discerner le réel du synthétique.

Reste que lipsync-2-pro est une avancée majeure. En moins de deux ans, la synchronisation labiale est passée de gadget semi-réaliste à outil de production de niveau studio, fiable, multilingue, et totalement adaptable. Une révolution silencieuse, mais visible sur toutes les lèvres.

Évaluer à l’ère de l’IA : traçabilité plutôt que détection

À la rentrée, une question s’impose : comment évaluer quand les copies peuvent être boostées à l’IA ? Les détecteurs automatiques, eux, ne tiennent pas la promesse de fiabilité.

Depuis que les outils d’IA générative sont entrés dans les salles de classe, les enseignants cherchent à distinguer l’authentique de l’artificiel. Mais les détecteurs automatiques se révèlent peu fiables et biaisés, incapables d’offrir une solution juste et universelle. La France a donc publié en 2025 un cadre d’usage éducatif : l’IA peut être utilisée si elle est déclarée et accompagnée d’un travail d’appropriation par l’élève. Le débat se déplace : il ne s’agit plus de traquer les textes “truqués”, mais de rendre l’évaluation traçable. Épreuves hybrides, annexes de prompts, oraux flash et versioning deviennent les nouvelles règles du jeu. L’enjeu dépasse la fraude : il redéfinit la compétence scolaire à l’ère numérique.

La fin du mythe du détecteur infaillible

En 2023, OpenAI a retiré son propre outil de détection d’IA pour une raison simple : sa précision trop faible. Les études menées par Stanford HAI et publiées sur ScienceDirect confirment ces limites. Non seulement ces détecteurs échouent à séparer nettement textes humains et textes générés, mais ils présentent en plus des biais structurels. Les élèves non natifs sont les premiers touchés, accusés à tort d’avoir triché alors qu’ils ont produit un texte authentique.

Cette réalité fragilise l’idée d’une surveillance automatisée. Miser exclusivement sur un score revient à fonder une décision pédagogique sur du sable. La fraude ne peut être jugée sur une seule donnée chiffrée, mais sur un faisceau d’indices cohérents : style, traçabilité, maîtrise orale. Autrement dit, l’évaluation doit évoluer, non pas pour traquer l’IA, mais pour vérifier ce que l’élève a réellement appris et compris.

Le tournant narratif se joue ici. Au lieu de voir l’IA comme une menace invisible, on peut l’intégrer comme un outil balisé. Encore faut-il fixer les règles clairement, ce que la France a entrepris avec son cadre officiel en 2025.

Le nouveau cadre français et l’exemple international

Le ministère de l’Éducation nationale a publié un “cadre d’usage de l’IA en éducation” en 2025. Le principe est simple : l’IA est autorisée si l’enseignant le précise et si l’élève conserve une part active dans l’élaboration du devoir. À l’inverse, un usage dissimulé ou une délégation totale de la rédaction est considéré comme une fraude.

Ce cadre introduit une graduation. À partir de la classe de 4e, les élèves peuvent utiliser certains outils en autonomie, mais toujours sous réserve de règles explicites. Par exemple, recourir à l’IA pour générer un plan ou reformuler des idées est admis, tant que l’élève le mentionne dans une annexe. En revanche, livrer une copie entièrement produite par un modèle reste interdit.

Ce mouvement n’est pas isolé. L’UNESCO, dès 2023, appelait les établissements à formaliser rapidement des chartes locales. Pourtant, moins de 10 % des écoles et universités disposaient alors de consignes claires. Le World Economic Forum rappelait que le vrai danger n’était pas l’IA en elle-même, mais l’incertitude des règles. En pratique, ce flou créait une “loterie disciplinaire” où chaque établissement décidait au cas par cas, avec des sanctions variables et souvent contestées.

Ainsi, la France suit une tendance mondiale : encadrer plutôt qu’interdire, clarifier plutôt que punir aveuglément. Les dispositifs émergents montrent que la solution n’est pas technologique, mais pédagogique et organisationnelle.

Vers une évaluation traçable et hybride

Le cœur de la transformation réside dans la conception d’épreuves adaptées. Plusieurs dispositifs concrets dessinent déjà une nouvelle norme.

D’abord, l’évaluation hybride. Une partie du travail est réalisée en classe (30 à 50 % selon les disciplines), notamment le brouillon, le plan ou l’introduction. L’autre partie, plus développée, est produite à la maison. Cette double étape permet de comparer le style, les sources et la cohérence. Un détecteur d’IA peut être utilisé comme simple indicateur, jamais comme preuve.

Ensuite, l’annexe de traçabilité. L’élève doit y consigner les prompts utilisés, les captures ou l’historique d’édition, ainsi qu’une explication de ce que l’IA a apporté et de ce qu’il a réalisé lui-même. Inspirée des guides de l’UNESCO IA, cette pratique responsabilise l’élève et offre à l’enseignant une visibilité nouvelle sur le processus créatif.

À cela s’ajoute l’oral flash. En trois minutes, l’élève doit justifier un argument, commenter un passage ou défendre une source. Ce format court permet de vérifier la compréhension réelle sans alourdir la charge des enseignants.

Autre levier : les tâches ancrées. Proposer des sujets contextualisés, avec données locales ou corpus fournis en classe, rend plus difficile la délégation à une IA générique. De même, le versioning obligatoire, via un document avec historique intégré (ENT, Pad collaboratif) et un échantillon manuscrit, assure la continuité stylistique.

Enfin, la grille IA explicite. Elle distingue les compétences disciplinaires classiques des compétences d’usage de l’IA : qualité de la requête, vérification des faits, capacité de reformulation. Cette approche reconnaît l’IA comme un outil éducatif, tout en en limitant les dérives.

L’ensemble trace un chemin. L’IA cesse d’être une zone grise. Elle devient un paramètre assumé, intégré à la pédagogie.

Ce qu’il faut éviter : la fausse sécurité et les règles floues

Deux écueils dominent.

Le premier : croire que tout miser sur un détecteur suffira. Ces outils, on l’a vu, sont peu fiables. Ils risquent d’accuser injustement et d’induire une pédagogie policière. Aucune sanction ne doit reposer uniquement sur un score chiffré.

Le second : laisser perdurer des règles vagues. Sans charte claire, chaque enseignant applique sa propre interprétation. L’UNESCO insiste : la transparence et la formation sont indispensables. Une politique commune, même simple, évite l’arbitraire et sécurise élèves comme professeurs.

Une mini-charte IA [IA France] illustre ce que pourrait être une règle opérationnelle : usage autorisé pour la recherche d’idées, les plans, la reformulation et la correction, à condition d’annexer les prompts. Interdiction d’une rédaction intégrale par IA quand le devoir le précise, interdiction des sources inventées. Toute infraction devient fraude.

Le processus disciplinaire, en cas de doute, doit passer par un entretien contradictoire. Aucun élève ne peut être sanctionné sur la base d’un indicateur technique seul.

Bref ! En 2025, la question n’est plus de démasquer une machine, mais de vérifier une compétence. Une bonne copie n’est pas seulement un produit fini, c’est un chemin visible : ce qui a été appris, et comment. L’IA ne disparaîtra pas des salles de classe. Reste à décider si elle sera un allié transparent ou un fantôme soupçonné. La vraie interrogation est donc : jusqu’où l’école saura-t-elle transformer ses méthodes d’évaluation sans perdre sa légitimité ?

Invitation Is All You Need : fausse invitation pour pirater votre vie numérique

Invitation Is All You Need : une simple invitation Google Calendar peut devenir une arme redoutable contre Gemini, l’assistant IA de Google — bienvenue dans l’ère du promptware, où vos appareils sont compromis à votre insu.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Trois chercheurs israéliens ont mis au jour une faille alarmante dans Gemini, l’assistant IA de Google. En cachant des instructions malveillantes dans le titre d’un événement Google Calendar, ils ont réussi à manipuler l’IA pour exécuter des actions inattendues : prise de contrôle de domotique, suppression de rendez-vous, géolocalisation, déclenchement d’appels, diffusion de messages injurieux et vol de correspondances. Baptisée « Invitation Is All You Need », cette attaque de type promptware démontre à quel point un simple rendez-vous numérique peut devenir une arme d’intrusion. Google a réagi avec filtres, confirmation humaine et détection par apprentissage automatique. Mais l’incident souligne les risques majeurs liés à l’intégration des IA dans nos vies connectées.

Quand une invitation devient une intrusion

Tout commence dans un appartement discret de Tel-Aviv. Les volets motorisés, les lumières connectées et la chaudière semblent fonctionner normalement. Pourtant, au moment précis où un occupant demande à Gemini de lui lire ses prochains rendez-vous, la pièce bascule dans l’étrange : les volets s’ouvrent sans demande, la chaudière s’allume, un appel vidéo se prépare en arrière-plan. La source ? Une simple invitation Google Calendar, envoyée quelques jours plus tôt et soigneusement camouflée pour paraître banale.

Derrière cette démonstration se trouvent Ben Nassi, Stav Cohen et Or Yair, chercheurs en cybersécurité. Leur objectif : prouver qu’un assistant IA peut être manipulé sans interaction directe avec sa victime, en exploitant la manière dont il lit et interprète les informations contextuelles.

Ils ont découvert que Gemini, lorsqu’il lit un événement du calendrier, intègre l’intégralité du titre et de la description dans son « contexte » d’analyse. Si ces informations contiennent des instructions malveillantes, l’IA peut les exécuter, convaincue qu’elles font partie de la demande de l’utilisateur. L’utilisateur, lui, ne voit qu’un résumé anodin… mais déclenche malgré lui une séquence invisible.

L’ombre du promptware

Le terme promptware décrit ces attaques qui n’exploitent pas une faille de code, mais la confiance qu’un système accorde à son entrée textuelle. Dans ce cas, l’entrée n’est pas tapée par l’utilisateur : elle arrive automatiquement par un service tiers, ici Google Calendar. L’équipe a ainsi démontré que l’on pouvait transformer une simple donnée textuelle en levier de compromission.

Les scénarios qu’ils ont simulés donnent le vertige. Un message caché dans un rendez-vous peut ordonner à Gemini d’envoyer un courriel à une liste précise, ce qui permet de diffuser du spam ou de mener des campagnes de phishing. Un autre peut lui demander de supprimer certains événements importants de l’agenda, créant une désorganisation ciblée. Les chercheurs ont aussi montré qu’il est possible d’obtenir la localisation d’un appareil et de la transmettre discrètement à un tiers, ouvrant la voie à une surveillance intrusive.

Ils ont poussé l’expérience plus loin : contrôle d’objets connectés via Google Home, comme allumer une chaudière ou déverrouiller une porte ; déclenchement d’appels vidéo non sollicités ; ou encore insertion de messages offensants dans des conversations. Autant d’actions qui, dans un contexte professionnel ou privé, peuvent provoquer des dommages tangibles, financiers comme psychologiques.

L’efficacité de ces attaques repose sur deux facteurs : leur invisibilité et leur proximité avec l’usage normal de l’IA. Gemini croit agir sur ordre légitime. L’utilisateur, lui, ne soupçonne rien, puisque l’action est liée à une commande vocale qu’il a lui-même donnée, comme « Quels sont mes prochains rendez-vous ? ».

La contrainte technique : pour que l’attaque fonctionne, le rendez-vous piégé doit figurer dans les cinq événements les plus récents de l’agenda. Les chercheurs ont donc imaginé des stratégies pour maintenir l’événement dans cette zone visible, notamment en multipliant les invitations successives, chacune repoussant l’ancienne plus loin dans la liste.

L’alerte cyber et renseignement

Cette faille révèle bien plus qu’un simple problème technique : elle met en lumière la manière dont l’intégration des IA dans nos outils quotidiens peut créer des points d’entrée inattendus pour des opérations de renseignement.

Dans un scénario d’espionnage, une agence malveillante pourrait envoyer à grande échelle des invitations piégées à des cibles précises, déclenchant des actions d’exfiltration ou de sabotage à distance. Contrairement aux campagnes de phishing classiques, il n’est pas nécessaire que la victime clique sur un lien ou télécharge un fichier. Le seul fait de demander à Gemini d’accéder à son calendrier suffit.

L’attaque contourne aussi les défenses humaines : même un utilisateur prudent, conscient des risques des emails suspects, n’imaginerait pas qu’une notification de réunion puisse activer une porte d’entrée vers ses données.

Google, alerté par cette découverte, a réagi en déployant plusieurs contre-mesures. La première : un filtrage de sortie, visant à bloquer la transmission de données sensibles. Ensuite, un système de confirmation humaine avant d’exécuter certaines actions jugées à risque. Enfin, un renforcement de la détection automatique par apprentissage automatique, afin d’identifier les formulations suspectes insérées dans des contenus apparemment anodins.

Ces mesures réduisent le risque immédiat, mais elles ne changent pas la nature fondamentale du problème : la dépendance croissante de nos outils à des IA qui, par conception, obéissent aveuglément au texte qu’elles interprètent.

Une vigilance de tous les instants

Pour se prémunir de ce genre d’attaque, il ne suffit pas de compter sur les correctifs des éditeurs. Les utilisateurs peuvent limiter l’exposition en restreignant l’accès de Gemini aux données sensibles. Examiner régulièrement les nouveaux événements ajoutés au calendrier, surtout lorsqu’ils proviennent de sources inconnues, reste une précaution utile. Dans les paramètres, il est possible de forcer une validation manuelle avant toute action impactant le monde réel, comme contrôler un appareil domestique.

La sensibilisation joue un rôle clé. Comprendre que le promptware peut se glisser dans n’importe quelle interaction avec une IA, même indirecte, aide à repérer des comportements anormaux. Enfin, du côté des développeurs et architectes systèmes, il est urgent de concevoir des IA qui ne puissent pas exécuter d’actions critiques sur la seule base de contenu textuel non vérifié.

Orange et OpenAI : partenar’IA

Orange s’allie à OpenAI pour lancer une nouvelle génération d’intelligences artificielles souveraines, frugales et inclusives. En déployant localement les modèles open-weight gpt-oss-120b et gpt-oss-20b dans ses propres data centers, Orange annonce garantir la confidentialité des données, le respect des réglementations locales et la performance à grande échelle. Cette collaboration pionnière marque une étape stratégique vers une IA qui se veut éthique, adaptée aux besoins des entreprises, des États et des citoyens, notamment en Afrique.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

De la puissance brute à la finesse maîtrisée : l’ambition souveraine d’Orange

Tout a commencé dans les laboratoires d’Orange, bien avant le battage médiatique autour de l’IA générative. En interne, les experts IA du groupe savaient que pour bâtir une stratégie durable, il fallait aller au-delà de la simple intégration d’un assistant conversationnel. Il s’agissait de prendre le contrôle : des données, des performances, des coûts, et surtout, de la souveraineté.

C’est dans cette logique qu’Orange devient l’un des premiers au monde à intégrer les modèles open-weight gpt-oss-120b et 20b de l’américain OpenAI dans ses propres infrastructures. Pas dans un cloud tiers. Pas sous la surveillance d’un acteur externe. Dans ses data centers, en France et dans 26 pays.

Ces modèles ne sont pas juste puissants : ils sont adaptables. Grâce à une architecture « Mixture of Experts » (128 experts, 4 activés par token), ils permettent à Orange d’activer uniquement ce qui est nécessaire. Résultat : performance ciblée, consommation énergétique réduite, et empreinte environnementale maîtrisée. Loin d’être gadget, ce déploiement ouvre la voie à une personnalisation ultra-précise : Orange distille ces IA pour des usages internes (maintenance réseau, cybersécurité, assistance technique) comme pour ses clients B2B, qui attendent une IA aussi puissante que souveraine.

L’intelligence responsable : cybersécurité, écologie, pragmatisme ?

Chez Orange, l’IA est un outil, calibré pour résoudre des problèmes réels : réseau en surcharge, attaques cyber, détection d’anomalies, besoins multilingues, expérience client inégale. Et c’est là que la responsabilité entre en scène. Déployer localement signifie que chaque modèle reste dans un cadre légal strict, avec des données chiffrées, sans exfiltration possible. Dans le contexte européen du RGPD ou face à la fragmentation des normes africaines et moyen-orientales, c’est un atout géopolitique. Orange devient son propre garant.

L’approche frugale — moins de puissance, moins de données, moins d’énergie — est tout sauf naïve. Elle s’ancre dans le réel. Moins de calcul, c’est moins de chaleur, moins de serveurs, moins d’émissions carbone. Dans ses propres centres de données, Orange peut même optimiser la consommation énergétique des modèles, en fonction des heures creuses, ou des pics d’activité. Avec gpt-oss-20b, par exemple, Orange développe des micro-modèles ultra-ciblés pour des tâches précises : tri intelligent de courriels, classification automatisée de tickets réseau, réponse instantanée en langage naturel dans les call centers. Tout cela en restant 100 % souverain.

Enfin, cette IA n’est pas neutre indique Orange : elle se veut aussi cyber-résiliente. Parce que les modèles sont localisés, Orange garde la main sur chaque couche, chaque adaptation. En cas d’attaque ou de vulnérabilité, l’entreprise peut couper, corriger, réentraîner sans dépendre d’un tiers. Une maîtrise rare, dans un secteur où l’IA est souvent opaque. Grâce aux gpt-oss d’OpenAI, Orange peut affiner ses modèles pour intégrer le wolof, le baoulé, le swahili ou le lingala. Cela change tout. Un client peut dialoguer avec un agent IA dans sa langue maternelle. Un service public peut proposer une interface vocale adaptée à sa population. Et demain, ces modèles seront publiés en open source, à disposition des États africains. L’impact est considérable. Dans des pays où l’accès aux services numériques reste inégal, une IA bien entraînée peut devenir un relais d’éducation, de prévention santé, d’accès aux droits. C’est aussi une arme contre la fracture numérique, contre la marginalisation linguistique, contre l’exclusion des femmes, souvent moins exposées aux outils tech.

Les limites du partenariat Orange–OpenAI : cinq points à surveiller

Derrière l’ambition affichée de souveraineté, plusieurs zones de vigilance demeurent. La première concerne la dépendance stratégique à OpenAI. Même si les modèles gpt-oss sont déployés localement dans les data centers d’Orange, ils restent conçus et maintenus par l’américain OpenAI. Cela signifie qu’Orange dépend toujours de ses choix technologiques et de son rythme d’évolution. La souveraineté est donc davantage opérationnelle que technologique.

Deuxième enjeu : les coûts et la complexité opérationnelle. Exploiter des modèles de 20 à 120 milliards de paramètres suppose une infrastructure lourde, énergivore et coûteuse. Les promesses d’efficacité énergétique permettent de limiter l’impact environnemental, mais pas d’effacer l’ampleur des investissements nécessaires, ni les frais de maintenance à long terme. Face aux géants du cloud, dotés de moyens colossaux, Orange devra contenir ses dépenses tout en restant compétitif.

Vient ensuite la question de la scalabilité et des performances réelles. Les modèles open-weight d’OpenAI sont puissants, mais restent derrière les modèles propriétaires les plus avancés. Ils conviennent à des cas d’usage ciblés, mais pourraient montrer leurs limites dans des déploiements massifs auprès du grand public ou pour des services transverses.

Le quatrième point critique touche à la gouvernance et à la transparence. En se posant en garant de ses propres IA, Orange assume une responsabilité directe : encadrer les biais, éviter les dérives et instaurer des mécanismes d’audit. Or, sans supervision externe indépendante, la crédibilité de l’approche pourrait être questionnée.

Enfin, l’impact géopolitique du projet est ambivalent. En Afrique, il peut réduire la fracture numérique et favoriser l’inclusion linguistique. Mais il peut aussi renforcer une dépendance technologique vis-à-vis d’acteurs extérieurs, dans un contexte où la souveraineté numérique africaine est un enjeu majeur.

En somme, le partenariat ouvre des perspectives, mais son succès dépendra de la capacité d’Orange à transformer ces promesses en solutions réellement pérennes et autonomes.

L’intelligence artificielle redéfinit l’emploi et la formation en cybersécurité

L’automatisation progresse rapidement dans le secteur de la cybersécurité. Selon une récente enquête de l’ISC2, près d’un tiers des entreprises ont déjà intégré l’intelligence artificielle dans leurs opérations, tandis que 42 % évaluent ou testent actuellement ces outils.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

L’enquête de l’ISC2 [lien en bas de l’article], l’une des plus importantes organisations mondiales de professionnels certifiés en cybersécurité, met en lumière l’essor de l’intelligence artificielle dans les stratégies de défense informatique. Ce développement concerne principalement les grandes entreprises, notamment celles comptant plus de 10 000 salariés, ainsi que les sociétés de services informatiques et du secteur industriel. Les administrations publiques apparaissent à la traîne, avec seulement 16 % des structures ayant déjà franchi le cap de l’intégration de l’intelligence artificielle dans leurs dispositifs de cybersécurité.

L’adoption rapide de l’IA s’explique avant tout par la recherche de gains d’efficacité et de réactivité. Selon les résultats de l’enquête, sept équipes sur dix ayant déjà recours à l’IA constatent une nette amélioration de la productivité dans la détection d’intrusions, la surveillance des réseaux et la gestion des vulnérabilités. « Sept équipes sur dix ayant adopté l’IA signalent une hausse sensible de leur productivité. »
La majorité des usages recensés concernent cinq axes principaux : la surveillance réseau et la détection des intrusions, la protection et la réponse aux incidents sur les terminaux, la gestion des vulnérabilités, la simulation des menaces et le test de sécurité. Ces activités étaient auparavant le terrain d’apprentissage privilégié des professionnels débutants du secteur.

Les entreprises interrogées font état d’un intérêt croissant pour l’automatisation, bien que celle-ci s’accompagne d’une certaine prudence. La plupart des groupes sondés précisent qu’ils sont encore en phase de test, cherchant à évaluer les risques et à mesurer les bénéfices réels avant un déploiement généralisé. Toutefois, les responsables de la sécurité de l’information estiment que l’intégration de l’IA devient progressivement incontournable, notamment face à la sophistication croissante des cybermenaces. « Plus de 40 % des équipes sont actuellement en phase de test ou d’évaluation de solutions d’intelligence artificielle. »

Les investissements dans l’IA sont majoritairement concentrés dans les grandes entreprises, qui disposent des moyens financiers et humains nécessaires pour explorer ces nouvelles technologies. Les PME et les administrations restent plus en retrait, invoquant des contraintes budgétaires, un manque de compétences internes et des doutes quant à la maturité des outils disponibles. Ce clivage illustre l’inégalité d’accès à l’automatisation dans le secteur de la cybersécurité.

Un impact direct sur l’emploi débutant et la formation

La progression de l’IA dans les équipes de cybersécurité influe déjà sur la gestion des ressources humaines, en particulier concernant les profils débutants. Selon l’enquête, 52 % des répondants considèrent que l’automatisation pourrait réduire le besoin de recruter des salariés en début de carrière. Par ailleurs, 21 % des entreprises déclarent avoir déjà modifié leur politique de recrutement à la suite de l’introduction d’outils d’IA.

Ce changement suscite des inquiétudes quant à l’avenir des jeunes professionnels du secteur. Les postes d’analyste junior, de support réseau ou de veille sécurité, souvent premiers tremplins dans la filière, risquent d’être moins nombreux à mesure que les solutions automatisées s’imposent. « Plus d’une entreprise sur deux estime que l’IA va limiter le recours aux débutants dans la profession. »

Les experts interrogés rappellent que la formation pratique sur le terrain, au contact des menaces réelles, constitue une étape déterminante dans la montée en compétence des futurs spécialistes. L’absence de cette expérience pourrait freiner le développement de l’intuition, du sens critique et de la capacité à appréhender la complexité des attaques sophistiquées. Certains alertent également sur le risque de voir émerger un déficit de profils qualifiés à moyen terme, susceptible de renforcer la pression sur les équipes expérimentées et d’augmenter les coûts de recrutement.

 

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

L’enquête indique aussi que l’automatisation transforme la nature même des tâches confiées aux débutants. À la place des activités répétitives, comme l’analyse manuelle de logs ou la surveillance continue, les jeunes professionnels se voient confier des missions plus techniques ou hybrides, à l’interface entre l’expertise cybersécurité et la gestion d’outils d’intelligence artificielle.

Face à cette évolution, la plupart des organisations affirment réévaluer leurs programmes de formation interne afin de mieux préparer les recrues aux réalités du nouveau paysage technologique. Les cursus intègrent désormais des modules dédiés à la compréhension du fonctionnement des systèmes automatisés, à l’entraînement des modèles d’IA et à la détection des biais potentiels dans les analyses produites par ces outils.

Des métiers émergents et une adaptation des parcours professionnels

Malgré les incertitudes, de nouvelles opportunités apparaissent. Près de 44 % des entreprises interrogées déclarent que l’intégration de l’intelligence artificielle n’a, à ce stade, eu aucun effet sur leurs politiques de recrutement. De plus, 31 % estiment que l’IA pourrait favoriser l’émergence de postes hybrides, combinant compétences en cybersécurité et maîtrise des outils d’automatisation.

Des fonctions inédites sont en cours de structuration dans de nombreuses équipes : analyste SOC avec appui de l’IA, junior chargé de l’entraînement des modèles, assistant à la vérification des systèmes automatisés, spécialiste du respect éthique des algorithmes, assistant dédié à la maintenance et à l’évolution des processus automatisés, analyste de sécurité cloud épaulé par des plateformes intelligentes.

Cette recomposition du marché du travail pousse les entreprises à revoir leur politique de gestion des talents. Certaines mettent l’accent sur le développement de cursus internes orientés vers l’intelligence artificielle appliquée à la cybersécurité. D’autres multiplient les partenariats avec les écoles d’ingénieurs et les universités afin d’adapter les programmes de formation initiale.

Ce mouvement vise à garantir la continuité des savoir-faire au sein des équipes et à sécuriser l’évolution de la filière. Les organisations les plus avancées investissent également dans la formation continue, notamment pour les salariés déjà en poste, afin de faciliter la transition vers des postes à plus forte valeur ajoutée ou en lien direct avec l’automatisation.

Dans le même temps, les acteurs publics et privés réfléchissent à la manière de préserver les filières d’entrée dans la profession, pour éviter l’apparition d’un goulot d’étranglement au niveau du recrutement de nouveaux spécialistes. Les enjeux sont d’autant plus cruciaux que la demande de compétences en cybersécurité reste largement supérieure à l’offre, en particulier pour les profils experts capables de superviser ou d’auditer des systèmes automatisés.

L’automatisation, un enjeu stratégique pour la pérennité de la cybersécurité

L’intelligence artificielle s’impose progressivement comme un levier majeur d’efficacité dans la lutte contre les cybermenaces. Les solutions automatisées permettent de traiter des volumes de données considérables, d’accélérer la détection des incidents et de renforcer la capacité de réaction des équipes. Toutefois, cette évolution pose la question du maintien des compétences fondamentales, indispensables à la compréhension fine des risques et à la conduite d’investigations complexes.

La structuration des nouveaux métiers, l’adaptation des parcours de formation et la préservation de l’apprentissage sur le terrain constituent les principaux défis identifiés par les entreprises. Les experts du secteur soulignent que la gestion de la transition vers une cybersécurité automatisée doit s’effectuer de manière progressive et réfléchie, afin d’éviter toute rupture dans la chaîne de compétences.

L’enquête de l’ISC2 révèle également que l’automatisation n’a pas vocation à se substituer entièrement à l’humain. Les tâches les plus complexes, la supervision des systèmes intelligents et la prise de décision stratégique restent du ressort des professionnels expérimentés. L’IA apparaît davantage comme un outil d’assistance, permettant d’augmenter la productivité et d’alléger la charge de travail, tout en ouvrant de nouvelles perspectives de carrière.

À mesure que l’écosystème évolue, les entreprises sont amenées à redéfinir les contours de leurs équipes de cybersécurité. Cela suppose une gestion fine de l’équilibre entre automatisation, formation des jeunes talents et valorisation des compétences internes.

Si les investissements dans l’IA sont aujourd’hui portés par les grands groupes, il est probable que les outils automatisés deviendront progressivement accessibles à un plus grand nombre d’organisations.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Royaume-uni et openai signent un partenariat pour la sécurité et l’innovation de l’intelligence artificielle

Londres et OpenAI ont signé un accord de partenariat pour renforcer la recherche sur la sécurité de l’intelligence artificielle et explorer de potentielles opportunités d’investissements dans l’infrastructure nationale. Le gouvernement britannique prévoit d’injecter 1 milliard de livres sterling (1,18 milliard d’euros) dans le développement de capacités de calcul destinées à stimuler l’essor de l’IA.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

« L’IA deviendra un vecteur clé des changements à mener à travers tout le pays, qu’il s’agisse de réformer le National Health Service, de lever les obstacles à l’accès ou de soutenir la croissance économique », a déclaré Peter Kyle, ministre britannique chargé de la technologie.

Le partenariat conclu avec OpenAI vise à explorer, selon les termes du gouvernement, des applications concrètes de l’intelligence artificielle dans des domaines stratégiques comme la justice, la défense, la sécurité et l’éducation. Ce rapprochement intervient alors que le Royaume-Uni cherche à consolider sa position de leader européen du secteur et à rivaliser avec les États-Unis et la Chine, qui dominent largement la course mondiale à l’IA.

Accélération de l’investissement et ambitions gouvernementales

Le plan dévoilé par le gouvernement britannique prévoit une multiplication par vingt de la capacité de calcul publique disponible sur le territoire au cours des cinq prochaines années. Cette ambition est intégrée à l’initiative du Premier ministre Keir Starmer, dont l’objectif est de transformer le pays en une superpuissance de l’intelligence artificielle. « Lancement du partenariat stratégique Royaume-Uni – OpenAI pour l’IA », a résumé le communiqué officiel.

Parmi les axes majeurs, le programme comprend des investissements dans la recherche sur les réseaux de neurones, l’amélioration de l’efficacité de la sphère publique, le développement de « zones de croissance IA » réparties géographiquement, et le soutien à la création de centres de traitement de données et de pôles scientifiques. Les autorités britanniques attendent de ces mesures un impact significatif sur l’économie du pays à moyen et long terme.

Selon les chiffres publiés, la réalisation du plan devrait permettre de générer 47 milliards de livres sterling (environ 55,3 milliards d’euros) de valeur économique supplémentaire sur dix ans. Plusieurs entreprises privées ont d’ores et déjà promis d’investir 17 milliards de dollars (environ 15,7 milliards d’euros) et de créer 13 250 emplois afin de soutenir le déploiement de la stratégie nationale d’intelligence artificielle.

« Le secteur de l’IA au Royaume-Uni est évalué à 72,3 milliards de livres sterling (85,1 milliards d’euros), positionnant le pays au troisième rang mondial derrière les États-Unis et la Chine », a souligné le ministère de la Technologie.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Le Royaume-Uni est aujourd’hui le principal marché de l’intelligence artificielle en Europe ?

Le dynamisme du secteur se traduit par la présence de plus de 2 300 entreprises technologiques spécialisées dans l’intelligence artificielle et bénéficiant d’investissements en capital-risque. Leur valorisation cumulée a atteint 230 milliards de dollars (213 milliards d’euros) au premier trimestre 2025. Le Royaume-Uni recense également huit “licornes” de l’IA, soit des start-ups valorisées à plus de 1 milliard de dollars (929 millions d’euros). Seuls les États-Unis et la Chine font mieux sur ce critère.

L’activité d’investissement dans la tech britannique s’est maintenue à un niveau élevé, avec 1,03 milliard de dollars (956 millions d’euros) levés par les start-ups spécialisées dans l’IA au premier trimestre 2025, soit un record sur les trois dernières années.

L’un des atouts majeurs du pays réside dans son écosystème de recherche et développement. Des universités et instituts de pointe, tel l’Institut Alan Turing, forment des experts de haut niveau et mènent des recherches avancées dans le domaine. Le pôle technologique londonien attire aussi bien des acteurs nationaux qu’internationaux : Anthropic, OpenAI et Palantir ont choisi la capitale britannique comme base de leurs opérations européennes.

« 76 % des dirigeants d’entreprises technologiques britanniques observent un impact positif de l’IA sur la croissance de leur activité », révèle un rapport officiel.

Les technologies d’intelligence artificielle sont désormais adoptées dans tous les secteurs, du financement à la santé, en passant par la cybersécurité, l’industrie, l’éducation et la création artistique.

Des champions nationaux et une stratégie de souveraineté numérique

L’écosystème britannique compte plusieurs start-ups à succès mondial. DeepMind, fondée à Londres en 2010, s’est imposée comme un pionnier du deep learning et de l’intelligence artificielle. Rachetée en 2014 par Google pour un montant estimé entre 500 et 600 millions de dollars (de 464 à 557 millions d’euros), la société s’est illustrée par la création d’algorithmes capables de battre l’humain dans des jeux de stratégie complexes.

Dans le secteur des biotechnologies et de la santé, BenevolentAI et Exscientia utilisent l’IA pour accélérer la découverte de nouveaux médicaments et collaborent avec de grands laboratoires pharmaceutiques mondiaux.

La société Wayve, issue de l’université de Cambridge, développe à Londres depuis 2017 une approche basée sur “l’intelligence incarnée” (Embodied AI) pour l’apprentissage de la conduite autonome. Dans l’industrie du hardware, Graphcore, start-up fondée à Bristol en 2016, a conçu des processeurs spécifiquement optimisés pour l’IA et levé près de 700 millions de dollars (650 millions d’euros) auprès d’investisseurs majeurs.

Stability AI, également basée à Londres, s’est fait connaître dès 2019 avec la création de Stable Diffusion, un modèle génératif d’images à partir de descriptions textuelles. La société a réuni 101 millions de dollars (94 millions d’euros) de financement en 2022 pour une valorisation à 1 milliard de dollars (929 millions d’euros).

Intégration de l’IA dans la défense et la sécurité nationale

Le développement de l’intelligence artificielle est une priorité affirmée du gouvernement britannique. La National AI Strategy, publiée en septembre 2021, définit trois axes : investissement massif dans la recherche, généralisation de l’adoption dans l’économie et encadrement éthique et réglementaire.

En 2022, le ministère de la Défense a publié sa propre stratégie de l’IA, considérant cette technologie comme un élément clé des armées du futur. Le dernier Strategic Defence Review de 2025 désigne l’intelligence artificielle comme “composante fondamentale de la guerre moderne” et juge indispensable son intégration systématique pour préserver la supériorité opérationnelle.

Si l’IA était d’abord envisagée comme un outil de soutien, la doctrine actuelle prévoit sa généralisation à tous les niveaux, du renseignement à la conduite des opérations sur le terrain. L’une des priorités consiste à développer des modèles linguistiques capables d’accélérer la prise de décision en exploitant en temps réel les données issues du renseignement et du champ de bataille.

Le ministère de la Défense ambitionne de créer une digital targeting network : un réseau unifié d’information, alimenté par des capteurs multiples (satellites, drones, radars, cyber renseignement), pour identifier et répartir automatiquement les cibles prioritaires entre les différentes armes.

Ce système, basé sur l’IA, doit permettre de passer d’une approche fragmentée à des “opérations centrées sur la donnée”, avec une capacité de réaction et de décision accrue pour les forces armées.

Les forces britanniques expérimentent déjà de nombreux prototypes de systèmes autonomes, qu’il s’agisse de drones aériens, de robots terrestres ou de véhicules sous-marins. La Royal Air Force travaille avec ses partenaires industriels sur le projet Tempest (Future Combat Air System), un avion de combat de sixième génération intégrant l’intelligence artificielle pour l’aide à la décision et le pilotage de drones en essaim.

Les forces terrestres testent des concepts d’intégration de drones de reconnaissance et de plateformes robotisées pour l’appui-feu, avec une première détection et désignation des cibles assurées par des algorithmes d’IA. La marine, quant à elle, investit dans des projets de navires autonomes et de sous-marins sans équipage pour la surveillance et la neutralisation de mines.

La prochaine génération de grandes plateformes militaires (avions de combat, navires) sera conçue pour fonctionner en équipages hybrides, combinant opérateurs humains et systèmes d’IA. Les porte-avions en projet devraient ainsi intégrer une proportion croissante de drones contrôlés par IA en coopération avec les avions pilotés.

Dans le champ de la cybersécurité et de la guerre électronique, les réseaux neuronaux occupent une place croissante. Une unité spécialisée dans la guerre électronique a été créée en 2023 pour renforcer la détection automatique et la neutralisation des cyberattaques, la protection des réseaux militaires et la gestion optimisée des brouillages et contre-mesures électroniques.

L’intelligence artificielle permettra d’analyser en temps réel des millions d’événements sur les réseaux militaires, de détecter les comportements suspects et de piloter automatiquement les opérations de perturbation des communications et radars adverses.

L’usage de l’IA s’étend aussi à l’information warfare, avec la surveillance des réseaux sociaux pour identifier les campagnes de désinformation et la création de simulateurs avancés pour l’entraînement à la cybersécurité.

Le Royaume-Uni coordonne ses efforts avec les partenaires de l’Organisation du traité de l’Atlantique nord (OTAN), ayant contribué à l’adoption de principes éthiques pour l’utilisation de l’IA dans les armées. Londres insiste sur le respect de la sécurité, de la stabilité et des valeurs démocratiques dans le déploiement de ces technologies.

Un secteur en pleine structuration malgré des défis persistants

En janvier 2025, le Defence Select Committee du Parlement a publié un rapport sur le développement du potentiel de l’IA de défense, soulignant que le secteur britannique reste à un stade précoce et doit être davantage soutenu par le ministère pour concrétiser ses ambitions.

« Le Royaume-Uni dispose d’un potentiel pour devenir un pôle mondial de l’IA de défense, mais le secteur demeure sous-développé et requiert des mesures incitatives », note le rapport parlementaire.

Le comité recommande d’accélérer la mise en œuvre concrète des projets, afin de réduire l’écart entre la stratégie affichée et la réalité opérationnelle. L’IA est encore perçue comme un domaine expérimental au sein des forces armées, alors même qu’elle a démontré son efficacité dans des conflits récents, notamment en Ukraine pour le traitement des données de renseignement et la gestion des drones.

Le gouvernement a assuré vouloir répondre à ces recommandations, précisant que la dernière revue stratégique de défense vise justement une intégration systématique de l’IA dans l’ensemble des activités du ministère de la Défense.

Les débats d’experts publiés en novembre 2024 ont rappelé les perspectives ouvertes par l’IA sur le champ de bataille, tout en soulignant la nécessité d’une approche pragmatique et d’un investissement massif pour transformer les intentions politiques en résultats concrets.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Mode YOLO de lIA Cursor : de graves failles découvertes

Révélation sur le mode YOLO du nouvel outil d’intelligence artificielle Cursor. Il comporte plusieurs failles de sécurité majeures, permettant de contourner aisément les mécanismes de protection censés limiter les actions automatisées du programme.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Risques concrets liés à l’automatisation avancée du mode YOLO

Le mode YOLO (« you only live once ») de l’outil Cursor permet à l’agent d’exécuter automatiquement des séquences d’actions complexes sans validation systématique par l’utilisateur. Selon la documentation officielle de Cursor, ce mode serait encadré par des garde-fous tels qu’une liste de commandes autorisées, une liste noire de commandes interdites, et une option spécifique pour empêcher la suppression de fichiers. Ce dispositif vise à rassurer les développeurs sur la sécurité de l’automatisation dans les processus de programmation.

« La suppression automatique de fichiers et l’exécution de commandes arbitraires deviennent possibles, malgré les filtres intégrés. »

Cependant, une analyse conduite par Backslash Security a démontré que ces mesures ne résistent pas à des tentatives délibérées de contournement. Les experts en cybersécurité ont identifié quatre techniques principales permettant de déjouer les restrictions imposées par Cursor. Les agents IA peuvent notamment recourir à l’obfuscation du code, exécuter des commandes à travers une sous-couche shell (« subshell »), écrire des scripts sur le disque avant de les lancer, ou encore utiliser des manipulations sophistiquées de guillemets dans bash afin d’échapper aux blocages attendus.

Ces méthodes contournent ainsi facilement les listes noires de commandes. Par exemple, même si la commande « curl » est ajoutée à la liste des interdictions, Cursor peut l’exécuter si elle est chiffrée en Base64 ou intégrée dans une autre commande shell. La protection affichée par l’éditeur apparaît alors comme largement inefficace dans la pratique.

 

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Les faiblesses structurelles du système de sécurité de Cursor

La possibilité de contourner les garde-fous a des conséquences directes pour les développeurs. En important des instructions ou des modèles d’agents issus de dépôts publics tels que GitHub, il devient possible d’introduire des comportements malveillants dans l’environnement Cursor. Ce risque ne se limite pas aux fichiers exécutables ou scripts manifestes. Un simple commentaire ou un extrait de texte placé dans le README d’un projet peut constituer un vecteur d’attaque si l’agent IA l’interprète et l’exécute sans contrôle supplémentaire.

Par ailleurs, la fonctionnalité censée empêcher l’effacement de fichiers s’avère elle aussi inefficace dès lors que les autres couches de protection sont contournées. Selon le rapport publié, aucune option dans le paramétrage du mode YOLO ne saurait garantir l’intégrité du système si un agent acquiert la capacité de lancer un code malveillant. Les filtres actuels ne constituent donc qu’une barrière symbolique.

Cursor n’a pas fourni de commentaire officiel concernant ces découvertes au moment de la publication de l’enquête. Toutefois l’éditeur prévoit d’abandonner le mécanisme de liste noire jugé inefficace dans la prochaine version majeure 1.3, encore non déployée à ce jour. Ce changement d’approche vise à combler les lacunes structurelles de la solution actuelle, sans qu’aucun détail précis n’ait été communiqué quant aux nouveaux dispositifs de sécurité envisagés.

Tant que les mécanismes de validation ne seront pas revus en profondeur, la seule protection efficace consiste à éviter l’activation de l’exécution automatique pour les tâches critiques, et à vérifier systématiquement l’intégrité des instructions importées depuis des sources tierces. (BS)

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Usurpation d’identité : la France face à l’explosion des deepfakes

En France, les fraudes par deepfake ont bondi de 700 % depuis 2024, marquant une nouvelle ère de menaces numériques.

Alors que les technologies d’intelligence artificielle progressent rapidement, elles deviennent également des outils de choix pour les cybercriminels. Selon une analyse internationale de la société Sumsub, spécialisée dans la vérification d’identité, les fraudes par deepfakes et documents synthétiques connaissent une croissance exponentielle dans le monde. En France, cette menace est désormais tangible : les deepfakes ont augmenté de 700 % depuis 2024, tandis que les documents d’identité générés par IA ont progressé de 281 % sur la même période, selon les données internes de l’entreprise.

« Le deepfake est désormais l’une des méthodes de fraude à l’identité les plus inquiétantes », alerte la source de DataSecurityBreach.fr. Une conclusion corroborée par d’autres études récentes. Selon le fournisseur d’identité Signicat, les tentatives d’usurpation par deepfake ont augmenté de 2 137 % entre 2020 et 2023.

En Europe, la situation est particulièrement préoccupante. Tandis que la falsification traditionnelle de documents recule dans d’autres régions du globe, elle reste stable, voire en hausse (+33 %), sur le Vieux Continent. La France n’échappe pas à cette tendance, combinant fraude documentaire classique et usage massif de l’intelligence artificielle générative.

« Les menaces en ligne étant de plus en plus sophistiquées, il est important que les organisations publiques et privées revoient leurs protocoles de vérification de l’identité », recommande la société. Car les techniques actuelles s’avèrent souvent inadaptées face à des risques nouveaux et évolutifs. La référence des actualités liées à la Cybersécurité, ZATAZ.COM, est revenu sur plusieurs cyberattaques ayant impacté, par exemple, une boutique dont les données de paiement et biométriques ont été dérobés !

Une menace numérique polymorphe

Les deepfakes permettent aujourd’hui de reproduire à l’identique une identité visuelle ou vocale. Combinés à des documents générés artificiellement, ces outils rendent les usurpations d’identité quasi indétectables par des systèmes de contrôle traditionnels. L’enjeu est critique pour les plateformes d’e-commerce, les banques en ligne et les acteurs de la crypto, qui deviennent des cibles privilégiées.

Les chiffres relevés confirment une bascule globale. Entre le premier trimestre 2024 et le premier trimestre 2025, les cas de fraude par deepfake ont augmenté de 700 % en France, 900 % au Royaume-Uni et 1 100 % en Allemagne. Le phénomène reste cependant circonscrit aux pays disposant d’une forte infrastructure numérique. À l’échelle mondiale, l’Europe enregistre une hausse de 900 %.

Cette fracture numérique mondiale s’observe aussi ailleurs. Alors que l’Asie-Pacifique affiche des croissances spectaculaires (+1 100 % en moyenne, +1 900 % à Hong Kong, +1 500 % à Singapour), l’Amérique du Nord, réputée bien équipée, voit également les tentatives de fraude exploser : +1 100 % aux États-Unis, +3 400 % au Canada.

En revanche, au Moyen-Orient, en Afrique et en Amérique latine, les hausses restent marginales (entre +1 % et +3 %), freinées par des capacités techniques encore limitées pour concevoir des contenus synthétiques crédibles.

L’intelligence artificielle au service de la fraude documentaire

En parallèle, la fraude aux documents synthétiques s’impose comme la menace prédominante. Ces documents d’apparence officielle, générés via des outils d’IA, échappent aux vérifications classiques et remplacent progressivement les falsifications traditionnelles. En Europe, la progression atteint 378 %, contre 356 % aux États-Unis. L’Allemagne affiche une hausse de 566 %, tandis qu’en France, cette progression est de 281 % selon l’étude.

« Grâce à des outils comme ChatGPT ou les générateurs d’images, les fraudeurs peuvent désormais créer des documents d’identité ou de résidence hyperréalistes, jusqu’à produire des photos de profil ou des vidéos falsifiées convaincantes », souligne l’entreprise. L’évolution vers ces méthodes souligne l’urgence pour les entreprises de mettre à jour leurs systèmes comme on peut le voir dans cet article.

Des cibles sectorielles bien identifiées

En France et en Europe, les secteurs les plus touchés par cette fraude nouvelle génération sont clairement identifiés. Le e-commerce est le plus visé avec une augmentation de 176 % des fraudes entre les premiers trimestres 2024 et 2025. Viennent ensuite l’edtech (+129 %), les cryptoactifs (+84 %) et enfin la fintech (+26 %). Ces chiffres illustrent le déplacement des menaces vers des secteurs massivement digitalisés, où l’identification à distance est la norme.

La France, en particulier, se révèle vulnérable. ZATAZ rapporte des affaires récentes spectaculaires, comme une escroquerie de 25 millions d’euros via deepfake dans une entreprise, ou encore une fraude à 19 millions d’euros utilisant des vidéos falsifiées pour duper des responsables en visioconférence.

Les analystes s’accordent à dire que la France n’a pas encore harmonisé ses dispositifs de vérification d’identité numérique à l’échelle des enjeux. Si certaines plateformes adoptent des systèmes biométriques renforcés, beaucoup reposent encore sur des processus déclaratifs ou des contrôles humains, inadaptés face à des usurpations conçues par intelligence artificielle.