Archives de catégorie : Cybersécurité

Actualités liées à la CyberSecurité.

FreeVPN.One : un espion masqué sur Chrome pendant des mois

Sous couvert de protéger la vie privée, une extension Chrome vérifiée a mené une vaste opération d’espionnage silencieux. Plus de 100 000 victimes. Silence radio côté développeur.

L’extension FreeVPN.One, téléchargée plus de 100 000 fois sur Chrome, s’est révélée être un puissant outil de surveillance déguisé. Derrière son label « vérifié » par le Chrome Web Store, elle capturait en secret des captures d’écran des navigateurs, extrayait des données sensibles et les transmettait à des serveurs distants. L’attaque, perfectionnée au fil des versions, exploitait des autorisations critiques, changeait de nom et ajoutait du chiffrement sophistiqué pour brouiller les pistes. En prétendant analyser les menaces, elle siphonnait en réalité des informations personnelles et professionnelles. Cet incident soulève des questions profondes sur la fiabilité du modèle de validation de Google. Quand la sécurité devient façade, qui contrôle vraiment l’extension ?

Une extension banale, une menace invisible

Pendant des mois, FreeVPN.One a fait partie du paysage numérique de nombreux internautes. Téléchargée depuis le Chrome Web Store, affichant fièrement la mention « vérifiée », elle offrait un service de protection de la vie privée, un VPN gratuit et simple d’utilisation. Rien d’inhabituel à première vue. Pourtant, derrière cette façade rassurante se cachait une opération d’espionnage massive, organisée et habilement dissimulée. L’extension, installée sur plus de 100 000 navigateurs, agissait silencieusement à chaque navigation.

La mécanique était bien huilée : à chaque chargement de page, des scripts étaient injectés en arrière-plan. Une temporisation précise de 1,1 seconde permettait d’activer une API peu connue du grand public, chrome.captureVisibleTab(). Ce simple appel technique suffisait à figer l’instantané de la page visitée. De Google Docs à Gmail, en passant par les plateformes bancaires et les services photo, rien n’échappait à la surveillance.

Les images ainsi capturées étaient encodées en base64 et transférées discrètement vers un serveur distant, identifié comme appartenant au domaine aitd.one. La collecte ne se limitait pas aux captures : adresse IP, géolocalisation, caractéristiques techniques du terminal, tout était aspiré et archivé. L’utilisateur, de son côté, ne voyait rien. Pas de ralentissement, pas d’alerte, aucune anomalie visible.

Une évolution toxique et programmée

Le processus d’infiltration s’est affiné sur plusieurs mois. L’analyse des versions successives révèle une stratégie en trois temps. À partir de la version 3.0.3, publiée au printemps 2025, FreeVPN.One demande une autorisation critique : <all_urls>. Ce simple paramètre ouvre l’accès à l’ensemble des sites visités, sans distinction. À partir de là, tout devient possible.

Puis vient la mutation. Avec la version 3.1.1, l’extension change de nom et se rebaptise « AI Threat Detection ». Un repositionnement sémantique malin, qui laisse entendre qu’elle renforcerait la sécurité de l’utilisateur en détectant d’éventuelles menaces à l’aide de l’intelligence artificielle. Une couverture parfaite pour masquer des fonctions d’espionnage toujours plus sophistiquées.

Dans les versions suivantes (3.1.3 et 3.1.4), le basculement est complet. La collecte de données s’intensifie et un chiffrement AES‑256‑GCM est mis en place, couplé à un empaquetage des clés avec RSA. Ce double verrou rend l’analyse des flux sortants particulièrement complexe, même pour les experts. La structure à deux niveaux (scripts injectés, capture différée, envoi chiffré) fait penser à une opération pensée pour durer, mais surtout pour ne pas être découverte.

Le discours du développeur, lorsqu’il était encore joignable, évoquait un simple outil d’analyse destiné à identifier les « domaines suspects ». Mais cette défense s’écroule face aux preuves : des captures issues de services de confiance (Google Photos, Sheets, etc.) ont été retrouvées sur les serveurs, sans aucune justification légitime. La dissimulation prend alors une autre tournure.

Silence du développeur, échec de Google

Le responsable de l’extension, contacté par plusieurs chercheurs en cybersécurité, a brusquement cessé toute communication. Son site de référence, construit sur une base Wix générique, ne comporte aucun contenu concret, aucune mention légale, aucune identité vérifiable. L’opacité est totale.

Plus troublant encore : malgré les signaux d’alerte répétés, FreeVPN.One a conservé son statut « vérifié » pendant toute la durée de son activité malveillante. Ce label, censé rassurer l’utilisateur, a paradoxalement joué contre lui. Il a renforcé la confiance, facilité la diffusion et multiplié les installations. Un échec structurel du Chrome Web Store, déjà critiqué par le passé pour ses failles de contrôle.

Cette affaire illustre une réalité inquiétante : même les extensions officiellement validées par Google peuvent devenir des vecteurs de surveillance massive. Et dans un contexte de tensions géopolitiques croissantes, l’enjeu dépasse le simple cadre technique. Qui étaient les véritables bénéficiaires des données collectées ? Pour quelles finalités ces captures ont-elles été stockées, organisées, analysées ? Aucune réponse officielle, mais des indices qui pointent vers une exploitation à grande échelle, peut-être au service d’acteurs étatiques ou de groupes opérant en sous-traitance.

Ce que révèle FreeVPN.One dépasse le cas isolé d’une extension malveillante. Il s’agit d’un signal d’alarme. La confiance accordée aux labels de sécurité, les promesses de confidentialité, les discours de protection sont aujourd’hui trop facilement détournés. Derrière une interface propre et un slogan rassurant, se cache parfois une mécanique d’espionnage redoutablement efficace.

Et si cette affaire n’est qu’un exemple parmi d’autres, elle pose une question fondamentale : dans un écosystème où les extensions peuvent tout voir, tout lire, tout enregistrer, qui surveille vraiment les surveillants ?

Yandex sanctionné pour avoir refusé l’accès du FSB à Alisa

Le conflit entre innovation domestique et sécurité d’État s’expose publiquement. Yandex vient d’être sanctionné pour n’avoir pas ouvert au FSB un accès permanent à sa maison intelligente Alisa.

Un tribunal de Moscou a condamné Yandex à une amende de 10 000 roubles (environ 105 euros) pour avoir refusé de donner au FSB un accès permanent à sa plateforme de maison intelligente « Alisa ». La décision, prise fin juin 2025, dépasse le cadre d’une simple sanction financière : elle illustre l’extension de la loi Yarovaya aux objets connectés. Derrière ce jugement se profile un enjeu central pour la Russie : intégrer la sphère privée dans le dispositif de surveillance numérique. Quelles conséquences pour l’avenir des technologies domestiques, pour les entreprises opérant en Russie et pour les citoyens dont le foyer devient zone de contrôle ?

Les faits

Le 28 mai 2025, le FSB a transmis à Roskomnadzor un rapport d’inspection. Selon les services de sécurité, Yandex n’avait pas mis en place l’accès permanent requis à la ressource « yandex.ru/alice/smart-home ». La demande initiale consistait à garantir une disponibilité totale, 24 h sur 24, aux flux générés par l’écosystème Alisa.

L’affaire a été portée devant le tribunal du district de Khamovniki, à Moscou. Le 27 juin, le juge Vladislav Pojilovski a rendu sa décision : la culpabilité de Yandex était établie. En tant qu’« organisateur de la diffusion d’informations » (ORI), la société avait l’obligation légale de se conformer aux prescriptions. Le non-respect est considéré comme une infraction administrative, selon l’article 19.5 du Code de la Fédération de Russie.

Le représentant de Yandex ne s’est pas présenté à l’audience. Le tribunal, après analyse des pièces, a jugé l’entreprise coupable et infligé une amende de 10 000 roubles (105 euros).

Le montant peut sembler dérisoire. Mais le symbole est lourd : c’est la première fois qu’une plateforme de maison intelligente est sanctionnée pour avoir refusé l’accès intégral aux services de renseignement.

La décision marque une étape. Jusqu’ici, les sanctions avaient visé des messageries chiffrées comme Telegram. Avec Alisa, l’État russe franchit un seuil : celui de la vie domestique.

Les enjeux

La loi Yarovaya, adoptée en 2016, oblige les ORI à conserver et transmettre les communications aux autorités. L’esprit initial visait les fournisseurs de messageries, les réseaux sociaux et les services de courrier électronique. Mais son extension progressive touche désormais tout système numérique capable de traiter des données personnelles.

La qualification d’ORI appliquée à Alisa pose problème. Les messageries véhiculent des textes et des fichiers ; la maison intelligente produit des flux de voix, de vidéos, de données de capteurs. Assimiler ces deux réalités sous une même catégorie légale entraîne une application uniforme de la loi à des environnements techniques radicalement différents.

RUne phrase prononcée dans un salon devient, juridiquement, l’équivalent d’un message envoyé sur une messagerie cryptée.

Implications techniques

L’assistant vocal Alisa n’est pas un simple logiciel. Il coordonne des dizaines d’appareils connectés : enceintes, thermostats, caméras de surveillance, volets roulants, détecteurs de mouvement, téléviseurs. Mettre en place un accès complet pour le FSB suppose de centraliser ces flux dans une interface unique et de maintenir un accès permanent.

Cela équivaudrait à donner aux services de renseignement une cartographie détaillée du foyer : horaires de présence, habitudes de consommation, conversations privées, voire données médicales si des capteurs de santé sont connectés.

Développer une telle passerelle est extrêmement coûteux. Les investissements se chiffrent en millions d’euros. Pour une entreprise déjà soumise à de fortes contraintes réglementaires et économiques, la perspective de payer une amende symbolique est parfois plus rentable que de modifier toute l’architecture technique.

Certains analystes estiment que Yandex a délibérément choisi de ne pas se conformer. En acceptant la sanction, l’entreprise évite à la fois un coût démesuré et la perte de confiance des utilisateurs.

L’affaire révèle une faille du droit russe : l’absence de distinction entre services numériques hétérogènes. Une messagerie chiffrée et un réfrigérateur connecté sont rangés dans la même catégorie. Cette généralisation, pratique pour les services de sécurité, ignore les réalités techniques et complique l’application.

La décision judiciaire ouvre une perspective inquiétante : l’extension de la surveillance à tous les objets connectés. Les détecteurs de fumée, les voitures autonomes, les équipements médicaux domestiques pourraient demain être intégrés dans le réseau de contrôle.

Chaque foyer, chaque appareil deviendrait une antenne potentielle du système sécuritaire.

Yandex condamné pour refus d’accès du FSB à sa maison intelligente Alisa. Analyse d’une décision qui élargit la loi Yarovaya aux objets connectés et à la sphère privée.

Lipsync-2-pro : l’arme secrète de la synchronisation labiale ultra-réaliste

La nouvelle IA de Sync Labs promet un doublage 4K précis, multilingue et fidèle à l’élocution originale.

Avec lipsync-2-pro, Sync Labs propulse la synchronisation labiale dans une nouvelle ère : résolution 4K, rendu studio, adaptation automatique au style vocal et détection du locuteur. Le tout dans plus de 95 langues. Une avancée technologique majeure pour le cinéma, le contenu digital et les opérations de renseignement.

Une révolution invisible : l’IA derrière les lèvres

Quand Thomas, un cinéaste indépendant lyonnais, découvre lipsync-2-pro, il comprend instantanément qu’il vient de gagner des mois de postproduction. En un clic, il double son court-métrage de 12 minutes dans six langues différentes. Les visages sont nets, les mouvements de lèvres parfaitement synchronisés, la barbe et les dents conservées avec un réalisme troublant. Pour la première fois, l’illusion est totale.

Sorti en 2025, ce modèle développé par Sync Labs repousse les limites de la synchronisation labiale. Contrairement à ses prédécesseurs, lipsync-2-pro ne floute pas les détails, ne transforme pas l’élocution, et surtout, il comprend qui parle, quand, et comment. C’est l’aboutissement de plusieurs années de recherche en super-résolution, en modélisation faciale, et en deep learning linguistique.

Car derrière cette prouesse technologique se cache une ambition bien plus vaste : uniformiser la voix numérique dans le respect du naturel, quelle que soit la langue, le visage ou le format de la vidéo.

La voix d’un autre, avec votre visage

Au cœur de lipsync-2-pro se trouve une technologie de diffusion à super-résolution. Elle permet de générer des vidéos en qualité 4K, sans sacrifier les détails les plus subtils : rides, texture de la peau, pilosité, dents visibles ou non… tout est reconstitué avec une précision quasi organique. Contrairement aux anciens systèmes qui réécrivaient une bouche figée sur un visage pixelisé, lipsync-2-pro conserve l’identité visuelle et émotionnelle du locuteur.

Mais ce n’est pas tout. Le modèle s’adapte au style d’élocution, ce qui lui permet de préserver le rythme, les pauses, l’intonation. Une performance rendue possible par un mécanisme de type zero-shot, qui ne nécessite aucun entraînement préalable. En pratique, cela signifie qu’un simple extrait audio, doublé dans une autre langue, suffit pour générer une version entièrement synchronisée, sans perdre l’ADN vocal du personnage d’origine.

Un autre atout de taille : le modèle détecte automatiquement le locuteur actif dans les scènes polyphoniques. Plus besoin de découper manuellement les dialogues, ni de réencoder les plans individuellement. Cette capacité à gérer des interactions complexes ouvre la voie à des usages jusque-là hors de portée de l’intelligence artificielle.

Une IA multilingue taillée pour le renseignement

Avec la prise en charge de plus de 95 langues, lipsync-2-pro dépasse le cadre du cinéma ou du marketing digital. Il devient un outil stratégique dans le champ du cyber, du renseignement et de la communication d’influence. Imaginez pouvoir reconstituer un discours, un interrogatoire ou une vidéo de propagande dans une autre langue tout en conservant les caractéristiques physiques et orales du locuteur. Le gain analytique est immense.

Dans un monde où la désinformation s’appuie de plus en plus sur des vidéos trafiquées ou des contenus traduits de manière brute, lipsync-2-pro permet de croiser les langues sans altérer la forme, ouvrant de nouveaux horizons pour les analystes en OSINT, les linguistes en mission ou les services de contre-influence. En doublant un contenu tout en maintenant la synchronisation labiale parfaite, l’outil conserve la crédibilité émotionnelle du message original, ce qui est crucial pour comprendre les intentions réelles de l’orateur.

Autre fonctionnalité précieuse : la modification des dialogues en postproduction, qui permet de corriger, effacer ou adapter des propos sans réenregistrer l’audio ou reconstituer la scène. Cette capacité donne aux agences et studios un contrôle narratif inédit sur les contenus sensibles.

La vidéo multilingue à la portée de tous

Ce niveau de finesse a un prix : lipsync-2-pro consomme plus de ressources et coûte entre 0,067 $ et 0,083 $ la seconde (soit environ 0,063 € à 0,078 €) en traitement, et tourne 1,5 à 2 fois plus lentement que la version précédente. Mais pour les professionnels, le rapport temps/qualité est imbattable.

Pour les créateurs de contenu, les journalistes ou les cinéastes indépendants, lipsync-2-pro change radicalement la donne. Il devient possible de tourner dans sa langue maternelle, puis de générer automatiquement une version pour un public international, sans studio de doublage, ni perte de qualité. Une économie de temps, mais surtout une liberté artistique décuplée.

Les blogueurs peuvent ainsi s’ouvrir à des marchés étrangers en conservant leur identité visuelle et sonore. Les studios, eux, peuvent adapter leur catalogue existant à de nouveaux territoires sans coûts de localisation massifs. Et les communicants institutionnels, produire des messages multilingues au style cohérent, crédible et instantanément diffusables.

Une technologie de rupture ou d’illusion ?

La frontière entre amélioration et manipulation devient ténue. Comme toute technologie de génération réaliste, lipsync-2-pro soulève des questions éthiques. L’outil peut-il être utilisé pour créer de faux témoignages crédibles ? Pour altérer un message, tout en conservant l’apparence de véracité ? Des garde-fous existent, mais l’enjeu dépasse la technique : il touche à notre capacité collective à discerner le réel du synthétique.

Reste que lipsync-2-pro est une avancée majeure. En moins de deux ans, la synchronisation labiale est passée de gadget semi-réaliste à outil de production de niveau studio, fiable, multilingue, et totalement adaptable. Une révolution silencieuse, mais visible sur toutes les lèvres.

Évaluer à l’ère de l’IA : traçabilité plutôt que détection

À la rentrée, une question s’impose : comment évaluer quand les copies peuvent être boostées à l’IA ? Les détecteurs automatiques, eux, ne tiennent pas la promesse de fiabilité.

Depuis que les outils d’IA générative sont entrés dans les salles de classe, les enseignants cherchent à distinguer l’authentique de l’artificiel. Mais les détecteurs automatiques se révèlent peu fiables et biaisés, incapables d’offrir une solution juste et universelle. La France a donc publié en 2025 un cadre d’usage éducatif : l’IA peut être utilisée si elle est déclarée et accompagnée d’un travail d’appropriation par l’élève. Le débat se déplace : il ne s’agit plus de traquer les textes “truqués”, mais de rendre l’évaluation traçable. Épreuves hybrides, annexes de prompts, oraux flash et versioning deviennent les nouvelles règles du jeu. L’enjeu dépasse la fraude : il redéfinit la compétence scolaire à l’ère numérique.

La fin du mythe du détecteur infaillible

En 2023, OpenAI a retiré son propre outil de détection d’IA pour une raison simple : sa précision trop faible. Les études menées par Stanford HAI et publiées sur ScienceDirect confirment ces limites. Non seulement ces détecteurs échouent à séparer nettement textes humains et textes générés, mais ils présentent en plus des biais structurels. Les élèves non natifs sont les premiers touchés, accusés à tort d’avoir triché alors qu’ils ont produit un texte authentique.

Cette réalité fragilise l’idée d’une surveillance automatisée. Miser exclusivement sur un score revient à fonder une décision pédagogique sur du sable. La fraude ne peut être jugée sur une seule donnée chiffrée, mais sur un faisceau d’indices cohérents : style, traçabilité, maîtrise orale. Autrement dit, l’évaluation doit évoluer, non pas pour traquer l’IA, mais pour vérifier ce que l’élève a réellement appris et compris.

Le tournant narratif se joue ici. Au lieu de voir l’IA comme une menace invisible, on peut l’intégrer comme un outil balisé. Encore faut-il fixer les règles clairement, ce que la France a entrepris avec son cadre officiel en 2025.

Le nouveau cadre français et l’exemple international

Le ministère de l’Éducation nationale a publié un “cadre d’usage de l’IA en éducation” en 2025. Le principe est simple : l’IA est autorisée si l’enseignant le précise et si l’élève conserve une part active dans l’élaboration du devoir. À l’inverse, un usage dissimulé ou une délégation totale de la rédaction est considéré comme une fraude.

Ce cadre introduit une graduation. À partir de la classe de 4e, les élèves peuvent utiliser certains outils en autonomie, mais toujours sous réserve de règles explicites. Par exemple, recourir à l’IA pour générer un plan ou reformuler des idées est admis, tant que l’élève le mentionne dans une annexe. En revanche, livrer une copie entièrement produite par un modèle reste interdit.

Ce mouvement n’est pas isolé. L’UNESCO, dès 2023, appelait les établissements à formaliser rapidement des chartes locales. Pourtant, moins de 10 % des écoles et universités disposaient alors de consignes claires. Le World Economic Forum rappelait que le vrai danger n’était pas l’IA en elle-même, mais l’incertitude des règles. En pratique, ce flou créait une “loterie disciplinaire” où chaque établissement décidait au cas par cas, avec des sanctions variables et souvent contestées.

Ainsi, la France suit une tendance mondiale : encadrer plutôt qu’interdire, clarifier plutôt que punir aveuglément. Les dispositifs émergents montrent que la solution n’est pas technologique, mais pédagogique et organisationnelle.

Vers une évaluation traçable et hybride

Le cœur de la transformation réside dans la conception d’épreuves adaptées. Plusieurs dispositifs concrets dessinent déjà une nouvelle norme.

D’abord, l’évaluation hybride. Une partie du travail est réalisée en classe (30 à 50 % selon les disciplines), notamment le brouillon, le plan ou l’introduction. L’autre partie, plus développée, est produite à la maison. Cette double étape permet de comparer le style, les sources et la cohérence. Un détecteur d’IA peut être utilisé comme simple indicateur, jamais comme preuve.

Ensuite, l’annexe de traçabilité. L’élève doit y consigner les prompts utilisés, les captures ou l’historique d’édition, ainsi qu’une explication de ce que l’IA a apporté et de ce qu’il a réalisé lui-même. Inspirée des guides de l’UNESCO IA, cette pratique responsabilise l’élève et offre à l’enseignant une visibilité nouvelle sur le processus créatif.

À cela s’ajoute l’oral flash. En trois minutes, l’élève doit justifier un argument, commenter un passage ou défendre une source. Ce format court permet de vérifier la compréhension réelle sans alourdir la charge des enseignants.

Autre levier : les tâches ancrées. Proposer des sujets contextualisés, avec données locales ou corpus fournis en classe, rend plus difficile la délégation à une IA générique. De même, le versioning obligatoire, via un document avec historique intégré (ENT, Pad collaboratif) et un échantillon manuscrit, assure la continuité stylistique.

Enfin, la grille IA explicite. Elle distingue les compétences disciplinaires classiques des compétences d’usage de l’IA : qualité de la requête, vérification des faits, capacité de reformulation. Cette approche reconnaît l’IA comme un outil éducatif, tout en en limitant les dérives.

L’ensemble trace un chemin. L’IA cesse d’être une zone grise. Elle devient un paramètre assumé, intégré à la pédagogie.

Ce qu’il faut éviter : la fausse sécurité et les règles floues

Deux écueils dominent.

Le premier : croire que tout miser sur un détecteur suffira. Ces outils, on l’a vu, sont peu fiables. Ils risquent d’accuser injustement et d’induire une pédagogie policière. Aucune sanction ne doit reposer uniquement sur un score chiffré.

Le second : laisser perdurer des règles vagues. Sans charte claire, chaque enseignant applique sa propre interprétation. L’UNESCO insiste : la transparence et la formation sont indispensables. Une politique commune, même simple, évite l’arbitraire et sécurise élèves comme professeurs.

Une mini-charte IA [IA France] illustre ce que pourrait être une règle opérationnelle : usage autorisé pour la recherche d’idées, les plans, la reformulation et la correction, à condition d’annexer les prompts. Interdiction d’une rédaction intégrale par IA quand le devoir le précise, interdiction des sources inventées. Toute infraction devient fraude.

Le processus disciplinaire, en cas de doute, doit passer par un entretien contradictoire. Aucun élève ne peut être sanctionné sur la base d’un indicateur technique seul.

Bref ! En 2025, la question n’est plus de démasquer une machine, mais de vérifier une compétence. Une bonne copie n’est pas seulement un produit fini, c’est un chemin visible : ce qui a été appris, et comment. L’IA ne disparaîtra pas des salles de classe. Reste à décider si elle sera un allié transparent ou un fantôme soupçonné. La vraie interrogation est donc : jusqu’où l’école saura-t-elle transformer ses méthodes d’évaluation sans perdre sa légitimité ?

Un EDR Killer partagé entre groupes de ransomware

Un outil furtif circule entre groupes de ransomware. Il désarme les antivirus, contourne les protections, s’améliore par usage. Sophos sonne l’alerte : la menace est désormais coopérative.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Depuis 2022, un programme malveillant conçu pour désactiver les protections informatiques – baptisé « EDR Killer » – est partagé, adapté et utilisé par plusieurs groupes de ransomware parmi les plus dangereux. Sophos, entreprise de cybersécurité, a récemment révélé l’ampleur de cette coopération souterraine entre acteurs malveillants. Ce « tueur d’antivirus », indétectable grâce au chiffrement HeartCrypt et signé avec des certificats numériques frauduleux, cible toutes les principales solutions de sécurité du marché. Il s’intègre en amont des attaques, neutralisant les défenses des victimes avant même que le ransomware n’agisse. Ce phénomène illustre un tournant stratégique dans la cybercriminalité : des ennemis qui partagent leurs outils comme s’ils constituaient un arsenal collectif contre les systèmes de défense.

Une bombe invisible glissée dans les chaînes d’attaque

Août 2025. Une équipe de réponse à incident s’interroge sur l’échec des systèmes de détection d’une entreprise britannique frappée par le ransomware Medusa. Tous les outils de sécurité avaient été désactivés sans alerte. Pas de signal, pas d’alarme, pas même une trace résiduelle dans les journaux système. Rien qu’un silence avant le chaos.

C’est dans cette zone d’ombre que s’est glissé le « EDR Killer », un outil autonome, insidieux, sophistiqué, capable de tuer silencieusement la majorité des solutions de cybersécurité utilisées par les entreprises : Microsoft Defender, Bitdefender, Sophos, McAfee, SentinelOne, Webroot, et bien d’autres.

Les équipes de Sophos, en enquêtant sur plusieurs attaques coordonnées depuis 2022, ont constaté un phénomène inquiétant : le même outil, utilisé par plusieurs groupes sans lien apparent. Medusa, Blacksuit, Qilin, DragonForce, INC. Des groupes parfois rivaux, souvent concurrents dans leurs méthodes, mais qui, ici, partageaient un même couteau numérique. Mieux encore, chacun d’eux utilisait une version adaptée du code. Preuve d’une circulation technique, non pas d’une simple copie.

Des mécanismes d’effacement et de camouflage maîtrisés

Le « EDR Killer » n’est pas une simple charge virale. Il est préparé comme une arme tactique. Il ne chiffre pas les données. Il ne vole rien. Il prépare le terrain.

En amont de l’attaque finale, il désactive les agents de surveillance, coupe les connexions aux services cloud de sécurité, et tue les processus critiques liés à la détection comportementale. Il le fait en mémoire, sans écrire de fichiers persistants, rendant son analyse post-mortem quasi impossible.

Pour échapper aux antivirus eux-mêmes, le binaire est obfusqué par HeartCrypt, un service commercial illégal fonctionnant selon le modèle « packer-as-a-service ». Il chiffre les exécutables, empêche la rétro‑ingénierie, et peut muter à chaque exécution, comme un virus biologique contournant les vaccins.

Mais le plus remarquable reste l’utilisation de certificats numériques volés ou expirés, qui permettent à l’outil d’installer des pilotes système avec les droits les plus élevés. Ainsi, les protections profondes du noyau Windows sont elles aussi désactivées, ouvrant la voie au déploiement du ransomware proprement dit.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Une convergence inquiétante entre acteurs criminels

L’enquête de Sophos ne s’est pas arrêtée à l’analyse technique. Très vite, un élément stratégique est apparu : les multiples versions de l’outil n’étaient pas identiques. Chaque groupe criminel semble avoir obtenu, modifié et adapté le code à ses propres chaînes d’attaque. Ce n’est pas un simple exécutable partagé, mais un projet logiciel, vivant, distribué.

Ce phénomène rappelle les logiques de coopération entre mafias numériques : partage de ressources, vente de services spécialisés, mutualisation de moyens. HeartCrypt, par exemple, est commercialisé sur les forums clandestins à des prix variant selon le niveau de personnalisation. Des criminels y vendent des solutions de chiffrement sur mesure, avec signature valide, support client, mises à jour hebdomadaires.

Ainsi, un opérateur ransomware peut commander un « EDR Killer » customisé, obfusqué, certifié, prêt à l’emploi. Il l’intègre ensuite dans sa chaîne d’exploitation. Cette industrialisation des moyens techniques marque une nouvelle étape dans l’économie souterraine du cybercrime, où l’optimisation opérationnelle prime sur l’exclusivité.

Une opération éclair : SimpleHelp comme point d’entrée

Un cas précis illustre la redoutable efficacité de ce schéma. En mai 2025, Medusa a exploité une vulnérabilité zero-day dans la plateforme de support à distance SimpleHelp. En quelques minutes, l’EDR Killer est injecté, les défenses abattues. Le ransomware prend alors le contrôle. Aucun antivirus ne s’est réveillé.

Le vecteur initial (SimpleHelp) était légitime. Le code était signé. Les protections désactivées proprement. Pour les victimes, la sidération a été totale. Pour les experts en sécurité, un rappel brutal : même les outils de gestion IT peuvent devenir des armes contre les réseaux qu’ils protègent.

L’incident révèle une évolution stratégique majeure dans l’univers du cybercrime. D’abord, on assiste à une désintermédiation des phases d’attaque : en désactivant les EDR au tout début de l’intrusion, les assaillants éliminent la première ligne de défense, celle qui agit en temps réel, réduisant à néant les capacités de réaction automatisée. La chaîne d’attaque devient silencieuse, plus rapide, plus létale.

Ensuite, cette affaire fournit la preuve concrète d’un partage d’outils entre groupes traditionnellement indépendants. Ce ne sont plus des tactiques uniques, mais des briques logicielles mutualisées, adaptées localement selon les cibles. Cette convergence suggère l’émergence d’un véritable marché noir modulaire où chaque groupe assemble son propre kit d’agression.

Par ailleurs, la dépendance croissante à des services criminels spécialisés, comme HeartCrypt, témoigne d’un écosystème structuré. Ces services d’obfuscation et de chiffrement opèrent selon des logiques commerciales classiques, avec catalogue, support, mises à jour. Cela rapproche de plus en plus les réseaux cybercriminels d’un modèle industriel, où la sophistication est achetée à la demande.

Enfin, cette dynamique pose un défi renouvelé au renseignement technique. Il ne suffit plus d’analyser des souches virales isolées : il faut désormais cartographier les flux technologiques, identifier les empreintes des fournisseurs, suivre les patterns d’obfuscation. La guerre n’est plus seulement contre un virus, mais contre une logique collaborative qui dépasse chaque attaque.

Que peut faire la défense face à cette menace mutante ?

Face à cette mutation du paysage numérique, la riposte ne peut être uniquement technique. D’abord, il est essentiel de renforcer la surveillance active des marchés clandestins, là où les outils comme HeartCrypt sont distribués, évalués, améliorés. L’enjeu est de comprendre les cycles de vie des outils, de détecter les variantes dès leur phase de test.

En parallèle, les acteurs de la cybersécurité doivent développer des mécanismes de détection comportementale capables d’identifier les symptômes d’un EDR Killer, même si celui-ci reste inconnu en signature. Cela suppose un changement de paradigme, passant de la reconnaissance de fichiers à l’analyse des effets systémiques.

Il devient également crucial de durcir la gestion des pilotes système. Trop souvent, des certificats numériques volés ou expirés sont encore tolérés par les systèmes d’exploitation. Réformer cette tolérance permettrait de réduire considérablement la surface d’attaque.

Enfin, la collaboration entre entreprises, y compris concurrentes, doit devenir une norme. Si un outil est partagé entre cybercriminels, il peut aussi être détecté collectivement. Les mécanismes de threat intelligence mutualisée, ouverts, intersectoriels, peuvent faire émerger une défense coordonnée à la hauteur d’une attaque elle-même collaborative.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Fraude WhatsApp : comment un écran partagé peut vous dérober vos données

Un appel WhatsApp trompeur, une image partagée et voilà vos mots de passe et OTP livrés aux escrocs : une intrigue cyber‑criminelle qui soulève la question de la confiance numérique.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Une nouvelle escroquerie baptisée « WhatsApp Screen Mirroring Fraud », que DataSecurityBreach.fr traduit par « Arnaque par duplication d’écran WhatsApp« , se propage, où des fraudeurs se font passer pour des agents bancaires et usent de l’écran partagé via WhatsApp pour accéder en temps réel aux OTP, mots de passe, données bancaires et documents personnels.

Comment se déploie cette fraude cyber‑criminelle ?

L’histoire commence souvent avec un message d’un prétendu conseiller bancaire ou d’un service client. Sous couvert d’assistance, l’escroc invite la victime à partager son écran via WhatsApp. Manipulé par la confiance et la pression, l’utilisateur active la fonction de partage d’écran pendant un appel vidéo : l’écran devient alors une fenêtre ouverte aux escrocs, qui lisent en temps réel les OTP reçus, mots de passe et autres informations sensibles. Plus rare, un cheval de Troie tel qu’un keylogger est glissé dans l’appareil, capturant tout ce que frappe l’utilisateur. C’est une scène digne d’un film noir, où technologie rime avec espionnage.

Cet incident révèle une faille terriblement exploitée : l’entrée insidieuse de l’escroc dans l’espace personnel numérique, grâce à une technologie pourtant légitime. Ce champ d’action devient un terrain d’espionnage instantané : les fraudeurs peuvent effectuer des transactions frauduleuses dès que l’OTP s’affiche, récupérer des mots de passe, intercepter des communications privées et même usurper l’identité de la victime. En coulisse, le cyber‑renseignement nous rappelle à quel point les interfaces vulnérables peuvent devenir des portes d’entrée.

Se prémunir : une stratégie de sécurité technique et psychologique

Face à cette menace qui n’est pourtant pas nouvelle, adoptez des mesures de défense à la fois techniques et comportementales. Vérifiez systématiquement l’identité de vos interlocuteurs via des canaux officiels ; refusez toute demande de partage d’écran non sollicitée. Activez l’authentification à deux facteurs, maintenez vos systèmes et applications à jour et refusez les installations d’applications provenant de sources inconnues. Ne jamais utiliser vos applications bancaires pendant un partage d’écran. Apprenez à vos proches, surtout les plus vulnérables, à repérer cette menace redoutable.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

Cyberattaque chez FranceLink : le combat pour la reconstruction

En juillet 2025, FranceLink s’effondre sous une cyberattaque massive. Ce choc marque le début d’un combat acharné pour la survie d’une infrastructure cruciale.

À l’été 2025, FranceLink, prestataire IT français, subit une cyberattaque d’une violence inédite. Contraints de couper tous leurs services pour préserver l’intégrité de ce qui reste, les dirigeants révèlent que des données critiques ont été chiffrées par un groupe malveillant. Si certaines fonctions reviennent peu à peu (comme les emails Office365 ou les sites hébergés en externe), les serveurs internes restent hors d’accès. Face à la gravité de la situation, FranceLink engage des experts en récupération de données et reconstruit son infrastructure dans l’urgence, tout en alertant ses clients sur une faille zero-day liée aux équipements VPN SonicWall. Retour sur une crise cyber aux ramifications techniques et humaines profondes.

L’attaque de l’été : choc initial et premières réponses

Tout commence à la fin du mois de juillet 2025. FranceLink, prestataire de services numériques pour de nombreuses entreprises françaises, est brutalement frappée par une cyberattaque. Le choc est brutal : en quelques heures, l’équipe dirigeante prend une décision radicale mais nécessaire : couper tous les services afin d’éviter une propagation incontrôlée. À ce stade, aucune estimation sur la durée de l’interruption n’est possible. Le mot d’ordre est clair : préserver l’intégrité de ce qui peut encore l’être.

L’attaque s’avère particulièrement sophistiquée. Très vite, l’origine de l’agression est attribuée à un groupe nommé « Akira », dont la spécialité est le chiffrement de données critiques pour ensuite extorquer leurs victimes. Les serveurs de FranceLink sont totalement inaccessibles, et les informations qu’ils contiennent semblent irrémédiablement chiffrées.

La direction communique dès les premiers jours avec une transparence rare dans ce type de crise. Elle annonce avoir restauré une partie de l’infrastructure DNS, permettant ainsi la remise en service des emails (hébergés sur Office365 ou sur d’autres plateformes) ainsi que des sites web externalisés. Toutefois, tout ce qui dépend des serveurs internes reste inaccessible. Il est impossible, à cette étape, de savoir si les données pourront être récupérées.

C’est alors que commence une course contre la montre. FranceLink mobilise une première entreprise spécialisée en récupération de données. Pendant deux semaines, ses experts collaborent avec les équipes internes, jour et nuit, week-end compris. Le résultat, livré le 6 août, est amer : seules quelques données ont pu être restaurées, très insuffisantes pour répondre aux besoins des clients.

La situation est critique. Le 13 août, le standard téléphonique est suspendu pour concentrer toutes les ressources humaines sur la reconstruction. La communication se fait exclusivement via des mises à jour publiques. Une stratégie assumée, à la fois pour maintenir le lien avec les clients et éviter la désinformation.

Reconstruction technique et traque de la vulnérabilité

Dès le 6 août, une nouvelle entreprise est sollicitée pour tenter de récupérer davantage de données. Cette démarche implique des coûts importants (plusieurs dizaines de milliers d’euros), mais FranceLink ne recule devant aucun effort. L’objectif est double : récupérer ce qui peut l’être et, en parallèle, reconstruire rapidement une infrastructure viable.

Les équipes de l’entreprise identifient une possible piste technique sur l’origine de la faille : une vulnérabilité zero-day dans les équipements VPN SSL SonicWall, utilisée dans l’environnement réseau de FranceLink. Cette faille pourrait avoir été exploitée par les assaillants pour pénétrer le système. Bien que SonicWall indique encore être en phase d’investigation, le lien est suffisamment préoccupant pour que FranceLink alerte officiellement ses clients. Ceux-ci sont invités à consulter les alertes de sécurité et à appliquer immédiatement les mesures de protection recommandées.

En parallèle, le chantier de la reconstruction bat son plein. L’enjeu est énorme : rétablir les plateformes clients, mais surtout leur offrir un environnement sain, sécurisé et stable. FranceLink décide alors de créer de nouveaux espaces, entièrement refondus, même s’ils sont, dans un premier temps, dépourvus de données historiques.

Cette décision est stratégique. Elle permet aux clients de reprendre leurs activités, même partiellement, et de se projeter dans une reprise. En parallèle, un formulaire est mis en ligne pour que chaque client puisse indiquer les données les plus critiques à ses yeux. Cette démarche participative permet de prioriser les efforts de restauration, tout en impliquant les victimes dans la résolution.

Au fil des jours, les services reviennent. Les messageries Office365, les sites en développement ou encore les noms de domaine fonctionnent de nouveau. FranceLink documente chaque étape, publie un rapport d’incident détaillé, et tente de rassurer en maintenant une communication factuelle.

Date Événement
29/07/2025 Coupure totale des services de FranceLink suite à une cyberattaque. Standard téléphonique également suspendu.
31/07/2025 Première communication officielle sur la messagerie : deux solutions proposées pour restaurer les emails.
01/08/2025 FranceLink confirme avoir été visée par le groupe de ransomware Akira. Mise en ligne d’un formulaire pour prioriser la restauration.
04/08/2025 Premiers bilans techniques : difficultés majeures à récupérer les données chiffrées malgré le travail des experts.
06/08/2025 Fin de la mission du premier spécialiste de récupération. Quelques données récupérées, mais insuffisantes. Engagement d’un second expert.
Alerte sur une faille zero-day dans les équipements VPN SSL SonicWall, potentiellement à l’origine de l’intrusion.
11/08/2025 Publication d’un rapport d’incident détaillé. FranceLink invite ses clients à en prendre connaissance.
13/08/2025 Mise à jour : standard téléphonique toujours suspendu. FranceLink détaille ses priorités : reconstruction et récupération.
À ce jour Services DNS restaurés. Emails et sites web externalisés refonctionnent. Les serveurs internes restent inaccessibles.

Une crise révélatrice des fragilités systémiques

Au-delà des aspects techniques, cette cyberattaque met en lumière une réalité trop souvent ignorée : la dépendance des entreprises, même modestes, à des infrastructures numériques vulnérables. FranceLink, comme beaucoup d’acteurs du numérique, héberge non seulement des services mais aussi des identités numériques, des archives, des outils métiers critiques. Lorsqu’un acteur de cette chaîne tombe, c’est tout un écosystème qui vacille.

L’attaque d’Akira n’est pas un cas isolé. En 2025, les cyberattaques visant les prestataires IT se multiplient. Elles visent les maillons techniques de la chaîne de confiance, là où la sécurité est supposée être la plus solide, mais où les failles humaines, techniques ou organisationnelles peuvent provoquer des catastrophes systémiques. Le cas FranceLink en est une parfaite illustration. L’alerte autour des équipements SonicWall ajoute une couche d’inquiétude. Si la faille zero-day est confirmée, elle remettrait en question la sécurité de milliers d’infrastructures utilisant cette technologie à travers l’Europe. Dans ce contexte, la proactivité de FranceLink dans l’identification et la diffusion de l’alerte est saluée par une partie de la communauté cyber.

Mais au-delà des conséquences techniques, cette crise a aussi des implications humaines. Les équipes de FranceLink, en première ligne, ont dû affronter l’impossible : gérer la pression de centaines de clients inquiets, reconstruire en urgence, communiquer dans l’incertitude, tout en vivant le deuil numérique d’une infrastructure effondrée. Le silence du standard téléphonique, pendant plusieurs semaines, est un symbole de cette tension. La suite reste encore incertaine. Les tentatives de récupération se poursuivent. Le soutien des clients semble, en partie, tenir. Mais les dégâts sont là : pertes de données, arrêts d’activité, crédibilité ébranlée. Le Service Veille de ZATAZ confirme la menace d’Akira de diffuser d’ici peu 20 Go de données qui auraient été dérobées pendant la cyber attaque !

Protection numérique : Google renforce la sécurité des jeunes

Google amorce une révolution dans la protection des mineurs en ligne : l’intelligence artificielle détecte l’âge pour bloquer contenus sensibles et pubs ciblées, sans intervention des éditeurs.

Google déploie une nouvelle technologie d’estimation d’âge par intelligence artificielle pour protéger les mineurs aux États-Unis. Grâce à un système d’apprentissage automatique, l’âge des utilisateurs connectés est évalué afin d’appliquer automatiquement des restrictions. Les publicités personnalisées sont désactivées, les catégories sensibles interdites, et plusieurs fonctionnalités limitées. Ce changement concerne les plateformes publicitaires Google (AdSense, AdMob, Ad Manager) sans aucune action requise des éditeurs. Ce dispositif répond à des exigences réglementaires croissantes tout en respectant la vie privée. L’initiative pourrait être étendue à d’autres pays, alors que les législateurs mondiaux s’attaquent à la question de la protection des jeunes en ligne. Un tournant stratégique majeur dans le paysage numérique.

Une IA pour protéger les jeunes : l’approche inédite de Google

Depuis juillet 2025, Google expérimente un modèle d’intelligence artificielle inédit pour estimer l’âge des utilisateurs connectés aux États-Unis. L’objectif ? Identifier automatiquement les personnes de moins de 18 ans afin d’activer des protections renforcées, sans collecte intrusive ni vérification manuelle préalable. Ce système s’applique en priorité à ses services publicitaires (AdSense, AdMob, Ad Manager), ainsi qu’à des plateformes comme YouTube, Google Maps et Google Play. Une technique qui n’est pas nouvelle, des sites comme TikTok vous propose aussi de vérifier votre âge à grand coup de biométrie !

Le modèle s’appuie sur les données comportementales associées au compte Google : types de recherches, historique de navigation, vidéos visionnées ou interactions avec des contenus spécifiques. En détectant qu’un utilisateur a probablement moins de 18 ans, Google désactive plusieurs fonctions : Suppression des annonces personnalisées ; Blocage des catégories publicitaires sensibles : alcool, tabac, jeux d’argent, perte de poids, etc. ; Désactivation de Timeline dans Google Maps ; Limitation des recommandations sur YouTube ; Activation automatique des rappels de pause et de coucher.

Ces mesures s’inscrivent dans une logique proactive, sans nécessité pour l’utilisateur ou l’éditeur de modifier ses paramètres. Lorsqu’un compte est classé comme « mineur probable« , le système applique instantanément des restrictions conformes aux standards en vigueur en matière de sécurité numérique des mineurs.

Aucun changement requis chez les éditeurs : Google centralise la régulation

Pour les éditeurs de contenus utilisant les services publicitaires Google, cette évolution ne requiert aucune configuration manuelle. Le déploiement de cette fonctionnalité se fait entièrement côté serveur, sur la base des données associées au compte utilisateur connecté. Le système détecte localement si un compte doit être traité comme appartenant à un mineur, et modifie en conséquence les flux publicitaires.

Les éditeurs doivent cependant être conscients des impacts potentiels : une baisse possible des revenus peut survenir dans les segments où les annonces personnalisées généraient historiquement de meilleures performances. Les créations publicitaires contenant certains mots-clés ou images peuvent aussi être bloquées si elles correspondent à des catégories jugées sensibles. En clair, les mineurs ne verront plus certains types de campagnes, et la monétisation de ces impressions pourrait être affectée.

Google précise que cette technologie s’applique exclusivement lorsque l’utilisateur est connecté à son compte Google. Si l’utilisateur navigue anonymement ou en mode invité, ces protections ne s’activent pas automatiquement.

Pour les internautes mal catégorisés — par exemple, un adulte considéré comme mineur — une procédure permet de vérifier son âge : pièce d’identité, carte bancaire (pour 0,50 $ soit environ 0,46 €), ou selfie biométrique traité localement. Aucune donnée n’est conservée après vérification.

Ce mouvement stratégique répond à une pression réglementaire croissante dans plusieurs pays. En Europe, le Digital Services Act impose des garde-fous stricts sur la collecte de données des mineurs et le ciblage algorithmique. Le Code britannique pour la conception adaptée à l’âge, en vigueur depuis 2021, oblige les entreprises numériques à minimiser les risques pour les moins de 18 ans. L’Irlande et la France suivent des lignes similaires.

Aux États-Unis, des États comme la Louisiane, l’Arkansas ou l’Utah imposent déjà des vérifications d’âge obligatoires pour accéder à certains réseaux sociaux. Le Kids Online Safety Act (KOSA), en discussion au Sénat, pourrait imposer ces standards à l’échelle fédérale. En réponse, les grandes plateformes cherchent à automatiser la détection d’âge sans collecter de documents sensibles en amont.

Google opte pour un compromis innovant : un modèle probabiliste, non intrusif, capable d’identifier des signaux d’âge sans traitement biométrique systématique. Cette méthode « privacy-friendly » s’inscrit dans une stratégie plus large visant à réconcilier régulation, rentabilité et protection de la vie privée. Le système est testé auprès d’un petit échantillon d’utilisateurs avant extension progressive aux États-Unis, puis, sans doute, au reste du monde.

À moyen terme, cette politique pourrait être déclinée dans tous les produits Google, y compris Gmail, Discover et Chrome, et redessiner les contours de la publicité en ligne à l’ère des régulations générationnelles.

Invitation Is All You Need : fausse invitation pour pirater votre vie numérique

Invitation Is All You Need : une simple invitation Google Calendar peut devenir une arme redoutable contre Gemini, l’assistant IA de Google — bienvenue dans l’ère du promptware, où vos appareils sont compromis à votre insu.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Trois chercheurs israéliens ont mis au jour une faille alarmante dans Gemini, l’assistant IA de Google. En cachant des instructions malveillantes dans le titre d’un événement Google Calendar, ils ont réussi à manipuler l’IA pour exécuter des actions inattendues : prise de contrôle de domotique, suppression de rendez-vous, géolocalisation, déclenchement d’appels, diffusion de messages injurieux et vol de correspondances. Baptisée « Invitation Is All You Need », cette attaque de type promptware démontre à quel point un simple rendez-vous numérique peut devenir une arme d’intrusion. Google a réagi avec filtres, confirmation humaine et détection par apprentissage automatique. Mais l’incident souligne les risques majeurs liés à l’intégration des IA dans nos vies connectées.

Quand une invitation devient une intrusion

Tout commence dans un appartement discret de Tel-Aviv. Les volets motorisés, les lumières connectées et la chaudière semblent fonctionner normalement. Pourtant, au moment précis où un occupant demande à Gemini de lui lire ses prochains rendez-vous, la pièce bascule dans l’étrange : les volets s’ouvrent sans demande, la chaudière s’allume, un appel vidéo se prépare en arrière-plan. La source ? Une simple invitation Google Calendar, envoyée quelques jours plus tôt et soigneusement camouflée pour paraître banale.

Derrière cette démonstration se trouvent Ben Nassi, Stav Cohen et Or Yair, chercheurs en cybersécurité. Leur objectif : prouver qu’un assistant IA peut être manipulé sans interaction directe avec sa victime, en exploitant la manière dont il lit et interprète les informations contextuelles.

Ils ont découvert que Gemini, lorsqu’il lit un événement du calendrier, intègre l’intégralité du titre et de la description dans son « contexte » d’analyse. Si ces informations contiennent des instructions malveillantes, l’IA peut les exécuter, convaincue qu’elles font partie de la demande de l’utilisateur. L’utilisateur, lui, ne voit qu’un résumé anodin… mais déclenche malgré lui une séquence invisible.

L’ombre du promptware

Le terme promptware décrit ces attaques qui n’exploitent pas une faille de code, mais la confiance qu’un système accorde à son entrée textuelle. Dans ce cas, l’entrée n’est pas tapée par l’utilisateur : elle arrive automatiquement par un service tiers, ici Google Calendar. L’équipe a ainsi démontré que l’on pouvait transformer une simple donnée textuelle en levier de compromission.

Les scénarios qu’ils ont simulés donnent le vertige. Un message caché dans un rendez-vous peut ordonner à Gemini d’envoyer un courriel à une liste précise, ce qui permet de diffuser du spam ou de mener des campagnes de phishing. Un autre peut lui demander de supprimer certains événements importants de l’agenda, créant une désorganisation ciblée. Les chercheurs ont aussi montré qu’il est possible d’obtenir la localisation d’un appareil et de la transmettre discrètement à un tiers, ouvrant la voie à une surveillance intrusive.

Ils ont poussé l’expérience plus loin : contrôle d’objets connectés via Google Home, comme allumer une chaudière ou déverrouiller une porte ; déclenchement d’appels vidéo non sollicités ; ou encore insertion de messages offensants dans des conversations. Autant d’actions qui, dans un contexte professionnel ou privé, peuvent provoquer des dommages tangibles, financiers comme psychologiques.

L’efficacité de ces attaques repose sur deux facteurs : leur invisibilité et leur proximité avec l’usage normal de l’IA. Gemini croit agir sur ordre légitime. L’utilisateur, lui, ne soupçonne rien, puisque l’action est liée à une commande vocale qu’il a lui-même donnée, comme « Quels sont mes prochains rendez-vous ? ».

La contrainte technique : pour que l’attaque fonctionne, le rendez-vous piégé doit figurer dans les cinq événements les plus récents de l’agenda. Les chercheurs ont donc imaginé des stratégies pour maintenir l’événement dans cette zone visible, notamment en multipliant les invitations successives, chacune repoussant l’ancienne plus loin dans la liste.

L’alerte cyber et renseignement

Cette faille révèle bien plus qu’un simple problème technique : elle met en lumière la manière dont l’intégration des IA dans nos outils quotidiens peut créer des points d’entrée inattendus pour des opérations de renseignement.

Dans un scénario d’espionnage, une agence malveillante pourrait envoyer à grande échelle des invitations piégées à des cibles précises, déclenchant des actions d’exfiltration ou de sabotage à distance. Contrairement aux campagnes de phishing classiques, il n’est pas nécessaire que la victime clique sur un lien ou télécharge un fichier. Le seul fait de demander à Gemini d’accéder à son calendrier suffit.

L’attaque contourne aussi les défenses humaines : même un utilisateur prudent, conscient des risques des emails suspects, n’imaginerait pas qu’une notification de réunion puisse activer une porte d’entrée vers ses données.

Google, alerté par cette découverte, a réagi en déployant plusieurs contre-mesures. La première : un filtrage de sortie, visant à bloquer la transmission de données sensibles. Ensuite, un système de confirmation humaine avant d’exécuter certaines actions jugées à risque. Enfin, un renforcement de la détection automatique par apprentissage automatique, afin d’identifier les formulations suspectes insérées dans des contenus apparemment anodins.

Ces mesures réduisent le risque immédiat, mais elles ne changent pas la nature fondamentale du problème : la dépendance croissante de nos outils à des IA qui, par conception, obéissent aveuglément au texte qu’elles interprètent.

Une vigilance de tous les instants

Pour se prémunir de ce genre d’attaque, il ne suffit pas de compter sur les correctifs des éditeurs. Les utilisateurs peuvent limiter l’exposition en restreignant l’accès de Gemini aux données sensibles. Examiner régulièrement les nouveaux événements ajoutés au calendrier, surtout lorsqu’ils proviennent de sources inconnues, reste une précaution utile. Dans les paramètres, il est possible de forcer une validation manuelle avant toute action impactant le monde réel, comme contrôler un appareil domestique.

La sensibilisation joue un rôle clé. Comprendre que le promptware peut se glisser dans n’importe quelle interaction avec une IA, même indirecte, aide à repérer des comportements anormaux. Enfin, du côté des développeurs et architectes systèmes, il est urgent de concevoir des IA qui ne puissent pas exécuter d’actions critiques sur la seule base de contenu textuel non vérifié.

Pékin accuse Nvidia : soupçons de backdoors dans les puces IA H20

Nvidia dans le viseur de la Chine : Pékin suspecte ses puces IA H20 d’abriter des backdoors, ravivant la guerre technologique sur fond de cybersurveillance mondiale.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

La Chine vient d’interpeller Nvidia, géant américain des semi-conducteurs, au sujet de présumés backdoors dans ses puces H20 destinées à l’intelligence artificielle locale. Pékin s’appuie sur de nouvelles lois sur la cybersécurité pour exiger transparence et garanties techniques, tandis que Washington impose, de son côté, des restrictions et des mécanismes de contrôle dans les puces exportées. Cet épisode cristallise la montée en puissance des tensions entre les deux superpuissances numériques, où la sécurité, la souveraineté et la capacité de renseignement s’entremêlent. Retour sur les dessous d’un affrontement qui redéfinit les équilibres du cyberespace mondial.

L’ombre du renseignement : Pékin convoque Nvidia

Au matin du 31 juillet 2025, une rumeur parcourt les couloirs feutrés des grandes universités technologiques de Pékin. Dans un communiqué solennel, la Cyberspace Administration of China (CAC), autorité suprême du cyberespace, annonce avoir convoqué l’un des plus puissants fabricants mondiaux de puces d’intelligence artificielle : Nvidia.

La raison officielle ? La présence de « vulnérabilités de sécurité sérieuses » – des backdoors selon l’administration – dans les puces H20, version modifiée et bridée, spécialement conçue pour satisfaire aux exigences américaines en matière d’exportation vers la Chine.

Derrière la formule administrative, la réalité est bien plus explosive. Car depuis 2023, le secteur mondial des semi-conducteurs est l’objet de toutes les tensions, chaque acteur jouant une partie d’échecs à très haut risque, où chaque mouvement peut avoir des conséquences stratégiques majeures.

Washington, dans une course effrénée à la suprématie technologique, a multiplié les restrictions à l’exportation, craignant que ses technologies ne viennent renforcer la puissance militaire et cybernétique chinoise. Mais la diplomatie du silicium ne se limite pas à un simple jeu de barrières douanières. Depuis quelques mois, la législation américaine va plus loin : avec le Chip Security Act, toute puce IA exportée doit embarquer des fonctions de traçage GPS, de localisation et de coupure à distance.

Pour Pékin, c’est une déclaration de guerre numérique à peine voilée.

La cyberguerre dans le silicium : l’art du soupçon et de la riposte

La convocation de Nvidia par les autorités chinoises n’est pas un geste isolé. Elle s’inscrit dans une stratégie globale, où la souveraineté numérique est devenue une priorité nationale. La Chine, qui ne cesse de rappeler son attachement à la « cybersécurité et à la protection des données des utilisateurs », applique strictement ses lois : Cybersecurity Law, Data Security Law et Personal Information Protection Law.

Au centre de l’enquête, une question : les puces H20, qui font tourner nombre d’algorithmes d’intelligence artificielle en Chine, sont-elles vraiment sûres ?

En creux, la peur d’un sabotage à distance. Si les puces américaines comportent effectivement des modules de tracking ou de télécommande, Washington pourrait, en cas de crise, désactiver à volonté une partie de l’infrastructure numérique chinoise. Un scénario digne de la cyberguerre froide, mais qui devient, à la lumière des technologies actuelles, de plus en plus crédible.

La réponse de Nvidia ne s’est pas fait attendre. L’entreprise, par la voix d’un de ses porte-paroles, nie toute présence de backdoor : « La cybersécurité est essentielle pour nous. Nvidia ne place aucune porte dérobée dans ses puces permettant un accès ou un contrôle à distance par un tiers. »

Mais la défiance est tenace, et pour cause : dans le même temps, le marché noir s’empare du sujet. Selon les estimations, pour plus d’un milliard de dollars (environ 920 millions d’euros) de puces Nvidia, parfois des modèles officiellement bannis comme les B200, H10 ou H200, auraient trouvé leur chemin vers la Chine via des circuits parallèles. Kits complets, racks prêts à l’emploi, tout s’arrache sous le manteau – preuve que le besoin de puissance de calcul reste insatiable, quelles que soient les réglementations.

Sécurité nationale, souveraineté et rivalité : le vrai visage de la crise

Ce bras de fer n’est pas qu’une affaire de technique : il symbolise la nouvelle géopolitique du renseignement à l’ère de l’IA. En exigeant de Nvidia la remise de « preuves », de « documents techniques » et d’« explications détaillées », Pékin affiche sa volonté de contrôler la chaîne technologique, mais aussi de démontrer à ses propres acteurs économiques la nécessité d’une indépendance stratégique.

Les failles supposées des puces H20 ne sont en réalité que l’arbre qui cache la forêt. Car malgré les efforts de géants nationaux comme Huawei ou SMIC, la Chine reste encore dépendante, pour les applications de pointe, des technologies américaines. Le lancement du dernier notebook Huawei, salué comme une avancée nationale, a aussi révélé le retard technologique du pays – des générations entières de retard, difficilement comblables sans coopération internationale.

La bataille se joue également sur le terrain du renseignement : dans le cyberespace, tout composant étranger est désormais considéré comme une menace potentielle. L’incertitude est totale. Qui détient vraiment la clé du contrôle de ces puces ? Les circuits imprimés sont-ils de simples outils, ou des armes silencieuses, prêtes à être activées à distance ?

Pour Pékin, la réponse est claire : seule une maîtrise totale de la chaîne technologique, du design à la production, en passant par le contrôle des codes sources, permettra de garantir la sécurité nationale. En attendant, la Chine redouble d’efforts pour stimuler son industrie, investir massivement dans la recherche et l’innovation, et limiter sa dépendance à l’Occident.

Mais la tâche est titanesque. Face à une Silicon Valley toujours à la pointe, les ambitions chinoises se heurtent à des décennies de domination américaine. Le feuilleton des puces Nvidia H20 n’est qu’un épisode de plus dans une série au long cours : celle de la conquête, puis de la sécurisation, du cyberespace mondial.