En 2024, les clics sur des liens de phishing ont triplé, alors que l’usage des outils d’IA générative en entreprise s’intensifiait.
L’année 2024 a vu l’explosion des menaces cyber, notamment le phishing et les mauvaises pratiques liées aux applications cloud personnelles et à l’IA générative. Plusieurs rapports (Netskope, Microsoft, ZATAZ) révèlent que les clics sur des liens de phishing ont triplé, illustrant la sophistication croissante de ces attaques. En parallèle, l’adoption massive d’outils d’IA générative comme ChatGPT a accru les risques de fuites de données sensibles. Ces évolutions mettent en lumière l’urgence d’une approche nouvelle en matière de cybersécurité, mêlant outils de pointe, sensibilisation renforcée et stratégies proactives pour protéger les entreprises et leurs données. Des questions qui seront posées, à Paris, en Janvier, lors d’un rendez-vous politique autour de l’IA. (Elon Musk sera présent selon les infos de DataSecurityBreach.fr)
Phishing : une menace toujours plus sophistiquée
En 2024, les cybercriminels ont redoublé d’efforts pour perfectionner leurs attaques, entraînant une hausse de 190 % des incidents liés au phishing.
Des attaques toujours plus ciblées
Les campagnes de phishing modernes exploitent des outils sophistiqués, souvent alimentés par l’IA générative, pour créer des messages hyper-personnalisés. Les attaques se sont particulièrement concentrées sur les identifiants Microsoft, avec 42 % des attaques visant cette cible. L’utilisation d’applications cloud populaires comme Google Drive ou Microsoft OneDrive pour héberger des contenus malveillants a multiplié les points d’entrée pour les hackers.
Des techniques renforcées par l’IA
L’IA générative permet de produire des emails frauduleux d’une qualité impressionnante, rendant la détection humaine difficile. Les entreprises doivent donc s’équiper d’outils capables d’analyser les comportements pour repérer des anomalies et bloquer les tentatives de phishing en temps réel.
Prévention et formation : un duo indispensable
La sensibilisation des employés reste essentielle, mais elle doit être accompagnée de solutions technologiques robustes. Les simulations régulières de phishing et l’analyse comportementale des clics suspects sont des mesures indispensables.
L’utilisation croissante d’applications cloud personnelles par les employés, en particulier dans les environnements de travail hybrides, représente un défi majeur. En 2024, près de 88 % des organisations ont rapporté des incidents liés à des outils non autorisés.
Les applications cloud personnelles sont fréquemment utilisées pour stocker ou partager des données sensibles, ce qui expose les entreprises à des risques importants. Les données réglementées, telles que les informations financières et médicales, constituent 60 % des violations signalées, suivies par la propriété intellectuelle et les codes source.
Dans de nombreux cas, les violations sont dues à un manque de sensibilisation. Par exemple, les employés utilisent des outils gratuits, souvent peu sécurisés, pour partager des fichiers professionnels, ignorant les conséquences potentielles.
Les solutions possibles
Pour contrer ces pratiques, les entreprises doivent :
Mettre en place des politiques restrictives interdisant l’usage d’applications non approuvées.
Utiliser des outils de Cloud Access Security Broker (CASB) pour surveiller et bloquer les transferts non autorisés.
Renforcer la formation en expliquant les risques juridiques et financiers des mauvaises pratiques.
Exergue : « Les applications cloud personnelles sont un angle mort de la cybersécurité. »
La mise en place de systèmes de surveillance en temps réel et de contrôles d’accès est essentielle pour limiter les risques liés à ces usages. De plus, les entreprises doivent privilégier des solutions qui permettent une traçabilité des données et une intervention rapide en cas d’incident.
IA générative : moteur d’innovation et de risques
Les outils d’IA générative, tels que ChatGPT, sont devenus des acteurs incontournables dans le paysage professionnel. Leur adoption rapide, bien que bénéfique, présente des risques non négligeables.
L’essor des outils d’IA générative
En 2024, 94 % des entreprises utilisent des applications d’IA générative, avec une moyenne de 9,6 outils par organisation. Ces applications facilitent des tâches variées, de la rédaction de rapports au brainstorming créatif. Toutefois, leur utilisation sans contrôle strict expose les organisations à des menaces inédites.
Les risques majeurs
Les cybercriminels exploitent ces technologies pour concevoir des attaques de phishing sur mesure. Par ailleurs, les employés peuvent, par inadvertance, introduire des informations confidentielles dans ces outils, qui ne garantissent pas toujours la confidentialité des données.
Des réponses technologiques et humaines
Pour limiter ces risques, 45 % des entreprises ont déployé des solutions de prévention des pertes de données (DLP). Ces outils surveillent en permanence les interactions entre les employés et les plateformes d’IA générative. En parallèle, les organisations investissent dans des programmes de coaching en temps réel, qui alertent les utilisateurs lorsqu’ils effectuent des actions à risque.
L’avenir passe également par l’élaboration de politiques claires et par l’intégration de mesures de contrôle automatisées. Ces initiatives permettront de concilier innovation et sécurité, tout en réduisant les vulnérabilités.
Bref, face à des menaces cyber de plus en plus sophistiquées, les entreprises doivent adopter une approche proactive. DataSecuritybreach.fr rappel que cela doit inclure : L’intégration d’outils de détection avancée ; La formation continue des employés. L’élaboration de politiques claires pour l’usage des applications cloud et de l’IA.