Archives de catégorie : Cloud

TOP 10 des méthodes de piratage

L’ingénierie sociale serait la méthode la plus utilisée, suivie par la compromission de comptes et les attaques web de type injections SQL/de commandes selon une étude de Balabit.

BalaBit, fournisseur européen de technologies de sécurité contextuelle, a présenté lors de la 15è édition des Assises de la Sécurité, les résultats d’une étude menée auprès des participants de la Black Hat en août dernier, conférence de référence mondiale en matière de sécurité de l’information. BalaBit a interrogé 349 professionnels de la sécurité afin de définir le top 10 des méthodes de hacking actuellement les plus populaires. Cette étude offre aux entreprises l’opportunité de mieux connaître leurs ennemis en identifiant les méthodes et les vulnérabilités les plus utilisées par les hackers lorsqu’il s’agit de s’attaquer à leurs données sensibles. Cette base de connaissance est la première étape fondamentale pour toute entreprise souhaitant mettre en place une stratégie de sécurité IT efficace, et cela quelque soit son secteur d’activité.

Attaquant interne ou externe ? Pas si évident…
Les menaces sont différentes et plus sophistiquées aujourd’hui et la frontière entre les menaces internes et externes est devenue très étroite. La majorité des attaquants externes tentent de pénétrer le réseau, d’acquérir des niveaux d’accès basiques et d’utiliser leurs droits pour petit à petit remonter jusqu’à des niveaux d’accès privilégiés. Dans la plupart des cas, ils restent invisibles dans le réseau pendant plusieurs mois, puisqu’ils parviennent à s’identifier comme des utilisateurs internes. Qu’en est-il des utilisateurs internes malveillants ? : Sont-ils conscients des conséquences de leurs actes lorsqu’ils partagent leurs identifiants ou lorsqu’ils cliquent sur des liens de phishing – dans ce cas, la fuite de données est-elle le résultat d’actions intentionnelles ou accidentelles ? Doivent-ils être considérés comme malveillants seulement si leur action était intentionnelle ? Cela a t-il vraiment beaucoup d’importance si la fuite de données est très grave ?

70% des personnes interrogées considèrent les menaces internes comme les plus risquées.
54% des personnes interrogées déclarent avoir très peur des hackers qui pénètrent au sein du réseau de l’entreprise via leur pare-feu, alors même que 40% d’entre elles déclarent qu’un pare-feu n’est pas assez efficace pour empêcher les hackers d’entrer.

Les participants ont également été interrogés sur les attaquants – internes ou externes – qu’ils considèrent les plus à risques : Les résultats soulignent un point important en vue de la définition d’une stratégie de défense efficace : 70% des personnes interrogées considèrent que les utilisateurs internes présentent le plus de risques (et seulement 30% estiment que les attaquants externes posent plus de risques). Une chose est sûre : les attaquants externes cherchent à devenir des utilisateurs internes, et les utilisateurs internes les aident pour y parvenir – accidentellement ou intentionnellement. Quelque soit la source de l’attaque, la liste des 10 méthodes de piratage les plus populaires -présentées ci-dessous – démontre qu’il est crucial pour les entreprises de savoir ce qu’il se passe sur leur réseau en temps réel. Qui accède à quoi ; est-ce le bon utilisateur derrière l’identifiant et le mot de passe ou est-ce un attaquant externe utilisant un compte compromis ?

Le top 10 des méthodes de piratage les plus utilisées :

1. Ingénierie sociale (ex : phishing).
2. Compromission de comptes (sur la base de mots de passe faibles par exemple).
3. Attaques web (ex : injection SQL/de commandes).
4. Attaques de clients de l’entreprise ciblée (ex: contre des destinataires de documents, navigateurs web).
5. Exploits avec des mises à jour de serveurs connus (ex: OpenSSL, Heartbleed).
6. Terminaux personnels non sécurisés (manque de politique de sécurité BYOD, datasecuritybreach.fr vous en parle très souvent).
7. Intrusion physique.
8. Shadow IT (utilisation personnelle de services Cloud à des fins professionnelles).
9. Attaque d’une infrastructure outsourcée en ciblant un fournisseur de services externe.
10. Attaque de données hébergées sur le Cloud (via l’IaaS, le PaaS).

CLOUD : la gestion des mots de passe devient une priorité pour les PME

Les petites et moyennes entreprises transfèrent de plus en plus souvent leurs outils de travail dans le Cloud. De plus, la frontière entre l’usage personnel et l’usage professionnel de la technologie est de plus en plus floue à mesure que les employés choisissent d’utiliser leurs applications préférées au bureau.

Malgré les économies et les gains de productivité liés au passage des outils de travail dans le Cloud, la réalité reste un cauchemar logistique pour les responsables quoi doivent désormais gérer toute un arsenal d’identifiants et de mots de passe associés à ces applications. Ajouter à cela les choix de mots de passe faibles d’une bonne partie de la population, et vous obtenez un trou béant dans la sécurité qui séduirait même le plus novice des hackers.

La possibilité de travailler à tout moment, n’importe où et sur n’importe quel appareil est devenu le mantra des employés d’aujourd’hui, et cela pousse les entreprises à adopter le Cloud. Selon une étude récente menée par Enterprise Strategy Group et LogMeIn, près de 3 quarts des employés qualifiés – ceux qui gèrent les informations – affirment que la mobilité est cruciale ou importante pour être productif dans leur travail, avec 70% d’entre eux travaillant ailleurs que dans un bureau plusieurs jours par semaine. Pourtant, 60% des PME n’ont pas mise en place de politique de sécurité pour répondre à la hausse de l’utilisation des applications Cloud sur le lieu de travail.

La saga des mots de passe
Si la gestion des mots de passe n’est pas un nouveau défi pour les PME, c’est un problème qui devient très complexe étant donné qu’en moyenne les utilisateurs possèdent des mots de passe pour plus de 25 applications qu’ils utilisent au travail. Et les enjeux pour les PME sont plus importants que jamais, étant donné que presque 80% des applications Cloud et des services contiennent des données sensibles, régulées ou confidentielles. Il suffit d’un seul piratage pour paralyser une entreprise, le Gartner estime que seulement 6% des entreprises sortent indemne d’un piratage de données alors que 43% mettant la clé sous la porte.

Même s’il semblerait que conserver un mot de passe unique fort soit contre-productif, il existe quelques moyens pour que les PME rendent plus simple le choix de mots de passe de leurs employés et qu’ils arrêtent leurs mauvaises habitudes.

1. Eviter les groupes populaires. Il est choquant de devoir encore le répéter, mais les PME ne devraient jamais, sous aucun prétexte, utiliser des mots de passe faciles à deviner pour protéger des informations sensibles. Les mots de passe les plus utilisés en 2014 étaient « mot de passe » et « 123456 ». Les mots de passe devraient être une combinaison de lettres en capitale et en minuscule, de nombres et de symboles.

2. Conserver vos mots de passe dans un coffre-fort. Si vous pouvez vous souvenir des identifiants et des mots de passe de toutes les applications que vous utilisez, soit vous avez une très bonne mémoire photographique, soit vous utilisez les mêmes pour toutes vos applications. Puisque chaque application devrait avoir un mot de passe unique, un gestionnaire de mot de passe sûr vous aidera à les gérer et vous encouragera à utiliser des mots de passe forts que vous n’aurez pas à retenir.

3. Déployer une solution de gestion des accès. Non seulement cela aidera vos employés à mieux gérer leurs mots de passe, mais cette solution sera également être utiles aux entreprises. Les PME pourront gérer l’accès pour que les employés qui rejoignent l’entreprise puissent obtenir un accès rapide – ou le retirer sans problèmes à ceux qui partent – et permettre le partage des comptes sans partager les mots de passe.

4. Utiliser l’authentification à deux facteurs. En ajoutant un niveau de sécurité via une authentification à deux facteurs, il sera plus difficile pour un hacker de compromettre un mot de passe, en particulier quand surtout pour les utilisateurs qui changent de navigateurs et de localisation.

Quand il s’agit de sécuriser les données de l’entreprise dans le Cloud, il n’y a pas de solution miracle. Cependant, les humains seront toujours le maillon le plus faible de la chaîne, donc, encourager une meilleure gestion des mots de passe – autant au niveau des employés qu’à celui du département informatique est un bon début pour réduire les risques. Il est temps de faire de la gestion des mots de passe une priorité pour garder les données de votre entreprise et de vos clients en sécurité. (Par Alain Logbo, Directeur Commercial Entreprises EMEA de LogMeIn)

Quand les incidents de sécurité coûtent cher aux entreprises

Il est souvent difficile pour les victimes elles-mêmes d’estimer le coût total d’un incident de sécurité en raison de la diversité des dommages. Mais une chose est sûre, l’addition monte vite.

Une enquête mondiale réalisée en 2015 par Kaspersky Lab auprès de 5 500 entreprises, en coopération avec B2B International révèle également que les fraudes commises par les employés, les cas de cyber espionnage, les intrusions sur le réseau et les défaillances de prestataires extérieurs représentent les incidents de sécurité les plus coûteux. Selon ce rapport, le budget moyen nécessaire aux grandes entreprises pour se remettre d’un incident de sécurité serait de 551 000 et 38 000 dollars pour les PME.

« Définir le coût d’une attaque est une tâche très difficile à réaliser car le périmètre d’impact est variable d’une entreprise à l’autre. Cependant, ces chiffres nous rappellent que les coûts d’une attaque ne se limitent pas au remplacement du matériel, et nous obligent à nous interroger sur son impact à long terme. A noter également que toutes les entreprises ne sont pas égales : certaines attaques visent à stopper l’activité commerciale d’une entreprise quand d’autres ciblent l’exfiltration de données secrètes, par exemple. Il ne faut pas oublier non plus que l’onde de choc générée par l’annonce publique d’une attaque ou d’une fuite de données à des conséquences directes sur la réputation d’une entreprise, et ce qui est alors perdu est souvent inestimable » explique à DataSecurityBreach.fr Tanguy de Coatpont, directeur général de Kaspersky Lab France.

Facture moyenne d’un incident pour une entreprise :

  • Services professionnels (informaticiens, gestion du risque, juristes) : il existe 88% de chance d’arriver à une facture pouvant atteindre jusqu’à 84 000 dollars
  • Perte d’opportunités commerciales : dans 29 % cela peut représenter jusqu’à 203 000 dollars
  • Interruption d’activité : jusqu’à 1,4 million de dollars, soit 30 %
  • Total moyen : 551 000 dollars
  • Dépenses indirectes : jusqu’à 69 000 dollars
  • Atteinte à la réputation : jusqu’à 204 750 dollars

Les PME et les grandes entreprises ne sont pas logées à la même enseigne

Neuf entreprises sur dix ayant participé à notre enquête ont fait état d’au moins un incident de sécurité. Cependant, tous les incidents n’ont pas le même niveau de gravité et n’aboutissent pas à la perte de données sensibles. Le plus souvent, un incident grave résulte d’une attaque de malware ou de phishing, de fuites imputables à des employés ou de l’exploitation de vulnérabilités dans des logiciels. L’estimation des coûts permet de considérer la gravité des incidents de sécurité informatique sous un nouvel angle et fait apparaître une perspective légèrement différente entre les PME et les entreprises.

Les grandes entreprises encourent un préjudice nettement plus élevé lorsqu’un incident de sécurité est le fait d’une défaillance d’une tierce partie, les autres types d’incidents coûteux étant liés à des fraudes commises par les employés, des cas de cyber espionnage ou des intrusions sur le réseau. Les PME tendent à subir un préjudice important sur pratiquement tous les types d’incidents, qu’il s’agisse d’espionnage, d’attaques DDoS ou de phishing.

Pour télécharger le rapport complet sur le coût des incidents de sécurité, cliquez ici.

Cloud hybride, gare à la récupération !

Le Cloud Computing va provoquer un véritable séisme dans le secteur informatique et certains acteurs historiques espèrent sauver leurs acquis en communicant sur une vision qui leur est très personnelle du Cloud hybride.

Avec l’essor des solutions de stockage dans le Cloud, avec l’arrivée d’offres Iaas (Infrastructures as a Service) performantes à faible coût, le Cloud Computing est en train de changer la donne sur le marché informatique. Les DSI considèrent de plus en plus le Cloud comme la meilleure alternative à l’achat et à la maintenance de serveurs dans leurs murs et, pour certaines applications comme le CRM, le Cloud s’est imposé comme la norme en vigueur. Une bonne nouvelle pour les entreprises et les budgets informatiques, une bonne nouvelle pour les DSI qui vont pouvoir consacrer leurs ressources davantage aux nouveaux projets et moins de ressources pour le « run », cette gestion de l’existant si couteuse pour les entreprises.

Le cloud hybride, un moyen pour les fournisseurs de maintenir l’emprise sur leurs clients ?
Ce basculement vers le Cloud est inéluctable et ce n’est pas sans conséquences tant pour les acteurs de l’informatique traditionnelle. Incapables de lutter contre le sens de l’histoire, ceux-ci ont dû se résoudre plus ou moins rapidement à lancer à leur tour leurs propres services Cloud. C’est le moyen qu’ils ont trouvé pour ne pas perdre tout à fait leurs clients « historiques », un moyen aussi de leur proposer d’autres services. Cette stratégie, ils l’ont maquillée sous le terme de Cloud hybride. Leur idée est simple : continuer à fournir des serveurs traditionnels, leur associer des services Cloud complémentaires et proposer une console d’administration pseudo-unifiée pour gérer l’ensemble. Du fait de leur poids sur le marché, ils se permettent de redéfinir ce qu’est le Cloud hybride. Ils se livrent à une véritable préemption du terme afin de garantir le « vendor lock-in », cette emprise qu’ils exercent sur leurs clients depuis des dizaines d’années. Un verrouillage du marché qui est tout autant pratiqué par d’autres acteurs de l’informatique traditionnelle, tels les grossistes. Contraints de réinventer leur business model face à des clients qui se détournent du matériel au profit du service, ils répliquent leur modèle du passé. Sans avoir ni les compétences ni les infrastructures, ils mettent en place une offre parcellaire et très sélective, uniquement basée sur leurs accords commerciaux passés et donc pas nécessairement en phase avec les attentes réelles du client final.

Or, le Cloud hybride n’est en rien une prolongation de pratiques aujourd’hui datées. Le Cloud hybride, c’est bien plus être capable de faire coexister une infrastructure legacy avec des technologies plus modernes. Le Cloud devient une extension du datacenter de l’entreprise. Elle va pouvoir étendre les capacités de son infrastructure interne avec un Cloud public ou privé externe sans remettre en question son existant. Le Cloud hybride tel que nous le concevons chez Aruba, ce n’est pas s’appuyer sur un fournisseur unique, ce n’est en aucun cas le concept figé tel que les fournisseurs historiques tentent d’imposer.

Une Cloud, c’est avant tout s’appuyer sur des standards
Pour profiter des vrais avantages du Cloud Computing, il faut avant tout privilégier des offres souples, adaptées au contexte et aux contraintes de chaque client. Quand une entreprise choisit un service Cloud, elle doit opter pour un fournisseur ouvert aux standards du marché. C’est uniquement comme cela qu’elle pourra profiter à plein de la souplesse et de l‘adaptabilité du Cloud et faire sauter ce « vendor lock-in » que font peser sur elle ses fournisseurs depuis des décennies. C’est la raison pour laquelle certaines offres Cloud s’appuient tant sur les offres VMware, la plateforme de virtualisation la plus utilisée par les entreprises, que sur Hyper-V la solution Microsoft ou encore Hyper-V low cost. C’est le fait d’être agnostiques en termes de technologies, d’être multi-hyperviseurs, qui nous permet aujourd’hui d’apporter cette souplesse à nos clients, ce n’est que comme cela que l’on peut assurer une garantie de portabilité et de réversibilité. Faire le choix des standards du marché, c’est le seul moyen pour une entreprise, et tout particulièrement pour une PME dont les ressources techniques sont les plus modestes, de pouvoir tirer profit du Cloud tant dans une approche hybride que 100% externalisée.

La localisation d’un Datacenter a toute son importance
Autre critère à prendre en compte pour un projet de Cloud hybride comme pour un projet 100% Cloud, c’est la proximité avec son fournisseur. Le discours ambiant des fournisseurs de Cloud américains, notamment, c’est de dire que les distances ne comptent plus, que le Cloud abolit toute notion de localisation. C’est faux, tant sur le plan des performances réseau que sur la qualité du support offert. Quant aux garanties liées à la confidentialité des données, l’actualité a montré les limites de leurs promesses. Outre les gains en performances réseau, choisir un opérateur d’infrastructure de Cloud européen a de vraies conséquences tant techniques que juridiques. C’est comme cela que nous concevons le Cloud Hybride. (Eric Sansonny, Directeur Général Aruba Cloud)

Améliorer la sécurité et l’expérience utilisateur avec l’authentification sans contact

Du fait de la marche inexorable engagée vers un univers orienté mobilité et cloud, les données des entreprises sont devenues de plus en plus difficiles à protéger.

Les attentes de leurs collaborateurs ont également évolué : ceux-ci veulent pouvoir accéder à des applications, données et services en mode cloud n’importe où, n’importe quand, sur l’équipement de leur choix. Des attentes qui, virtuellement, risquent de rendre les réseaux considérablement plus vulnérables aux failles de sécurité. Le seul recours à des mots de passe ne suffit pas. À partir du moment où des pirates dérobent le nom d’utilisateur et le mot de passe d’un employé, ils n’ont aucune difficulté à s’introduire sur le réseau et à charger des logiciels malveillants sur d’autres systèmes en passant inaperçus. Aujourd’hui, avec l’avènement d’un modèle de sécurité dit d’authentification sans contact « par effleurement », il est possible de garantir un contrôle d’accès aux données via un procédé nettement plus pratique, en utilisant le même badge d’identification donnant accès aux locaux/sites d’une entreprise.

Avec l’authentification sans contact, il suffit aux utilisateurs d’approcher leurs cartes à puce d’un ordinateur portable, d’une tablette, d’un téléphone mobile et d’autres équipements à capacité NFC (Near Field Communication) pour accéder aisément et commodément à des ressources réseau, applications cloud et services via le web. Nettement plus simple et mieux sécurisée qu’un mot de passe, cette technique se veut aussi plus rapide, plus fluide et plus pratique que l’emploi de mots de passe à usage unique (OTP), token ou carte hybride (displaycards) et d’autres dispositifs physiques. Et elle est surtout commode pour les utilisateurs puisqu’elle leur permet d’avoir accès à des données et applications en mode cloud avec la même carte servant à l’ouverture de portes.

Dimensionnement du problème
Les menaces ne sont pas près de décroître. Et le coût des fuites de données non plus. Récemment, IBM a révélé dans son rapport Security Services Cyber Security Intelligence Index Report, que l’usurpation d’identité, les logiciels malveillants et autres cybermenaces coûtent aujourd’hui aux entreprises jusqu’à 19 % de leurs recettes, et représentent 21 % de pertes de productivité, entre autres impacts financiers. Protéger l’accès aux données de l’entreprise devient, par conséquent, encore plus crucial.

L’une des premières problématiques est la confiance excessive dans les mots de passe. Jusqu’ici, la procédure d’identification et de validation des identités du personnel était relativement simple : un nom d’utilisateur et un mot de passe devaient être saisis sur leur PC par les utilisateurs pour qu’ils puissent s’authentifier à la fois sur leur poste et sur le réseau. Un seul mot de passe était attribué aux utilisateurs de matériel informatique, utilisable à un seul endroit : sur leur poste de travail, au bureau ou à la maison. Après authentification, l’utilisateur avait accès à toutes les applications nécessaires pour mener sa mission à bien.

Mais aujourd’hui, le contexte de l’entreprise est en rapide évolution. Nous vivons désormais dans un monde orienté mobilité et cloud, au sein duquel l’accès aux données et services d’entreprise ne s’effectue plus à partir d’un seul et même équipement. De surcroît, les politiques de sécurité des entreprises ont changé, obligeant les utilisateurs à s’authentifier plus souvent. Parallèlement, les utilisateurs comptent bien bénéficier aujourd’hui d’un accès immédiat aux données et services de leur entreprise, en tout lieu et à tout moment, depuis leur terminal mobile. Concrètement, cela signifie que les collaborateurs qui recourent à une authentification classique, mais déficiente, par nom d’utilisateur et mot de passe exposent par inadvertance leurs entreprises à nombre de cybermenaces complexes.

Principes de fonctionnement de l’authentification sans contact
L’authentification sans contact permet d’accéder à plusieurs applications et services sur des terminaux différents, sans avoir à mémoriser ni à ressaisir d’autres codes et mots de passe. Le procédé ne nécessite que trois étapes simples. Premièrement, l’utilisateur ouvre un navigateur sur son terminal NFC et saisit l’URL de l’application à laquelle il souhaite accéder. Deuxièmement, il saisit ses nom d’utilisateur et mot de passe. Troisièmement, il approche sa carte de contrôle d’accès à l’arrière de la tablette ou du terminal mobile NFC pour fournir le second facteur d’authentification. La carte peut alors être « lue » sans qu’il soit nécessaire de l’insérer physiquement dans un lecteur.

Outre sa commodité, ce modèle d’authentification par effleurement tire parti du système de contrôle d’accès existant pour garantir une expérience utilisateur fluide sur l’ensemble de l’infrastructure correspondante, physique et informatique. Résultat ? Un système de gestion des identités et des accès résolument plus efficace et économique. En centralisant ainsi la gestion des identités et des accès, les entreprises peuvent regrouper leurs tâches et réduire leurs charges d’exploitation, et sont également en mesure d’adapter leurs capacités en les faisant passer à l’échelle supérieure, pour en retirer une plus-value croissante pour l’entreprise.

Approcher l’avenir
Les entreprises s’acheminent vers des solutions convergées qui peuvent servir à sécuriser l’ensemble des accès ? portes, ordinateurs, données, applications et services en mode cloud. Volet phare de la réalisation de cet objectif, l’authentification sans contact conjugue tout à la fois commodité et simplicité. Les utilisateurs ont d’ores et déjà troqué des clés mécaniques contre les cartes à puce permettant l’ouverture de portes et de portails. À présent, ces mêmes cartes peuvent aussi se substituer à des solutions OTP dédiées, au sein d’un système de contrôle des accès qui continuera à s’adapter et à passer très facilement à l’échelle supérieure, en offrant une plus-value croissante à l’entreprise. Les investissements qui sont réalisés dans les systèmes aujourd’hui peuvent être préservés au fil du temps à mesure que les entreprises se développent, évoluent et renforcent perpétuellement leur sécurité pour combattre les menaces sans cesse plus versatiles qui planent sur leurs locaux, leur sécurité informatique et la confidentialité de leurs informations. (Par Franck Tognée, Directeur des ventes Europe du Sud HID Global).

Fonctions analytiques de sécurité

HP a annoncé pouvoir protéger les entreprises numériques avec de nouvelles fonctions analytiques de sécurité. De nouvelles solutions identifient rapidement les menaces à haut risques et les IoC (indicators of compromise) afin d’aider à protéger les échanges entre utilisateurs, applications et données.

A l’occasion de HP Protect, la conférence annuelle sur la sécurité informatique d’entreprise, HP a dévoilé de nouvelles solutions centrées sur l’analyse de données de sécurité conçues pour aider les entreprises à passer des méthodes traditionnelles de sécurité à une approche moderne basées sur la protection des interactions entre les utilisateurs, les applications et les données, et sécuriser ainsi leurs actifs les plus précieux.

Les entreprises sont quotidiennement submergées par des données portant sur la sécurité. Elles doivent réussir à traduire ces données en informations utiles pour gérer de manière proactive les menaces qui engendrent un risque certain. Face à la complexité et le volume croissants des données, une plate-forme de sécurité intelligente est donc essentielle. Celle-ci doit être en mesure d’exploiter la puissance des solutions de Security Information and Event Management (SIEM) et d’effectuer une surveillance active avec l’analyse de données de sécurité extraites de cas d’usages, et capables d’être dérivées en actions de prévention concrètes.

« La détection des failles de sécurité est la préoccupations principale des acheteurs de solutions de sécurité. Les fabricants des solutions techniques se vantant d’identifier les failles ou de détecter des attaques sophistiquées font toujours plus de bruit » déclare Eric Ahlm, directeur de recherches chez Gartner, dans un récent communiqué de presse. « Les plateformes d’analyse de données de sécurité s’efforcent de conduire à une prise de conscience des événements de sécurité en collectant et en analysant un ensemble de données toujours plus large, de façon à ce que les événements les plus nuisibles pour les entreprises soient détectés et classés par ordre de priorité avec une efficacité accrue.»

Tirer parti de l’analyse des données de sécurité pour automatiser l’analyse des menaces
Les entreprises reçoivent chaque semaine en moyenne 17 000 alertes de programmes malveillants, et dépensent chaque année en moyenne 1,27 million US$ en temps et en ressources pour répondre à des menaces 2 provenant de données imprécises ou erronées. En raison du volume de données que les professionnels de la sécurité d’entreprise doivent surveiller, on estime à environ quatre pour cent, seulement, les alertes de logiciels malveillants faisant l’objet d’investigations 2, laissant ainsi une faille importante dans la gestion des problèmes de sécurité. En outre, les solutions traditionnelles périmétrique et les actions manuelles ne sont pas capables d’intercepter toutes les infections critiques dues à des programmes malveillants et laissent ainsi les entreprises encore plus exposées aux risques.

Pour les aider à automatiser l’analyse des données relatives aux menaces, HP annonce HP DNS Malware Analytics (DMA), une solution unique conçue pour identifier les systèmes infectés en analysant le trafic sur les serveurs DNS de l’entreprise. Cette solution sans agent a été développée en partenariat avec les HP Labs, les laboratoires de recherche d’HP, et le centre interne HP Cyber Defense Center. Travaillant à partir d’algorithmes, elle répertorie les serveurs infectés sans logiciel installé sur les composants périmétriques, et aide les clients à détecter rapidement les menaces à haut risque, réduire l’impact des failles de sécurité et améliorer leur politique globale de sécurité.

« Aujourd’hui les organisations doivent faire face à des volumes croissants de données de sécurité. Sans avoir la possibilité de séparer les signaux réels du bruit ambiant, les entreprises peuvent être victimes d’attaques malveillantes non détectées aux conséquences graves à la fois en termes financiers et opérationnels » déclare Sue Barsamian, Senior Vice-Président et Directeur Général de l’entité HP Enterprise Security Products. « La nouvelle solution HP DNS Malware Analytics (DMA) utilise les techniques de traitement des données pour détecter des malwares à partir de larges volumes d’événements fournis par les serveurs DNS. HP DMA est une solution packagée simple et très efficace adaptée aux grandes et moyennes entreprises. Combinée à la plateforme HP ArcSight SIEM, elle apporte des fonctionnalités de nouvelle génération qui renforcent la protection de l’entreprise. »

HP DMA identifie rapidement les cibles infectées comme les serveurs, les postes de travail et les appareils mobiles, afin de pouvoir les isoler avant qu’ils ne se connectent au réseau. La solution propose un algorithme unique en son genre – ce qui la différencie de la plupart des offres bâties sur des règles – capable d’analyser un très grand nombre d’enregistrements DNS. Ceci permet la détection d’un nouveau malware inconnu tout en réduisant par 20 le nombre de faux positifs par rapport aux autres offres de détection de malware sur le marché 3. Les entreprises économisent ainsi du temps et des ressources IT, et peuvent répondre aux risques les plus élevés en fonction des priorités qu’elles auront définies.

Avec un paramétrage simple et un reporting dans le cloud, HP DMA peut être déployé rapidement pour offrir une vigilance permanente face aux menaces. La solution s’intègre de façon transparente avec la plateforme the HP ArcSight SIEM, ce qui permet d’exploiter la capacité des systèmes SIEM, en tirant parti des déploiements de ArcSight Enterprise Security Management (ESM) afin de corréler d’autres données contextuelles, de donner des alertes et de proposer des actions appropriées.

Intégrer les données de sécurisation des applications pour élargir la couverture de sécurité
En prolongement de son engagement sur les offres de sécurité basées sur l’utilisation de données, HP annonce également HP Fortify scan analytics, une technologie unique qui exploite la puissance des données de sécurité issues des applications afin d’améliorer l’acuité et l’efficacité des solutions de sécurisation des applications. En traitant un volume croissant d’enregistrements fournis par des scans applicatifs et en réduisant la quantité d’éléments demandant l’analyse d’un spécialiste, la solution permet aux entreprises de concentrer leurs ressources sur un nombre plus faible de tâches plus prioritaires. Cette technologie analytique s’intègre de façon transparente dans les workflows existants de tests de sécurité des applications, ce qui contribue à augmenter à la fois l’efficacité du processus d’audit de la sécurité des applications et la pertinence des résultats.

Tirer parti de l’analyse prédictive pour accélérer la détection de menaces internes
Les nouvelles offres analytiques HP DMA et Fortify renforcent les capacités analytiques d’HP autour de l’analyse comportementale annoncées au cours de cette année. HP User Behavior Analytics (UBA) offre aux clients une meilleure visibilité dans le comportement des utilisateurs afin d’identifier les plus négligents ou les plus malveillants, ou de détecter les attaques externes qui infectent les comptes des utilisateurs de l’entreprise. En classant les anomalies détectées et les risques associés, HP UBA permet aux clients de concentrer leurs efforts et leurs ressources sur les activités, les utilisateurs et les applications qui présentent les risques les plus élevés pour l’entreprise.

Nouvelle loi en Russie impose la sauvegarde de toutes les données

Internet – Collecte de données obligatoire pour les entreprises Russes.

Une nouvelle loi russe, adoptée mardi 1er septembre 2015, oblige les entreprises à stocker les données qu’elles recueillent sur les citoyens russes. Des données collectées officiellement sur le territoire Russe. La nouvelle loi a créé de l’incertitude chez les entreprises et suscite des craintes sur la surveillance et la vie privée. D’autant qu’un site Internet russe qui reçoit des visiteurs de France, Chine ou États-Unis collectera et sauvegardera aussi les dites données.  La loi russe pourrait impacter plus d’un million d’entreprises locales. Certains experts craignent que cette nouvelle législation soit une tentative du gouvernement russe d’accéder à des informations personnelles à des fins de sécurité et de surveillance. Un détail loin d’être négligeable qui a du effleurer l’esprit de Vladimir Poutine ! [FT]

Smart Cities : Pourquoi l’identité est la clé des villes vraiment intelligentes

Il ne fait aucun doute que la montée en puissance de l’internet des objets (IoT) change fondamentalement la façon dont nous interagissons avec le monde. Que ce soient les smartphones, les tablettes, les réfrigérateurs ou les ampoules, presque tout type d’équipement est désormais doté d’une connexion internet destinée à rendre notre vie plus facile et efficace. Cependant, alors que la révolution IoT s’est fortement accélérée ces dernières années, elle est limitée par un défaut significatif : les équipements IoT ne peuvent généralement pas communiquer entre eux. Par Ludovic Poitou, Directeur Général Forgerock, France

Cette impossibilité de communiquer vient du manque d’identité numérique de ces équipements. En tant qu’individu, notre identité est ce qui nous rend unique et ce qui indique aux autres qui nous sommes. Sans elle, nous ne serions qu’un numéro indiscernable de ceux qui nous entourent. Le même concept s’applique aux équipements connectés. Or parmi les 4,9 milliards d’équipements qui font désormais partie de l’IoT (avec une augmentation à 25 milliards prévue en 2025), un grand nombre souffre actuellement d’une crise d’identité.

Cela change cependant. Le développement de la technologie de gestion d’identité numérique signifie que l »on peut désormais attribuer leur propre identité à ces équipements à travers l’écosystème de l’internet des objets. Ils peuvent reconnaitre les autres identités numériques, interagir avec elles en toute sécurité et établir des relations numériques connues entre utilisateurs, entre objets connectés, et entre utilisateurs et objets connectés. Le résultat de cette nouvelle forme de communication est la forte amélioration de l’utilité des équipements connectés à internet chez les particuliers, dans les bureaux et même dans les villes.

Protéger la ville intelligente de demain

Envisagez une ville où les services publics y compris les systèmes de prévention de catastrophes et les systèmes d’alerte sont connectés à l’aide de l’identité. Un ouragan approche ? Alors, le système d’alerte se déclenche, il envoie un message crypté aux services des urgences municipales pour les prévenir du danger. L’identité du système d’alerte est rapidement vérifiée et des plans d’action en cas d’urgence préétablis sont mis en œuvre. Quelques minutes après le signal d’alerte initial, on peut fermer automatiquement les ponts et les systèmes de transport à risque et les services anti-incendie peuvent être envoyées pour évacuer des immeubles dangereux rapidement et efficacement. Les équipes anti-incendies possèdent elles-mêmes leur propre identité ainsi on peut suivre leurs mouvements à travers la ville et les véhicules peuvent être envoyés vers les lieux mal desservis à travers un itinéraire non encombré. Les feux de circulation réagissent à l’arrivée des pompiers afin de limiter les bouchons et on peut vérifier l’authenticité de l’identité de chaque pompier lorsqu’ils arrivent sur site.

Comme le montre cet exemple, l’introduction de l’identité numérique à chaque étape de la réponse d’urgence peut rapidement transformer une opération très complexe avec beaucoup de mouvements en une réponse automatique qui peut sauver de nombreuses vies. Sans identité attachée à chacun des équipements et des systèmes impliqués, cela serait tout simplement impossible.

Equiper la ville intelligente de demain

En plus de nous protéger de l’imprédictible, l’identité numérique peut être aussi utilisée pour rendre plus rapides et plus faciles des aspects plus banals de notre vie. Les voyages et la logistique sont deux des domaines qui devraient bénéficier le plus d’une approche basée sur l’identité. Par exemple, les systèmes intelligents de services routiers peuvent collecter des données en temps réel sur le trafic, la vitesse et les dangers. Ces systèmes peuvent alors mettre en œuvre une signalétique réactive pour guider les voyageurs vers des itinéraires moins encombrés (à travers leurs identités numériques), pour les avertir des retards sur leur itinéraire habituel et pour leur suggérer des alternatives. Les données collectées par ce type d’activité peuvent aussi servir aux planificateurs urbains pour les futurs développements de routes et de transports en commun en indiquant précisément quels sont les points critiques des systèmes actuels.

Ailleurs, les systèmes de parking intelligents peuvent indiquer automatiquement aux conducteurs les places libres dès qu’ils arrivent à proximité, ce qui évite de faire le tour. Une fois la voiture garée, le système intelligent peut surveiller la durée du stationnement à l’aide du GPS du véhicule, déterminer la somme à payer dès que la voiture redémarre et prélever automatiquement la somme à l’aide d’un compte préenregistré. Dans le même temps, la ville peut surveiller la demande globale de stationnement et y répondre par des prix indexés à la demande, ce qui réduit la pollution et le trafic tout en optimisant les revenus.

L’identité est la clé

Ce ne sont que quelques exemples du rôle central que peut jouer l’identité dans les villes intelligentes de demain. La possibilité qu’ont les équipements intelligents à se connecter et à communiquer les uns avec les autres améliorera beaucoup la qualité des services publics et la planification des villes. Pour les citoyens, cela signifiera de nouveaux services efficaces qui amélioreront presque tous les aspects de la vie urbaine, et tout cela sera rendu possible par l’identité et l’internet des objets.

Les attaques « Man In the Cloud » exploitent les principaux services de synchronisation de fichiers

Les attaques de dernière génération transforment facilement les services cloud les plus communément utilisés en outils d’attaque dévastateurs.

Imperva, Inc., société spécialisée dans la protection des données critiques des entreprises et des applications sur site et dans le cloud, publie son nouveau rapport d’information sur les hackers portant sur une nouvelle forme d’attaque : « Man in the Cloud Attacks » ou MTIC (en anglais).

Avec « Man in the Cloud » (MITC), un hacker parvient à s’introduire discrètement dans les services de synchronisation de fichiers les plus communément utilisés, tels que Google Drive et Dropbox, pour les transformer en outils d’attaque dévastateurs, que les mesures de sécurité usuelles parviennent difficilement à détecter. Le rapport souligne que cette attaque de dernière génération n’implique pas l’usurpation du compte ou du mot de passe cloud des utilisateurs.

Les services de synchronisation cloud, tels que Box, Dropbox, Google Drive et Microsoft OneDrive, peuvent être facilement exploités et transformés en infrastructure visant à compromettre les points d’accès, en offrant un canal pour les communications de commande et contrôle, l’exfiltration des données et l’accès à distance.

Des attaques basées sur cette architecture ont déjà été identifiées
Les mesures de sécurité au niveau des points d’accès et du périmètre réseau sont insuffisantes pour la détection et l’atténuation de cette menace, car aucun code malveillant n’est stocké sur le point d’accès et aucun canal de trafic sortant anormal n’apparaît sur le réseau. Les organisations doivent consacrer davantage d’efforts à la surveillance et à la protection de leurs ressources de données critiques d’entreprise, dans le cloud et sur site. En détectant les comportements d’accès abusif à ces ressources, les entreprises peuvent se protéger contre cette nouvelle génération d’intrusions.

« Notre étude met simplement au grand jour à quel point il est facile pour les cybercriminels d’utiliser des comptes de synchronisation cloud et à quel point il est difficile de détecter ce nouveau type d’attaque, et d’y résister », indique Amichai Shulman, directeur de la technologie chez Imperva. « Depuis que nous avons identifié l’existence des attaques MITC, nous savons que les organisations qui protègent leurs systèmes contre les infections à l’aide d’outils de détection de code malveillant ou de détection des communications de commande et contrôle font face à de sérieux risques, les attaques MITC utilisant l’infrastructure de partage et de synchronisation des fichiers d’entreprise existante pour les communications de commande et contrôle, et l’exfiltration des données. »

En raison de l’utilisation croissante des appareils mobiles, des tablettes, des VPN, de l’accès à distance et des applications SaaS, les données sont désormais stockées dans le cloud, dans un périmètre qui s’étend au-delà des frontières traditionnellement définies par les entreprises. Ce passage au cloud, qu’il concerne des particuliers ou des entreprises, est bien illustré par le recours aux services de synchronisation de fichiers. L’utilisation de Box, Dropbox, Google Drive et Microsoft OneDrive dans un environnement professionnel souligne l’importance des conclusions de cette étude.

Les entreprises ont la possibilité de se protéger contre les attaques MITC en adoptant une approche en deux temps. D’une part, elles doivent s’appuyer sur une solution de courtage d’accès au service cloud (CASB, Cloud Access Security Broker) qui surveille l’accès et l’utilisation de leurs services cloud d’entreprise. D’autre part, les organisations peuvent déployer des contrôles, tels que des solutions de surveillance de l’activité des données (DAM, Data Activity Monitoring) et de surveillance de l’activité des fichiers (FAM, File Activity Monitoring), au niveau de leurs ressources de données d’entreprise pour identifier l’accès anormal et abusif aux données critiques.

Le centre de défense des applications (ADC, Application Defense Center) d’Imperva est le premier organisme de recherche consacré à l’analyse de la sécurité, à la détection des vulnérabilités et à l’expertise en matière de mise en conformité. Cette cellule allie tests approfondis en laboratoire et tests pratiques en environnement réel pour améliorer les produits d’Imperva, le tout grâce à une technologie avancée dédiée à la sécurité des données, dans le but d’offrir une protection optimale contre les menaces et une automatisation de la mise en conformité inégalée. L’équipe réalise régulièrement des études sur l’évolution du paysage des menaces, notamment le rapport consacré à son initiative d’information sur les hackers et le rapport sur les attaques visant les applications Web. La version intégrale de ce rapport du mois d’août.

État des lieux de l’Internet du 2ème trimestre 2015

Akamai Technologies, Inc., leader mondial des services de réseau de diffusion de contenu (CDN), annonce la disponibilité de son rapport de sécurité « État les lieux de l’Internet » du 2ème trimestre 2015. Il livre une analyse et un éclairage sur les cyber-menaces qui pèsent sur la sécurité cloud à l’échelle mondiale.

« La menace des attaques par déni de service distribué (DDoS) et applicatives web ne cesse de s’intensifier chaque trimestre », précise John Summers, vice-président, Cloud Security Business Unit d’Akamai. « Les acteurs malveillants brouillent perpétuellement la donne en changeant de tactique, en dénichant de nouvelles vulnérabilités, voire en remettant au goût du jour des techniques considérées comme obsolètes. En analysant les attaques observées sur nos réseaux, nous sommes en mesure d’inventorier les menaces et tendances naissantes et de communiquer au public les informations indispensables à la consolidation de leurs réseaux, sites web et applications, et à l’amélioration de leurs profils de sécurité cloud. »

Dans ce rapport sont analysés deux vecteurs d’attaques applicatives web supplémentaires, mais aussi examiné les menaces représentées par le trafic TOR (routage en oignon) et même mis au jour certaines vulnérabilités dans des modules externes WordPress tiers, en cours de publication dans le dictionnaire CVE », ajoute-t-il. « Plus les menaces de cybersécurité sont documentées, mieux la défense d’une entreprise peut être opérée.

Panorama de l’activité des attaques DDoS
Sur les trois derniers trimestres, il apparaît que le nombre d’attaques DDoS double d’une année sur l’autre. Si, au cours de ce trimestre, les pirates ont privilégié les attaques de moindre débit mais de plus longue durée, toujours est-il que le nombre de méga-attaques ne cesse de croître. Au 2ème trimestre 2015, 12 attaques à un débit supérieur à 100 Gb/s ont été recensées et 5 autres culminant à plus de 50 Mp/s (millions de paquets par seconde). Très peu d’entreprises sont capables de résister par elles-mêmes à des attaques de cette ampleur.

L’attaque DDoS la plus massive au 2ème trimestre 2015, mesurée à plus de 240 Gb/s, a duré plus de 13 heures. Le débit crête est généralement limité à une fenêtre d’une à deux heures. Sur cette même période, l’une des attaques présentant le débit de paquets le plus élevé jamais encore enregistré sur le réseau Prolexic Routed a également été déclenchée (à un pic de 214 Mp/s). Ce volume d’attaques est capable de paralyser des routeurs de niveau 1 comme ceux utilisés par les fournisseurs d’accès Internet.

L’activité des attaques DDoS a établi un nouveau record au 2ème trimestre 2015, en hausse de 132 % à trimestre comparable un an auparavant, et de 7 % par rapport au 1er trimestre 2015. Si le débit crête et le volume maximal moyens des attaques ont légèrement progressé au 2ème trimestre 2015 comparativement au trimestre précédent, ils demeurent nettement en-deçà des valeurs maximales relevées au deuxième trimestre 2014.

SYN et SSDP (Simple Service Discovery Protocol) sont les vecteurs les plus couramment utilisés ce trimestre, chacun d’eux représentant approximativement 16 % du trafic d’attaques DDoS. Eu égard à la prolifération d’équipements électroniques de loisirs non sécurisés, connectés à Internet via le protocole UPuP (Universal Plug & Play), leur utilisation comme réflecteurs SSDP demeure attrayante. Quasiment inexistant il y a encore un an, le SSDP s’est imposé comme l’un des principaux vecteurs d’attaques ces trois derniers trimestres. Quant à la technique par saturation de type « SYN flood », elle continue à dominer les attaques volumétriques et ce, depuis la première édition du rapport de sécurité parue au troisième trimestre 2011.

Le secteur des jeux en ligne demeure une cible privilégiée depuis le 2ème trimestre 2014, systématiquement visé par environ 35 % des attaques DDoS. Au cours des deux derniers trimestres, la majorité du trafic d’attaques ne provenant pas d’adresses usurpées a continué à émaner de la Chine, pays qui figure dans le trio de tête depuis la parution du premier rapport au troisième trimestre 2011.

Activité des attaques applicatives web
Des statistiques sur les attaques applicatives web ont commencé à être publiées par Akamai au premier trimestre 2015. Ce trimestre, deux autres vecteurs d’attaques ont été analysés : les failles Shellshock et XSS (cross-site scripting).

Shellshock, vulnérabilité logicielle présente dans Bash mise au jour en septembre 2014, a été exploitée dans 49 % des attaques applicatives web ce trimestre. En réalité, 95 % des attaques Shellshock ont visé un seul client appartenant au secteur des services financiers, dans le cadre d’une campagne qui a duré plusieurs semaines en début de trimestre. Généralement menée sur HTTPS, cette campagne a rééquilibré l’utilisation des protocoles HTTPS et HTTP. Au premier trimestre 2015 en effet, seulement 9 % des attaques avaient été dirigées sur HTTPS, contre 56 % ce trimestre.

Par ailleurs, les attaques par injection SQL (SQLi) représentent 26 % de l’ensemble des attaques, soit une progression de plus de 75% des alertes de ce type rien qu’au deuxième trimestre. À l’inverse, les attaques de type LFI (inclusion de fichier local) s’inscrivent en net recul. Principal vecteur d’attaques applicatives web au premier trimestre 2015, LFI n’est plus à l’origine que de 18 % des alertes au deuxième trimestre 2015. L’inclusion de fichier distant (RFI), l’injection PHP (PHPi), l’injection de commandes (CMDi), l’injection OGNL Java (JAVAi) et le chargement de fichier malveillant (MFU) comptent, pour leur part, pour 7 % des attaques applicatives web.

Comme au premier trimestre 2015, ce sont les secteurs des services financiers et du commerce et de la grande distribution qui ont été les plus fréquemment touchés par les attaques.

La menace des modules externes et thèmes WordPress tiers
WordPress, plate-forme la plus en vogue dans le monde pour la création de sites web et de blogues, est une cible de choix pour des pirates qui s’attachent à exploiter des centaines de vulnérabilités connues pour créer des botnets, disséminer des logiciels malveillants et lancer des campagnes DDoS.

Le code des modules externes tiers est très peu, voire nullement, contrôlé. Afin de mieux cerner les menaces, Akamai a testé plus de 1 300 modules externes et thèmes parmi les plus répandus. Résultat : 25 d’entre eux présentaient au moins une vulnérabilité nouvelle. Dans certains cas, ils en comprenaient même plusieurs puisque 49 exploits potentiels ont été relevés au total. Une liste exhaustive des vulnérabilités mises au jour figure dans le rapport, accompagnée de recommandations pour sécuriser les installations WordPress.

Les forces et les faiblesses de TOR
Le projet TOR (The Onion Router, pour « routage en oignon ») fait en sorte que le nœud d’entrée ne soit pas identique au nœud de sortie, garantissant ainsi l’anonymat des utilisateurs. Bien que nombre des utilisations de TOR soient légitimes, son anonymat présente de l’intérêt pour les acteurs malveillants. Pour évaluer les risques liés à l’autorisation de trafic TOR à destination de sites web, Akamai a analysé ce trafic web à l’échelle de sa base de clients Kona sur une période de sept jours.

L’analyse a révélé que 99 % des attaques émanaient d’adresses IP non-TOR. Néanmoins, une requête sur 380 issues de nœuds de sortie TOR était malveillante, contre une sur 11 500 seulement en provenance d’adresses IP non-TOR. Ceci dit, le blocage de trafic TOR pourrait se révéler préjudiciable sur le plan économique. Toutefois, les requêtes HTTP légitimes vers les pages d’e-commerce correspondantes font état de taux de conversion équivalents entre nœuds de sortie TOR et adresses IP non-TOR. Le rapport.

Un rapport IBM X-Force dévoile une utilisation accrue de Tor et une évolution des attaques avec rançon

IBM Sécurité annonce les résultats de son rapport Q3 2015 IBM X-Force Threat Intelligence.

Ce rapport dévoile les dangers grandissants provoqués par les cyber-attaques provenant du Dark Web à travers l’utilisation du réseau Tor (The Onion Router), ainsi que les nouvelles techniques mises en place par les criminels pour les attaques avec rançon. Rien que depuis le début de l’année,  plus de 150 000 événements malveillants provenant de Tor ont eu lieu aux États-Unis.

Même si on entend davantage parler des fuites de données que des demandes de rançon, les « ransomware » représentent une menace grandissante. Comme la sophistication des menaces et des attaquants croît, leur cible fait de même, et ainsi certains attaquants se sont par exemple spécialisés dans la demande de rançon concernant les fichiers de joueurs de jeux en lignes populaires. Le rapport dévoile que les agresseurs peuvent maintenant également bénéficier de « Ransomware as a Service » en achetant des outils conçus pour déployer de telles attaques.

Comme les hauts fonds des océans, le Dark Web demeure largement inconnu et inexploré, et il héberge des prédateurs. L’expérience récente de l’équipe IBM Managed Security Services (IBM MSS) montre que les criminels et d’autres organisations spécialisées dans les menaces utilisent Tor, qui permet d’anonymiser les communications aussi bien en tant que vecteur d’attaques que d’infrastructure, pour commander et contrôler les botnets. La façon dont Tor masque le cheminement offre des protections supplémentaires aux attaquants en les rendant anonymes. Ils peuvent aussi masquer la location physique de l’origine de l’attaque,  et même la remplacer par une autre de leur choix. Le rapport étudie également Tor lui-même, et fournit des détails techniques permettant de protéger les réseaux contre les menaces, intentionnelles ou non, véhiculées par Tor.

L’importance d’identifier ses données sensibles

Une récente étude conduite par le Ponemon Institute révèle que 64% des professionnels de l’IT déclarent que leur principal défi en matière de sécurité est de ne pas savoir où se trouvent les données sensibles de leur organisation sur site et dans le cloud. Ils estiment en effet que cette tâche est d’autant plus difficile qu’ils ne sont pas non plus en mesure de déterminer si ces données sont vulnérables à une attaque ou une faille de sécurité. Par Jean-François Pruvot, Regional Director France chez CyberArk pour DataSecurityBreach.fr.

La gestion et la sécurisation efficaces des données sensibles passent par la mise en place de comptes administratifs ou individuels privilégiés pour surveiller et contrôler les accès – quel que soit l’emplacement des données. En effet, les organisations possèdent en moyenne trois à quatre fois plus de comptes à hauts pouvoirs que d’utilisateurs, ce qui rend les comptes à privilèges plus compliqués à gérer et à identifier. Ces derniers sont souvent utilisés par des cyber attaquants pour gagner l’accès au réseau d’une organisation et attaquer insidieusement le cœur de l’entreprise en visant les données et systèmes sensibles. Les hackers se déplacent latéralement à l’intérieur de l’entreprise tout en élevant les privilèges leur donnant accès à l’ensemble du réseau, et peuvent rester virtuellement non détectés pendant de très longues périodes.

Par conséquent, si la majorité des équipes IT ne parviennent pas à tracer les mouvements de leurs données, et n’ont pas non plus suffisamment de visibilité sur les comptes administrateurs permettant d’y accéder, il est indispensable de mettre en place les outils nécessaires pour identifier rapidement les personnes ou machines qui accèdent aux données sensibles – et l’utilisation qui en est faite – pour protéger et renforcer l’efficacité des stratégies de sécurité. « Le fait que 64% des professionnels de l’IT ne pensent pas être capables d’identifier l’emplacement des données sensibles de leur organisation démontre des faiblesses dans les systèmes de protection. Un tel constat confirme la nécessité de sensibiliser les organisations sur le renforcement des mesures de contrôle pour sécuriser l’accès aux données et adhérer à des politiques de sécurité strictes. Avant d’envisager le déploiement de solutions de sécurité, il est essentiel de mettre en place une stratégie dédiée à la gestion de ces données – et en particulier des solutions permettant de mieux gérer, surveiller et contrôler les accès. Que ce soit sur site ou dans le cloud, les entreprises doivent savoir ce qu’elles sécurisent à tout moment et quelles que soient les actions en cours sur les infrastructures afin de protéger ce que de potentiels hackers peuvent dérober. »

Un programme stratégique de sécurisation des comptes à privilèges commence par l’identification de l’emplacement des comptes à hauts pouvoirs et identifiants associés. Sont inclus les comptes administrateurs des machines et postes de travail de l’entreprise, ainsi que les identifiants qui permettent la communication entre applications et entre machines. Les organisations doivent mettre en place les fondements de base de la sécurité incluant des patchs, la mise à jour régulière des systèmes et la rotation fréquente des mots de passe. Sans une vigilance accrue de leur gestion, une personne extérieure, ou un employé n’étant pas censé intervenir sur ces comptes dans le cadre de ses fonctions, pourrait accéder aux données de l’entreprise et en compromettre la sécurité de manière accidentelle ou malveillante.

Ainsi, afin de réduire au maximum les risques de vol ou de pertes de données, l’identification et la cartographie des données est indispensable pour élaborer une stratégie de sécurité parfaitement adaptée aux contraintes de sécurité liées à l’accès au réseau des organisations, et particulièrement dans les environnements virtualisés. Par conséquent, de même qu’on règle son rétroviseur et qu’on attache sa ceinture avant de prendre le volant, les organisations doivent avoir une visibilité complète de leurs données, de leur emplacement et contrôler qui accède aux informations où et quand, afin de les sécuriser de la manière la plus adaptée ; elles peuvent ainsi se prémunir contre les attaques et les infiltrations insidieuses dans leurs systèmes, que les données soient stockées sur site ou dans le cloud.

Les employés en vacances posent-ils un risque pour la sécurité des données d’entreprise ?

Beaucoup d’employés ont du mal à déconnecter pendant leurs congés. En dehors des accès via des connexions parfois non protégées, la perte ou le vol d’un terminal peuvent porter préjudice à la sécurité des données de l’entreprise. Comment en optimiser la protection ? Par Xavier Dreux, Responsable Marketing chez Prim’X

Comme DataSecurityBreach.fr vous le prouvait en 2013, un trop grand nombre d’employés utilisent encore de trop leurs données professionnelles durant leurs vacances. Nous sommes au milieu des congés estivaux et comme chaque année beaucoup de dirigeants et cadre d’entreprises ont du mal à déconnecter. Certains continueront à se connecter à distance à leur messagerie et ou aux serveurs de leur entreprise, d’autres emmèneront tout simplement leur portable sur leur lieu de vacances « au cas où » sans penser ou en sous-estimant les conséquences que cela peut avoir pour la sécurité des données de leur entreprise. Plusieurs solutions s’offrent néanmoins à l’entreprise pour garantir la protection de ses données.

Les fondamentaux

Premièrement, il peut paraître utile de rappeler aux employés et notamment aux cadres que les vacances servent à déconnecter et à se couper avec le stress du quotidien pendant plusieurs jours. En effet, si l’on en croit les résultats d’une étude menée par Roambi et Zebaz, 93% des cadres dirigeants français consultent leurs données professionnelles durant leurs vacances.

Il paraît plus que pertinent d’un point de vue gestion des ressources humaines de transmettre les fondamentaux et d’inciter les employés à gérer leur absence avec les collègues qui resteront présents. Faire une passation de dossiers et prévoir un « testament » avec les points à suivre et les coordonnées des personnes capables d’apporter un soutient en cas d’urgence est déjà un bon début pour partir serein et couper le cordon. Certaines entreprises commencent également à prendre des mesures drastiques d’un point de vue technique en coupant tout simplement les accès des employés pendant la durée de leur absence.

Sensibiliser aux risques

Nous le rappelons constamment chez DataSecuritybreach.fr, le maillon faible de la sécurité c’est l’humain. La sensibilisation doit être renouvelée régulièrement pour être efficace. La période estivale est une excellente opportunité pour transmettre aux salariés une note rappelant quelques-uns des principes de base et les mesures clés pour assurer la sécurité de ses données lorsque l’on est en dehors de l’entreprise.

On peut ainsi souligner les différents risques qui peuvent porter préjudice aux données de l’entreprise : s’assurer que l’on tape le mot de passe de son terminal à l’abri des regard, que la connexion utilisée est sécurisée, ne pas laisser ses terminaux sans surveillance ou les mettre sous clé, etc. Plusieurs actualités ont récemment rappelé les risques liés à l’utilisation des hotspots WiFi publics (gares, aéroports, hôtels, lieux de restauration).

En mars, c’est le magazine Wired qui révélait les risques de sécurité liés à un problème de sécurité des routeurs WiFi utilisés par 8 des 10 plus grandes chaines hôtelières au niveau mondial. En avril, c’est une étude d’Avast Software qui soulignait que 66% des français préfèrent se connecter au Wi-Fi public non sécurisé au risque de perdre leurs données personnelles. Quand on sait que nombre d’employés accèdent à leur messagerie sur le terminal personnel, le risque n’est pas anodin.

Bien entendu les risques de pertes et ou de vols du terminal viennent s’ajouter à celui des connexions. Il est donc opportun de rappeler qu’il faut impérativement protéger son terminal avec un mot de passe adéquat et s’assurer que celui-ci soit à l’abri lorsque vous devez vous en séparer lorsque l’on va à la plage par exemple (coffre fort de chambre, consigne d’hôtel, proches, etc.). Qu’une connexion ne peut se faire sans VPN.

Dans le cadre des meilleures pratiques, c’est à l’entreprise de mettre à disposition de ses salariés et dirigeants des moyens pour protéger leurs terminaux et sécuriser les échanges de données. Sans ce type d’outils, l’employé sera tenté de passer outre les règles de sécurité ou bien de mettre en œuvre des solutions de protection par ses propres moyens, sous réserve qu’il ait été sensibilisé aux problématiques de sécurité. Aucune de ces solutions n’est souhaitable. L’entreprise doit conserver la responsabilité de la sécurité L’important n’est pas uniquement de rester opérationnels mais surtout de ne pas mettre en péril l’entreprise et son patrimoine informationnel. Et comme nous l’avons vu, il existe aujourd’hui plusieurs moyens simples de protéger les données présentes sur un terminal emmené en congé par les professionnels.

Dernier point, savoir se déconnecter pendant ses vacances, une vraie preuve de professionnalisme !

BYOD : selon une enquête, seuls 11 % des utilisateurs protègent l’accès à leur mobile

Selon une enquête réalisée par Kaspersky Lab avec B2B International, environ la moitié des utilisateurs de smartphones et de tablettes interrogés se servent de leur appareil mobile pour le travail. Cependant, seul 1 sur 10 se préoccupe sérieusement de protéger ses informations professionnelles contre les cybercriminels.

Les résultats révèlent que beaucoup d’employés de grandes ou moyennes entreprises utilisent leurs appareils mobiles personnels au travail : 36 % des participants à l’enquête y conservent des fichiers professionnels, et 34 % des e-mails professionnels.

Parfois, des informations plus confidentielles peuvent elles aussi se trouver sur les mobiles des utilisateurs : 18% y stockent les mots de passe donnant accès à leurs comptes de messagerie professionnelle, dont 11 % concernent des accès réseaux ou des VPN. Or ce type d’informations représente une cible parfaite pour les cybercriminels à la recherche de secrets d’entreprise.

« L’orientation du marché IT vers la mobilité et le cloud offre des possibilités d’attaques supplémentaires aux hackers et augmentent les risques des entreprises de voir leurs innovations dévoilées, copiées. Par conséquent, la protection méthodique et systématique des données et de leurs transmissions constituent désormais un challenge de premier plan pour les entreprises. Un challenge qui engage leur compétitivité sur le marché, et donc leur santé économique » commente à DataSecurityBreach.fr Tanguy de Coatpont, Directeur Général de Kaspersky Lab France et Afrique du Nord.

En dépit de ces risques, le modèle BYOD offre de nombreux avantages aux entreprises. Cependant, il nécessite une infrastructure informatique et une politique de sécurité adaptées pour un niveau de sécurité optimum.

Exemples de règles à suivre dans cette démarche

·           Le processus d’intégration du BYOD doit être traité en détails et inclure un audit de l’infrastructure, une phase de conception et un déploiement pilote.

·           Choisir une solution unique et complète pour assurer la sécurité de l’ensemble du réseau de l’entreprise, intégrant la protection des appareils mobiles afin d’éviter d’éventuels problèmes de compatibilité, rendant la tâche plus pénible pour les services informatiques.

·           Centraliser la gestion des appareils mobiles sur le réseau de l’entreprise et gérer les autorisations, installations et les mises à jour des applications mobiles via des portails dédiés à l’entreprise.

·           Mettre l’accent sur la formation et la sensibilisation des employés à la sécurité informatique. L’apprentissage des règles de sécurité informatique basiques tels que le choix de mots de passe, les attitudes à respecter lorsqu’on trouve une clé USB ou sur les réseaux sociaux, ou encore l’importance du chiffrement, doivent désormais être considérées comme indispensable au même titre qu’une formation métier, comme l’explique cette tribune.

·           Plus important encore, anticiper la crise et créer des scénarios types pour bloquer l’accès des appareils personnels au réseau de l’entreprise et la suppression des données confidentielles en cas de perte ou de vol de terminaux.

D’autres conseils ici et .

Cyber-sécurité : Les PME démunies face aux nouveaux risques

La sécurité pose un réel problème aux PME qui n’ont bien souvent pas les moyens d’avoir une équipe informatique dédiée afin de faire face à tous les challenges engendrés par les nouvelles technologies et les nouvelles habitudes de vie. A ces nouveaux challenges de sécurisation s’ajoute l’inventivité des hackers qui ne cessent de renouveler leurs techniques d’attaques.

Pour répondre à cette problématique, l’ANSSI (agence nationale de la sécurité des systèmes d’information) et la CGPME (conférence Générale des Petites et Moyennes Entreprises) ont publié un guide de bonnes pratiques de l’informatique relatant les 12 règles essentielles pour sécuriser les équipements informatiques. Les mesures sont variées, et pour certaines basiques : sécurisation des mots de passe, de la connexion wi-fi, sauvegardes régulières ou encore mise à jour des logiciels pour disposer des derniers patchs de sécurité. Mais, parmi ces mesures basiques, certaines règles viennent encadrer les nouveaux usages informatiques.

Règle n°3 : Bien connaître ses utilisateurs et ses prestataires
Le conseil pourrait sembler évident mais à l’heure des services hébergés en cloud, il est primordial de connaître les standards de son fournisseur en termes de sécurité et de conformité. Selon une étude Freeform Dynamics commandée par Barracuda Networks, 69% des entreprises prévoient une utilisation de plus en plus fréquente du cloud pour les services essentiels tels que les emails et la gestion de la relation client. Pour bien penser sa sécurité, il faut aussi comprendre quelle expérience les utilisateurs feront des infrastructures et des services informatiques.

Règle n°6 : Être aussi prudent avec son smartphone ou sa tablette qu’avec son ordinateur
Autre tendance pouvant affecter la sécurité de l’entreprise : l’utilisation croissante de tablettes et de smartphones – qu’ils soient personnels (BYOD) ou fournis par l’entreprise. Les collaborateurs utilisent ces terminaux pour travailler et pour accéder au réseau de l’entreprise, toujours selon l’étude Freeform Dynamics : 62% des interrogés prévoient une augmentation de l’accès mobile et à distance aux réseaux informatiques de l’entreprise.

Pourtant ce matériel reste très peu sécurisé et représente un danger notable. Chaque appareil personnel connecté au réseau représente une porte d’entrée potentielle pour les cyber-attaques.  Les entreprises doivent donc s’assurer de la sécurisation de ces terminaux, soit en les fournissant elles-mêmes à ses employés soit en offrant une solution pour sécuriser leurs propres appareils.

Les entreprises sont conscientes des problèmes de cyber-sécurité auxquelles elles se confrontent, mais ne savent pas par où les attaquer. Le guide prodigue les conseils essentiels, les avertit du danger, mais il est essentiel maintenant d’enseigner aux PME les bonnes pratiques de la sécurité informatique. (Par Stéphane Castagné, pour DataSecurityBreach.fr – Responsable Commercial France – Barracuda Networks)

Une technologie anti pirate signée Microsoft

Des milliers de cas démontrent que les pirates, une fois dans un serveur infiltré, se cachent et agissent sans même que le propriétaire s’en aperçoive. Il est souvent trop tard quand la première alerte apparait sur les prompteurs. Microsoft va proposer un cerbère capable de repérer la moindre modification.

Les pirates sont connus pour se cacher sur les réseaux d’entreprise, et cela durant des semaines, des mois. Ils collectent des données, surveillent ou se servent de l’espace à différentes fins (DDoS, Bot, Chat, stockage, entrainements, …). Microsoft affirme qu’il veut aborder ce problème pour ses clients et a annoncé que son Advanced Threat Analytics, qui sera proposé le mois prochain, est capable de bloquer les pirates. Son outil apprend, un peu à la sauce « Chappie » [Le film].

L’apprentissage de la machine et de l’analyse comportementale doivent permettre de détecter les activités malveillantes qui pourraient passer inaperçus normalement. Une technologie acquise, l’année derniére par Microsoft, lors de l’achat de la start-up israélienne Aorato.

L’ATA utilise les temps de déplacement et les données géographiques pour détecter une connexion saine, ou non. Bref, si vous travaillez à Dunkerque et que la connexion, ou des téléchargements, se font à Manille, ATA alerte et bloque. A suivre !

Amende : 3 millions d’euros pour ne pas avoir protégé les mots de passe clients

Deux entreprises de télécommunications américaines condamnées à payer 3,5 millions de dollars pour ne pas avoir correctement protégé leurs clients.

TerraCom et YourTel America, deux fournisseurs de services mobiles, ont été pris la main dans le pot de miel. En 2014, il était découvert les dossiers des clients des deux entreprises. 300.000 clients ont été impactés par cette mauvaise maîtrise de leurs informations par les sociétés en qui ils avaient confiance. La FCC, Federal Communications Commission vient de condamner (2) les deux sociétés à 3,5 millions de dollars d’amende.

Vos ex-collaborateurs emportent avec eux plus que vous ne croyez

Selon le Bureau des statistiques du travail des États-Unis (Bureau of Labor Statistics), 965 000 personnes ont quitté leur poste dans l’industrie des services en 2014. À l’âge des fuites de données massives, des exigences en matière de conformité et des budgets IT réduits, l’on se pose inévitablement les questions suivantes : Ces entreprises ont-elles fermé les comptes, droits de connexion et accès aux informations d’entreprise de leurs ex-collaborateurs ? Ont-elles récupéré leurs biens matériels et logiciels d’entreprise ?

Les réponses sont surprenantes. Selon une enquête menée auprès d’ex-collaborateurs par Osterman Research et Intermedia, c’est stupéfiant : 89 % des personnes interrogées ont conservé l’accès à au moins une application d’un précédent employeur et 45 % ont toujours accès à des données confidentielles. Un nombre surprenant (49 %) de ces personnes admet s’être connecté à un compte après avoir quitté l’entreprise.

Comment expliquer qu’un si grand nombre d’entreprises aient négligé de prendre des précautions simples et de bon sens concernant leurs anciens collaborateurs ? Le plus souvent, c’est dû aux processus et outils d’accueil et de départ des collaborateurs qui sont peu performants. Dans de nombreuses entreprises, ces processus et workflows sont non seulement manuels et un peu hasardeux, mais ils reposent sur de nombreux acteurs différents qui interagissent rarement.

Il est fréquent qu’un nouveau collaborateur doive s’adresser à une personne pour obtenir un téléphone, à une autre pour un ordinateur portable, et encore une autre pour avoir un compte d’e-mail et un accès réseau. Lorsque ce collaborateur quitte l’entreprise, on ne sait plus vraiment qui est responsable de la récupération de tous ces équipements et logiciels : le supérieur du collaborateur ou toutes les personnes citées plus haut. À moins qu’une seule personne ou un seul outil ne fasse le suivi de tous les biens et processus, des failles sont inévitables.

Les piètres performances des outils et processus d’accueil des nouveaux collaborateurs et de départ des anciens sont nuisibles pour de nombreuses raisons, notamment : Productivité, Finances, Sécurité et Conformité. La meilleure façon d’éviter les faiblesses dans la gestion des biens, et l’accueil ou le départ des collaborateurs, consiste à consolider et à automatiser les processus.

Commencez par regrouper tous les processus hétérogènes qui interviennent dans l’accueil ou le départ des collaborateurs pour réduire leur nombre autant que possible. Lorsqu’un nouveau collaborateur arrive, un seul processus doit lui fournir tous les biens (équipements, logiciels, accès aux e-mails, aux applications et autres comptes, etc.) nécessaires pour qu’il puisse commencer à travailler. Les départements IT ou RH doivent générer une liste unique des biens affectés, sur la base du rôle du nouveau collaborateur dans l’entreprise.

Tous les processus d’arrivée et de départ des collaborateurs doivent être aussi automatisés que possible, car des processus et workflows manuels disparates génèrent souvent des erreurs, des omissions et des non-respects (intentionnels ou non) des processus.

Un solide outil de gestion du cycle de vie des biens s’avère utile, en automatisant les workflows de processus qui accélèrent toutes les notifications, étapes et approbations nécessaires pour effectuer avec succès les opérations d’accueil ou de départ d’un collaborateur. Comme ils font le suivi de tous les biens matériels et logiciels, de l’approvisionnement à l’affectation, la réaffectation et jusqu’à la mise au rebut, les outils de cycle de vie des biens permettent de déterminer rapidement la disponibilité des biens, et de les réaffecter à d’autres rôles ou individus. Vous pouvez également récupérer et réaffecter des biens lorsqu’un collaborateur change de poste ou quitte l’entreprise, ce qui accélère l’approvisionnement en nouveaux biens si aucun n’est disponible. Vous garantissez ainsi qu’aucun bien ni accès ne quitte l’entreprise, ni ne reste inutilisé.

Les processus de gestion des biens et d’arrivée/départ de collaborateurs sont truffés d’erreurs, donc générateurs de risques et de dépenses inutiles. Vous connaissez les biens dont vous disposez, leur emplacement et leurs performances. Ainsi, les nouveaux collaborateurs sont plus rapidement productifs et les entreprises évitent les failles de sécurité, les dépenses inutiles et les amendes pour non-conformité. (Par Jacob Christensen, pour DataSecurityBreach.fr, Marketing Product Manager chez LANDESK)

Piratage de données bancaires pour le groupe Hôtelier Trump ?

Une alerte concernant une importante fuite de données bancaires touche le groupe Hôtelier du milliardaire américain Donald Trump.

Décidément, l’ambiance n’est pas à la fête pour le milliardaire américain Donald Trump. Son concours de Miss USA vient d’être rejeté des chaines de télévisions Univision et NBC après des propos racistes du candidat aux présidentielles américaines. Donald Trump considérant les migrants mexicains comme des personnes dangereuses.

L’homme d’affaire doit faire face à un nouveau problème de taille. Il semble que ses hôtels ont été victimes d’un piratage informatique. Pour le moment le groupe hôtelier n’a pas confirmé. Par la bouche de son vice-président, Eric Trump, l’entreprise explique enquêter sur de très nombreuses plaintes concernant des utilisations frauduleuses de cartes bancaires de clients.

D’après une enquête en cours au sein de Visa et MasterCard, plusieurs hôtels Trump sont concernés dont ceux de Chicago, Honolulu, Las Vegas, Los Angeles, Miami, et New York. Un pirate serait passé par un serveur centralisateur ? Les premières fuites ont été détectées en Février à 2015.

En mars 2015, c’était le groupe Mandarin Oriental d’être touché par une fuite de données. En avril, et pour la seconde fois en 1 an, le White lodging.

Piratage dans le petit monde de la TV connectée

Le service PLEX, spécialisé dans la diffusion de films dans les télévisions connectées, piraté. Les clients sont invités à changer leur mot de passe.

Des pirates informatiques ont réussi à prendre la main sur le forum et le blog du serveur de l’entreprise Plex. La société, dont le logiciel éponyme permet de diffuser des films, photos et vidéo sur sa télévision connectée, vient d’avertir ses clients et propose de changer le mot de passe utilisé pour accéder à ses services. Le pirate aurait eu accès aux adresses IP, messages privés, courriels et aux mots de passe (chiffrés MD5, NDR) du forum.

Dans un message, la société a attribué le problème à une vulnérabilité PHP/IPB qui a permis au pirate de mettre la main sur les données. DataSecurityBreach.fr peut confirmer qu’un pirate, du nom de Savaka, a réclamé 1500 £ pour ne pas diffuser les informations volées. Il a prouvé son passage en modifiant la page index de l’administration du site.

Dear Plex User,

Sadly, we became aware this afternoon that the server which hosts our forums and blog was compromised. We are still investigating, but as far as we know, the attacker only gained access to these parts of our systems. Rest assured that credit card and other payment data are not stored on our servers at all.

If you are receiving this email, you have a forum account which is linked to a plex.tv account. The attacker was able to gain access to IP addresses, private messages, email addresses and encrypted forum passwords (in technical terms, they are hashed and salted). Despite the password encryption measures, we take your privacy and security very seriously, so as a precaution, we’re requiring that you change your password.

Be sure to choose a strong password, never share it, and never re-use passwords for different accounts! Even better, use a password manager (1Password, for example) to manage a unique password for you. Access to your Plex account will be blocked until you do so.

Please follow this link to choose a new password.
We’re sorry for the inconvenience, but both your privacy and security are very important to us and we’d rather be safe than sorry!
We will post more detailed information on our blog shortly. Thanks for using Plex!

The Plex Team

Nos données de santé, source de convoitises pour les pirates

91% des entreprises de santé interrogées ont subi une violation de leurs données au cours de ces 2 dernières années selon l’étude « Privacy and Security of Healthcare Data » du Ponemon Institute et seulement 32% pensent avoir les ressources suffisantes pour parer ces incidents1. La majorité des entreprises de santé sont désarmées et ne sont absolument pas en mesure de répondre à la Réglementation européenne sur la Protection des Données qui devrait être mise en application très prochainement.

L’étude Ponemon montre que, pour la première fois, les attaques criminelles sont la première cause de violations de données de santé. Jusqu’alors, la perte ou le vol d’ordinateurs, de tablettes ou de smartphones par négligence avait conduit à des violations de données. Aujourd’hui, les choses ont évolué. Nous passons des violations de données accidentelles ou opportunistes aux violations de données intentionnelles. Une tendance qui s’affirme. Les cybercriminels ciblent de plus en plus les données médicales. Ils exploitent cette mine de renseignements personnels, financièrement lucratifs. Les centres hospitaliers, laboratoires d’analyses médicales, pharmacies… ne disposent malheureusement pas des ressources, des processus et des technologies pour prévenir et détecter les attaques contre les données sensibles qu’elles manipulent. Leur défaillance, régulièrement pointée du doigt par les médias, se traduit par la fuite des données sensibles de leurs patients. On se souvient par exemple, des centaines de résultats d’analyses médicales provenant d’une soixantaine de laboratoires, accessibles sur Internet à cause d’une faille2 ou de la publication du dossier médical de Michael Schumacher3.

Si l’on observe une légère hausse des investissements des organisations de santé pour protéger les informations médicales, ces efforts restent cependant insuffisants pour contrer les cyber-menaces qui évoluent très rapidement. La moitié des entreprises de santé ont peu confiance – parfois même pas du tout – dans leur capacité à détecter une perte ou un vol de données de leurs patients.

Une faiblesse en décalage avec les obligations légales
En France, les informations relatives à l’état de santé physique et psychique d’un patient sont des données personnelles, soumises au Code de la santé publique et à la loi Informatique et Liberté. La Réglementation générale sur la protection des données, en cours d’adoption par le Conseil de l’Union Européenne vient compléter la législation française. Les professionnels et les établissements de santé sont strictement tenus au respect des obligations concernant la collecte, l’utilisation, la communication, le stockage et la destruction des données à caractère personnel. En pratique, les professionnels de la santé doivent prendre toutes les précautions nécessaires pour empêcher que ces données soient modifiées, effacées (par erreur ou volontairement) et que des tiers non autorisés y aient accès.

L’absence de mise en œuvre de mesures de sécurité est considérée comme une atteinte grave à la protection de la vie privée et peut être pénalement sanctionnée (amende et emprisonnement). Cependant, de nombreux professionnels ont des difficultés à se mettre en conformité avec la réglementation. En milieu hospitalier, par exemple, médecins, infirmiers et personnel administratif n’ont pas toujours été sensibilisés aux règles à respecter en matière de sécurité et de confidentialité des données.

Une réglementation unique pour toute l’Europe
La mise en œuvre de la future Réglementation sur la Protection des Données qui s’effectuera de manière identique dans tous les pays membres contrairement à la Directive actuelle, devrait avoir d’importantes conséquences sur l’organisation de l’entreprise. Comment respecter cette norme qui va engendrer des changements au niveau de la collecte, du stockage, de l’accessibilité et de l’utilisation des données ?

Toute violation des données devra obligatoirement être déclarée. Concrètement, un système actif de surveillance des échanges et des flux de données devient nécessaire. Il convient en premier d’examiner avec attention le rôle et la responsabilité des différents acteurs de l’entreprise manipulant les dossiers médicaux. Il faut engager une sensibilisation forte au respect des bonnes pratiques, puis établir une politique de sécurité et de protection des données. On commence par évaluer les risques pour décider les actions à adopter, en fonction des faiblesses de l’établissement de santé. Le point clé est la visibilité sur la circulation des données au sein du réseau, compte tenu du risque que leur transmission génère. La mise en place d’une solution de SIEM* est le moyen efficace pour surveiller la sécurité des systèmes informatiques, contrôler l’accès aux systèmes où sont stockées les données médicales et recevoir des alertes quand on y accède. Les logs fournissent une vision complète et exacte de ce qui a été consulté. Informer rapidement les organismes de réglementation en cas de violation des données devient alors possible ainsi que configurer des rapports prouvant la conformité à la Réglementation.

Anticiper la mise en place de solutions efficaces
La communauté des entreprises de santé partage des données vulnérables et offrent une grande surface d’attaque avec de nombreux points d’accès aux cybercriminels de plus en plus habiles à dérober et exploiter des informations personnelles. Aussi convient-il de faire appel à des experts pour mettre en place dès à présent ces exigences en matière de sécurité et de conformité. On peut bien sûr penser que rien ne presse, la mise en œuvre effective de la réglementation étant prévue après une période de deux ans. L’expérience montre que l’examen d’une structure organisationnelle ainsi que les mises à niveau nécessaires du système prennent du temps. (par Frédéric Saulet, pour DataSecurityBreach.fr, Directeur Régional Europe du Sud de LogPoint)

* SIEM : Security Information and Event Management – Le principe du security information management est de gérer les événements du système d’information (Wikipédia).

Les organismes de services financiers EMEA de plus en plus touchés par des menaces de fraudes en ligne

Les décideurs IT de dix pays mettent en évidence les pertes financières et les préoccupations réglementaires liées à aux logiciels malveillants, au phishing, aux vols d’identifiants et aux piratages de profils d’employés.

Les organismes de services financiers de la zone EMEA sont de plus en plus exposés et préoccupés par l’augmentation des menaces de fraude en ligne, selon une enquête commandée par F5 Networks. Les décideurs informatiques révèlent qu’ils doivent constamment faire face à des attaques significatives ciblant les finances et la réputation de leur entreprise dues à des programmes malveillants, des campagnes de phishing, des attaques visant à s’accaparer des identifiants utilisateurs ou détourner leurs sessions. Cela a pour conséquence de générer un besoin croissant pour des solutions multi-couches de protection et de détection des fraudes en ligne et sur mobiles.

L’enquête a révélé que 48 % des organisations ont, au cours des deux dernières années, déjà subi des pertes financières allant de 70 000 € à 700 000 € et ayant pour origine des fraudes en ligne. 9 % de ces actes de malveillance ont permis de dérober des sommes supérieures à 700 000 € et 3 % supérieures à 1 000 000 €.

73 % ont cité les atteintes à la réputation comme étant la principale préoccupation liée à ces attaques, alors que 72 % craignent la perte de revenus et le fardeau de devoir effectuer des audits de sécurité complets. Parmi les autres impacts négatifs majeurs figurent la perte de la confiance et la fidélité des clients (64 %) et les amendes potentielles par les organismes de réglementation (62 %).

« Que ce soit des attaques de type phishing, Man-in-the-middle, Man-In-The-Browser ou d’autres activités basées Trojan comme des injections Web, des détournements de formulaire en ligne, des modifications de pages ou des modifications de transactions, les dangers de la fraude en ligne sont inévitables et vaste pour les entreprises quel que soit leur secteur », déclare à DataSecurityBreach.fr Gad Elkin, Directeur EMEA de la sécurité de F5. Plus que jamais, il est essentiel de comprendre la nature des menaces et de mettre en œuvre des solutions qui éliminent les attaques avant qu’elles ne puissent vraiment nuire. Ceux qui feront cela correctement seront récompensés par la fidélité de leurs clients et en retireront les bénéfices. »

Plus de 35% des répondants ont affirmé avoir subi des pertes liées à des fraudes ayant pour origine une large variété d’attaques en ligne. Les programmes malveillants ont été le principal coupable (75 %), suivie par le phishing (53 %), le piratage d’identifiants (53 %) et le piratage de session (35 %).

Lorsque les stratégies de défense ont été abordées, 37% des entreprises interrogées ont déclaré qu’elles préféraient la défense à fraude en ligne faisant appel à des solutions hybrides combinant des prestations et sur site ou en ligne. Le chiffre est plus élevé (59 % des répondants) pour les organisations de plus de 5.000 employés.

55 % des répondants affirment avoir adopté des solutions de prévention contre la fraude multi-couches. Les solutions embarquées sur les terminaux sont les plus populaires (62 %), suivie par l’analyse de navigation de page pour identifier les schémas de navigation suspects (59 %), et l’analyse des liens de relations entre les utilisateurs, les comptes et les terminaux pour détecter les activités criminelle et/ou les abus (59 »%). Les solutions fournissant une analyse comportementale de l’utilisateur et de comparaison pour des canaux spécifiques figurent également en bonne place (55 %).

Ce contexte explique les raisons pour lesquelles il y a une demande croissante pour des solutions en ligne bénéficiant de capacités de protection contre la fraude sans nécessité d’installer quoi que ce soit sur le poste. Ceux-ci permettent aux organisations d’équiper en temps réel tous les types de postes contre toutes les variétés de menaces en ligne sans que l’utilisateur ait à faire quoi que ce soit, écartant tout danger dans des situations telles que des injections de code HTML ou de script malveillants. Cela inclut les menaces les plus récentes telles comme le malware Dyre, qui dispose d’un large éventail de capacités qui en font l’un des chevaux de Troie bancaires les plus dangereux actuellement. « Les fraudeurs continuent d’évoluer et d’exploiter le maillon le plus faible : l’utilisateur final », conclut Gad Elkin.

250 employés ont été interrogés au Royaume-Unis, France, Allemagne, Italie, Espagne, Pays-Bas, Suède, Pologne et Arabie Saoudite.

Stratégies BYOD : sécuriser les données d’entreprise dans un monde mobile

Les environnements des entreprises évoluent rapidement. Dans ce contexte, les employés doivent pouvoir accéder à leurs informations professionnelles à tout moment en situation de mobilité, ceci afin d’améliorer leur productivité, leur niveau de satisfaction et les performances globales de leur entreprise. Souvent, les salariés veulent accéder à leurs messageries, calendriers, contacts, données clients et documents sensibles sur leurs appareils personnels, ce qui représente un potentiel cauchemar pour les départements informatiques, qui doivent s’assurer de la sécurité des informations professionnelles.

Selon les prévisions du Gartner, d’ici 2017, un employeur sur deux exigera de ses employés qu’ils utilisent leurs appareils personnels au travail. Les entreprises doivent donc impérativement prendre des mesures appropriées afin de s’assurer que la vague de smartphones et de tablettes pénétrant dans le périmètre de l’entreprise soit sécurisée. Pour cela, elles doivent mettre en œuvre des stratégies BYOD offrant de la flexibilité aux employés, et assurant dans le même temps la sécurité au niveau de l’entreprise. De telles stratégies peuvent faire toute la différence, car elles instaurent des règles strictes permettant de faire face à diverses problématiques essentielles : quels appareils et applications sont autorisés à accéder aux informations professionnelles ; qui est responsable des applications et des données ; quelles données doivent être en lecture seule / modifiables, ou disponibles hors ligne ; ou encore qui doit payer pour la consommation professionnelle de données et de voix.

Déterminer en quoi il est nécessaire de migrer vers le BYOD
La première étape dans la mise en œuvre d’un programme BYOD efficace est tout d’abord de définir en quoi celui-ci est nécessaire, et d’établir clairement des indicateurs de réussite. Un tel programme est-il nécessaire pour réduire les dépenses d’investissements et les frais ? L’objectif est-il de stimuler la productivité du personnel ? Lorsque l’on détermine la nécessité d’un programme BYOD pour une entreprise, il est important de s’assurer que le raisonnement adopté soit en accord avec les objectifs de l’entreprise. Une fois le but clairement défini, il sera plus facile pour les dirigeants de justifier un investissement continu dans un tel programme, et l’adoption de ce dernier devrait également s’en trouver renforcée dans l’entreprise.

Il est également essentiel de démontrer la valeur ajoutée du BYOD pour l’entreprise, et de présenter ses avantages et ses risques aux utilisateurs mobiles, ainsi que la façon dont le programme envisagé permettra d’en assurer la protection. Les équipes informatiques pourront faire l’objet d’un certain rejet lors d’un tel déploiement  : en effet, certains employés verront cela comme une excuse pour accéder aux appareils personnels, craindront de voir leurs informations personnelles effacées, ou encore que leur consommation personnelle de données et de voix augmente sur leurs forfaits mensuels. Cependant, les départements informatiques prenant le temps d’expliquer en quoi ce programme leur sera bénéfique et permettra de les protéger ont alors plus de chance de rencontrer de l’enthousiasme de la part des utilisateurs plutôt que l’inverse. Une stratégie BYOD pertinente implique que chacune des parties soit sur la même longueur d’onde dès le début pour que les organisations récoltent rapidement les fruits de leurs efforts.

Exposer les droits de la société en matière de gestion de données professionnelles sur des appareils personnels
Lors de la mise en œuvre d’un programme BYOD, un contrat de licence de l’utilisateur final (EULA) devrait clairement définir le comportement attendu des employés et promouvoir le respect volontaire des stratégies d’entreprise et de sécurité, tout en protégeant leur vie privée. Le cas échéant, la stratégie mise en œuvre devrait clairement préciser que l’entreprise se réserve le droit d’effacer ses données et applications lorsque nécessaire.

Beaucoup d’organisations se tournent vers une solution de conteneurisation garantissant une séparation nette entre les données professionnelles et personnelles. Une telle solution permet de satisfaire le besoin de confidentialité des employés mobiles, ainsi que les exigences des départements informatiques en matière de sécurité des données professionnelles. De cette façon, en cas de vol ou de perte de l’appareil, ou si un employé quitte l’entreprise, seules les données professionnelles seront effacées à distance, réduisant ainsi le risque de compromission de données sensibles. Pour les équipes informatiques, la conteneurisation est un gage de confiance quant à la sécurité des données. Ils peuvent ainsi promouvoir en toute sérénité l’utilisation d’informations professionnelles sur des appareils appartenant aux employés ou à l’entreprise dans le cadre de workflows mobiles. Du côté des employés, le fait que leurs messageries personnelles, photos et bibliothèques musicales soient inaccessibles et ne puissent pas être effacées par leur département informatique est une source supplémentaire de tranquillité quant au respect de leur vie privée.

Envisager des solutions de facturation partagée
Le BYOD est récemment devenu un point de discorde quant à l’identité de celui devant payer la facture mensuelle de services de téléphonie mobile. Ainsi, en 2014, la Cour suprême et la Cour d’appel de Californie se sont prononcées sur la question.

La facturation partagée peut faciliter la transition vers la gestion de la mobilité d’entreprise (EMM) pour les entreprises, en leur évitant des problématiques complexes d’indemnisation, de remboursement et d’attribution de crédits. Au lieu d’inclure les frais de données liées à une consommation professionnelle sur des forfaits mensuels personnels, l’accès aux applications fournies par l’entreprise peut être directement facturé à l’employeur et aux partenaires. Les remboursements peuvent ainsi être rationalisés en même temps que les questions de responsabilité des RH et juridique quant aux contenus des utilisateurs. Plus besoin d’enregistrer des notes de frais, de payer des frais cachés liés au traitement des remboursements, ou de gérer des questions fiscales liées à des indemnisations.

En intégrant un forfait de données professionnel et une facturation partagée à leurs stratégies BYOD, les dirigeants d’entreprise peuvent accélérer la transition de leur personnel vers la mobilité.

Impliquer également les employés
Malgré toutes les meilleures intentions du monde, les services juridiques et informatiques élaborent parfois une stratégie BYOD manquant de convivialité. Lorsqu’ils définissent et déploient une telle stratégie, les dirigeants doivent impliquer tous les services, y compris les RH, le service financier et juridique, les responsables de la sécurité et de la confidentialité, ainsi que les responsables informatiques. Ils pourront ainsi exposer à ces principaux acteurs un cadre de meilleures pratiques de BYOD structuré afin de favoriser une prise de décision rapide et collaborative.

La mobilité est essentielle pour lutter contre la concurrence. En donnant aux employés la possibilité de travailler sur les appareils de leur choix, il est possible d’accélérer les tâches quotidiennes et d’accroître ainsi la productivité des salariés et leur degré de satisfaction. Lors de la mise en œuvre de stratégies BYOD complètes, les dirigeants doivent clairement présenter les arguments en faveur du déploiement de tels programmes, et établir avec précision le droit de leur entreprise à gérer les données professionnelles stockées sur les appareils personnels. Ils doivent également envisager de mettre en place une solution de conteneurisation afin de séparer les données professionnelles et personnelles, et réfléchir à une solution de facturation partagée afin d’éviter les problématiques complexes d’indemnisation, de responsabilité quant au contenu de l’utilisateur final et de contrôle des notes de frais des employés.

Enfin, il est essentiel d’aborder le déploiement de stratégies et de solutions BYOD dans votre entreprise comme un effort commun à tous vos services. Créez une campagne de marketing interne proactive destinée aux utilisateurs d’appareils mobiles en vous assurant qu’elle soit engageante et facile à comprendre, comme avec des vidéos, des posters, des FAQ, ou des événements dédiés à des endroits stratégiques. Expliquez clairement les avantages, et comment votre stratégie et votre solution BYOD permettent de gérer les risques au niveau des données professionnelles. La clé d’une stratégie efficace est de s’assurer que le programme créé profite aux employés tout en renforçant la sécurité des données professionnelles. (Par Florian Bienvenu, pour datasecuritybreach.fr, vice-président UK, Europe Centrale, Europe du Sud et Moyen Orient de Good Technology)

Une nouvelle menace nommée Equation Group

En février dernier, la sphère de la cyber-sécurité a pris conscience des efforts déployés par Equation Group, organisation de cyber-espionnage de haut niveau qui exploite les firmwares HDD et SSD.

McAfee Labs a évalué les modules de reprogrammation exposés et a observé qu’ils pouvaient reprogrammés les firmwares des HDD et des SSD. Ainsi, les logiciels malveillants peuvent être rechargés et infecter l’ordinateur à chaque redémarrage du système : ils ne disparaissent pas, même en cas de reformatage du disque ou de réinstallation du système d’exploitation. Une fois infecté, le logiciel de sécurité ne peut plus détecter le malware qui est caché au sein du système. « Chez Intel Security, explique David Grout, nous avons suivi de près ces types de menaces hybrides software/hardware. En effet, bien que ces logiciels malveillants aient historiquement été déployés pour des attaques ciblées, les entreprises doivent se préparer à l’inévitable volet commercial que pourraient représenter de telles menaces à l’avenir ».

Il est nécessaire pour une entreprise de prendre des mesures pour renforcer la détection des menaces existantes telles que l’hameçonnage intégrant des liens frauduleux et les malwares infestant les périphériques USB, et d’envisager des solutions qui pourraient prévaloir l’exfiltration des données.

56 millions de données exposées par des applications de smartphones

Des chercheurs de l’Université Allemande de Darmstadt annoncent que les développeurs d’applications prennent la sécurité des données par dessus la jambe.

Leurs applications auraient exposé 56 millions de données en utilisant les services de Google, Amazon et Facebook. L’équipe de chercheurs a testé 750.000 applications Android et iOS. Ils ont utilisé les services d’identité « fédérés » afin de s’authentifier plus simplement, plus rapidement, entre leurs différents appareils. Sauf qu’il semble y avoir un gros problème. L’équipe a trouvé des données, y compris les adresses mails, mots de passe, et les dossiers de santé, se promenant entre les connexions. Autant de données qui pourraient être exposées à des yeux indiscrets, et les comptes respectifs compromis si les jetons d’authentifications étaient  capturés. « Les développeurs d’applications utilisent des bases de données dans le cloud, explique les étudiants. Ils stockent  les données des utilisateurs, mais apparemment ignorent les recommandations de sécurité des données que recommandent pourtant les fournisseurs cloud

Les pirates ont besoin, cependant, d’extraire la clé de l’application et/ou exploiter une connexion sans fil non sécurisée, pour agir. Les sociétés qui hébergent ont besoin de beaucoup moins ! (The Register)

Les Risques Cachés de l’Explosion du Trafic HTTPS

Si vous n’êtes pas préparé à une forte augmentation du trafic HTTPS, votre réseau est menacé !

Paradoxal, non ? HTTPS, après tout, est une bonne chose. Comme tout le monde le sait, HTTPS est la version sécurisée du Hypertext Transfer Protocol (HTTP), qui utilise le protocole SSL/TLS pour crypter et protéger le trafic web. Si vous souhaitez privatiser n’importe quelle action en ligne — qu’il s’agisse de l’achat de nouvelles chaussures ou du paiement d’une facture— HTTPS est ce qui protège vos communications des regards mal intentionnés.

Les professionnels de la sécurité ont toujours encouragé l’utilisation d’HTTPS par les applications web. Il semble que leurs vœux aient été exhaussés. Comme le confirme l’ouvrage The Cost of “S” in HTTPS, 50% des flux sur le web sont aujourd’hui sécurisés. En fait, beaucoup des plus grands sites web ont adopté HTTPS comme leur protocole par défaut, dont Google, Facebook et YouTube. Mieux encore, les fournisseurs de navigateurs tels que Google ont même commencé à considérer toutes les pages non HTTPS comme non sécurisées, un nouveau pas vers la standardisation par défaut d’HTTPS.

De nombreux facteurs contribuent à cette ruée vers HTTPS, dont le principal est probablement « l’effet Snowden. » Certes, les spécialistes ont toujours compris la facilité avec laquelle nos conversations sur Internet peuvent être interceptées, mais les documents secrets dévoilés par Edward Snowden n’ont pas seulement permis au grand public d’identifier le risque du ‘man-in-the-middle’ (MitM), mais ont prouvé que les gouvernements y ont participé activement depuis des années. Maintenant que nous savons que quelqu’un nous regarde, nous prenons la protection de nos conversations beaucoup plus sérieusement.

Au sens large, cet accroissement du trafic HTTPS est une bonne chose. Toutefois, sous la surface il dissimule deux écueils qui peuvent sérieusement affecter votre sécurité, si vous n’y êtes pas préparé. Spécifiquement,

1.      Les méchants utilisent aussi HTTPS,
2.      La sécurisation de ce trafic entraîne de nouvelles contraintes en matière de performances.

Les avantages que vous retirez d’HTTPS profitent également aux hackers. Les pirates veulent dissimuler leurs communications, qu’il s’agisse de leurs téléchargements de malware ou des canaux de commande et de contrôle (C&C) que leur malware utilise pour communiquer avec eux. HTTPS fournit un mécanisme très efficace pour faire précisément cela. Les méchants ont compris que HTTPS est typiquement un « trou noir » pour vos outils de sécurité réseau, et ont donc commencé à l’utiliser pour leurs activités malveillantes, afin de les masquer.

C’est la raison pour laquelle il est plus important que jamais de commencer à sécuriser HTTPS. Vous avez besoin de solutions de sécurité capables de “voir” à l’intérieur des communications HTTPS, et d’y appliquer les scans traditionnels de sécurité (IPS, antivirus, etc.).

Heureusement, il existe une solution à ce problème. De nombreuses solutions de sécurité réseau actuelles, telles que de nouvelles versions de boîtiers UTM, des firewalls de nouvelle génération (NGFW), et d’autres proxies de sécurité, disposent de passerelles sur la couche applicative ou de capacités d’inspection DPI pour HTTPS. En gros, ils effectuent une attaque MitM « amicale » sur HTTPS afin de le décrypter de façon temporaire et de mettre en œuvre les scans de sécurité. Le boîtier ré encrypte ensuite le trafic pour le délivrer au réseau. Ces outils nécessitent que vos clients acceptent un certificat numérique, afin de maintenir la confidentialité de la connexion HTTPS. En bref, ils vous permettent de potentiellement détecter des activités malicieuses dans un trafic normalement indéchiffrable, sans remettre en cause la vie privée de vos utilisateurs.

Toutefois, sécuriser le trafic HTTPS met en lumière et exacerbe le second problème – les contraintes d’HTTPS en matière de performances. En termes simples, encrypter quelque chose consomme des ressources de traitement et accroît le volume du trafic. Si vous désirez savoir dans quelle proportion, il vous suffit de consulter l’ouvrage que j’ai cité précédemment. En gros, les conséquences ne sont pas négligeables, mais nous disposons généralement des ressources processeur et réseau pour les gérer… Ceci, avant d’y ajouter les solutions de sécurité dont j’ai parlé plus haut.

Comme je l’ai mentionné précédemment, des solutions de sécurité peuvent maintenant décrypter le trafic HTTPS. Toutefois, ce décryptage double le temps de traitement d’HTTPS, le boîtier de sécurité devant décrypter puis ré encrypter avant de délivrer le trafic. De plus, dans l’environnement actuel riche de menaces, vous souhaiterez que plusieurs couches de sécurité (par exemple IPS, antivirus, détection C&C) contrôlent votre trafic HTTPS. Si vous avez mis en place un contrôle de sécurité séparé pour chaque couche, chacune d’entre elles nécessite un traitement, ce qui ralentit singulièrement le trafic. Si 50% du trafic Internet est en protocole HTTPS, cela représente un vrai goulet d’étranglement.

La solution ? Utiliser des contrôles de sécurité tout en un conçus pour traiter la charge HTTPS. Un des avantages des nouveaux boîtiers UTM et des firewalls de nouvelle génération est que leurs couches de sécurité sont toutes appliquées en un seul point. Ceci veut dire qu’ils n’ont à décrypter HTTPS qu’une seule fois. Cependant, si votre sécurité dépend à ce point d’un seul boîtier, mieux vaut être sûr qu’il sera capable de supporter la charge. Beaucoup de boîtiers UTM ou Next Generation Firewalls mettent en avant leurs performances firewall, qui ne tiennent pas compte des autres contrôles de sécurité et de l’inspection des paquets HTTPS. Il est donc très important d’examiner la performance du boîtier lorsque tous les contrôles de sécurité sont activés, et spécialement l’inspection des paquets HTTPS. Ce n’est qu’une fois cette vérification faite que vous saurez si votre boîtier sera capable ou non de traiter, et de sécuriser, l’explosion des flux HTTPS.

Pour résumer, l’usage accru du protocole HTTPS est une très bonne chose pour la sécurité du web. Toutefois, vous devez vous assurer que vos solutions de sécurité en place sont capables réellement d’identifier les menaces à l’intérieur d’HTTPS, et qu’elles peuvent supporter l’accroissement de la charge HTTPS induit par l’effet Snowden. (Par Pierre Poggy, Country Manager Watchguard France / TechDirt)

Secteur médical : la prochaine cible des cybercriminels ?

Le système d’informations de santé, qui regroupe les dossiers électroniques des patients jusqu’aux dispositifs médicaux, est plus vulnérable qu’on ne l’imagine. Et les enjeux sont bien trop importants pour fermer les yeux sur cette problématique épineuse.

Aujourd’hui, sur le marché noir, les données de patients se monnayent jusqu’à 20 fois plus cher que les données de cartes de paiement récupérées, par exemple, à l’issue d’un piratage visant un acteur de la grande distribution. Les données médicales sont en effet détaillées, riches et regorgent d’informations que recherchent les cybercriminels pour perpétrer leurs détournements d’identité et autres fraudes. De plus, les patients prennent bien plus de temps à se rendre compte du détournement de leurs informations de santé, jusqu’à près d’un an pour certains patients. En effet, pour identifier
une utilisation frauduleuse des cartes de paiement, les banques disposent d’algorithmes qui repèrent rapidement les activités suspectes et prennent souvent automatiquement les mesures de sécurité qui s’imposent. Ces mesures de sécurité n’existent pas dans le domaine médical. Les acteurs de santé, eux-mêmes, ne se rendent pas toujours compte de la vulnérabilité des nombreux systèmes qu’ils utilisent face aux cyber-attaques:

Cyber-attaques traditionnelles
Ces attaques, qui s’en prennent à tous les profils d’organisations, sont véhiculées par des logiciels malveillants, phishing, chevaux de Troie ou encore des ransomware. Par rapport aux autres secteurs d’activité, celui de la santé est particulièrement vulnérable en l’absence de mesures de protection
intégrées et compte tenu d’une priorité moindre accordée à la sécurité. Ces logiciels malveillants, qu’ils soient déployés via des attaques ciblées, des sites Web piratés ou des dispositifs mobiles infectés, entraînent une divulgation de données confidentielles et aboutissent à des coûts importants et à
des tâches de restauration post-incident particulièrement chronophages. Ces attaques ne sont pas vraiment nouvelles, mais elles gagnent en sophistication et la perte de données de patients est une vraie problématique. Les cybercriminels ont d’ailleurs conçu des plateformes entières de logiciels malveillants qui peuvent être personnalisées pour attaquer les acteurs de santé.

Dispositifs médicaux connectés
Aujourd’hui, des moniteurs cardiaques aux pompes à perfusion, tous les équipements peuvent être connectés à un réseau et s’interfacer avec les dossiers électroniques de patient, permettant ainsi d’activer des alertes en temps réel à l’intention du personnel soignant. Cette interactivité est, dans la
perspective du patient, une bonne nouvelle. Mais au niveau sécurité, il s’agit plutôt d’un cauchemar.

La majorité de ces équipements, et notamment les IRM, les scanners et autres équipements de diagnostic n’ont pas été conçus en faisant de la sécurité une priorité. Ils sont nombreux à utiliser des systèmes d’exploitation comme Microsoft Windows et des logiciels conçus pour collecter les données… Et pas forcément les garder en sécurité. Le piratage de ces appareils est donc possible et une fois compromis, les cybercriminels peuvent accéder directement aux systèmes de données cliniques avec lesquels ces équipements sont interfacés.

Les données de patients ne constituent pas les seules ressources pouvant être piratées via des dispositifs connectés. Les cyber-terroristes pourraient potentiellement manipuler les machines et porter atteinte aux patients. D’ailleurs, dès 2011, un chercheur en sécurité a su démontrer qu’une pompe à insuline pouvait être piratée et utilisée pour injecter une dose mortelle d’insuline[1].

Les équipements de santé personnels et résidentiels
Les dispositifs de santé prolifèrent bien au-delà des murs des hôpitaux. Les équipements de santé personnels, les applications de santé et autres coachs de fitness sont de plus en plus nombreux à recueillir et à transmettre des données. Ces systèmes peuvent potentiellement mettre les données de patients en péril (ou du moins ne pas assurer leur parfaite protection), et ils s’interfacent aussi souvent avec des dossiers électroniques de patients ou des systèmes hébergeant des données cliniques. Si un dispositif de contrôle du taux de glucose ou une application de santé sur iPhone peuvent être la cible
d’attaques, ces vulnérabilités s’appliquent également aux institutions de soins de santé. Les dispositifs cliniques ont, en effet, pour priorité d’offrir de nouvelles modalités pour une prise en charge pratique, innovante et performante des patients. La sécurité, elle, est moins prioritaire.

La sécurité des soins de santé ne doit pas attendre que les piratages de données de patients aient réussi pour devenir prioritaire. Il faut s’en préoccuper dès aujourd’hui. Le secteur de soins de santé, dans sa globalité, doit engager des actions proactives et privilégier les équipements qui
intègrent la sécurité en natif, mais aussi déployer une protection active au niveau du réseau et des applications. Les enjeux sont tout simplement trop critiques pour s’offrir le luxe d’attendre.  (Par Christophe Auberger, Responsable Technique France, Fortinet)

Virus Rombertik : rien de nouveau chez le malveillant

Suite à la découverte du malware Rombertik par les équipes de Cisco, il s’avère que le microbe n’a rien de bien nouveau. Il additionne les attaques.

Il n’y a rien de neuf dans ce que fait le malware Rombertik, donc ce n’est pas vraiment une « nouvelle génération » en tant que telle. Il s’agit surtout d’une compilation de plusieurs attaques simultanées « Le premier objectif du malware est de voler les données confidentielles utilisées dans le navigateur Internet. explique Christophe Kiciak, de chez Provadys. Dans le cas où il n’y arrive pas, il passe a son second objectif qui consiste à rendre le poste inutilisable« . Un petit souvenir du virus Leonard de Vinci ?

Rombertik est un spyware de navigateur polyvalent ; c’est également un malware conçu pour pirater les transactions du navigateur et lire des informations d’identification telles que les combinaisons noms d’utilisateurs/mots de passe de messagerie, de comptes bancaire ou d’autres systèmes, et de renvoyer ces informations d’identification au serveur des attaquants. Rombertik sabote le Master Boot Record (MBR) pour empêcher le redémarrage de l’ordinateur attaqué, ou à défaut, chiffre les données de l’utilisateur. Un blocage qui a le goût d’un ransomware, mais sans la rançon. Les données ne sont pas récupérables du tout.

Etant donné que Rombertik est très sensible à la traditionnelle sandboxing réactive, il est crucial d’utiliser des systèmes de défense modernes – prédictifs. Des systèmes qui n’attendent pas qu’un utilisateur clique pour déclencher un téléchargement potentiel de Rombertik. De plus, comme le malware peut être expédié via de multiples vecteurs – comme Dyre, via des URL ou des fichiers .doc ou .zip/exe etc. – il est crucial d’utiliser des systèmes qui examinent l’ensemble chaîne destructrice, et bloquent l’accès des utilisateurs aux URL et pièces jointes envoyées par emails avant ceux-ci ne cliquent dessus.

« Les aspects « autodestruction » de Rombertik étant susceptibles d’être déclenchés par les technologies telles que les antivirus, il est crucial que les entreprises utilisent des systèmes automatisés de réponse aux menaces » confirme à DataSecurityBreach.fr Charles Rami, responsable technique Proofpoint.

Des systèmes qui peuvent localiser et bloquer l’exfiltration de données par Rombertik – sans – déclencher d’action sur le PC, et alerter les équipes de sécurité pour répondre rapidement aux dommages pouvant être causés.

Bref, pour se protéger de Rombertik, ici aussi rien de nouveau sous les palmiers : ne pas cliquer sur n’importe quoi ; mettre l’ensemble de ses logiciels à jour ; ne pas utiliser l’ordinateur avec un compte administrateur. Cela vous évitera de donner l’ensemble de vos privilèges au pirate ; faire des sauvegardes et s’assurer qu’elles fonctionnent.

Hippon, solution française dédiée au chiffrement

La société Hippon propose une solution 100% française. Innovante, elle permet de se créer son réseau confiance pour ses échanges confidentiels.

Voilà une nouvelle solution à suivre de près. Son nom, Hippon. Cette solution de chiffrement et bien plus que cela. Hippon propose un réseau fermé dans lequel vous allez pouvoir échanger des tchats avec vos correspondants en ligne; diffuser des messages à un ou plusieurs destinataires; permettre la diffusion de pièces jointes. L’ensemble des échanges sont chiffrés. Cela permet ainsi de renforcer la confiance et la collaboration avec vos partenaires en vous prémunissant contre le vol ou l’interception de vos échanges sensibles. Un outil collaboratif qui permet de travailler dans une réelle fluidité. Le nombre des intervenants importe peu. L’utilisateur peut déployer son réseau de confiance et se prémunir contre le vol ou l’interception de ses échanges confidentiels.

Il suffit d’intégrer les personnes habilités à rejoindre le groupe. Un clic et la personne à révoquer ne peut plus joindre les informations et les interlocuteurs. Autant les utilisateurs commencent à faire (plus ou moins) attention à leurs données personnelles, autant ils considèrent que c’est à l’entreprise de le faire sans pour autant accepter de changer leurs habitudes. Hippon semble répondre à cette problématique. Une version test de 14 jours est disponible. En mode de test, Hippon est compatible uniquement dans les environnements de Microsoft.

Le système fonctionne parfaitement sur OSX sous virtualisation parallèle et est accessible en mode streaming vidéo depuis les tablettes IOS ou Android. A noter que comme l’exige la loi, les services SaaS proposés par la société Hippon étant fondés sur des clés composites de cryptage et compte tenu des contraintes inhérentes à la sécurité, conformément aux lois en vigueur en matière de moyens et de prestations de cryptologie, le Licencié (le client utilisateur, ndr) est informé que les autorités peuvent demander que les informations du Licencié hébergées par la société Hippon soient décryptées.

Augmentation des attaques par réflexion basées sur le protocole SSDP

Le rapport de NSFOCUS sur les menaces causées par les dénis de service distribué (DDoS) dévoile que les dispositifs connectés à l’Internet des objets contribuent à l’augmentation des attaques par réflexion basées sur le protocole SSDP.

NSFOCUS a publié son rapport semestriel sur les menaces causées par les DDoS qui dévoile les résultats sur les nouvelles attaques et les menaces croissantes dont les organisations devraient avoir conscience en 2015. Tandis que le volume des attaques par déni de service distribué continue à augmenter, l’expansion de l’Internet des objets (IdO) et l’arrivée massive de dispositifs connectés au réseau, tels que des webcams ou des routeurs, entraînent une plus grande intensité des attaques basées sur le protocole Simple Service Discovery Protocol (SSDP).

Les résultats des analyses statistiques et des principales observations sont fondés sur des données de véritables incidents causés par des attaques DDoS ayant eu lieu au deuxième semestre 2014. Ces données ont été recueillies auprès d’un ensemble de multinationales, de prestataires de services Internet, d’opérateurs régionaux de téléphonie et de fournisseurs d’hébergement Internet.

—  L’augmentation des dispositifs connectés à l’IdO est responsable de
la hausse des attaques par réflexion basées sur le SSDP : avec la
prolifération de l’Internet des objets, tout dispositif connecté au
réseau avec une adresse IP publique et un système d’exploitation
vulnérable va augmenter le nombre de dispositifs susceptibles d’être
utilisés pour lancer des attaques par réflexion basées sur le SSDP.
Ce type particulier d’attaque DDoS a été considéré comme la
deuxième menace principale, après les attaques basées sur le
protocole NTP, au cours du deuxième semestre 2014. Plus de 30 pour cent
des dispositifs mis en danger par des attaques SSDP étaient des
dispositifs connectés au réseau tels que des routeurs domestiques et
des webcams. Les résultats révèlent également qu’à l’échelle
mondiale, plus de 7 millions de dispositifs contrôlés par le protocole
SSDP pourraient potentiellement être utilisés.

—  Les attaquants sont de plus en plus rusés : alors que 90 pour cent des
attaques DDoS ont duré moins de 30 minutes, une attaque a duré 70
heures. Cette stratégie d’attaques plus courtes est utilisée pour
améliorer l’efficacité et détourner l’attention du personnel
informatique des véritables intentions d’une attaque : déployer des
logiciels malveillants et voler des données. Ces techniques indiquent
la tendance actuelle des attaquants à être de plus en plus rusés et
sophistiqués.

—  Les détaillants, médias et jeux en ligne restent les cibles
principales : alors que les détaillants et les sociétés de
divertissements et de jeux utilisent de plus en plus d’environnements en
ligne, les consommateurs demandent une qualité de service du plus haut
niveau. En ralentissant ou en inondant ces serveurs, les attaquants
cherchent à tirer parti des activités en ligne par toute une gamme de
moyens qui englobe le chantage, la concurrence déloyale et le vol
d’actifs.

Yonggang Han, directeur des opérations internationales de NSFOCUS, a déclaré à DataSecurityBreach.fr « Nous observons l’évolution des technologies d’attaque qui deviennent ni plus ni moins que des tactiques de ‘harcèlement’ (attaques par inondation) et de ‘profit tiré’ (épuisement des ressources) renforçant l’impact via l’utilisation de la bande passante du réseau. Pour contrer ces attaques, les organisations doivent se tourner vers des dispositifs qui nettoient le trafic et sont associés à d’autres protocoles de sécurité. »