Top 5 des bonnes pratiques de sécurité Hadoop

bonnes pratiques de sécurité hadoop

L’avènement du Big Data offre aux entreprises  la possibilité de mieux valoriser leurs données. En effet, elles peuvent récolter, gérer et analyser une grande quantité de données, structurées ou non, pour en tirer des informations concrètes. Mais dans le même temps, elles doivent faire face à de nouveaux défis, notamment en termes de sécurité informatique. Attention à ce que la recherche constante de l’avantage concurrentiel ne se répercute pas sur la sécurité des informations privées et confidentielles.

De part leur nature ces données sensible doivent être protégées. Leur valeur ne cesse de croître pour les hackers qui n’ont jamais autant eu recours au ransomware. La majorité des données se retrouve ensuite sur le darknet où les transactions en Bitcoins laissent peu de traces.

Le Big Data est en pleine croissance et LA référence du marché se nomme Hadoop. Yahoo, LinkedIn, Twitter, eBay ou Amazon ont tous recours à ce framework libre et open source.

Aujourd’hui, beaucoup de données de valeur transitent dans un environnement Hadoop. Il peut contenir des données financières sous la forme de numéros de carte de crédit et de comptes bancaires. Il peut également contenir des données personnelles telles que les noms, les adresses et les numéros de sécurité sociale des clients et des employés.

 

Les principaux problèmes de sécurité Hadoop

A l’origine, Hadoop était principalement déployé directement dans l’infrastructure des entreprises Les données sensibles étaient placées dans des clusters isolés ou segmentées. Le risque de cyber-attaque était donc réduit. Mais aujourd’hui les DevOps le déploient dans le Cloud où un ensemble de services et d’applications gravitent autour de lui pour l’enrichir.  Ces derniers ont permis à Hadoop de se démocratiser et de devenir incontournable dans le Big Data. Mais la multiplication de ces services et applications augmente d’autant l’exposition des organisations aux cyber-attaques. En effet, il est nécessaire d’être attentif à chaque entité pour appliquer les bonnes pratiques de sécurité. Sans cela, les DevOps pourraient mal configurer un service ou une application rendant vulnérable l’ensemble des actifs sensibles.
Dans de nombreuses entreprises, Hadoop est utilisé comme une plate-forme globale où toutes les données sont rassemblées. Le problème de la sécurité se pose ici car les utilisateurs de plusieurs services peuvent accéder à ces données.

Il est donc impératif de mettre en place des règles de sécurité comme :

– Vérifier l’authentification des utilisateurs qui peuvent accéder à Hadoop.

– Restreindre l’accès aux utilisateurs Hadoop  pour qu’ils accèdent uniquement aux données qui les concernent.
– Enregistrer l’historique des accès des utilisateurs pour avoir un suivi détaillé.

– Crypter l’ensemble des données.

– Analyser les configurations des services et applications de façon continue.

 

Top 5 des bonnes pratiques de sécurité Hadoop

Les entreprises sont de plus en plus exposées au risque de cyber-attaque.  Elles doivent faire face à de nouveaux défis comme la protection d’une masse d’information toujours plus dense, de technologies nouvelles, de logiciels mal maîtrisés … Avec les nouvelles réglementations, notamment le Règlement Général sur la Protection des Données (RGPD) ou General Data Protection Regulation (GDPR) dans sa version anglaise, qui entrera en vigueur en 2018, la protection des informations devra être renforcée (données sensibles des patients, informations bancaires, données personnelles des clients, données des smartphones et des réseaux sociaux…). Il est primordial de placer la sécurité au cœur de sa stratégie Big Data et de mettre en place des solutions qui vous guideront dans le respect des meilleures pratiques de sécurité Hadoop :

1. Planifier avant de déployer

Une politique de sécurité d’Hadoop doit être étudiée avant de le déployer. Il faut construire des bases solides pour veiller à la bonne continuité de son activité. Avant de transférer des données dans Hadoop, il est essentiel d’identifier les éléments contenant des données sensibles, ainsi que leur emplacement. Leur isolement est nécessaire pour améliorer leur gestion. De plus, une veille informationnelle doit être effectuée pour respecter l’ensemble des politiques de confidentialité, des réglementations propres à chaque industrie, des lois … Les agences et standards préconisent des bonnes pratiques de sécurité à suivre comme l’ANSSI*, le CIS**, PCI-DSS*** ou l’OWASP****.

2. Ne pas négliger les mesures de sécurité de base

Les mesures de sécurité de base sont indispensables pour relever les défis de sécurité d’Hadoop. Pour vérifier l’identification des utilisateurs et contrôler leurs accès aux données sensibles, il est important de créer, d’une part, des utilisateurs et d’autre part, des groupes (un groupe peut correspondre à un niveau hiérarchique ou à un département de l’entreprise par exemple). Les autorisations seront assignées et verrouillées par groupes.

La mise en place d’identification par mots de passe forts devra être généralisée.

Enfin, les restrictions de droits doivent être systématiquement appliquées et les “super admin” doivent être réduit au strict nécessaire.

3. Former vos équipes

Pour obtenir une meilleure sécurité, il n’y a rien de mieux que de former ses équipes aux bonnes pratiques de sécurité. Le risque de mauvaises configurations, de mauvaises manipulations ou d’erreurs humaines sera grandement réduit. Plusieurs sessions de formation doivent être organisées car Hadoop évolue rapidement et les règles de sécurité doivent être maintenues en permanence. Il faut envisager plusieurs niveaux de formation : très poussées pour faire monter en compétences l’équipes sécurité et plus générique pour l’ensemble des salariés.

4. Sécuriser ses données et intégrer le chiffrement au contrôle d’accès

Pour renforcer la protection des données, il est nécessaire de s’équiper d’une solution de  chiffrement des données. Elle permettra de restreindre l’accès aux informations sensibles tout en offrant une plus grande flexibilité pour répondre à l’évolution des besoins. Il faut également faire la distinction entre les données stockées et les données transitant de machine en machine. Les premières doivent être chiffrées avant le stockage puis stockées en plusieurs parties. Les secondes peuvent être sécurisées par le protocole SSL. Ainsi, les hackers n’auront accès qu’à des documents partiels.

Une fois qu’une solution de chiffrement sera choisie, elle devra être compatible avec la technologie de contrôle d’accès de l’organisation. Sinon, les utilisateurs ayant des informations d’identification différentes n’auraient pas l’accès approprié aux données nécessaires dans leur environnement Hadoop.

5. Surveiller, détecter et résoudre les problèmes

Les équipes informatiques ne peuvent pas être expertes dans toutes les technologies qu’elles utilisent. Elles doivent s’appuyer sur des solutions qui vont analyser et surveiller en continue le respect des bonnes configurations, règles et la présence de vulnérabilités afin d’être alertées de chaque nouvelles failles de sécurité. Dès lors, elles pourront avoir les informations nécessaires pour les localiser et effectuer la remédiation rapidement. La récurrence est la pierre angulaire d’une politique de sécurité efficace. L’automatisation des analyses va soulager les équipes en place pour réorienter les tâches vers la résolution des failles critiques. Elle est indispensable pour maintenir le parc informatique sécurisé au quotidien.

Hadoop offre la possibilité aux entreprises de récolter, d’analyser et de gérer une masse de données importante. Cette technologie n’est pas réservée aux grands comptes et on voit de plus en plus de PME se lancer dans l’aventure Hadoop pour bénéficier d’un avantage concurrentiel indéniable. Mais le revers de la médaille est que la gestion massive de ces données entraîne une croissance de la surface d’attaque. Les équipes sécurité doivent faire face à de nouveaux défis qu’elles ne maîtrisent pas toujours, surtout avec une plus grande autonomie inter-départements. Elles doivent donc se focaliser sur le respect des bonnes pratiques de sécurité préconisées par Hadoop mais également par les agences et standards de sécurité reconnus.

 

Pour en savoir plus sur l’analyse en continue de la sécurité Hadoop, nous vous invitons à tester notre solution Elastic Workload Protector.

 

*ANSSI : Agence Nationale de la Sécurité des Systèmes d’Information
https://www.ssi.gouv.fr/

**CIS : Center for Internet Security
https://www.cisecurity.org/

***PCI-DSS : Payment Card Industry Data Security Standard
https://fr.pcisecuritystandards.org/

**** OWASP : Open Web Application Security Project
https://www.owasp.org/

Leave a Reply