analyse sécurité hadoop apache

Analyse sécurité Hadoop

carrés SecludIT

PROBLÈME

Une étude du cabinet Gartner montre que “seulement 2% des personnes qui ont exécuté Hadoop voient le manque de sécurité comme une barrière”.

cout de la sécurité et retour sur investissementArnaud est le DSI d’un site e-commerce. Il a besoin d’une infrastructure dynamique et flexible pour répondre aux besoins de croissance de l’entreprise c’est pour cela qu’il a choisi une infrastructure Cloud. Chaque jour, le site internet récolte une masse de données très lourde. Toutes ces données permettent d’analyser le comportement des internautes, leurs centre d’intérêt, leur comportement d’achat et les taux de conversion. Afin d’être toujours plus performant, le big data offre des outils d’analyse et de traitement de données déterminants pour obtenir un avantage concurrentiel.
Cependant, il faut prendre en compte la vitesse à laquelle les nouveaux logiciels de big data sont commercialisés. Etant donné la quantité de données qu’ils traitent, une faille de sécurité va entraîner des dégâts très important. La recherche de l’avantage concurrentiel ne doit pas pousser Arnaud à utiliser des solutions sans veiller à ce qu’elles soient sécurisées, au préalable et au quotidien.

Il ne faut pas oublier que les Big Data n’ont pas de fondation solide en termes de sécurité mais ce sont des cibles très convoitées de part leur taille et la valeur marchande des données.

SOLUTION

ELASTIC WORKLOAD PROTECTOR
Apache Hadoop a modifié la façon dont les entreprises stockent, traitent et analysent les données. Mais il exige que les données et les processus répondent aux exigences standards de sécurité de l’entreprise.

C’est pourquoi Elastic Workload Protector vérifie que votre plate-forme hadoop est compatible avec :

Hadoop Cloudera Security Checklist
BigData_Security_and_Privacy_Handbook

La La liste de contrôle Hadoop est destinée aux administrateurs système et aux CISO qui souhaitent obtenir des informations sur les programmes de sécurité Hadoop. Les meilleures pratiques de sécurité y sont développées et vous pouvez suivre pas à pas les configurations à effectuer.

“Big Data Security and Privacy Handbook” énumère en détail les meilleures pratiques à suivre pour renforcer la sécurité des infrastructures informatiques. Le document présente les 10 meilleures pratiques pour chacun des 10 principaux enjeux dans le domaine de la sécurité des données et de la protection de la vie privée. 100 bonnes pratiques de sécurité sont ainsi listées.

“L’expertise de SecludIT, tant sur AWS qu’en matière de bonnes pratiques de sécurité, et leurs technologies nous ont été une aide précieuse pour répondre aux enjeux de sécurité de notre PaaS et établir un socle de sécurité solide.”

Samir Salibi, Directeur Marketing Wakanda.io

EXEMPLE DE RÉSULTAT D'ELASTIC WORKLOAD PROTECTOR

Par défaut, les fonctions de sécurité de Hadoop sont : l’authentification, l’autorisation de niveau de service, l’authentification pour les consoles Web et la confidentialité des données.

Apache Hadoop can be set-up in ‘Secure Mode’, by enabling the security features of Hadoop.

* Turn on RPC authentication in Hadoop, set the value of ‘hadoop.security.authentication’ property to ‘kerberos’ in ‘core-site.xml’
* Enable RPC service-level authorization by setting ‘hadoop.security.authorization’ parameter to ‘true’ in the ‘core-site.xml’
* Activate data encryption for data transferred between Hadoop services and clients, by setting ‘hadoop.rpc.protection’ to ‘privacy’ in the ‘core-site.xml' »;