Vers une avancée de la sécurité dans le Big Data

La semaine dernière, les 11 et 12 mars, se tenait au Palais des Congrès de Paris le salon Big Data. Ce nouvel opus avait pour signature : « Accelerate the Future ».

Le nombre record d’exposants, le dynamisme et l’effervescence encore jamais vus forgeront sans doute le souvenir de cette manifestation. Celle-ci doit d’ailleurs sa popularité à sa capacité à réunir tous les fervents de l’IA. Mais au-delà de la Data, de son usage pour améliorer les performances des entreprises en tout genre et de tout secteur, le futur demeure anxiogène. Face à ceux qui décrivent des algorithmes et évoquent le deep learning, les visiteurs sont parfois effrayés à la perspective d’une perte totale de contrôle.

Or l’enjeu des données de toute nature, réside dans leur véracité et leur protection, avant même d’imaginer ce que l’on pourrait en faire. Beaucoup de ces entreprises tournées vers l’IA nous invitent à rassembler, puis à stocker nos données dans les fameux Data Lake. Elles tentent de démontrer qu’il y a moyen d’en tirer de vrais enseignements et de réels progrès. Que ce soient pour les hommes ou pour leurs métiers. Mais pouvons-nous leur faire confiance ?

 

Comment mieux protéger les données dans ce monde qui se voudrait plus ouvert et plus digitalisé ?

Pour mieux comprendre que la sécurité est un préalable, quoi de plus inspirant que d’écouter le Vice-Amiral d’escadre, Arnaud Coustillière, directeur général du numérique pour le Ministère des Armées, un service informatique qui emploie 20 000 personnes en France.

Travailler avec des données hyper sensibles dans un environnement culturel où règne le secret, nécessite à la fois ouverture d’esprit et sens de la prudence. Tout réside dans la recherche permanente d’un équilibre, entre protection et possibilité d’exploitation ; « le défi est de taille mais il est de même nature que pour toute organisation » nous précise le Vice Amiral.

 

Les exemples Hadoop et Gemalto

Après lui, viendront sur la scène de l’amphithéâtre : Hervé Bruneteaud et Raphaël de Cormis. Hervé Bruneteaud est Directeur du Datawarehouse Competence Center pour Orange. Et Raphaël de Cormis est le VP Innonvation Labs chez Gelmalto.

Le premier nous expliquera les avantages du recours à la plateforme Hadoop pour l’hébergement de son data lake, à travers divers cas d’usage. Le second portera notre attention sur la nécessité d’un renforcement des contrôles d’identité au sein même des systèmes d’information. Le but reste ici de garantir la bonne qualité de l’information partagée à distance.

Précisons que la plateforme Hadoop représente un framework logiciel développé en Java et en open source. Rendu populaire par sa gratuité d’accès, Hadoop évolue d’une version à l’autre. Mais il reste conçu pour traiter le stockage de données brutes et des requêtes relativement simples. La majorité des très grosses entreprises américaines l’ont adopté. Cependant, la solution semble toutefois un peu moins attrayante aujourd’hui.

Gemalto

De son côté Gemalto travaille sur l’identification et la véracité de l’information. Ce qui permet de s’interroger sur le principal reproche que l’on adresse au Big Data : la course à l’énormité de la data n’a-t-elle pas pour conséquence d’agglomérer tout et n’importe quoi ? La pertinence de la donnée n’est-elle pas plus importante que la quantité de données récoltées ?

Car après tout, il suffirait de quelques données erronées pour fausser les analyses. Les algorithmes seraient alors nourris par des informations avariées, nous induisant à leur suite en erreur. Quel plus grand danger qu’une analyse fondée sur de mauvaises informations ?

Et si la dimension cruciale du Big Data était l’humain, seul capable de garantir l’exactitude et la sécurité des informations ?

Frissons dans la salle ! Dès lors, l’alerte retentit. En effet, une étude récente (conduite par Cybersecurity Ventures) indique qu’il manquera en 2021 plus de 3,5 millions de profils spécialisés en cyber sécurité dans le monde. C’est sans doute sur l’humain que les entreprises devront investir, tant pour extraire de l’intelligence du Big Data que pour en assurer sa défense. Le manque de talents formés aux questions de sécurité se fait déjà sentir et certains acteurs en profitent pour présenter des solutions externalisées.

Ainsi, par exemple, Gareth Maclachlan, VP Stratégie et Développement produit chez FireEye déclare : « Nous avons développé Expertise on Demand pour donner aux organisations un accès direct à la meilleure expertise en cyber sécurité, quels que soient leurs besoins et leur budget. En associant produit et expertise de cette manière flexible et extensible, nous fournissons à nos clients tout un ensemble de ressources pour renforcer leurs équipes et construire la meilleure ligne de défense. »

 

Ainsi il n’y a pas une vision unique du Big Data. La sécurisation des données reste un défi majeur face à l’évolution des volumes de stockage. On ne peut le nier. Le cloud ou l’open source n’offrent pas de garanties suffisantes pour l’instant et restent très fragiles.

L’Homme gardien a encore un avenir !

 

A lire également : Plateforme de gouvernance : un nouvel outil au service de la sécurité des données