Les 3 commandements d’une solution Big Data

Par Cyrès - 2 avril 2014

Le Big Data a le vent en poupe. En témoigne la multitude d’offres qui fleurissent chez les éditeurs de logiciel.

“Go big, Make Big Data”
Effet de mode, Buzzword, argument marketing ou véritable solution professionnelle ? Voici quelques points de repère pour mieux s’y retrouver. Une solution Big Data doit répondre à un certain nombre de critères techniques et fonctionnels, dont les 3 commandements seraient :

Commandement N°1 : La scalabilité

Toute solution Big Data qui se respecte doit pouvoir monter en charge de façon linéaire par l’adjonction de serveurs ou de matériel. Cela doit se faire en adéquation avec l’architecture existante sans saut technologique majeur.

Les solutions les plus onéreuses ne sont pas nécessairement les meilleures (Oracle, IBM, etc). Certains vous conseilleront d’opter pour un système plus complet, à forte capacité de montée en charge.

L’important reste dans la linéarité et non dans la montée en charge. Cette linéarité de puissance de stockage et de traitement peut s’étendre de 1To à 100To de données sans que l’on remette en cause les limites de plafonnement des performances.

Commandement N°2 : La facilité de déploiement

Une solution Big Data doit être facile et rapide à déployer. On doit pouvoir déployer et ajouter de la puissance à la demande sans se soucier de la complexité du système informatique qui entre en jeu. Il faudra ainsi privilégier les solutions ouvertes et dans la mouvance du Cloud afin de bénéficier d’outils de déploiement à la demande (Firmware, OS, Stack logicielle…).

Commandement N°3 : Le cloisonnement des données

Une solution Big Data devra accueillir des volumes importants de données et de sources différentes (Clients, Services…). Dans une démarche de qualité, on devra constamment garder à l’esprit l’importance du cloisonnement des données et de leurs traitements pour chaque utilisateur du système. En effet, chaque utilisateur peut théoriquement bénéficier de la puissance maximale de la plateforme, mais ne disposera que de la puissance qui lui est attitrée en cas de partage des ressources. De même, la sécurité des accès et la confidentialité des données restent primordiales, là où ces points peuvent être volontairement omis de par les difficultés et les coûts importants mis en œuvre.


Quand on applique ces trois commandements ils ne restent plus beaucoup de solutions sur le marché.
On doit donc se rallier à la « HadoopMania » qui fait l’unanimité sur le premier point, mais doit encore faire ses preuves sur les 2 autres.

C’est pourquoi nous avons conçu CloudKeeper une solution clé en main.

CloudKeeper permet d’intégrer toutes les distributions Hadoop du marché et offre le déploiement rapide des serveurs et le cloisonnement des données. Cette solution intègre un système de provisioning automatique, d’installation des OS sur les machines, de déploiement des services Hadoop et le découpage logique et physique pour chaque utilisateur.

L’architecture CloudKeeper permet de déployer une solution Big Data en quelques minutes et de servir de container pour des futures applications. On peut découper de façon sécurisée le cluster physique en cluster logique afin de sécuriser chaque utilisateur (ou Tenant).

Testez CloudKeeper en mode Cloud ou In Promise.
Nul doute que cette boite à outil Big Data va être incontournable dans les prochains mois pour les DSI qui veulent mettre en production une solution pérenne autour de Hadoop et de son écosystème.

Pour en savoir plus cloudkeeper.ingensi.com/

 

Cyrès

Cyrès

Page Linkedin Cyrès

Facebook

Twitter

Calendrier

juillet 2017
LMMJVSD
« Juin  
 12
3456789
10111213141516
17181920212223
24252627282930
31