Difficile de réaliser qu’OpenStack n’a que 4 ans ! Car au cours de ses quatre premières années d’existence, la plateforme devenue la référence des solutions Open Source sur le Cloud a conduit à des changements radicaux dans l’univers IT.
Sa première mention officielle en 2010, concernait un projet pilote réunissant Rackspace et la NASA – un projet qui visait à simplifier la gestion de services Cloud (privé et public), avec un déploiement sur des configurations matérielles classiques. Dès lors, OpenStack a eu un impact considérable sur toute l’industrie IT. Son succès, toujours croissant, illustre bien la forte adhésion de la communauté des développeurs. Ces derniers ont choisi de se focaliser sur la connectivité et l’interopérabilité entre systèmes plutôt que de travailler sur des systèmes isolés les uns des autres.
OpenStack apporte la capacité de contrôler de vastes pools de ressources – serveurs, stockage et réseau, au sein d’un même data-centre – et de les gérer depuis un tableau de bord unique.
En abordant le réseau et le stockage de données comme des ressources virtualisées, avec des logiciels intelligents pour piloter certains sous-ensembles critiques, OpenStack réduit la complexité de l’exploitation et du déploiement d’une infrastructure à la demande. Il permet de créer les conditions d’un environnement SDDC (Software Defined Data Center), donnant priorité au pilotage par la pile logicielle.
Outre des ressources serveurs, réseau et stockage (en modes ‘bloc’ ou ‘objet’),
OpenStack apporte d’autres composants clés, tels que des tableaux de bord, des services ID, des services ‘images’, de l’orchestration et un provisioning complet à partir de zéro.
La forte croissance et la dynamique suscitées par OpenStack confirment les attentes en faveur de l’Open source partout dans le monde. La plupart des grandes entreprises utilisent déjà cette technologie.
La percée d’OpenStack se vérifie
On réalise aussi la percée d’OpenStack en constatant que plus de 4500 professionnels ont participé au dernier OpenStack Summit à Paris en novembre 2014. Et, à ce jour, plus de 200 acteurs du marché contribuent aux développements de la plateforme, dont des poids lourds comme Avaya, Cisco, EMC, HP, IBM, VMware…
Avec la couche ‘serveur’ déjà fortement virtualisée et fortement orientée ‘Software defined’, la prochaine étape vers le SDDC (Software Defined DataCenter) se traduit par l’implémentation du SDS (Software Defined Storage) et du SDN (Software Defined Networking).
Des fournisseurs très engagées dans ces développements considèrent Open Stack comme un ‘framework’ essential pour le Cloud, du fait qu’il permet de basculer tout de suite vers un environnement IT 100% ouvert, où le « verrouillage » des équipements par certains fournisseurs est supprimé. Ceci contribue à faire baisser le TCO (Total Cost of Ownership) tout en augmentant la flexibilité et l’évolutivité (‘scalability’).
Quatre grandes motivations
Les utilisateurs d’OpenStack reconnaissent que le SDS est très aligné avec leurs objectifs. Une récente étude[1] résume les 4 grandes motivations ‘business’ d’OpenStack :
– capacité à porter l’innovation,
– technologie ‘open’,
– baisse des coûts,
– indépendance vis à vis des fournisseurs.
Cette enquête révèle aussi une augmentation significative du stockage de data en mode ‘bloc’ avec OpenStack dans les projets (+70%) mais aussi une augmentation de celui en mode ‘objet’ (déjà déployé dans presque 50% des cas).
Les fournisseurs de solutions SDS (‘Software Defined Storage’) investissent beaucoup pour garantir que leur offre réponde bien aux exigences techniques fixées par OpenStack. Ces solutions doivent permettre aux entreprises de créer des clusters de stockage optimisés pour des environnements ouverts et capables de grandir facilement.
. Les solutions de stockage SDS unifiées fonctionnent aussi bien en mode ‘bloc’ qu’en mode ‘fichier’. Elles supportent les nouveaux services en mode ‘bloc’ conformes aux développements Open Source au nom de code ‘Cinder’ au sein d’OpenStack. Elles permettent de construire des infrastructures Cloud pleines de fonctionnalités, tout en maintenant un contrôle de la pile logicielle.
Ce qu’apporte le SDS et le ‘scale-out’
Les solutions de stockage ‘SDS’ et du type ‘scale-out’[2] supportent à la fois les modes ‘bloc’, ‘fichier’ et ‘objet’. Elles permettent de répondre à la prolifération des données non structurées. Le stockage en mode ‘objet’ fonctionne sur des clusters à faible coût (dit ‘shared nothing’ – « ne partageant rien », chaque nœud étant indépendant en termes de ressources mémoire ou disque). Ce mode ‘objet’ où toute la capacité de stockage est vue comme un ‘pool’ logique unique, est en train de devenir la principale option pour le stockage d’applications Cloud et Big data.
Les principales caractéristiques de ces solutions SDS se résument ainsi :
– la capacité d’extension virtuellement illimitée ou presque,
– un besoin minimal en matière d’exploitation et d’administration,
– une très forte résilience face aux défaillances systèmes.
Ces architectures ‘software defined’ se révèlent particulièrement bien adaptées à la prochaine génération de solutions Cloud et aux nouveaux besoins applicatifs. On prévoit que leur diffusion dépasse rapidement celle des options ‘hardware’.
Pour résumer, retenons que le patrimoine Open source d’OpenStack apporte au moins deux avantages significatifs :
-l’accès à une multitude de développeurs dans le monde,
-la garantie de ne plus enfermer les clients dans des plates-formes propriétaires.
Autour de ce patrimoine partagé, les solutions SDS et OpenStack aident les entreprises clientes à échapper au verrouillage de certaines solutions , ceci grâce au découplage introduit entre plateformes matérielles et logicielles.
Bref, les vraies bonnes raisons de s’intéresser au SDS ne manquent pas !
par Thomas Cornely, Chief Product Officer, Nexenta
[1] <http://superuser.openstack.org/articles/openstack-user-survey-insights-november-2014>
[2] Scale-out storage: ce terme désigne la nouvelle génération de solutions de stockage qui permettent d’étendre les capacités des services de stockage en fonction de la montée en puissance du data-centre et selon les besoins métiers – mais sans rajouter de personnel ni de coûts d’exploitation. Ce terme se définit par opposition au schéma ‘scale-up’, celui des infrastructures classiques (ou ‘legacy systems’) qui croissent par empilement de ressources et de coûts.