Le Cloud a fait voler en éclats toutes les certitudes acquises en matière d’infrastructures IT en entreprises. Aujourd’hui, de nombreuses voies sont possibles et il n’est pas toujours simple de s’y retrouver. Déploiement et formes de bases de données : quels choix opérer ?

Les nouvelles formes du système d’information

Le Cloud a imposé une évolution profonde des technologies client-serveur, désormais pourvues du don d’ubiquité : les applications, les données et les services s’exportent ainsi de plus en plus à l’extérieur du data center de l’entreprise.

Avec de nombreuses options possibles pour la DSI, en fonction de critères économiques, organisationnels et de criticité : solutions en SaaS isolées et gérées directement par les métiers, cloud 100 % public managé par une DSI réduite au strict minimum, cloud 100 % privé et bien sûr la solution intermédiaire de cloud hybride.

En matière de bases de données, dont les principales exigences sont la performance, la sécurité et l’intégrité, ces différentes options d’implantation sont évidemment envisageables. Toutes proposent un certain nombre d’avantages, mais souffrent également d’inconvénients. Aucune solution miracle n’existe, les choix dépendront des besoins et des exigences de l’entreprise.

Déploiement de bases de données : quelle infrastructure ?

Déployer on-premise ou dans un cloud privé revient globalement au même. Avec pour principal avantage un contrôle total et permanent de l’environnement, personnalisable à l’envi selon les besoins métiers et les critères de sécurité. Inversement, ce mode de déploiement est moins agile et peut réduire la capacité de l’entreprise à répondre aux évolutions du marché, et l’environnement doit être parfaitement fiable et redondant.

Sans compter également un risque en termes de latence, selon la géolocalisation des utilisateurs, mais également une obligation de se conformer à des réglementations très strictes dans certains secteurs d’activité (finance, santé…). Enfin, il convient également d’étudier précisément le seuil de rentabilité d’un tel déploiement local, qui peut s’avérer long (2 à 3 ans), surtout face aux besoins d’évolution et d’agilité des entreprises.

Auquel cas, le cloud public, qui bénéficie d’une évolutivité presque infinie, semble la solution idéale grâce à ses services et infrastructures hors site. Sa flexibilité et sa facilité d’utilisation en font un parfait compagnon pour les entreprises souhaitant lancer rapidement et régulièrement leurs services sur le marché. Pour autant, par nature destinés à satisfaire les besoins d’un grand nombre d’entreprises, les clouds publics, par leur homogénéité, sont particulièrement complexes à personnaliser.

Mais leur sécurité reste aussi un défi. Car qui dit cloud public dit exécution des applications de n’importe où dans le monde, où que se trouvent les infrastructures du fournisseur de services. Ce qui limite donc aussi ce choix pour les secteurs réglementés.

Dès lors, le cloud hybride serait-il la combinaison idéale ? Ce n’est qu’en partie vrai. Car si ce modèle est flexible et personnalisable, et offre aux entreprises la capacité de déterminer quels aspects de leur activité doivent être strictement privés et quels autres peuvent être déployés sur un cloud public, la gestion d’un cloud hybride est particulièrement complexe. Et sans une stratégie de cloud hybride parfaitement maîtrisée, la sécurité du système d’information peut très vite être compromise.

Bases de données : appliance ou virtualisation ?

Du fait de son aspect packagé et de l’unicité du fournisseur, une base de données sous forme d’appliance est une solution performante et très productive. Mais qui peut aussi être risquée puisqu’elle lie l’entreprise au distributeur de l’appliance en question, qui plus est autour d’une seule et même technologie. Avant de s’engager, il est donc essentiel de s’assurer de la solidité du fournisseur d’une part, et de sa capacité à évoluer en même temps que les besoins spécifiques de l’entreprise d’autre part. Enfin, si les appliances de bases de données semblent coûteuses au départ, elles peuvent se rentabiliser rapidement si elles sont déployées correctement et avec le partenaire adéquat.

Au contraire de l’appliance, la virtualisation permet de consolider plusieurs applications sur un seul et même matériel. Auquel cas, l’investissement de départ peut donc être très élevé, mais vite compensé par des coûts d’exploitation réduits du fait de l’optimisation des ressources physiques et de l’automatisation de nombreux processus. Les environnements virtualisés profitent donc d’une administration simplifiée, mais également d’une scalabilité très forte, de nouvelles applications pouvant être très vite déployées.

Attention toutefois à ne pas croire aux miroirs aux alouettes : tous les composants des matériels doivent en outre être calibrés pour la virtualisation, au risque de connaître des performances amoindries. C’est le cas par exemple de la carte réseau, qui doit pouvoir supporter le trafic d’applications multiples. De même, en cas de défaillance matérielle, plus aucune application présente sur la machine n’est alors disponible. Une limite qu’il convient de prévoir dans l’architecture, afin d’éviter les risques d’arrêts de production prolongés.

Une limite qu’il est cependant assez simple et finalement peu coûteux à contourner : pensée pour le clustering, la virtualisation est en effet idéale pour la réutilisation de matériels anciens, sur lesquels il est possible de répartir les différentes machines virtuelles.

En bref, en matière de bases de données, il n’y a pas de réponse universelle. C’est le cas sur l’infrastructure, comme sur le SGBD lui-même : au-delà du coût et du ROI attendu, il s’agit de s’attarder sur les besoins métiers, sur les réglementations en vigueur au sein des zones géographiques et sectorielles concernées, sur les ressources IT à allouer, et plus largement sur les objectifs de l’entreprise à court, moyen et long termes.

 

___________
Timothée Wirth est CEO France & Regional VP TmaxSoft France