Cloud Hybride

La Data Science au service de la Production

 

La Data Science explose dans les entreprisesUn nouveau challenge apparaialors pour les services informatiquesComment assurer un niveau de service adapté ? 

La Data Science est en plein boom dans la majeure partie des secteurs d’activité. Elle consiste à créer de la valeur en partant des données. Ses besoins en ressources informatiques ne cessent alors de croître tout comme son poids stratégique. Ainsi, de nouveaux défis pour les équipes administrant les infrastructures IT se présentent. Comment fournir aux Data Scientists un niveau de service adéquat en termes de performances et de sécurisation de données ? Comment assurer la transition des tests de programmes d’Intelligence Artificielle (IA) sur un poste de travail, ou dans le Cloud, vers une infrastructure Cloud hybride production ready ? C’est ce que nous allons explorer. 

La Data Science serait – t – elle déjà omniprésente ? 

 La Data Science et les diverses techniques qui l’accompagnent, telles que l’IA, le Machine Learning (apprentissage automatique) et le Deep Learning, fleurissent depuis quelques temps déjà autour de nous. Qui n’a pas encore testé la dernière application smartphone de face-swap ou autre à la mode ? Au-delà de ces aspects ludiques, les avancées dans le domaine contribuent à faire croître son importance dans l’entreprise.  

Quand l'IA, le Machine Learning et le Deep Learning coexistent !

Traditionnellement, la stratégie d’une société était assistée, informatiquement parlant, par des outils de BI. Ces derniers s’appuient majoritairement sur les données de l’ERP. Or, ces informations ne représentent qu’une fraction infime de toutes celles générées dans l’entreprise. Quid de celles générées par l’Internet of Things (IoT), les équipements d’infrastructure, les applications et terminaux mobiles ? Elles possèdent également une valeur à exploiter par les compagnies pour leur donner un avantage stratégique et concurrentiel. Encore faut-il avoir les outils pour les gérer efficacement ! 

Comment exploiter efficacement la globalité des données générées ? 

La forte croissance des données produites implique l’utilisation d’outils différents des outils traditionnels. Ils doivent être nécessairement Scale Out. Hadoop ou les bases NoSQL de type MongoDB ou Hbase en sont des exemples. D’autres solutions comme Splunk permettent de gérer aussi bien l’ingestion des données que leur stockage, leur traitement et leur présentation. Ces outils permettent aux data scientists d’entrainer et exploiter leurs algorithmes ou modèles qu’ils soient « traditionnels », de Machine Learning ou de Deep Learning.  

Mais où sont les données ?

Ces « tools » entrent progressivement au sein des entreprises. Généralement, ils font leur apparition sur un périmètre restreint (quelques stations de travail ou un périmètre Cloud étroit). Ils sont souvent gérés directement par les développeurs et les métiers en mode « Shadow IT », Une enquête réalisée par le CESIN (Club des Experts de la Sécurité de l’Information et du Numérique) et Symantec révèle qu’en moyenne 1.700 CloudApps sont utilisées par entreprise. L’utilisation de ces applications est en croissance de + 30% depuis 2016. ZDNet.fr 2018.  

Comment allier puissance et sécurité ?

Se pose ensuite la problématique de la montée en charge. Comment, lorsque ce périmètre s’étend, puis-je gérer l’évolution du besoin en termes de ressources ? Comment sécuriser les données et leur exploitation ? N’oublions pas qu’elles sont le socle sur lequel une entité bâtit sa stratégie, améliore l’expérience client, optimise ses budgets et son fonctionnement interne. 

Comment gérer la montée en charge et la résilience pour mon infrastructure de Data Science ? 

Les nouveaux outils de Data Science ont été conçus par des développeurs dont la vision était de faire simple et efficace concernant l’infrastructure. Il s’agissait d’empiler les serveurs de configurations identiquesen mode ”pizza box”, et d’intégrer les mécanismes de résilience à l’applicatif. Cela fonctionne très bien.  Cependant, des limitations à ce modèle apparaissent, notamment du point de vue des administrateurs d’infrastructures : 

    • N’est-il pas plus cohérent de pouvoir faire évoluer le compute et le stockage indépendamment, à plus forte raison lorsque ce compute intègre en plus de la GPU (calcul parallèle, Deep Learning…) ? 
    • Si la résilience est gérée au niveau applicatif, suis-je en mesure d’administrer autant d’outils de sauvegarde et réplication que d’applicatifs ? Comment puis-je gérer mes niveaux de service entre tous ces applicatifs ? 
    • Comment puis-je diminuer mon empreinte de stockage et environnementale ? 
    • Toutes mes données, chaudes comme froides, doivent-elles résider sur le même type de stockage ? 
  • Comment puis-je optimiser mes bandes passantes ? 

Ces contraintes sont identiques à celles auxquelles les applications « traditionnelles » sont confrontées. Nous pouvons donc ici à apporter des réponses similaires. Les infrastructures de type convergées ont ici toute leur place. Prenons l’exemple de Flexpod, solution convergée comprenant des serveurs et switches Cisco ainsi que des baies de stockage NetApp. Nous apportons des réponses pertinentes aux problématiques citées ci-dessus : 

    • Evolution de la partie serveur (blade ou rack) isolée de la partie stockage. J’ai besoin de compute ? J’ajoute un serveur. J’ai besoin de stockage ? J’ajoute un tiroir disque ou des contrôleurs 
    • Les baies Full flash/NVME de la gamme AFF de NetApp comprennent des mécanismes de snapshots instantanés et sans impact de performances. Son fonctionnement permet une conservation en local et une réplication. Les jeux de données peuvent être clonés sans impact de performance pour du test/dev. Peu d’applicatifs peuvent s’en targuer. 
    • Les mécanismes de compression et de déduplication offrent également l’avantage de limiter la volumétrie stockée physiquement, mais également celle transférée pour les réplications, qu’elles soient inter-site, vers le cloud ou inter-cloud 
  • Possibilité de tiering entre l’OnSite et le cloud 

Que faut-il en retenir ? 

En partant sur des infrastructures de type convergées sur site, nous sommes en mesure, sans renier sur l’aspect Scale Out, de : 

  • Pouvoir assurer un niveau de performances adéquat à l’heure du NVMe 
  • Optimiser économiquement et écologiquement son empreinte stockage et calcul
  • Assurer un niveau de résilience et de protection des données cohérent avec une application de production critique  

Ce type d’architecture peut être une forte alternative à valeur ajoutée par rapport à une architecture plus classique en commodity hardware et JBOD. Elle est également davantage granulaire qu’une architecture de type hyperconvergée, ce qui a du sens pour ce type de nouvelles applications. De plus, elle ne limite en rien l’adoption du cloud hybride. 

=> POUR POURSUIVRE LA LECTURE…

En parlant de Cloud : adopter le Cloud, est-ce une fin en soi ?  




Une question ? Un projet ?
Marc RUHLMANN
Marc RUHLMANN
Ingénieur Technico-Commercial chez SCASICOMP
mruhlmann@scasicomp.com