Les data centers sont-ils prêts à faire face à l’explosion attendue des données générées par l’Internet des Objets (IoT) ?
À l’horizon 2020, on estime à 26 milliards le nombre de dispositifs connectés qui enverront d‘importantes quantités de données supplémentaires qu’il faudra stocker et traiter.
Selon le cabinet d’analyse Gartner, les opérateurs de data centers vont être confrontés à des défis dans de nombreux domaines tels que la sécurisation des données ou encore la gestion du stockage, des serveurs et de leur réseau d’infrastructures. Gartner conseille vivement aux gestionnaires de data centers de tenir compte de ces perspectives pour le dimensionnement de leurs capacités futures.
« L’accélération de l’Internet des Objets générera des quantités de données considérables qui devront être traitées et analysées en temps réel », commente Fabrizio Biscotti, directeur de recherche chez Gartner. « Cet accroissement des volumes brassés en temps réel va développer proportionnellement la charge de travail des data centers, ce qui induit de nouveaux challenges pour les fournisseurs, tant en termes de sécurité et de capacités de stockage que d’analyse. »
des besoins en matière de protection des données
Par ailleurs, les données générées par le smart metering ou la télématique devront également être protégées. Les consommateurs doivent disposer du droit à la sécurisation de leurs informations personnelles, lorsqu’il s’agit de leur véhicule ou de leur consommation énergétique. En cas de protection insuffisante, une fuite de données équivaudrait à une violation de la loi sur la protection des données.
George Crump, analyste chez Storage Switzerland, souligne également que les données issues de l’Internet des Objets se répartissent en deux catégories posant chacune des problématiques spécifiques.
« Tout d’abord, il y a des fichiers volumineux, tels que les images et les vidéos enregistrées à partir de smartphones ou d’autres appareils, qui font le plus souvent l’objet d’un accès séquentiel », commente le spécialiste du stockage. « Le second type de données est moins volumineux, à l’instar des fichiers ‘journal’ générés par des capteurs. Malgré leur taille réduite, ces capteurs peuvent créer des milliards de fichiers qui doivent être accessibles de manière aléatoire. »
Les data centers vont devoir se préparer à stocker et traiter ces deux types de données. De plus, en raison de leur caractère éphémère, la plupart des données produites par l’Internet des Objets ne peuvent pas être facilement reconstituées et nécessiteront un stockage sécurisé garantissant leur intégrité. C’est notamment le cas pour les informations émises par les capteurs d’humidité du sol.
« Une des choses que j’ai pu observer au contact des responsables informatiques familiers de l’Internet des Objets, c’est la vitesse à laquelle les données d’un intérêt relatif prennent une dimension critique lorsqu’il s’agit de les analyser, de les stocker et de les protéger », indique George Crump.
un traitement irrégulier
L’Internet des Objets se caractérise également par des données largement distribuées et difficiles à transférer vers un site de traitement centralisé. En réalité, les entreprises devront probablement les agréger localement, là où elles peuvent être prétraitées, avant de les envoyer vers un site centralisé pour procéder à des traitements additionnels ainsi qu’à leur stockage.
Le fournisseur de solutions réseau Cisco prévoit ainsi de doter ses routeurs dédiés à l’Internet des Objets de capacités de traitement. L’architecture Iox fournit aux périphériques tels que les routeurs des capacités de traitement restreintes. Un appareil local peut ainsi collecter des informations émises par des capteurs en local et renvoyer vers un système central uniquement les données nécessitant un examen plus poussé.
On peut ainsi prendre l’exemple d’un véhicule dont tous les messages de confirmation sont traités en local, alors que les messages d’erreur sont envoyés vers un centre télématique. De même, sur un navire, la surveillance de la position des conteneurs peut être assurée localement avec transmission de messages seulement dans le cas où les conteneurs ont bougé. Cela permet à la fois d’économiser la bande passante du réseau et d’éviter la saturation des data centers.
Cisco a baptisé « fog » cette approche qui consiste à repousser le Cloud à la périphérie du réseau. « Le fog se caractérise essentiellement par sa proximité avec les utilisateurs finaux, la densité de sa répartition géographique et sa prise en charge de la mobilité », commente Roberto De La Mora, directeur du marketing produit et solution pour l’Internet des Objets chez Cisco. « Les services sont hébergés sur leur lieu d’utilisation, c’est-à-dire à la périphérie du réseau ou encore sur des terminaux tels que les décodeurs connectés ou les points d’accès. »
Vous envisagez d’adopter l’Internet des Objets dans votre activité ? Mais avez-vous évalué son impact sur votre data center ?
Anthony
crédit photo : © sellingpix - Fotolia.com
After a Masters in Computer Science, I decided that I preferred writing about IT rather than programming. My 20-year writing career has taken me to Hong Kong and London where I've edited and written for IT, business and electronics publications. In 2002 I co-founded Futurity Media with Stewart Baines where I continue to write about a range of topics such as unified communications, cloud computing and enterprise applications.