Optimiser la collecte des données
Le Big Data s’est dans un premier temps contenté de collecter les données communiquées par les consommateurs, ou leurs « traces numériques » laissées sur le web et les réseaux sociaux. Aujourd’hui, différentes technologies s’invitent dans le recueil des données :
- L’IoT et ses capteurs connectés communiquent en continu un énorme volume d’informations, qui viennent alimenter le Big Data.
- Les réseaux de transport de données basse consommation permettent d’optimiser l’impact énergétique et environnemental du Big Data. Ainsi, pour relier au réseau les objets connectés – qui seront 20 milliards dans le monde d’ici à 2020, selon les prévisions du cabinet d’études Gartner –, différentes technologies réseau ont émergé, telles que le réseau LoRa®.
Stocker toujours plus de données
Le stockage des données doit être non seulement disponible et fiable, mais aussi évolutif, pour accompagner les rapides montées en charge. C’est pourquoi le Big Data est indissociable du Cloud, et particulièrement aujourd’hui des serveurs Cloud hybrides qui associent sécurité et performance. Par exemple, en exploitant les ressources évolutives du cloud public pour exécuter des fonctions d'analytique Big Data, tout en sécurisant les données grâce à un cloud privé qui protège les données sensibles derrière un pare-feu.
Avec la « Data Virtualization », il est également possible de regrouper la collecte des informations et leur stockage en temps réel : deux révolutions en une !
Des technologies pour une analyse plus fine des données
Pour transformer les données massives en informations pertinentes et utiles, le Big Data utilise différents outils analytiques et autres systèmes experts. Des technologies en pleine révolution !
- L’Intelligence artificielle : les technologies cognitives permettent de donner du sens aux données brutes, comme de passer de l’analyse des données à la prise de décision ou encore à l’analyse prédictive et à l’étude de différents scénarios en réponse à une problématique. Outre ces technologies, il ne faut pas négliger les technologies matérielles, qui permettent de disposer d’ordinateurs toujours plus puissants capables de supporter les outils d’intelligence artificielle.
- Le machine learning est nourri par le Big Data – les systèmes apprennent en analysant d’importants volumes de données – et permet également d’améliorer en continu l’exploitation des données.
- Les technologies de reconnaissance transforment des données non structurées et « Dark Data » (données non numérisées) en informations : reconnaissance d’image pour exploiter des photos ou les images transmises par des caméras connectées, reconnaissance vocale et compréhension du langage pour déchiffrer des enregistrements sonores, reconnaissance d’écriture pour lire des documents scannés… L’enjeu : accéder à un énorme volume de données via Internet (archives, banques d’images, caméras connectées, etc.).
- Les techniques de « Data Quality », enfin, visent à nettoyer et rendre exploitables des données. Par exemple, en les complétant de façon cohérente, en combinant différentes sources.
Assurer la sécurité des données
Pour assurer la sécurité et la confidentialité des données collectées – souvent à caractère personnel – le Big Data exploite les technologies d’anonymisation, ainsi que toutes les technologies liées à la cybersécurité :
- La sécurisation des objets de l’IoT, pour éviter le piratage des informations transmises, mais aussi la prise de contrôle à distance de ces objets ;
- La sécurisation des transmissions d’informations ;
- La sécurisation des réseaux et stockages d’informations, exploitant les évolutions rapides des solutions de sécurité, en matière de SOC (centre d’opération de sécurité) par exemple.
Et demain ?
Si un grand nombre de technologies récentes ou émergentes vont bénéficier au Big Data pour en améliorer la performance et la sécurité, d’autres seront exploitées pour offrir de nouveaux services aux entreprises. À commencer par des outils Big Data accessibles en ligne. On voit déjà ainsi apparaitre des offres de BDaaS, pour « Big Data As A Service » : plateformes clés en main dédiées au Big Data, personnalisables, rapidement disponibles et facturés à la durée, mettant à la disposition des entreprises une suite d’outils Open Source pour créer leurs propres applications de traitement de gros volumes de données.