Les compagnies ont depuis des décennies utilisé la « Business Intelligence » dans le but d’analyser des données qui leur sont propres et d’optimiser leur prise de décision. On décrit et explique des faits au travers, par exemple, de statistiques dans l’objectif de mieux agir dans l’optimisation de processus d’entreprise.
Cependant ce qui permet d’avoir de meilleurs résultats et croît en intérêt est l’analyse prédictive qui nous permet d’expliquer les causes cachées de différentes actions, et de prédire de futures transactions, achats, ou fonctionnements d’un système. On rentre, dès lors, dans une optique d’analyse avancée des données, et où l’on essaye d’en extraire le plus de connaissances pour générer des informations actionnables. Puis, nous entrons maintenant dans une ère où l’on veut des informations en temps réel qui auront un impact direct sur nos activités. Il s’agit, dans ce cas, d’analyse prescriptive où l’on se demande par rapport aux données passées et surtout aux données en temps réel, quelle action serait la plus judicieuse à prendre.
Alors pourquoi parle-t-on de Big Data ? Car, pour pouvoir optimiser la prise de décision et suivre l’évolution des business, nous nous basons sur de nouvelles sources d’informations très variées qu’il faut souvent pouvoir traiter à d’importants volumes et, dépendant des cas, en temps réel.
Ainsi le Big Data désigne un ensemble d’outils appropriés pour le stockage, l’analyse et le traitement de données à grande échelle de façon moins couteuse, plus rapide et de manière distribuée. De plus en plus de données sont générées chaque seconde et les infrastructures faites pour supporter de telles charges évoluent. L’IDC estime l’univers digital à une taille de près de 4.4 Zettabytes (correspondant à un peu plus de l’espace de stockage de 1000 milliards de DVD) en 2013 et prédit une évolution à 44 Zettabytes en 2020[1]. C’est ainsi qu’est né le Big Data pour répondre à un besoin matériel mais aussi à un besoin en termes de Business. On le définit plus communément par les 3V, soit[2]:
– le Volume : désignant les quantités de données internes stockées par les logs des systèmes informatiques, les données des utilisateurs, des clients ou même des employés, mais aussi les données externes disponibles au travers des réseaux sociaux, des données machines (et plus particulièrement avec l’ « Internet of Things »), ainsi que les données publiés au travers du programme « Open Data ». Il n’existe plus vraiment de limitation dû à un coût de stockage rétention des données réduit.
– la Vitesse : les besoins de traiter des informations plus vite, parfois en temps réel, pour une prise de décision plus rapide et une adaptation à la vitesse dictée par le business.
– la Variété des données : de plus en plus de données non structurées (texte, vidéos, …) apparaissent.
Mais alors comment peut-on mettre en place une telle architecture et s’adapter au tournant « Big Data » ? L’IDC prédit une valeur totale du marché du Big Data à 16.1[3] milliards de dollars dans le monde ainsi qu’une croissance de ce domaine égale à six fois celle du marché de l’informatique en 2014, jusqu’à atteindre une valeur de 32.4 milliards de dollars en 2017[4]. C’est donc un domaine évoluant rapidement et ceci est d’autant plus vrai que la Suisse atteint maintenant une phase d’adoption et d’acceptation du Big Data rendant les investissements dans cet axe fructueux. En plus de ceci, le marché Suisse du Big Data bénéficie d’un avantage par rapport au Etats-Unis ; en effet, les lois sur la protection des données et de la vie privée font de la Suisse un bon endroit pour stocker des données dans des « data centers».
Comme cas d’utilisation nous pouvons noter l’amélioration de l’organisation interne d’une compagnie en faisant un meilleur monitoring de l’utilisation des systèmes ou même l’anticipation d’éventuelles failles de sécurité. Pour ce qui est d’applications orientées vers les utilisateurs il y la prédiction des achats, l’analyse des sentiments par rapport aux produits, le maintien des clients et leur acquisition, l’anticipation d’éventuelles fraudes, ainsi que l’amélioration des services après-vente.
Il est vrai que le Big Data représente une réelle opportunité et ne disparaîtra pas puisque les quantités de données générées ne cessent de croître et les besoins seront toujours de plus en plus nombreux; cependant il existe souvent des incompréhensions par rapport aux processus à utiliser pour le Big Data, au choix des outils appropriés pour des tâches spécifiques et, en général, aux meilleures pratiques. Il faut donc éviter de tomber dans le piège du « buzz » du Big Data et vouloir en faire à tout prix. Il faut surtout comprendre les besoins de votre entreprise, utiliser les outils adéquats pour le Big Data et surtout commencer par analyser des données avant de passer à la prochaine étape des données massives. Il existe certes un grand retour sur investissement mais les procédés Big Data sont complexes et il n’est donc pas possible de se baser sur une solution toute faite car il faut une certaine maturité, souvent acquise par l’expérience.
Amine Mansour – Rédacteur pour le magazine Le Monde Economique