Big Data: des décisions optimales à bas coût

4 juin 2015

Big Data: des décisions optimales à bas coût

Les preneurs de décisions d’aujourd’hui doivent être capables de mesurer de manière tangible les retours sur investissement or ils ne se tournent pas systématiquement vers des solutions Big Data car beaucoup estiment encore qu’il n’est pas possible de quantifier l’impact de cette nouvelle mouvance et que ces solutions sont chères. Si vous vous référez à mon précédent article[1], ceci est totalement en contradiction avec la définition-même du domaine, qui prône la réduction des coûts d’infrastructure et la génération de revenus par une meilleure analyse des données. L’idée reçue principale est qu’il est nécessaire de récolter d’importants volumes de données (dans l’ordre des pétabytes) dans de vastes serveurs onéreux et qu’il faut transformer une grande partie de la structure informatique de la compagnie. Néanmoins, la quantité de données dépend souvent de la taille de l’entreprise en question. On va toujours privilégier la qualité sur la quantité des données à traiter. Dès que les quantités deviennent trop importantes, alors le principe sous-jacent du « Scale-Out vs Scale-Up » est de mise, où il vaut mieux privilégier un grand nombre de serveurs à moindre capacité plutôt que d’augmenter les performances d’un petit nombre de machines. Cela revient moins cher et est plus performant. De plus, il n’est pas question d’importants changements dans vos systèmes, puisqu’il est préférable d’intégrer ces nouveaux outils à vos systèmes existants. Un deuxième axe permettant d’implémenter ces stratégies avec un budget limité est celui des projets. Le Big Data se base sur des méthodologies de projets précises, qui nous permettent d’obtenir des retours concrets avec des investissements limités.

Afin d’améliorer la prise de décision, les compagnies misent de plus en plus sur l’importance de la donnée car elle est représentative de diverses fonctions au sein d’une entreprise : IT, Marketing, Vente, R&D, Support, … Par conséquent les décisions sont davantage basées sur des données (« Data Driven Decision Making »[2]) et de moins en moins sur l’intuition. Le « Data Mining » ou la « Data Science » qui sont utilisés en entreprise en sont l’application. Utilisés dans le Big Data pour extraire de la valeur des données, ils sont un facteur de réussite en se basant sur des méthodologies Agiles et le « Fail Fast », expliqué ci-après. Une solution regroupera donc plusieurs petits projets complétés dans une courte période de temps pour pouvoir obtenir des résultats rapidement. Au vu de l’évolution constante des besoins métiers et de la dynamique de génération de données, il faut être en mesure d’adapter les objectifs et les mesurables du projet à tout moment en excluant toute architecture trop hiérarchisée et processus complexes. De ce fait, il s’agit surtout de pouvoir créer et mesurer de la valeur en limitant les coûts. En subdivisant le projet en différentes tâches qui suivent un cycle itératif, cela permet d’obtenir une meilleure gestion globale du projet mais aussi de recommencer assez rapidement et indépendamment, une tâche, en cas d’échec.

Concrètement, cela s’illustre en partie par la méthodologie CRISP-DM (The Cross Industry Standard Process for Data Mining) utilisée en industrie. L’enjeu principal se situe au niveau de la définition des objectifs Business à atteindre, puis à les subdiviser en plusieurs étapes d’analyses. On suivra ceci avec un processus d’amélioration continu itératif tout en restant à l’écoute du Business. Il est donc primordial d’entamer ces projets de façon pragmatique et de ne pas oublier certains aspects essentiels comme la qualité des données. En effet, il faut s’assurer de leur validité et, ainsi, mettre en place des processus de gouvernance des données qui s’allient à la gouvernance d’entreprise.

La tendance des éditeurs de logiciels à favoriser la facilité d’utilisation sur le développement des fonctionnalités peut avoir pour conséquence de banaliser certains processus non négligeables comme, par exemple, le travail des données en amont pour les rendre exploitables mais surtout l’expérience de l’utilisateur dans ce type d’applications. Que ce soit l’expérience métier, technique en algorithmique ou en gouvernance.

Ainsi, avec des outils Big Data de plus en plus accessibles, un risque minimal et l’expertise de votre domaine, vous avez les clés en main pour obtenir les réponses qu’il vous faut et prendre des décisions informées.

 

Recommandé pour vous