Cette interrogation paraît légitime au regard de toutes les définitions données et des slogans marketing des éditeurs et intégrateurs qui voient en ce besoin client avant tout une source de croissance, quitte à vider le big data de son sens. Le marché n’a donc pas réellement de vrai visage. Pour autant, tout n’est pas à jeter, des initiatives sérieuses existent. Prenons tout d’abord quelques chiffres pour donner une taille à ce marché d’avenir. Selon une étude de Markets and Markets (2013), le marché du big data devrait progresser annuellement de 26 % et atteindre 46 milliards de dollars en 2018. L’intérêt du big data est également différent en fonction des zones géographiques. Ainsi, Matteo Pacca de McKinsey a indiqué « que 30 % des demandes de clients aux équipes de McKinsey concernant le big data viennent des États-Unis, 12 % viennent de Grande-Bretagne, idem pour l’Allemagne, tandis que la France ne représente que 7 % ». (Source : CIO / avril 2013)
Ces quelques données mettent en avant l’attrait des marchés du décisionnel et du big data qui sont avec le Cloud Computing les projets informatiques d’avenir. Les institutionnels l’ont bien compris. Ainsi, la commission présidée par Anne Lauvergeon a remis à l’Élysée un rapport visant à positionner la France à la pointe de l’innovation. Le big data est l’une des sept priorités évoquées.
Mais aborder un projet de big data revient dans un premier temps à se poser de bonnes questions et à définir un cadre précis et reposant sur une approche structurée. L’objet de ce document n’est pas de revenir sur des axes maintes fois abordés, mais d’évoquer deux points précis : la prise en compte de la variété des données et l’analyse en temps réel.
Dans ce contexte, le big data n’est pas uniquement réservé aux grands comptes gérant de très gros volumes de données. En effet, à son échelle, une PME doit également pouvoir capitaliser sur ses flux de données et s’en servir pour accroître sa compétitivité et ses performances. A la différence des grands groupes, les PME ne travaillent pas en mode « silos », les contenus sont donc plus éclatés et il est nécessaire d’avoir une approche big data pour utiliser au mieux les données.
Il est aussi important de parler de vitesse d’analyse. Il s’agit d’entrer dans l’approche temps réel. Cette dernière doit être une caractéristique du big data. Les entreprises pourront alors piloter au plus juste leur activité et prendre de bonnes décisions basées sur des données toujours actualisées. Il s’agit d’une réelle valeur ajoutée pour les entreprises pouvant utiliser de tels outils.
Le volume est une des composantes du big data mais la vitesse de traitement et la variété des données sont toutes aussi importantes, voire prioritaires, à tout lancement d’un projet big data. Le défi des éditeurs est bien de travailler sur ces composantes.
Ceux d’entre nous qui communiqueraient sur le lancement d’une offre big data parce qu’ils ont simplement mis à disposition de leurs utilisateurs un connecteur avec les offres Google BigQuery, Amazon Redshift et autre SAP Hana, n’auraient tout simplement pas compris les fondements et les avantages du big data.
Savoir traiter aisément des flux de données en temps réel structurés ou non le tout en self-service, voilà le défi que nous avons à relever. Car comme ce que nous connaissons autour de la BI, le big data n’est pas seulement l’affaire du département informatique mais bien des métiers.
Par Christophe SUFFYS, Fondateur de Bittle
Et aussi dans les
ressources documentaires :
Et aussi dans l’actualité :