Le Big Data se traduit par l’explosion du volume des données dans l’entreprise et aux nouvelles technologies qui apparaissent pour traiter ces données. Les analyses Big Data peuvent mener à différentes finalités comme la modélisation pour mieux fixer le prix d’une nouvelle gamme de produits, les analyses prospectives pour mieux appréhender les attentes des clients et la simulation pour prévoir divers évènements entre autres.
Dans quels secteurs d’activités il entre en jeu
Les secteurs d’activités dans lesquels la technologie big data entre en jeu sont extrêmement vastes, puisqu’il intervient dans tous les domaines qui utilisent la statistique : la banque, l’assurance, le marketing… On peut également remarquer que le Big Data prend une importance de plus en plus grande dans les secteurs de la santé, de l’agro-alimentaire et de l’industrie.
Depuis quand le Big Data existe-t-il ?
Le terme Big Data a été récemment utilisé pour qualifier les études de données en grande quantités, c’est à dire, nécessitant le concours de plusieurs ordinateurs actuels performants. C’est seulement vers 2009 qu’elle a été popularisée et les premières recherches à ce sujet datent de la fin des années 90. La notion de Big data est cependant à relativiser selon les époques.
Un peu d’histoire pour comprendre le big data
Pour décrire les phénomènes qu’il observait, l’homme utilisait déjà, il a des milliers d’années, des données directes de la nature. On parle dans ce cas de science empirique. Il y a quelques centaines d’années, les mathématiques et la physique ont été théorisées et formalisées donnant un ensemble de formules. Depuis quelques dizaines d’années, la simulation de phénomènes complexes est rendue possible grâce à l’évolution des technologies et de l’informatique. On parle alors de calculs numériques et de simulations. L’association des théories, de l’expérience et des simulations nous amène actuellement à la data science. Les données sont collectées, simulées, analysées et vérifiées.
Pour une histoire plus détaillée du Big Data, il est très instructif de se reporter à l’article de Gil Press daté du 5 mai 2013 : “une très courte histoire du Big Data” (Forbes.com).
En une trentaine de dates de 1944 à 2012, il retrace la prise de conscience précoce de l’explosion des données (dans les rayons des bibliothèques universitaires dans un premier temps, puis via les NTIC), avec comme préoccupation centrale d’en quantifier la croissance tout en apportant quelques considérations critiques autour du déluge informationnel.
L’explosion des données est en effet d’abord perçue comme une menace sur la vie privée (« Assault on privacy – 1971- Arthur Miller).
Mais également du côté technique : l’espace de stockage grandit, mais les données s’étendent systématiquement jusqu’à le combler (Loi de parkinson, 1980). Dans les années 70, la qualité des données est enfin mise en cause : tout est stocké, il n’est plus utile de faire le tri.
Le terme « Big Data » fait finalement son apparition en octobre 1997 dans la bibliothèque numérique de l’ACM (association for computing machinery), au sein d’articles scientifiques qui pointent du doigt les défis technologiques à visualiser les « grands ensembles de données ». Le Big Data est né, et avec lui ses nombreux défis.