Article
Le big data peut se définir comme la transformation d’un maximum de données de toutes natures en informations susceptibles d’aider à la prise de décision. Cette dernière pourra soit être générée automatiquement par un robot – on parle alors d’intelligence artificielle (IA) –, soit relever de l’homme et dès lors être basée sur des faits réels, et non plus sur des croyances qui guident encore trop souvent des dirigeants persuadés de la pertinence de choix s’appuyant pourtant uniquement sur leurs ressentis.
Malgré une popularité croissante, qui confère au terme de big data un caractère de nouveauté, la plupart des techniques utilisées aujourd’hui sont connues depuis très longtemps. Les experts s’accordent ainsi pour citer les travaux d’Alan Turing, dans les années 1950, comme les premiers pas dans le développement de l’IA. Le traitement automatique du langage naturel est également né à la même période. L’apprentissage automatique – ou machine learning –, pour sa part, est un terme inventé en 1959 par Arthur Samuel. Et si l’apprentissage profond – deep learning – est une technique révolutionnaire largement utilisée dans l’IA, elle a néanmoins vu le jour dans les années 1980-1990, notamment développée par Yann LeCun.
Toutefois, l’analyse complexe des données demeurait, jusqu’en 2005 environ, très difficile, pour ne pas dire impossible, car coûteuse en ressources de calcul et en raison du faible nombre de données numérisées. Par exemple, en 1956, le premier ordinateur à disque dur commercialisé, IBM RAMAC 305, disposait d’une capacité de 5 méga-octets seulement, pour un coût de 100 000 euros…
Plan
Auteur
Sur un sujet proche
- Mis en ligne sur Cairn.info le 29/06/2018
- https://doi.org/10.3917/ris.110.0089

Veuillez patienter...