CAIRN.INFO : Matières à réflexion

1 – Introduction [1]

1Même si, depuis les travaux de Frank H. Knight [1921], le futur est une catégorie d’analyse privilégiée de l’économie, il n’est pas un objet d’étude réservé à cette seule discipline. Pour l’anthropologue Arjun Appadurai [2013], c’est aussi un fait culturel qui joue un rôle social fondamental : pour comprendre la manière dont les acteurs économiques conduisent leurs actions, il est important de saisir comment ils se représentent le futur. Dans la lignée des études sociologiques menées sur la performativité des sciences économiques [cf. Callon, 1998], nous pourrions ajouter que, pour saisir la façon dont ces acteurs se représentent le futur, il est nécessaire de comprendre la manière dont ils traduisent les incertitudes en risques. En référence à la distinction qu’opère Frank H. Knight [1921] entre incertitude et risque, la sociologie peut en effet permettre de mieux comprendre comment les acteurs économiques transforment des avenirs incertains, c’est-à-dire où l’horizon des possibles n’est pas connu, en avenirs risqués, c’est-à-dire où l’horizon des possibles est représenté par des probabilités de réalisation de situations indésirables. Une des contributions de cet article est de pointer qu’avec le développement des applications marchandes des technologies big data, qui est une composante importante de la « société recommandée » [Chavalarias, 2012], l’étude sociologique des futurs économiques peut également consister à mieux comprendre comment les acteurs de l’offre transforment les incertitudes en incitations à consommer.

2Pour réaliser ce projet, nous mobiliserons deux concepts fondamentaux : celui de prédiction et celui de prévision. D’une manière générale, la notion de prédiction désigne « l’action de prédire une chose sûre », c’est-à-dire le fait d’« annoncer d’avance ce qui arrivera » d’une façon certaine [cf. www.cnrtl.fr]. La notion de prévision signifie quant à elle « l’action de prévoir », c’est-à-dire le fait d’« envisager les événements à venir et [de] prendre les mesures, les dispositions nécessaires » ou, si l’on préfère, de « disposer [d’]organiser d’avance » [cf. www.cnrtl.fr]. Dans le sens des travaux de John W. Thompson [1964], le concept de prédiction renvoie ainsi à ce que nous pourrions appeler une prévision exacte qui, par définition, s’oppose au principe d’incertitude d’Heisenberg selon lequel toute prévision est généralement non exacte [2]. La notion de prédiction réfère par là même à un futur que nous qualifierons de « déterminant » dans la mesure où il doit être perçu comme tel pour calmer les angoisses que les hommes éprouvent face à leur avenir [Taleb et al., 2009]. Car, en référence à la théorie wébérienne du prophétisme [cf. Weber, 1971], le futur que fait exister une prédiction a généralement pour fonction de libérer les acteurs sociaux des inquiétudes qu’ils éprouvent vis-à-vis du sens du monde qui les entoure [Bourdieu, 2015]. A contrario, la notion de prévision réfère à un futur que nous qualifierons, cette fois-ci, d’« organisant ». Comme le pointent les travaux de Thomas Angeletti [2012], la prévision, qu’elle soit économique ou non, peut être comprise comme un calcul rationnel qui consiste à projeter le passé dans l’avenir afin de pouvoir organiser le présent. Ici, le futur a par conséquent moins pour fonction de supprimer les incertitudes que de les contenir en les transformant en ressources ou contraintes (e.g., des recommandations ou des risques) de façon à permettre aux hommes d’organiser leur présent. En d’autres termes, nous proposons de définir la notion de prédiction comme l’ensemble des modes d’appréhension du futur qui sont déterministes : qu’elle soit d’ordre plus ou moins eschatologique, la prédiction exprime un futur déterminant qui dépasse le champ d’action des individus et des collectifs qu’ils composent. À l’inverse, nous considérons que la prévision, qu’elle soit économique ou non, recouvre une distanciation vis-à-vis des religions et des philosophies qui prônent l’existence d’un futur déterminant : la prévision exprime plutôt la volonté dont font preuve les humains pour prendre en main un futur appréhendé comme incertain. Et c’est précisément en ce sens que l’avenir que fait exister la prévision est moins déterminant qu’organisant. À la différence de la prédiction, qui constitue un mode d’appréhension du futur échappant aux hommes, la prévision est le résultat, fragile et contingent, d’une configuration sociale spécifique.

3Aussi, en référence aux travaux de Pierre Bourdieu [1977], les notions de prédiction et de prévision peuvent être mobilisées pour décrire l’évolution des régimes de production du futur qui accompagne le mouvement de rationalisation des civilisations modernes [Weber, 1959]. À la communauté pré-moderne correspondrait la prédiction qui serait associée à une rationalité traditionnelle qui ferait autorité (i.e., le futur est déterminé). À la civilisation moderne correspondrait la prévision qui renverrait à une rationalité calculatoire permettant d’atteindre une finalité (i.e., le futur est organisé). Toutefois, dans la continuité des travaux de Thomas Angeletti, d’Arnaud Esquerre et de Jeanne Lazarus [2012], nous pensons que les notions de prédiction et de prévision désignent deux modes d’appréhension du futur qui ne doivent pas être compris comme appartenant à deux sociétés différentes. Comme le montrent les travaux de Cécilia Calheiros [2012], les « modernes » savent par exemple articuler les logiques de prédiction et de prévision pour produire leur futur : le projet Webot qu’étudie l’auteur consiste à développer un système de calcul rationnel capable de prédire la fin du monde.

4Cet article se situe dans la lignée de ces travaux. Il a pour objet d’examiner la manière dont le mouvement big data participe à l’institution de nouveaux modes d’appréhension du futur par les acteurs qui conçoivent les technologies de traitement de mégadonnées et pour ceux qui les implémentent au sein de leur organisation. Avec le développement des Technologies de l’information et de la communication (TIC), les activités de consommation les plus banales provoquent la production de grandes quantités de données numériques. Du point de vue des acteurs économiques, ces données sont intéressantes. Une fois associées aux algorithmes dits prédictifs, les big data doivent permettre aux offreurs d’anticiper les comportements des consommateurs de manière à leur communiquer des informations qui doivent les inciter à penser et agir d’une certaine façon. L’objectif des concepteurs de ces algorithmes est alors de réduire les incertitudes inhérentes aux activités marchandes de façon à intéresser les commerçants qui les implémentent en leur permettant de mieux vendre leurs produits. Partant, afin de mieux saisir comment le développement de ces technologies contribue à l’instauration d’une nouvelle culture du futur, nous proposons de traiter le questionnement suivant. Comment sont conçues ces machines ? Comment fabriquent-elles leur futur ? Comment permettent-elles d’articuler les logiques de prévision et de prédiction ?

5Notre développement sera organisé en trois sections. Dans le point 2, nous exposerons le matériau d’enquête sur lequel reposent nos propos. Nous verrons que celui-ci porte sur le cas de différentes applications marchandes des technologies de traitement de mégadonnées. Dans le point 3, nous exposerons en quoi les algorithmes d’apprentissage artificiel qui sont au cœur de ces technologies renvoient à une logique de prédiction. Nous verrons que cette logique repose sur une posture positiviste et scientiste que partagent les professionnels interviewés et qui comporte un paradoxe : si les futurs que produisent les machines qu’ils conçoivent sont réellement déterminants, c’est qu’ils ne peuvent pas être organisés. À quoi pourraient donc bien servir ces technologies si ce n’est à participer à l’organisation des marchés ? Dans le point suivant, nous montrerons que les professionnels enquêtés ont conscience que les avenirs que fabriquent leurs algorithmes ne sont pas l’expression d’une réalité immanente, mais la résultante d’une construction sociotechnique : les représentations du monde que produisent ces machines font l’objet d’un travail de mise en pertinence, c’est-à-dire de construction de l’intérêt que peuvent trouver les acteurs économiques à les utiliser, qui est intentionnellement co-élaboré par leurs concepteurs et leurs implémenteurs. Nous soutiendrons alors qu’en tant que conception, ces machines sont associées à des logiques de prévision dans la mesure où elles ont évidemment pour fonction de produire des futurs organisants, c’est-à-dire qui puissent permettre à ceux qui les implémentent de mieux agencer leurs affaires dans le temps. Finalement, nous pointerons l’originalité de cette nouvelle culture du futur que participent à instituer les algorithmes prédictifs : ils offrent une solution relativement réaliste au paradoxe que recèle l’idée d’un futur pouvant être à la fois déterminant et organisant.

2 – Matériau d’enquête

6Les analyses que nous présentons dans cet article reposent sur un matériau que nous avons recueilli au cours de trois enquêtes.

7La première a consisté à recueillir un ensemble de documentations, d’enregistrements audio et vidéo lors des visites que nous avons réalisées, en 2014, des salons big data, E-marketing et Stratégie Clients (cf. annexe 1). De notre point de vue, ces salons sont intéressants dans le sens où ils constituent des lieux d’apprentissage collectif au sein desquels sont véhiculées diverses représentations, au fondement de cette nouvelle culture du futur que participe à instituer le développement des applications marchandes des technologies big data.

8Lors de la deuxième enquête, nous avons effectué des entretiens et des observations auprès de trois entreprises développant des applications marchandes des technologies big data. L’annexe 2 présente brièvement les activités de ces entreprises. Les entretiens et les observations que nous avons effectués auprès de ces trois sociétés avaient alors pour objectif de nous permettre de mieux comprendre la conception, le fonctionnement et l’implémentation des machines à produire des futurs qu’elles développent. Ils ont été conduits durant trois projets de collaboration. L’annexe 3 expose les statuts et les formations des principaux informateurs mobilisés durant l’ensemble de ces projets.

9La troisième enquête a pris la forme d’une série d’entretiens qui a été conduite auprès de 13 professionnels des données (data scientists). Précisons que ces entretiens ont été centrés sur les activités de conception des algorithmes prédictifs. L’annexe 4 expose les statuts et les formations de l’ensemble de ces professionnels.

3 – Les algorithmes et la logique de prédiction

10Dans cette section, nous proposons de montrer en quoi les machines à produire des futurs économiques que développent les enquêtés relèvent d’une logique de prédiction. Pour ce faire, nous commencerons par exposer les principes de base de leur fonctionnement. Nous verrons qu’avant d’être prédictifs, les algorithmes qui composent ces machines sont des technologies d’apprentissage artificiel. Ce détour nous permettra de mieux comprendre comment le caractère prédictif de ces algorithmes n’est en rien une qualité qui leur est intrinsèque. Nous exposerons ainsi la façon dont les professionnels rencontrés en sont arrivés à qualifier ces algorithmes de prédictifs. Ceci nous permettra de mettre en avant le fait que la logique de prédiction qu’associent ces professionnels à leurs technologies renvoie à des postures épistémologique et pragmatique particulières. Nous soutiendrons que ce sont ces postures qui permettent de conférer aux futurs que produisent ces machines un caractère déterminant. Nous finirons par pointer le paradoxe que recouvre la notion d’algorithme prédictif au regard de nos données d’enquête.

3.1 – D’une logique d’apprentissage…

11Qu’est-ce qu’un algorithme prédictif ? Un algorithme prédictif est d’abord un dispositif d’apprentissage artificiel qui repose généralement sur des méthodes de calcul statistiques. Certains spécialistes parlent en ce sens de technologie d’apprentissage statistique. Par exemple, les chercheurs en informatique [e.g., Cornuéjols et Miclet, 2010] considèrent la régression linéaire comme une des plus anciennes techniques d’apprentissage artificiel. À partir d’un ensemble de données d’entrées notées x et de sorties notées y, la régression linéaire peut en effet permettre à une machine d’apprendre à déterminer la fonction f(x) que représente la droite exposée dans la figure ci-dessous.

Figure

Apprentissage artificiel par régression linéaire

Figure

Apprentissage artificiel par régression linéaire

12Grâce à cette droite f(x), une machine peut donc déterminer les sorties y qui sont inconnues et qui correspondent aux données d’entrées x observées. Par le biais de cette technique statistique, une machine pourrait ainsi apprendre une règle du type : plus un consommateur a un revenu élevé (cf. les données d’entrées x) et plus la part des dépenses quotidiennes qu’il confère aux produits de consommation non alimentaire est grande (cf. les données de sorties y). En observant le seul revenu du consommateur, cette machine pourrait par conséquent calculer ses dépenses quotidiennes non alimentaires. D’autres systèmes d’apprentissage artificiel ne reposent pas sur la méthode de la régression linéaire. Par exemple, les grands acteurs de l’Internet (e.g., Google ou encore Facebook) font confiance aux réseaux de neurones profonds (i.e., deep learning). Ces technologies sont composées d’un assemblage spécifique d’un très grand nombre d’unités de calcul élémentaire censées reproduire le fonctionnement du cerveau biologique. Cet assemblage, qui n’est en réalité qu’une abstraction représentée par une formule mathématique, permet alors d’apprendre automatiquement, non plus des fonctions linéaires simples comme celles exposées dans la figure 1, mais des fonctions non linéaires extrêmement complexes. Pour certains, les réseaux de neurones profonds seraient ainsi capables d’apprendre la fonction f(x) leur permettant, par exemple, de calculer les appétences d’un consommateur (qui correspondraient aux sorties y) à partir de l’analyse de ces expressions faciales (qui correspondraient aux entrées x). Aussi, bien qu’il nous soit impossible de rendre compte de la diversité des technologies d’apprentissage artificiel dans cet article, nous souhaitons mentionner qu’à l’instar de la régression linéaire et du réseau de neurones, la quasi-totalité des techniques d’apprentissage artificiel renvoient à un même principe : apprendre à déterminer, à partir d’un ensemble de situations passées (i.e., d’un échantillon de données x et y stocké en mémoire), le futur (i.e., la sortie y) d’une situation présente (i.e., une entrée x).

13Une des plus importantes particularités des technologies d’apprentissage artificiel appliquées à la gestion de la relation client est qu’elles déplacent les épreuves d’explicitation qui jalonnent la mise en algorithme des activités économiques [Muniesa, 2003] : il ne s’agit plus de mettre en algorithme ce qui compte pour anticiper le futur [Doganova, 2014], mais de mettre en algorithme ce dont une machine a besoin pour apprendre à effectuer ces anticipations. Le cas de la recommandation de biens de consommation que pratiquent les e-commerçants comme Amazon constitue un exemple caractéristique de ce déplacement. Les algorithmes de filtrage collaboratif (i.e., user-to-user) et basé sur le contenu (i.e., item-to-item) qu’ont beaucoup mobilisés les grands acteurs de la vente sur Internet pour recommander à leurs consommateurs, par exemple, des livres, des films ou des musiques, encapsulent des hypothèses fortes sur la manière dont il est possible d’anticiper les préférences des consommateurs : les algorithmes de filtrage collaboratif mettent en action la théorie selon laquelle les préférences d’un consommateur peuvent être anticipées à partir de celles d’autres consommateurs dont les profils sont semblables ; les algorithmes de filtrage basé sur le contenu font, quant à eux, exister la théorie selon laquelle les préférences d’un consommateur peuvent être anticipées à partir des caractéristiques des biens qu’il a plus ou moins implicitement déclarés comme intéressants. Or les algorithmes d’apprentissage que conçoivent les professionnels que nous avons enquêtés pour automatiser la gestion de la relation client ne font exister aucune hypothèse de ce type. Comme leur nom l’indique, ces algorithmes sont conçus à partir de théories de l’apprentissage, c’est-à-dire de métathéories portant sur la manière dont une machine peut apprendre une théorie. Afin de rendre plus concrets nos propos, nous proposons de nous appuyer sur les cas de deux sociétés enquêtées : la société S_02 et la société S_03 qui développent différentes technologies de personnalisation des environnements numériques marchands à destination des e-commerçants (cf. annexe 2). La société S_03 mobilise des méthodes d’apprentissage dites « connexionnistes », c’est-à-dire fondées sur le principe du réseau de neurones artificiel. Comme nous l’avons signalé plus haut, ces méthodes reposent sur l’hypothèse générale que l’apprentissage est une fonction biologique que réalise le cerveau et qui, compte tenu de son caractère physiologique, peut être reproduit matériellement. Ainsi, à la différence des algorithmes de filtrage collaboratif et basé sur le contenu dont nous venons de parler, la technologie développée par S_03 n’encapsule pas de visions particulières sur la manière dont il est possible de définir les préférences des consommateurs, mais sur la façon dont il est possible de les apprendre. Elle véhicule alors une représentation naturaliste de l’apprentissage, c’est-à-dire l’idée que ce dernier est réalisé par un ensemble d’unités de calcul élémentaire (i.e., des neurones) qui se lient et se délient en fonction de leur activation et de leur inhibition. Et il en est de même pour la société S_02, à la différence du fait que les méthodes d’apprentissage par renforcement que développe cette entreprise font, quant à elles, exister une représentation comportementaliste de l’apprentissage, c’est-à-dire l’idée que ce dernier est effectué au cours d’une suite d’interactions que l’entité apprenante entretient avec son environnement et qui fait l’objet d’une évaluation se manifestant par le biais de punitions/récompenses [3].

14Aussi, cette différence de fonctionnement qui existe entre les algorithmes de filtrage collaboratif, basé sur le contenu, et ceux dits d’apprentissage que conçoivent les sociétés S_02 et S_03 est importante dans le sens où elle implique une redistribution de l’expertise entre les humains et les machines. Cette redistribution a en effet de fortes implications sur le plan cognitif. La grande révolution annoncée par les promoteurs du mouvement big data repose sur cette capacité que détiennent les algorithmes d’apprentissage à induire la règle d’inférence (i.e., la fonction f(x)) qui permet d’associer un échantillon de données (x, y). N’est-ce pas cette capacité qui a conduit certains spécialistes à affirmer qu’avec beaucoup de données, il n’y a plus besoin de théorie [Anderson, 2008] ? Cette affirmation, que nous avons entendue à maintes reprises lors des salons visités, est d’ailleurs la plus éloquente manifestation de cette posture épistémologique positiviste et scientiste que partagent, à des degrés divers, l’ensemble des professionnels rencontrés. Selon nous, c’est précisément cette posture qui permet de comprendre le glissement sémantique entre algorithme d’apprentissage artificiel et algorithme prédictif. Autrement dit, sur le plan purement technique, les sorties y que produisent les systèmes d’apprentissage artificiel ne sont que de simples projections statistiques. Afin de mieux comprendre comment les humains leur confèrent un caractère prédictif, nous proposons alors, dans la section suivante, de nous intéresser à la façon dont ceux qui fabriquent ces technologies conçoivent le glissement sémantique susmentionné.

3.2 – … à une logique de prédiction

15Comme nous l’avons vu, un algorithme prédictif est un algorithme d’apprentissage artificiel auquel on confère un pouvoir de prédiction. C’est donc précisément ici que se trouve la fonction de cette nouvelle physique sociale que souhaitent faire exister les professionnels enquêtés. Si ces derniers parlent d’algorithmes prédictifs pour qualifier les systèmes d’apprentissage artificiel qu’ils développent, c’est parce qu’ils pensent : d’une part, que la société est régie par des lois qui s’apparentent à celles de la physique classique ; et, d’autre part, que les machines, une fois connectées aux mégadonnées, sont les seules à être capables de découvrir, d’intégrer et d’appliquer ces lois compte tenu de leur complexité. L’extrait d’entretien qui suit est un exemple de la manière dont cette posture positiviste et scientiste peut être exprimée. Au fil des questions que nous lui avons posées sur ses activités professionnelles, E_09 a souhaité nous faire partager sa vision de ce qu’est la science des données :

16

« Pour moi, mon travail ressemble beaucoup à ce que fait un physicien. Ce que fait un physicien, c’est qu’il va chercher à comprendre le monde qui l’entoure […]. Pendant longtemps, il observait avec ses propres yeux. Plus récemment, il s’est créé des outils d’observation. Des microscopes […] des télescopes […]. Le data scientist, il fait un peu ce métier-là […]. Sauf qu’au lieu d’essayer de comprendre le monde qui l’entoure, il essaie de comprendre les data qui l’entourent […]. Si je continue sur cette illustration […] le big data, c’est un petit peu comme si notre physicien était enfermé dans une maison […]. Et, du jour au lendemain, les portes de la maison s’ouvrent. Il se retrouve à l’extérieur et tout ce qu’il a observé augmente d’un coup de façon considérable. »
(E_09)

17Avec le développement des TIC, des pans toujours plus importants du monde sont numérisés pour être transformés en une immense quantité de données. Comme le souligne E_09, si l’activité du professionnel des données ressemble à celle du physicien, le premier ne s’intéresse pas tant au monde qu’aux données qui le représentent. Il ressort en effet des salons big data, E-marketing et Stratégie Clients 2014 que la grande promesse des big data est de rendre le monde calculable ; que celui-ci soit considéré dans sa dimension sociale, matérielle ou naturelle. En arrière-plan de la vision que E_09 a de la science des données se dessine ainsi un imaginaire largement partagé. Cet imaginaire voudrait que les centres de données, les réseaux de télécommunications et l’ensemble des objets qui connectent le monde à Internet forment un dispositif d’observation qui permettrait d’aborder sous l’angle de la physique, non plus seulement les faits naturels, mais aussi les phénomènes sociotechniques. En forçant le trait, la science des données serait alors amenée à dépasser les autres. Elle pourrait même se donner pour objet d’identifier informatiquement le code qui détermine le fonctionnement du monde. Soulignons qu’une telle manière de représenter les choses est stylisée. À notre connaissance, les professionnels rencontrés n’ont jamais formulé leur vision du big data en ces termes. Il n’en reste pas moins que nous retrouvons cette posture positiviste et scientiste dans les discours que tiennent ces derniers pour présenter la science des données telle qu’ils la pratiquent.

18

« Le principe dans le machine learning c’est qu’on apprend les choses […]. Pour chaque goût vous avez un modèle […]. Vous regardez la variété du modèle et à quel moment votre performance plafonne. Il faut à peu près 500 paramètres en marketing […]. Et non seulement vous répondez au problème des philosophes qui voudraient qu’un concept est une catégorie d’analyse qui n’existe pas en soi, c’est une classe de construit […] ; non seulement ça existe, mais la dimension c’est 500. »
(E_10)

19En résumé, pour E_10, les technologies d’apprentissage artificiel qu’il développe sont des moyens d’atteindre la réalité de manière immanente. Pour lui et a contrario des professionnels de la communication, les outils de marketing automatiques qu’il propose aux e-commerçants ne sont pas biaisés par ce qu’il appelle les préjugés. À la différence des humains, ces outils saisissent le monde de manière positive, au sens scientifique du terme. Autrement dit, si E_10 n’exprime pas explicitement l’idée que ces technologies permettent de dégager le code qui détermine le fonctionnement du monde, il soutient qu’elles peuvent identifier informatiquement celui qui régit les préférences des consommateurs : « Pour chaque goût vous avez un modèle […] la dimension c’est 500. » Ainsi, si les professionnels rencontrés qualifient leurs algorithmes de prédictifs, c’est parce qu’ils pensent que le monde social, à l’instar du monde naturel, est déterminé par un ensemble de règles que les technologies d’apprentissage artificiel sont capables de découvrir. Notons que, comme le montrent les annexes 3 et 4, il est probable que ces professionnels, souvent issus de formations en mathématiques et en informatique, aient développé cette vision du monde au cours de leur socialisation estudiantine.

20Mais il existe une autre raison qui, moins d’ordre épistémologique que pragmatique, permet de comprendre comment les professionnels des données sont amenés à qualifier leurs algorithmes de prédictifs. Car, s’ils le font, c’est aussi parce que les règles que produisent ces systèmes n’ont pas vraiment à être comprises, interprétées et discutées par les humains. Afin de pouvoir être appliqués, les futurs que fabriquent ces machines doivent être considérés comme des prévisions exactes (i.e., des prédictions) qui n’ont, de ce fait, pas à être questionnées, que ce soit sur les plans cognitif, politique ou moral [cf. Thompson, 1964]. Si les professionnels interrogés ont conscience que leurs algorithmes font des erreurs, il n’en reste pas moins qu’ils considèrent les futurs que fabriquent ces derniers comme déterminants. Deux éléments permettent d’expliquer ce fait. Le premier est que les règles que découvrent les technologies d’apprentissage artificiel qui ont le plus de succès sont généralement d’une telle complexité qu’elles ne peuvent pas être comprises par les humains [4]. Le second est que les machines qui permettent d’automatiser la décision n’ont que faire des futurs organisants. Ceux-ci sont bien trop incertains. Elles ne savent pas les interpréter. Elles ont besoin de futurs déterminants pour pouvoir décider, car c’est à cette seule condition que ces derniers peuvent autoriser l’automatisation de la décision. Ceci nous conduit à souligner une distinction intéressante qu’opèrent certains des professionnels enquêtés entre : la statistique, qui doit, selon eux, produire des connaissances pour expliquer l’action ; et la science des données, dont la finalité est plutôt de produire des prédictions pour automatiser la décision.

21

« [La science des données,] c’est une science différente [de la statistique]. Je pense qu’il ne faut pas dire que c’est une science meilleure ou moins bonne […] on ne va pas chercher l’équation qui va expliquer les choses. On va se charger de trouver le comportement de la nature de manière, entre guillemets, inexpliquée, mais mis en lumière par ces analyses de données. »
(E_01)

22

« La donnée change un petit peu de statut, parce qu’elle permet de faire des choses intéressantes et ce n’est plus qu’une simple archive. Quand on parle de statisticien, ce qu’on a en tête, ce sont des gens qui vont […] essayer de comprendre les choses […]. Ce ne sont pas forcément les mêmes buts que des gens qui veulent réfléchir à des services avec l’idée qu’on va pouvoir apporter à ces ordinateurs la capacité de décider un peu ; de prédire des choses en temps réel pour prendre des décisions et améliorer tout un tas d’outils. »
(E_04)

23Ces deux extraits d’entretien ont ainsi l’avantage de mettre en avant le fait que, à la différence de la statistique, la science des données que pratiquent les enquêtés n’a pas tellement pour fonction de comprendre la réalité que représentent les données pour expliquer l’action et prévoir son déroulement dans le temps. Elle a pour finalité de découvrir une réalité « naturelle et inexplicable » autorisant la réalisation de prédictions qui ont pour but d’automatiser la décision. En somme, si les professionnels rencontrés parlent d’algorithmes prédictifs pour qualifier leurs conceptions, c’est parce que ces dispositifs sont fabriqués selon une logique de prédiction qui peut être décomposée en deux dimensions. La première est plutôt de type épistémologique et renvoie à la position positiviste et scientiste que partagent l’ensemble des professionnels que nous avons enquêtés. La seconde est plutôt de type pragmatique et renvoie, d’une part, au fait que les apprentissages que réalisent les algorithmes conçus par ces professionnels sont souvent incompréhensibles pour les humains et, d’autre part, au fait que pour permettre l’automatisation de la décision, les futurs que produisent ces technologies doivent être considérés comme déterminants.

3.3 – Le paradoxe des algorithmes prédictifs

24Afin de bien comprendre le paradoxe que recouvre la notion d’algorithme prédictif, il nous apparaît alors important de revenir sur la dimension épistémologique de la logique de prédiction que nous venons d’exposer. Nous avons vu que le positionnement positiviste et scientiste qu’adoptent les professionnels enquêtés est d’ordre quasi eschatologique. Il repose en effet sur une vision déterministe qui n’est pas sans rappeler celle dont parle Karl Popper [1984] pour désigner le « caractère prima facie déterministe de la physique classique ».

25

« Laplace introduit […] la fiction d’une intelligence surhumaine, capable de déterminer l’ensemble complet des conditions initiales du système du monde à un instant donné […]. À condition de connaître ces conditions initiales, ainsi que les lois de la nature (les équations de la mécanique), le Démon [de Laplace] serait en mesure […] de déduire tous les états futurs du monde […] le futur du monde serait implicite dans chaque instant de son passé […]. Une théorie physique est prima faciae déterministe si et seulement si elle permet de déduire, à partir d’une description mathématiquement exacte de l’état initial d’un système physique fermé décrit dans les termes de la théorie, la description, avec n’importe quel degré fini de précision stipulé, de tout état futur du système »
[Popper, 1984, p. 25-27].

26Le caractère prédictif des algorithmes développés par les professionnels rencontrés repose ainsi sur la croyance que le monde et la réalité que représentent les mégadonnées sont isomorphes. En permettant de rendre calculables tous les aspects du monde, les big data en feraient un « système physique fermé » et autoriseraient de cette façon sa « description mathématiquement exacte ». Or, en référence aux travaux de Luc Boltanski [2012], cette représentation est discutable dans la mesure où, pour cet auteur, le monde ne peut pas être confondu avec la réalité que représentent les mégadonnées. Le monde est « tout ce qui arrive » ; la réalité est « stabilisée par des formats préétablis » [Boltanski, 2012, p. 22]. Comme nous allons le développer dans la section suivante, c’est donc ici que se trouve tout le paradoxe des algorithmes prédictifs, puisque les professionnels rencontrés connaissent cette distance : une part importante de leurs activités consiste précisément à trouver la bonne manière de relier « ce qui arrive » et la réalité que représentent les données. Il n’en reste pas moins que, d’après notre enquête, ces professionnels tendent souvent à oublier que les futurs que produisent leurs algorithmes ne représentent pas les règles qui déterminent le fonctionnement du monde, mais celles qui organisent la réalité telle que la représentent les mégadonnées [cf. Cardon, 2015] ; d’où le paradoxe que nous venons de pointer.

27Cette logique, quasi eschatologique, de prédiction [5] est alors renforcée par le fait que, comme l’exposent E_01 et E_04 dans les deux verbatim qui précèdent, la science des données ne cherche pas tellement à comprendre le monde. C’est une science de la prédiction : son but est d’abord de produire des futurs déterminants que les machines pourront interpréter pour automatiser la décision. Et c’est pourquoi l’ensemble des entreprises observées ne produisent pas de connaissances : elles ne savent pas quelles sont les règles d’inférence qu’apprennent leurs machines. Leur objectif est de produire des services, et plus précisément, des services de communication automatique et personnalisée. Sur le plan pragmatique, cette manière de concevoir l’usage que peuvent faire les humains des technologies d’apprentissage artificiel renforce alors la logique de prédiction que nous venons de pointer. Les futurs que produisent ces algorithmes n’ont pas à être compris, interprétés et discutés. Ils doivent être acceptés tels quels afin d’être directement appliqués à des problèmes de décision concrets. Et, comme nous l’avons vu, c’est aussi en ce sens qu’ils sont des prédictions.

4 – Les algorithmes et la logique de prévision

28Les algorithmes prédictifs comportent un paradoxe. Leur conception renvoie à une posture positiviste et scientiste qui voudrait que le monde et la réalité que représentent les mégadonnées soient isomorphes. Or nous avons mentionné que les professionnels rencontrés ont conscience de la distance qui existe entre le monde et la réalité que traduisent les données : une part importante de leur activité consiste à trouver la bonne manière de transformer les incertitudes qui incombent au monde des affaires de leurs commanditaires, non pas en risques [cf. Knight, 1929], mais en recommandations [cf. Chavalarias, 2012]. Leur travail leur rappelle sans cesse que les « faits sont faits » et que les « données ne sont pas données » [Desrosières, 1993]. Dans cette troisième section, nous souhaitons ainsi montrer que si les algorithmes que conçoivent ces professionnels renvoient à une logique de prédiction, en tant que conception, ils recouvrent également une logique de prévision.

29Nous commencerons par exposer les étapes qui permettent la fabrication de ces technologies. Nous développerons alors l’argument selon lequel ces dernières sont associées à une logique de prévision étant donné que leur fonction est d’aider les humains à mieux organiser le cours de leurs activités. Puis nous montrerons comment ces machines permettent de lever le paradoxe que compose cet ambitieux projet d’organiser un futur pourtant considéré comme déterminant.

4.1 – D’une logique servicielle…

30Afin de bien saisir les formes de la logique de prévision que recouvrent les machines à produire des futurs économiques, il est important de bien comprendre qu’elle est sous-tendue par une logique servicielle. Ce point nous permettra en effet de mieux saisir comment les avenirs marchands que fabriquent ces dispositifs ne sont pas neutres socialement, dans la mesure où ils sont au cœur d’un marché associant l’ensemble des acteurs de la conception et de l’implémentation de ces machines.

31Rappelons en ce sens que ces technologies de traitement de données massives sont destinées à automatiser une partie de ce que Franck Cochoy et Sophie Dubuisson-Quellier [2000] appellent le « travail marchand », c’est-à-dire les activités qu’un grand nombre de professionnels réalisent pour concevoir et animer les marchés concrets. Ces technologies, qui font partie de la famille des outils de management de la relation client, prennent des formes diverses. Il peut s’agir de systèmes de recommandation classiques, d’outils de personnalisation et d’automatisation de communications par courriel, de technologies de personnalisation des messages de promotion, d’alerte sur l’état des stocks, ou encore, portant sur les délais et les prix de livraison qui sont communiqués sur les sites d’e-commerce. Ces différents outils forment un « marché de dispositifs marchands » [Cochoy, 2014] qui participe à façonner la dynamique de l’économie des services. En communiquant aux consommateurs des informations qui sont susceptibles de les intéresser et en leur recommandant une certaine façon de se comporter, ces technologies sont en effet autant d’innovations qui doivent rendre service aux offreurs en améliorant leurs ventes.

32Les entretiens que nous avons réalisés montrent alors que les activités de conception des algorithmes prédictifs composent des processus de co-création de nouveaux marchés entre ceux qui les conçoivent et ceux qui les implémentent. Comme le pointe le verbatim exposé ci-dessous, à l’origine, ce marché, constitué in fine par les services de prédiction que doivent rendre ces algorithmes à ceux qui les implémentent, repose souvent sur un projet flou. Pour introduire la présentation de ses activités professionnelles, E_02 commence en effet par nous dire que :

33

« Avec le buzz des big data […] la plupart des données sont devenues importantes. Elles sont surtout mises à prix. Et les gens qui accumulent des données […] vont penser qu’elles ont de la valeur sans savoir quoi en faire. Toute une partie de mon travail consiste à recevoir ces gens qui […] ne savent même pas spécialement ce qu’il y a dans ces fameuses données […]. Ils arrivent et ils disent : “Je suis sûr qu’il y a quelque chose dans mes données.” Et après, c’est à nous d’éplucher les données. »
E_02)

34Les algorithmes prédictifs qu’élaborent les professionnels enquêtés ont pour fonction de rendre service à leurs clients en résolvant un problème d’apprentissage automatique. Toute la complexité du travail du concepteur est ainsi d’accompagner l’implémenteur pour identifier les « épistémologies locales » [Parasie et Dagiral, 2017] ou, si l’on préfère, les connaissances métiers qui sont nécessaires à la formalisation de ce problème d’apprentissage.

35

« Ce sont des jeux de va-et-vient. On travaille sur nos données […]. Puis après, on retourne vers le client qui reconnaît ou qui découvre des choses propres à son métier. Et à partir de là, on peut ré-avancer […]. Entre notre expertise statistique et celle du client, on redéfinit quel est le problème […] et après, on teste des méthodes plus ou moins évoluées de prédiction en fonction des besoins du client. »
(E_02)

36Ces « jeux de va-et-vient » dont parle E_02 peuvent être exposés en quatre activités : celles de la récupération des données, de leur structuration, de la conception de l’architecture de leur traitement et de la détermination des critères d’auto-évaluation, par la machine, de ses performances. Commençons par présenter la phase de récupération des données. Cette dernière est une étape difficile dans la mesure où les big data sont des façons de consolider divers éléments du monde selon des méthodes de recueil qui ne sont pas toujours aisées à retracer. À l’inverse des données agricoles étudiées par Emmanuel Didier [2012], les big data recouvrent des processus de consolidation qui ne sont pas systématiquement maîtrisés sur le plan statistique, dans le sens où les objectifs qui motivent leur recueil sont souvent différents de ceux qui motivent leur traitement.

37

« Les organisations, elles ont leur histoire […]. Et cette histoire n’est pas datacentric, c’est-à-dire qu’elle n’est pas organisée autour de la donnée. Les bases de données qui existent dans les organisations ne sont pas conçues pour faire de l’analyse de données. Elles sont conçues pour faire de l’administratif, pour faire de la facturation […] c’est un patchwork de dépôts de données […]. Retrouver la personne dans l’organisation qui a l’histoire de la donnée, ce n’est pas forcément évident. »
(E_01)

38Or, pour saisir la valeur indiciaire des mégadonnées, c’est-à-dire leur capacité à représenter correctement différents éléments du monde, les professionnels interviewés disent avoir besoin de comprendre ces processus de consolidation. Dans l’extrait d’entretien qui suit, E_13 souhaite en ce sens souligner que, durant ses activités, les savoirs informatiques et mathématiques ne sont pas suffisants : pour bien comprendre la valeur épistémique des données, il est important d’avoir une bonne connaissance du fonctionnement des organisations.

39

« Si je me base sur mon autopartage et que je collecte les données au niveau des bornes […], je vais avoir 10 fois plus de gros clients que de petits clients. Parce que, les clients qui viennent 10 fois plus, par définition, je les vois 10 fois plus souvent. Alors que, si je me mets au niveau du fichier client, je vais avoir tout le monde […]. Il y a plein de choses qui font que connaître les données et l’entreprise, ça paraît primordial pour mettre en place des modèles performants qui pourront être utiles demain. »
(E_13)

40En somme, pour comprendre les formes des liens qui existent entre la réalité que représentent les mégadonnées et le monde qu’elles désignent, les professionnels enquêtés s’appuient sur les connaissances métiers qui sont propres à l’implémenteur. Aussi, ces connaissances ne sont pas utiles qu’à la seule étape de récupération des données. Elles sont également nécessaires à la phase de leur structuration. Notons que cette étape, souvent présentée comme fastidieuse, n’en est pas moins importante du point de vue du travail inférentiel que doit effectuer la machine, puisqu’elle est une manière de cadrer son environnement d’apprentissage. Afin que cet apprentissage soit effectué de la meilleure façon possible, il est nécessaire d’opérer différentes techniques de transformation des variables que composent les données préalablement recueillies. Et ces techniques sont autant de façons de formaliser la connaissance métier qui est pertinente pour la définition du problème d’apprentissage que doit résoudre la machine. Suite à notre demande d’explicitation de ce qu’est la phase de structuration des données, E_03, E_08 et E_09 nous ont proposé des réponses souvent illustrées à partir d’exemples concrets. Voici une composition d’extraits de ces échanges qui rend compte, de façon synthétique, de cette étape.

41

« Il y a des techniques de featuring : c’est comment transformer les variables pour les rendre plus pertinentes. »
(E_03)

42

« On a l’âge de la voiture et on a la valeur de la voiture neuve. Il nous manquerait peut-être la valeur de la voiture actuelle […]. J’ai combiné l’âge de la voiture, qui était un entier, et la valeur de la voiture, qui était une lettre que j’ai transformée en chiffre pour pouvoir avoir une opération numérique dessus. »
(E_08)

43

« Je pense que c’est la forte valeur ajoutée [i.e., le fait d’avoir une bonne connaissance métier]. On a retraité, retravaillé toutes les données économiques […] en disant : “Ce qui est important, ce n’est pas cet indicateur à l’instant t, mais […] la combinaison de cet indicateur avec cet indicateur par rapport à ce qu’on connaît du marché.” »
(E_13)

44Ces trois extraits d’entretien indiquent comment la phase de structuration des données peut être composée d’une multitude d’opérations statistiques plutôt triviales (e.g., traduire une lettre en chiffre, ou encore, combiner des indicateurs) qui sont autant de façons de cadrer les points de vue qui permettront à la machine de réaliser ses apprentissages en fonction des connaissances qu’ont son concepteur et son implémenteur du monde que représentent les données et du problème qu’ils souhaitent que leur technologie résolve.

45Une fois les données recueillies et structurées, il est alors nécessaire de concevoir l’architecture permettant de les traiter. Cette architecture détermine le régime de fabrication des futurs que produit la machine, et donc les modes de communication des informations qu’elle diffuse aux consommateurs. Cette architecture peut revêtir des formes très diverses que nous ne pouvons pas exposer dans cet article. Cette diversité peut néanmoins être réduite à un « point de passage obligé » [Callon, 1986] qui est celui du dilemme prédiction/compréhension. Pour l’ensemble des professionnels enquêtés, la première question à se poser lorsque l’on commence la phase de fabrication de cette architecture est en effet la suivante : est-il nécessaire de comprendre l’apprentissage qui permettra à la machine d’effectuer ses prédictions ? Si la réponse est négative, ce qui, comme nous l’avons vu en amont, est souvent le cas dans le domaine de la gestion de la relation client, c’est qu’il est possible de munir cette machine d’une méthode d’apprentissage complexe, peu importe que celle-ci fonctionne ou non comme une boîte noire. Selon E_02, résoudre le problème du choix du régime d’anticipation conféré à la machine est une décision importante. À l’instar des autres étapes que nous venons d’exposer, ce choix est réalisé, de manière collégiale, avec l’implémenteur.

46La phase de détermination des critères de performance, c’est-à-dire des indicateurs qui permettront à la machine d’autoévaluer la qualité de ses apprentissages, est essentielle du point de vue de la conception d’une machine à produire des futurs économiques. Elle en constitue le fil directeur. Comme nous l’avons mentionné en amont, ce sont ces critères qui permettent à la machine de mesurer les performances des prédictions qu’elle réalise. Ces critères peuvent ainsi être considérés comme une manière de cadrer politiquement la machine, puisqu’ils composent ses buts et offrent par là même une orientation ou, si l’on préfère, un sens à l’ensemble de son travail inférentiel. Nos entretiens montrent alors qu’à la différence des étapes que nous venons d’exposer, la détermination des critères de performance est principalement définie par l’implémenteur. Car, bien souvent, ces critères s’inscrivent directement au sein de l’appareillage stratégique qui est propre à l’entreprise. Cette définition est ensuite traduite en termes statistiques par le concepteur. Dans le cas de l’agent de recommandation qu’a développé la société S_01, ces critères sont : le nombre de clics effectués par les consommateurs sur les recommandations ; la durée de consultation de ces recommandations ; et le taux de conversion, c’est-à-dire de transformation des visiteurs en acheteurs.

47Autrement dit, les recommandations que propose la technologie de S_01 aux consommateurs sont systématiquement choisies afin de maximiser ces trois indicateurs de performance. Il est en ce sens important de comprendre que les futurs que produit cette machine prendraient des formes totalement différentes si elle avait pour objectif de minimiser, par exemple, un ou plusieurs critères permettant d’évaluer le niveau de désorientation éprouvé par les consommateurs durant leur navigation.

4.2 – … à une logique de prévision

48Au regard de nos données d’enquête, la conception des machines à produire des futurs économiques est associée à une logique servicielle. Un peu à la manière des outils de prévision statistique appliqués au secteur agricole américain durant les années 1930 [Didier, 2012], l’élaboration de ces machines fait l’objet d’un travail de mise en pertinence des prédictions qu’elles produisent, c’est-à-dire de construction de l’intérêt que peuvent leur accorder leurs implémenteurs. Ce travail de mise en pertinence a plus exactement pour finalité de garantir l’utilité des services que doivent rendre ces technologies, et consiste à enrôler les implémenteurs afin qu’ils participent à la fabrication de ces machines. Pour reprendre les propos d’Emmanuel Didier [2012] qui sont exposés ci-après, ce travail de mise en pertinence a ainsi pour objet d’éviter les phénomènes de « déliquescence » qui sont autant d’entraves à la bonne implémentation de ces technologies au sein des organisations.

49

« Il nous semble que cet étrange rapport entre une réponse qui ne convenait pas et une demande restée informulée peut être qualifié de déliquescent. Comme deux molécules de pétrole lourd, les statisticiens et leurs usagers glissaient l’un sur l’autre sans parvenir à s’articuler durablement. Les uns et les autres avaient beau se croiser dans des réunions, échanger des commandes et des résultats, les statistiques s’avéraient toujours décevantes pour l’usage politique qu’on attendait d’elles. Ce manque de pertinence empêchait la stabilisation du lien entre usagers et statisticiens. C’est cette imprévisibilité qui constitue la déliquescence de l’agrégat, que l’on peut alors appeler visqueux. Elle est le mouvement inverse à la consolidation. »
[Didier, 2012, p. 73]

50Si ce mouvement de consolidation dont parle Emmanuel Didier [2012] recouvre, dans notre cas, une logique servicielle, il renvoie également à une logique de prévision. En effet, les services que doivent rendre les machines que conçoivent les enquêtés sont assez similaires à ceux qu’offrent les outils de prévision économique les plus classiques : ils doivent permettre aux humains de se représenter collectivement leur futur économique afin de mieux le domestiquer. De manière analogue aux projets prévisionnistes qui caractérisent les façons dont l’économie a historiquement cherché à contenir les inquiétudes sur le futur [Angeletti, 2012], les machines à produire des futurs économiques sont conçues pour permettre à leurs implémenteurs d’organiser l’avenir : si les algorithmes prédictifs produisent des futurs déterminants, c’est pour aider les humains à mieux le dominer. Mais alors, comment ces machines permettent-elles de lever le paradoxe que nous avons pointé dans le point 3 ? Comment permettent-elles d’articuler les logiques de prédiction et de prévision ? Car, si les futurs que prédisent ces machines sont réellement déterminants, n’est-ce pas précisément parce qu’ils ne peuvent pas, par définition, être organisés ?

51La réponse est négative dans la mesure où ces nouveaux modes d’appréhension du futur que participent à instaurer ces machines sont relativement réalistes. S’ils recouvrent une vision positiviste et scientiste du monde, ils consistent, dans le même temps, à prêter aux diverses entités qui composent ce monde un certain pouvoir d’agentivité. Et les algorithmes prédictifs dont nous parlons dans cet article font partie de ces entités. C’est pourquoi ils tiennent compte des effets de leurs recommandations dans le calcul même de leurs prédictions. Par exemple, la technologie développée par S_03 repose sur un principe d’analyse statistique de situations qui sont définies par deux grands types de données : celles qui renseignent l’identité sociomatérielle de l’utilisateur et celles qui renseignent la composition des environnements que traverse celui-ci. Les messages que communique automatiquement cette technologie sont alors considérés comme des éléments constitutifs de ces environnements. Les machines à produire des futurs économiques que conçoivent les enquêtés se situent de ce fait dans le prolongement des évolutions des projets prévisionnistes qui ont marqué l’histoire de la pensée économique [Angeletti, 2012] : elles sont une manière d’articuler cette culture réaliste, c’est-à-dire cette posture positiviste qui caractérise les régimes de prévision correspondant aux grandes politiques interventionnistes d’avant les années 1980, et cette culture plus actuelle qui, plus constructiviste, consiste à considérer les effets de boucle que produisent les prévisions et les incitations politico-économiques qui y sont associées. Pour reprendre les termes de Dominique Cardon [2015], les algorithmes qui traitent les big data calculent la société par le bas, c’est-à-dire par le biais des comportements des entités qui la composent et dont les technologies d’apprentissage artificiel, elles-mêmes, font partie.

52En référence à la représentation stylisée que nous avons proposée de la posture épistémologique positiviste et scientiste partagée par les professionnels enquêtés, le travail de découverte du code de la « nature » qu’effectuent les algorithmes prédictifs n’est pas la résultante d’une observation réalisée de l’extérieur. Les machines à produire des futurs économiques se considèrent comme partie prenante du « système physique fermé » [Popper, 1984] qu’elles calculent. En d’autres termes, elles constituent une des composantes de cette nature dont elles doivent identifier le fonctionnement. De telle sorte que prédiction et prévision ne s’opposent plus, dans la mesure où les futurs que fabriquent ces machines tiennent compte des effets qu’ils produisent sur la réalité même qu’ils construisent. Et une telle manière de concevoir le travail inférentiel de ces machines n’a évidemment rien de naturel. Elle est, de part en part, culturelle, et relève donc à la fois d’une logique de prédiction et d’une logique de prévision.

4.3 – Des futurs à très court terme

53Une des plus importantes nouveautés qu’apportent ces machines est qu’elles permettent aux humains qui les conçoivent et qui les implémentent au sein de leur organisation d’appréhender leur futur selon des visées à très court terme. À ce niveau aussi, les algorithmes prédictifs que fabriquent les enquêtés peuvent être compris comme une continuité des projets prévisionnistes positivistes et constructivistes qui caractérisent la dynamique de la pensée économique [Angeletti, 2012]. Pour Thomas Angeletti, le projet positiviste, qui renvoie à des modes d’appréhension du futur plutôt macro dans le sens où il repose sur des analyses de données qui sont principalement recueillies à des échelles nationales (par exemple, par le biais d’organismes comme l’Institut national de la statistique et des études économiques ; Insee), est remplacé, dans les années 1980, par le projet constructiviste, qui recouvre des manières de saisir l’avenir plutôt de type micro, puisqu’il repose, cette fois-ci, sur des analyses de données principalement recueillies à des échelles individuelles (cf. le cas de l’économie comportementale). Les machines que conçoivent les professionnels interrogés permettent de continuer ces deux projets pour calculer des futurs qui ne se situent plus nécessairement dans un long, un moyen ou un court terme (i.e., de quelques années à quelques jours), mais aussi dans un très court terme (i.e., de quelques minutes, voire moins). Les analyses que réalisent automatiquement les technologies fabriquées par les enquêtés portent en effet sur des comportements qui sont observés selon des échelles d’analyses qui peuvent être très différentes. C’est tout l’avantage des big data que de pouvoir permettre le croisement automatique des données renseignant les caractéristiques micro, méso et/ou macro des consommateurs et des environnements qu’ils traversent. Et, compte tenu du fait que ces dispositifs autorisent aujourd’hui le traitement en temps quasi réel de ces grandes masses de données, les futurs que produisent les algorithmes prédictifs sont parfois des projections de l’ordre de quelques secondes, et qui sont constamment actualisées. Certaines des applications que proposent les sociétés S_01, S_02 et S_03 de leurs technologies consistent à projeter statistiquement dans l’avenir des représentations du monde qu’elles ont produites dans le passé – c’est-à-dire à fabriquer des futurs économiques –, mises à jour à chacun des clics effectués par les consommateurs qui visitent les sites des clients de ces entreprises.

54Dans une société libérale où les collectifs humains ne se sont plus pensés à travers l’idée de système ou de structure, mais comme un ensemble de réseaux interconnectés dont la stabilité est toujours provisoire [Boltanski et Chiapello, 1999], les machines à produire des futurs économiques doivent, à tout le moins pour ceux qui les conçoivent et ceux qui les implémentent, favoriser la flexibilité des organisations socioéconomiques. Tout l’intérêt des mégadonnées, une fois couplées aux algorithmes prédictifs, est de permettre l’adaptation constante et en temps quasi réel des activités des entreprises aux incessantes fluctuations des marchés. En référence aux travaux de Michel Foucault [2007], avec les machines à produire des futurs économiques, il ne s’agit plus de chercher à discipliner les joueurs du jeu marchand par la contrainte : il faut jouer sur les règles de ce même jeu en modifiant l’environnement numérique des consommateurs selon un critère d’utilité économique [Cardon, 2017]. Autrement dit, il ne s’agit plus seulement, comme le suggère Sophie Dubuisson-Quellier [2006], de faire bouger les consommateurs en changeant les caractéristiques de l’offre, mais il faut aussi cadrer leur comportement en modifiant l’environnement numérique de leur présentation. Ainsi, nous concluons cette section en nous référant aux propos que tient Thomas Angeletti [2012] sur les conséquences du déplacement du projet prévisionniste positiviste au projet prévisionniste constructiviste, que nous avons plusieurs fois mentionnés, dans la mesure où ils font écho aux arguments que nous venons d’exposer.

55

« Dans les deux cas [i.e., les projets prévisionnistes positiviste et constructiviste], il est reconnu qu’on ne peut laisser la prévision à l’expérience : il faut mettre en place des dispositifs qui l’enregistrent, l’encadrent et la définissent. Cependant, il n’y a pas de place assignée à la situation dans la macroéconomie issue de la comptabilité nationale [cf. le cas du projet positiviste]. Alors que dans le second cas [i.e., celui du projet constructiviste], la prévision retourne en quelque sorte à l’expérience : la boucle qui les lie est pensée selon une temporalité très courte. Et c’est là que réside tout le paradoxe d’un tel déplacement : ce second projet prévisionniste, qui se présente comme beaucoup plus “lâche” et se revendique comme moins “dirigiste”, en promouvant au contraire l’autonomie, avance, dans le même temps, un suivi bien plus fin des pratiques et des actions qu’il se propose d’étudier et de prévoir. »
[Angeletti, 2012, p. 100-101]

56Ainsi, les conséquences de ce nouveau déplacement que participe à instituer le développement des machines à produire des futurs économiques pourrait selon nous constituer une nouvelle étape, encore plus avancée, qui se situerait dans le prolongement de ce que nous dit Thomas Angeletti [2012].

5 – Conclusion

57Les applications marchandes des technologies big data que conçoivent les professionnels enquêtés sont d’abord des algorithmes d’apprentissage artificiel qui reposent sur des méthodes statistiques. À un niveau purement technique, les futurs que fabriquent ces algorithmes ne sont donc rien d’autre que des projections statistiques. En tant que telles, ils n’expriment pas le monde, mais la réalité que forment les mégadonnées qui le représentent. Ces avenirs peuvent de ce fait être considérés comme des traductions de situations appartenant à un monde passé que les machines déplient jusqu’au futur afin de créer, dans le présent, un espace d’anticipation qui doit être considéré comme rationnel. Nous avons ainsi cherché à montrer que cet espace recouvre une dimension sociale, dans la mesure où les professionnels interrogés réalisent un important travail de mise en pertinence des services de prédiction que leurs machines doivent rendre à ceux qui les implémentent : par le biais de la formalisation de leur problème d’apprentissage, ces machines encapsulent les épistémologies locales que co-construisent leurs concepteurs et leurs implémenteurs. Et c’est précisément en ce sens que les futurs qu’élaborent ces technologies recouvrent une logique de prévision : ceux-ci ne forment pas un avenir déterminant que les algorithmes ne font que dévoiler ; ils sont un avenir organisant que ces systèmes construisent selon les cadres sociocognitifs que leur ont prêtés les hommes. Le caractère prédictif de ces futurs n’est donc en rien une propriété qui leur est intrinsèque. Il s’agit d’une consistance que leur confèrent, de façon plus ou moins automatique et collective, les hommes et les machines qui les interprètent, c’est-à-dire qui les font exister sur les plans cognitif et pratique.

58De l’association des logiques de prévision et de prédiction que véhiculent ces machines émerge alors une contradiction : d’un côté, ces technologies produisent un futur que les hommes peuvent organiser tandis que, d’un autre côté, elles doivent dévoiler un avenir qui est entièrement déterminé. Aussi, une des particularités de ces machines est qu’elles se présentent comme une double solution à ce problème dans le sens où : d’une part, elles tiennent compte des effets sur le monde des futurs qu’elles produisent et qui sont généralement, d’autre part, d’une (très) courte portée, constamment réactualisée. En conclusion, si les algorithmes que conçoivent les enquêtés produisent des futurs qui peuvent être compris comme relativement réalistes, il n’en reste pas moins que leur principale caractéristique est moins de prédire l’avenir que de chercher à le faire advenir. Notons toutefois qu’une telle assertion ne préjuge en rien de l’agentivité de ces futurs, puisque leur autoréalisation reste une question ouverte.

Annexes

Annexe 1. Présentation des salons visités

tableau im2

Annexe 2. Présentation des entreprises enquêtées

tableau im3

Annexe 3. Présentation des statuts et des formations des informateurs mobilisés

figure im4

Annexe 4. Présentation des statuts et des formations des professionnels interviewés

tableau im5

Notes

  • [1]
    Nous souhaitons vivement remercier l’ensemble des relecteurs pour les précieux conseils qu’ils nous ont prodigués. Ce texte doit beaucoup à ces nombreuses remarques.
  • [2]
    Ce principe affirme plus exactement qu’au niveau microscopique la prédiction n’est en réalité possible que pour des systèmes isolés et dans des circonstances exceptionnelles.
  • [3]
    De façon plus concrète, ces punitions/récompenses peuvent par exemple se manifester sous la forme de scores de performance accordés à un agent de recommandation en fonction du nombre de fois où chaque consommateur clique sur les suggestions qu’il leur fait : si la recommandation n’est pas cliquée, l’agent est puni par une diminution de son score de performance ; si la recommandation est cliquée, l’agent est récompensé par une augmentation de son score de performance. Ainsi, par le biais de ce type de méthode d’apprentissage, une machine est censée être capable d’améliorer, à la suite de plusieurs essais-erreurs, les règles qui lui permettent d’anticiper les préférences des consommateurs.
  • [4]
    Les réseaux de neurones profonds, les forêts aléatoires et les autres technologies d’apprentissage artificiel par combinaison d’experts qui, du point de vue des professionnels que nous avons enquêtés, sont les plus souvent utilisés, fonctionnent en effet comme des boîtes noires.
  • [5]
    D’ailleurs nous pourrions dire, en ce sens, que cette logique de prédiction est doublée d’une logique de prédication.
Français

Avec la numérisation croissante des mondes marchands, les activités de consommation les plus banales provoquent la production d’une grande quantité de données. Pour les acteurs socioéconomiques, ces mégadonnées sont considérées comme des outils de maîtrise de l’avenir, les amenant à s’équiper d’un arsenal de machines qui ont pour fonction de produire des futurs économiques. Dans cet article, nous proposons d’examiner la manière dont ces machines participent à instituer une nouvelle culture du futur, laquelle se trouve à la croisée des logiques de prédiction et de prévision.

Mots-clés

  • futur économique
  • mégadonnées
  • intelligence artificielle
  • prédiction
  • prévision

Bibliographie

  • Anderson C. (2008), « The end of theory: the data deluge makes the scientific method obsolete », http://www.wired.com/2008/06/pb-theory/ (consulté le 4 octobre 2016).
  • En ligneAngeletti T. (2012), « La prévision économique et ses “erreurs” », Raisons politiques, vol. 4, n° 48, p. 85-101.
  • En ligneAngeletti T., Esquerre A., Lazarus J. (2012), « Le sociologue et le temps », Raisons politiques, vol. 4, n° 48, p. 5-12.
  • Appadurai A. (2013), The future as cultural fact: essays on the global, Verso, London.
  • Boltanski L. (2012), Énigmes et complots. Une enquête à propos d’enquêtes, Gallimard, Paris.
  • Boltanski L., Chiapello È. (1999), Le nouvel esprit du capitalisme, Gallimard, Paris.
  • Bourdieu P. (1977), Algérie 60, Minuit, Paris.
  • Bourdieu P. (2015), Sociologie générale : cours au Collège de France 1981-1983 (vol. 1), Raison d’agir/Seuil, Paris.
  • En ligneCalheiros C. (2012), « La fabrique d’une prophétie eschatologique par la cybernétique : le cas du Projet WebBot », Raisons politiques, vol. 4, n° 48, p. 51-63.
  • Callon M. (1986), « Éléments pour une sociologie de la traduction. La domestication des coquilles Saint-Jacques et des marins-pêcheurs dans la baie de Saint-Brieuc », L’Année sociologique, n° 36, p. 169-208.
  • Callon M. (1998), The laws of the markets, Blackwell, Oxford.
  • Cardon D. (2015), À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Seuil, coll. « La République des idées », Paris.
  • Cardon D. (2017), Le bazar et les algorithmes. La société des calculs numériques, Université Paris-Est, Paris.
  • Chavalarias D. (2012), « La société (re)commandée. De la conjecture de von Foerster aux sciences sociales prédictives », in P.-A. Chardel, C. Gossart, B. Reber, Conflits des interprétations dans la société de l’information : éthique et politique de l’environnement (p. 26-39), Lavoisier, Paris.
  • Cochoy F. (2014), Aux origines du libre-service, Progressive Grocer (1922-1959), Le Bord de l’eau, Lormont.
  • En ligneCochoy F., Dubuisson-Quellier S. (2000), « Introduction. Les professionnels du marché : vers une sociologie du travail marchand », Sociologie du travail, vol. 42, n° 3, p. 359-368.
  • Cornuéjols A., Miclet L. (2010), Apprentissage artificiel : concepts et algorithmes, Eyrolles, Paris.
  • Desrosières A. (1993), La politique des grands nombres. Histoire de la raison statistique, La Découverte, Paris.
  • En ligneDidier E. (2012), « La consistance du futur. La prévision statistique aux États-Unis et la Grande Dépression », Raisons politiques, vol. 4, n° 48, p. 65-83.
  • En ligneDoganova L. (2014), « Décompter le futur : la formule des flux actualisés et le manager-investisseur », Sociétés contemporaines, vol. 1, n° 93, p. 67-87.
  • Foucault M. (2007), « Leçon du 21 mars 1979 », http://www.cip-idf.org/:www.cip-idf.org/IMG/rtf/FoucaultNB21mars.rtf (consulté le 1er juin 2016).
  • Knight F. (1921), Risk, Uncertainty and Profit, Houghton Mifflin Co, Boston.
  • Muniesa F. (2003), Des marchés comme algorithmes : sociologie de la cotation électronique à la Bourse de Paris, École nationale supérieure des Mines de Paris, Paris.
  • En ligneParasie S., Dagiral E. (2017), « La “science des données” à la conquête des mondes sociaux : ce que le “Big Data” doit aux épistémologies locales », in P.-M. Menger, S. Paye, « Big Data », entreprises et sciences sociales : usages et partages des données numériques de masse, Collège de France, Paris.
  • Popper K. (1984), L’univers irrésolu. Plaidoyer pour l’indéterminisme, Hermann, Paris.
  • En ligneTaleb N.N., Bonnet A., Giraud P.-N. (2009), « Les mathématiques, stars malgré elles des marchés financiers ? », Le journal de l’école de Paris du management, vol. 76, n° 2, p. 29-36.
  • Thompson J.W. (1964), « Prediction in physics and the social sciences », General Systems, vol. 9, p. 15-25.
  • Weber M. ([1919] 1959), Le savant et le politique, Plon, Paris.
  • Weber M. ([1922] 1971), Économie et société, Plon, Paris.
Mis en ligne sur Cairn.info le 26/11/2018
https://doi.org/10.3917/rfse.021.0105
Pour citer cet article
Distribution électronique Cairn.info pour La Découverte © La Découverte. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...