En 2019, Ayaka Fujî, chercheuse en électro-communication, met au point un système de réalité mixte afin de pouvoir manger avec un petit robot. Célibataire, Ayaka Fujî souffre de solitude. Vers midi et le soir, en particulier, la sensation d’isolement se fait lancinante : « Personne avec qui partager son repas… À force de rester seuls, les gens perdent confiance en eux-mêmes. » Pour leur venir en aide – parce que le fait de manger seul suscite le sentiment d’être coupé du groupe –, Ayaka Fujî travaille sur des dispositifs électro-numériques conçus pour influencer positivement leurs utilisateurs en favorisant l’illusion de n’être pas seul-e. Issus des technologies dites « persuasives », ces dispositifs connaissent la faveur du grand public au Japon. Ils mettent pourtant en application les principes du conditionnement, souvent critiqués dans la littérature scientifique (Verbeek, 2011 ; Zouinar 2013 ; Zuboff, 2020). Comment comprendre que ces objets bénéficient d’un fort potentiel de sympathie et de confiance alors qu’ils visent à placer l’humain sous l’emprise d’une technologie ? L’objectif de cet article est d’étudier les raisons pour lesquelles, au Japon notamment, les utilisateurs s’en remettent à des algorithmes conçus pour les tromper et les manipuler.
En préalable à cette enquête, une précision s’impose : les chercheurs en Interactions Humains-Machines sont souvent les premiers à questionner la fiabilité (ou la dimension éthique) des systèmes qu’ils développent. Le plus connu d’entre eux est l’Américain B…