Cette communication se propose d’explorer les facettes de l’autorité calculée et de réfléchir aux moyens à mettre en œuvre pour installer ou restaurer la confiance dans les dispositifs à base de technologies informationnelles.
Les algorithmes jouent un rôle de plus en plus influent dans les sphères politique, économique et culturelle. Napoli (2014) estime que l’institutionnalité des algorithmes est inhérente à la notion désormais acceptée de Lawrence Lessig (2006) selon laquelle « le code est la loi ». En effet, le code joue un rôle prééminent dans la régulation des comportements des acteurs sociaux.
Par ailleurs, l’augmentation des données s’est accompagnée de dispositifs qui s’appuient de plus en plus sur l’intelligence artificielle (IA), notamment l’apprentissage profond, offrant ainsi la possibilité de déléguer des prises de décisions à des algorithmes. Ces décisions font l’objet d’incompréhension, de demande de transparence et d’une attention critique, comme c’est le cas actuellement avec la plate-forme Parcoursup en France.
Un consensus existe pour reconnaître aux algorithmes de l’IA traitant des masses de données le pouvoir de renforcer les stéréotypes et d’accentuer les inégalités. Le maire de New York a souhaité fin 2017 la mise en place d’un groupe de travail au sein de la mairie, afin de vérifier que les systèmes de décision automatisés utilisés par la police de la ville, les tribunaux et d’autres institutions n’étaient pas biaisés. Lorsque les différences culturelles, le contexte, la complexité du tissu social sont mal évalués, les algorithmes deviennent des machines discriminantes qui renforcent les inégalités, comme en témoigne l’exemple emprunté à Virginia Eubanks (2018) : en Indiana, le système d’aide sociale qui bénéficiait à 40 % de la population pauvre est tombé à 8 % de la population de travailleurs pauvres avec enfants…