CAIRN.INFO : Matières à réflexion

1À mesure que la quantité d’informations disponible sur les réseaux croît, la possibilité d’identifier les plus utiles à l’usager devient difficile et nécessite l’assistance d’instruments de repérage et donc d’outils de description et de rangement. La révolution dans les classifications est advenue dès lors qu’a été mis en place un outil qui englobe et (éventuellement) abolit les autres, qui est utilisé par tous (ou presque) et qui devient le principal moyen d’accès à l’information, le plus rapide, le plus économique, le plus extensif. Cet outil désigne, on l’aura compris, les moteurs de recherche et leur líder máximo Google. Si la France se révèle particulièrement « Googleophile » (90 % de parts de marché [1]), peu de pays lui échappent, aux notables exceptions près de la Corée du Sud (Naver, groupe NHN), de la Russie (Yandex) ou de la Chine (et son leader, Baidu).

2Avec une puissance jusque-là inégalée, l’infrastructure informationnelle (au sens de Leigh Star) que constitue Google a mis l’intelligence collective des utilisateurs du Web au service d’un modèle d’affaire particulièrement efficient. L’entreprise a en effet réussi à se saisir d’une ressource abondante et accessible à tous, l’information, pour capter une ressource rare, l’attention des consommateurs [2] en donnant du sens à la masse colossale de données aujourd’hui disponibles et en les adaptant à la demande des internautes. Le dispositif mis en place par Google affecte en profondeur notre appréhension du monde en formatant l’accès à l’information. À la différence des grands modèles de classification du savoir, cet accès se fait pour l’essentiel en « langage naturel », c’est-à-dire sans passer par des ontologies spécifiques ou des classifications préétablies. Ce naturel, comme souvent avec les technologies numériques, relègue dans l’arrière-boutique nébuleuse de la machine tout le travail intermédiaire de production des résultats, et ici de repérage des contenus, en mettant en avant une assomption de neutralité. Or, nous allons voir qu’il s’agit en fait d’une vigoureuse mise en ordre du monde afin de répondre à la fois au programme d’action fixé par le moteur pour obtenir l’information qui convient, aux actions des acteurs qui cherchent à intervenir dans ce programme et au développement de contre-modèles expérimentaux.

Les filtres internes de la classification

3Comme ses principaux concurrents (Bing ou Yahoo), Google fonctionne selon cinq étapes de mise en ordre des données qui, bien qu’elles soient présentées comme irréfragables, opèrent une série de choix spécifiques.

41. La première étape, dite crawling, consiste à collecter les données qui vont alimenter le moteur. Un tel process repose sur une ambition impérialiste, l’adjectif renvoyant moins à la machine de guerre de l’Amérique évoquée par Barbara Cassin (2007) qu’à une « prétention à la totalité », à cette vocation affichée d’organiser toute l’information du monde. Google soutient en effet que son robot « crawle » tout le Web mais la question n’est pas aussi simple. Le robot circule entre les sites en suivant les liens qui renvoient d’une page vers l’autre. Il ne saisit qu’une partie des contenus. D’une part parce que cette opération n’est pas réalisée à la même fréquence pour toutes les pages (celles dont le contenu change plus sont plus souvent crawlées) ; le mouvement est donc nécessairement un peu autoalimenté (les changements des pages moins crawlées deviennent moins perceptibles par le robot). D’autre part, toute une partie du Web n’est pas ou plus accessible pour le crawler (sites fermés, payants, refusant l’indexation, non traduisibles, inadaptés ; pages dynamiques ou sans liens, etc.) ; c’est tout le Web profond (d’un ordre de grandeur largement supérieur au Web de surface [3]) qui échappe aux moteurs. Toute information n’est certes pas « utile », les redondances étant par exemple la règle pour les pages dynamiques, mais nul ne peut aujourd’hui dire ce qu’engage cette partition du Web dans le référencement des informations.

52. Une fois l’information collectée (sous la forme du contenu des pages corrélé à des adresses), elle est traitée et indexée : les liens et leur chaîne sont analysés ; les textes sont soumis à une analyse linguistique et sémantique ; les informations de mise en forme sont détectées. La matière brute extraite lors de la première étape est ainsi traitée, en fonction de critères qui ne sont connus que dans leurs grandes lignes mais restent un secret industriel pour l’essentiel. Le critère national joue un rôle premier : du Web-monde, on passe en fait au Web-local, la définition du local se faisant par un découpage entre sites nationaux, sites parlant la langue nationale, sites déjà fréquentés, etc.

63. La troisième étape (ranking) consiste à classer les contenus indexés. Le principal critère, qui a permis à Google de devenir le moteur leader, aujourd’hui repris par tous les moteurs généralistes, est le page rank, c’est-à-dire le nombre de liens qui renvoie vers le site indexé ; plus le nombre de sites qui « recommandent » une adresse est élevé, plus le page rank augmente. Outre ce critère dominant mais non exclusif, d’autres facteurs (environ 200 en 2013) sont pris en compte dans l’algorithme de classement des résultats, comme la pertinence des contenus établie à partir d’une évaluation des mots-clés, de leur récurrence, de leur mise en forme, de leur position dans la page, de leur richesse, etc. Ces différents critères ne sont connus que dans leurs grandes lignes des acteurs du Web, et théoriquement appliqués à tous. Pour autant tous les contenus du Web reçoivent-ils le même traitement ? Oui, mais avec deux nuances de taille : la fréquence du crawling et le « poids » accordé à chaque page.

7Vient ensuite, en réponse à la requête d’un internaute, la restitution des résultats sous deux formes : les résultats du référencement naturel et les résultats du référencement payant.

84. L’ordre de présentation des résultats sous forme de listes de liens, fixé par cet ensemble des critères, est d’autant plus crucial que la plupart des consultations ne dépasse pas les deux premières pages. C’est ce que certains appellent googlearchy : « le Web est un réseau de type “aristocratique” où celui qui est premier augmente exponentiellement les chances de cumuler encore plus d’avantages. » (Origgi, 2007)

95. La cinquième étape regarde le deuxième ensemble de résultats fournis en réponse à une requête : les propositions publicitaires, clé de voûte du modèle d’affaire des moteurs (Fridenson, 2006), se déclinent en deux services. Le premier, AdSense, est un partenariat dans lequel Google agit comme un réseau de syndication qui perçoit des revenus et en reverse une partie à ses partenaires. Une régie d’espace propose aux exploitants de sites web d’accueillir de la publicité contextualisée sur leurs pages en fonction de leur contenu (encarts déclenchés de façon automatisée par des mots-clés). Le second service, Google AdWords, permet la mise aux enchères automatique de mots tapés par les internautes. Les meilleurs enchérisseurs, par rapport au prix qu’ils sont prêts à payer pour un mot-clé, par clic et par jour, obtiennent l’affichage d’un lien commercial dans une colonne à droite en vis-à-vis des résultats naturels. L’annonceur est au final uniquement facturé pour les clics effectués sur ses annonces AdWords, c’est-à-dire pour les visiteurs que son site aura obtenus via ce « lien commercial ». Ce format publicitaire original est moins coûteux et plus efficient que les traditionnelles bannières ; il bénéficie en outre d’un service multilingue et multiculturel, permettant de toucher des internautes du monde entier (de Rougemont, 2006).

10Le modèle de Google constitue ce que les économistes nomment un marché biface (Rochet et Tirole, 2003) qui consiste à offrir au public des services gratuits financés par la monétisation de l’audience auprès des annonceurs publicitaires. Les activités de moteur de recherche et de fourniture d’attention à des annonceurs publicitaires en ligne constituent en effet les deux versants d’un marché au sein duquel la réussite de l’un conditionne l’attractivité de l’autre. Dans cette forme de « gratuité marchande » (Farchy, 2011), il n’y a pas de modèle économique efficient sans résultats naturels gratuits pertinents. Pour garantir la force de l’algorithme, autrement dit la « neutralité » du référencement naturel, les procédures ex post doivent être automatisées bien qu’engageant une série de choix cruciaux ex ante. L’efficience du moteur, sur ces deux faces, est en effet liée à la confiance qu’accordent ses partenaires (internautes comme annonceurs) à la non-intervention de facteurs externes indéterminés dans la production des résultats. Le système repose ainsi sur des procès de neutralisation du monde qui diffèrent de ceux des expérimentations scientifiques – dans la mesure où les règles et les procédures sont opaques – mais se rapprochent de ceux du politique – dans la mesure où ce sont à la fois la participation et l’action qui sont valorisés (Cardon, 2010). Dans la continuité des pionniers d’Internet (Flichy, 2001) et du projet liminaire de Google qui consistait à fournir des outils de recherche aux scientifiques (Auletta, 2010), on est dans une société de pairs où chacun n’est pas traité de manière égalitaire mais en fonction de son implication : plus on est présent, plus on indexe, plus on est cité, plus on est visible, etc. Cependant, un tel programme de neutralisation du monde, objectif incontournable du modèle, ne peut, comme on va le voir, que demeurer inatteignable.

La course-poursuite pour amender les résultats

11L’algorithme dit naturel de Google porte en effet en lui ses antidotes, soit de manière interne, lorsqu’il est détourné par certains acteurs, soit de manière externe lorsqu’il entre en conflit avec d’autres normes qui le contraignent à modifier ses propres règles, et partant à changer les résultats des requêtes.

12Le pacte de confiance sur lequel repose Google, cette neutralisation très active et spécifique, est en effet éminemment fragile : l’algorithme de Google perd sa puissance si les internautes n’agissent qu’en fonction de lui. Il faut que les participants soient « honnêtes » lorsqu’ils associent une thématique à un site et non qu’ils le fassent uniquement pour faire monter leur propre place dans les résultats Google. Or, il devient crucial pour la plupart des sites, commerciaux ou non, d’être visibles depuis le moteur, et même depuis ses premières pages. Toute une industrie, dite du SEO (search engine optimization), s’est donc construite pour améliorer le référencement des sites, les faire « monter » dans le classement des moteurs, avec des techniques de placement, balises, google bombing, syndication de contenus, etc. Le moteur accepte les « bonnes » techniques qui se conforment à son programme d’action mais chasse les « mauvaises » qui cherchent à le contourner, par exemple en créant de faux liens qui n’existent que pour le crawleur.

13Cependant, les frontières entre bonnes et mauvaises pratiques (black hat / white hat) sont passablement brouillées puisqu’il s’agit toujours d’améliorer le référencement. Pour chasser les black hats, le moteur modifie périodiquement son algorithme et ses filtres, entraînant à chaque fois une modification substantielle pour les résultats obtenus par certains sites (Panda 24, en janvier 2013, aurait ainsi modifié 1 % des résultats de requêtes pour la langue anglaise). Le moteur fait évoluer ses règles pour éliminer les résultats « frauduleux » : par exemple le fait d’intégrer un mot-clé dans le nom de domaine d’un site pour attirer du trafic sur un site « qui n’a pas lieu de le faire » et c’est dans l’évaluation de ce « qui n’a pas lieu de le faire » que s’actualise la cuisine hermétique du moteur. Outre les transformations permanentes de son algorithme pour tenter de parer les pratiques trop invasives des SEO, le moteur sort de sa réserve de temps en temps et « tonne contre », à la Flaubert, les fraudeurs, les inscrivant sur sa liste noire ; la prise de position publique étant d’ailleurs plus importante que l’exclusion, toute provisoire, qui en découle. Cela a été le cas en 2006 pour BMW en Allemagne (pour cause de spamdexing, ou fraude portant sur des pages satellites truffées de mots-clés cachés), Matt Cutts, porte-parole technique et spécialiste du spam consacrant à l’affaire un billet sur son blog très visité. Dans cette course-poursuite, Google ne peut désarmer mais il a, malgré la montée en complexité de ses dispositifs de sécurité, toujours un pas de retard sur les fraudeurs. Et ce d’autant plus qu’il est dans l’embarras par rapport à la publicisation de ses règles : s’il les révèle, il rend plus facile leur contournement ; mais s’il ne les explicite pas, il ne peut pas montrer qu’il les respecte.

14Son algorithme, ou modèle opératoire, n’est pas seulement attaqué de l’intérieur. Il se heurte aussi à des normes juridiques et sociales et à l’équilibre des pouvoirs dans chaque pays. La question du traitement des contenus illégaux se pose ainsi de manière cruciale même si, aujourd’hui, la responsabilité du moteur n’est pas engagée par les résultats qu’il propose (Brousseau et al., 2012).

15Quelques-unes de ces controverses ont conduit Google à amender son modèle « naturel » et à intervenir pour refouler certains contenus alors que l’application de son algorithme les aurait placés « naturellement » en haut de la liste des réponses. Les procédures de SafeSearch bloquent par exemple certains contenus jugés inappropriés, comme ceux qui relèvent de la pédopornographie. La procédure du Suggest, qui permet au moteur de compléter la demande de l’internaute, de la préciser, est elle aussi soumise à des interdits, le moteur s’interdisant de proposer parmi les suggestions complétant les requêtes [4] certains termes considérés comme pornographiques, ou « choquants », et certaines associations de mots, jugées attentatoires à la propriété intellectuelle (tel film + Torrent) ou favorisant le racisme (X + juif). Le moteur est dès lors amené à construire des « listes noires » avec les termes à bannir ou à ne pas suggérer, selon des critères qui relèvent du droit national et d’un certain nombre d’usages sociaux ou politiques. Là encore, l’absence de divulgation des règles appliquées par le moteur rend le classement opaque. Google a également introduit des procédures de déréférencement différenciées selon les demandeurs. Ainsi, lorsqu’une violation du droit d’auteur lui est signalée, il traite en priorité les demandes provenant d’acteurs repérés par le moteur et considérés comme des « partenaires de confiance » (par exemple les sociétés d’auteurs), conformément à la procédure de notification et retrait prévue par le DMCA (Digital Millenium Copyright Act) dans un tout autre contexte.

16Comme on le voit, ces interventions externes ou internes des acteurs repoussent les limites du modèle de référencement naturel et contraignent le moteur, horresco referens, à faire exactement le contraire à son programme d’action : intervenir « manuellement » sur les résultats, c’est-à-dire limiter l’automatisme de l’algorithme. Ce type d’intervention est d’autant plus délicat qu’il suppose un arbitrage entre plusieurs facteurs incommensurables : le coût élevé que ces traitements ad hoc représentent pour le moteur, l’insistance des parties prenantes à obtenir ce filtrage, leurs poids dans l’espace public et la nécessité pour les moteurs de fournir des résultats conformes aux demandes des internautes pour maintenir la validité de leur modèle d’affaires.

Contre-modèles et évolution des classifications

17Les moyens de mettre de la compréhension et de la visibilité dans l’énorme masse de données du Web ne cessent de se transformer. D’une part parce que bien que les moteurs restent le principal moyen d’orienter les internautes, d’autres types de dispositifs proposent leurs propres classifications aux internautes, pour le moment de manière essentiellement exploratoire. D’autre part, les moteurs de recherche eux-mêmes jouent un rôle déterminant par leurs expérimentations permanentes et leurs connaissances des internautes, en poussant de plus en plus loin la carte de la personnalisation et de la spécification.

18Plusieurs pistes sont actuellement explorées pour compenser les limites des moteurs basés sur le page rank : le Web sémantique, les moteurs pair-à-pair et les réseaux sociaux.

19Le Web sémantique vise à rendre sa place à la logique du sens, sans exiger les ressources humaines nécessaires aux dispositifs de classement tels les annuaires. Il s’agit de permettre l’indexation des données à partir des concepts et non plus seulement des mots, par exemple en permettant aux machines de traiter des phrases « humaines », avec leurs équivoques, ce qui suppose que les sources d’information pertinentes aient été sémantiquement structurées au préalable. Mais cette très vieille ambition semble difficile à satisfaire, surtout dans un univers cognitif et technique en transformations permanentes : « Bien que formulée au départ dans les termes d’une approche coopérative de la recherche d’information, dans laquelle les activités humaines fonctionnaient à parité avec les automates conçus par les ingénieurs, l’idée de “Web sémantique” a désormais pris l’allure d’une tentative de formalisation destinée à réduire les sources de bruit et d’incertitude dans la recherche automatisée d’informations. » (Chateauraynaud, 2006)

20L’une des limites des travaux sur le Web sémantique est qu’ils se privent des formes de collaboration, volontaires et involontaires, des usagers à la constitution des classements, toute cette intelligence collective que les moteurs en architecture distribuée ou pair-à-pair placent au contraire au centre de leur modèle. Ce principe de distribution, gravé dans les principes originels même d’Internet, s’inscrit sans doute comme un des axes important de transformation à moyen terme dans les modes de communication et de gestion des contenus, apte à parer aux difficultés de gestion du réseau (Musiani, 2013). Les moteurs P2P qui tentent de distribuer entre leurs membres (ou pairs) le travail de signalement et d’indexation des contenus ont pour avantage d’abaisser considérablement les barrières à l’entrée sur le marché des moteurs, alors que les ressources des infrastructures nécessaires à un moteur non distribué pour stocker les données et répondre aux milliards de requêtes sont aujourd’hui considérables. L’infrastructure technique de Google composée par de très nombreuses fermes de serveurs, dans le monde entier, interconnectés par fibre optique et directement reliées aux backbones du réseau (au prix d’une consommation colossale d’électricité) opère en effet comme une barrière à l’entrée de concurrents. La décentralisation peut réduire ces coûts en les répartissant sur l’ensemble des participants. L’architecture décentralisée du logiciel de P2P se mêle à une approche dans laquelle l’individu donne sa valeur ajoutée au processus de recherche.

21À côté de ces approches surtout expérimentales ou confidentielles, les réseaux sociaux offrent dès à présent des possibilités massives d’orientation entre les données du Web, principalement à travers Facebook et Twitter. Alors que les moteurs font d’abord émerger les contenus les plus connus et que la concentration industrielle des acteurs de la culture renforce leur effet blockbuster, les contenus rares peuvent être mis en valeur sur les réseaux sociaux, et être prescrits directement aux consommateurs intéressés. Les résultats fournis ont cependant un caractère « artisanal », dans la mesure où ils dépendent de l’action volontaire d’un « ami » qui cherche à faire partager ses choix. C’est pour contourner cette difficulté que Facebook a lancé en janvier 2013 de manière expérimentale et encore confidentielle un moteur de recherche, GraphSearch, qui interroge à la fois toutes les données des amis de l’internaute, mais aussi toutes les informations des pages publiques du réseau. Si la quantité d’informations s’avère assez riche, un nouveau mode de classement, de type affinitaire, permettra de mettre de l’ordre dans les données du Web.

22De son côté, Google travaille également à faire évoluer son modèle, en suivant les mêmes pistes : affiner l’adéquation de la terminologie à la requête, utiliser encore davantage l’intelligence collective et personnaliser les réponses [5]. Les moteurs utilisent de plus en plus des données de types différents pour affiner les résultats fournis : informations de géolocalisation (à partir de l’adresse IP), données comportementales sur les parcours des internautes (à partir de l’exploitation de cookies ou de données de logs), données liées à la langue, etc. Tous les moteurs utilisent ainsi les cookies inhérents à la navigation de chaque internaute pour proposer des réponses ciblées. L’internaute a toujours la possibilité de les désactiver, mais l’opération, qui peut paraître d’une grande simplicité aux informaticiens ou internautes aguerris, est moins immédiate pour le non-initié, d’autant plus que cette intervention peut lui interdire l’accès à des ressources qui l’intéressent, alors que son bénéfice ne lui apparaît pas nécessairement de manière claire. Cette personnalisation des résultats si elle contribue à satisfaire l’internaute en ajustant les résultats au plus près de ses pratiques, souvent pour une meilleure efficacité, n’est pas sans poser des problèmes de confidentialité. Les moteurs participent ainsi d’une forme d’économie de la visibilité (Simonnot, 2008).

23Les moteurs proposent désormais une information enrichie, (i. e. ne se limitant pas en la présentation d’un simple lien renvoyant au site source), spécialisée (images, presse, livres, travaux scientifiques, etc.) et personnalisée (en s’appuyant sur les données de connexion de l’utilisateur). Au final, ils fournissent en réponse à une requête des contenus denses et étoffés : ils ne se contentent pas de donner des liens, de pointer vers un contenu, mais enrichissent l’information (par exemple en ajoutant des photos, des captures d’écran, des résumés, etc.), voire l’agrègent en fonction de logiques hiérarchiques (par exemple liens sponsorisés / liens payants, etc.).

24Ainsi, les moteurs classent-ils l’information numérique, lui imposant leur ordre, dans la pénombre de leurs modus operandi et des réponses locales ou conjoncturelles apportées aux autorités qui cherchent à changer les règles. Cela ouvre deux types d’interrogations.

25D’une part, la puissance publique doit-elle et peut-elle intervenir dans ce classement ? En matière d’organisation des savoirs, on passe ici à une logique de private ordering où les choix sont opérés de manière unilatérale par un opérateur privé en situation de quasi-monopole. Susciter une concurrence s’est révélé pour l’heure une impasse ; le fonctionnement même d’un moteur de recherche implique qu’un acteur dominant se trouve en partie protégé par une barrière à l’entrée naturelle dans la mesure où l’audience détermine la pertinence des résultats proposés (plus il y a d’occurrences entre les requêtes, plus les réponses sont riches et pertinentes). En d’autres termes, un moteur ayant une faible part de marché ne peut avoir un niveau de pertinence aussi élevé que le moteur dominant sur le marché sur des requêtes complexes. Le public ordering n’a quant à lui pas fait la preuve qu’il savait mettre de l’ordre dans le flux des informations numériques.

26D’autre part, vers quelles reconfigurations du Web amène la personnalisation des outils de recherche ? Partis d’une prestation quantitative consistant à fournir à l’internaute le plus de contenus possibles en rapport avec la requête formulée, les moteurs proposent de plus en plus un service orienté vers une dimension qualitative et individualisée. Cette personnalisation entre en tension avec l’exigence de neutralité du moteur, dans la mesure où les réponses sont de plus en plus spécifiques et interprétatives. On retrouve la même tension, déjà observée, entre les deux faces de l’économie du dispositif : valoriser l’internaute en particularisant les résultats aux requêtes permet d’obtenir une rentabilité forte (Mahan, 2009) et cela peut le satisfaire dans la mesure où il obtient des réponses particulièrement adaptées. Mais cela peut aussi nuire à la qualité des résultats fournis et détourner l’internaute, s’il n’obtient en définitive que ce qu’il connaît. La richesse des informations du Web serait perdue si elle s’arrêtait aux frontières de chaque individu ; mais les moteurs de recherche sont encore dans leur adolescence (Google a quinze ans) et le classement de l’information numérique produira bien d’autres modèles.

Notes

  • [1]
    Source : ATinternet, <www.atinternet.fr/documents/barometre-des-moteurs-de-recherche-mars-2012/>, consulté le 17/04/2013.
  • [2]
    Pour une analyse de cette nouvelle économie de l’attention, voir Goldhaber, 1997 ; Lanham, 2006.
  • [3]
    La part du Web réellement indexée semble impossible à définir, tant diffèrent les appréciations sur les critères d’évaluation du Web profond, son volume, la part de pages crawlées et traitées, etc.
  • [4]
    Ou plutôt les renvoyant dans les tréfonds des pages de résultats.
  • [5]
    Ertzscheid (2008) distingue trois niveaux de personnalisation : personnalisation transparente à partir des logs d’une session, personnalisation persistante lorsque l’internaute s’est identifié et personnalisation participative lorsque l’internaute intervient dans les services, par exemple en taguant ou en partageant un contenu.
Français

L’infrastructure informationnelle que constitue Google a mis l’intelligence collective des utilisateurs du web au service d’un modèle d’affaire efficient selon une logique de marché biface. À la différence des grands modèles de classification du savoir, l’accès se fait en « langage naturel ». Ce naturel relègue dans l’arrière-boutique de la machine tout le travail intermédiaire de production des résultats en mettant en avant une assomption de neutralité. Or, nous montrons qu’il s’agit en fait d’une vigoureuse mise en ordre du monde afin de répondre à la fois au programme d’action fixé par le moteur, aux actions des acteurs qui cherchent à intervenir dans ce programme et au développement de contre-modèles expérimentaux.

Mots-clés

  • référencement
  • Google
  • ranking
  • marché biface
  • web sémantique

Références bibliographiques

  • Auletta, K., Googled. The End of the World As We Know It, Londres, Virgin Books, 2010.
  • En ligneBrousseau, E., Marzouki, M. et Méadel, C. (dir.), Governance, Regulation and Powers on the Internet, Cambridge, Cambridge University Press, 2012.
  • Cardon, D., La Démocratie Internet. Promesses et limites, Paris, Seuil, coll. « La République des idées », 2010.
  • Cassin, B., Google-moi : La deuxième mission de l’Amérique, Paris, Albin Michel, 2007.
  • En ligneChateauraynaud, F., « Moteurs de (la) recherche et pragmatique de l’enquête. Les sciences sociales face au Web connexionniste », Matériaux pour l’histoire de notre temps, 2/2006, n° 82, 2006, p. 109-118.
  • Ertzscheid, O., « Moteurs de recherche : des enjeux d’aujourd’hui aux moteurs de demain », s.l., s.e., 2008. Disponible en ligne sur : <halshs.archives-ouvertes.fr/sic_00325690/>, consulté le 17/04/2013.
  • Farchy, J, « The Internet Culture for Free », in Towse, R. (dir.), Handbook of Cultural Economics, Cheltenham, Edward Elgar Publishing, 2011, p. 245-254.
  • En ligneFlichy, P., L’Imaginaire d’Internet, Paris, La Découverte, 2001.
  • En ligneFridenson, P., « Une entreprise de sélection : Google », Entreprises et Histoire, 2/2006, n° 43, 2006, p. 47-57.
  • Goldharber, M., « The Attention Economy and the Net », First Monday [en ligne], vol. 2, n° 4, 1997. Disponible en ligne sur : <firstmonday.org/ojs/index.php/fm/article/view/519/440>, consulté le 17/04/2013.
  • Lanham, R. A., The Economics of Attention, Chicago, University Chicago Press, 2006.
  • En ligneMahan, A., « De la société de contrôle au désir de contrôle », Multitudes, n° 36, 2009, p. 53-60.
  • Musiani, F., Nains sans géants. Architecture décentralisée et services Internet, Paris, Presses des mines, 2013.
  • Origgi, G., « Un certain regard. Pour une épistémologie de la réputation », Workshop « Réputation », Rome, Fondazione Olivetti, 14 avril 2007.
  • En ligneRochet, J.-C. et Tirole, J., « Platform Competition in Two Side Market », Journal of the European Economic Association, vol. 1, n° 4, 2003, p. 990-1029.
  • En ligneRougemont, M. (de), « Informatique et économie numérique », Entreprises et histoire, 2/2006, n° 43, 2006, p. 26-33.
  • En ligneSimonnot, B., « Moteurs de recherche », Questions de communication, n° 14, 2008, p. 7-15.
  • En ligneStar, S. L., et Ruhleder, K., « Steps Toward an Ecology of Infrastructure : Design and Access for Large Information Spaces », Information Systems Research, vol. 7, n° 1, 1996, p. 111-134.
Joëlle Farchy
Joëlle Farchy est professeure de SIC à l’université Paris 1 et chercheure au Centre d’économie de la Sorbonne. Ses principaux thèmes de recherche portent sur les industries culturelles, l’économie numérique et la propriété intellectuelle dans la mondialisation culturelle. Elle est membre du Conseil supérieur de la propriété littéraire et artistique et directrice de l’École des médias et du numérique de la Sorbonne.
Cécile Méadel
Cécile Méadel est professeure à l’École des mines de Paris, chercheuse au Centre de sociologie de l’innovation-CNRS Elle travaille sur la conception et la régulation des technologies de communication. Ses derniers ouvrages sont consacrés à la gouvernance de l’internet et à la construction des mesures d’audience.
Courriel : <cecile.meadel@ensmp.fr>.
Mis en ligne sur Cairn.info le 25/11/2013
https://doi.org/10.4267/2042/51568
Pour citer cet article
Distribution électronique Cairn.info pour CNRS Éditions © CNRS Éditions. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...