CAIRN.INFO : Matières à réflexion

Florian Charvolin, André Micoud et Lynn K. Nyhart, Des sciences citoyennes ? La question de l’amateur dans les sciences naturalistes, La Tour d’Aigues, Éd. de l’Aube, 2007, 240 p.

1« À l’encontre des perceptions stéréotypées, ce livre cherche à montrer la relativité des positions entre amateurs et professionnels, un univers de relations que, suivant l’usage anglo-saxon, nous appelons “sciences citoyennes”. » L’ouvrage collectif coordonné par F. Charvolin, A. Micoud et L. K. Nyhart, issu d’un colloque sur les sciences participatives, annonce clairement ses intentions : engager une déconstruction des rapports entre amateurs et professionnels dans les sciences naturalistes pour en proposer une nouvelle approche plus complexe. L’ensemble des textes du volume soulignent en effet la perméabilité et la mouvance de cette frontière entre le monde scientifique et les différents groupes et individus de la société.

2L’argumentation développée s’articule autour de trois facettes complémentaires : la question de l’observation d’un objet vivant (objet des sciences naturalistes) par un sujet sensible ; l’aspect communautaire des connaissances et des pratiques ; la potentielle compréhension de ces rapports à l’aune des questions contemporaines démocratiques et environnementales.

3C’est d’abord la spécificité de l’objet d’étude, le monde naturel, qui est interrogée : l’observation du vivant contribue, semble-t-il, à modifier autant l’approche de l’observateur que ses résultats. Cette relation sensible a longtemps été considérée, et l’est peut-être encore aujourd’hui, comme la marque d’une limite entre, d’un côté, les scientifiques aux méthodes éprouvées et, d’un autre, les amateurs sujets à leurs passions ; entre la connaissance scientifique et les discours de vulgarisation. Les textes de ce chapitre illustrent la contribution d’une approche sensible de la nature à la construction de l’intérêt pour cet objet d’étude et son importance comme moteur de pratiques scientifiques. Locaux et tacites, les savoirs issus des pratiques amateurs trouvent parfois peu d’écho auprès des scientifiques.

4En réintroduisant la vision de l’amateur et en rattachant les études des amateurs à la contribution du savoir scientifique, il s’agit de reconnaître la légitimité de l’autre autant que de son discours, l’importance de la sensibilité pour la recherche et la compréhension du vivant et, enfin, le caractère évolutif de la science en fonction des regards qu’elle porte sur son objet d’étude.

5La deuxième facette de l’argumentation développée s’intéresse à la question de la construction de communauté d’amateurs dans les sciences naturalistes. Les contributions à ce chapitre soulignent la capacité des non-scientifiques à construire et développer des connaissances particulières hors et en amont d’une collaboration avec la sphère des scientifiques. Les réseaux se tissent et se dessinent parfois comme une volonté de contrepouvoir ou de résistance organisée face à des pratiques unilatérales ou contestées.

6Les groupes d’amateurs peuvent amorcer des initiatives de recherche, en requérant la participation des scientifiques en aval, ou encore participer à l’introduction de changements dans les pratiques scientifiques. Le monde de la recherche peut lui aussi faire appel aux amateurs et cette collaboration est susceptible de produire des résultats étonnants. Dans cette collaboration, scientifiques et amateurs conservent leurs rôles respectifs : chacun apporte à l’autre son approche, ses savoirs et ses traitements des connaissances acquises ou produites.

7La troisième partie de l’ouvrage permet d’appréhender l’actualité du sujet, autant sur le contenu de la communication que sur les modes de diffusion des connaissances. Le partage des connaissances interroge l’aspect démocratique des rapports de la société au savoir. En effet, la science s’inscrit dans le monde et les scientifiques ne sont pas les seuls à détenir un savoir. Parfois, l’intérêt du monde scientifique permet à des amateurs de se définir et de se découvrir comme détenteurs de connaissances ; des thématiques émergentes de recherche, des directions et des résultats scientifiques contestés permettent d’appréhender la pluralité des points de vue.

8Plusieurs initiatives visent à créer des structures de production de connaissances qui permettent la mise en commun de savoirs complémentaires. Dans un contexte environnemental qui place les sciences naturalistes au cœur des enjeux de société, les questions suivantes sont abordées dans l’ouvrage : quels sont les processus d’émergence des savoirs ? Comment introduire des questions de société dans le débat public et comment se traduisent ces questions dans l’action ?

9L’amateur interroge donc indirectement la question de la relation des sciences à la société et questionne les légitimités réciproques du monde scientifique et des cercles d’amateurs. Les divers textes du chapitre, qui montrent une pluralité d’approches et une diversité de résultats, rendent caduque tout schéma de diffusion des connaissances préétabli. Il apparaît que c’est à travers la multiplication des expériences, dans la pratique quotidienne de ces projets, que s’élaborent de nouveaux modes de partage du savoir et de mise en place des pratiques.

10Les programmes de sciences participatives de suivi, qui invitent les amateurs à communiquer leurs observations de la nature, apparaissent comme des tentatives de proposer un nouveau cadre aux relations entre scientifiques et citoyens. Les connaissances particulières des amateurs sont envoyées aux scientifiques, qui les analysent, puis diffusent les résultats.

11Mais l’appropriation des enjeux environnementaux et la volonté de la mise en œuvre d’actions passe-t-elle par une meilleure compréhension des phénomènes ? En mettant les amateurs au cœur du processus scientifique, et en leur permettant par l’observation et l’action de terrain de développer leurs propres connaissances, les programmes de sciences participatives de suivi font le pari d’une démarche complexe et ouverte, dans laquelle la rigueur scientifique, les savoirs individuels et l’approche sensible sont les conditions potentielles d’actions environnementales.

12Alix Cosquer

13Doctorante au Muséum national d’histoire naturelle

14LADYSS - UMR 7533 - CNRS

15Courriel : <cosquer@mnhn.fr>

Lorenzo Vilches (dir.), Mercados globales, historias nacionales, Barcelone, Gedisa, 2009, 204 p.

16Betty est laide. Elle porte de grosses lunettes. Elle est défigurée par un appareil dentaire. Elle n’épile pas ses sourcils. Elle se coiffe et s’habille mal. Elle travaille comme secrétaire pour un patron très riche dont elle tombe amoureuse mais qui, bien sûr, ne la regarde pas. D’innombrables aventures seront bien sûr nécessaires pour qu’elle puisse atteindre à la beauté, rencontrer l’amour et changer de situation sociale. La fille issue du peuple, chargée de tares physiques, complexée et enlaidie, le vilain petit canard, finira par passer de l’autre côté, celui de la richesse, de la beauté et de l’amour partagé et devenir un beau cygne respecté et aimé.

17Cette trame narrative, typiquement mélodramatique, est celle de Yo soy Betty, la fea (Je suis Betty, la laide) qui a occupé les écrans colombiens pendant des mois. Rien de nouveau, serait-on tenté de dire, sous le soleil de la telenovela ibéro-américaine. Eppur si muove, explique Lorenzo Vilches. Et pourtant elle bouge. Betty est devenue l’un des meilleurs produits d’exportation, mais pas sous la forme filmée originelle. C’est le scénario, l’idée qui en ont été vendus. Là est la nouveauté. Dans Ugly Betty, produit et diffusé par ABC aux États-Unis, Betty habite le quartier de Queens et va travailler dans l’immeuble de Woolworth à Manhattan. L’opposition entre les deux mondes, centré sur les classes sociales et leurs goûts en Colombie, se traduit par l’opposition entre les deux quartiers de New York. De l’autre côté de l’Atlantique, la production de Yo soy Bea (Je suis Bea) en Espagne dure deux ans et mobilise quatorze metteurs en scène pour ce que la production espagnole va appeler une indigenización. La compagnie Telecinco va adapter Betty à la culture espagnole. Le produit final se déclinera sur Internet avec des tchats (près de 60 000 visites) et rassemblera devant les écrans de télévision une moyenne de trois millions de téléspectateurs pendant deux ans. Betty va ainsi développer une carrière mondiale. Mais à l’exportation de la série initiale tournée en Colombie se substitue désormais l’exportation de la marque, sous forme de véritable franchise, dans trente pays, y compris la Turquie et l’Indonésie

18L’annuaire 2008 de la production de fictions ibéro-américaines que dirige chez Gedisa Lorenzo Vilches permet de suivre pays par pays (en Amérique latine, aux États-Unis – pour la production en espagnol –, en Espagne et au Portugal), mais aussi au plan international, les évolutions de ces produits des industries culturelles que sont les fictions télévisées.

19Quelles en sont les grandes tendances ? La première est que ce prototype de produit d’industrie culturelle affronte désormais un marché libéralisé et global. L’adaptation en temps réel aux variations de l’audience, l’impératif d’une rentabilité rapide, l’adoption d’un format international proche de 60 minutes pour chaque épisode, la prise en compte des nouvelles pratiques du Home cinéma et des écrans plasma larges qui suscitent une esthétique plus cinématographique sont des effets tangibles de cette globalisation.

20De ce point de vue, la fiction télévisée va mieux. Elle se remet des coups rudes que lui a portés en termes d’audience la télé-réalité. Les Big Brother, Star Academie et autres Qui veut être millionnaire ? dans leurs innombrables versions ont paru un moment la détrôner pour le prime time. Ce danger semble écarté et la fiction revient au premier rang des émissions capables de fixer une audience, ne craignant à cette heure critique que la concurrence du football. Les télévisions publiques ont, malgré leur relative faiblesse, joué un certain rôle dans cette réhabilitation de la fiction.

21Telles sont les grandes tendances dans lesquelles une certaine unification mondiale peut se repérer. Mais une autre tendance se fait jour, beaucoup moins unificatrice, qu’on pourrait appeler le retour du local. Si Miami est devenu le centre de production d’une fiction télévisée qu’on a nettoyée de tout caractère national, pour pouvoir la vendre dans tous les pays indistinctement, le marché, impitoyable, a remis ces prétentions cosmopolites à leur place. Il apparaît que, pour gagner l’audience des débuts de soirée, les fictions à caractère national sont les seules valeurs sûres. Les chaînes de télévision qui, comme les colombiennes Caracol et RCN, voulaient produire et diffuser des telenovelas cosmopolites découvrent que le goût de leur public va nettement vers les fictions qui ont une saveur locale et déclinent les valeurs de l’identité nationale. Ipso facto, les produits internationaux sont repoussés vers les plages de diffusion du matin ou de l’après-midi. Et les projets de coproduction internationale se voient limités comme ceux d’exportation des épisodes.

22Cette affirmation des goûts nationaux de la part des publics a deux conséquences inattendues. La première est que Betty ne voyagera pas sous sa forme locale, celle de la Colombienne de classe populaire par trop reconnaissable. Elle va se transformer, comme vont se transformer sa famille, ses préoccupations, ses relations, et les aventures qu’elle traverse, pour s’adapter aux différents pays de diffusion. La seconde est la récupération d’une relative symétrie mondiale en termes de commerce de modèles narratifs. Betty est un exemple de parcours inverse de celui des Desperate Housewives qui partent à la conquête du monde télévisuel à partir des États-Unis. Betty part, elle, conquérir les audiences à partir de l’Amérique latine.

23En cela, et l’ouvrage dirigé par Lorenzo Vilches, très richement documenté, le prouve, la mondialisation des marchés des industries culturelles et la domination du marché ne signifient pas une uniformisation. Les téléspectateurs restent finalement les maîtres et ils savent ce qu’ils veulent. Des fictions dans lesquelles ils peuvent se retrouver.

24Bruno Ollivier

25Laboratoire « Communication et Politique » (ISCC) et Université des Antilles et de la Guyane

26Courriel : <ollivierbruno@gmail.com>

Jacques Noyer, Quand la télévision donne la parole au public. La médiation de l’information dans l’Hebdo du médiateur, Lille, Presses universitaires du Septentrion, 2009, 328 p.

27Souvent invoquée par les professionnels, parfois évoquée par les chercheurs, la médiation journalistique n’a que rarement donné lieu à des études systématiques, du moins sous l’angle des dispositifs et des discours à travers lesquels elle prend forme dans les institutions médiatiques. Jacques Noyer vient combler ce manque en nous proposant un examen approfondi de L’Hebdo du médiateur, un programme hebdomadaire d’échanges avec les téléspectateurs diffusé pendant une dizaine d’années par France 2.

28Précieuse est en ouverture de ce travail original, l’étude de généalogie et de sémantique que Noyer propose du terme de médiation à la communauté des sciences de l’information et de la communication. On sait que le vocable est dans ce champ scientifique soumis à de multiples usages conceptuels endossant selon les divers domaines d’études (la médiation socio-technique, la médiation culturelle et artistique, etc.) des acceptions très spécifiques. Stimulant est donc en premier lieu cet opus car il rappelle ainsi plus généralement la nécessité, dans les études en sciences sociales et humaines, de procéder à un travail de définition préalable des concepts-pivots. Surtout quand ils sont aussi polysémiques que celui de médiation, par ailleurs sujet à des multiples emplois à des fins stratégiques dans le discours institutionnel, politique et même administratif.

29Dans la première partie de son ouvrage (qui est centré sur la télévision informative), Noyer relève que L’Hebdo du médiateur « apparaît de fait comme la traduction d’une volonté du service public de télévision français de prendre en compte – et rendre particulièrement visible – le débat qui peut exister autour de la façon dont les médias rendent compte des questions vives » (p. 53). Et il avance simultanément que ce programme est symptomatique plus généralement d’une « entrée dans un nouveau paradigme où le public est davantage considéré comme un récepteur actif, un opérateur de sens dont les modes d’écoute et de compréhension doivent trouver une expression publique ».

30Pour valider cette hypothèse, Noyer procède, par le biais d’une analyse méthodique d’un corpus d’éditions de ce programme étalées sur une année, à un examen méthodique des thèmes mis en discussion mais aussi des formes d’échange, ainsi que de certains éléments symboliques (le générique, par exemple) mis en œuvre par l’instance de production pour assurer le processus de médiation avec le public. Il s’attache plus spécialement aux places attribuées au médiateur lui-même, aux rôles et aux postures que celui-ci est conduit à adopter en fonction des situations et des types d’interpellation.

31Orientée vers le public, la deuxième partie donne à découvrir principalement un inventaire raisonné et bien ordonné des « registres critiques » développés par les téléspectateurs à l’égard des émissions programmées par la chaîne historique et premium de service public. Déjà repérable dans les formes de médiation ou de régulation (du type « courrier de lecteurs ») présentes de vieille date dans la presse écrite, se manifeste ainsi un registre d’ordre grammatical centré sur les incorrections commises par les journalistes dans l’usage de la langue. De même, s’affirme dans les propos des téléspectateurs s’adressant au médiateur un registre « identitaire » témoignant d’un fort attachement à un idéal du service public dont les règles sont sans cesse réinvoquées, enfreintes qu’elle sont aux yeux des usagers par les professionnels de la télévision publique soupçonnés de céder aux logiques d’audience.

32De par la rigueur de sa construction et de sa démarche, l’ouvrage de Jacques Noyer se présente comme une exemplaire référence méthodologique pour un apprenti-chercheur s’orientant vers des études sur les formes et les stratégies des discours médiatiques. Mais le profit de l’ouvrage n’est pas seulement là, ni uniquement dans le fait de s’attacher à un genre télévisuel peu étudié jusque là. Le bénéfice est aussi ailleurs. Noyer relève en effet dans sa conclusion que ce programme de médiation de France 2 est en proie à une « tension symbolique » à portée plus large. L’Hebdo du médiateur donne en effet crédit à l’importance et à la légitimité d’un débat public sur le rôle des médias d’information en tant qu’acteurs du social. Il se heurte toutefois, souligne l’auteur, à un certain nombre de croyances et de normes des professionnels et principalement à un déni de la part des journalistes : « le fait qu’ils puissent être co-constructeur(s) de la réalité sociale ».

33Doit-on conclure, par-delà les explications de surface qui ont pu être avancées, que c’est parce qu’elle touchait à cet impensé que l’émission de France 2 a été supprimée à la rentrée 2008. C’est tout l’intérêt de cet ouvrage de Noyer de désigner avec obstination un point central mais toujours aveugle du débat entre journalistes et chercheurs.

34Guy Lochard

35Laboratoire « Communication et Politique » (ISCC) et Université Paris III - Sorbonne Nouvelle

36Courriel : <glochard@club-internet.fr>

Stéphane Olivési (dir.), Introduction à la recherche en SIC, Presses universitaires de Grenoble, 2007, 332 p.

37Un manuel de méthodologie en sciences de l’information et de la communication (SIC) manquait. L’ambition de l’ouvrage collectif dirigé par le très prolixe Stéphane Olivési est de combler ce manque. L’ambition est-elle atteinte ?

38Cet ouvrage « se propose d’abord de répondre aux attentes, aux besoins et aux inquiétudes d’étudiants confrontés à leurs premiers exercices d’apprentis chercheurs » (p. 6). Pour ce faire, il repose sur une proposition forte et pertinente : coupler méthodologie et épistémologie afin de neutraliser « deux risques symétriques », le dogmatisme méthodologique coupé d’une réflexion sur la science et le formalisme épistémologique détaché des pratiques concrètes des chercheurs. Pourtant, la conception de l’ouvrage ne va pas jusqu’au bout de ce projet puisque le plan sépare, d’un côté, la réflexion méthodologique (1re partie, « Techniques d’enquêtes et méthodes ») et, de l’autre, la réflexion épistémologique (2e partie, « Méthodologie et épistémologie »). Le tout est complété par une très courte (deux textes) 3e partie nommée « Repères pratiques » qui donne des informations concrètes sur la manière de conduire une thèse en SIC, les institutions du champ, les revues reconnues, etc. Cette troisième partie est, à nos yeux, centrale pour expliquer pourquoi ce livre n’atteint pas l’objectif fixé.

39En effet, cette troisième partie, dans son style comme sur le fond, répond parfaitement à l’ambition présentée en introduction : répondre aux problèmes des apprentis chercheurs en SIC. Les deux textes sont écrits par des personnalités reconnues (Bernard Miège et Isabelle Paillard qui décrivent les étapes d’une recherche en SIC ; Hélène Cardy qui présente les différentes institutions) et proposent effectivement des réponses concrètes aux problèmes que se posent les étudiants en SIC confrontés à la recherche. Mais cette troisième partie se trouve en totale porte à faux avec les deux premières qui, elles, s’adressent – dans le fond comme dans la forme – à des chercheurs confirmés. Du coup, l’ouvrage ainsi constitué apparaît incapable de choisir entre deux publics : celui des pairs, celui des étudiants. Éditer un ouvrage de SIC qui oublie son public n’est pas forcément une bonne méthode pour inciter les jeunes à réfléchir à la méthodologie.

40Qui aime bien châtie bien dira-t-on ? Effectivement ! Les contributions réunies dans la première partie sont d’une grande qualité scientifique. Les textes de Philippe le Gern sur l’Observation, de Jean-Bapiste Legavre sur l’entretien, de Pascal Froissart sur l’analyse quantitative, de Geneviève Lallich-Boidin sur la recherche documentaire, de Roger Bautier et Elisabeth Cazenave sur les sources historiques, de Guy Lochard et Jean Claude Soulages sur la démarche sémiologique, de Damon Mayaffre sur l’analyse du discours et finalement de Jean-Pierre Esquenazi sur la sociologie de l’énonciation permettent au chercheur de réfléchir sur ses pratiques méthodologiques en remettant en cause les préjugés que l’on peut avoir vis-à-vis de telle ou telle approche. Cette diversité dans les méthodes abordées se double d’une diversité des disciplines d’origine et se voit renforcée par la multiplicité des points de vue théoriques des auteurs. À elle seule cette première partie mérite que l’on achète le livre et que l’on félicite le directeur de ce collectif pour avoir eu le courage et l’énergie de rassembler des textes de qualité sur un sujet injustement négligé par les publications scientifiques en SIC.

41La deuxième partie est, elle aussi, composée de textes stimulants. Stéphane Olivési et Jean-Claude Soulages proposent une réflexion épistémologique sur les rapports entre communication et langage. Texte suivi par une autre contribution du directeur de l’ouvrage portant sur le « Travail du concept », analyse complétée, mais aussi partiellement remise en cause, par l’article d’Emmanuel Pedler intitulé « Le raisonnement scientifique ». Cette seconde partie s’achève sur un texte de Jacques le Bohec traitant du « Travail d’objectivation ». Mais si chaque texte s’avère, en lui-même, riche de questionnements utiles pour les SIC, l’ensemble laisse un peu sur sa faim. Un goût paradoxal de trop et de trop peu. Trop car, finalement derrière l’apparente diversité des points de vue, on retrouve le même cadre conceptuel : la sociologie de Pierre Bourdieu. Trop peu, car la question centrale de l’objet – existe-il un objet « information-communication » ? – est à peine effleurée.

42Ce que nous considérons comme « trop peu » s’explique aisément par le point de vue épistémologique de Stéphane Olivési, fortement influencé, outre Bourdieu, par Foucauld et, dans le domaine plus spécifique des SIC, par Bernard Miège, postulant que toute théorie globale des SIC est impossible. Cette position épistémologique est solide, argumentée, respectable, mais elle n’est pas la seule possible. Les réflexions épistémologiques générales aussi importantes que celle de Thomas Khun, Jürgen Habermas ou Edgar Morin, ne sont pas du tout mentionnées ! De même, des réflexions sur l’épistémologie des SIC aussi différentes que celles proposées par Alex Mucchielli, Bruno Ollivier ou Daniel Bougnoux sont totalement ignorées. Du coup, et nous revenons ici à notre critique liminaire, soit l’on s’adresse à d’autres pairs en défendant un point de vue de manière à nourrir un débat intellectuel et les choix effectués par Stéphane Olivési sont tout à fait légitimes ; soit l’on s’adresse à des étudiants et, même si l’on peut proposer un point de vue particulier, l’on se doit de proposer un éclairage sur la pluralité des théories de la science et des SIC.

43Un livre important pour la réflexion sur les SIC. Un manuel de méthodologie raté.

44Éric Dacheux

45Groupe « Communication et Solidarité »

46Clermont Université

47Courriel : <eric.dacheux@univ-bpclermont.fr>

Nick Davies, Flat Earth News, Londres, Vintage Books, 2008, 420 p.

48Les travaux critiques sur le journalisme et les médias d’information relèvent généralement soit de l’essai copieusement alimenté d’expériences personnelles, soit du travail académique pointu. Le premier manque parfois de rigueur et tourne souvent au règlement de comptes ; le second souffre d’un manque d’ancrage dans la réalité de l’expérience des professionnels qui font l’information. L’ouvrage de Nick Davies constitue un exemple rare de combinaison aboutie des deux.

49Journaliste expérimenté au Guardian, Nick Davies engage son savoir-faire de journaliste d’investigation dans une enquête fouillée sur les dérives du journalisme contemporain dans un pays, le Royaume-Uni, où la presse est peu coutumière de ce type d’exercice d’autocritique. Mais les fondations de l’ouvrage ne se limitent pas à une enquête approfondie et documentée. Elles reposent également sur une étude d’envergure menée pour l’occasion par l’école de journalisme de l’Université de Cardiff et financée par le Joseph Roundtree Charitable Trust. Cette étude constitue, à elle seule, un apport considérable à l’analyse de l’évolution de la production journalistique (même si l’auteur aurait pu lui consacrer plus d’espace). Le principe en est fort simple et les résultats cinglants. À partir de l’analyse de tous les articles d’actualité nationale publiés dans cinq grands quotidiens britanniques durant deux semaines choisies au hasard (plus de 2200 articles), l’équipe de Cardiff établit par exemple que 80 pour cent des articles étaient constitués en partie au moins d’extraits de dépêches d’agence voire de documents fournis par des agences de communication, et ce totalement ou principalement pour 60 de ces 80 pour cent, sans autre apport ou vérification.

50Outre ces preuves empiriques de pratiques journalistiques très éloignées des principes élémentaires du journalisme, l’étude apporte des éléments sinon explicatifs, au moins contextuels concernant la dégradation des conditions de travail des journalistes, et particulièrement l’augmentation de la production éditoriale par journaliste, autrement dit la réduction du temps dont dispose un journaliste pour construire son article, vérifier l’information, mener l’enquête, aller sur le terrain, rédiger. Les chercheurs de Cardiff ont mesuré l’évolution, entre 1985 et 2005, de la surface éditoriale et du nombre de journalistes produisant les articles. En vingt ans, le nombre de journalistes a légèrement baissé alors que la surface éditoriale produite a triplé. Autrement dit, sans compter les tâches supplémentaires liées aux sites Web, au blogs, etc., les journalistes de la presse nationale britannique disposeraient de trois fois moins de temps pour préparer et rédiger leurs articles qu’il y a vingt ans. Ce constat accablant se double d’une enquête auprès des journalistes dont deux tiers se plaignent de devoir écrire plus et de vérifier moins qu’auparavant.

51Et de mettre en évidence les contradictions d’une société de l’information où la rapidité est prônée en valeur absolue, en contradiction évidente avec tout ce qui fait le journalisme de qualité. Davies en relève une matérialisation dans les injonctions contradictoires affichées par le guide officiel de la BBC pour le personnel de BBC News Interactive qui affirme qu’un article doit être fiable, impartial, équilibré, qu’il ne faut jamais publier quelque chose qu’on ne comprend pas, qui relève du spéculatif ou qui n’est pas proprement sourcé, tout en recommandant de publier la nouvelle aussi vite que possible, en essayant d’être les premiers.

52Une partie très stimulante de l’ouvrage énonce dix règles d’or qui semblent gouverner le journalisme actuel, ou plutôt, comme l’appelle Davies, le churnalism qui pourrait se traduire par « journalisme à la chaîne ». Réaliser des sujets sans risque et rapides, se concentrer sur les déclarations factuelles (de préférence de sources officielles), faire preuve de déférence à l’égard de tout qui pourrait faire du mal au média (auto-censure), s’inscrire dans le climat d’opinion et des valeurs, toujours faire état des différents points de vue (même lorsqu’il s’agit de faits vérifiables), dire au public ce qu’il veut entendre, le dire comme il veut l’entendre (en évitant le complexe, le contexte, l’abstrait, etc.), dire au public ce qu’il veut croire, embrayer sur les bouffées d’émotion ou de panique en les amplifiant (il évoque abondamment la panique du passage à l’an 2000) et enfin relayer les nouvelles publiées par les autres médias, même si elles manquent d’intérêt ou qu’elles sont douteuses. Chacune de ces règles est expliquée avec humour mais surtout illustrée par des exemples historiques précis.

53Une attention soutenue est également accordée au rôle des agences et conseils en relations publiques dont la montée en puissance est rendue responsable d’un nombre inquiétant de manipulations à la fois si visibles, évidentes même, et pourtant si efficaces et socialement acceptées. Cet ouvrage est né du malaise éprouvé par l’auteur, un journaliste expérimenté, face à la débâcle médiatique autour des armes de destruction massive et de l’intervention américaine en Irak. Les observations et analyses portent essentiellement sur les médias britanniques et, dans une moindre mesure, américains. Mais on sent à quel point les mécanismes identifiés et décomposés sont largement transposables au moins à l’ensemble des médias occidentaux.

54Chacune des parties de ce livre de plus de 400 pages peut se lire indépendamment des autres. Il s’agit presque d’un recueil sans pour autant manquer de cohérence. Témoignages, études scientifiques, sources diverses et exemples bien choisis se combinent en un ouvrage à l’écriture précise, agréable et ponctuée de quelques traits d’ironie ou d’humour qui en rendent la lecture plaisante et passionnante, mais aussi profondément inquiétante. Principal regret, le livre ne comporte pas de bibliographie, ce qui est particulièrement curieux pour un travail si rigoureusement documenté.

55Flat Earth News, littéralement « nouvelles de type la terre est plate » montre comment une information qui semble être vraie sera largement acceptée comme telle, puis deviendra rapidement incontestable même si elle s’appuie sur des erreurs, des exagérations ou des manipulations. Le livre s’ouvre sur une citation imaginaire « “La terre est plate” – N’importe qui, n’importe où, jusqu’à ce que quelqu’un vérifie ».

56François Heinderyckx

57Professeur au département des Sciences de l’information et de la communication

58Université Libre de Bruxelles (ULB)

59Courriel : <francois.heinderyckx@ulb.ac.be>

Thomas Rid, Marc Hecker, War 2.0. — Irregular Warfare in the Information Age, Westport & Londres, Praeger Security International, 2009, 280 p.

60Cet ouvrage traite de l’incidence d’Internet sur l’organisation de l’armée et la gestion des conflits contemporains mêlant insurrection et terrorisme. Le titre War 2.0 évoque le Web 2.0, expression qui désigne la mise en réseaux horizontaux des internautes dans des formations que l’on appelle « réseaux sociaux ». La thèse centrale est que cette innovation technologique a engendré des usages sociaux chez les insurgés, qui bouleversent l’art de la guerre et mettent en difficulté les armées régulières.

61Les auteurs ont adopté une démarche empirique qui les conduit à étudier à partir d’exemples concrets les utilisations et les effets d’Internet. Ils abordent d’une part des cas d’armées régulières et de leurs opérations (les États-Unis, la Grande Bretagne et Israël), d’autre part, trois mouvements de lutte de l’espace arabo-musulman (le Hezbollah, les talibans et Al Qaida). Le terrain d’observation est donc celui des conflits qui ont opposé dans la dernière décennie des armées occidentales à des protagonistes de natures très diverses : insurgés, résistants, terroristes. L’ouvrage distingue deux types de guerre, la guerre 1.0 et la guerre 2.0, à l’instar du Web 1.0 et du Web 2.0, entendant par là que la possibilité pour les internautes de se connecter entre eux a suscité de profondes modifications dans la gestion de ces conflits par les protagonistes. La guerre 1.0, montrent-ils, est une conception traditionnelle du conflit avec laquelle la première version d’Internet, le Web 1.0, est en cohérence. Elle s’inscrit dans la lignée du réseau fondateur, Arpanet, dont l’application militaire était « commande et contrôle », conception qui avaient imprégné des générations de militaire et qu’ils ont malencontreusement projeté sur l’Internet d’aujourd’hui.

62Les deux premiers chapitres abordent d’un point de vue historique l’utilisation des instruments d’information et de communication pour la guerre et se termine sur les périodes Web 1.0 et Web 2.0. À retenir, une observation très intéressante : au moment de la première guerre d’Irak, le clivage de compétence en matière numérique dans l’armée américaine se situe au niveau du grade de lieutenant colonel. Les militaires plus jeunes possédaient une pratique du numérique du fait des jeux vidéo et étaient plus à l’aise avec les tactiques d’insurrection et de contre-insurrection.

63Le chapitre 2, intitulé « War 1.0 » décrit trois mutations récentes et profondes des conflits depuis la guerre du Vietnam et la première guerre d’Irak. La première en est le caractère asymétrique. Dans les opérations de la dernière décennie, il est difficile, voire souvent impossible, de distinguer les insurgés des non-combattants – de la population civile stricto sensu –, même si, dans le cas de l’Afghanistan, la coordination technologique des armements par des moyens de télécommunication a rendu possible et massive la destruction de sites. Seconde mutation, la notion de « front » n’est plus de mise, alors que c’était un concept majeur de la guerre froide ; la destruction s’opère désormais par des frappes chirurgicales à grande vitesse orchestrées dans le territoire ennemi. En Afghanistan a eu lieu la première opération de ce type véritablement coordonnée en réseau (network-centric). D’après les auteurs, ce changement culturel est dû à Donald Rumsfelt. La troisième mutation est la conception de communications spécifiques pour les populations des parties combattantes et dans le champ des opérations psychologiques.

64Les auteurs reviendront plusieurs fois dans l’ouvrage sur l’importance de la « cause », autre élément fondamental dans le cas d’insurrection ou de guérilla, car elle maximise le nombre des supporters et minimise celui des opposants. Les conditions d’une cause efficace sont d’avoir une force suffisante d’auto-motivation, d’être tabou pour les contre-insurgés, d’être de longue durée.

65Les trois chapitres suivants sont respectivement consacrés aux États-Unis, à la Grande-Bretagne et à Israël. En ce qui concerne les États-Unis, l’ouvrage montre comment les conflits d’Irak et d’Afghanistan, dans lesquels l’absence d’un front et l’immersion du conflit au sein de la population civile ont pris au dépourvu l’armée américaine qui a mis du temps à recadrer son action. Entre 2002 et 2008, la doctrine de l’armée a évolué radicalement, de la conception « la plus grande machine léthale de l’Histoire » à celle de « travail social armé ». Progressivement une attention rénovée est accordée aux « affaires publiques » qui traitent des relations avec les divers publics concernés par le conflit, la presse et les populations notamment.

66En outre Internet et les téléphones portables brouillaient les cartes et perturbaient l’organisation des forces et des combats. En 2006, le constat de la supériorité des ennemis en matière de médias est établi. Donald Rumsfelt crée un Strategic communication integration group. C’est l’époque des blogs tenus par des soldats. Puis les vidéos sur YouTube et les communautés de pratiques leur font suite. Les fantassins sont encouragés à prendre des photos sur le terrain. Mais les appareils de plus en plus performants mis sur le marché et utilisés tant pas les fantassins que par les moudjahidin rendent problématique la fixation d’une doctrine de riposte par les armées régulières.

67Le Royaume Uni a acquis une longue pratique de contre-guérilla pour des raisons liées à son histoire : la lutte contre l’IRA en Irlande du Nord, et auparavant diverses guerres, y compris en Afghanistan. Cela a exacerbé une double tension entre civils et militaires, et entre les approches politiques et militaires de la communication et de la couverture médiatique en temps de guerre.

68Le conflit des Maldives avait tendu les relations entre l’armée et la presse, du fait de la situation géographique de ces îles, où aucun journaliste ne pouvait se rendre par lui-même. La presse était donc à la merci des militaires pour l’information. Plusieurs facteurs ont affecté les médias traditionnels : une compétition de plus en plus féroce ; des guerres non conventionnelles, dans lesquelles les journalistes deviennent des pions possibles pour les insurgés ; un meilleur contact avec les soldats et les nouveaux médias, qui changent la donne en procurant aux troupes la faculté de s’exprimer directement sur le conflit. Le ministère britannique de la Défense a hésité pendant cette décennie entre les deux approches War 1.0 et War 2.0. En effet, certaines opérations médiatiques ont été conduites avec succès dans le sens descendant, tandis que, dans le sens inverse, les troupes innovaient en utilisant les nouveaux médias interactifs.

69Le rôle des médias est analysé de façon très intéressante dans le chapitre consacré à Israël. Avec des études de cas, il dissèque avec finesse la difficulté pour une armée de gérer la communication par la télévision, compte tenu de la complexité et de l’enchevêtrement international des réseaux. Dans ce domaine, les contreperformances sont nombreuses. Et il faut un événement exceptionnel, tel que les attentats du 11 septembre – très peu évoqués dans cet ouvrage – pour identifier la source, si tant est que ce soit possible. Il apparaît aussi que YouTube est devenu un même média utilisé par des protagonistes opposés, où convergent information et désinformation.

70Aussi les auteurs considèrent-ils que la guerre est entrée dans un nouvel univers, War 2.0, intégrant comme facteurs essentiels le soutien par la population et l’innovation tactique. Le premier n’est une condition nécessaire que pour la prise et la conservation du pouvoir. La seconde est une condition permanente pour pouvoir désorienter les armées régulières. Les médias électroniques, un changement de culture dans la production et la consommation d’information favorisent plus les insurgés que les armées régulières. La « cause » constitue un message, au sens où l’entend la communication et, dans cette optique, les auteurs considèrent la guerre comme un acte de communication politique.

71L’ouvrage analyse ensuite trois mouvements : le Hezbollah, les talibans et Al Qaida. Tous trois sont nés dans le monde arabo-musulman et ont adopté des stratégies de lutte très différentes. L’action armée du Hezbollah, le parti de Dieu, s’est toujours accompagnée d’une aide sociale. Très tôt le mouvement crée deux ONG, l’une consacrée aux martyrs, l’autre aux victimes. Il crée des coopératives agricoles dans la vallée de la Békaa, fournit du micro-crédit, construit des infirmeries et des écoles. Le recours aux médias apparaît en 1986. Cette année-là, une radio commence à émettre, puis une seconde l’année suivante, une troisième, plus professionnelle, en 1988. Le parti de Dieu lance une télévision en juillet 1991, Al Manar. En 2000, celle-ci émet via un canal satellite 18 heures par jour. Elle rassemble 10 millions de téléspectateurs par jour et jusqu’à 200 millions pour certains événements. Elle diffuse depuis 1996 des émissions en hébreu. Elle montre les opérations contre Israël du point de vue des combattants. Ses transmissions en direct sont reprises par les médias israéliens. Al Manar est devenue une grande télévision, seulement surpassée par Al Jazira. La communication inclut journaux, radio et télévision, des sites Web et un jeu vidéo, Special Force 2, pour les enfants sur le thème de la résistance et de la défense de la nation.

72Comme le Hezbollah, la seconde génération des talibans s’appuie fortement sur la production de médias. La première génération talibane avait adopté un comportement fortement symbolique – le mollah Omar revêtit à Kandahar la khirqa, un vêtement que porta le Prophète – mais avait peu recouru aux médias. La radio était centrée sur la religion de façon très stricte. Formés par Al Qaida à l’usage des médias, les talibans de la deuxième génération produisent aujourd’hui des supports élaborés : documentaires, interviews, reportages d’opérations, discours de leaders. S’il y a sur le terrain une grande différence de culture médiatique entre les forces d’intervention occidentale et la population, le mouvement taliban accorde toutefois depuis 2006 une très grande importance aux médias électroniques en tant qu’instrument de guerre psychologique. La population s’est mise au téléphone cellulaire : deux millions de souscription en juin 2008, 300 villes couvertes dans 34 provinces. 42 % des Afghans ont accès à un téléphone mobile. Toutefois, le réseau est fermé de 17 heures à 7 heures chaque nuit, ce qui donne aux talibans toute latitude pour employer leur instrument privilégié, la « lettre de nuit » (shabanamah). Le terme recouvre des pamphlets, des journaux underground, des messages communaux et des menaces individuelles. Ils sont affichés sur des arbres, sur les murs, sur les mosquées.

73Le troisième mouvement examiné est Al Qaida. De hiérarchisé et centralisé, celui-ci est passé à une organisation horizontale en structures décentralisées, composées de cellules autonomes. Les auteurs relèvent une forte homologie entre les principes du Web 2.0 et les modes d’action du mouvement : l’appartenance à une communauté globale, une participation personnelle motivée, des objectifs communs, des réseaux décentralisés, un anonymat toléré, des niveaux hétérogènes de participation, une organisation pragmatique bottom-up, des structures d’organisation éprouvées et des composantes d’autorité avec des initiatives sans leader. Le Web permet de diffuser des informations techniques (explosifs, embuscades, etc) en incluant les jeunes dans les destinataires. Al Qaida et les organisations filiales ont une politique éditoriale importante : 450 items dont 90 % de texte et 9 % d’images, dans le seul mois de juillet 2007. Un ouvrage en ligne de 2003, 39 façons de servir et de participer au Jihad, de Mohammad bin Ahmad al Salem, explique comment servir le Jihad sans sortir de chez soi par le « Jihad électronique ».

74En fin de parcours, l’ouvrage propose un constat pessimiste pour les États, dû d’une part à la mutation de nature des conflits, mais aussi à l’évolution radicale de la communication et de ses outils. Les guerres se passent désormais au sein des populations et les outils de communication, notamment les téléphones cellulaires, y permettent des communications sélectives. En outre, le coût des télécommunications décroît. Les pays les mieux équipés en téléphonie cellulaire étaient, en 2007, l’Ouzbékistan et l’Afghanistan. L’information par les protagonistes est plus locale et plus sociale, les messages vidéo, les SMS, l’usage des réseaux sociaux se développent. L’information et la communication fonctionnent désormais en vrai temps réel, ce qui rend impossible le contrôle de l’information en cours d’opération par l’autorité militaire. Le journalisme lui aussi est en train de changer : des canaux de TV innombrables, des blogs non professionnels, du reportage citoyen en sont les caractéristiques. La valorisation d’une information est désormais effectuée par les réseaux sociaux.

75Dans cette optique, estiment les auteurs, la démocratisation technologique favoriserait l’anti-démocratie politique. Les nouveaux médias vont à l’encontre des systèmes centrés sur la protection des populations. Le terrorisme peut recruter partout dans le monde, grâce aux TIC, mais il ne fera pas mûrir une insurrection globale, estiment les auteurs. Ainsi, poursuivent-ils, les islamistes ne pourront pas gagner et le Jihad global se limitera de lui-même.

76Les États-nations et leurs organisations militaires, souligne cet ouvrage, sont moins réactifs que les mouvements d’insurgés. L’Histoire jouerait donc en leur défaveur, constat que livre un autre ouvrage récent [1], de Arnaud de la Grange et Jean Marc Balencie, Les Guerres bâtardes. À la lecture de War 2.0, les technologies de communication, du fait que tout un chacun peut y prendre des initiatives, remettent en cause les oppositions classiques entre activités civiles et activités militaires. En conclusion, les auteurs estiment que les territoires des futurs combats seront les pays les plus fortement équipés en téléphone portables. Autant dire la planète tout entière !

77L’intérêt principal de War 2.0 réside dans la fourniture d’informations sur l’usage des appareils numériques dans les terrains d’opérations et d’affrontements. Mais on aurait aimé un traitement plus approfondi de certaines questions. La première qui vient à l’esprit est celle du rôle des médias et de leur positionnement dans les stratégies d’information. Dans son ouvrage déjà ancien, mais toujours intéressant par sa méthode, War game. L’information et la guerre[2], Dominique Wolton examinait leur rôle, à propos de la première guerre du Golfe, dans l’information, mais aussi dans les rumeurs et dans la désinformation. Tout cela s’est transporté sur le Web 2.0 et mériterait examen, au-delà des exemples cités. Certains aspects de la guerre numérique – deuxième interrogation – sont peu traités : je pense notamment aux mises en réseaux de techniques de communication par le Pentagone pour les armées en opération. L’ouvrage met en relief – troisième interrogation – l’asymétrie du point de vue numérique entre insurgés et forces régulières. Il rejoint en cela par une autre approche l’une des observations de Nicolas Arpagian, dans son ouvrage récent La Cyberguerre[3]. Mais pourquoi War 2.0 n’aborde-t-il pas en toile de fond cette guerre sur les réseaux numériques, qu’analyse ce dernier ? À côté des opérations régionales, les mouvements terroristes ne font-ils pas planer un risque global que Barack Obama a dénommé récemment « Cybergeddon » ?

78La lecture de ces ouvrages conduit à penser que les initiatives numériques malveillantes à la périphérie des États et de leurs institutions fragilisent considérablement la distinction traditionnelle entre domaine civil et domaine militaire. En se référant au dernier livre de Dominique Wolton, Informer n’est pas communiquer[4], on peut souligner que la volonté de détruire est une facette de la communication dont les technologies numériques amplifient considérablement la portée en introduisant le conflit au sein de la cohabitation quotidienne.

79Jacques Perriault

80ancien président de la SFSIC

81Institut des sciences de la communication du CNRS et Laboratoire CRIS, Université Paris Ouest - Nanterre

82Courriel : <jacques.perriault@wanadoo.fr>

Notes

  • [1]
    A. de La Grange et J.-M. Balencie, Les Guerres bâtardes. Comment l’Occident perd les batailles du xxie siècle, Paris, Tempus, Perrin, 2009.
  • [2]
    D. Wolton, War Game. L’information et la guerre, Paris, Flammarion, 1991.
  • [3]
    N. Arpagian, La Cyberguerre. La guerre numérique a commencé, Paris, Vuibert, 2009.
  • [4]
    D. Wolton, Informer n’est pas communiquer, Paris, CNRS Éditions, 2009.
Coordination 
Cynthia Fleury
Dernière publication diffusée sur Cairn.info ou sur un portail partenaire
Mis en ligne sur Cairn.info le 23/11/2013
https://doi.org/10.4267/2042/31545
Pour citer cet article
Distribution électronique Cairn.info pour CNRS Éditions © CNRS Éditions. Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photocopie) partiellement ou totalement le présent article, de le stocker dans une banque de données ou de le communiquer au public sous quelque forme et de quelque manière que ce soit.
keyboard_arrow_up
Chargement
Chargement en cours.
Veuillez patienter...