Medias
Journal & grilles Appli mobile Newsletters Galeries photos
Medias
Journal des Grignoux en PDF + archives Chargez notre appli mobile S’inscrire à nos newsletters Nos galeries photos
Fermer la page

Une étude en éducation permanente
réalisée par Les Grignoux et consacrée au thème
La Croyance aux médias
par Michel Condé
Liège, Les Grignoux, 2018

L'étude en éducation permanente proposée ici aborde la question de la croyance aux informations de toutes sortes qui nous sont transmises par les médias. L'esprit « critique » individuel ne suffit sans doute pas à faire le partage entre le vrai et le faux, et il faut prendre en considération la dimension sociale d'une vérité qui n'est jamais donnée en tant que telle mais qui résulte toujours d'une construction et qui implique toujours de multiples médiations. On s'attachera ici à mieux comprendre qui sont les « producteurs » de vérité dans les sociétés développées et quel crédit, quelle confiance - qui n'est jamais absolue - nous pouvons leur accorder.

Cliquez ici pour obtenir une version pdf facilement imprimable de ce document

La croyance aux médias
entre vérité et fiction

1. Introduction

On connaît le succès tout au long des années 1990 et 2000 de la série télévisée X-Files : Aux frontières du réel qui met en scène deux agents du FBI enquêtant sur des phénomènes « paranormaux ». Si la dimension fictionnelle est certainement reconnue par la grande majorité des spectateurs qui savent bien, par exemple, que les agents Mulder et Scully sont interprétés par des acteurs (David Duchovny et Gillian Anderson), il y a de grandes différences dans la perception des limites de cette fiction. Au moins deux thématiques d'X-Files se sont en effet appuyées sur des croyances partagées par une partie du public, croyances que la série a sans doute contribué en retour à renforcer : il s'agit de celle aux extra-terrestres (ou plus exactement à la présence au moins occasionnelle d'extra-terrestres sur terre ou aux proches abords) et celle relative à l'existence de complots divers, essentiellement gouvernementaux, destinés à masquer cette vérité ou la vérité en général [1]. Ces deux croyances sont fortement articulées l'une à l'autre puisque la naïveté apparente de la première [2] est contrebalancée par la dimension supposée critique de la seconde : les naïfs ne seraient pas ceux qui croient en la présence d'extraterrestres mais ceux qui ne se rendent pas compte qu'ils sont les victimes inconscientes de complots mensongers. Et cette balance se retrouve dans les figures contrastées des deux personnages principaux puisque l'un se fiant d'abord à ses intuitions croit manifestement aux phénomènes paranormaux tandis que l'autre volontiers « rationnelle » (même si elle est également croyante) s'attache à des démarches plus scientifiques bien qu'elle soit régulièrement confrontée à l'inexplicable.

Le public s'est donc certainement partagé entre ceux pour qui la série relève pour l'essentiel de la fiction [3] et ceux qui y ont trouvé une confirmation indirecte de leurs croyances, même si celles-ci restaient vagues et imprécises : personne n'a sans doute cru à l'exactitude factuelle des différents épisodes d'X-Files mais certains y ont certainement vu une illustration de l'existence possible, probable ou certaine d'extraterrestres et surtout des complots destinés à cacher cette « vérité » [4]. Le succès de la série tient donc pour une part à son ambivalence en termes de valeur de vérité, pouvant susciter une adhésion plus ou moins large du public sensible ou non au « paranormal » et aux thèses « complotistes ». Et l'on voit surtout que le crédit accordé à la fiction — même s'il n'est pas entier — dépend largement des croyances différentes des spectateurs.

On soulignera enfin la structure particulière du scénario des différents épisodes de X-Files qui, contrairement aux séries policières classiques, ne donnent à leur fin qu'une toute petite partie des solutions aux intrigues mises en scène, et laissent de nombreux événements (meurtres, disparition de dossiers ou de preuves, apparition inopinée de certains personnages…) non résolus et inexpliqués. Autrement dit, la croyance éventuelle de certains spectateurs en l'existence du « paranormal » ou de complots omniprésents sera renforcée non pas par des faits précis (qui sont toujours susceptibles de relever de la fiction) mais par l'impression générale de mystère et de secret qui imprègne toute la série. Ainsi, la conviction individuelle se construit plutôt à travers un sentiment diffus qui procède par allusion et évocation que par une « démonstration » objective. Que certains faits précis soient infirmés ou simplement signalés comme pure fiction ne mettra dès lors pas fin à ce sentiment vague et général.

Il s'agit là d'un phénomène psychologique bien connu, même si la série X-files permet de comprendre comment la fiction peut renforcer certaines croyances générales déjà installées : nos croyances les plus fortes, les plus profondes ou les plus intimes sont largement insensibles aux « démonstrations » ponctuelles et procèdent plutôt par accumulation de « faits », de « représentations » ou d'« impressions » plus ou moins confuses (aujourd'hui de nature le plus souvent médiatique) qui agissent essentiellement comme confirmation de ces croyances. Cela vaut d'ailleurs aussi pour ceux d'entre nous dont les certitudes sont apparemment les plus « rationnelles » : je peux croire en la science, en ses progrès, en ses théories, en ses découvertes sans avoir jamais mené moi-même un véritable travail « scientifique » et sans être réellement troublé par des querelles, des erreurs et même des falsifications qui apparaissent dans différents champs scientifiques.

On retiendra pour l'instant que les croyances préétablies des spectateurs déterminent largement leur adhésion contrastée aux différentes représentations médiatiques. En outre, la fiction, loin d'être perçue comme fausseté ou invention, peut renforcer, même si c'est de façon vague et confuse, ces croyances et en particulier la croyance en la véracité — au moins partielle — de la fiction. On ajoutera à ce propos qu'un tel crédit accordé à la fiction n'est pas propre aux spectateurs de la série X-Files : le public habituel des films à prétention réaliste (par exemple Raining Stones ou I Daniel Blake de Ken Loach) ou de nombreux films historiques (La Liste de Schindler ou Pentagon Papers de Steven Spielberg et bien d'autres) estime ainsi que les événements mis en scène sont, au moins pour une part authentiques ou qu'ils reflètent une réalité existante.

Peut-on dès lors dépasser ce stade de la croyance et promouvoir un abord critique, rationnel ou objectif des médias ? C'est ce qu'ont cru sans doute ces professeurs de l'Université de Gand (en Belgique) qui ont voulu tester l'esprit critique de leurs étudiants en leur énonçant des affirmations « fausses » comme « tout n'est pas correct dans la théorie de l'évolution de Darwin », « Les jeunes sont les esclaves de Steve Jobs », « Les étudiants n'ont pas d'idées innovantes » [5]. Bien évidemment, les expérimentateurs ont constaté que, loin de faire montre « d'esprit critique », les étudiants ont seulement manifesté leur soumission à l'autorité (comme dans la célèbre expérience de Milgram [6]), et les « maîtres » ont dès lors eu beau jeu de rappeler que l'important « n'est pas seulement d'assimiler des informations mais d'oser penser par soi-même » !

On peut cependant interpréter d'une tout autre manière cette (petite) expérience où ces professeurs donnent sans doute trop facilement le vilain rôle aux étudiants, tout en leur faisant une morale à bon marché : il faudrait « oser penser par soi-même ! ». Il est en effet important de rappeler — avec toute la sociologie de la connaissance [7] — que le savoir est avant tout une construction collective et que tout progrès (ou même la simple maîtrise) en ce domaine repose sur un héritage culturel dont les règles et régularités diverses nous permettent précisément de penser correctement. Ce n'est donc qu'au dernier degré de maîtrise de ces règles et régularités que l'on peut prétendre « penser par soi-même ». Or l'Université est sans doute le lieu par excellence où l'on acquiert ces règles, et c'est une institution qui précisément repose sur un contrat de confiance sans doute implicite mais pleinement prégnant entre professeurs et étudiants : la croyance en l'autorité légitime des maîtres (du moins dans le champ des savoirs) est au fondement même de cette institution. Ainsi, lorsqu'un professeur de littérature déclare du haut de sa chaire que Victor Hugo est né en 1802 et mort en 1885, personne ne lui demandera d'où il tire ses certitudes ; et aucun étudiant en astronomie ne vérifiera ni ne mesurera expérimentalement le mouvement rétrograde de Mars dont l'observation fut pourtant un élément essentiel de la révolution copernicienne puis de la théorie de Kepler sur l'orbite elliptique des planètes ! Si les étudiants devaient procéder de manière hyper-critique en vérifiant par eux-mêmes toutes les affirmations de leurs professeurs, ils passeraient leur cursus entier à vérifier des vérités qui ont été démontrées ou établies depuis des siècles ! « Penser par soi-même », « exercer son esprit critique » sont en réalité des lieux communs de notre société extrêmement individualiste qui méconnaît le poids mais également la richesse de notre héritage culturel (au sens le plus large) : c'est cet héritage plus ou moins maîtrisé qui nous permet de penser — de façon exceptionnelle — de manière réellement « libre » et innovante.

Si l'on excepte les mathématiques ou la logique, qui constituent des savoirs extrêmement formalisés reposant sur des procédures aussi explicites que possible [8], toutes les sciences naturelles ou humaines reposent sur des connaissances, des démonstrations, des interprétations, des observations qui ne sont plus questionnées ni mises en doute, du moins lors de la transmission scolaire ou universitaire : les éventuelles vérifications dans une telle situation sont extrêmement limitées — oui, l'eau bout à 100° sous 1 atmosphère, et la dissection de la grenouille révèle les mêmes organes internes que chez la souris : poumons, estomac, intestins, reins, foie… —, et la croyance — croyance qui n'est évidemment pas absolue — fait partie de manière tout à fait légitime des connaissances scientifiques (au sens le plus large) et de leur transmission. D'une certaine manière, l'expérience de ces professeurs gantois sape une base essentielle de la relation pédagogique, à savoir la confiance spontanée en l'autorité scientifique de ceux et de celles qui font partie de l'institution universitaire et dont le crédit dépend notamment de la reconnaissance de leurs pairs (n'eût-elle été accordée que sous forme de diplômes). Elle risque ainsi de participer à une forme d'hyper-critique (que ses promoteurs entendaient pourtant dénoncer) qui rejette toute autorité savante présentée comme dogmatique, arbitraire et non-vérifiée, sinon même intéressée.

On peut même avancer que la valorisation de l'esprit critique (qui est, on l'a dit, un des lieux communs de nos sociétés individualistes) est un leurre si l'on considère non plus le champ limité des savoirs universitaires mais celui beaucoup plus vaste des médias (où ont d'ailleurs pris place une grande partie des savoirs universitaires). Personne n'a la capacité de vérifier de façon individuelle l'ensemble des affirmations, énoncés et représentations de toutes sortes qui emplissent aujourd'hui de façon démesurée ces médias. Si je lis le moindre article de journal sur le conflit israélo-palestinien, je ne vais évidemment pas vérifier — par quels moyens d'ailleurs ? — que l'État d'Israël existe vraiment, que la Palestine est bien une région du Moyen Orient, qu'un conflit violent ou larvé existe entre ces deux entités depuis au moins 1948, qu'Israël domine militairement la région avec notamment le soutien des États-Unis, que les Palestiniens ont recouru à une résistance armée souvent qualifiée de terroriste pour affirmer leurs droits, etc. La lecture du moindre article de journal suppose ainsi une masse de connaissances qui ne font l'objet d'aucun examen critique individuel et qui sont fondamentalement des faits de croyance. Cela ne signifie évidemment pas que les lecteurs de journaux que nous sommes tous sont des naïfs manquant complètement d'esprit critique : nous devons faire confiance à ceux qui nous transmettent collectivement et depuis des siècles un ensemble de savoirs et de connaissances incalculables qui forment notre culture au sens anthropologique du terme. Tout au plus, pourrais-je, face à un article relatant un nouvel incident entre Israéliens et Palestiniens, suspendre temporairement mon adhésion à l'information présentée — quelle est la nature de l'incident ? qui sont les protagonistes ? quelles sont les conséquences ? — en attendant d'obtenir des informations complémentaires qui confirmeront ou infirmeront ce premier article. Mais, même dans ce cas, ces nouvelles informations ne seront pas réellement vérifiées mais simplement admises comme crédibles parce que congruentes.

L'injonction « penser par soi-même » [9] est en fait une injonction illusoire et même paradoxale : en effet, comment puis-je savoir en procédant à un tel exercice que je ne suis pas moi-même dans l'erreur ? Si la plupart des élèves font des erreurs multiples dans les démonstrations mathématiques, si la plupart d'entre nous faisons de grossières fautes de raisonnement et sommes victimes de multiples biais cognitifs [10], si les plus grands penseurs, scientifiques ou philosophes ont pu eux-mêmes se tromper ou s'égarer, comment prétendre que nous atteindrons la vérité par un effort intellectuel purement individuel ? Ou bien vais-je plus sûrement m'enfoncer dans mes propres erreurs prises pour des certitudes ? S'il y a eu progrès scientifique (même s'il n'est pas uniforme ni constant dans tous les domaines du savoir), c'est d'abord et avant tout parce que la science est une construction collective et qu'il y a un contrôle par les pairs, par d'autres scientifiques qui non seulement vérifient ce qui est affirmé mais qui ont établi des procédures multiples et de plus en plus contraignantes pour procéder à une telle vérification (procédures mathématiques, procédures logiques, procédures expérimentales…).

Le problème pour la plupart d'entre nous qui sommes plongés dans l'univers des médias n'est donc pas de faire preuve d'un « esprit critique » aussi vague qu'indéterminé, ni encore moins de faire montre de sa « liberté d'esprit » [11], mais consiste plutôt à répondre à des questions comme : qui peut-on croire ? à qui peut-on faire confiance ? La réponse que l'on essaiera de donner ici à ces questions ne se situera pas à un niveau abstrait ou principiel — « comment déterminer le vrai ? » — mais sera plutôt de nature sociologique et historique : sur quoi se fondent nos croyances aujourd'hui dans les sociétés dites développées qui, malgré d'importantes différences culturelles, partagent notamment un ensemble de conceptions communes de la vérité ?

réseau informatique

Les réseaux informatiques ont bouleversé l'accès à l'information

Une telle approche ne vise donc pas à « fonder » [12] nos croyances de manière catégorique en séparant le bon grain de la vérité de l'ivraie de l'erreur ou du mensonge mais à déterminer les raisons bonnes ou moins bonnes qui nous poussent à donner un crédit plus ou moins important aux différentes représentations médiatiques qui constituent l'essentiel de notre monde [13]. Cette approche ne prétend pas nous donner des certitudes absolues et elle laisse au contraire la place à l'erreur possible, à l'incertitude, au doute, mais aussi à des degrés de confiance plus ou moins grande. Enfin, elle doit rendre compte de l'absence de consensus, de la dispute au nom de conceptions différentes de la vérité, de la divergence des opinions et des évaluations face au monde. Dans un grand nombre de situations, nous devons en effet reconnaître que la vérité est indécidable et qu'il n'y a pas de critères « objectifs » qui nous permettent de faire un choix entre des affirmations ou des représentations concurrentes.

La critique des médias

Face aux médias (définis de manière très vague), on peut de façon générale observer deux attitudes critiques opposées. La première consiste à affirmer leur caractère mensonger, orienté, partial qui s'expliquerait en particulier par leur soumission à des puissances extérieures (notamment aux pouvoirs politiques et aux grandes entreprises économiques). Dans cette optique, l'on dénoncera l'unanimisme supposé des médias, la « pensée unique » [14], le « conformisme », la « bien-pensance » ou encore le « politiquement correct ». Il y a une grande part de rhétorique dans cette posture qui permet de se poser en « esprit libre », en révolté ou même en persécuté de la bien-pensance : contrairement aux « moutons » baignant dans le conformisme et trompés par les médias, l'esprit éclairé, le « dissident » au regard critique révélerait la vérité cachée aux yeux de tous. Mais la dénonciation des préjugés idéologiques de l'adversaire masque souvent ses propres partis pris, et les accusations de conformisme (sinon de mensonge ou de mauvaise foi) seront facilement retournées par un adversaire d'un autre bord (l'extrême-droite politique critique ainsi de la même manière que l'extrême-gauche le supposé conformisme des médias, leur « bien-pensance », leur « déni de la réalité », même si cette réalité n'est évidemment pas la même pour les uns et pour les autres). Si la critique de certains médias (ou de certaines représentations médiatiques) est évidemment légitime, la généralisation de cette critique à l'ensemble des médias est beaucoup plus problématique parce que cette entité, les « médias », n'a pas de véritable unité : la presse américaine n'est sans doute pas la même que la presse française, allemande, russe ou chinoise ; la presse imprimée n'est pas la télévision qui ne se confond pas avec des blogs militants sur le web… En outre, s'il y a des mensonges ou des contre-vérités dans les médias, cela ne signifie pas qu'ils soient complètement faux : au contraire, comme on l'a montré avec le petit exemple du conflit israélo-palestinien, l'essentiel de nos connaissances du monde environnant a une origine médiatique. Enfin, s'il n'est pas possible d'échapper à tout parti pris idéologique, la véritable compréhension de ces enjeux nécessite sans doute, comme l'affirme le sociologue Pierre Bourdieu, de prendre en considération l'ensemble du champ (politique, culturel, universitaire… selon le cas) et des positions contrastées qui s'y manifestent : dit plus simplement, la dénonciation des partis pris d'autrui reste inefficace sans une réflexion sur sa propre position et ses propres prises de position qui en résultent [15].

La seconde attitude critique à l'égard des médias est plus radicale et aboutit à un scepticisme généralisé : « La vérité n'existe pas », « Toute vérité est subjective », « Tous des menteurs », « On ne saura jamais »… Le scepticisme généralisé n'est cependant pas une attitude pratiquement tenable : mes sens ne sont peut-être fiables, ils peuvent même me tromper en certaines occasions (comme les illusions d'optique), mais je ne pourrai pas laisser ma main sur un objet brûlant sous prétexte qu'il s'agirait peut-être d'une illusion ! Mais plus largement, à l'égard des médias et des opinions contradictoires qui s'y expriment, il n'est pas possible d'adopter une attitude constante de scepticisme ou de suspension de la croyance (« on ne sait pas… »), dans la mesure où nous sommes pris directement ou indirectement, volontairement ou involontairement, et surtout pratiquement dans certains de ces conflits : nous ne pouvons pas considérer de manière indifférente, avec scepticisme, comme n'étant ni vraies ni fausses, des opinions qui nous mettent personnellement en cause. Si certains pensent que les femmes sont inférieures aux hommes et qu'elles doivent leur être subordonnées, quelle femme (ou quel homme) peut considérer une telle opinion de façon neutre et indifférente ? Puis-je par ailleurs comme citoyen ou citoyenne soutenir un gouvernement qui serait accusé de mensonge ou de complot ? Pouvons-nous considérer avec indifférence et sans réaction les dangers possibles de l'industrie nucléaire, les effets catastrophiques du changement climatique ou les périls de la course aux armements entre grandes puissances ? Soit ces risques sont réels et importants, soit ils ne le sont pas, et notre attitude sera évidemment tout à fait différente dans un cas ou dans l'autre. Si l'on peut donc promouvoir, face au flux d'informations médiatiques, un scepticisme raisonnable consistant notamment à se détacher de l'émotion du moment et à suspendre temporairement un jugement qui pourrait être trop hâtif [16], un scepticisme absolu — qui prend souvent des formes paradoxales ou provocantes comme la formule de Jean Baudrillard affirmant en 1991 que « la Guerre du Golfe n'a pas eu lieu » et qu'on retrouve avec de multiples variantes dans ce qu'on appelle la philosophie « postmoderne » —, est une position intellectuellement abstraite qui ne correspond pratiquement à aucune expérience réelle : on peut débattre des causes, des conséquences, du déroulement de la Guerre du Golfe mais personne ne doute qu'elle a bien eu lieu même si l'on n'en a pas eu une expérience directe mais seulement une connaissance via les médias aussi « trompeurs », manipulateurs et orientés soient-ils.

2. À quelle vérité croyons-nous ?

Ce que nous considérons comme la vérité a une histoire qui varie selon les sociétés, les cultures (au sens anthropologique du terme), les régions du monde ou même les individus. Il y a quelques siècles encore en Occident, la Bible était considérée comme une autorité légitime pour connaître l'origine du monde. Ce n'est évidemment plus le cas aujourd'hui à l'exception de quelques esprits religieux minoritaires [17]. Aujourd'hui, la science joue sans doute ce rôle d'autorité incontestable en matière de vérité. Cela ne signifie pas que nous admettions sans discussion toutes les affirmations de nature scientifique mais que la référence à la Science (articles, professeurs, chercheurs, savants, grandes figures comme Einstein, Pasteur ou Newton…) est censée garantir la vérité de nos affirmations et mettre fin ainsi aux querelles partisanes (même si, dans les faits, un tel recours à l'autorité scientifique est le plus souvent battu en brèche par la référence à d'autres autorités scientifiques…).

Mais pourquoi accordons-nous un tel crédit à la science ? Bien entendu, nous [18] avons tous reçu au cours de notre scolarité une éducation scientifique, mais l'on doit bien reconnaître que la plupart d'entre nous n'avons qu'une maîtrise très sommaire et très partielle des différents domaines scientifiques, et que nous sommes pour la plupart incapables d'expliquer les lois de Kepler ou de comprendre la théorie de la relativité restreinte d'Einstein. Et, si nous avons tous entendu parler des trous noirs, qui pourrait en donner une définition exacte et surtout prouver leur existence à la fois de façon théorique et par l'observation ? Et qui, dans le domaine de la vie quotidienne, peut expliquer de façon précise la différence entre glucides, lipides et protéines dont on retrouve les dénominations sur la plupart des emballages alimentaires ? Pourquoi alors accordons-nous un tel crédit à la science ?

Avant de répondre à ces questions, on relèvera encore le paradoxe suivant : les mots et les concepts de la science, qu'il s'agisse par exemple du réchauffement climatique, du Sida, de la surpopulation, de l'autisme, des vitamines, des toxines, du Big Bang, de l'infarctus du myocarde, de la sélection naturelle ou encore de l'inflation, qui sont au départ des notions spécialisées, précisément définies (en principe), sont repris par le public profane, notamment les journalistes, généralement de manière approximative, parfois polémique, pour penser et agir dans le monde : les personnes ayant une sensibilité écologique essaieront de réduire leur production de gaz à effet de serre même s'ils sont incapables d'expliquer pourquoi le CO2 est précisément une des causes du réchauffement climatique. Les sciences constituent donc des domaines réservés à certains spécialistes (qui en maîtrisent en principe les règles et le fonctionnement) mais elles font également partie de notre vie quotidienne et notamment de la représentation que nous nous faisons du monde environnant. Les « mots » de la Science deviennent (pour un certain nombre d'entre eux) des mots communs même s'ils perdent alors une grande partie de leur précision sinon de leur sens.

 

Pour comprendre le crédit que nous accordons à la « Science », il faut sans doute faire une distinction entre les sciences dites dures ou exactes (mathématiques, physique, chimie, biologie…) et les sciences « molles » (essentiellement les sciences humaines), en précisant tout de suite que cette distinction est sommaire et aussi discutée que discutable au niveau épistémologique. Mais il est clair que la plupart d'entre nous croirons plus facilement les affirmations d'un astrophysicien (parlant d'astrophysique…) que d'un sociologue ou d'un psychologue.

3. Les sciences exactes

L'image commune des « sciences exactes » trouve certainement son origine dans la révolution copernicienne en astronomie et ses suites dans le domaine général de la physique (avec notamment la grande synthèse newtonienne). Elle repose sur la conviction que la « nature » obéit à des lois universelles (comme celle de l'attraction) qui peuvent être formulées de façon mathématique. Ces lois sont donc le fruit de raisonnements qui s'appuient par ailleurs sur l'expérience et notamment sur la mesure de faits ou phénomènes dont l'observation peut être répétée. Les sciences exactes permettent dès lors de prédire certains phénomènes, qu'il s'agisse d'éclipses lunaires, de réactions chimiques ou de la guérison d'un malade par des doses adéquates d'antibiotiques.

Cette conception désormais classique des lois de la nature a sans doute été transformée par les progrès mêmes des différentes sciences comme la célèbre théorie de la relativité d'Einstein qui a montré que la physique newtonienne (par exemple la deuxième loi de la dynamique qui dit que l'accélération est proportionnelle à la force ou la somme des forces appliquées à l'objet et inversement proportionnelle à sa masse) était seulement une approximation qui ne se vérifie que pour des objets dont la vitesse est faible par rapport à celle de la lumière [19]. L'épistémologie contemporaine (illustrée notamment par Karl Popper [20]) met dès lors l'accent sur le fait que les théories scientifiques sont des modèles qui ne doivent pas être considérés comme des « lois » universelles et intemporelles cachées dans la nature des choses (qu'il suffirait dès lors de découvrir une fois pour toutes) : ce sont des constructions symboliques complexes et extrêmement élaborées dont la validité est sans doute très grande mais ne peut être définie comme absolue.

Ces nuances ne modifient cependant pas de manière profonde la conception la plus courante que nous avons des sciences exactes, ni du crédit que nous accordons très généralement aux « découvertes » de la science. Sur quoi s'appuie alors un tel crédit ? Quelles bonnes raisons avons-nous de croire que la terre est ronde, que la vitesse de la lumière est de 300 000 kilomètres par seconde, que l'univers est en expansion depuis le « Big Bang » ou que l'espèce humaine est apparentée aux grands singes et descend d'un ancêtre commun ?

On peut distinguer deux grands types de raisons qui justifient notre croyance en la vérité des sciences exactes.

Les raisons scientifiques

Le premier type correspond aux raisons invoquées traditionnellement par les scientifiques eux-mêmes. Ainsi, les sciences exactes se basent sur des démarches qualifiées de rationnelles, dont l'outil mathématique est le meilleur exemple et qui se signalent par le caractère explicite de chaque étape de leurs raisonnements. Bien entendu, il s'agit là d'un idéal scientifique qui ne correspond pas nécessairement à la réalité des démarches scientifiques où l'on rencontre erreurs, approximations, conclusions hasardeuses, fraudes et mensonges parfois.

Par ailleurs, les sciences exactes pratiquent l'expérimentation dont les procédures (notamment la répétition des expériences dans les mêmes conditions) garantissent la validité des théories. L'expérimentation mêle de façon complexe induction, hypothèse, déduction et vérification, mais elle constitue la base objective des sciences comme la physique, la chimie ou la biochimie (contrairement aux mathématiques ou à la logique qui reposent uniquement ou essentiellement [21] sur des raisonnements). Au-delà de l'expérimentation proprement dite, les sciences (notamment la biologie, la médecine, la géographie, l'astronomie…) pratiquent de façon importante l'observation qui fournit une masse de données empiriques vérifiées même si toutes ces données ne font pas l'objet d'une interprétation dans le cadre d'une théorie hypothético-déductive : la géographie par exemple a d'abord consisté en l'élaboration de cartes aussi précises que possible bien avant d'envisager la question de la dérive des continents. Et ce type d'observations a permis d'établir l'existence d'animaux aussi étranges que l'ornithorynque ou le ptérodactyle tout en rendant très improbable celle du centaure ou de la licorne…

Ces deux démarches — raisonnement et observation —, même si elles ne coïncident pas exactement, entraînent une grande cohérence dans les différents domaines scientifiques. Toute nouvelle découverte scientifique s'inscrit dans un cadre de connaissances déjà établies qu'elle va compléter ou, beaucoup plus rarement, révolutionner : la relativité d'Einstein a profondément modifié certains fondements de la physique classique (comme l'évidence supposée que le temps serait une constante) mais elle permettait de résoudre une série de contradictions apparues dans les différents champs de la physique (comme le fait que la vitesse de la lumière était une constante indépendante de la vitesse de sa source) tout en respectant son cadre mathématique. C'est la cohérence nouvelle de la synthèse d'Einstein qui a d'ailleurs convaincu la majorité des autres physiciens de sa validité avant même toute confirmation expérimentale. De manière générale, l'on constate donc un progrès dans les différentes sciences, même s'il n'est pas uniforme et varie grandement selon les domaines et selon les moments : conflits et contradictions sont également bien présents [22] même si les scientifiques partagent le même cadre général de connaissances dans leur domaine, et que le progrès consiste précisément en la résolution de ces contradictions.

Il y a enfin un critère pratique à l'œuvre dans les différents champs scientifiques, bien qu'il soit rarement explicité en tant que tel : il s'agit tout simplement du contrôle par les pairs — les autres scientifiques du domaine — qui s'exerce notamment à travers les comités de lecture dans les revues scientifiques, destinés à valider les articles qui leur sont soumis. Ce contrôle peut prendre du temps et certaines théories, par exemple celles de Newton ou de Darwin, ont mis des années et parfois des décennies avant d'être universellement admises. Et l'unanimité n'est pas nécessairement signe de vérité : jusqu'à Copernic (sinon au-delà), les astronomes ont cru évidemment que c'était le soleil (et l'ensemble des astres) qui tournait autour de la terre et non l'inverse… Mais c'est le contrôle par les pairs qui permet aux différentes sciences de former un ensemble de connaissances cohérentes, vérifiées, transmissibles et dès lors susceptibles de progrès.

Les raisons communes

Mais pour quelles raisons les non-scientifiques accordent-ils du crédit aux sciences « exactes » ? Sans doute, l'école, dont on a souligné le rôle important en la matière, prédispose largement à cette croyance (fondée essentiellement sur l'autorité des maîtres et qui n'est que partiellement rationnelle vu la faible compétence scientifique de la majorité des élèves). Mais d'autres « raisons » justifient notre croyance en la « Science », même si cette croyance n'est pas absolue et si cette Science idéale ne se confond pas nécessairement avec les sciences effectives dont les résultats peuvent être partiels, hypothétiques ou conflictuels.

réseau informatique

Un portrait de Galilée (1564-1642)
qui a profondément transformé l'ancienne vision du monde

Une raison essentielle de ce crédit aux yeux du public non-scientifique réside sans doute dans le fait que les sciences exactes révèlent des « réalités » ou des vérités inédites, inattendues, originales et d'une singulière complexité. La révolution copernicienne est l'exemple type de vérité qui contredit l'intuition commune ; mais, pour affirmer une telle vérité à contre-courant de l'opinion générale, il fallait évidemment des raisons extrêmement fortes capables d'emporter l'adhésion des savants. Semblablement, la relativité d'Einstein, qui contredit de façon si profonde notre conception intuitive du temps et de l'espace, n'a pu s'imposer à l'ensemble des physiciens que par la cohérence et la rigueur de ses démonstrations (auxquelles s'ajoutent des confirmations expérimentales postérieures). Les sciences bouleversent donc notre vision spontanée des choses en y important des entités multiples dont nous ne pourrions jamais avoir l'intuition spontanée et que nous ne pourrions même pas imaginer : l'on voit ainsi facilement la différence profonde entre l'atomisme de Démocrite pour qui l'atome est le plus petit élément insécable de la matière (ce qui est facile à comprendre) et les conceptions physico-chimiques actuelles qui distinguent protons, neutrons et électrons (sans compter des particules encore plus élémentaires comme les quarks ou les leptons). Semblablement, les sciences nous ont révélé l'existence d'entités comme les virus, les naines blanches (en astronomie), les lipides, les équations différentielles, les hormones, la tectonique des plaques, les enzymes ou la radioactivité dont spontanément et intuitivement nous n'avons pas la moindre idée : il est évidemment difficile sinon impossible pour un profane de discuter de telles entités ou de tels phénomènes, même en recourant à différentes formes de vulgarisation, mais, à défaut d'autres explications, nous n'avons pas non plus de raisons de douter de leur validité scientifique.

En outre, et c'est sans doute plus évident aux yeux des profanes, les sciences exactes trouvent une évidente confirmation de leur justesse dans l'ingénierie et les applications pratiques qui en sont faites : tout le monde sait qu'il n'est pas possible d'envoyer une fusée dans l'espace sans de solides connaissances en physique, même si ce sont des bricoleurs de génie (non dépourvus d'ailleurs de telles connaissances) qui ont construit les premiers objets volants. Médicaments, chirurgie, moteurs, avions, constructions de toutes sortes, électricité, électronique, télévision, ordinateurs, informatique, bombes atomiques… quoi qu'on pense que de toutes ces inventions, nous sommes évidemment persuadés qu'elles n'auraient pas été possibles sans une masse énorme de connaissances scientifiques que, pour la plupart d'entre nous, nous ne maîtrisons pas. Et inversement, l'on suppose que les connaissances scientifiques sont validées (au moins en partie) par ces multiples applications pratiques. Je suis incapable de comprendre comment fonctionne mon téléphone portable, et je dois dès lors supposer que ceux qui l'ont construit disposent de savoirs suffisamment solides pour qu'un tel objet complètement artificiel fonctionne correctement. Et si l'électronique est une science « exacte » comme me le montre l'existence de ce téléphone, comment pourrais-je douter de la vérité de la physique entière ?

Des raisons de douter ?

Faut-il dès lors toujours croire les experts scientifiques ? Ce serait sans aucun doute naïf, et l'expertise scientifique peut effectivement être mise en doute pour différentes raisons.

On remarquera d'abord que les sciences considérées comme « exactes » comprennent des « zones » de conflit, d'incertitude, de divergence : il y a par exemple en astrophysique de nombreux objets théoriques comme les trous blancs, les trous de ver ou les trous noirs de Reissner-Nordström qui sont considérés comme très hypothétiques. Même le Big Bang, qui est largement accepté comme modèle cosmologique, reste méconnu dans sa phase initiale (ce qu'on appelle l'ère de Planck) pour laquelle les lois connues de la physique ne s'appliquent plus. En outre, beaucoup de domaines scientifiques utilisent des modèles statistiques ou probabilistes [23] qui, comme leur nom l'indique, déterminent la probabilité de survenue d'un événement mais ne peuvent pas le prévoir avec certitude : les lois de la génétique constituent une avancée majeure de la biologie, mais elles permettent seulement de prédire que si les deux parents sont porteurs du même gène récessif, il y a une chance sur quatre que ce caractère récessif s'exprime chez l'enfant ; semblablement, l'on sait aujourd'hui que le sexe de l'enfant est déterminé par les spermatozoïdes du père (et non par l'ovule de la mère), mais cela ne nous permet pas de prédire le sexe de l'enfant avant la conception, sinon de façon probabiliste (le sex ratio à la naissance est approximativement de 105 garçons pour 100 filles).

Beaucoup de savoirs scientifiquement fondés constituent en fait des approximations (de nature statistique ou non) et ne peuvent donc pas être considérés comme exacts au sens courant du terme. Un exemple simple est celui de la météorologie qui rend compte d'un grand nombre de phénomènes (pluie, ouragans, tornades ou plein soleil…) grâce à des concepts clairement définis (basses et hautes pressions, températures de l'air ou des océans, sens de rotation d'un anticyclone différent dans l'hémisphère nord et dans l'hémisphère sud…), mais dont les prévisions sont limitées (à cinq jours à peu près) et peu précises, du moins du point de vue du piéton surpris par une averse inattendue… Un autre exemple est celui de la pharmacologie où l'on pratique des études randomisées en double aveugle [24] qui garantissent l'efficacité des médicaments, mais, dans la plupart des cas, cette efficacité n'est pas totale : tous les malades ne guérissent pas, ou certains ne guérissent pas plus rapidement que sans médicamentation (toutes les maladies ne sont heureusement pas mortelles…). Le point de vue scientifique, qui constate une efficacité significative, doit être alors distingué du point de vue du patient individuel qui constate que le médicament ne le guérit pas.

Par ailleurs, les modèles scientifiques, qui mettent en évidence les « lois » ou les régularités dans le monde, constituent des abstractions qui sont parfois très éloignées de la réalité concrète : l'on sait bien que, selon les lois de l'attraction, deux corps de même masse chutent à la même vitesse, mais l'on sait aussi qu'à cause du frottement de l'air, une feuille de papier descend beaucoup plus lentement qu'une pomme tombant de l'arbre sur la tête du physicien ! Toute approche scientifique d'un phénomène concret est donc partielle et néglige des aspects de la réalité considérés comme secondaires, négligeables ou aléatoires (du moins dans la perspective adoptée). Cela peut cependant poser des problèmes notamment dans l'ingénierie et dans toutes les applications scientifiques : même bien construits, certains ponts s'écroulent, des avions s'écrasent, et quatre réacteurs de la centrale de Fukushima ont explosé suite à un tsunami dont la violence n'avait pas été prévue. En dehors des accidents qui peuvent sembler imprévisibles (même s'ils ne le sont pas tous), nombre d'applications scientifiques suscitent des interrogations légitimes car elles ne prennent en compte qu'un aspect de la problématique concernée : l'énergie nucléaire ne sait pas que faire de ses déchets, les pesticides (ou au moins certains d'entre eux) ont des effets durables et sans doute indésirables sur l'environnement mais également sur la santé humaine, les moteurs à explosion sont une des causes du réchauffement climatique… Dans les problèmes pratiques et concrets, l'on se trouve donc souvent confrontés à des querelles d'experts qui se disputent sur l'origine ou la cause du problème, et parfois même sur sa nature ou sa réalité.

Enfin, l'autorité des scientifiques dépend largement de leur domaine d'expertise alors même que la distinction entre sciences « exactes » et sciences « molles » est, comme on l'a déjà noté, très floue : peu de personnes mettent en doute l'astrophysique ou la chimie en tant que sciences ; en revanche, l'économie, qui recourt pourtant grandement aux mathématiques, peut-elle prétendre au même statut ? La médecine, dont les découvertes sont indéniables, est-elle entièrement scientifique [25] ? L'histoire est-elle une science comparable à la paléontologie ? Le recours aux statistiques garantit-il la scientificité de la sociologie, de la démographie ou de la climatologie ? ou seulement de certaines de leurs recherches ? Quel est le statut scientifique de la linguistique ? Et pourquoi la théorie de l'évolution de Darwin est-elle considérée comme scientifique alors qu'elle n'est pas de nature prédictive et ne s'appuie pas sur la méthode expérimentale (ou hypothético-déductive) ?

On soulignera encore le fait que les concepts scientifiques ou du moins certains d'entre eux peuvent passer dans le langage courant et être utilisés par des personnes dont la compétence scientifique est plus faible : des concepts spécifiquement définis comme le Big Bang, les hormones, les enzymes, les vitamines, l'adrénaline, l'espace-temps, les ondes, les neurones etc. sont largement utilisés par des profanes, parfois de façon complètement détournée (comme les enzymes vantées à une époque par la publicité comme des agents de lavage du linge). Très souvent, de tels concepts manipulés par des pseudo-spécialistes fonctionnent ainsi comme des arguments d'autorité, ce qui peut susciter un scepticisme légitime mais aussi une crédulité infondée : la découverte des vitamines et de leur rôle dans certaines maladies graves — comme le scorbut provoqué par un manque de vitamine C ou le rachitisme dû à une carence de vitamine D — a ainsi entraîné la production d'aliments « enrichis en vitamines », bien que les nutritionnistes s'interrogent sur les bénéfices réels d'un tel enrichissement et conseillent plutôt un équilibre alimentaire général. La mode a d'ailleurs changé, et c'est à présent les minéraux (fer, calcium, magnésium…) et les oligoéléments qui sont vantés dans ces produits enrichis sans que leur efficacité (sinon même leur innocuité) ne soit prouvée.

 

En tant que profanes, nous avons certainement de bonnes raisons de croire en l'autorité de la « Science » (et en particulier des sciences exactes), mais cette autorité n'est évidemment pas absolue et mérite dans un certain nombre de situations d'être interrogée. Mais comment alors mener une telle réflexion critique et ne pas céder à un doute déraisonnable ? L'on comprend immédiatement qu'il serait absurde de vouloir proposer une « méthode » critique qui permettrait de juger — dont ne sait où ? et l'on ne sait comment ? — de la vérité des choses alors même que les experts, réels ou supposés, ne sont pas d'accord entre eux. La vérité, on l'a dit, est une construction historique, et il serait vain de prétendre la refonder grâce à notre seul « esprit critique » (ou à toute autre compétence de nature rationnelle).

On donnera donc seulement ici deux exemples de réflexions qui permettent de fonder ce qu'on pourrait appeler une croyance raisonnable (dans des domaines qui relèvent plutôt des sciences exactes), tout en conservant à l'esprit que cette croyance se révélera peut-être fausse à l'avenir (même si cela nous paraît peu vraisemblable…).

Le réchauffement climatique

Le réchauffement climatique est un sujet d'actualité débattu, même si l'on remarque des contrastes parmi les opinions publiques des différents pays : la majorité des Européens croient bien que l'humanité est responsable du réchauffement en cours (plus de 80% des sondés en France [26]), alors qu'aux États-Unis, seuls 47% des sondés pensent que les activités humaines sont responsables du changement climatique (dont 63% reconnaissent l'existence mais sans nécessairement pointer la responsabilité humaine) [27]. Les « climatosceptiques » constituent donc une minorité relativement significative, parmi lesquels se trouve, on le sait, l'actuel président des États-Unis, Donald Trump. Ces personnes sont-elles des esprits « libres », « critiques », des résistants à « l'orthodoxie » scientifique, des anti-dogmatiques face à la conspiration des crédules ? Ou bien la majorité de l'opinion publique a-t-elle raison de croire au réchauffement climatique ?

C'est bien à ces raisons de croire à ce phénomène qu'on va à présent s'attacher sans prétendre apporter une nouvelle fois les preuves scientifiques (que l'on ne maîtrise d'ailleurs pas, n'étant pas climatologue de formation) de sa réalité.

Le réchauffement est au départ une hypothèse scientifique [28] qui trouve son origine dans une intuition ancienne : l'atmosphère joue un rôle essentiel dans la température clémente de la terre qui n'absorbe pas toute la chaleur reçue du soleil (sinon elle deviendrait beaucoup plus chaude qu'elle ne l'est) mais n'en renvoie pas non plus la totalité vers l'espace (sinon elle serait beaucoup plus froide). L'atmosphère a un effet similaire à une serre qui retient une partie de la chaleur reçue du soleil. Il ne s'agissait que d'une intuition (de Joseph Fourier vers 1820) indémontrable à l'époque mais qui s'est transformée ensuite en hypothèse scientifique : les changements dans la composition de l'atmosphère pouvaient-ils expliquer les variations du climat de la terre dont on avait de multiples traces (notamment les âges glaciaires) ? Dès la fin du 19e siècle, un scientifique fait l'hypothèse que le CO2 dont la teneur évolue lentement au cours du temps pourrait être le facteur explicatif de ces changements. Il s'agissait cependant d'une hypothèse difficile à vérifier, étant donné la complexité de l'atmosphère terrestre constituée de multiples couches et de ses interactions avec d'autres éléments terrestres comme les océans ou la biosphère (qui absorbent une partie du CO2). De nombreuses recherches théoriques — aux résultats contradictoires — apportaient par ailleurs de nouvelles connaissances notamment sur l'absorption du rayonnement infrarouge par les différentes couches de l'atmosphère. Des recherches à la fois théoriques et expérimentales mirent en outre en évidence dans les années 1950 qu'une partie du carbone fossile utilisé par les activités humaines (bois, charbon, pétrole…) s'accumulait bien dans l'atmosphère et n'était pas absorbée par les océans. D'autres recherches menées grâce à des carottages très profonds dans l'Antarctique [29] allaient (dans les années 1980) permettre de suivre de façon beaucoup plus nette l'évolution du climat au cours des 150 000 dernières années et montrer que la succession des périodes glaciaires et interglaciaires correspondait à l'évolution de la concentration de CO2.

Toutes ces recherches théoriques et expérimentales devaient cependant être confirmées par des observations de l'évolution récente du climat pour prouver que les rejets de gaz carbonique (mais également de méthane) par l'activité humaine depuis plus d'un siècle produisaient effectivement un réchauffement climatique. Cela suppose une quantité importante d'observations dans toutes les régions du monde et sur une longue période de temps (généralement depuis le début du 20e siècle) : il ne faut évidemment pas confondre l'évolution du climat global de la terre avec la météo locale qui est soumise à de grandes variations locales et temporelles. Il peut y avoir un hiver rigoureux exceptionnel dans une région donnée, mais cela ne signifie pas qu'il n'y a pas de réchauffement climatique global, et bien entendu, l'inverse n'est pas vrai non plus : il faut calculer les moyennes de température en un grand nombre d'endroits sur une longue période et « lisser » les courbes pour apercevoir une évolution d'ensemble. À l'échelle de la planète, l'augmentation de la température peut sembler très faible — 0,9 °C entre 1901 et 2012 selon une estimation du GIEC —, mais l'augmentation est régulière depuis les années 1960. Des signes — qui ne peuvent pas être considérés comme des preuves indubitables — du réchauffement climatique sont facilement perceptibles (avec les moyens d'observation modernes) comme la diminution de la surface de la banquise arctique ou le recul de la majorité des glaciers de montagne.

Bien entendu, l'évolution future du climat donne lieu à de multiples hypothèses même si toutes concluent à une augmentation de la température moyenne : c'est l'ampleur de ce réchauffement qui varie selon les modèles, ainsi que l'importance de ses conséquences (l'augmentation de la température entre la période actuelle et 2100 est estimée entre 0,3 °C par les plus optimistes et 3,1 ou 4,8 °C par les plus pessimistes).

Recherches théoriques et expérimentales ainsi que des observations multiples, qu'on a brièvement évoquées [30], concordent donc largement pour à la fois constater le réchauffement climatique actuel et l'attribuer essentiellement aux activités humaines. Cet accord se manifeste au niveau scientifique entre la grande majorité des experts dont les recherches et les publications dans des revues scientifiques concluent au réchauffement climatique depuis plus d'un demi siècle et au rôle essentiel des activités humaines dans ce phénomène. Différentes études ont même été menées pour mesurer l'importance de ce consensus qui s'élèverait à plus de 90% parmi les spécialistes du climat [31]. L'on peut dire qu'il s'agit là d'une raison essentielle pour les profanes de croire en la réalité de ce phénomène.

Comment expliquer alors qu'une minorité importante d'Américains mais aussi d'Européens continuent à croire le contraire ?

Il faut sans doute distinguer chez les personnes sceptiques celles qui nient le réchauffement climatique et/ou la responsabilité des activités humaines, et celles qui dans des sondages d'opinion choisissent la réponse neutre : « Je ne sais pas ». Après tout, il est normal qu'un certain nombre de personnes, n'ayant pas de compétences scientifiques, renoncent à se faire une opinion et à donner un avis tranché (qu'elles ne pourraient pas étayer face à des contradicteurs) : on pourrait parler ici d'un doute raisonnable.

En revanche, un certain nombre de personnes, dont des scientifiques (même si ces scientifiques sceptiques sont très rarement des spécialistes de la climatologie), nient fermement la réalité du réchauffement climatique ou l'attribuent à d'autres causes. Ces climatosceptiques mettent alors en cause l'indépendance des chercheurs (financés par les États), les intérêts financiers des industriels « verts », le goût des médias pour les catastrophes… Mais il est peu vraisemblable qu'un accord aussi large entre des scientifiques venus de pays et d'horizons aussi différents s'explique par des raisons aussi faibles et aussi diverses ; il serait également étonnant que des hommes politiques (si l'on excepte Donald Trump) acceptent de prendre des décisions impopulaires qui impliquent une modification de nos modes de vie pour ce qui ne serait qu'une illusion scientifique.

Pourquoi ces climatosceptiques persistent-ils alors dans leurs croyances ? (car ils n'ont pas bien sûr plus de certitudes scientifiques que la plupart des profanes.) Deux raisons expliquent sans doute leur position (si l'on excepte celles qui motivent les industriels des énergies fossiles). La première est que la réalité du changement climatique impose une transformation peut-être difficile de nos modes de vies, nous imposant d'être plus économes dans notre consommation énergétique [32]. Par ailleurs, ce phénomène à cause de ses conséquences potentielles est relativement angoissant : certaines prévisions peuvent sembler catastrophiques sinon catastrophistes, et l'on peut préférer ne pas voir la « réalité » en face en invoquant l'incertitude des connaissances scientifiques. Mais il s'agit bien plus d'une incertitude de principe — rien n'est certain — que d'un doute raisonnable. Celui-ci ne porte que sur l'ampleur du phénomène à l'avenir et sur ses conséquences possibles.

* *
*

L'épidémie du Sida et l'action militante

Le deuxième exemple envisagé est très différent du précédent puisqu'il porte sur la réaction de groupes de malades du Sida (et de leurs proches) devenus des militants dans la lutte contre l'épidémie à travers des associations comme Act Up-Paris [33]. Mais il faut d'abord rappeler le contexte où est apparu cette maladie, même si l'histoire de la pandémie du sida est certainement fragmentaire et reste à faire. Il faut en particulier rappeler les incertitudes de l'époque.

C'est en juin 1981 que le CDC (Centers for Disease Control and Prevention), la principale agence de santé publique aux États-Unis rapporte dans une revue médicale cinq cas de pneumocystose chez des homosexuels à Los Angeles : c'est une première alerte car cette forme rare de pneumonie ne se développe que quand les défenses naturelles de l'organisme sont diminuées, et elle n'affecte donc pas en principe des hommes jeunes et en bonne santé. Dans les mois qui suivent, d'autres cas sont signalés, tous caractérisés par une immunodépression sévère (la perte des défenses naturelles de l'organisme contre les infections opportunistes), et les spécialistes nomment bientôt cette nouvelle maladie sida (aids en anglais) pour Syndrome d'Immuno-Déficience Acquise : ce dernier qualificatif est important puisqu'il signifie que, bien que l'on n'en connaisse pas encore la cause, ce syndrome n'est pas de nature génétique ou héréditaire et résulte très vraisemblablement d'un agent pathogène (virus, bactérie, parasite…).

Au début des années 1980, la nature infectieuse de la maladie (d'abord faussement appelée « cancer gay ») est donc perçue par les personnes ayant un minimum de connaissances médicales, mais les modes de transmission sont alors inconnus ou mal connus même si l'on peut penser qu'il s'agit d'une infection sexuellement transmissible. Dans ce contexte, les premiers conseils de prévention apparaissent sans que leur efficacité ne soit prouvée, même si aujourd'hui, les trois grands modes de transmission sont bien connus (rapports sexuels non protégés ; utilisation d'un matériel, comme des seringues, contaminé ; transmission mère-enfant, pendant la grossesse, l'accouchement et l'allaitement), et que des interrogations ont pu subsister pendant un temps assez long suscitant certaines craintes non fondées (les moustiques par exemple ne transmettant pas le virus qui ne survit pas dans leurs glandes salivaires [34]). On sait également qu'il n'y a pas de transmission par les larmes, la sueur, la salive, la toux ou les éternuements, ni par les poignées de mains, les baisers, les massages ou la masturbation. Enfin, lors des rapports sexuels, l'utilisation de préservatifs constitue la meilleure protection.

De grandes incertitudes ont néanmoins entouré la découverte du virus en 1983 et l'apparition des premiers tests en 1985 : on ne connaît pas alors la proportion de personnes séropositives (sans symptômes graves) qui développeront le sida, et certains croient — erronément, on le sait aujourd'hui — qu'il ne s'agit que d'une minorité (on parle de 5 ou 10%, les autres étant faussement qualifiés de « porteurs sains »). L'annonce de la séropositivité (à partir du moment où les tests seront disponibles) est dans ce contexte extrêmement angoissante puisque la personne contaminée ne sait pas si elle va développer la maladie ni quand. Dans le milieu gay des grandes villes, chacun constate en outre que la maladie frappe mortellement l'une ou l'autre connaissance : cette proximité avec la maladie et son issue mortelle est une expérience marquante sinon traumatisante pour des jeunes gays confrontés à l'indifférence (plus ou moins importante) de la société environnante.

Dans ce contexte, certaines personnalités vont, pour secouer l'opinion publique, révéler qu'elles sont atteintes du sida  : c'est le cas notamment de l'acteur hollywoodien Rock Hudson qui meurt en 1985 quelques mois après sa révélation, du tennisman afro-américain Arthur Ashe qui s'est activement engagé dans la lutte contre le sida jusqu'à son décès en 1993, ou encore de Freddie Mercury, le chanteur du groupe Queen, qui déclarera à la veille de sa mort en novembre 1991, être infecté par le vih (reconnu alors comme le virus responsable de la maladie). Si beaucoup d'autres artistes et écrivains font des annonces similaires, d'autres préfèrent se taire sans doute à cause de l'opprobre qui touche alors les malades.

Il faut également rappeler le scandale du sang contaminé qui frappe à ce moment la France. Dès janvier 1984 [35], l'on découvre que les transfusions sanguines sont une source possible de contamination, et à la fin de la même année, l'on sait que le chauffage d'extraits du plasma inactive le virus. Mais cette technique américaine n'est pas maîtrisée ou est négligée en France, les autorités refusant en outre d'importer des poches chauffées de l'étranger. Pourtant, dès mars 1985, les responsables du CNTS (Centre National de Transfusion Sanguine) savent que les poches de sang qu'ils distribuent sont certainement contaminées. Puis, en avril, le secrétariat à la Santé pousse à surseoir l'autorisation d'un test américain pour protéger les intérêts de l'institut Pasteur qui est en train d'élaborer son propre test. En outre, alors que les premiers tests au vih sont enfin autorisés en juin 1985, les centres de transfusion sanguine vont continuer à distribuer des stocks de poches non testées jusqu'à la fin de l'année.

Les hémophiles, à qui l'on transfuse régulièrement des poches de sang, sont largement contaminés (on parle de 50% d'entre eux) et un grand nombre vont mourir dans les années qui suivent. Ces quelques mois de retard [36] dans l'utilisation de poches chauffées et dans la mise en œuvre de tests coûteront sans doute la vie à des centaines de personnes. Ce scandale entraînera différents procès à l'encontre de médecins responsables du CNTS (dont quatre seront effectivement condamnés) et de responsables politiques (un seul sera condamné).

Jusqu'au milieu des années 1980, l'incertitude est donc grande quant aux modes de transmission mais également quant aux soins possibles, aux médicaments ou à un possible vaccin. À cause de l'urgence sanitaire, des médecins (mais aussi des charlatans) feront des déclarations précipitées, mettant en avant l'un ou l'autre médicament susceptible d'agir contre le sida. Ce sera le cas notamment de la ciclosporine, un médicament utilisé jusque-là dans le cadre de la transplantation d'organes, que trois médecins français, sous l'égide du ministère des affaires sociales (en charge de la santé), présentent lors d'une conférence de presse en octobre 1985 comme un remède possible sur base d'un essai thérapeutique sur deux malades seulement (qui mourront par la suite). Très rapidement, cette annonce se révélera fausse, tout en suscitant des polémiques parmi les médecins comme parmi les journalistes qui ont ou non relayé l'information (aujourd'hui encore, les annonces concernant un possible vaccin sont fréquentes). Le premier véritable médicament efficace, l'AZT (synthétisé en 1964 comme anticancéreux), sera utilisé pour le traitement de la maladie à partir de 1987, mais, s'il prolonge effectivement la durée de vie, il n'arrête pas réellement la maladie et entraîne de multiples effets secondaires négatifs (maux de tête, nausées, anémie…).

Ce n'est qu'en 1996 qu'apparaissent les trithérapies, qui associent comme leur nom l'indique trois médicaments et qui diminueront fortement la mortalité du sida tout en améliorant la qualité de vie des patients. On ne parle cependant pas de guérison car les malades doivent continuer le traitement sans interruption. Ces trithérapies ou multithérapies (associant parfois quatre ou cinq substances) varient en fonction essentiellement des réactions plus ou moins positives des patients.

Enfin, cette épidémie que certains croyaient d'abord localisée aux États-Unis ou dans quelques pays occidentaux seulement, touche en réalité le monde entier. Elle frappe massivement des pays pauvres en Asie et en Afrique. En 2001, l'ONU estime ainsi que « plus de 36 millions de personnes dans le monde vivent avec le vih/sida, et plus des deux tiers de cette population infectée sont en Afrique subsaharienne »[37], provoquant dans plusieurs de ces pays un recul de l'espérance de vie (Botswana, Kenya, Lesotho, Namibie, Afrique du Sud, Swaziland, Zambie et Zimbabwe). Cette inégalité géographique est pour une part la conséquence d'une inégalité sociale et économique qui se traduit notamment par de nettes différences d'accès aux soins et aux moyens de prévention.

Ce rappel un peu long est sans doute nécessaire pour comprendre l'action d'associations comme Act Up-Paris mais également Aides, Arcat Sida ou Vaincre le sida, dans un climat à la fois d'incertitude et d'urgence pour les malades. À qui faire confiance ? En quelles recherches mettre ses espoirs ? Jusqu'à quel point faire confiance alors que certains scientifiques font eux-mêmes des annonces prématurées se révélant bientôt erronées ?

Deux stratégies médicales [38] sont alors en présence : d'une part, la tradition clinique privilégie le médecin individuel qui évalue l'effet de ses prescriptions médicales sur chaque patient ; d'autre part, ce qu'on peut appeler la « modernité thérapeutique » met en place, à partir d'essais in vitro (en laboratoire), des protocoles d'expérimentation randomisée en double aveugle sur des milliers de patients pendant plusieurs mois sinon plusieurs années pour tester l'efficacité de nouvelles molécules. La tradition clinique a connu d'incontestables succès par le passé, mais elle est particulièrement sujette à l'erreur logique Post hoc, ergo propter hoc qui consiste à inférer d'une succession temporelle (l'administration d'un médicament → la guérison du malade) une relation de cause à effet [39], et les médecins confrontés dans leur pratique quotidienne à des malades du Sida en grande souffrance sont de fait incapables de trouver des médications efficaces. Les associations comme Aides ou Act Up vont dès lors faire majoritairement confiance à la recherche médicale qui associe de multiples spécialistes (hématologues, immunologues, biologistes mais également statisticiens nécessaires pour la mise en place de protocoles fiables pour des essais contrôlés des différentes molécules) qui travaillent sous le contrôle d'une administration centralisée nécessaire notamment pour le contrôle des expérimentations à large échelle. Cette confiance n'empêche pas de multiples critiques à l'égard des pouvoirs publics accusés de ne pas prendre suffisamment en compte la gravité de l'épidémie et de mener notamment des actions de prévention insuffisantes à l'égard des publics particulièrement touchés (comme les homosexuels masculins, les consommateurs de drogue par injection ou les prisonniers) mais également à l'égard des firmes privées qui seront d'abord accusées d'un manque de transparence dans le choix des molécules testées dans les essais et dans la divulgation des résultats plus ou moins prometteurs des premiers essais. C'est dans cette perspective qu'Act Up-Paris notamment mettra sur pied un groupe d'activistes chargés de s'informer au mieux sur les recherches scientifiques : ce groupe va développer une véritable expertise en matière médicale qui permettra à l'ensemble de l'association de dialoguer d'égal à égal avec ces entreprises mais également avec les agences publiques comme l'ANRS (Agence publique française de recherches sur le sida) chargées de lutter contre l'épidémie. Act Up et les autres groupes d'activistes sont bien sûr motivés par l'urgence alors que l'épidémie tue des malades, et cette urgence (qui se manifeste aux yeux des médecins et savants à travers la figure du malade « enragé » qui veut survivre) contraste avec la distance raisonnable et raisonnée de la recherche médicale qui doit en principe travailler à l'écart de la pression médiatique et à l'abri des émotions. Dans ce contexte, les associations se révéleront cependant indispensables aux essais contrôlés dans la mesure où elles seules peuvent convaincre un nombre suffisant de malades de se soumettre à des protocoles lourds et peut-être inefficaces (ne serait-ce que parce que la moitié des malades ne reçoivent qu'un placebo).

Mais l'expertise médicale des groupes de militants leur permettra précisément de surmonter cette opposition quand ils comprendront que les protocoles scientifiques les plus rigoureux laissent des marges d'appréciation et donc de négociation : « cette révélation, sur le tas, de la réalité concrète de la recherche médicale, est centrale dans la subversion du rapport pédagogique [entre scientifiques et associations de malades]. Elle tend à montrer, comme dans les autres expériences de participation du public à l'évaluation technologique, que les outils de la science sont susceptibles d'être améliorés lorsque des groupes concernés participent aux processus de concrétisation des innovations » [40].

Cela ne signifie pas que les relations entre les associations et les agences publiques ou les entreprises privées sont dès lors exemptes de tensions ou de conflits. Au contraire, les firmes pharmaceutiques seront accusées de ne pas délivrer, pour des raisons financières, suffisamment de molécules prometteuses avant leur autorisation officielle de mise sur le marché. Ce sera le cas en particulier avec les antiprotéases qui constitueront un des composants essentiels des futures bi et trithérapies.

En même temps, les protocoles très stricts en double aveugle sur de longues périodes vont être assouplis grâce aux spécialistes en virologie qui montreront que la charge virale (c'est-à-dire la quantité de virus présents par unité de sang) est un bon indicateur de l'efficacité des thérapies. Dès lors, « tous les acteurs en viennent, in fine, à se rallier à la même philosophie d'essais : des tests de combinaisons de médicaments, basés sur le critère de la charge virale, et conduits pendant un temps très court [41]».

Plusieurs enseignements peuvent sans doute être tirés de cette histoire dramatique. La première constatation est la confiance globale des associations dans la recherche scientifique comprise comme une entreprise collective où les découvertes sont bien plus souvent le fait d'une équipe que d'un individu, et où surtout le contrôle par les pairs assure la validité des découvertes [42]. Un second enseignement est qu'il est nécessaire d'acquérir une expertise scientifique (comme l'a fait Act Up-Paris) pour pouvoir discuter des résultats de la recherche : sans une telle expertise, les arguments scientifiques (qu'ils relèvent des agences publiques ou des firmes privées) ne peuvent être reçus que comme des dogmes sans espace de discussion. Le troisième enseignement, et sans doute le plus important, est que la vérité scientifique n'est pas monolithique et résulte de la collaboration (parfois conflictuelle) de plusieurs spécialités : les protocoles très stricts mis au point par les statisticiens ont pu ainsi être non pas supprimés mais assouplis grâce à l'intervention des virologues. L'accord d'un grand nombre de scientifiques issus de spécialités différentes permet d'établir une « vérité » qui se traduit aussi bien par des axes de recherche à explorer que par des protocoles expérimentaux, et mener ainsi idéalement à un progrès des connaissances. Cet accord « global » (qui peut parfois être révisé dans le cas des « révolutions scientifiques ») fonde la croyance raisonnable que les profanes peuvent avoir dans les autorités scientifiques, mais n'implique évidemment pas que les spécialistes détiennent la totale vérité dans tous ses aspects et toutes ses dimensions : dans certains cas comme celui de l'épidémie du Sida, il était important qu'un autre point de vue, celui des malades eux-mêmes, aussi éclairé que possible — ce qui justifie le rôle d'un groupe spécialisé — pèse sur certaines décisions. Un dernier point à relever est que la passion, l'émotion, la colère même, ne sont pas nécessairement contradictoires avec la recherche de la vérité : alors qu'on oppose souvent la raison et la passion (qui favoriserait l'erreur), l'action d'Act Up-Paris (et d'autres militants) a mis en lumière aussi bien aux yeux de l'opinion publique que des autorités l'urgence sanitaire que constituait cette épidémie nouvelle. Sans une telle action, il n'est pas sûr que la recherche aurait disposé des moyens nécessaires à une action efficace.

4. Les sciences « molles »

L'expression « sciences molles », qui désigne essentiellement les sciences humaines, est évidemment dévalorisante : il ne s'agirait pas là de véritables sciences mais seulement de savoirs de différentes natures, faiblement vérifiés… Ceux qui ne sont pas spécialistes de ces domaines peuvent-ils dès lors leur faire confiance ? Un sociologue passant à la télévision a-t-il autant de crédit qu'un astrophysicien ? Et les conseils d'un ou d'une psychologue dans la presse ont-ils la même pertinence que ceux d'un climatologue annonçant un réchauffement global de la planète ?

On constate d'ailleurs que les spécialistes de ces différents savoirs sont loin d'afficher une unanimité de façade. Le problème de l'autisme donne ainsi lieu en France à des débats houleux entre les tenants d'une approche psychanalytique et les partisans de la psychologie cognitive et comportementale. Récemment, les attentats islamistes ont entraîné des interprétations opposées (et très conflictuelles) parmi les politologues, les uns parlant d'islamisation de la radicalité et les autres de radicalisation de l'Islam [43]. La sociologie est quant à elle traversée par des conflits sur le statut même de la discipline, les uns défendant une « science humaine » tandis que les autres parlent d'un « sport de combat » [44], et l'on retrouve les mêmes oppositions dans le domaine économique entre les défenseurs d'une « science expérimentale » dont les résultats seraient (au moins d'un point de vue probabiliste) parfaitement fiables [45], et d'autres « économistes atterrés » (selon le nom d'un de leurs groupes) qui remettent en cause les « fausses évidences » de la pensée dominante (de tendance néolibérale) dans le domaine.

Si l'on compare alors les raisons que les tenants des sciences « exactes » et ceux des sciences « humaines » avancent pour légitimer leurs savoirs, on observe quelques différences significatives.

Le recours à l'expérimentation est très peu systématique dans les sciences humaines et est même souvent absent : on trouve une telle démarche dans certains secteurs de la psychologie (dite expérimentale) et de l'économie mais elle est loin d'être généralisée même dans ces domaines ; dans d'autres, comme la sociologie ou l'anthropologie, elle est pratiquement absente [46]. En revanche, l'observation empirique avec de multiples instruments comme les statistiques est en principe générale et fonde la différence avec des discours comme « l'essayisme » ou la philosophie. Cette dimension empirique est particulièrement importante dans des domaines comme l'ethnographie et surtout l'histoire : un historien recueille d'abord un maximum d'informations documentaires, parfois très hétérogènes, même s'il essaie ensuite d'en rassembler le plus grand nombre dans une interprétation d'ensemble.

Démonstrations et raisonnements sont sans aucun doute présents dans les sciences humaines, mais il faut bien reconnaître que les procédures sont moins systématiques et moins explicites que dans les sciences « pures » (ou du moins certaines d'entre elles comme les mathématiques ou la physique). Certains domaines (comme l'économie ou la sociologie) recourent à des outils mathématiques ou statistiques sophistiqués (comme les analyses multivariées qui permettent par exemple de déterminer les facteurs déterminants des comportements observés chez un grand nombre d'individus [47]), mais cette scientificité visible n'empêche pas des questionnements sur leur utilisation (notamment sur la manière dont les données ont été recueillies) ou sur leur application à la réalité concrète (dans le cas de modèles mathématiques en économie [48]). En outre, beaucoup de chercheurs n'utilisent pas de tels instruments, et le degré de formalisation des recherches semble alors souvent plus faible que dans les sciences « exactes » : nombre d'ouvrages ou d'articles en sciences humaines ne comportent pas le moindre tableau, graphique, schéma, relevé statistique et reposent sur un développement argumentatif plus ou moins serré et convaincant.

Enfin, l'accord entre chercheurs en sciences humaines est certainement moins probant que dans les sciences exactes. Il y a des procédures de contrôle (ne serait-ce que par les diplômes et postes octroyés dans l'enseignement supérieur) et il existe des revues dites scientifiques avec des comités de lecture, mais le contrôle est certainement moins strict que dans les sciences exactes (même s'il y a là aussi, comme on l'a dit, de grandes zones d'incertitude), et les conflits entre écoles, maîtres à penser, approches différentes, méthodologies opposées laissent une grande place aux « hétérodoxes » qui, s'ils « réussissent », deviennent alors les tenants d'une nouvelle orthodoxie. S'il y a certainement des avancées en sciences humaines, il est moins évident de parler d'un progrès des connaissances dans une accumulation régulière ou continue.

Du point de vue des profanes

Avons-nous donc des raisons de croire aux spécialistes en sciences humaines ? Si l'on fait la comparaison avec les sciences « pures », deux éléments qui pourraient fonder la conviction des profanes semblent manquer aux « sciences humaines ».

réseau informatique

Émile Durkheim (1858-1917)
un des fondateurs de la sociologie moderne

La première est l'absence de découvertes « d'entités » inédites, étonnantes et improbables comme l'expansion de l'univers, le boson de Higgs, l'insuline ou la dérive des continents. Les notions proposées en sciences humaines sont généralement assez simples et demandent des explications relativement courtes pour être comprises même par des profanes. En sociologie par exemple, Émile Durkheim a avancé le concept apparemment nouveau d'anomie comme un des facteurs explicatifs du suicide : il désigne par là des situations où les individus sont confrontés à une absence de normes et de règles sociales, due à des transformations ou des bouleversements de la société environnante. Le concept est facile à comprendre même si la compréhension passe essentiellement par la multiplication des exemples de telles situations : dans une société paysanne traditionnelle, le contrôle du groupe impose à chaque individu des normes de comportement (comme celui du « bon père de famille ») alors que la société industrielle plonge de nombreux ouvriers venus des campagnes et abandonnés à eux-mêmes dans une situation d'anomie aiguë… Semblablement, le capital culturel chez Bourdieu est une transposition du capital économique au domaine des biens symboliques et peut se mesurer notamment à travers le niveau des diplômes scolaires (ceux de l'individu ou de ses parents) : il peut y avoir discussion notamment sur la manière d'objectiver cette notion mais elle est sans doute assez facile à comprendre. En psychanalyse, la distinction entre les instances du Moi, du Ça et du Surmoi est sans doute originale mais son explicitation est également relativement aisée : c'est l'application de cette distinction à des situations cliniques qui nécessite des exposés beaucoup plus complets et raffinés. En outre, l'objectivation de ces notions psychanalytiques reste largement sujette à débats et querelles [49]. De manière générale, les notions utilisées en sciences humaines, malgré les essais de définition et de redéfinition, restent assez floues et s'éloignent rarement du sens commun. La notion de classe sociale par exemple est étroitement reliée par Karl Marx à l'exploitation (essentiellement capitalistique, même s'il l'a étendue à l'ensemble de l'histoire humaine) mais a pris depuis lors de nombreuses autres acceptions, et son application à d'autres situations (notamment contemporaines) posera de nombreuses questions : la notion de prolétariat s'applique-t-elle encore aux sociétés occidentales contemporaines ? Peut-on dire que la « classe moyenne » est devenue la plus importante numériquement ? Ou pas ? Sur quelle base objective ?

Certains résultats en sciences humaines peuvent néanmoins être surprenants : ainsi, des expériences célèbres en psychologie sociale ont révélé que les individus, loin d'agir de façon libre, autonome et réfléchie, sont fortement enclins au conformisme, se soumettant facilement à l'avis du groupe environnant (expérience de Solomon Asch) ou à l'autorité (expérience de Stanley Milgram, déjà évoquée). Néanmoins, ces expériences, aussi originales soient-elles, s'expliquent par des motivations psychologiques facilement compréhensibles par chacun, même si l'on ne soupçonnait pas qu'elles pouvaient être aussi agissantes dans les comportements individuels.

Une deuxième grande différence avec les sciences pures (ou certaines d'entre elles) est évidemment l'absence presque générale d'expérimentation permettant de confirmer les différentes théories. L'exemple de l'économie est ici particulièrement illustratif. Les économistes développent quantité de modèles, généralement de nature mathématique, pour expliquer aussi bien les différents comportements des agents économiques (en microéconomie) que la situation des marchés ou leur évolution en fonction de multiples paramètres (en macroéconomie), mais ces modèles, aussi convaincants soient-ils au niveau théorique, ne sont pas réellement expérimentés et ne trouvent de confirmation que dans certaines situations considérées comme probantes ou suffisamment probantes par l'analyste. Il serait certainement faux de ne voir dans ces modèles que des constructions purement théoriques sans aucune vérification empirique, mais l'on comprend facilement qu'ils ne s'appliquent que partiellement sinon difficilement aux économies réelles où interviennent une multitude de facteurs parfois discordants [50]. Et l'on comprend aussi que les querelles entre économistes soient aussi importantes, surtout si l'on prend en compte la dimension politique souvent sous-jacente à ces querelles.

D'autres domaines (ou sous-domaines) en sciences humaines comme la psychologie promeuvent néanmoins une démarche expérimentale. Beaucoup d'études sont ainsi menées en comparant deux groupes, l'un soumis à une variation de l'environnement, l'autre non et considéré comme un groupe témoin : l'on peut ainsi analyser l'effet d'une tâche perturbatrice sur la capacité des sujets à mémoriser des listes de mots. Souvent techniques, portant sur des problématiques limitées, ces études représentent un champ du savoir en devenir (psychologie expérimentale mais aussi psychologie cognitive) qui, pour l'instant, n'a cependant pas produit de découverte « majeure » modifiant en profondeur la représentation commune du monde et du psychisme en particulier.

L'absence d'expérimentation (ou en tout cas sa faible importance comparativement aux sciences « pures ») ne doit cependant pas masquer l'importance des données empiriques accumulées dans les sciences humaines. La plupart des théories en sciences humaines sont en effet soutenues par une multitude de données recueillies sous forme statistique ou idiographique. Et c'est dans ces données empiriques que le profane trouvera un grand nombre d'informations nouvelles, inédites et parfois inattendues. L'ethnologie par exemple nous a fait découvrir des systèmes de parenté complètement inconnus (des Européens en tout cas), des organisations sociales étonnantes à nos yeux comme les maisons de jeunes chez les Muria en Inde [51] ou la Kula, un système d'échanges entre des îles éloignées du Pacifique [52] ou encore les mythes complexes et variés des tribus d'Amérique du Sud [53]. La sociologie, quant à elle, est née grâce au développement des statistiques qui ont permis de mesurer de façon objective un grand nombre de phénomènes sociaux (prévalence du suicide, différences de revenus, taux de mortalité, répartition des populations…). Même si ce sont les États qui sont souvent à l'origine de ces données (à travers les instituts de statistiques), ces données brutes font l'objet de multiples traitements avant de donner lieu à des interprétations sociologiques ou autres. La diffusion des statistiques notamment par les médias masque sans doute aux yeux de beaucoup la nouveauté de ce type de savoir qui s'élabore au cours du 19e siècle : on rappellera par exemple qu'au 18e siècle en France, il y a eu chez les philosophes des débats sur la diminution possible de la population nationale à cause de l'absence de dénombrement fiable [54] (les historiens ont depuis lors établi que la population française a connu une augmentation au cours du siècle des Lumières). Les « batailles » sur les chiffres que l'on constate aujourd'hui dans un très grand nombre de domaines — fortunes, imposition, immigration, réussite scolaire, inégalités entre groupes ou entre genres, ressources économiques, minières, sociales, culturelles, militaires, écologiques des différents pays… — ne sont évidemment possibles que parce qu'il existe des chiffres mesurant ces phénomènes. À l'inverse, la psychologie (notamment dans sa partie clinique) a mis en évidence, à travers l'analyse de cas individuels, de nombreux troubles et pathologies qui sont aujourd'hui passés dans le langage courant : même si leur interprétation est variable, des troubles comme l'autisme, l'aphasie, les névroses obsessionnelles ou compulsives, les TOC, la dépression, la paranoïa ou encore l'alexithymie [55] sont largement documentés et évoqués régulièrement dans les médias et dans la presse plus ou moins spécialisée. L'histoire quant à elle est d'abord un recueil de faits qui, sans elle, seraient oubliés ou simplement méconnus. Ce recueil ne se fait pas de manière désordonnée et est bien sûr orienté par les intérêts divers des historiens. Mais nous avons grâce à leur travail une idée relativement précise de l'ensemble des dynasties des Pharaons d'Égypte, de l'invention de l'écriture cunéiforme (mais aussi de son déchiffrement [56]), des traites négrières, de la grande famine en Irlande entre 1845 et 1852, des différentes formes de la répression stalinienne, des échanges économiques et sociaux autour de la Méditerranée à l'époque de Philippe II [57] ou de ce que pouvait être la vie d'un paysan français au Moyen Âge. Le travail de l'historien consiste bien sûr à mettre en forme et en récit ces données, à les organiser de manière aussi cohérente que possible, à les hiérarchiser, à en donner une explication raisonnée et complète, mais le recueil des données reste la première étape indispensable d'un tel travail (même si l'on observe parfois une division du travail entre historiens, certains s'appuyant sur des informations rassemblées par d'autres).

Ce dernier exemple nous permet d'ailleurs de remarquer que les querelles entre spécialistes en sciences humaines se situent le plus souvent au niveau de l'interprétation des données : ainsi, lorsqu'on prétend qu'on fait dire aux chiffres ce qu'on veut, l'on met en cause non pas les statistiques en elles-mêmes mais le sens que certains prétendent leur donner. De la même manière, les historiens s'accordent sur les crimes du nazisme, sur les différents épisodes et les différentes formes de sa politique dictatoriale, meurtrière et génocidaire, mais ils peuvent s'opposer sur les explications possibles de cette politique et sur la reconstruction éventuelle d'événements dont on n'a pas gardé la trace : ainsi, il y a plusieurs interprétations du moment (ou des moments) où le nazisme est devenu génocidaire, et selon quelles étapes [58]. Ainsi encore, les symptômes de l'autisme sont bien connus mais, comme on l'a déjà signalé, son étiologie reste largement discutée.

Bien entendu, les « faits » eux-mêmes peuvent être remis en cause : certaines statistiques peuvent être fausses (ou partielles), des témoignages historiques peuvent être contestés, des expériences psychologiques peuvent avoir été falsifiées (ou du moins leur présentation tronquée), des ethnologues peuvent avoir été trompés par leurs informateurs [59]… Il n'y a pas de faits « bruts », indubitables, incontestables, et tout fait, toute donnée, toute observation implique une part d'interprétation, de compréhension, de reconstruction, mais le travail scientifique implique que les chercheurs s'accordent sur un certain nombre de faits établis (et reconnus par tous) pour élaborer de nouvelles connaissances et interprétations : tous les historiens admettent comme évidences que la Régence commence après la mort de Louis XIV en 1715, ou que l'Allemagne a envahi la Belgique le 4 août 1914 ; tous les sociologues utilisent les données fournies par les instituts de statistiques des différents pays ; tous les géographes ont recours aux images fournies aujourd'hui par les satellites ; tous les linguistes connaissent la phonologie différente de l'anglais ou du français…

 

Tout ceci a deux conséquences pour les profanes : l'autorité des spécialistes en sciences humaines est nettement moins reconnue que celle des chercheurs dans les sciences « exactes » (en n'oubliant pas que la distinction entre sciences « dures » et sciences « molles » n'est pas tranchée), et chacun estime très généralement qu'il a une connaissance suffisante des réalités en cause pour pouvoir exprimer un avis et contester notamment les affirmations des chercheurs du domaine (qui d'ailleurs s'opposent parfois entre eux). Les sociologues par exemple peuvent mettre en avant l'origine socioculturelle des acteurs comme facteur plus ou moins déterminant des comportements observés, mais ils se verront toujours opposer la « liberté » des individus qui, de même origine, se comportent néanmoins de façon diversifiée : les sociologues auront beau expliquer qu'ils ne prétendent pas mettre en évidence des déterminismes absolus (à 100 % !), et qu'ils observent seulement des variations statistiquement significatives qui s'expliquent par l'origine socioculturelle, leur argumentation sera très souvent rejetée ou restera simplement incomprise. Semblablement, les chercheurs en sciences de l'éducation peuvent apporter des quantités de données sur les différents systèmes scolaires, en évaluer les performances, en souligner les différences et les inégalités, mais parents et enseignants leur opposeront leur propre vision de l'école — celle de leur enfant ou de leur propre enfance —, aussi limitée, partielle et partiale que soit cette vision. Ainsi encore, les spécialistes de la santé auront beaucoup de difficultés à faire comprendre à un large public ce qu'est une addiction en évitant deux interprétations simplistes mais opposées, l'une mettant en cause la faiblesse psychologique (ou morale) de l'individu, l'autre prêtant une puissance démoniaque au « produit » (dont on exige très généralement la prohibition).

Un doute radical ?

Doit-on dès lors considérer que les sciences humaines ne nous apprennent rien de certain ? Doit-on faire montre d'un scepticisme total à leur égard ? Peut-on en la matière dire tout et son contraire ? Évidemment pas. Quelques remarques peuvent orienter la réflexion.

Les sciences humaines imprègnent largement le savoir commun à travers les médias (presse, magazines, Internet, ouvrages au format de poche…) qui diffusent notamment les notions, les approches et certaines analyses destinées au départ à un public spécialisé. Et elles influencent ainsi la manière même dont nous posons certains problèmes : ainsi, nous pensons le monde qui nous entoure à travers des notions comme la « croissance économique » (directement issue du champ économique) ou « l'héritage culturel », un concept avancé par Pierre Bourdieu et Jean-Claude Passeron et largement partagé dans l'opinion cultivée, le « conditionnement » qui est exercé sur les individus par la publicité et les médias en général, « l'inconscient » qui oriente souterrainement certains de nos comportements, et bien d'autres encore qu'on a déjà cités [60]. Même si nous critiquons certaines affirmations, nous utilisons facilement des concepts qui sont en réalité issus des sciences humaines.

Mais l'utilisation commune de ces notions et concepts est sans doute assez réductrice, et la vulgarisation que certains chercheurs ou certains penseurs donnent de leurs savoirs dans les médias (à travers des « cartes blanches », interviews ou autres prises de position) diffuse également une image sommaire et parfois partiale du travail de recherche en ces différents domaines. La dimension empirique est très généralement effacée au profit de l'interprétation, la complexité et les nuances de l'analyse disparaissent derrière des considérations générales, les différentes explications et leur poids relatif sont négligés ainsi que les différents développements de l'argumentation. Si, comme on l'a dit, les concepts en sciences humaines sont en général facilement compréhensibles, le travail de recherche est quant à lui beaucoup plus ardu et nécessite une véritable expertise. Celle-ci nécessite évidemment de nombreuses années d'études supérieures et suppose l'acquisition de multiples compétences que ne maîtrisent pas les non-spécialistes. C'est une des raisons essentielles du sentiment d'incompréhension que peuvent éprouver les chercheurs quand ils communiquent avec des profanes. On en donnera ici un seul exemple, à savoir celui des historiens confrontés aux négationnistes de la Shoah (et des chambres à gaz en particulier). Ceux-ci sont, comme l'a montré notamment Deborah Lipstadt [61], des falsificateurs et des manipulateurs, mais ils parviennent à semer le doute dans l'esprit de certains lecteurs mal informés, alors que les historiens ont beaucoup de mal à faire comprendre les raisons qu'ils ont quant à eux de ne pas douter de la réalité du génocide des Juifs et qui résultent de toute leur expérience d'historiens. Les négationnistes en effet ne portent leur attention et leurs critiques que sur des détails secondaires comme des témoignages contradictoires ou maladroits, des documents relativement ambigus si on les considère isolément, des éléments de preuve dispersés et souvent indirects… Des historiens ont répondu à de multiples reprises [62] aux objections soulevées par les négationnistes, mais la plupart d'entre eux qui travaillent sur cette période n'ont aucun doute à ce propos parce qu'ils ont une connaissance large et approfondie de l'ensemble du contexte qui a rendu possible un tel génocide : il s'agit notamment de la radicalisation progressive et dramatique de la politique antisémite nazie, de la violence grandissante du régime à l'encontre des Juifs mais également des opposants politiques (réels ou supposés), des minorités jugées néfastes pour le peuple allemand (comme les personnes souffrant de handicap ou les Tziganes) et des peuples jugés inférieurs et condamnés (en parole mais aussi en acte) à la famine, et enfin de l'entrée en guerre du régime dans un combat compris comme une lutte à mort entre le peuple allemand et tous ses ennemis… De manière plus précise, le recours à des chambres à gaz spécialement construites pour exterminer aussi rapidement que possible l'ensemble des Juifs d'Europe s'inscrit dans une politique qui, avec de multiples errements et poussées contradictoires, a d'abord visé à exclure les Juifs de la vie sociale, puis à les exproprier de tous leurs biens, à les concentrer ensuite dans des ghettos surpeuplés et bientôt affamés en Pologne, à les massacrer enfin dans des fusillades à ciel ouvert en URSS. C'est l'ensemble de ces événements, c'est l'ensemble du contexte politique, militaire et idéologique, c'est l'ensemble des faits et gestes des dirigeants nazis disposés à recourir à une violence sans limites, ce sont tous ces éléments donc qui permettent aux historiens de comprendre comment les nazis ont finalement décidé de construire des chambres à gaz dans les différents camps d'extermination situés en Pologne (Auschwitz mais aussi Chelmno, Treblinka, Sobibor, Belzec, et Maïdanek). Mais ce sont ces connaissances qui manquent aussi à la plupart des profanes qui n'ont généralement qu'une vision très sommaire et parfois confuse des événements [63]. Ce sont des centaines sinon des milliers d'articles et d'ouvrages qu'il faudrait avoir lus pour comprendre de façon approfondie et pertinente pourquoi les négationnistes sont des manipulateurs et des falsificateurs et pourquoi aussi ils n'apportent aucune connaissance historique sur cette période, se contentant de jeter le doute dans des esprits peu avertis.

Cet exemple doit éclairer le fait que les spécialistes en sciences humaines ne se contentent pas d'exprimer des opinions, ni d'affirmer des « vérités » générales, ni de donner leur point de vue sur une réalité dont chacun d'entre nous pourrait être juge, mais qu'ils s'appuient en principe sur un travail de recherche approfondi, sur un recueil de données originales, sur une réflexion qui se construit en plusieurs étapes, sur la prise en compte d'un maximum d'éléments qu'ils articulent de façon cohérente. Il s'agit bien entendu là d'un idéal de la recherche, et il y a en sciences humaines comme ailleurs de mauvais travaux, mal argumentés, mal étayés, mal construits, sinon parfois erronés et faux. Mais il faut très certainement avoir une expertise dans le domaine pour pouvoir montrer les éventuelles faiblesses de certains travaux (surtout s'ils sont résumés dans un article de presse ou dans une interview) : opposer une simple opinion à une telle recherche, en se revendiquant seulement de son esprit critique, est dans ce cas une naïveté qui n'emportera évidemment pas la conviction des spécialistes du domaine.

Bien entendu, cela ne signifie pas non plus qu'on doit admettre tout ce que disent les experts, mais il faut soi-même avoir une certaine expertise en sciences humaines pour percevoir les faiblesses éventuelles d'un travail dans un de ces domaines, comme pour comprendre les querelles éventuelles entre ces experts. Et il faut évidemment distinguer de véritables recherches (en principe publiées dans des revues scientifiques) de simples tribunes parues dans la presse ou d'opinions exprimées à la télévision.

Outre les précautions habituelles dans l'abord de tout texte de nature ou d'inspiration scientifique (comme la qualification de l'auteur, les références scientifiques, les sources utilisées, le contrôle par les pairs, etc.), quatre réflexions épistémologiques générales peuvent guider l'analyse de ce genre de travaux, même si elles ne garantissent évidemment pas de façon certaine leur vérité.

1. Sciences humaines, sciences polémiques ? Jugement de fait et jugement de valeur

Les sciences humaines (comme les sciences naturelles) visent à décrire et à expliquer des phénomènes observés ou observables, et n'ont donc pas pour objectif de porter des jugements de valeur sur des comportements individuels ou collectifs, ni sur des politiques ou des pratiques, ni même sur des objets (par exemple artistiques). Sociologues ou économistes qui étudient l'inégalité des revenus n'affirment pas que ces inégalités sont en soi bonnes ou mauvaises. Bien entendu, les scientifiques les plus impartiaux ne sont pas exempts de certains préjugés : si quelqu'un souligne une augmentation importante des inégalités socioéconomiques, il entend certainement dénoncer cet état de fait. Il est d'ailleurs possible, à partir de faits (pour autant qu'ils soient correctement observés et interprétés), de tirer certains jugements de valeur si l'on partage les mêmes échelles d'évaluation : si l'on estime que les inégalités de revenus sont en soi mauvaises, une augmentation de ces inégalités sera logiquement définie comme une mauvaise chose.

En outre, en tant qu'êtres humains, nous sommes spontanément portés à évaluer ou à juger les choses, les phénomènes (même la météo « bonne » ou « mauvaise ») et les individus qui nous entourent. Ces jugements peuvent être sommaires — j'estime que telle personne est sympathique et telle autre non — ou plus élaborés — je trouve que la politique de tel gouvernement est néfaste pour la croissance économique ou pour la cohésion sociale —, mais il nous est très difficile d'adopter une attitude de neutralité axiologique face au monde qui nous entoure, surtout de façon permanente. Et nos jugements de valeur sont une source importante de biais cognitifs, fréquemment dénoncée en tant que telle : nous privilégions les réflexions, analyses, argumentations qui confirment nos propres certitudes et nos propres croyances. Mais bien entendu, nous repérons plus facilement un tel biais cognitif chez autrui (que nous accuserons de manipuler les faits) que chez nous-mêmes.

La neutralité axiologique représente donc un idéal des sciences humaines (si du moins elles prétendent à l'universalité du savoir), mais la pratique scientifique est largement orientée par des valeurs, des intérêts, des partis pris qu'il est souvent assez facile de repérer et de dénoncer. Cela ne signifie cependant pas que cela affecte nécessairement la vérité des travaux en cause : l'historien qui décrit les crimes commis par le régime nazi et que ce régime a d'ailleurs voulu cacher adopte certainement une posture de dénonciation (et parfois même d'accusation), il peut être même juif ou d'origine juive [64] comme le souligneront avec suspicion les « négationnistes » de la Shoah, mais les crimes du nazisme sont évidemment bien réels !

Il ne suffit donc pas de souligner l'orientation idéologique ou axiologique d'une étude pour en dénier la validité, et il faut essayer de préciser à quel niveau de l'analyse se manifeste cette orientation.

Si l'on excepte une manipulation (consciente ou inconsciente) des faits qui peut exister, les données d'observation (historiques, sociologiques, psychologiques, ethnologiques…) font en principe l'objet d'un consensus si elles ont été correctement récoltées. Un biais dû aux partis pris du chercheur peut apparaître essentiellement dans le choix des données considérées : les contempteurs du néo-libéralisme ignoreront généralement que, depuis les années 1980, la grande pauvreté a diminué dans le monde aussi bien en chiffres relatifs (en pourcentage) qu'en nombre absolu [65] et ils souligneront au contraire l'accroissement des inégalités entre les plus pauvres et les plus riches. À l'inverse, sociologues et économistes « libéraux » répéteront que « les inégalités n'expliquent pas tout », et préféreront s'attarder sur les « effets pervers », c'est-à-dire néfastes mais involontaires, des politiques publiques ou des conduites individuelles comme par exemple les embouteillages qui ne sont évidemment voulus par personne mais qui résultent de comportements individuels qui s'agrègent de façon négative [66].

Les divergences seront sans doute plus manifestes dans les interprétations des faits observés. Un exemple classique d'une telle divergence a ainsi opposé les sociologues Pierre Bourdieu et Raymond Boudon dans leurs explications de la reproduction par l'école des inégalités socioéconomiques : alors que le sociologue « de gauche » mettait en cause les différences de capital culturel (mais aussi financier) entre les groupes d'origine des élèves, le sociologue « de droite » soulignait que les différences d'aspiration entre les uns et les autres s'expliquaient essentiellement par un « calcul » entre l'origine sociale de départ et le niveau scolaire visé (avec une balance entre le « coût » des études et leur « rendement » supposé) [67]. Un autre exemple célèbre est celui de la Révolution française dont les événements sont bien connus mais dont l'interprétation est très différente selon les interprétations divergentes des uns et des autres : les historiens d'inspiration marxiste ont décrit ces événements comme la traduction de conflits entre groupes sociaux concurrents alors que François Furet d'inspiration plus « libérale » souligne au contraire la disjonction entre la sphère proprement politique (l'Assemblée nationale, la Convention, les loges, les clubs…) et le domaine économique et social (soumis en réalité à des transformations de longue durée), tout en rappelant, après Tocqueville, le rôle essentiel de la monarchie absolutiste française comme pouvoir centralisateur donnant aux Révolutionnaires l'illusion d'une toute puissance du politique sur la société [68]. Bien entendu, toute divergence d'interprétation en sciences humaines n'est pas le résultat de valeurs différentes (qu'il s'agisse de valeurs politiques, morales, esthétiques, symboliques ou autres), et certaines résultent d'enjeux « purement » scientifiques [69].

 

Il est donc important de percevoir les jugements de valeur, le plus souvent implicites, qui orientent nombre de travaux en sciences humaines, même si la « cause » défendue peut nous sembler juste ou légitime : c'est d'ailleurs dans ce cas qu'il faut sans doute être le plus vigilant car nous risquons alors d'être victimes d'un « biais de confirmation » qui nous pousse à donner du crédit aux discours qui confortent nos propres opinions déjà installées. Néanmoins, les valeurs défendues par les chercheurs n'invalident pas nécessairement leurs travaux. Pour le profane, il faut surtout déterminer où se situent les divergences mais également les convergences entre chercheurs concurrents : les querelles portent-elles uniquement sur les valeurs politiques, morales, esthétiques, philosophiques des uns ou des autres, ou bien révèlent-elles des différences d'interprétations, ou encore mettent-elles en cause l'établissement même des faits [70] ? À rebours de la tendance à souligner les divergences, il faut aussi souligner les convergences : celles-ci ne définissent pas la « vérité » mais du moins un « état de la question » qui bien sûr pourra évoluer avec de nouvelles recherches. Mais le consensus entre scientifiques, même s'il n'est que partiel, est un argument raisonnable pour accorder sa confiance aux travaux en sciences humaines : une recherche contradictoire, qui s'oppose au consensus, à la « pensée dominante », à « l'orthodoxie », au « conformisme » supposé régner dans l'un ou l'autre domaine des sciences humaines, ne doit évidemment pas être rejetée a priori mais restera hypothétique tant qu'un nouveau consensus ne sera pas établi dans le champ. On rappellera à ce propos que, selon l'analyse de Pierre Bourdieu, les champs des sciences humaines (grâce notamment à des institutions comme les universités) ont une autonomie relative par rapport aux autres champs du pouvoir (politique, économique, social…) mais suffisante pour que les intérêts scientifiques (dont celui pour la vérité) s'y exercent de façon principale.

Les sciences humaines restent sans doute beaucoup plus conflictuelles que les sciences « dures », et les consensus éventuels sont souvent limités et partiels : les « écoles » (sinon les chapelles) concurrentes, les grands penseurs (sinon les maîtres à penser) en conflit les uns avec les autres, les « théories », les perspectives ou les approches « épistémologiques » opposées, les différents « courants de pensée » y sont largement présents, à tel point que les querelles semblent souvent insolubles, et les opinions partisanes guider en réalité les préférences des scientifiques comme des profanes en ces différentes matières. Le crédit que l'on peut accorder à ces travaux ne peut donc pas être absolu, ni même général, et il convient, dans la mesure du possible (et de l'intérêt que l'on porte à ces questions), de prendre en compte les différents points de vue qui s'expriment. Mais l'on soulignera également qu'il y a dans ces différents domaines, des éléments de consensus significatifs [71], notamment au niveau empirique.

2. Un monde opaque ?

L'existence des sciences humaines repose sur les limites mêmes de notre connaissance des réalités humaines, limites que ces sciences ont précisément pour objectif de repousser ou de dépasser. Autrement dit, les sciences humaines ambitionnent de révéler que nous ne connaissons pas le monde qui nous entoure, que nous ne nous connaissons pas nous-mêmes, ou du moins que notre connaissance n'est que partielle, sommaire, biaisée et parfois erronée [72]. Or cette affirmation contredit profondément le sens commun : nous sommes persuadés spontanément que nous connaissons « bien » le monde où nous vivons, notamment dans ses aspects humains. Si une connaissance a des problèmes d'alcool ou même se suicide, si une manifestation dégénère en émeute, si une entreprise ferme ou si un syndicat déclenche une grève pour obtenir une augmentation salariale, si notre enfant a des difficultés scolaires ou au contraire réussit brillamment, aucun de ces événements ne nous paraît « obscur » et nous avons le sentiment de le comprendre intuitivement sans avoir besoin d'explication supplémentaire. L'intervention d'un « expert », surtout s'il contredit nos interprétations et nos évaluations spontanées, risque de nous paraître inutile sinon impertinente : on se souvient des propos du Premier Ministre Manuel Valls déclarant à propos des attentats djihadistes ayant frappé la France qu'il en avait assez«  de ceux qui cherchent en permanence des excuses ou des explications culturelles ou sociologiques à ce qui s'est passé ». Cette déclaration, qui avait suscité la consternation (sinon la colère) des sociologues, était en tout cas révélatrice du sens commun face aux ambitions des sciences humaines d'expliquer des événements qui sont à nos yeux « évidents ».

Les sciences humaines peuvent-elles dès lors nous « apprendre » quelque chose que nous ne connaissons pas ? Sans doute, comme on essaiera de le montrer à travers quelques exemples.

L'histoire ou l'ethnographie répondent effectivement à une telle ambition puisqu'elles décrivent et analysent des mondes qui sont disparus ou lointains. En outre, ces deux sciences révèlent une diversité insoupçonnée des sociétés et de comportements. Elles ont montré par exemple que les liens de parenté sont conçus de manière différente et originale selon les lieux et les époques, que des « réalités » qui nous paraissent universelles comme la famille, l'amour, la folie, la différence des genres masculin et féminin, l'honneur, la maladie, le rêve, le suicide, l'économie, la nature et la culture varient selon les sociétés, sont comprises et organisées d'une autre manière que dans la nôtre. L'anthropologie, qui souhaite étudier l'humain sous ses différentes formes, doit évidemment prendre en considération cette diversité fondamentale et essayer d'en rendre compte tout en essayant de déterminer certains universaux comme sans doute la prohibition de l'inceste [73].

En ce qui concerne nos propres comportements, différentes sciences humaines ont mis en évidence des déterminations dont nous ne sommes très généralement pas conscients. Nous parlons spontanément une langue dont la structure — par exemple le système phonologique — nous reste inconnue mais que la linguistique décrit de façon approfondie. La psychologie, elle, a pu montrer, à travers notamment les travaux de Jean Piaget, les différentes étapes que parcourent les enfants dans leur perception et leur compréhension du monde, des étapes que, devenus adultes, nous avons très généralement oubliées : le tout petit enfant qui voit son jouet disparaître de sa vue croit ainsi qu'il n'existe plus et ce n'est que par l'expérience qu'il acquiert la conscience de la « permanence de l'objet ».

Économie, démographie ou sociologie ont également révélé des « mécanismes » de grande ampleur dont nous ne sommes généralement pas conscients : des phénomènes aussi élémentaires que l'inflation, la croissance ou le vieillissement de certaines populations, les inégalités face à l'école nous échappent largement tant qu'ils ne sont pas décrits et expliqués notamment grâce à la vulgarisation journalistique. Et beaucoup d'entre nous restent incapables d'évaluer correctement leur position socioéconomique par exemple sur une échelle de revenus exprimés en déciles.

Tout un courant critique de la sociologie (généralement marqué politiquement à gauche sinon à l'extrême-gauche) s'est par ailleurs donné pour tâche de « dévoiler » les intérêts cachés que les dominants masquent (ou masqueraient) derrière des idéologies diverses (comme le « don », la « nature » des choses, la tradition, la loi de dieu, etc.) précisément pour légitimer leur domination aux yeux des dominés [74]. Cette sociologie des « intérêts cachés », qu'ils soient strictement économiques ou sociaux ou symboliques comme chez Pierre Bourdieu, permet certainement de mieux comprendre les conflits qui traversent les différents champs sociaux ainsi que la domination qui s'y exerce et les inégalités qui s'y produisent, même si elle prend une forme parfois caricaturale chez certains polémistes [75].

En outre, la sociologie (mais aussi l'économie) s'attache notamment aux phénomènes d'agrégation des comportements qui échappent nécessairement au point de vue des individus. Le cas exemplaire est celui de la dévaluation des diplômes qui est la conséquence d'une demande (et d'une offre) d'éducation croissante : dans une telle évolution, le diplôme qui était rare au début devient par la suite beaucoup plus fréquent et perd de ce fait de sa valeur alors que les étudiants ont précisément anticipé une valeur antérieure supérieure.

Enfin, sociologie mais aussi psychologie nous éclairent sur le point de vue, sur le psychisme des autres individus, qu'il s'agisse de groupes (les jeunes des cités en France, les cadres, les immigrants récents en ville, les femmes agricultrices…) ou d'individus plus ou moins différents de « nous » (personnes souffrant de toc, adolescents, personnes dépendantes de l'alcool ou de psychotropes, suicidaires, sujets à des troubles anxieux…). Ces travaux — sans doute de qualité différente — mêlent, comme on a l'a déjà souligné, recueil de données et interprétations et ne sont pas exempts de jugements de valeur implicites ou explicites, mais ils apportent des informations qui dépassent largement notre point de vue limité sur ces phénomènes ou même celles d'un reportage écrit ou télévisuel [76].

La vulgarisation des sciences humaines peut d'ailleurs nous donner l'impression que nous connaissons bien le monde qui nous entoure, que nous « maîtrisons » les déterminants sociaux, psychologiques ou autres qui pèsent sur nous : nous avons entendu parler de l'inconscient et du complexe d'Œdipe, nous savons ce qu'est le néo-libéralisme, nous connaissons la différence entre les impôts directs et indirects, entre les revenus et le patrimoine, nous nous méfions des biais cognitifs ou de certains d'entre eux, nous refusons d'employer les notions de race ou de peuples « primitifs » qui n'ont pas de fondement objectif… Mais la fréquentation — même limitée — de ces travaux de recherche révèle facilement l'illusion dans laquelle nous baignons spontanément et le caractère partiel sinon parcellaire de nos connaissances. Bien entendu, les sciences humaines ne nous révèlent pas la face cachée du monde (dans une version « complotiste » des choses) mais bien plutôt les limites de notre savoir, qu'il soit celui des profanes ou même des « savants ».

On en donnera un seul exemple qu'on espère éclairant, celui des institutions du pouvoir dans nos sociétés. Très généralement, nous avons une vision pyramidale de ces institutions sur le modèle des hiérarchies militaires : l'autorité s'exercerait du sommet vers la base de manière unilatérale. Ce modèle n'est évidemment pas totalement faux mais il est sommaire et, dans de nombreuses situations, caricatural : le « chef », le responsable, déciderait de tout (généralement isolé dans son bureau, ovale ou non) et se contenterait de donner des ordres à exécuter scrupuleusement… Mais les études politiques (mais aussi historiques) montrent facilement que les décisions en ce domaine ne se prennent pas de cette manière et qu'elles font l'objet d'informations préalables, de discussions, de négociations, d'indécisions même, et qu'elles font ensuite l'objet d'une réinterprétation par les niveaux inférieurs du pouvoir qui modifient, transforment, accentuent ou détournent leur sens initial. Une autre institution comme le système judiciaire avec ses multiples instances, ses différents acteurs, les nombreuses sources du droit sur lequel il est censé s'appuyer suffit à comprendre que nous n'avons qu'une connaissance partielle et sommaire de cet univers qui joue pourtant un rôle essentiel dans notre société [77].

Si l'on tient compte en outre du caractère polémique des sciences humaines, l'on perçoit alors les limites de notre savoir ou plus exactement de nos différents savoirs sur notre propre humanité en ses multiples composantes (sociale, psychologique, historique…) ainsi que la grande part d'incertitude que comportent ces savoirs. Mais ces connaissances partielles et imparfaites valent sans doute mieux qu'une vision caricaturale et sommaire des choses.

3. Les mots et les choses

L'on a déjà remarqué que les notions scientifiques faisaient facilement l'objet d'une vulgarisation, souvent approximative, et que là où les spécialistes essayaient de définir de façon précise certains concepts, nous employons ces mots dans leur sens commun avec souvent des imprécisions ou des approximations. Cette indétermination est généralement présente aussi bien en intension qu'en extension, c'est-à-dire aussi bien au niveau du sens des mots (en relation avec les autres mots) que de la classe d'éléments auxquels ils réfèrent. La politologue Hannah Arendt a ainsi défini le totalitarisme par une série de caractéristiques spécifiques qui le distinguent de la dictature et de la tyrannie (à savoir un mouvement qui vise à détruire les structures sociales existantes, par une organisation des masses sous l'égide d'un chef, par le recours à une idéologie « globale » prétendant tout expliquer et justifier, ainsi que par l'utilisation de la terreur comme principe de gouvernement même en l'absence d'opposition politique réelle) ; elle a également restreint ce concept à deux « cas » historiques bien connus, le régime nazi et le régime stalinien, même si elle a pu viser dans sa critique d'autres régimes [78]. Or la notion est facilement utilisée (souvent d'ailleurs en invoquant le nom de la célèbre politologue et philosophe) pour désigner des situations extrêmement différentes et dans un sens vague proche de celui de dictature ou de régime autoritaire ou criminel. La définition d'Hannah Arendt n'a rien d'absolu ni de définitif, et de nombreux philosophes, politologues et historiens [79] ont pu la contester ou la modifier, mais leurs travaux débutent très généralement par un travail de redéfinition qui permet de « savoir de quoi on parle ».

Ce travail de définition qui peut sembler aride et parfois inutile est pourtant essentiel en sciences humaines. Il est d'ailleurs toujours inachevé dans la mesure où toute définition d'une notion implique de recourir à d'autres notions supposées comprises de façon claire et distincte. Et souvent certains concepts ne sont réellement définis que grâce à de multiples développements, illustrations ou démonstrations qui en illustrent la validité mais aussi les limites : Pierre Bourdieu a ainsi largement utilisé le concept de « champ » (champ de production symbolique, champ politique, champ religieux, champ intellectuel…) à travers de nombreux exemples sans aucun doute très éclairants mais il n'a jamais précisé quelle était l'extension du concept (ni sans doute son intension [80]) dont on peut se demander s'il peut s'appliquer à n'importe quel lieu et à n'importe quelle époque ou du moins à quelles conditions il peut s'appliquer à des situations non envisagées par le sociologue jusque-là.

Comme on l'a déjà relevé plusieurs fois, les concepts scientifiques font souvent l'objet d'une utilisation vulgarisée ou sont simplement confondus avec des notions communes (qui leur préexistent d'ailleurs souvent), ce qui fait disparaître, dans les conversations courantes comme dans les débats ou les articles de presse, leur éventuelle précision. Ainsi, la plupart des mots « savants » sont en réalité utilisés de façon vague et confuse : il suffit à ce propos de relever des notions très répandues et très diverses comme néo-libéralisme, colonialisme, néo-colonialisme, mondialisation, démocratie, dictature, totalitarisme (encore !), fascisme, inégalités sociales, élites, ségrégation, migrants et migrations, famille nucléaire, peuples primitifs ou premiers, civilisation, culture, salafisme, radicalisation, égocentrisme, pervers narcissique, résilience, stéréotypes, idéaltype [81], environnement naturel, névrose, traumatisme psychique, fantasme (ou phantasme), dépression, pulsion, stress, étayage, capital culturel, individualisme, etc.

Il n'est bien sûr pas possible de faire ou de refaire le travail de définition conceptuelle qui serait nécessaire à une compréhension exacte de toutes les notions que nous utilisons ou que nous découvrons quotidiennement à travers notamment les médias. Une distance critique est néanmoins nécessaire face à l'utilisation de ces différentes notions qui sont souvent utilisées dans une perspective évaluative qui s'appuie précisément sur l'extension imprécise des concepts : le point Godwin (ou reductio ad Hitlerum) est une forme extrême d'une telle stratégie rhétorique, mais l'imprécision conceptuelle favorise évidemment ce genre d'associations dénigrantes. Au-delà de ces usages polémiques, les sciences humaines permettent un tel travail de définition conceptuelle aussi bien en extension qu'en intension [82]. Dans cette perspective, on trouvera ci-dessous une analyse un peu plus approfondie du concept de domination qui est largement utilisé de façon critique dans notre société qui se réclame au contraire des valeurs d'égalité et de liberté .

Des distinctions à faire

La question de la domination est au centre de nos sociétés contemporaines, car elle contredit les principes d'égalité et de liberté proclamés comme fondamentaux par ces sociétés. La domination de certaines personnes, de certains groupes, de certains pays sur d'autres est facilement dénoncée comme illégitime. Mais toutes les formes de domination sont-elles équivalentes ? La domination masculine est-elle la même que la domination de la bourgeoisie dénoncée par Karl Marx ? Pourquoi dit-on qu'une grande ou très grande entreprise abuse d'une position dominante ? Peut-on parler, comme certains le font, de « dictature » des médias ou de la publicité ? En quoi une domination symbolique est-elle une forme de pouvoir ?…

Sans prétendre répondre à toutes ces questions, l'on proposera néanmoins ici quelques distinctions sans doute utiles à ce genre de débat.

Différences

Entre deux individus (mais également entre deux objets ou deux événements), il y a une multitude de ressemblances mais aussi de différences. Ainsi, entre deux personnes, on peut constater des différences de taille, de poids, d'âge, de niveau scolaire, de teinte de cheveux, de religion, de sexe, de nationalité, de langue, etc.

Certaines de ces différences peuvent paraître plus importantes que d'autres et deviennent alors des signes d'identité : dans les sociétés occidentales, la profession est généralement considérée comme particulièrement significative, contrairement par exemple à la couleur des cheveux. Pour certains critères comme l'âge, on donne en outre une importance particulière à certains seuils, par exemple celui de la majorité ou de la retraite (alors qu'on ne fera guère de différence entre des personnes ayant l'une trente et un ans et l'autre trente-deux ans).

Il faut par ailleurs prendre en compte la dimension subjective de l'identité qui reste une question d'appréciation personnelle : pour un individu ayant des préjugés racistes, une personne d'origine arabe sera perçue essentiellement comme « arabe » alors que cette personne se considérera peut-être d'abord comme un ingénieur quadragénaire avec de hauts revenus… Alors que les différences constituent généralement des traits objectifs, l'identité est donc, pour une grande part, subjective : cette identité peut être affirmée par la personne elle-même (qui se définira par exemple d'abord par sa profession ou par sa religion ou par tout autre critère) ou lui être assignée par d'autres personnes ou la société environnante.

Enfin, toute différence n'implique pas une inégalité : on peut difficilement prétendre qu'être wallon, corse, breton, parisien ou alsacien donne une quelconque supériorité ou implique une infériorité par rapport à une autre appartenance régionale.

Inégalité

L'inégalité porte sur des différences (plus ou moins facilement) mesurables : ainsi, on peut constater facilement des inégalités de revenus en comparant les feuilles de paie ou les déclarations d'impôts des citoyens d'un même pays (il faudra cependant tenir compte de certains phénomènes cachés comme le travail « au noir », non déclaré qui n'apparaît pas dans les documents officiels).

Cependant, lorsqu'on compare deux individus entre lesquels existent de multiples différences, on ne peut considérer leur inégalité éventuelle qu'en se basant sur un seul critère à la fois : je peux constater que Jean est plus riche que Paul, mais celui-ci peut avoir un niveau scolaire supérieur au premier. La mesure de l'inégalité dépend donc toujours du critère utilisé et de la valeur qu'on lui accorde. Ainsi, les différences d'âge sont facilement mesurables, mais cette inégalité peut être appréciée très diversement : l'âge donne peut-être la sagesse, mais beaucoup échangeraient sans doute cette sagesse contre une jeunesse disparue ! Par ailleurs, si nombre de travailleurs se battent pour des augmentations salariales (qu'ils jugent évidemment importantes), certains prétendent que l'argent ne fait pas le bonheur, et d'aucuns prônent même la décroissance qui impliquerait une diminution des revenus de tous…

Par ailleurs, lorsqu'on mesure des inégalités, il faut prendre en compte la dimension statistique : il est rare en effet que l'on compare seulement des individus (sauf dans les réunions de famille…), et l'on s'attache bien plus aux inégalités entre groupes ou populations. Ainsi, on peut comparer les revenus de l'ensemble des cadres et celui de l'ensemble des ouvriers d'un même pays : on additionne tous les revenus des cadres qu'on divise ensuite par le nombre de cadres pour obtenir le revenu moyen des cadres, qui sera alors comparé avec le revenu moyen des ouvriers.

On néglige cependant alors les différences de revenus à l'intérieur de chaque classe (cadres ou ouvriers), et la vérité statistique ne correspond pas exactement à la réalité individuelle : ainsi, la taille moyenne des Hollandais est aujourd'hui une des plus grandes du monde (1,81 m pour les hommes et 1,76 m pour les femmes) alors que les Belges ou les Français sont un peu plus petits (1,75 m pour les Français et 1,66 m pour les Françaises), mais cela ne signifie évidemment pas qu'il n'y a pas de Hollandais de petite taille, ni que tous les Hollandais sont plus grands que les Belges ou les Français !

Enfin, l'inégalité ne signifie pas nécessairement la domination : la petite taille de Napoléon ne l'empêchait pas de commander des milliers d'hommes ! Plus sérieusement, on constate facilement qu'un instituteur européen est beaucoup mieux payé que son homologue d'Afrique noire, mais il serait évidemment absurde de prétendre que le premier exerce une domination sur le second. Et, même si l'on considère les inégalités à l'intérieur d'un même pays ou d'une même société, le fait qu'un médecin a en général des revenus plus élevés qu'un employé ne signifie pas qu'il le domine ni qu'il puisse lui imposer sa volonté. Pour qu'il y ait domination, il faut que les personnes entrent d'une manière ou l'autre en relation : si l'employé a besoin du médecin pour se faire soigner, celui-ci ne lui laissera pas le libre choix de ses honoraires et il pourra prescrire ou refuser de prescrire certains médicaments demandés par son patient. Dans la relation entre le médecin et le patient, celui-ci est soumis — même si ce n'est pas de façon absolue — à la bonne volonté du médecin. Mais cette relation de domination est locale et temporaire (elle ne s'exerce que dans le cabinet du médecin) et n'a rien à voir avec une inégalité éventuelle de revenus : en panne de voiture dans une campagne reculée, le médecin sera à son tour soumis au bon vouloir d'un éventuel garagiste qui pourra par exemple lui imposer un tarif exorbitant parce qu'il aura été appelé la nuit ou le week-end !

Domination

La domination est une notion relativement difficile à comprendre, car elle ne se confond ni avec l'inégalité (comme on vient de le voir) ni avec le pouvoir ou l'autorité (qu'on examinera plus tard). De façon abstraite, on définira la domination comme une relation sociale où un individu ou un groupe possède un avantage qui lui permet de limiter les choix d'un autre individu ou d'un autre groupe.

Cette domination peut reposer sur les qualités personnelles de l'individu dominant : ainsi, dans un sport comme le tennis, on dira qu'un joueur en domine un autre parce qu'il l'empêche de déployer son jeu, de placer ses coups efficacement et finalement de gagner la partie.

Mais le plus souvent la domination résulte de la situation générale inégalitaire où se trouvent les individus ou les groupes. Le cas le plus facile à comprendre est celui d'un marché économique où une multitude de petits producteurs, par exemple agricoles, font face à quelques distributeurs de grande taille se trouvant pratiquement en situation de monopole : dans une telle situation, les producteurs en concurrence les uns avec les autres devront baisser leur prix de vente car les distributeurs les menaceront facilement de faire jouer la concurrence soit au plan local soit même au plan international. Les distributeurs ne peuvent pas « ordonner » aux producteurs de vendre leurs marchandises à bas prix, mais ils ne leur laissent pas, comme on dit, le choix. Par leur taille, par leurs contacts géographiquement étendus, les distributeurs sont dans une position dominante car ils peuvent se fournir ailleurs, alors que les petits producteurs sont dans une situation dominée et n'ont pas les moyens de contourner les grandes firmes de distribution.

On remarquera que la domination est très rarement absolue et qu'elle varie généralement selon les lieux et les époques. Ainsi, en situation de plein emploi (comme ce fut le cas pendant les Trente Glorieuses entre les années 1945 et 1975 environ), les salariés fortement demandés peuvent plus facilement négocier des hausses de salaire que dans une situation de chômage important où ils se retrouvent en concurrence les uns avec les autres face aux employeurs. Mais même dans ce cas, des organisations comme les syndicats peuvent imposer des salaires minimums et des conventions collectives qui déterminent les niveaux de salaires admissibles.

La domination peut être de nature économique mais également sociale ou institutionnelle : ainsi, dans le monde de l'école, les élèves sont en situation dominée par rapport aux enseignants et aux directions. L'institution scolaire détermine notamment le temps de présence des élèves à l'école, les cours qu'ils devront suivre, les activités auxquelles ils seront soumis. Ce sont également les enseignants et autres membres de l'école qui admettront ou non le passage dans la classe supérieure ou qui conseilleront éventuellement une réorientation. Ainsi, dans la plupart des sociétés modernes, les choix de vie des enfants et des adolescents sont fortement limités par l'obligation scolaire (au sens large) à laquelle ils sont soumis.

De façon plus informelle, on remarquera que tous les groupes sociaux exercent une domination sur les individus qui les composent. Les phénomènes de mode sont particulièrement éclairants de ce point de vue : personne ne nous empêche de nous habiller comme un aristocrate sous Louis XV ou comme un Indien des plaines d'Amérique, mais tout notre entourage, proche ou lointain, considérerait cela comme curieux ou ridicule, et cela suffit pour nous empêcher de nous accoutrer d'une pareille façon. De manière moins caricaturale, on comprend facilement qu'un adolescent a avantage à s'habiller comme les compagnons de son âge, et qu'une personne plus âgée hésitera à suivre les modes qui dominent aujourd'hui dans les cours d'école !

Généralement, les phénomènes de domination résultent donc moins de qualités individuelles que des situations sociales différentes dans lesquelles se trouvent les individus : si les situations environnantes sont inégalitaires, la domination à proprement parler implique une limitation de la liberté de choix. Comprendre de tels phénomènes implique donc une analyse (parfois complexe) de la situation globale où se trouvent les individus et des choix (différents) qu'ils peuvent effectivement faire.

Le pouvoir

Le pouvoir est la capacité pour un individu (ou un groupe) d'imposer sa volonté à un autre individu (ou à un autre groupe). Être soumis au pouvoir implique une obéissance passive (ne pas s'opposer à l'autorité) ou active (agir selon la volonté du détenteur du pouvoir).

Le pouvoir repose très généralement sur une forme de domination, mais toute domination n'implique pas un pouvoir : comme on l'a vu, un médecin est dans une relation de domination avec son patient qui se voit prescrire des soins dont il ne peut pas décider personnellement (ne serait-ce que par manque de connaissances médicales), mais le patient garde toujours la liberté de ne pas se soigner. La seule exception est celle des personnes qui, souffrant de troubles psychiques peuvent constituer un danger pour autrui ou pour elles-mêmes : dans ce cas, un psychiatre dispose du pouvoir de faire interner (temporairement) une telle personne.

Un autre exemple déjà cité permet encore d'éclairer la distinction entre pouvoir et domination : dans un match sportif, par exemple de tennis, l'un des adversaires est nécessairement dominant par rapport à l'autre, mais on ne peut pas dire évidemment que le premier exerce un pouvoir sur le second. En revanche, l'arbitre a un véritable pouvoir, car c'est lui qui décide si le coup est valide, si les règles sont respectées, et il peut même exclure le joueur qui contesterait agressivement ses décisions. On remarquera facilement que le pouvoir de l'arbitre (comme d'ailleurs celui de toute autre personne dans les sociétés démocratiques) n'est pas absolu : lui-même obéit à des règles, et son autorité est étroitement limitée au court de tennis ou au stade sportif.

Un exemple type de relation de pouvoir est la hiérarchie militaire : le général donne des ordres aux officiers qui les font exécuter par les soldats. Dans ce cas, on voit que la relation de pouvoir est indirecte (elle passe par toute la hiérarchie des officiers et des sous-officiers) mais néanmoins fort contraignante : la désobéissance à quelque niveau que ce soit pourra en effet être l'objet de sanctions ou de punitions. Par ailleurs, les ordres sont ici explicites et impliquent des actions positives de la part de subordonnés (se déplacer, monter la garde, cirer des chaussures…).

Dans de nombreuses situations cependant, le pouvoir n'implique pas que les subordonnés fassent quelque chose de précis mais plutôt qu'ils s'abstiennent de certaines actions condamnables : l'État impose ainsi le respect de ses lois qui comprennent notamment un grand nombre d'interdits (ne pas voler, ne pas tuer, ne pas dégrader les biens communs, ne pas fumer dans les lieux publics fermés, etc.). Ce qui distingue alors fondamentalement le pouvoir de la simple domination, c'est la capacité de contrainte et d'influence dont dispose le détenteur du pouvoir qui peut faire respecter sa volonté ou ses directives : il peut s'agir de la force dont dispose notamment l'État, mais également de la pression du groupe environnant (les parents, les amis, les collègues…), de la persistance de la tradition, de la puissance de la persuasion (notamment dans les régimes démocratiques où l'on vote en définitive pour le parti auquel on acceptera de se soumettre s'il gagne les élections…).

Le plus souvent, l'exercice du pouvoir implique donc une forme de consentement de ceux qui y sont soumis. Ainsi, les salariés d'une entreprise acceptent d'obéir aux ordres de leur directeur parce qu'en échange, celui-ci paie leurs salaires. Ainsi encore, les enfants obéissent généralement à leurs parents soit parce qu'ils les craignent, soit parce qu'ils veulent obtenir ou conserver leur amour ou leur affection. Et les élèves font les devoirs demandés par leurs enseignants (même s'ils sont ennuyeux…) parce qu'ils estiment que la réussite scolaire est importante.

Bien entendu, entre l'obéissance et la révolte qui renverse les dictateurs, il y a toute une nuance d'attitudes possibles: on obéit en partie, on désobéit en cachette, on respecte les consignes de façon minimale, on consacre le moins de temps possible aux tâches imposées, on négocie de multiples façons avec les responsables (soit de façon individuelle, soit en s'organisant collectivement)…

En synthèse

Toute différence n'implique pas inégalité, et toute inégalité n'entraîne pas une domination. Enfin, le pouvoir, qui peut paraître tenir uniquement à la supériorité d'un individu sur l'autre, est par nature une relation sociale, une interaction où le consentement ou l'obéissance ne sont jamais totalement assurés et sont bien souvent l'objet d'une négociation implicite ou explicite, directe ou indirecte, partielle ou générale.

Dans les sociétés modernes, les individus se différencient par toute une série de caractéristiques ; ils occupent également des positions extrêmement diverses et remplissent des fonctions complexes et enchevêtrées. Il convient, lorsqu'on décrit ces multiples différences, de bien distinguer la nature de ces différences et des relations que les individus entretiennent les uns avec les autres. Des oppositions sommaires — comme riche/pauvre, puissant/faible, normal/anormal … — ne suffisent donc pas pour analyser la complexité des situations et des relations sociales.

4. Une cause ou des causes ?

On sait que Kant a fait de la causalité un des principes de l'entendement. Si ce principe garde évidemment sa pertinence, notamment dans le champ des sciences humaines, il mérite d'être questionné car il conduit facilement à des interprétations simplifiées sinon simplistes et parfois erronées.

Nous avons sans doute spontanément tendance à chercher une cause — et une seule cause — aux phénomènes que nous observons (ou dont nous prenons connaissance via les médias). En outre, nous privilégions très généralement une cause humaine, c'est-à-dire une intention, une volonté, une décision subjective d'un individu (ou d'un groupe d'individus agissant de façon similaire). Enfin, cette décision fait presque systématiquement l'objet d'une évaluation morale (ou éthique, politique, esthétique parfois). Si un accident de la route se produit, j'aurai tendance à chercher un responsable, sinon un coupable, qui sera considéré au mieux comme un maladroit, au pire comme un imprudent ou même un malfaisant s'il s'avère qu'il conduisait sous l'influence de l'alcool… On remarquera encore que nous transformons facilement les causes supposées des événements en instances abstraites et animées comme « l'agressivité naturelle de l'être humain », la « recherche du profit », « le goût du risque », « l'égoïsme » de nos contemporains…

Une telle manière de voir n'est évidemment pas fausse, mais les sciences humaines ont mis en évidence, derrière ou au delà de ce type de causalité simple, des facteurs multiples qui concourent au phénomène observé, même s'il est souvent difficile de mesurer le « poids » de ces différents facteurs : l'utilisation des outils statistiques permet en particulier de déterminer le caractère significatif de certains de ces facteurs. Ainsi, la sociologie de l'éducation a montré que la réussite scolaire est dépendante de l'origine sociale des élèves : cela ne signifie pas que l'origine sociale est la « cause » de la réussite (ou de l'échec), mais qu'il existe une corrélation significative entre les deux données. Une corrélation, comme le préviennent tous les statisticiens, ne signifie pas une relation de cause à effet, mais l'analyse en sciences humaines permet en principe de définir les facteurs déterminants et leur interaction. Même si les recherches se focalisent souvent sur une dimension privilégiée — par exemple, la relation entre le sexe des individus et le taux de délinquance —, on ne considère jamais un facteur explicatif comme une cause unique, en particulier d'un phénomène isolé (par exemple un comportement individuel) : le sexe seul n'explique évidemment pas qu'un individu soit devenu un délinquant…

Les sciences humaines ont également mis en évidence des formes de causalité originales comme les causalités circulaires : un phénomène (généralement de faible ampleur) a un effet sur un autre phénomène qui produit un effet en retour sur le premier, qui à son tour amplifie l'effet premier, etc. La causalité circulaire peut comprendre plusieurs éléments, par exemple A influe sur B qui influe sur C qui influe en retour sur A. Un exemple classique de causalité circulaire est la douleur lombaire : une telle douleur induit chez la personne qui en souffre une immobilité plus ou moins importante qui entraînera un manque d'activité physique qui provoquera finalement une douleur accrue (ou qui augmentera la fréquence d'une telle douleur). En sciences humaines, les phénomènes d'agrégation des comportements individuels illustrent également facilement ce type de causalité : une inquiétude boursière provoque une première vente d'actions, mais cette vente fait diminuer la valeur de ces actions augmentant l'inquiétude qui provoquera une nouvelle vente dans un effet de boule de neige jusqu'au krach final.

Dans l'abord des phénomènes psychologiques et sociaux, il est donc important de tenir compte de ces formes différentes et plus complexes de causalité, mises en évidence notamment dans les sciences humaines et qui permettent de comprendre de façon plus nuancée la réalité où nous vivons. On trouvera ci-dessous quelques réflexions et quelques exemples qu'on espère éclairants sur l'explication en sciences humaines.

Quelques réflexions sur la causalité en sciences humaines

L'on propose ici quelques réflexions sur la causalité, telle qu'elle peut être comprise en sciences humaines. On prendra notamment le phénomène du terrorisme islamiste qui a frappé récemment plusieurs pays européens comme objet possible d'explication en sciences humaines.

Des causes multiples ?

Lorsqu'on nous interroge sur un de nos comportements, nous répondons spontanément en évoquant une seule et simple raison : « Pourquoi vas-tu acheter du pain ? — Parce que j'ai faim ! »

Mais l'explication de ce comportement doit prendre en considération bien d'autres facteurs. Ainsi, le pain est une nourriture commune en Europe (et dans d'autres régions du monde), mais si j'étais né et si je vivais en Asie, je choisirais plus certainement de consommer du riz, la céréale la plus consommée dans ce continent. Mon comportement obéit de façon inconsciente à des habitudes que j'ai acquises par mon éducation et toute mon expérience passée.

Quand je pénètre dans une boulangerie, j'ai encore le choix d'acheter du pain ou bien de la tarte, des gâteaux ou encore des croissants ! Différentes considérations vont influencer mon choix : les gâteaux, bien que délicieux, sont plus chers que le pain, et je n'ai pas les ressources financières pour en manger tous les jours. Ma situation présente, mon contexte de vie actuel, constitue donc un facteur important dans ma décision.

Enfin, des considérations diététiques me feront certainement préférer du pain gris à des gâteaux trop gras et trop sucrés (malgré leur caractère appétissant !). En choisissant du pain gris, je poursuis donc un objectif futur, celui de rester mince (ou au moins de ne pas grossir…) et en bonne santé.

Ainsi, chacun de nos comportements peut s'expliquer par différents facteurs qui relèvent soit du passé (sous la forme d'habitudes intériorisées), soit du présent (comme éléments de la situation actuelle), soit du futur (comme objectifs poursuivis). Pour chacune de ces dimensions, on peut en outre trouver plusieurs facteurs agissants : outre les considérations présentes sur la différence de prix entre le pain et les gâteaux, je prendrai par exemple en considération la proximité de la boulangerie pour faire mon choix.

Le poids des différents facteurs

Est-il alors possible de mesurer le poids des différents facteurs susceptibles d'expliquer des comportements ? On comprend facilement que c'est pratiquement impossible si l'on ne prend en considération qu'un comportement isolé. En revanche, il est possible de mesurer l'importance d'un facteur si l'on modifie la situation et que l'on observe le comportement de nombreuses personnes : si le prix des gâteaux diminue subitement, la consommation va-t-elle augmenter ? Bien entendu, tout le monde ne va pas se mettre à manger des gâteaux à tous les repas mais il sera possible de mesurer l'influence du prix sur le comportement des consommateurs. Les analyses statistiques permettent donc de mesurer l'effet de certains facteurs (appelés variables indépendantes) sur nos comportements (variables dépendantes), même si les relations entre les différentes variables sont complexes et souvent difficiles à établir : ainsi, on pourrait penser que l'augmentation du prix des cigarettes entraînera une diminution régulière de la consommation, mais, dans les faits, on constate qu'une telle diminution n'intervient que si l'augmentation du prix est importante et exceptionnelle. Il y a un effet de seuil plus ou moins marqué en dessous duquel il n'y a pas de changement, et, par ailleurs, malgré une forte augmentation, un certain nombre de personnes (parfois même une majorité de fumeurs) continueront à fumer parce qu'elles sont fortement dépendantes du tabac. Autrement dit, si l'analyse statistique montre que le prix des biens a une influence réelle sur la consommation, cela ne signifie pas que ce soit le seul facteur déterminant. Au contraire, il est vraisemblable que la dépendance déjà installée par la consommation antérieure a un poids considérable dans la poursuite de la consommation tabagique (cela se montrera par exemple en considérant le nombre d'années de consommation : plus cette durée est longue, plus le sevrage du tabac est rare et difficile).

Les analyses statistiques, qui sont complexes à maîtriser, peuvent mettre en évidence la relation simple entre une variable indépendante et une variante dépendante, mais les plus élaborées d'entre elles visent à mesurer les effets de différents facteurs (comme le sexe, l'âge, l'origine sociale, le niveau d'études, la composition familiale, etc.) qui interagissent de façon complexe. De manière générale, ces analyses isolent certains facteurs déterminants — c'est-à-dire qu'ils ont une influence mesurable sur les phénomènes observés — mais ne prétendent pas expliquer les comportements par une cause unique.

Relation statistique et causalité

On observe de nombreuses relations statistiques entre différents phénomènes sociaux, mais une erreur commune consiste à interpréter une telle corrélation [83] comme une relation de cause à effet, ce qui est parfois le cas mais pas nécessairement. Ainsi, on constatera que le risque de mourir dans un hôpital est beaucoup plus grand que dans n'importe quel autre lieu public ou privé : bien entendu, l'hôpital n'est pas la cause de ce nombre important de décès qui s'explique par un facteur « caché », à savoir que les personnes qui se rendent dans un hôpital sont plus ou moins gravement malades ou blessées, ce qui est la véritable cause de leur décès éventuel. Jamais on ne conseillera bien sûr à une personne accidentée ou gravement souffrante de ne pas se rendre à l'hôpital sous prétexte que le risque d'y mourir est plus grand qu'ailleurs !

Cette confusion cependant est très fréquente dans les médias et dans l'opinion publique. Ainsi, si l'on constate que les Afro-Américains sont surreprésentés dans la population carcérale aux États-Unis, ce n'est pas à cause de la couleur de leur peau ni de certaines particularités (mœurs, croyances, modes d'éducation, structures familiales…) qui seraient propres à cette population : cela peut s'expliquer par le fait que la proportion des Noirs vivant dans des situations socio-économiques difficiles est plus grande que chez les Blancs (dans ce cas, la pauvreté serait la cause de la délinquance) ou bien parce que le système policier et judiciaire est plus sévère à cause de préjugés racistes à l'égard des Afro-Américains. Mais il n'y a pas de plus grande « prédisposition » à la délinquance chez les Noirs américains que chez les Blancs, ni à cause de leur race, ni de la culture hip-hop ni de la musique rap !

Des croyances qui nous arrangent…

Expliquer de façon scientifique, on le voit, n'est pas facile, mais les « explications » plus ou moins simplistes ne manquent pas dans les journaux et les médias ! Face à des événements marquants, il suffit d'évoquer un facteur visible qu'on transforme alors en cause plus ou moins certaine. Mais l'absence de relation démontrée n'empêche pas la plupart d'entre nous de croire de préférence à l'une ou l'autre de ces « explications » pourtant hypothétiques. Qu'est-ce qui fonde alors notre croyance ?

Là aussi, les sciences humaines mettent en lumière un phénomène important qu'on nomme de façon savante la réduction de la dissonance cognitive : dit de façon simple, cela signifie que, face à deux explications (ou arguments, croyances, affirmations…), nous préférerons adhérer à celle qui correspond à nos certitudes et à nos valeurs générales déjà installées. Spontanément nous cherchons à réduire une « dissonance cognitive » perçue comme déplaisante. Autrement dit encore, nous voulons bien croire ce qui nous arrange, et nous avons tendance à rejeter les arguments qui contredisent notre vision du monde et notamment notre conception du bien et du mal.

On constate ainsi facilement que, face à des réalités négatives comme le terrorisme, une personne ayant des opinions politiques de gauche croira plus facilement à une explication mettant en cause les inégalités sociales (qu'il juge négativement) tandis qu'un partisan de la droite politique préférera mettre en cause l'endoctrinement idéologique ou religieux des auteurs de ces crimes (ce qui lui permet de ne pas mettre en question les discriminations dont sont victimes certains groupes sociaux dans la société actuelle).

Des comportements exceptionnels, des causes générales ?

Dans le cas du terrorisme qui frappe les pays européens, les explications avancées mettent souvent en évidence des « causes » générales pour expliquer des comportements exceptionnels. En effet, seule une très petite minorité d'individus commet (en Europe) des attentats qui, à première vue, semblent incompréhensibles à la plupart d'entre nous. Dès lors, le recours à des éléments d'explication plus généraux permet de donner un sens à ces comportements exceptionnels. L'argumentation repose cependant sur un raisonnement implicite qu'on pourrait qualifier de « passage à la limite » et qui est à peu près le suivant : le facteur envisagé — discrimination, endoctrinement, échec social, conflit culturel, influence des médias… — agit de façon plus ou moins marquée sur un large groupe d'individus et en fait basculer quelques-uns dans des comportements exceptionnels. Métaphoriquement, on aurait l'image d'une « pression » sociale de plus en plus forte qui à l'extrême limite provoque « l'éclatement » individuel. Autrement dit, en diminuant la « pression », le risque de comportements extrêmes diminuerait. De façon corollaire, on suppose souvent qu'une « sensibilité » particulière — par exemple à l'injustice ou à la discrimination — expliquerait que le même facteur produise des effets différents selon les individus et, dans certains cas, des comportements exceptionnels.

Ce raisonnement n'est pas nécessairement faux mais l'explication reste évidemment très vague. Dès lors, rien ne prouve qu'en agissant sur les causes générales supposées, on obtienne le résultat escompté (la diminution des actes terroristes). Comme on ne possède que peu de statistiques sur ces terroristes qui sont en très petit nombre [84], il est en effet difficile de mesurer véritablement le poids des différents facteurs envisagés. Pour expliquer des comportements exceptionnels et en particulier le basculement dans la violence — être pauvre, être discriminé, être fanatique, être révolté, aimer les jeux vidéos guerriers… n'implique pas le passage à l'acte violent —, il semble donc nécessaire de prendre en considération une multiplicité de facteurs pour comprendre de tels parcours individuels [85].

Du côté des sciences humaines ?

Les sciences humaines disent-elles la vérité des choses ? On a suffisamment insisté sur l'aspect polémique de ces savoirs pour comprendre que la réponse à une telle question ne peut être — dans l'absolu — que négative. Mais l'on a aussi souligné qu'il existe des points d'accord importants dans ces travaux qui nous permettent en tant que profanes de leur accorder un large crédit. Cette confiance n'est évidemment pas absolue, mais, sur un certain nombre de questions, l'accord est suffisamment large pour que l'on puisse parler d'une vraisemblance proche de la vérité : comme on l'a dit, le travail des historiens doit raisonnablement nous convaincre qu'il a bien existé des chambres à gaz à Auschwitz et dans les autres camps d'extermination nazis situés en Pologne. Mais une telle confiance implique une connaissance minimale des travaux en sciences humaines ou en histoire.

On en donnera un autre exemple avec les attentats du 11 septembre 2001 aux États-Unis.

Les attentats du 11 septembre 2001

Les attentats du 11 septembre 2001 ont donné lieu rapidement à des soupçons de manipulation débouchant implicitement sur l'accusation de mensonge et de complot. Cette démarche complotiste a deux caractéristiques essentielles. D'une part, elle s'appuie sur une série de détails « troublants » qui sont censés révéler une « face cachée » des choses et dont l'accumulation est censée prouver un complot ; même si des contradicteurs expliquent de façon rationnelle l'un ou l'autre détail (comme le fait que l'impact des ailes de l'avion qui s'est écrasé sur le Pentagone n'est pas clairement visible), les complotistes trouvent de nouveaux détails qui prouvent selon eux que la version officielle est mensongère. D'autre part, les auteurs du complot ne sont pas explicitement désignés, même si l'on suggère qu'il s'agit du gouvernement américain et des services secrets comme la CIA ; l'implication du gouvernement israélien et de ses services secrets est également évoquée ou suggérée dans certains cas.

Les contradicteurs des complotistes ont généralement essayé de répondre à leurs soupçons en avançant des arguments scientifiques expliquant l'effondrement des tours du World Trade Center sous l'impact des avions qui les ont percutées et des incendies qu'ils ont provoqués. À chaque argument conspirationniste, ils ont apporté (ou essayé d'apporter) des contre-arguments visant à montrer l'inanité des soupçons à l'égard de la thèse officielle. On ne reprendra pas ici l'ensemble de ces contre-arguments [86] qui portent sur des faits ou des éléments précis, et l'on essaiera plutôt de montrer, grâce à l'apport des sciences humaines — histoire, sociologie, politologie et même psychologie —, pourquoi la thèse du complot est sinon fausse (ce qui est pratiquement indémontrable), du moins hautement invraisemblable.

La CIA et autres services secrets

S'il y a complot, les responsables désignés le plus généralement en seraient les services secrets américains et la CIA en particulier. Mais rien n'est dit de cette agence qui est simplement évoquée comme une puissance malfaisante et secrète. Il s'agit pourtant d'une institution gouvernementale qui est soumise à des réglementations et à différents contrôles notamment de deux commissions du Congrès. Les axes de son action sont bien connus et sont le résultat d'une histoire largement documentée. La CIA est une agence chargée d'abord et avant tout de récolter des renseignements (notamment par l'espionnage) à travers le monde entier en particulier sur les activités jugées néfastes ou hostiles pour les États-Unis. C'est dans le climat de la Guerre froide que l'agence a été fondée en 1947 pour contrer la puissance de l'URSS et l'expansion du communisme dans de nombreux autres pays. Contrairement au FBI dont les activités se limitent au territoire américain, l'action de la CIA vise d'abord et avant tout les pays étrangers et concerne essentiellement le renseignement (sous toutes ses formes, politiques bien sûr mais également économiques si les intérêts stratégiques des États-Unis sont éventuellement concernés) : les « actions » clandestines souvent évoquées (notamment au cinéma) ne représentent qu'une partie minime de ses activités. Ces opérations clandestines sont soumises à de nombreuses réglementations (comme l'Intelligence Authorization Act [87]) suite notamment à différents scandales (le Watergate mais aussi l'Irangate). Le nombre d'employés de la CIA est secret mais il monte sans doute à plusieurs dizaines de milliers de personnes ; à ce chiffre, il faut ajouter toutes les personnes qui sont recrutées de façon temporaire ou partielle et dont le chiffre dépasserait la centaine de milliers. Son budget en 2013 s'élève à près de quinze milliards de dollars [88]. D'autres agences existent, comme la NSA chargée de la surveillance et du renseignement électromagnétique, qui disposent de moyens et de budgets tout aussi considérables.

Ces informations, même sommaires, suffisent à montrer qu'il y a de multiples limites à l'action de la CIA comme des autres agences, qui rendent peu vraisemblable sinon invraisemblable un complot en leur sein pour mener les attentats du 11 septembre. Il y a d'abord des limites juridiques et institutionnelles : un tel complot aurait contrevenu totalement aux missions de la CIA dont la mission principale est la collecte du renseignement et surtout dont l'action doit porter sur les pays étrangers. Or l'action de la CIA avait déjà été limitée à plusieurs reprises, et un tel complot aurait évidemment constitué une infraction grave, lourdement punissable.

Il faut en outre considérer la personnalité des agents de la CIA. Ce sont pour la plupart des employés qui en principe parlent plusieurs langues et dont le travail se fait essentiellement dans un bureau : ils lisent, traduisent, collectent des renseignements de toutes sortes, font des rapports qu'ils transmettent à leurs supérieurs. On peut raisonnablement supposer que leurs motivations sont financières mais aussi souvent patriotiques : ils entendent servir leur pays, sa sécurité et sa défense. Si l'on considère sociologiquement et psychologiquement ces agents, il paraît invraisemblable qu'ils envisagent un tel complot illégal, destiné à tuer des milliers d'Américains, à détruire un des symboles de la réussite de leur pays et à paralyser pendant plusieurs jours l'ensemble des États-Unis. Quels motifs auraient été assez puissants pour amener des patriotes à tuer leurs propres concitoyens ? La CIA a certainement assassiné ou fait assassiner des personnes jugées hostiles ou participé à de tels assassinats (notamment en soutenant des coups d'États militaires dans des pays comme le Chili ou l'Argentine), mais ces assassinats plus ou moins largement documentés (et en nombre limité, au moins directement) ont toujours visé des « ennemis » (des États-Unis ou de leurs alliés) dans des pays étrangers. En quoi un tel complot sur le sol américain pouvait-il servir la cause des États-Unis ? On remarquera d'ailleurs que ces attentats ont entraîné une mise en cause des agences de renseignements non pas parce qu'elles y auraient été impliquées mais parce que leur mission principale était précisément de prévenir ce genre d'événements !

La réponse possible à cette objection raisonnable est que les responsables auraient fait partie d'une cellule restreinte, composée sans doute de fanatiques prêts à tout pour atteindre leurs objectifs (même si ceux-ci restent pour le moins nébuleux). L'ampleur du complot rend pourtant très improbable une telle hypothèse : il aurait fallu contacter au moins une vingtaine de terroristes et des dizaines de complices, les convaincre de fomenter pendant plusieurs mois un tel attentat, les amener enfin à se précipiter avec des avions détournés contre les tours du World Trade Center et contre le Pentagone. Si l'on prend en compte les hypothèses complémentaires [89] des complotistes qui parlent d'explosifs destinés à faire sauter les bases des tours et le Pentagone, on peut penser que ce sont des dizaines sinon des centaines d'agents secrets qui auraient été impliqués de près ou de loin dans ces attentats. Or aucun agent d'un quelconque service secret n'a jamais avoué une telle participation ; aucun n'a non plus soupçonné certains collègues d'une telle action ou d'une participation à une telle action.

Si l'on considère à présent les complots effectifs de la CIA, on constate qu'un grand nombre d'entre eux ont été découverts et que des pratiques illégales de la CIA d'une bien moindre gravité ont été justement dénoncées (comme l'espionnage de citoyens américains sur le sol des États-Unis [90]). On rappellera par exemple la participation de la CIA au renversement de Mossadegh en Iran en 1953, la démission forcée (sous la pression de l'armée) du président du Guatemala Jacobo Árbenz en 1954, la tentative ratée de militants anti-castristes à Cuba dans la baie des Cochons en 1961, les multiples tentatives d'assassinat de Fidel Castro, le soutien aux moudjahidines afghans contre l'occupation soviétique (dans les années 1980)… Les faits sont suffisamment documentés même s'il reste certainement des zones d'ombre [91]. On rappellera surtout l'affaire Iran-Contra [92], un trafic d'armes à destination de l'Iran (pays pourtant jugé hostile [93]) dont l'argent a servi à financer les Contras, une guérilla anticommuniste contre le gouvernement du Nicaragua alors que le Congrès américain avait interdit une telle aide : ce scandale entraînera la mise sur pied d'une Commission gouvernementale pour étudier les responsabilités et provoquera une enquête du Congrès. Cette affaire nuira à la popularité du président Reagan et débouchera sur des condamnations (même si les coupables seront pour la plupart « pardonnés » par le président suivant George H. W. Bush). Ces quelques exemples montrent que les actions de la CIA n'échappent pas aux révélations ni au contrôle du gouvernement et du Congrès. Et surtout, les hypothétiques responsables d'une « cellule » au sein de la CIA ne pouvaient pas méconnaître les risques qu'ils encouraient, ni surtout l'importance du risque d'un tel complot sur le sol même des États-Unis : de nouveau, quels motifs auraient été assez puissants pour pousser des agents même fanatiques à prendre le risque d'une condamnation aussi grave, en sachant notamment le nombre de personnes nécessairement impliquées ?

Le gouvernement américain

Si, à présent, l'on désigne le gouvernement américain, le président et ses proches, comme les commanditaires possibles d'un tel attentat, comment envisager qu'ils aient pu envisager une telle conspiration étant donné les risques énormes de sa découverte, vu le nombre de personnes nécessairement impliquées, notamment au niveau subalterne ? Quel homme politique américain ne se souvient pas du scandale du Watergate qui a contraint le président Nixon à la démission en 1974 alors qu'il s'agissait d'une affaire sans aucune commune mesure [94] avec les attentats du 11 septembre ? Comment les membres d'un gouvernement auraient-ils pu prendre un tel risque et surtout pour quel profit ?

Si on analyse politiquement l'ensemble de la présidence de George W. Bush, on constate que sa présidence de tendance républicaine (de « droite » selon la terminologie ordinaire) n'a pas modifié de manière profonde ni fondamentale les institutions américaines. Même le Patriot Act, décrété dans la foulée des attentats et grandement critiqué par les défenseurs des libertés, ne peut être considéré comme une transformation profonde de la démocratie américaine. Et George W. Bush ne s'est évidemment pas transformé en « dictateur fasciste » puisqu'il a cédé la présidence à Barack Obama en 2008. Historiquement, les attentats du 11 septembre apparaissent donc comme un accident imprévu dans la présidence de Bush qui les a utilisés comme un prétexte pour envahir l'Irak (on y reviendra), mais politiquement, il n'y avait aucune justification rationnelle à provoquer dans le chef du gouvernement américain de tels attentats.

Al Qaïda

De l'autre côté, on peut s'interroger sur les motivations des terroristes : très peu de personnes [95] nient en effet que des avions ont bien été détournés par des membres d'Al-Qaïda et que ces attentats ont été revendiqués par ben Laden [96]. La question est alors de comprendre comment ces terroristes auraient pu être manipulés par les services secrets américains au point de les convaincre de se lancer dans une opération meurtrière et suicidaire ? La manipulation est un phénomène bien étudié en psychologie sociale. De façon résumée, on peut dire qu'il s'agit très souvent d'un processus d'engagement [97] qu'on observe notamment dans les mouvements sectaires mais aussi dans la vie quotidienne et qui consiste à amener les individus à prendre une « petite » décision en faveur d'une cause quelconque : cette première décision « engage » psychologiquement l'individu qui aura tendance (inconsciemment) à agir dans le même sens quand on lui demandera de prendre une décision plus importante pour la même cause. Dans les sectes (qui imposent une coupure progressive entre l'individu et son entourage habituel), les leaders construisent un parcours progressif pour amener les adeptes à s'engager de façon de plus en plus intense en faveur de la « cause » en leur faisant entrevoir une étape suprême de révélation, d'accomplissement, de Vérité, de béatitude : c'est ainsi que certains gourous ont pu conduire tous les membres de leur secte jusqu'au suicide collectif [98]. C'est vraisemblablement un tel parcours qui a été suivi par les terroristes du 11 septembre qui ont été amenés par ben Laden (ou ses adjoints comme Khalid Cheikh Mohammed) à s'engager de plus en plus profondément en faveur de la cause jusqu'à accepter une mission suicide. Mais il paraît évidemment invraisemblable que des services secrets américains puissent opérer une telle manipulation en trompant de manière aussi importante les adeptes sur les véritables objectifs de leur action : la conviction personnelle du leader fait partie de son charisme et constitue un élément essentiel du processus d'engagement sectaire.

La personnalité de ben Laden a donc joué un rôle essentiel, et son histoire éclaire son cheminement et la haine de plus en plus intense qu'il a ressentie à l'égard des États-Unis mais qui n'a pas été perçue en Occident frappé de stupeur par ces attentats totalement imprévus. On a souvent présenté ben Laden comme un « agent » de la CIA, ce qui est sans doute inexact. Oussama ben Laden, issu d'une riche famille saoudienne, va s'engager au début des années 1980 avec d'autres volontaires saoudiens dans la lutte contre l'occupant soviétique en Afghanistan : les États-Unis, pour qui l'Union Soviétique est alors l'ennemi principal, apportent leur soutien clandestin à différents groupes combattants qui sont tous musulmans. Oussama ben Laden, issu d'un pays qui pratique un Islam particulièrement rigoriste et traditionnaliste (le wahhabisme), va se rapprocher des mouvements les plus radicaux (les Talibans). Il s'agit pour lui de mener le djihad, une guerre sainte, contre l'occupant athée. Le retrait des troupes soviétiques d'Afghanistan en 1989 le convaincra certainement que la lutte (armée) du faible (les moudjahidines) contre le fort (l'empire soviétique) peut être victorieuse si la foi des combattants est suffisante. L'intervention de moudjahidines venus de l'étranger (notamment d'Arabie Saoudite) le persuade également que la lutte qu'il mène a une dimension internationale et dépasse le cadre de l'Afghanistan. Dans ce combat, l'aide américaine dont il a pu bénéficier n'était dès lors qu'un moyen au service de la cause religieuse.

Dans cette perspective, la rupture avec les États-Unis, seule puissance mondiale après l'effondrement du régime soviétique en 1991, s'explique facilement. Revenu en héros en Arabie Saoudite, il doit constater l'influence grandissante des États-Unis dans le royaume où d'importantes troupes américaines (composées de « mécréants ») vont stationner lors de la Guerre du Golfe (1990-1991). Il rompra progressivement avec la monarchie saoudienne, qui est un allié privilégié mais subordonné des États-Unis (face notamment à l'Iran chiite), et il se réfugiera d'abord au Soudan, apportant alors un soutien (financier certainement) aux moudjahidines revenus d'Afghanistan. La présence américaine grandissante au Proche-Orient et en Afrique du Nord (avec notamment l'intervention ratée en Somalie en 1993, Restore Hope, qui montre la faiblesse militaire américaine), l'alliance inébranlable avec Israël, le soutien à des régimes perçus comme corrompus comme l'Égypte font certainement à ses yeux des États-Unis « l'ennemi » principal contre lequel la lutte doit être armée (comme ce fut le cas en Afghanistan). Un premier attentat contre le World Trade Center en 1993 fait six morts et est sans doute inspiré par Al-Qaïda que dirige ben Laden depuis 1989. En février 1998, il lance un appel à la guerre contre les intérêts américains partout dans le monde, et le 7 août de la même année, un attentat contre les ambassades américaines en Tanzanie et au Kenya fait 213 morts (dont huit Américains). Pour les Américains, il ne fait pas de doute que ben Laden en est le responsable et ils mettent sa tête à prix. Suite à la victoire des Talibans en Afghanistan contre les autres factions (en 1996), ben Laden retourne dans le pays où il organise de nombreux camps d'entraînement pour les moudjahidines arabes. En août 1998, des navires américains tirent 75 missiles de croisière sur plusieurs de ces camps d'entraînement en représailles aux attentats contre les ambassades américaines. La guerre est alors ouverte entre Al-Qaïda et les États-Unis. Un attentat suicide contre un navire de guerre américain, l'USS Cole, en octobre 2000 dans le port d'Aden au Yémen constituera une des premières répliques d'Al-Qaïda.

L'escalade dans la lutte violente est donc facilement compréhensible, même si sa gravité n'a généralement pas été perçue dans l'opinion publique occidentale. Mais toute l'histoire de ben Laden explique le « climat de guerre » avec les États-Unis et rend tout à fait vraisemblable sa responsabilité dans la conception et l'organisation (avec ses subordonnés) des attentats du 11 septembre qui ont évidemment constitué le sommet de cette escalade guerrière.

Les mensonges du gouvernement américain

Tout cela signifie-t-il qu'il n'y a pas eu de mensonges de la part du gouvernement américain ? Évidemment non, mais l'histoire brièvement retracée suffit à montrer que le principal mensonge du gouvernement américain concerne l'invasion de l'Irak déclenchée en mars 2003 après les attentats du 11 septembre. Les États-Unis envahiront l'Afghanistan dès le mois d'octobre 2001 : il s'agit de chasser les Talibans au pouvoir et d'arrêter ben Laden. Le pays en lui-même, très pauvre, présente peu d'intérêt économique ou stratégique : pour les Américains comme pour leurs alliés occidentaux, cette guerre en principe rapide se transformera d'ailleurs en une guerre d'usure contre la guérilla des Talibans. Mais en 2002, le gouvernement américain accuse l'Irak dirigé par Saddam Hussein de soutenir le terrorisme islamiste et de détenir des armes de destruction massive : dès ce moment, les observateurs informés considèrent qu'il s'agit là de contre-vérités sinon de mensonges. Le gouvernement américain comme le Sénat devront reconnaître par la suite que les deux accusations étaient fausses. Mais, dans l'émotion qui a suivi le 11 septembre, très peu de personnes aux États-Unis [99] ont mis en doute ces affirmations, et la plus grande partie de l'opinion publique américaine a été trompée. Les attentats du 11 septembre ont donc bien été utilisés comme un prétexte pour mener une guerre qui avait d'autres objectifs que « la lutte contre le terrorisme » : il s'agissait bien plus certainement pour le gouvernement de George W. Bush d'établir au Moyen Orient un régime « ami » qui permettrait d'assurer la présence américaine dans une région considérée comme stratégique (notamment à cause de ses ressources pétrolières). Comme en Afghanistan, l'on peut d'ailleurs considérer que cette guerre a été un échec pour les États-Unis qui ont sans doute contribué à plonger toute la région dans le chaos.

Il faut encore signaler que, dans la « guerre contre le terrorisme », les États-Unis ont recouru à des méthodes tout à fait condamnables, évidemment contraires aux Droits de l'Homme qu'ils prétendent respecter. On rappellera en particulier l'existence des prisons secrètes de la CIA où des détenus soupçonnés de terrorisme ont été enfermés et transférés de façon tout illégale avec la complicité de pays « amis » (entre 2002 et 2009). L'utilisation de la torture y a été également confirmée. C'est l'ONG Amnesty International qui, la première en 2005, a révélé des indices concordants de l'existence de ces prisons secrètes (black sites en anglais), avant que le Washington Post les dénonce publiquement à la fin de la même année. Le président Bush a dû finalement en reconnaître l'existence en septembre 2006. Ces faits hautement condamnables doivent être rappelés car ils montrent bien que les opérations secrètes de la CIA (ou d'autres services) résistent peu au travail d'investigation des journalistes et des organisations non-gouvernementales. Mais encore une fois, aucune révélation de cette nature n'a été faite concernant les attentats du 11 septembre.

Le rasoir d'Ockham

Les analyses proposées ici, bien que sommaires, sont à la fois historiques, sociologiques, politiques et psychologiques. Il s'agissait de reconstruire la chronologie des événements, de comprendre le fonctionnement des institutions américaines (notamment la CIA), de préciser le système politique aux États-Unis (en particulier son gouvernement), sa logique et ses objectifs, de reconstituer enfin les prises de décision et la mentalité des principaux acteurs en présence (les États-Unis / Al Qaïda). Ces analyses ne comportent pas de révélation sur des motifs cachés ou ténébreux, mais elles tiennent compte de l'ensemble des éléments factuels dont nous disposons et en donnent une interprétation d'ensemble cohérente. On a signalé à plusieurs reprises que ceux qui dénoncent un complot sont obligés de multiplier les interprétations extrêmement hypothétiques (ce ne serait pas un avion qui aurait percuté le Pentagone, malgré les multiples témoins oculaires qui l'attestent), de plus en plus fragiles et extravagantes (ce ne seraient pas des avions de ligne qui auraient percuté les tours, mais des avions militaires déguisés) et surtout incapables de rendre compte de tous les éléments de la situation, en particulier des motivations des principaux responsables du gouvernement américain et d'Al-Qaïda : un tel complot aurait supposé une incroyable prise de risque aussi bien de la part des agents de la CIA éventuellement impliqués que des membres du gouvernement sans que l'on puisse surtout comprendre quels objectifs rationnels les uns et les autres auraient pu poursuivre. Quant à ben Laden, transformé dans un tel scénario en une simple marionnette de la CIA, et aux terroristes qui sont morts en commettant ces attentats, leurs motivations apparaissent comme complètement absurdes.

L'ensemble de l'interprétation que l'on propose ici obéit au principe d'explication générale qu'on désigne comme le rasoir d'Ockham (écrit parfois Occam) et qu'on peut énoncer simplement ainsi: les hypothèses les plus simples, lorsqu'elles sont suffisantes à l'explication des faits sont les plus vraisemblables. Ces hypothèses simples doivent être préférées à des explications plus compliquées, faisant appel à des entités multiples non attestées directement par l'expérience (comme un avion militaire déguisé en avion civil). Le « rasoir d'Ockham » ne prétend pas que l'interprétation la plus simple est nécessairement vraie mais qu'elle est la plus vraisemblable. C'est le principe d'une démarche scientifique qui ne prétend pas détenir la vérité mais qui formule des hypothèses raisonnables jusqu'à preuve du contraire.

5. Un monde médiatique

Sciences et sciences humaines, dont les limites sont d'ailleurs floues, ne constituent qu'une toute petite part des informations qui nous parviennent via les médias, même si ces savoirs perçus sous la forme idéalisée de la Science porteuse de Vérité permettent notamment de légitimer un grand nombre de discours demi-savants ou de vulgarisation. Par discours demi-savants, l'on entend toutes sortes de textes qui adoptent certaines formes de la science (ou des sciences) comme les références à de supposées autorités scientifiques (tel ou tel professeur d'un institut de recherche prestigieux…), l'argumentation rationnelle ou encore l'appel à des faits d'expérience, mais qui ne répondent que partiellement aux critères scientifiques, notamment les plus stricts. Bien entendu, les limites entre les discours savants et demi-savants sont floues et font d'ailleurs l'objet de disputes [100]. Pour prendre un exemple peu polémique, un historien amateur peut faire un travail d'histoire local sérieux mais qui présente des lacunes aux yeux des historiens professionnels (par exemple, une distinction insuffisante entre les « faits » effectivement attestés par des documents et des « faits » reposant sur de rares témoignages ou tout simplement extrapolés). L'absence de relecture par les pairs rend donc un tel travail hypothétique aux yeux des profanes qui n'ont pas les compétences pour repérer des erreurs ou simplement des faiblesses historiques. Mais cela n'invalide pas par principe ce travail. Les polémiques sont en revanche beaucoup plus vives en ce qui concerne les « pseudo-sciences », c'est-à-dire des discours dont les affirmations s'appuient en apparence sur des arguments scientifiques mais sont contestées par un grand nombre de scientifiques [101] : l'unanimité est cependant rare au sein du monde scientifique (même restreint au monde académique), et l'accusation de « pseudo-sciences » est facilement retournée aux accusateurs… [102]. Encore une fois, la confiance des profanes à l'un ou l'autre discours relèvera beaucoup plus de la croyance que de l'argumentation rationnelle : il n'est sans doute pas possible pour les profanes que nous sommes (à moins de devenir nous-mêmes des savants) de trancher dans de tels conflits, mais seulement de prendre conscience de l'incertitude qui règne sur ces questions [103].

Mais les médias transmettent une grande masse d'informations qui ne se réfèrent pas (sinon de façon extrêmement indirecte) aux discours scientifiques. Un journaliste qui rapporte un fait divers n'a évidemment pas besoin de la caution de la Science pour soutenir la vérité de ses propos. Quelle confiance pouvons-nous alors accorder à ce genre d'informations ? Faut-il avoir une attitude sceptique, critique ou carrément négative ? Des distinctions relativement simples et déjà évoquées, comme celle entre les faits, les interprétations et les jugements de valeur peuvent sans doute nous guider en la matière. La connaissance sociale des médias permet également d'évaluer la confiance éventuelle que l'on peut leur accorder.

Internet a évidemment multiplié les sources d'information ou plus exactement les producteurs d'informations au sens le plus large du terme, qu'il s'agisse de simples opinions, de comptes rendus factuels, ou d'analyses de toutes sortes. Ces informations (du moins dans les pays où règne la liberté de presse et d'opinion) ne sont soumises qu'à un faible contrôle qui vise notamment à interdire l'injure, la calomnie, la diffamation ou encore le racisme ou la xénophobie. Toutes les opinions même les plus minoritaires s'expriment sur Internet, les analyses les plus diverses et parfois les plus folles s'y trouvent, et les fausses nouvelles, désormais nommées fake news, y pullulent. Il est donc très difficile d'évaluer la fiabilité de toutes ces sources d'information, notamment sur ce qu'on appelle les réseaux sociaux (comme Twitter ou FaceBook).

En fait, seuls les grands sites d'information, qui emploient des équipes de rédaction importantes (l'on pense à des journaux comme Le Soir ou La Libre en Belgique, Le Monde, Le Figaro, Libération, Mediapart, les Inrocks en France, le New York Times ou le Washington Post aux États-Unis, à des télévisions comme TF1, A2, FR3, Arte en France, la RTBF ou RTL en Belgique), peuvent être considérés comme relativement fiables dans la mesure où ces différents sites exercent un contrôle réciproque sur les informations que les uns et les autres diffusent. Ce contrôle concerne bien sûr les faits rapportés, mais non leur interprétation ni leur évaluation qui varient grandement selon les opinions des uns et des autres, et il ne permet pas d'éviter systématiquement les erreurs et parfois les manipulations. On cite ainsi fréquemment l'exemple du charnier de Timișoara dont les cadavres ont été faussement présentés en décembre 1989 comme des victimes de la répression sanglante de la dictature communiste de Nicolae Ceaușescu (alors qu'il s'agissait de corps d'indigents naturellement décédés avant l'insurrection qui allait conduire à la chute du régime) [104]. Les grands médias français (et sans doute internationaux) se sont trompés ou ont été trompés, étant à la fois victimes et complices d'un phénomène d'emballement [105] les amenant à surenchérir sur le nombre de morts et la cruauté supposée du régime. Néanmoins, la manipulation a été dévoilée dès la fin du mois suivant par le journal Le Figaro (pourtant très anticommuniste) et reconnue par l'ensemble des médias. Si l'emballement médiatique était évidemment condamnable, la fausseté des faits n'a pas pu résister au contrôle général que les grands organes de presse ou de télévision exercent les uns sur les autres.

La manipulation [106] peut également être le fait du pouvoir politique utilisant les médias comme des instruments de propagande. L'exemple tristement célèbre d'un tel mensonge d'État (on devrait parler plus largement d'une campagne de désinformation) est celui des « armes de destruction massive » qu'aurait possédées le régime irakien de Saddam Hussein et qui ont « justifié » l'intervention américaine dans ce pays en mars 2003 : le secrétaire d'État Colin Powell a en particulier prononcé en février 2003 un discours devant le Conseil de Sécurité de l'ONU pour « démontrer » l'existence de ces armes. Une journaliste américaine, Judith Miller du New York Times, avait, quant à elle, précédemment publié plusieurs articles de presse pour « prouver » l'existence de ces armes dès septembre 2002. Si l'opinion publique américaine a été largement abusée par ces mensonges (même si des voix minoritaires ont essayé de se faire entendre), ce n'est sans doute pas le cas dans de nombreux pays européens en particulier en France dont le Ministre des Affaires étrangères Dominique de Villepin prononcera à son tour un discours au Conseil des Nations Unies pour s'opposer à l'intervention américaine en Irak. Après la guerre, le président Bush devra d'ailleurs mettre sur pied une commission d'enquête qui conclura à l'inexistence de ces armes. Quant à Judith Miller, elle sera finalement licenciée [107] en novembre 2005 par le New York Times qui reconnaîtra tardivement, en octobre 2005, que « la plupart de ses articles » sur les armes de destruction massive « étaient inexacts ».

Les journalistes ne sont donc pas à l'abri de l'erreur, du mensonge et de la manipulation. La légende dorée des grands journalistes d'investigation comme Albert Londres ou du « quatrième pouvoir, pilier indispensable de la démocratie », ne doit pas masquer une réalité beaucoup plus prosaïque, mais elle ne doit pas non plus céder la place à la légende noire des médias menteurs. Il existe bien un contrôle mutuel entre les grands organes d'information qui permet l'établissement des « faits » de manière fiable, même si certaines contre-vérités ont pu être propagées parfois pendant plusieurs mois.

Bien entendu, la vérité des faits rapportés ne signifie pas que les journalistes ni les grands sites d'information soient « objectifs », « neutres » et « impartiaux » : la sélection même des faits suffit à orienter le point de vue — celui du rédacteur comme du lecteur —, et les interprétations et les jugements de valeur qui les accompagnent traduisent très généralement des partis pris et des opinions plus ou moins explicites. Mais la diversité des sites d'information résulte précisément de la diversité de ces options : en France, Le Figaro est considéré comme un journal de droite, Le Monde comme centriste et Libération comme de gauche. Aux États-Unis, la chaîne Fox News est proche du Parti Républicain (et sans doute de sa fraction la plus réactionnaire) alors que CNN reflète plutôt l'opinion du Parti Démocrate, et MSNBC celle de son aile la plus « libérale » (au sens américain du terme) [108]. C'est d'ailleurs à ce niveau que les sites de moins grande diffusion se démarquent le plus clairement de leurs concurrents de plus grande importance : Le Monde diplomatique ou Mediapart sont sans doute préférés par des lecteurs plus « à gauche » que ceux de Libé. Et une foule de sites web moins connus (jusqu'aux blogs individuels) défendent toutes sortes d'opinions « minoritaires » et proposent des interprétations différentes de celles des « grands » médias. Dans certains cas, ces médias peuvent apporter des informations inédites, même si leurs moyens d'investigation sont limités : des réalités sociales largement méconnues comme celles des réfugiés, de leurs conditions de vie et de la répression policière dont ils sont l'objet sont ainsi documentés notamment à travers les réseaux sociaux. Bien entendu, ces sites ne sont pas exempts de partis pris, parfois de manipulation ou de mensonges : les sites d'extrême droite, prétendent ainsi révéler des « vérités » qui seraient cachées par les grands médias (sur les immigrés clandestins, sur les musulmans…).

Tous les grands médias sont « orientés » (même quand ils se targuent d'objectivité ou de neutralité) mais cela ne signifie pas qu'ils mentent : ils sélectionnent les informations qu'ils jugent importantes ou significatives et négligent celles qu'ils jugent peu intéressantes ou dérangeantes [109], ils donnent des interprétations qui, très souvent, traduisent des opinions partisanes, ils défendent des valeurs et des opinions qui peuvent être contestables aux yeux de certains… Et si l'accusation de Fake News à l'égard de certains grands médias est fréquente, elle porte bien plus souvent sur la manière de présenter les faits que sur les faits eux-mêmes, même s'il y a des exceptions. Les fausses nouvelles (au sens strict) éventuellement colportées par de grandes chaînes de télévision ou des grands journaux seront quant à elles dénoncées par les autres grands médias (qui ont bien sûr intérêt à discréditer leurs concurrents) [110].

L'hypothèque économique

Les grands médias, groupes de presse et chaînes de télévision, sont des entreprises qui exigent des moyens considérables, des investissements importants qui doivent être rentabilisés par des revenus tout aussi importants, provenant pour une grande part de la publicité qui est elle-même liée à l'audience. On a d'ailleurs assisté en un demi-siècle à un mouvement important de concentration de la presse écrite dont le nombre de titres dans la plupart des pays européens s'est considérablement réduit. Il faut bien sûr remarquer que le nombre de chaînes de télévision a considérablement augmenté pendant la même période, captant à son profit une part de plus en plus importante du marché publicitaire avant qu'Internet et les plus grands de ses acteurs (Google, Facebook, Twitter) ne s'en emparent.

Cette situation explique que ces grands médias soient souvent accusés de n'être que des entreprises capitalistes au service des « puissants » et même aux ordres de leurs patrons (comme Rupert Murdoch patron de Fox News), répétant la même doxa libérale, pro-américaine ou pro-européenne… Le leader politique de la France Insoumise, Jean-Luc Mélenchon, a ainsi régulièrement dénoncé, parfois en des termes très vifs, le « parti médiatique » décrit comme un « système », une « caste » (de journalistes), une « CIA »… Les grands médias en France (mais sans doute ailleurs aussi) ont alors été accusés d'être des outils de propagande visant à imposer le même point de vue (politique ou idéologique) à l'ensemble de la population : le site Acrimed, qui se veut critique des grands organes de presse et de télévision, est ainsi né à la suite des grandes grèves de 1995 contre le plan du Ministre Juppé, grèves qui ont été majoritairement désapprouvées dans les médias alors que l'opinion publique leur était au contraire favorable [111]. Le même écart a été observé lors du référendum de 2005 sur le Traité constitutionnel européen auquel la plupart des grands médias étaient favorables mais qui a été rejeté par une majorité de Français [112].

Il faudrait certainement réaliser une véritable sociologie des médias pour mesurer la pertinence de ces critiques même si la place nous manque pour un tel travail. Deux ou trois remarques peuvent cependant être faites. Ces critiques se focalisent sur la dimension proprement politique, c'est-à-dire les opinions politiques que laissent transparaître les journalistes notamment à travers les débats, les éditoriaux ou les reportages consacrés à des mouvements sociaux. Même si, selon la formule consacrée, « tout est politique », les informations que diffusent les grands médias dépassent ce cadre et peuvent porter sur des sujets aussi différents que les faits divers [113] ou catastrophes ici et ailleurs, les découvertes scientifiques, les reportages géographiques ou historiques, les événements sportifs ou culturels… Une évaluation purement politique conduit à discréditer de façon générale l'ensemble des informations diffusées par ces médias, ce qui n'est sans doute pas légitime.

Par ailleurs, l'explication purement économique du comportement des journalistes qui seraient les simples exécutants à la solde des grands patrons qui les emploient est sans doute simpliste. D'abord, c'est méconnaître le fonctionnement de ces organes médiatiques qui sont des structures relativement complexes avec des niveaux de pouvoir (comme les comités de rédaction) relativement autonomes. Par exemple, les télévisions publiques ne sont évidemment pas aux ordres d'un ministre ou d'un chef d'État et revendiquent souvent fièrement leur indépendance même si elle n'est certainement pas totale. Ce sont des mécanismes plus complexes qui expliquent sans doute que les journalistes dans ces grands médias expriment (ou trahissent) des opinions politiques qui oscillent généralement entre le centre-gauche et le centre-droit (hostiles en tout cas à l'extrême-gauche et à l'extrême-droite) : par leur formation (qui met l'accent sur une supposée neutralité souvent interprétée comme une forme de centrisme), par leur parcours social, les journalistes dans ces organes (surtout les plus prestigieux d'entre eux) appartiennent vraisemblablement aux fractions intellectuelles de la classe dominante (selon la typologie de Pierre Bourdieu), même si ce sont de « petits » intellectuels éloignés des institutions les plus purement intellectuelles comme les universités. Ceci explique sans doute leur incompréhension (sinon leur hostilité) notamment à l'égard des fractions populaires (en particulier ouvrières) de la population [114].

réseau informatique

Les réseaux informatiques accélèrent la diffusion de l'information mais induisent une concurrence entre les producteurs d'information en quête d'actualité et de « sensationnel »

Enfin, la lecture politique masque des mécanismes sociaux plus complexes et plus subtils, déjà analysés notamment par Bourdieu dans son ouvrage Sur la télévision [115]. Les médias sont soumis à la concurrence du marché médiatique qui repose sur une course à l'audimat ou à l'audience. Sur ce point, on peut parler de causalité circulaire, sans qu'on puisse déterminer si ce sont les médias qui forment ou « déforment » leur public, ou si c'est le public qui, par ses goûts et ses choix, sélectionne les médias ou les productions médiatiques qui lui plaisent, un phénomène que l'on perçoit bien à travers les « émissions à succès » dont le succès est parfois aussi inattendu qu'éphémère. Cette concurrence implique que l'on offre au public des « informations » (au sens le plus large) qui lui plaisent, qui l'intéressent, qui l'interpellent, qui suscitent sa curiosité, ce qu'on résume généralement sous le nom de « sensationnalisme ». Mais l'expression ne doit pas être comprise dans un sens étroit et concerne l'ensemble des informations diffusées par les grands médias : la quantité d'informations disponibles dépasse les capacités de diffusion de ces médias et implique dès lors une nécessaire sélection qui se fait — à travers tous les niveaux de la production médiatique [116] — au nom de « l'intérêt » supposé de l'information effectivement retenue, mais cet intérêt est en réalité celui que l'on essaie de susciter chez le spectateur, lecteur ou auditeur. Dans le domaine scientifique par exemple, les journalistes privilégieront certainement une annonce concernant le caractère cancérogène d'un produit parce que les cancers constituent des maladies extrêmement anxiogènes alors que d'autres pathologies comme le diabète ou les maladies cardio-vasculaires sont tout aussi graves mais ne suscitent pas le même type d'émotions. Plus simple encore, on multiplie les annonces concernant la découverte de planètes éventuellement habitables ou susceptibles de contenir des formes de vie alors que les planètes « invivables » ne suscitent aucun intérêt. Enfin, les limites matérielles des médias d'information — taille des articles de journaux, durée des émissions télévisées… — impliquent que les interprétations et explications des phénomènes exposés soient elles aussi limitées ou, en tout cas nettement moins développées que dans un travail de sciences humaines : ces interprétations ignoreront très généralement les explications multifactorielles et privilégieront des « lectures » en termes de responsabilité ou même de culpabilité des acteurs impliqués. La vision du monde qui en résulte est — au moins tendanciellement — manichéenne, comme en témoigne encore une fois la prédilection de ces médias pour toutes les formes de « scandale » : comme le « sensationnalisme », le « scandale » ne concerne pas seulement une certaine presse mais représente une tendance de fond pour tous les grands médias qui y trouvent une source d'intérêt puissant (sous la forme de l'indignation) pour le lecteur.

Ces différentes tendances — recherche du sensationnalisme ou plus largement de l'information « intéressante », concurrence qui favorise l'homogénéisation des contenus, priorité donnée à l'actualité qui nuit à l'analyse critique, manichéisme et goût du « scandale »… — ne doivent pas masquer cependant des formes de segmentation du marché favorisée notamment par le réseau Internet. Il est clair que la facilité d'accès à ce réseau favorise l'expression d'opinions minoritaires, même si elles n'atteignent pas l'audience des « grands médias » (mais l'on sait aussi que sur Internet, tout est désormais relatif et qu'un YouTubeur populaire peut atteindre des audiences exceptionnelles). Et ces médias « alternatifs » ou « minoritaires » qui entendent se distinguer des médias « dominants » contribuent à renouveler certains débats, mais, n'étant soumis à aucune forme de contrôle, ils proposent des analyses et interprétations « alternatives » [117] et parfois des « faits » supposés qui reposent sur leurs seules convictions. C'est là qu'on trouve notamment des sites « complotistes » voyant les services secrets américains, européens, israéliens, la Franc-Maçonnerie ou d'autres entités obscures à l'œuvre pour diriger le monde et manipuler les opinions publiques crédules. Bien entendu, tous les sites « alternatifs » ne sont pas complotistes même si beaucoup d'entre eux privilégient une lecture manichéenne des faits [118].

Croire les médias ?

Si l'on revient à la question posée au début de ces réflexions — quelles raisons avons-nous de croire à certaines informations, de faire confiance à certaines sources médiatiques ? —, l'on peut avancer de façon raisonnable que les grands médias sont fiables au niveau des faits qu'ils rapportent, même si la concurrence induit une course à l'actualité qui peut conduire parfois à des erreurs. La notion de fait n'est cependant pas absolue, et tout « fait » implique immédiatement une part d'interprétation et surtout s'accompagne très généralement, dans les comptes rendus journalistiques, d'interprétations qui dépassent évidemment le simple niveau des faits : parler de victimes collatérales d'un bombardement signifie que ces victimes n'étaient pas délibérément visées ; titrer sur attentat « terroriste » qualifie immédiatement les auteurs des faits ; évoquer une grève « sauvage » implique qu'elle manquait de « civilité », surtout si l'on ajoute que les usagers ont été pris « en otages »…

Mais l'accord entre les grands médias permet de croire de façon raisonnable aux faits qu'ils rapportent et aux interprétations communes qu'ils en donnent. Ainsi, tous ces médias s'accordent pour rejeter les interprétations complotistes des attentats terroristes qui ont frappé les États-Unis, la France, la Grande-Bretagne et l'Espagne depuis septembre 2001 (et parfois avant) et désignent bien des groupuscules islamistes [119] comme leurs auteurs ou leurs commanditaires. En l'occurrence, des manipulations d'États ou des actions obscures de certains services secrets, comme le soupçonnent les complotistes, impliqueraient de la part des journalistes enquêtant sur ces événements une énorme naïveté ou leur participation volontaire à des mensonges organisés : ceux qui se prêteraient à de tels mensonges risqueraient évidemment de voir leur crédibilité mise en cause quand la vérité se ferait jour (comme ce fut le cas par exemple avec les fausses révélations de Judith Miller sur les armes de destruction massive en Irak). L'histoire montre au contraire que la presse (encore une fois soumise à une concurrence interne) a joué un rôle essentiel dans la révélation de véritables complots comme les multiples interventions de la CIA à l'étranger contre des gouvernements jugés hostiles (en Iran en 1953, au Guatemala en 1954, au Chili en 1973…). Ces révélations ont pu prendre du temps, ne serait-ce que pour l'établissement des preuves, mais l'affaire du Watergate, les révélations des Pentagon Papers, de Wikileaks , des Panama Papers n'auraient pas été rendues possibles sans une presse indépendante [120] et soumise à une concurrence interne (entre organes de presse). Même la recherche du scoop, de l'information « sensationnelle », qu'on a évoquée, peut être à la source de certaines formes de journalisme d'investigation qui n'hésitent pas à mettre en cause des autorités étatiques (politiques, judiciaires, administratives), des lobbies économiques, des firmes aux pratiques douteuses, des industries polluantes ou esclavagistes, des collusions entre hommes ou femmes politiques et des sociétés puissantes… [121]

Mais, comme on l'a indiqué, les « faits » sont soumis à une forte sélection, qui diffère selon les grands organes médiatiques : certains journaux se cantonnent aux faits divers ou bien aux actualités sportives, d'autres abordent les réalités sociales ou traitent de la politique internationale, certains se contentent de rapporter brièvement les événements, d'autres procèdent à des enquêtes fouillées… Ces sélections différentes reflètent sans aucun doute des options idéologiques diverses et souvent opposées. Et on l'a déjà souligné, le « sensationnalisme » (sous des formes mineures [122] ou majeures) joue dans cette sélection un rôle essentiel : les faits rapportés sont sans doute exacts, mais la représentation du monde que donnent ces grands médias ne peut pas être qualifiée d'objective et reflète des options idéologiques et des partis pris de toutes sortes.

On ajoutera, et c'est sans doute très important, que beaucoup de faits sont mal connus et échappent à l'investigation journalistique pour des raisons multiples : il est évidemment difficile d'enquêter dans un pays en guerre ou soumis à un régime dictatorial. Dans de telles situations, les informations sont partielles, souvent partiales et soumises à de multiples manipulations.

L'on doit donc être conscient de ces limites inhérentes à l'information journalistique, même si l'on s'en tient seulement au niveau des faits rapportés. La manière de présenter les « faits » révèle en outre des partis pris qui s'expriment également à travers des interprétations et des évaluations en termes moraux, politiques, éthiques ou même esthétiques (dans le cas du compte rendu d'une exposition d'art ou d'un festival de cinéma) qui sont proposées de ces faits. Bien entendu, un tel questionnement dépendra pour une large part de nos propres partis pris idéologiques ou autres : un défenseur des services publics n'appréciera guère les interviews des usagers « pris en otage »… Et l'on rappellera que, s'il y a accord sur les « faits » entre les grands médias et sur un certain nombre d'interprétations, les avis sont très souvent divergents, et les polémiques fréquentes au niveau des analyses des faits : les accusations de « conformisme », de « pensée unique », sinon de « propagande » [123], ne peuvent masquer les différences d'opinions et de points de vue au sein de ces grands médias (comme on peut le voir par exemple avec le conflit israélo-palestinien ou les débats sur l'industrie nucléaire en France).

C'est d'ailleurs au niveau des interprétations et des évaluations que les médias « minoritaires » chercheront généralement à marquer leur différence [124]. Mais les fortes convictions idéologiques des animateurs de ces médias favorisent certainement les interprétations unilatérales, souvent sommaires et dogmatiques, masquant très généralement leur caractère hypothétique : la « théorie » du grand remplacement des populations européennes par des immigrés (essentiellement venus d'Afrique), conçu comme « un projet politique organisé délibérément par les élites politiques, intellectuelles et médiatiques » est largement propagée par les sites d'extrême-droite (ou d'une droite radicale…) mais est très fragile et relève sans doute largement du phantasme [125]. Sur les sites d'extrême-gauche, l'explication strictement économiste de la politique étrangère des États-Unis — « la guerre en Irak visait à mettre la main sur les ressources pétrolières du pays » — se révèle à l'analyse rapidement réductrice [126].

Bien entendu, toutes les informations ne sont pas de nature politique et peuvent porter sur des sujets aussi différents que l'histoire, l'environnement, la santé, l'éducation, l'écologie, les techniques, la psychologie, le bien-être, la cuisine et d'autres choses encore : si une méfiance systématique serait absurde, une confiance absolue le serait tout autant. Seules des analyses de cas pourraient sans doute établir le crédit que l'on peut accorder à l'un ou l'autre site, ou à l'un ou l'autre article, à l'une ou l'autre analyse, interprétation ou simple affirmation.

Outre les conseils habituels (se méfier des arguments d'autorité, vérifier les sources, considérer avec un minimum de distance les informations « scandaleuses » ou « sensationnelles », être conscient de ses propres préjugés et partis pris, confronter les interprétations et les opinions…), on soulignera que s'informer — comme simple lecteur ou spectateur — implique un travail et donc des efforts. On l'a déjà remarqué pour le domaine scientifique (sciences pures comme sciences humaines), mais cela vaut aussi pour l'ensemble des autres informations médiatiques. Pour connaître et comprendre un événement, il faut très généralement multiplier les sources d'information, éventuellement rechercher des sources moins faciles d'accès [127], confronter ces sources, consulter des informations (par exemple sous forme d'enquêtes) qui peuvent être extrêmement longues et fastidieuses, faire enfin des évaluations de la vraisemblance plus ou moins grande de toutes ces informations… Même si, encore une fois, il ne s'agit pas au sens strict de vérifier les informations (ce qui nous est très souvent matériellement impossible), trouver des sources fiables prend du temps et de l'énergie (au moins mentale…). L'on comprend que, dans un grand nombre de cas, nous nous contentions d'une information minimale, trouvée sur un journal ou un site dont nous sommes familiers, sans faire de recherche plus approfondie, si ce n'est en cas de polémique visible. Et nous aurons bien sûr tendance à donner notre adhésion aux informations qui confirment nos propres certitudes et nos propres croyances (selon le biais de confirmation bien connu).

De façon plus sociologique [128], seuls les « intellectuels » (petits ou grands) ont sans doute un « intérêt » à mener une recherche approfondie sur les informations fiables (ne serait-ce que par leur maîtrise des processus de lecture et de compréhension de textes). Les informations brèves (des titres, des courtes phrases réduites à 140 ou 280 caractères…), les informations audiovisuelles, les informations « concrètes » sur des individus ou des événements localisés (plutôt que sur des instances abstraites comme la « mondialisation », le « pouvoir judiciaire », les « instances de légitimation intellectuelle » ou la « différence entre médiane et moyenne »…) seront généralement préférées par un grand nombre de personnes, notamment celles qui sont faiblement scolarisées. Pour ces personnes, l'abondance apparente des moyens d'information que constitue notamment Internet (auquel elles n'ont d'ailleurs pas toujours accès) masque en réalité une pauvreté d'information : pour accéder à l'information, il faut des capacités culturelles, des compétences symboliques, des savoirs déjà établis, tout ce qu'un sociologue comme Pierre Bourdieu désigne comme le « capital culturel » [129]. C'est bien le « capital culturel », comme ensemble de compétences et de savoirs structurés qui permet en réalité de mesurer la fiabilité des informations nouvelles qui vont prendre place dans cet ensemble structuré si, du moins, elles sont suffisamment cohérentes avec lui [130] : ce sont ces savoirs préétablis (par l'éducation, par l'école, par la socialisation…) qui donneront en définitive la mesure de la vraisemblance des informations rencontrées. L'éducation (mesurée notamment à travers le niveau scolaire atteint) n'est pas une garantie absolue contre la crédulité, et des universitaires peuvent croire à l'astrologie, aux OVNI ou aux thèses « complotistes ». On peut même penser que ce sont des personnes moyennement ou même très cultivées [131] qui croient le plus souvent à de telles thèses parce qu'elles correspondent à ce qu'elles pensent être « l'esprit critique » ou le fait de « penser par soi-même ».

Encore une fois, il n'est pas possible de vérifier individuellement l'ensemble des informations qui nous parviennent, et il faut faire une relative confiance aux différentes sources d'informations. Néanmoins, ce sont les savoirs et les compétences dont nous disposons déjà qui nous permettent de juger de la vraisemblance de ces informations. Il faut avoir des connaissances en histoire (notamment au niveau de sa méthodologie de recherche) pour comprendre pourquoi les historiens n'ont aucun doute sur la réalité de la Shoah (ni d'ailleurs sur celle de Napoléon ou de Jules César). Semblablement, l'absurdité de l'affirmation selon laquelle le virus du Sida aurait été créé volontairement dans un laboratoire ne peut être perçue sans un minimum de connaissances en biologie mais aussi en épidémiologie [132]. Mais en dehors de ces contre-vérités manifestes, ce sont nos connaissances du monde — évidemment variables selon les individus — qui nous permettent de juger de la vraisemblance, de la pertinence, de la validité sinon même du sens d'assertions aussi simples que : « L'obésité est une maladie de "pauvres" », « Face aux veto russes et chinois, le Conseil de sécurité peine à faire appliquer ses résolutions en Syrie », « «Dette publique, la bombe à retardement » ou « Derrière l'affaire Benalla, la banalisation de la violence policière »…[133] Sans un socle préalable de connaissances, il est difficile sinon impossible de repérer les interprétations simplistes, les jugements de valeur, les explications extrapolées, les erreurs de raisonnement [134]… Et c'est le même socle de connaissances qui nous permet de juger de la fiabilité des différentes sources d'information.

6. Et la fiction ?

L'on en revient ainsi à la question de la fiction abordée au début de ce texte avec la série X-Files à laquelle les spectateurs ont accordé un crédit différent selon leurs propres certitudes préalables, certitudes qui, comme on l'avait montré, résultent d'un mixte de croyances et de savoirs extrêmement divers : la fiction peut-elle dire la vérité ? Quelle confiance pouvons-nous accorder à la fiction comme représentation du monde ?

Bien entendu, la fiction relève de l'imaginaire, et nous ne croyons évidemment pas qu'un film de science-fiction comme Star Wars raconte des événements réels. Néanmoins, la question devient rapidement plus compliquée lorsqu'on essaie de faire le partage entre ce qui, dans un film (ou un roman), relève incontestablement de la fiction et ce qui « correspond » d'une manière ou d'une autre à la réalité ou à une certaine réalité. Pour prendre un autre grand succès cinématographique, Titanic de James Cameron (1997), nous pouvons penser que les personnages principaux de Rose et Jack sont nés de l'imagination des scénaristes, mais le Titanic quant à lui a bien existé, et la question de la reconstitution se pose immédiatement : l'image de ce bateau, de son naufrage, du sort de ses passagers est-elle exacte ? On se souvient de multiples interviews du cinéaste qui attestait du sérieux de sa recherche et de sa documentation, du travail extrêmement méticuleux et précis de tous les décorateurs et accessoiristes pour recréer le navire. On se souvient en particulier qu'il a utilisé des images sous-marines de l'épave, effaçant ainsi les limites entre, d'une part, la reconstitution, la fiction, l'imaginaire (le voyage final de Rose revenant sur les lieux du naufrage), et la vérité proprement documentaire.

Avons-nous cependant des raisons de douter des propos de James Cameron ? Sans doute pas. La plupart des spectateurs ont certainement déjà entendu parler du Titanic (dont le nom est d'ailleurs passé dans le langage courant), beaucoup ont vu l'une ou l'autre photo d'époque du célèbre paquebot aux quatre grandes cheminées, certains ont peut-être lu des ouvrages ou des articles consacrés à cette catastrophe… Comme pour d'autres sujets historiques, il est vraisemblable que des historiens auraient réagi pour dénoncer des contre-vérités ou des erreurs importantes dans la reconstitution : on peut rétorquer que l'intense promotion autour du film aurait pu « noyer » ces réactions, mais il est tout aussi vraisemblable que des médias à l'affût du scandale auraient été friands de ce genre de « révélations » mettant à mal une célébrité du monde du cinéma.

Mais ce qui est sans doute plus important dans la réception d'un film comme Titanic, c'est l'imprécision des limites entre la fiction et la réalité. Pour beaucoup d'événements mis en scène, nous jugeons de façon largement intuitive de leur plus ou moins grande vraisemblance : qu'en est-il par exemple du bijou, le Cœur de l'Océan, qui est au centre de l'intrigue ? A-t-il vraiment existé ? Parle-t-on de bijoux similaires perdus lors du naufrage ? Certains chercheurs de trésors essaient-ils effectivement de retrouver les plus prestigieux d'entre eux ? Seule une recherche documentaire nous permettrait de répondre à ces questions, mais la plupart d'entre nous n'avons pas envie d'y consacrer du temps et de l'énergie, et nous nous contentons de situer ces événements dans une zone floue entre vérité et fiction.

Titanic

Le Titanic
de l'Histoire au cinéma

Cette zone floue peut cependant avoir des effets très importants sur notre représentation du monde « réel » [135]. Ainsi, l'histoire d'amour entre Rose et Jack est certainement inventée mais elle met en jeu des relations de classes (sociales) très visibles et conflictuelles : on se souvient par exemple du mépris de classe affiché par Cal, le fiancé de Rose. Le personnage a beau être fictif, il nous paraît vraisemblable et il renforce notre représentation de la haute société (où nous n'avons peut-être jamais mis les pieds) comme méprisante et égoïste (Cal sera prêt à soudoyer un officier pour monter dans un canot de sauvetage). Certains spectateurs jugeront peut-être qu'il s'agit là d'une représentation caricaturale, mettant alors en cause l'imagination du cinéaste et faisant basculer cette attitude du côté de la fiction. Mais l'on comprend bien comment un film, malgré son caractère fictif, renforce notre « vision du monde » : même si je juge Titanic caricatural, le film constitue une mise à l'épreuve de mes croyances que je vais alors défendre (le plus souvent muettement) en avançant des contre-exemples ou des contre-arguments ou éventuellement nuancer (Cal étant vu comme une exception). Un dernier exemple tiré du même film, clairement fictif, permet d'illustrer ce jeu complexe entre la fiction et notre conception de la réalité. Tous les spectateurs se souviennent de la fin dramatique du film (ou du moins de son récit principal) quand Jack plongé dans l'eau glacée fait monter Rose sur un morceau de boiserie sur lequel il renonce lui-même à monter pour éviter de le faire couler. Un tel geste engage des représentations très profondes sur l'amour, sur la valeur d'une existence, sur le sens de la vie, sur la différence entre les sexes aussi (il se sacrifie pour la sauver, elle). L'amour peut-il aller jusqu'au sacrifice de soi ? Chacun répondra à sa manière à cette question, mais le film nous dit très clairement que c'est possible, que c'est beau (moralement mais peut-être aussi esthétiquement), et que c'est un geste rare et admirable… On peut bien sûr ne pas être d'accord avec ce « discours » et affirmer par exemple que, dans de telles situations, c'est l'égoïsme qui prévaut, mais il sera difficile de nier la possibilité d'un tel geste, même s'il est exceptionnel.

Ainsi, la fiction cinématographique, télévisuelle ou littéraire nous confronte sans doute moins à des énoncés factuels — même si c'est le cas avec le naufrage du Titanic — qu'à des représentations générales qui nous permettent de « penser » le monde. Un film de Ken Loach comme Moi, Daniel Blake (2016) met en scène les conditions d'existence dramatiques d'un chômeur en fin de droits mais il entend surtout dénoncer les ravages de la politique néo-libérale en Grande-Bretagne (et ailleurs) tout en soulignant la solidarité qui subsiste entre les plus pauvres. La série télévisuelle Les Soprano, qui met en scène la vie d'un chef mafieux, nous persuade que la mafia existe toujours aux États-Unis tout en montrant ses membres comme des gens ordinaires qui doivent faire face à des problèmes de famille avec des parents âgés et des enfants adolescents… Et Tony Soprano est un père de famille contemporain confronté à l'affaiblissement du modèle ancien d'autorité et obligé de négocier continuellement avec ses enfants pour conserver leur affection. Beaucoup de spectateurs et spectatrices trouveront donc qu'il y a une « vérité » dans cette série qui n'est évidemment pas celle des événements racontés, mais celle plus générale des relations entre les personnages, de leurs émotions, de leurs caractères, de leur ressenti face au monde et aux autres.

On remarquera que c'est ce processus de « généralisation » qui nous permet d'adhérer à des situations fictionnelles que l'on peut qualifier d'extrêmes. Ainsi, le film à succès de Roberto Benigni, La Vita è bella (1997), peut être qualifié de conte dramatique puisqu'il raconte comment un père de famille juif, déporté dans un camp nazi, sauve littéralement son jeune fils de l'horreur en lui faisant croire qu'il ne s'agit là que d'un jeu. C'est ce mensonge qui permettra vraisemblablement à l'enfant de survivre même si son père est finalement abattu peu avant la libération du camp. L'histoire est tout à fait fictive même si les camps nazis ont évidemment existé. Mais le film peut nous sembler « vrai » parce que, dans une situation aussi extrême, le rôle naturel des parents serait ou devrait être de protéger de n'importe quelle manière leur enfant de l'horreur du monde. Autrement dit, en tant que parents, nous sommes appelés à protéger nos enfants, même si nos « mensonges » sont moins importants, et même si nous ne sommes pas confrontés à des horreurs d'une telle intensité [136].

La fiction « travaille » donc sur des représentations du monde, sur l'image que nous avons du monde qui nous entoure et contribue ainsi à renforcer ces représentations, parfois à les modifier ou à les nuancer. Les films de Ken Loach contribuent ainsi certainement à accentuer chez ses spectateurs la perception des inégalités sociales et économiques dans les pays occidentaux. D'autres fictions, notamment les films policiers hollywoodiens qui mettent en scène les phénomènes terroristes (depuis Die Hard avec Bruce Willis en 1988 jusqu'à American Assassin de Michael Cuesta en 2017 en passant par Broken Arrow de John Woo en 1996, Mensonges d'État de Ridley Scott en 2008 ou la série télévisuelle 24 heures chrono), quelles que soient leurs éventuelles qualités, nous donnent certainement l'impression de vivre dans un monde extrêmement dangereux, violent, mensonger et dont le sens nous échappe…

L'exemple de la fiction, dont on n'a évidemment pas épuisé ici l'analyse, montre ainsi au terme de nos réflexions que nous « baignons » dans un monde médiatique et que ce monde représente pour nous une grande part de la « réalité ». On ne reviendra pas sur les nombreux exemples qui permettent de vérifier cette assertion. Cela ne signifie pas que nous vivions dans l'illusion, ni que notre vie ne serait qu'un songe comme l'évoquait Calderón dans sa célèbre pièce de théâtre. Mais notre savoir du monde ou plus exactement l'ensemble de nos savoirs du monde est d'abord et avant tout le résultat d'une construction sociale où s'accumulent des connaissances venues de tous les horizons et des temps les plus anciens. Et il n'y a pas de critère simple ni décisif pour faire le partage dans cette masse de connaissances entre la vérité et l'erreur : on est bien plutôt dans un monde de vraisemblances mais aussi d'hypothèses et d'incertitudes plus ou moins grandes. On a néanmoins souligné le rôle du contrôle exercé par les pairs dans des domaines aussi différents que les sciences (naturelles ou humaines) et les grands médias d'information. Mais même ce contrôle ne garantit pas de certitude absolue, et nous devons reconnaître que nos connaissances, aussi assurées soient-elles, aussi vraisemblables soient-elles, restent pour une part plus ou moins importante un phénomène de croyance. Pour terminer, on avancera seulement que, si le risque de l'erreur est inhérent aux processus de savoir, les connaissances immédiates que nous délivrent les médias sont sans doute les plus sommaires et les moins étayées : la connaissance ne nous est pas donnée sinon de façon élémentaire et nécessite un travail qui est souvent important et malheureusement fastidieux.


1. Le générique de la plupart des épisodes est traversé par la sentence Government denies knowledge (« Le gouvernement nous ment ») et se termine par la phrase : The truth is out there (« La vérité est ailleurs »).

2. La naïveté est évidemment une notion relative : disons qu'actuellement nous n'avons aucun signe probant d'une présence proche d'extra-terrestres…

3. Un certain nombre de spectateurs ont pu en outre rejeter la série (et refuser de la regarder) précisément parce qu'ils considéraient qu'elle s'appuyait trop visiblement sur des contre-vérités qu'elle contribuait ainsi à renforcer. Ils estimaient donc que la fiction était dans ce cas une forme d'imposture masquant des croyances « irrationnelles ».

4. Il est impossible sans études empiriques de mesurer la part du public qui partage ces croyances, mais il est certainement maladroit de considérer comme le font certains analystes de la série que tout le monde « lit » ses différents épisodes de la même manière et que les extraterrestres ne seraient pour tous qu'une « allégorie » comme le dit par exemple Frédéric Gai dans son article « The X-Files, allégorie de la condition postmoderne du monde », TV/Series [En ligne], 1 | 2012, mis en ligne le 15 mai 2012, consulté le 22 mars 2018. URL : http://journals.openedition.org/tvseries/1510 ; DOI : 10.4000/tvseries.1510 . Frédéric Gai adopte d'ailleurs une conception très floue de la vérité (dite « post-moderne ») qui n'est certainement pas partagée par tous : si l'on a une conception plus rigide de la vérité (plus « scientifique »), on risque bien de considérer que la série est une « pure fiction ».

5. Cette expérience a fait l'objet d'un compte rendu dans le journal Le Soir : http://plus.lesoir.be/146600/article/2018-03-20/une-experience-deroutante-pour-tester-la-soumission-des-etudiants-lautorite Ce compte rendu, sur lequel nous nous appuyons ne correspond sans doute pas exactement au sens que les enseignants ont voulu donner à leur expérience. Il est étonnant par exemple qu'on puisse prétendre que les affirmations citées soient fausses : elles sont peut-être contestables, difficilement vérifiables, trop générales sinon caricaturales, mais leur fausseté intrinsèque ne saute pas aux yeux.

6. Stanley Milgram a demandé à des étudiants de participer à une expérience sur l'apprentissage, où ils devaient « punir » une personne chargée de mémoriser des listes de mots si celle-ci se révélait incapable de restituer ces mots. Cette punition en présence d'un professeur consistait en décharges électriques d'abord de faible intensité puis de plus en plus fortes. Mais toute la situation était « fausse », et la personne « punie » un simple comédien: ce sont les réactions des étudiants qui étaient en fait observées, en particulier leur degré de soumission à l'autorité (ici professorale) puisque la majorité d'entre eux ont effectivement « puni » de façon violente le comparse qui était situé dans une autre pièce mais manifestait sa « souffrance » par des plaintes et des cris. (cf. https://fr.wikipedia.org/wiki/Expérience_de_Milgram )

7. Cf. notamment Norbert Elias, La dynamique sociale de la conscience, Paris, La Découverte, 2016.

8. Robert Blanché, L'axiomatique, Paris, PUF, 2009 (1ère éd. : 1955).

9. On soulignera dès à présent que les « négationnistes » de toutes sortes prétendent tous faire preuve d'esprit critique et dénoncent la supposée naïveté de ceux qui croient à la réalité de l'extermination des Juifs par les nazis, au système héliocentrique, à l'exploration lunaire ou à la responsabilité d'Al-Qaïda dans les attentats du 11 septembre 2011 sans évidemment avoir vérifié personnellement ces faits…

10.   Les biais cognitifs font aujourd'hui l'objet d'une abondante littérature. On remarquera cependant que, si certains de ces biais sont bien décrits et expliqués, leur nombre reste indéfini alors que d'autres sont définis de façon vague et mal explicités : par exemple, le biais de confirmation qui consiste à admettre préférentiellement les « faits » qui confirment nos certitudes antérieures est pratiquement inévitable, à moins de vivre dans le doute perpétuel.

11.   On peut sans doute affirmer qu'en France (mais aussi en Belgique francophone et dans bien d'autres pays occidentaux), la philosophie dominante reste foncièrement « idéaliste » au sens où « l'esprit » se devrait d'être « libre », libre de toute contrainte ou même toute influence extérieure, aussi bien au niveau cognitif — il faudrait « penser par soi-même » indépendamment de toute autorité scientifique ou intellectuelle — qu'au niveau pratique : toute décision devrait être totalement libre, c'est-à-dire résulter d'une pure détermination interne sans aucune pression ni influence extérieure sous peine d'aliénation. On dénoncera par exemple les effets de la publicité ou de la propagande politique, religieuse ou autre, parce que leur influence serait en soi contradictoire avec la liberté de choix individuel. Sans porter de jugement sur ces différents phénomènes, les sciences humaines souligneront qu'il n'y a pas d'esprit « libre » et que tout esprit est nécessairement « sous influence » : si mes achats ne sont plus conditionnés par la publicité, ils le seront sans doute par l'opinion d'autrui, l'aspect du produit ou par n'importe quelle autre considération extérieure…

12.   On suivra sur ce point le philosophe Jacques Derrida qui a montré comment la recherche du « fondement » — fondement des choses, fondement du savoir, fondement de la vérité — est une illusion sinon une obsession de la métaphysique occidentale (Marges de la philosophie, Paris, Minuit, 1972).

13.   Nous avons évidemment une connaissance directe du monde qui nous entoure, mais ce sont bien les médias (au sens le plus large) qui nous apportent la plus grande partie de notre connaissance du monde : même si je ne suis jamais allé aux États-Unis, au Japon ou au Brésil, je sais que le métro est bondé aux heures de pointe à Tokyo, que le Golden Gate surplombe la baie de San Francisco et que les favelas entourent la ville de Rio de Janeiro…

14.   Il est intéressant de retracer brièvement la généalogie de cette expression « la pensée unique ». Ce terme apparaît après la chute du mur de Berlin et l'effondrement du communisme en URSS. Alors que les démocraties libérales semblent triompher, la gauche intellectuelle (notamment le journal Le Monde diplomatique en France) va mettre en cause la « pensée unique » en matière économique, c'est-à-dire le consensus des économistes du moment sur les vertus supposées du marché libre et sans entraves (promu depuis plusieurs années par Ronald Reagan aux États-Unis et par Margareth Thatcher en Grande-Bretagne), mettant fin au compromis social-démocrate (sous l'égide de Keynes) dominant en Europe occidentale après la Deuxième Guerre mondiale (https://www.monde-diplomatique.fr/1995/01/RAMONET/6069). Mais très rapidement, le terme prend une extension beaucoup plus large et devient synonyme de l'ancienne expression marxiste (sans doute dévaluée) d'idéologie dominante : la « pensée unique » ne désigne dès lors plus seulement une idéologie économique mais permet de dénoncer le consensus supposé des médias en n'importe domaine (politique extérieure, politique sociale, culture même…). Venue de la gauche intellectuelle, elle peut être alors utilisée par n'importe qui pour dévaluer de supposés adversaires et pour affirmer son « esprit critique ». L'expression concurrente, « le politiquement correct », a connu un chemin inverse : utilisée par la droite américaine de manière péjorative pour dénoncer les politiques en faveur des minorités (politiques qui consistaient notamment à refuser un langage stigmatisant ou injurieux à l'encontre de ces minorités), elle est devenue pour beaucoup de polémistes un véritable passe-partout pour dénigrer le dogmatisme ou conformisme supposé de leurs adversaires idéologiques.

15.   Cf. notamment Pierre Bourdieu, Méditations pascaliennes, Paris, Seuil, 1997.

16.   Mais la prudence peut également s'apparenter à une forme de lâcheté quand les décisions sont difficiles à prendre comme ce fut le cas en 1994 lors du génocide de la minorité tutsie au Rwanda par les extrémistes hutus, génocide auquel la communauté internationale préféra assister sans intervenir militairement (sauf la France dont le rôle fut par ailleurs très critiquable).

17.   Des sondages indiquent que 47% des Américains (États-Unis) croient à la version divine de l'origine de l'humanité contre 35% favorables à la théorie de l'évolution (https://www.ledevoir.com/societe/292691/le-creationnisme-une-affaire-d-americains-et-d-albertains). Ces chiffres devraient faire l'objet d'analyses plus approfondies : il est probable qu'aux États-Unis (comme ailleurs), les croyants opèrent un syncrétisme complexe entre leurs croyances proprement religieuses et leur adhésion à une grande partie des découvertes scientifiques (qui ont permis aussi bien l'exploration spatiale que l'explosion de bombes atomiques…). D'une manière qui ne leur semble pas contradictoire, beaucoup peuvent sans doute rejeter les théories de Darwin (qui font l'objet d'une contestation violente aux États-Unis) tout en admettant l'existence des dinosaures… (https://www.courrierinternational.com/article/2014/01/04/la-theorie-de-l-evolution-rejetee-par-plus-de-la-moitie-des-republicains )

18.   L'on considère ici la plupart des pays européens à l'époque contemporaine. Le « nous » ne vaut donc pas pour l'ensemble de l'humanité, même si les analyses proposées sont certainement valides, avec de nombreuses nuances, pour un grand nombre d'autres pays et de populations. On tiendra compte de cette remarque (qui ne sera plus répétée) lors de la lecture de la suite de ce texte.

19.   Les physiciens nous pardonneront ce langage approximatif…

20.   Karl Popper, La Logique de la découverte scientifique, Paris, Payot, 1973 (éd. or. allemande : 1934). Cet ouvrage célèbre, qui se base essentiellement sur l'exemple de la physique einsteinienne, rend sans doute assez mal compte de la pratique réelle des scientifiques qui cherchent d'abord à confirmer leurs théories par des expériences probantes plutôt qu'à les réfuter ou les falsifier. Les physiciens ont ainsi mis près de quarante ans à chercher la preuve expérimentale de l'existence du boson de Higgs qui a été postulée dès 1964. On peut se reporter notamment à ce propos à l'ouvrage déjà cité de Norbert Elias, La dynamique sociale de la conscience, p. 67-108.

21.   La question de la base empirique ou matérielle des mathématiques reste débattue : les mathématiques pourraient-elles exister par exemple sans une forme d'écriture nécessairement matérielle ? Les nombres peuvent-ils se concevoir indépendamment de tout dénombrement de choses ?

22.   Pierre Bourdieu insiste grandement sur le fait que ces conflits mettent en jeu la légitimité scientifique des uns et des autres, mais il explique mal comment certains réussissent à imposer leur légitimité dans des champs hautement autonomes comme les mathématiques, la physique ou la chimie (Pierre Bourdieu, « Le champ scientifique », dans Actes de la Recherche en Sciences Sociales, 1976, 2-2-3 p. 88-104). Si l'arbitraire de la domination symbolique dans des champs comme la littérature ou la philosophie s'explique par leur faible autonomie (qui implique par exemple leur grande soumission aux effets de mode), les champs des sciences « dures » sont soumis à des régulations internes très fortes qui permettent généralement la résolution à terme des conflits symboliques. Une querelle scientifique n'est sans doute pas de la même nature et n'a donc pas la même histoire qu'un conflit artistique ou philosophique. On peut encore lire les Méditations de Descartes mais aucun physicien ne s'intéresse à ses théories sur les tourbillons (censés expliquer le mouvement des planètes), sur l'impossibilité du vide ou sur la vitesse supposée instantanée de la lumière…

23.   Probabilités et statistiques ne doivent évidemment pas être confondues même si la distinction importe peu ici.

24.   Pour rappel, on constitue deux groupes de patients, l'un recevant le médicament (ou le traitement), l'autre un placebo (sans principe actif), sans que ni les patients ni les personnes administrant la prescription ne sachent si elle contient ou non le principe actif. Si un écart statistique significatif apparaît entre les deux groupes, le médicament est réputé efficace (ou nocif si, par malheur, il aggrave l'état des malades…).

25.   On sait qu'il y a de bons praticiens et d'autres moins bons… et les erreurs médicales ne sont pas rares.

26.   http://ecologie.blog.lemonde.fr/2010/01/19/les-francais-croient-ils-au-rechauffement-climatique-de-la-planete/

27.   http://www.lemonde.fr/planete/article/2012/10/04/l-opinion-publique-mondiale-est-consciente-du-changement-climatique_1769710_3244.html & https://www.nature.com/articles/nclimate2583.epdf

28.   Sur l'histoire de la découverte du changement climatique, on peut se reporter à http://23dd.fr/climat/histoire-rechauffement-climatique qui est une adaptation en français de l'ouvrage de Spencer Weart (un historien des sciences), The Discovery of Global Warming, Cambridge, Harvard University Press, 2003, dont une version remaniée est visible en ligne : https://history.aip.org/history/climate/

29.   Ces recherches ont fait l'objet d'un documentaire de Luc Jacquet, La Glace et le Ciel (2015) reprenant le témoignage du glaciologue Claude Lorius.

30.   On se peut se reporter à l'article de Wikipedia (https://fr.wikipedia.org/wiki/Réchauffement_climatique) sur le réchauffement climatique pour des informations complémentaires. Le site du GIEC (Groupe d'experts intergouvernemental sur l'évolution du climat http://www.ipcc.ch/) contient également une masse d'informations suffisamment accessibles pour les profanes.

31.   Un résumé de ces études est visible sur Wikipedia https://fr.wikipedia.org/wiki/Positionnement_de_la_communauté_scientifique_envers_le_réchauffement_climatique

32.   Cela pourrait expliquer que la proportion des climatosceptiques (en France) est plus importante chez les personnes de plus de 65 ans. Il leur est sans doute difficile d'admettre qu'ils doivent changer un mode de vie adopté depuis longtemps, mais aussi qu'ils auraient une part de responsabilité dans le changement climatique actuel et futur. http://www.lemonde.fr/planete/chat/2010/11/18/qui-sont-les-climatosceptiques_1441601_3244.html

33.   Cette action a été notamment retracée dans le film récent de Robin Campillo, 120 battements par minute (France, 2017).

34.   Ces insectes sont en revanche le vecteur essentiel de la contamination par le parasite du paludisme.

35.   Dès juin 1983, Jacques Roux, directeur général de la santé, informe les médecins transfuseurs du risque de contamination et demande une sélection plus rigoureuse des donneurs en excluant les groupes à risque (les « 4 H »). Mais cet avertissement ne sera pas suivi de réelles mesures de précaution. Parmi les donneurs, on trouve de nombreux prisonniers qui sont incités en France à donner leur sang : on pouvait soupçonner qu'il s'agissait d'une population à risque, notamment à cause de la consommation d'héroïne par intraveineuse.

36.   La chronologie est importante, et il y a eu faute, comme la justice l'a affirmé, dans le retard mis à prendre certaines décisions, mais la contamination par transfusion sanguine avait sans aucun doute débuté avant cette période décisive (du printemps 1985).

37.   http://www.un.org/esa/population/publications/aidswallchart/pressrelease_f.htm

ainsi que http://www.prb.org/pdf/57.3FacingAIDSPandem_Fr.pdf (page 10-11) et http://www.unaids.org/ (qui cite le chiffre de 36 millions de personnes infectées par le vih fin 2015). Mais depuis les années 1980, le virus du Sida a sans doute infecté 75 millions d'individus dont 36 millions sont décédés. http://www.lemonde.fr/sante/article/2014/10/03/aux-origines-de-la-pandemie-de-sida_4500103_1651302.html

38.   On suit ici toute l'analyse proposée par Nicolas Dodier dans Leçons politiques de l'épidémie de sida, Paris, Éditions de l'École des hautes études en sciences sociales, « Cas de figure », 2003.

39.   L'erreur reste patente dans le domaine de la santé où l'on voit couramment une personne estimer un remède efficace et surtout le conseiller à d'autres sur base de sa seule expérience. Trois raisons au moins doivent mettre en doute une telle évaluation : toutes les personnes ne réagissent pas de la même manière aux mêmes remèdes ; les mêmes symptômes (par exemple une douleur dont la localisation est sommaire) peuvent avoir des causes différentes ; l'efficacité d'un remède ne peut pas être évaluée à partir d'un cas individuel et doit être testée en comparaison avec des malades ne prenant pas le remède en cause. Le domaine de la santé est particulièrement sujet aux raisonnements fallacieux, qu'il s'agisse de l'argument d'autorité (le titre de professeur, docteur ou chercheur suffit à donner de la crédibilité à une affirmation), de la généralisation abusive (une substance efficace en laboratoire est présentée comme remède effectif) ou encore de la confusion logique ou sémantique (on déduit du fait que la vitamine C ou D est nécessaire à la santé pour éviter des maladies comme le scorbut ou le rachitisme que ces vitamines sont bonnes pour la santé et qu'il faut dès lors consommer des produits enrichis en vitamines ; cette erreur conduit également à des erreurs de posologie).

40.   Nicolas Dodier, op. cit., deuxième partie, chapitre 8, paragraphe 11 (édition Kindle).

41.   Op. cit., deuxième partie, chapitre 7, paragraphe 12.

42.   On signalera pour l'anecdote que quelques scientifiques contestent que le Sida (comme maladie au stade terminal) soit causé par le virus VIH découvert en 1983. Même si ce n'est pas une preuve absolue (qui n'existe pas en sciences), l'efficacité des trithérapies et le taux de survie augmenté des personnes séropositives ont marginalisé cette thèse hétérodoxe rejetée par la grande majorité des spécialistes.

43.   Il s'agit là des thèses respectives d'Olivier Roy et de Gilles Kepel. L'islamisation de la radicalité signifierait que la révolte de jeunes qui se sentent exclus et en rupture avec la génération de leurs parents serait première et trouverait ensuite une expression ou un sens dans une version radicale de l'Islam. La radicalisation de l'Islam (même si Gilles Kepel n'utilise sans doute pas cette expression) désigne en revanche une évolution beaucoup plus large, internationale, de l'Islam sous l'influence de mouvements rigoristes et radicaux dans leur interprétation de la religion dont principalement le salafisme. Certains chercheurs avancent encore d'autres explications.

44.   Pour rappel, La sociologie est un sport de combat est un documentaire français de Pierre Carles (2001) consacré à Pierre Bourdieu. Celui-ci défend l'idée que la démarche sociologique doit nécessairement susciter l'hostilité parce qu'elle dévoile les illusions des acteurs, en particulier des dominants, et surtout leurs intérêts cachés, que ceux-ci soient strictement économiques mais aussi symboliques, politiques, sociaux ou d'une tout autre nature. Pour Gérald Bronner et Étienne Géhin (auteurs d'un récent ouvrage Le danger sociologique, 2017), le recours à des explications à la fois déterministes et finalistes à travers des entités générales comme la société, le capitalisme, les classes sociales ou l'État (généralement faiblement définies), est abusif scientifiquement, et ils entendent privilégier une approche centrée sur les individus et les raisons (bonnes ou mauvaises) qui les poussent à agir dans des interactions qui ne sont pas nécessairement prédictibles et parfois opposées à leurs intentions (ce que Raymond Boudon appelle les « effets pervers », non voulus par les acteurs). Bien que les uns et les autres s'en défendent, on devine que ces oppositions « scientifiques » recouvrent des oppositions politiques (même si les unes et les autres ne se confondent pas exactement).

45.   Pierre Cahuc et André Zylberberg, Le Négationnisme économique. Comment s'en débarrasser, Paris, Flammarion 2016.

46.   Aujourd'hui, personne ne maîtrise plus l'ensemble des sciences humaines (et encore moins des sciences exactes), et les considérations développées ici sont très générales et devraient certainement être nuancées par les spécialistes des différents domaines.

47.   Pour prendre un exemple simple, la réussite des élèves à des tests scolaires standardisés (comme ceux des enquêtes Pisa) dépend-elle d'abord du statut socio-économique des parents ou du niveau d'études que ceux-ci ont atteint (selon l'opposition mise en avant par Pierre Bourdieu entre capital économique et capital culturel) et de façon encore plus précise quel est le « poids » de chacun de ces facteurs (qui se superposent en partie) ?

48.   Ainsi, la notion élémentaire en économie de point d'équilibre entre les courbes de l'offre et de la demande en fonction du prix est une construction théorique qui repose sur un marché parfait où le prix serait la seule variable déterminante (avec notamment des possibilités parfaites de changement de prix).

49.   On citera pour mémoire Le Livre noir de la psychanalyse (Paris, Les Arènes, 2005) qui met en cause la scientificité de la psychanalyse. D'un point de vue de profane, on soulignera l'absence d'accord et même de dialogue entre les tenants de la psychanalyse et ses opposants : ce qui semble en cause, ce sont les normes mêmes du savoir (les uns se réclamant essentiellement de l'expérience analytique et les autres de différentes formes d'objectivation des réalités psychiques), et c'est l'adhésion à des normes différentes qui fonde aujourd'hui l'adhésion ou au contraire le rejet de la psychanalyse.

50.   L'économie (comme réalité) est généralement considérée comme un système dont les principes restent inchangés même si le système évolue (s'il est par exemple en croissance). Mais il se peut que ce soit une illusion et qu'il s'agisse plutôt d'une réalité historique profondément changeante, même s'il y a des continuités d'une époque à l'autre. Ainsi, jusque dans les années 1970, la courbe de Phillips avait établi, de façon empirique, une relation négative entre la hausse des salaires et le chômage : quand le chômage augmente, l'inflation diminue et inversement. Mais cette relation observée sur une longue période de l'économie britannique (1861-1957), loin d'être éternelle, s'est révélée fausse dans les économies occidentales dans les années 1970 après le choc pétrolier : la stagflation a vu l'inflation accompagnée d'une augmentation importante du chômage. Bien entendu, les économistes ont cherché de nouvelles explications à ce phénomène inattendu, tout en considérant que le « système » restait globalement le même : un autre point de vue pourrait envisager que le « système » n'est plus le même et qu'une perspective pleinement historique sur cette évolution serait plus pertinente.

51.   Verrier Elwin, Maisons des jeunes chez les Muria, Paris, Gallimard, 1959

52.   Ce système est décrit notamment dans l'ouvrage devenu désormais classique de Bronislaw Malinowski, Les Argonautes du Pacifique occidental, Paris, Gallimard, 1963 (éd. or. : 1922).

53.   Ces mythes sont longuement analysés par Claude Lévi-Strauss dans ses quatre volumes des Mythologiques (Paris, Plon, 1964-1971) mais ont d'abord fait l'objet de nombreux recueils ethnographiques.

54.   C'est la Révolution française qui imposera en 1792 les registres d'État civil qui seront confiés aux maires (et non plus aux curés qui tenaient auparavant des registres de baptême). Ce sont ces registres qui ont permis d'établir des notions élémentaires comme le taux de natalité (le pourcentage de naissances par rapport à la population totale) et de constater sa relative stabilité au cours des ans, ce qui est aujourd'hui une évidence mais qui a représenté une véritable découverte au 19e siècle. (Bien entendu, la natalité évolue sur de longues périodes, parfois de façon spectaculaire).

55.   L'alexithymie est une difficulté à définir ses émotions, à les exprimer et a fortiori à les partager, mais également à les reconnaître chez autrui..

56.   Cf. Jean Bottéro, Mésopotamie. L'écriture, la raison et les dieux. Paris, Gallimard (Folio histoire), 1997.

57.   L'on fait bien sûr référence à l'ouvrage désormais classique de Fernand Braudel.

58.   L'on suppose généralement que la décision d'exterminer l'ensemble des Juifs d'Europe (en particulier avec l'emploi de chambres à gaz) a été prise à l'automne 1941, mais certains retardent encore ce moment en soulignant certaines inflexions tardives (et criminelles) dans cette politique (Florent Brayard, La « solution finale de la question juive ». La technique, le temps et les catégories de la décision. Paris, Fayard, 2004).

59.   Le célèbre ouvrage de Margaret Mead, Mœurs et sexualité en Océanie, est à présent considéré par les spécialistes comme une « fiction ethnologique » très éloignée de la réalité à Samoa, la jeune anthropologue ayant certainement été abusée par les propos de ses informatrices (cf. Serge Tcherkézoff, 2001. Le mythe occidental de la sexualité polynésienne. 1928-1999 Margaret Mead, Derek Freeman et Samoa, Paris, PUF, 2001).

60.   L'opinion publique suit d'ailleurs, même si c'est avec retard et de façon indirecte, certaines évolutions conceptuelles issues des sciences humaines : ainsi, les notions de « peuples primitifs » ou encore de « races » qui ont imprégné l'anthropologie jusqu'à la moitié du 20e siècle ont été fortement remises en cause par les anthropologues eux-mêmes, en particulier au lendemain de la Seconde Guerre mondiale (on se souvient en particulier du texte de Claude Lévi-Strauss intitulé Race et Histoire et publié sous l'égide de l'Unesco en 1952), et cette critique est largement admise aujourd'hui par l'opinion publique.

61.   Deborah Lipstadt est une historienne américaine, auteure notamment de Denying the Holocaust: the growing assault on truth and memory (New York et Toronto, Free Press-Maxwell Macmillan, 1993), qui a été attaquée en justice pour diffamation, par le négationniste de la Shoah, David Irving. À l'issue du procès, David Irving a été débouté, le juge estimant notamment que les accusations de falsification des preuves et de manipulation des statistiques formulées par Lipstadt à l'encontre d'Irving étaient bien fondées et ne constituaient donc pas une diffamation. Ce procès a fait l'objet d'une reconstitution cinématographique, Le Procès du siècle par Mick Jackson (États-Unis, 2016). https://www.grignoux.be/fr/dossier/434/le-proces-du-siecle

62.   On peut se reporter notamment aux sites suivants qui démontent de façon approfondie les arguments négationnistes : http://www.phdn.org (en français) http://www.anti-rev.org (en français)

http://www.sonderkommando.info (en français) http://www.holocaust-history.org/auschwitz/ (en anglais) http://www.nizkor.org (en anglais)

63.   On trouvera sur le site des Grignoux une analyse intitulée « Pourquoi les "négationnistes" ne sont pas des historiens… » à la page https://www.grignoux.be/dossiers/288/pdf/Negationnisme.pdf

On y trouvera un exposé relativement complet sur le contexte historique où s'inscrit l'utilisation des chambres à gaz comme dernière étape de la politique antisémite et violente des nazis.

64.   L'on pense bien sûr au grand historien de La Destruction des Juifs d'Europe, Raul Hilberg. On citera également le nom de Maxime Steinberg qui a retracé de façon magistrale la persécution des Juifs de Belgique dans les trois volumes de L'Étoile et le Fusil (tome I : La Question juive, 1940-1942, tome II : 1942, Les cent jours de la déportation des Juifs de Belgique, tome III : La Traque des Juifs, 1942-1944) Éditions Vie Ouvrière, Bruxelles, l983, 1984 et 1987.

65.   Il s'agit des personnes vivant avec moins de 1,90$ par jour (en parité de pouvoir d'achat 2011). https://www.inegalites.fr/La-grande-pauvrete-baisse-dans-le-monde-mais-de-fortes-inegalites-persistent et https://www.cncd.be/L-extreme-pauvrete-a-diminue-dans

Il faut en sociologie distinguer entre les inégalités réelles et les inégalités perçues par les acteurs. On rappellera le paradoxe relevé par Tocqueville, dans son ouvrage De la démocratie en Amérique, que l'on peut énoncer de la façon suivante : « Plus l'inégalité des positions diminue, plus augmente l'insatisfaction liée à la perception de ces inégalités ». La diminution objective des inégalités ou des discriminations n'entraîne donc pas une diminution de la perception de ces inégalités ou discriminations qui tendent au contraire à devenir de plus en plus insupportables.

66.   En France, Raymond Boudon avec son ouvrage désormais classique Effets pervers et ordre social (Paris, PUF, 1977) a ouvert la voie à de nombreuses études du même type. Cette « méthodologie individualiste » apparaît souvent comme une dénonciation (implicite) de toute politique globale, qui viserait par exemple à corriger les inégalités mais qui serait incapable d'anticiper les réactions des acteurs qui vont détourner ces mesures de leur objectif initial. Mais si toute politique publique a nécessairement des effets pervers (par exemple la fraude), faut-il pour autant renoncer à toute politique ?

67.   Pierre Bourdieu et Jean-Claude Passeron, Les Héritiers. Les étudiants et la culture, Paris, Minuit, 1964 ; Raymond Boudon, L'Inégalité des chances, Paris, Armand Colin, 1973. On remarquera que cette querelle, qui peut sembler ancienne, n'a jamais été résolue et est toujours d'actualité, les partisans de Bourdieu et ceux de Boudon restant murés dans leurs certitudes (sinon leurs croyances) respectives. C'est un exemple significatif de l'impossibilité (assez fréquente ?) de parvenir à un consensus dans le champ des sciences humaines. On remarquera que les non-spécialistes qui prennent parti dans cette querelle le font essentiellement sur base de leurs propres convictions politiques (au sens large) sans amener de réel gain de connaissance.

68.   Albert Soboul, Précis d'histoire de la Révolution française, Paris, Éditions Sociales, 1975, réédité sous le titre La Révolution française, Paris, Gallimard, 1984 (d'autres ouvrages et d'autres auteurs pourraient être évoqués) ; François Furet, Penser la Révolution française, Paris, Gallimard, 1978. La remarque de la note précédente est également valable ici.

69.   Même les enjeux scientifiques reflètent pour une part des enjeux symboliques, académiques, institutionnels liés à leur « réputation ». Mais ces enjeux — par exemple un poste dans un institut de recherche prestigieux — sont moins facilement perçus par les profanes qu'un engagement politique. Or, pour un scientifique, ces enjeux sont souvent les plus importants.

70.   On a dit que les « faits » ne sont pas des données brutes et résultent d'observations qui peuvent être biaisées. Dès lors, les données récoltées peuvent être mises en cause, mais une telle mise en cause s'accompagne très généralement d'une réinterprétation globale des travaux antérieurs. On a évoqué précédemment la polémique autour des premiers travaux de Margaret Mead qui s'est appuyée sur des témoignages biaisés : les données ont été mises en cause mais l'interprétation générale qu'elle a pu donner de la vie sexuelle aux îles Samoa en a également été évidemment profondément transformée.

71.   Le contrôle par les pairs d'un travail de recherche est évidemment plus ou moins important, notamment selon la notoriété du chercheur : les travaux de Pierre Bourdieu sont évidemment beaucoup plus discutés qu'un article pointu sur la formation des prix des vins de Bourgogne (même si cet article a été soumis à un comité de lecture).

72.   « La vie sociale doit s'expliquer, non par la conception que s'en font ceux qui y participent, mais par des causes profondes qui échappent à la conscience » affirme ainsi Émile Durkheim (« La conception matérialiste de l'histoire. Une analyse critique de l'ouvrage d'Antonio Labriola, Essais sur la conception matérialiste de l'histoire » in Revue Philosophique, n° 44, 1897, pp. 649.

73.   On citera à ce propos l'ouvrage classique de Claude Lévi-Strauss, Les Structures élémentaires de la parenté, Paris, Mouton, 1971, ainsi que celui de Françoise Héritier, Les Deux Sœurs et leur mère. Anthropologie de l'inceste. Paris, Odile Jacob, 2012.

74.   Le vocabulaire ici employé est inspiré de Pierre Bourdieu, mais on trouve beaucoup d'autres représentants de ce courant critique, à commencer bien sûr par Karl Marx (et son analyse célèbre de L'Idéologie allemande) dont la plupart se revendiquent plus ou moins directement. On remarquera à ce propos que, si, dans cette perspective, les dominants sont victimes d'une illusion idéologique qui masque (sous de « nobles » motifs) les véritables raisons de leur action, une telle illusion est présente chez tous les individus : un des principes épistémologiques de la sociologie (et de toutes les sciences humaines en général) est que nous ne connaissons pas ou ne connaissons que très partiellement les causes nécessairement cachées de notre action. De la même façon que nous ne savons pas comment fonctionne notre propre corps malgré nos sensations internes, les sciences humaines postulent que nous ne savons pas comment fonctionne notre esprit malgré les pensées qui nous habitent. Mais celles-ci nous donnent l'illusion de nous connaître nous-mêmes. Le sociologue lui-même n'échappe pas à une telle illusion (notamment lorsqu'il croit agir uniquement au nom de la Vérité) même si un sociologue aussi averti que Pierre Bourdieu a fait de l'auto-analyse une des conditions de la lucidité du sociologue.

75.   Dévoiler les supposés intérêts cachés d'un adversaire idéologique suffit en effet dans une perspective journalistique à le décrédibiliser, même si la relation entre ces intérêts et les positions éventuellement défendues n'est très généralement pas démontrée mais seulement postulée. Des polémistes d'extrême-droite en Belgique ont pu ainsi accuser le parti socialiste d'entretenir la misère dans les localités qu'il administrait dans un but électoraliste.

76.   Il ne s'agit pas de prétendre ici que les travaux en sciences humaines sont par principe de meilleure qualité que les reportages écrits ou télévisuels. L'inverse peut être vrai. Cependant, les contraintes du journalisme et la formation des journalistes sont différentes de celles qu'on trouve dans le domaine universitaire des sciences humaines. Le journalisme s'attache par exemple à des sujets susceptibles d'intéresser un large public et de mobiliser notamment des émotions fortes. Les données sont recueillies et interprétées non pas selon une méthodologie scientifique mais en fonction des contraintes médiatiques (témoignage « parlant », images « choc », émotions à susciter ou à réveiller…). L'interprétation ne peut pas être « savante », c'est-à-dire développer des notions complexes, inédites ou abstraites, et l'opinion (même savante ou experte) est privilégiée par rapport à l'analyse argumentée.

77.   L'institution judiciaire maintient d'ailleurs une certaine opacité sur son propre fonctionnement, ne serait-ce que par l'utilisation d'un vocabulaire spécifique, mais ce n'est certainement pas la seule cause de la méconnaissance générale des profanes à son endroit.

78.   « Ni Lénine ni Mussolini n'ont été des dictateurs totalitaires, et ils ne savaient même pas ce que signifiait réellement le totalitarisme », écrit ainsi Hannah Arendt (dans La Nature du totalitarisme, Paris, Payot, 1990, p. 112).

79.   On peut à ce propos se reporter à l'ouvrage d'Enzo Traverso, Le Totalitarisme : Le XXe siècle en débat (Paris, Seuil « Points », 2001).

80.   On trouve cependant une définition au début de son article sur « Le Marché des biens symboliques » où il parle de « la constitution progressive d'un champ intellectuel et artistique, c'est-à-dire de l'autonomisation progressive du système des relations de production, de circulation et de consommation des biens symboliques : en effet, à mesure qu'un champ intellectuel et artistique tend à se constituer (en même temps que le corps d'agents correspondant — soit l'intellectuel par opposition au lettré et l'artiste par opposition à l'artisan) en se définissant par opposition à toutes les instances pouvant prétendre légiférer en matière de biens symboliques au nom d'un pouvoir ou d'une autorité qui ne trouve pas son principe dans le champ de production lui-même, les fonctions objectivement imparties aux différents groupes d'intellectuels ou d'artistes en fonction de la position qu'ils occupent dans ce système relativement autonome de relations objectives tendent toujours davantage à devenir le principe unificateur et générateur (donc explicatif) de leurs prises de position » (L'Année sociologique, vol. 22, 1971, p. 49).

81.   L'idéaltype auquel on songe ici est un concept développé par le sociologue allemand Max Weber : il s'agit d'une construction théorique construite « en accentuant unilatéralement un ou plusieurs points de vue et en enchaînant une multitude de phénomènes donnés isolément, diffus et discrets, que l'on trouve tantôt en grand nombre, tantôt en petit nombre et par endroits pas du tout, qu'on ordonne selon les précédents points de vue unilatéralement, pour former un tableau de pensée homogène. On ne trouvera nulle part empiriquement un pareil tableau dans sa pureté conceptuelle : il est une utopie » (Essais sur la théorie de la science, Paris, Pocket, 1992 [éd. or. : 1904-1917], p. 181). La classe des capitalistes dont parle Karl Marx dans Le Capital est en ce sens un idéaltype car le motif essentiel de leur action est la recherche du profit (ou plus exactement l'extorsion de la plus-value) : toutes les actions des capitalistes (réels), notamment lorsqu'on les considère historiquement, ne se limitent évidemment pas à la recherche du profit.

82.   La philosophie peut également prétendre à mener une telle réflexion conceptuelle, mais la faible part empirique des travaux philosophiques qui travaillent souvent sur base d'exemples choisis limite singulièrement l'analyse de l'extension des concepts : un sociologue qui travaille sur la pauvreté par exemple montrera rapidement qu'un tel concept ne peut pas être défini de façon absolue ou abstraite et dépend notamment des conditions sociales et historiques auxquelles on veut l'appliquer (villes/campagnes, ascension ou déclin social, dans une société en croissance économique ou non, etc.) mais dont la connaissance empirique nécessite des études importantes.

83.   Par corrélation, on entend généralement corrélation linéaire : si la variable indépendante augmente, la variable dépendante augmente également (ou diminue dans le cas d'une corrélation négative). Mais il existe des corrélations qui ne sont pas linéaires. C'est le cas par exemple des médicaments : l'augmentation de faibles doses augmente les chances de guérison mais ensuite l'efficacité n'augmente plus, puis le médicament à fortes doses peut devenir carrément nocif.

84.   Le nombre de personnes parties combattre en Syrie est plus important et les analyses statistiques sont dès lors plus pertinentes, mais il n'est évidemment pas du tout certain que toutes ces personnes — aussi condamnable soit leur comportement — soient susceptibles de commettre des attentats terroristes sur le territoire européen. Par ailleurs, si certains attentats ont manifestement été commis de leur propre initiative par des individus relativement isolés se réclamant seulement de façon indirecte de l'une ou l'autre organisation terroriste, d'autres comme ceux de novembre 2015 à Paris ou de mars 2016 à Bruxelles ont peut-être été commandités par l'une de ces organisations étrangères : seule une enquête approfondie pourra le déterminer. Si c'était le cas, le facteur déterminant se situerait alors non pas en Europe mais à l'extérieur, et les causes indigènes (propres à chaque pays européen) seraient de peu de poids comme semble l'indiquer le fait que certains des terroristes à Paris étaient de nationalité étrangère.

85.   En ce qui concerne le terrorisme islamiste (mais aussi d'extrême-droite), une analyse des multiples facteurs explicatifs a été faite, sur base notamment d'interviews de personnes emprisonnées, par le sociologue Farhad Khosrokhavar dans Radicalisation, Paris, éditions des sciences de l'homme, 2014.

86.   On peut se reporter notamment à http://www.hoaxbuster.com/hoaxliste/demolition-controlee-du-wtc , http://www.bastison.net , http://www.pseudo-sciences.org/spip.php?article786 ou encore en anglais https://www.skeptic.com/eskeptic/06-09-11/ . On peut également se reporter au numéro spécial de Sciences et pseudo-sciences, no 296, juin 2011. La réfutation des arguments complotistes est sans doute peu efficace, car la simple lecture de ces réfutations demande un effort important, et surtout parce que l'adhésion à une thèse ou à l'autre, complotiste ou non-complotiste, est essentiellement une question de croyance qui va dépendre des certitudes préalables des lecteurs. La théorie du complot autour des attentats du 11 septembre répond à un besoin de réassurance pour différentes fractions de populations : beaucoup de musulmans de par le monde adhèrent certainement à cette théorie tout simplement parce qu'elle dénie que ce soient des musulmans (même désignés comme islamistes ou fanatiques) qui soient responsables de ces attentats criminels ; aux États-Unis, c'est sans doute la méfiance sinon l'hostilité à l'égard du pouvoir fédéral, largement répandue dans une partie de l'opinion publique, qui explique le succès de cette théorie permettant à nouveau de mettre en cause le gouvernement de Washington ; en Europe et ailleurs, l'anti-américanisme qu'on retrouve dans de nombreuses fractions politiques à gauche ou à droite et qui peut se justifier notamment par les multiples interventions extérieures des États-Unis explique le succès de cette thèse qui empêche de les considérer (le pays ou son gouvernement) comme des « victimes » innocentes. De façon générale, la thèse complotiste permet de réaffirmer une vision simple sinon manichéenne du monde avec les États-Unis et son gouvernement comme un pouvoir mondial malfaisant et dominateur. Bien entendu, le gouvernement des États-Unis recourt souvent à la même rhétorique diabolisante mais inversée en traitant certains pays comme l'Iran ou la Corée du Nord « d'axe du mal ». Les sciences humaines doivent en principe dépasser de telles formes de manichéisme.

87.   On trouvera les informations les plus faciles d'accès sur la CIA et les différents points évoqués sur le site anglais de Wikipedia.

88.   https://www.washingtonpost.com/wp-srv/special/national/black-budget/ et https://www.lemonde.fr/ameriques/article/2013/08/29/espionnage-le-budget-noir-des-etats-unis-rendu-public_3468693_3222.html

89.   On remarquera le caractère invraisemblable de ces hypothèses complémentaires : pourquoi en plus du crash des avions faire sauter la base des tours de façon secrète ? Qu'est-ce que ce dynamitage ajoutait à l'attentat terroriste ? Et pourquoi le cacher ?

90.   http://www.liberation.fr/planete/2015/03/12/la-cia-complice-d-ecoutes-a-grande-echelle-sur-le-sol-americain_1218705 et https://www.wsj.com/articles/cia-gave-justice-department-secret-phone-scanning-technology-1426009924

91.   On remarquera que même une unité secrète d'hélicoptères, dénommée Seaspray et chargée d'opérations clandestines non reconnues par le gouvernement, fait l'objet d'un article détaillé sur Wikipedia… Il est vrai qu'elle est aujourd'hui dissoute.

92.   L'article français de Wikipedia sur ces événements est bien documenté : https://fr.wikipedia.org/wiki/Affaire_Iran-Contra (consulté en août 2018).

93.   L'objectif était sans doute de faire libérer des otages du Hezbollah au Liban, un mouvement allié de l'Iran.

94.   Nixon, président républicain, a très certainement commandité la tentative d'espionnage au Watergate, le siège du Parti Démocrate. Au niveau judiciaire seront plus précisément retenues les charges « d'obstruction à la justice, abus de pouvoir et outrage au Congrès ». On rappellera que ce sont deux journalistes du Washington Post qui ont révélé l'implication de la Maison Blanche. C'est une commission sénatoriale qui provoquera finalement la chute du président.

95.   Les complotistes sont entraînés dans une espèce de surenchère et multiplient les hypothèses les plus extrêmes (et les plus extravagantes) pour soutenir la thèse du complot : d'aucuns affirment que les avions qui se sont écrasés contre les tours n'étaient pas des avions de ligne détournés mais des avions militaires maquillés en Boeing 767 et sans doute télécommandés… On voit que le soupçon conduit à multiplier les hypothèses de plus en plus fragiles.

96.   Dans ses premières déclarations, ben Laden dit que Dieu a puni l'Amérique sans revendiquer personnellement les attentats ; c'est dans une vidéo ultérieure où il converse sur un ton familier qu'il explique l'ensemble de l'opération. Ici aussi, des complotistes se lancent dans des hypothèses fragiles pour expliquer que cette vidéo est un faux (sans doute réalisé par la CIA).

97.   Robert-Vincent Joule et Jean-Léon Beauvois, Petit traité de manipulation à l'usage des honnêtes gens, Grenoble, Presses Universitaires de Grenoble, 1987.

98.   On se souvient du « Temple du peuple » sous l'autorité de Jim Jones qui provoqua le suicide de plus de 900 personnes en Guyane en 1978 (un certain nombre furent vraisemblablement assassinées).

99.   L'opinion publique européenne, sans doute mieux informée, s'est montrée beaucoup plus opposée à cette intervention militaire et n'a généralement pas cru aux affirmations des responsables américains.

100. On se souvient par exemple de « l'affaire Teissier » qui a secoué le monde de la sociologie universitaire française : astrologue médiatique, Élizabeth Teissier a soutenu en 2001 une thèse en sociologie à l'université de Paris-V qui visait implicitement à soutenir le caractère scientifique de l'astrologie. La défense de cette thèse a suscité la réaction négative d'un grand nombre de sociologues qui ont estimé (dans plusieurs textes argumentés) que le travail présenté ne répondait pas aux critères d'une thèse de sociologie.

101. Outre l'astrologie déjà citée, on peut évoquer les médecines « alternatives » (comme l'homéopathie), souvent mises en cause, mais aussi nombre de disciplines dérivées de la psychologie comme la PNL (Programmation neuro-linguistique), les méthodes de « développement personnel », la sophrologie, etc. On pourra se reporter entre autres à Valéry Rasplus (sous la direction de), Sciences &pseudo-sciences. Regards des sciences humaines. Paris, éditions Matériologiques, 2014.

102. L'Association Française pour l'Information Scientifique qui publie le site Science… & pseudo-sciences (http://www.pseudo-sciences.org) a ainsi été accusée de défendre les OGM ou l'industrie nucléaire.

103. Bien entendu, nous avons tous une maîtrise plus ou moins grande des savoirs scientifiques. Un minimum de connaissance des méthodologies scientifiques suffit à comprendre que l'astrologie n'est ni une science ni même un savoir, et que l'homéopathie qui vend des produits tellement dilués qu'ils ne contiennent aucun principe actif ne peut guère avoir qu'un effet placebo.

104. La presse occidentale a parlé de plus de 4500 morts, victimes de la répression, alors que ce nombre s'élève vraisemblablement à moins de 700 pour l'ensemble du pays (dont une centaine à Timișoara).

105. On peut suivre sur ce point l'analyse d'Ignacio Ramonet, « Télévision nécrophile » dans Le Monde diplomatique, mars 1990, page 3.

106. L'origine de la manipulation des charniers de Timișoara n'est pas clairement établie : si des sources roumaines sont évoquées, il semblerait que ce soit surtout dans les salles de rédaction en France (ou en Belgique) qu'on ait dans l'effervescence du moment grossi le trait alors que les journalistes sur place n'avaient (forcément) rien vu ni rien rapporté…

107. Laurent Mauriac et Pascal Riché , « Intoxication au New York Times », Libération, 11 novembre 2005

108. Toutes ces caractérisations sont évidemment sommaires et discutables dès qu'on considère des reportages plus précis.

109. L'exemple type des informations dérangeantes est celui des victimes civiles (mais aussi parfois militaires) dans les conflits armés où un pays est engagé : on insiste évidemment plus sur les crimes de guerre (réels ou supposés) de « l'ennemi » que sur ceux de ses propres forces armées. La diversité des sources d'information permet néanmoins de faire émerger — même si c'est souvent avec retard — ces vérités dérangeantes, qu'il s'agisse du massacre de Mỹ Lai (au Viêtnam) perpétré par des soldats américains en 1968, des mauvais traitements subis par les prisonniers irakiens à Abu Ghraib en 2003, ou des victimes civiles de l'invasion de l'Irak par la coalition menée par les États-Unis en 2003 (le site Iraq Body Count fournit des chiffres considérés comme minimaux : toutes ces victimes n'ont évidemment pas été tuées par les forces de la coalition mais également par les insurgés, notamment ceux de l'État Islamique à partir de 2014). On soulignera, même si c'est évident, que la recherche d'information implique un travail d'enquête journalistique qui est coûteux (dans tous les sens du terme) : il y a peu de reportages sur les conditions de travail dans l'industrie textile en Asie (sauf quand il y a un accident grave) ou sur la situation des paysans en Afrique subsaharienne (sauf quand il y a un conflit armé), sans doute parce que les rédacteurs en chef estiment que ces situations n'ont pas ou peu d'intérêt pour leurs lecteurs ou spectateurs et qu'une enquête sur un tel sujet serait dès lors trop « coûteuse ».

110. En août 2017, Fox News a été accusée d'avoir diffusé de fausses informations sur la mort d'un membre du parti démocrate, Seth Rich, qui aurait été victime d'un assassinat politique (https://www.lemonde.fr/big-browser/article/2017/05/31/comment-le-meurtre-de-seth-rich-un-salarie-du-parti-democrate-a-mute-en-theorie-du-complot_5136496_4832693.html). L'accusation a été largement relayée par les autres organes de presse. On se souvient également de la polémique autour des supposées « no-go zones » dans la région parisienne, qui auraient été semblables à des zones de guerre en Irak (https://fr.wikipedia.org/wiki/Fox_News_Channel) : là aussi, c'est le contrôle par d'autres organes d'information qui a révélé les exagérations sinon les mensonges de ce prétendu reportage.

111. https://www.acrimed.org/Les-medias-face-au-mouvement-social-de-la-fin-1995

112. On remarquera que les principaux partis politiques français étaient favorables à ce traité : certains (à l'extrême-gauche mais aussi à l'extrême-droite) en ont conclu à une fracture entre le peuple et les élites « politico-médiatiques ».

113. L'intérêt porté aux faits divers a souvent été interprété par les critiques des médias comme un moyen de détourner les lecteurs ou spectateurs des « vraies » questions politiques et sociales.

114. Ces différents mécanismes (ainsi que ceux évoqués plus loin) justifient que l'on parle d'idéologie dominante (au sens marxiste du terme) : malgré la diversité des opinions, les grands médias reflètent une idéologie générale qui est celle des classes dominantes (bien que celle-ci ne soit pas uniforme), et le point de vue des classes dominées (ou des fractions dominées) n'y apparaît que de façon occasionnelle, partielle ou médiate. On remarquera seulement que, si pour Marx, la définition des classes dominées était claire (il s'agissait des travailleurs à qui l'on extorquait un surtravail ou une plus-value), elle l'est sans doute beaucoup moins aujourd'hui dans les pays occidentaux : un professeur d'université appartient sans doute aux classes dominantes, mais qu'en est-il d'un professeur de lycée (qui a passé le concours en France) ou de collège ? Par ailleurs, si l'extrême-gauche politique (ou « la gauche de gauche ») prétend défendre les dominés (en promouvant par exemple la socialisation des moyens de production), elle ne peut pas prétendre représenter le point de vue des classes dominées (ou les fractions sociales dominées) : les immigrés clandestins, qui sont parmi les groupes les plus dominés, ne souhaitent sans doute pas l'abolition de la propriété privée. Dès lors, quels médias pourraient prétendre représenter les « classes dominées » et surtout l'idéologie des dominés ? Et existe-t-il autre chose que « l'idéologie dominante » ? Après tout, seuls des universitaires sans doute sont capables de lire et de comprendre Le Capital de Marx.

115. Paris, Liber-Raisons d'agir, 1996.

116. L'on pense bien sûr aux rédacteurs en chef des grands quotidiens qui décident de la Une, mais un réalisateur de télévision par exemple va sélectionner les rushes qui lui paraissent les plus pertinents et le montage implique toujours que l'on coupe des prises ou des morceaux de prises jugés moins importants. En amont du travail journalistique, les « producteurs » d'information (comme les hommes politiques, mais également toutes les institutions, les entreprises, les groupements de toutes sortes) font d'ailleurs une première sélection des informations qu'ils espèrent faire passer dans les médias.

117. Le plus souvent d'extrême-gauche ou d'extrême-droite, mais parfois d'une ligne politique difficilement identifiable. L'hostilité au pouvoir en place et l'anti-américanisme sont des traits assez constants. Les sites de tendance écologiste (au sens politique) privilégient quant à eux des informations sur l'environnement et prétendent moins souvent dénoncer les mensonges ou la manipulation orchestrée par les grands médias.

118. Toute lutte politique implique presque nécessairement une forme plus ou moins accentuée de manichéisme qui consiste à dénigrer les intentions supposées mauvaises de l'adversaire. Mais ce manichéisme devient plus profond lorsqu'il se transforme en « vision du monde » où tous les événements, toutes les réalités, tous les faits sont interprétés comme le résultat d'un combat entre les forces du bien et celles du mal (conçues comme des entités homogènes et structurées). La plupart des sites « alternatifs » oscillent entre ces deux formes, forte ou faible, de manichéisme.

119. Bien entendu, tous les attentats commis en Occident ne sont pas le fait de ces groupuscules islamistes : on se souvient par exemple du massacre commis en 2011 par Anders Breivik, militant d'extrême-droite, en Norvège.

120. Encore une fois, on rappellera que cette indépendance n'est évidemment pas absolue…

121. Bien entendu, certaines révélations du journalisme d'investigation ont pu se révéler inexactes, partiales ou partielles. C'est l'accord entre les grands sites d'information (parfois aussi l'intervention de l'autorité judiciaire qui doit prendre position sur des questions de diffamation) qui permet de conclure à l'exactitude des faits éventuellement révélés). Un reportage isolé n'est pas en soi une preuve, et il y a eu des exemples de « bidouillage » commis par certains journalistes (bidouillages dénoncés — parfois avec retard — par leurs confrères).

122. Un journal comme Le Monde en France paraît à l'opposé de la presse à sensation ou à scandales, mais les sujets « sérieux » de nature politique, sociale, économique, écologique, sanitaire… sont bien retenus pour leur caractère « sensationnel », susceptibles d'éveiller l'intérêt de ses lecteurs même si ces derniers sont en principe moins sensibles aux amours des têtes couronnées ou des stars de toutes sortes.

123. Cf. la remarque précédente sur « l'idéologie dominante » diffusée par les grands médias.

124. Encore une fois, il faut souligner que l'information dans sa dimension strictement factuelle est une construction sociale qui n'est pas le fait d'un seul individu ou d'une seule instance (témoin, attaché de presse, journal, agence de presse…) et qui demande un investissement important, en temps et en argent : il suffit de penser aux moyens humains que demande par exemple une véritable investigation journalistique sur un sujet même limité. Cela explique que les médias « alternatifs » ou « minoritaires » privilégient le plus souvent l'analyse ou l'interprétation de faits déjà établis (par exemple des statistiques fournies par divers organismes ou institutions) plutôt que le recueil de faits inédits ou originaux, même s'il y a bien sûr des exceptions.

125. https://www.lemonde.fr/politique/article/2014/01/23/le-grand-boniment_4353499_823448.html

126. Il aurait été nettement moins coûteux pour les États-Unis d'acheter le pétrole à l'Irak (sur un marché extrêmement concurrentiel) que de l'envahir militairement : le gouvernement américain poursuivait (très vraisemblablement) des intérêts géopolitiques plutôt que strictement économiques (« favoriser les grandes firmes américaines »). Les grands conflits où sont intervenus les États-Unis — par exemple la guerre du Viêtnam — ne s'expliquent pas par des intérêts strictement économiques mais par des raisons politiques et stratégiques (comme « la lutte contre le communisme »), quel qu'en fût le coût.

127. Lorsqu'on fait une recherche sur un moteur de recherche comme Google, il est rare que l'on dépasse la première ou la deuxième page de résultats… Les résultats sont en principe classés par ordre de pertinence, ce qui explique qu'après quelques pages de résultats, les liens nous semblent moins intéressants, mais il faut rappeler que la pertinence des résultats est déterminée notamment sur base de nos recherches antérieures, ce qui renforce le « biais de confirmation » : Google nous donne les résultats que nous attendons ! (Les algorithmes de recherche de Google ne sont pas connus même si Google en donne des explications d'ensemble.)

128. Ce genre de remarques a déjà été fait par Pierre Bourdieu et d'autres.

129. Si le capital économique peut être hérité, le capital culturel — même s'il prend également la forme d'une socialisation spontanée aux objets culturels, notamment les plus prestigieux — suppose pour une part un apprentissage qui est plus ou moins ardu notamment lors du cursus scolaire. « L'accumulation du capital culturel exige une incorporation, qui en tant que telle suppose un travail d'inculcation et d'assimilation, coûte du temps et du temps qui doit être investi personnellement par l'investisseur » (Pierre Bourdieu, « Les trois états du capital culturel » dans Actes de la Recherche en Sciences Sociales, Année 1979, 30, p. 3.)

130. Les attentes créées par les savoirs incorporés peuvent être ébranlées par des événements imprévisibles qui suscitent alors une forme de stupéfaction comme celle qu'ont ressentie beaucoup de témoins des attentats du 11 septembre 2001. On remarquera que les thèses complotistes concernant ces attentats étaient une manière de rétablir une vraisemblance d'ensemble pour des personnes qui considéraient les États-Unis comme un empire malfaisant : leur image négative n'était pas compatible avec le fait que ce pays pouvait être la victime d'un attentat particulièrement meurtrier. La manière de résoudre cette incohérence était alors d'accuser la CIA (ou tout autre service secret) d'être les véritables responsables de ces attentats. Les autres témoins, qui n'ont pas cru à la thèse « conspirationniste », ont quant à eux dû modifier leur image du « terrorisme » qui était jusque-là associé à des actes spectaculaires mais de faible ampleur : le terrorisme pouvait désormais tuer des milliers de personnes et paralyser tout un pays pendant plusieurs jours…

131. Le « complotisme » est certainement une catégorie fourre-tout et, dans certains cas, une manière de déconsidérer des adversaires politiques : il y a une différence entre croire que la terre est plate ou dénoncer un supposé complot juif mondial. Il n'est donc pas possible de dresser un portrait type des complotistes ni de dresser une liste des hypothétiques caractéristiques communes de ces personnes.

132. http://passeurdesciences.blog.lemonde.fr/2014/10/01/les-negationnistes-du-sida-repassent-a-lattaque/

133. Ces titres ont été relevés dans la presse quotidienne. On remarquera, à propos du dernier de ces titres, qu'un autre hebdomadaire écrit : « L'affaire Benalla révèle-t-elle une banalisation des violences policières ? » : on perçoit évidemment la différence d'engagement par rapport à la réalité des violences policières. Quant à la supposée bombe à retardement que constituerait la dette publique, elle devrait nous pousser bien sûr à faire des économies en particulier dans les services publics…

134. La maîtrise de la logique nous est sans doute de peu d'utilité pour juger de la vraisemblance de la plupart des textes « argumentatifs » qui procèdent par ellipses et qui n'exposent pas de nombreuses prémisses supposées connues ou évidentes : c'est la connaissance des mécanismes économiques de la dette publique qui me permettra de questionner une formule comme celle de la « bombe à retardement », bien plus que la critique de nature logique.

135. Notre représentation du monde est faite pour une grande part de croyances, mais, de notre point de vue, ces croyances sont la réalité : je n'ai jamais vu le pôle sud, mais, pour moi, le pôle sud est réel, il n'est affecté d'aucun coefficient d'incertitude. Même des croyances plus abstraites deviennent réelles dans ma représentation du monde : si j'affirme que les hommes et les femmes sont égaux, il ne s'agit pas seulement d'une croyance pour moi, mais d'une réalité.

136. De façon plus banale, la majorité des parents essaient de minimiser aux yeux de leurs enfants le caractère dramatique de la mort (notamment lorsqu'il s'agit de proches). C'est certainement une telle situation que le film évoque pour de nombreux spectateurs adultes.


Tous les dossiers - Choisir un autre dossier