Tuesday, January 10, 2006

Le sens des autres: l'ontogenèse de la confiance épistémique




Manuscrit soumis à la révue Raisons Partiques. Ne pas citer sans autorisation. Tous droits réservés.

Draft. Paper submitted to the review Raisons Pratiques. Do not quote. All rights reserved.



Mais qu’y a-t-il donc de si périlleux dans le fait que les gens parlent, et que leurs discours indéfiniment prolifèrent ?
Michel Foucault, L’ordre du discours.

Speech is the highest and lowest human function, the endroit charnière between the mechanical grunt of the vocal chords and the poetry of cognition
Alice Kaplan, French Lessons

Epistémologie du témoignage : la dépendance épistémique de la parole des autres

Quelqu’un vous adresse la parole, vous dit quelque chose, et vous le croyez. Cette forme banale d’interaction est au centre d’un débat en épistémologie sociale portant sur le rôle du témoignage dans l’acquisition des connaissances. Comment pouvons nous acquérir des croyances justifiées par le biais des paroles d’autrui ? Le discours n’est-il que le véhicule de connaissances justifiées par d’autres moyens ou peut-il lui-même en assurer la justification?
La dépendance épistémique d’autrui est un phénomène majeur dans la vie humaine. Peu de connaissances peuvent être acquises sans l’aide d’autrui voire sans la médiation d’institutions sociales et de technologies inventées et maîtrisées par d’autres. Sans cette « division du travail cognitif » typique des sociétés humaines, notre vie cognitive ne serait pas très différente que celle des autres animaux.
La dépendance épistémique de la parole d’autrui comporte des difficultés épistémologiques supplémentaires : le langage est trompeur, les possibilités de manipulation et de mensonge sont infinies. Dans quelles conditions sommes-nous justifiés à croire ce que nous disent les autres? Comment éviter le risque de crédulité que toute acte de confiance dans nos interlocuteurs comporte ?
Les questions que soulèvent la fiabilité du témoignage et le statut de la communication comme véhicule de connaissance se retrouvent tout au long de l’histoire de la philosophie. L’épistémologie traditionnelle – de Platon aux néo-empiristes – fait peu de cas de cette forme d’accès au savoir : l’idée même d’une connaissance acquise par le truchement d’autrui semble incompatible avec l’autonomie intellectuelle qui caractérise le sujet connaissant rationnel. On pourrait même voir l’histoire de l’épistémologie comme celle d’une série des prescriptions et des règles de conduite de l’esprit visant à le protéger des risques de crédulité et d’ « infection » par le faux. Juste à titre d’exemple, parmi les « principes de régulation de l’opinion » que Locke discute dans son Essai sur l’entendement humain, une des obligations visant à renforcer l’autonomie de l’esprit est de ne pas accepter d’idées sur la base de l’autorité .

Le débat épistémologique autour de la confiance à accorder au témoignage d’autrui a été relancé dans l’épistémologie contemporaine par un nombre de travaux qui re-évaluent le témoignage comme source de connaissance et le placent au même niveau que d’autres ressources considérées traditionnellement comme plus fiables, telles que la perception ou l’inférence. Contre la vision philosophique classique du témoignage comme source de fausses croyances et de distorsions, une épistémologie du témoignage s’est constituée pendant les dernières dix années à l’intérieur de l’épistémologie sociale. Elle s’articule autour d’une opposition entre deux positions principales, le réductionnisme et l’anti-réductionnisme. Selon le réductionnisme, qu’on fait typiquement remonter à David Hume , la croyance en un témoignage est toujours justifiée par des raisons indépendantes de celui-ci, raisons qui sont elles mêmes fondées sur des sources de connaissance plus fondamentales telles que la perception, l’inférence et la mémoire. Selon Hume, notre confiance en un témoignage est établie a posteriori, après avoir observé une corrélation stable entre ce que le témoin rapporte et la réalité, c'est-à-dire, après avoir nous-mêmes établi la fiabilité du témoin, par une inférence inductive ordinaire. Selon l’anti-réductionnisme, traditionnellement associé au philosophe écossais Thomas Reid , le témoignage n’est pas réductible à d’autres sources de connaissance . La version contemporaine de l’anti-réductionnisme défendue notamment par Anthony Coady et Tyler Burge , plaide pour une justification a priori du savoir acquis par la communication : pour ces auteurs, le langage n’est pas seulement un véhicule d’informations : il est une source de légitimation de nos croyances .
Dans cet article je voudrais analyser plus de près la plausibilité d’une approche anti-réductionniste du témoignage, en explorant d’une part les bases cognitives du développement de la confiance en la parole d’autrui et d’autre part les mécanismes pragmatiques à l’oeuvre dans l’interprétation des témoignages. Il me semble en effet que les arguments anti-réductionnistes fondés sur les propriétés de la communication linguistique ne prennent pas suffisamment en compte la complexité des processus cognitifs et des interactions sociales impliqués dans l’apprentissage et dans la communication.

Deux arguments contre le réductionnisme

L’anti-réductionnisme contemporain procède d’une ré-évaluation du langage comme source de légitimation épistémique. Je prendrai ici en considération deux des objections qu’il oppose au réductionnisme. Une première objection part du constat que, dans la plupart des circonstances, il est impossible d’établir d’une façon indépendante la fiabilité d’un témoignage sans s’appuyer sur d’autres croyances elles-mêmes tirées de témoignages. Si je peux tenter de vérifier d’une façon indépendante un témoignage selon lequel l’aspirine fait baisser la température, je reconnais un cachet comme étant un cachet d’aspirine en vertu d’autres connaissances acquises par témoignage. Ceci est d’autant plus évident que l’on prend en compte la dimension de l’apprentissage : ma capacité d’afficher aujourd’hui des raisons positives pour mes croyances dépend d’un long processus d’apprentissage au long duquel j’ai dû accepter sur la simple base du témoignage ce que signifiaient les mots et quelles étaient les règles du discours. Au moins pendant l’enfance, l’apprentissage ne saurait s’appuyer sur la quête de raisons indépendantes permettant de s’assurer de ce qu’on a appris. L’acquisition des outils linguistiques et conceptuels qui rendront possible nos inductions sur la fiabilité des témoignages est elle-même intrinsèquement dépendante du témoignage d’autrui. Dans les mots de Thomas Reid : « la nature veut que nous soyons portés dans les bras d’une mère, avant que nous puissions faire usage de nos jambes ; elle a voulu pareillement que notre croyance fût dirigée par l’autorité et la raison des autres, avant qu’elle pût l’être par nos propres lumières. La première de ces deux intentions nous est suffisamment révélée par la faiblesse de l’enfant et la tendresse de la mère ; la crédulité de la jeunesse et l’autorité de l’âge attestent avec évidence la seconde »
La seconde objection au réductionnisme que je voudrais considérer ici mène, elle aussi, à voir dans le discours même non seulement un véhicule, mais une source de légitimation des connaissances et se fonde sur le fait que le locuteur prend la responsabilité de ses actes de parole. Le fait que quelqu’un parle ne fournit pas simplement une donnée d’observation du même ordre que celle fournie par d’autres comportements ou d’autres phénomènes. La communication a un rôle épistémique qui lui est propre. Un acte du langage fournit un type de donnée très spécial : il établi une relation de croyance non pas – ou non pas seulement – entre un sujet et un état de chose dans le monde mais entre deux sujets. Croire ce qui m’est dit c’est avant tout croire la personne qui m’adresse la parole. Il y a donc une forte asymétrie entre la situation épistémique ordinaire où les croyances d’un sujet s’appuient sur un ensemble de données – situation que le réductionnisme considère comme paradigmatique même dans le cas du témoignage – et ce qui se passe lorsque nous croyons un interlocuteur. Il s’agit alors d’une relation entre deux sujets intentionnels, l’auteur d’un acte de parole et le destinataire de cet acte. Cet aspect si manifeste du « croire autrui » a été négligé par les auteurs qui pourtant attribuent un rôle épistémique spécifique à la communication, exception faite par Richard Moran , qui a défendu cette ligne d’objection et selon qui la spécificité du « dire » tient à la responsabilité mutuelle des interlocuteurs.
Dans ce qui suit, je voudrais prendre au sérieux ces deux objections – que j’appellerai l’objection développementale et l’objection pragmatique – en les considérant non seulement comme des objections de principe, mais en essayant aussi d’en saisir la portée empirique à travers une compréhension des mécanismes cognitifs en jeu dans l’apprentissage et dans la communication. Une examen de l’ontogenèse et de la pragmatique de la confiance épistémique devrait également aider à dépasser la polarisation entre réductionnisme et anti-réductionnisme dans l’analyse du témoignage.

Les bases cognitives de la dépendance épistémique : l’ontogenèse de la confiance


C’est un lieu commun de penser que, s’il existe une prédisposition à la crédulité, c’est dans l’enfance qu’elle se manifeste le plus clairement. Les enfants, dépourvus d’autonomie intellectuelle, se retrouvent dans une situation de déférence fondamentale vis-à-vis de leur parents ou instructeurs. Leur confiance dans la parole des autres est un ingrédient du processus d’apprentissage : sans une bonne dose de confiance préalable, il ne serait pas possible d’apprendre quoi que ce soit. Certes, les enfants sont naïfs et les capacités d’évaluation épistémique se développent d’une façon graduelle. Ce n’est pas pour autant que les enfants sont de simples « enregistreurs » de toute information provenant des adultes. La psychologie cognitive des vingt dernières années a montré que, contrairement à ce que pourrait suggérer leur extrême vulnérabilité et leur dépendance des autres pour leur survie, les enfants ont, dès la naissance, une vie cognitive bien plus riche et plus autonome que cette « prometteuse bruyante confusion » à laquelle William James réduisait l’expérience perceptive d’un nouveau né . Les enfants n’arrivent pas au monde avec un cerveau pareil à une tabula rasa sur lequel l’apprentissage culturel inscrira les concepts et les règles du raisonnement. De nombreuses recherches montrent l’existence chez les enfants pré-linguistiques de capacités cognitives hautement articulées leur permettant de traiter d’une façon différenciée les stimuli qu’ils reçoivent de l’environnement. Un bébé de 5 mois, par exemple, se représente un objet solide comme une entité indépendante avec des propriétés physiques telles qu’il ne peut pas être dans deux endroits au même temps, ne peut pas traverser un autre objet solide, etc . D’autres expériences montrent qu’à cet age les bébés ont une discrimination numérique des objets, et des attentes sur leurs mouvements. Contra Piaget, selon qui les connaissances abstraites se construisent progressivement par l’observation et l’internalisation des régularités externes à travers l’interaction sensori-motrice avec l’environnement, cette nouvelle approche du développement cognitif met en évidence des capacités représentationnelles précoces chez l’enfant qui guident sa structuration des informations qu’elle reçoit de ses sens.
De même, l’enfant n’est pas dépourvu de toute ressource cognitive propre face à l’information qui lui provient d’autrui. A partir d’environ l’age de 9 mois et de façon rapidement croissante, donc avant le développement du langage, le bébé montre des capacités d’attention conjointe et de compréhension des buts de certaines actions d’autrui qui lui permettent d’avoir des attentes sur le monde social autour de lui, d’en tirer parti et de le manipuler à son avantage . On peut soutenir que les capacités de mentalisation, qui se développent d’une façon indépendante du langage, sont à la base de la compétence communicative de l’enfant et jouent un rôle crucial dans l’apprentissage linguistique même . L’enfant est donc un acteur social bien plus sophistiqué que ce qu’on pourrait croire. Mon hypothèse ici c’est que les compétences psychologiques et communicatives de l’enfant lui permettent de s’en remettre à autrui, en particulier dans la formation de ses croyances, de façon moins totalement passive et vulnérable qu’on ne le suppose généralement . Cette hypothèse converge avec la deuxième objection présentée aux arguments réductionnistes, selon laquelle le rôle épistémique de la communication est très différent de celui d’autres sources d’acquisition de savoir basées sur l’observation et l’induction. Croire ce que dit autrui est un processus cognitif basé sur d’autres inférences: c’est l’intentionnalité de l’acte communicatif du locuteur qui détermine notre confiance dans ce qu’il nous dit et en assure une légitimation au moins partielle.
Un être capable d’une lecture élaborée du monde social a donc un avantage non seulement relationnel, mais aussi épistémique grâce à une compréhension plus fine des intentions et des compétences de ses sources d’information. Plusieurs auteurs plaident aujourd’hui pour une explication de l’ « exception culturelle » caractéristique de l’espèce humaine basée sur le développement d’une théorie de l’esprit, ou d’un sens des autres, qui nous donnerait un avantage non seulement en termes de socialisation mais aussi d’accumulation culturelle et d’apprentissage . Du point de vue développemental, nombre d’expériences récentes montrent une corrélation entre développement d’une théorie de l’esprit et capacité d’évaluation des sources d’information. Les enfants autour de 4 ans développent une théorie de l’esprit plus sophistiquée qui leur permet d’attribuer des croyances fausses aux autres . En même temps, ils deviennent plus sceptiques dans l’acquisition d’information (par exemple, dans l’apprentissage de nouveaux mots), en dosant leur confiance selon les performances de leurs informateurs . L’ontogenèse de la confiance épistémique est donc à reconstruire à l’intérieur du rôle de la mentalisation dans l’apprentissage. Un enfant n’apprend pas un nouveau mot par une simple association : il s’appui sur l’acte intentionnel de son informateur pour fixer la référence du mot (cf. Bloom 2000). Ainsi, ce lien étroit entre reconnaissance d’intention et apprentissage par le truchement d’autrui pourrait constituer une base empirique pour une légitimation épistémique d’une « confiance primitive » dans la parole d’autrui. En prêtant attention aux intentions d’autrui, l’enfant, qui a un accès très limité à l’acquisition autonome de connaissance, se retrouve avec un mécanisme d’acquisition d’information qui est beaucoup plus puissant sans être pour autant passif.
La confiance préalable que l’enfant fait à la parole d’autrui est associée à sa capacité de reconnaissance d’un acte de parole comme acte intentionnel. Au cours du développement, le raffinement de ses compétences sociales lui permet d’évaluer la crédibilité des ses interlocuteurs ainsi que d’en éprouver la sincérité. Le développement des compétences épistémiques et celui des compétences psychologiques restent étroitement lié : apprendre à mieux évaluer les sources d’information passe par une compréhension plus fine des stratégies intentionnelles des autres. Bref, pour connaître le monde il est crucial de connaître les autres : notre « sens social » joue un rôle fondamental dans le développement de notre compétence épistémique .
La recherche psychologique sur le développement de la confiance épistémique nous livre le schéma suivant :

Développement de la confiance épistémique
:

16 mois: Les enfants distinguent entre affirmations vraies et fausses et apprennent les mots d’informateurs qui montrent les capacités intentionnelles adéquates (Baldwin & Moses 2001)
2 ans: Les enfants construisent l’identité des agents en partie sur leur fiabilité passée et commencent à montrer de la méfiance sélective envers les autres (Pea 1982)
3 ans: Les enfants retiennent l’information qui provient d’informateurs fiables et sont sensibles au degré d’assurance de l’informateur (Clément et al, 2004)
4 ans: La méfiance sélective des enfant s’élargi aux informateurs négligents et ils sont moins réceptifs aux informations trompeuses en provenance de locuteurs naïfs. Il commencent néanmoins à sur-estimer la fiabilité des informateurs fiables (Sabbagh, Baldwin, 2001 ; Welch-Ross, 1999)(d’après M. Koening et P. Harris (2005) « The role of social cognition in early trust », TICS, 9, 10, p. 457).

Ce développement conjoint des capacités de mentalisation et des capacités épistémiques permet de remettre en question, au moins au niveau du développement, l’opposition radicale entre réductionnisme et anti-réductionnisme. Ceux qui défendent une position anti-réductionniste en utilisant l’objection développementale, soutiennent que l’apprentissage est un cas de déférence fondamentale à autrui, c'est-à-dire, un cas de crédulité pure où on se fie aux autres sans aucune raison. Selon Coady , par exemple, il ne peut qu’en aller ainsi car c’est impossible d’acquérir un langage sans acquérir en même temps des croyances vraies sur ce dont on nous parle. En d’autres termes, il est impossible d’imaginer une situation d’apprentissage du langage qui ne présuppose pas la vérité des témoignages sur le monde qui nous permettent cet apprentissage. Lorsqu’une mère dit à son fils de 2 ans « le four est brûlant » elle lui apprend en même temps et d’une façon indissociable des mots et un fait du monde. Elle peut se tromper, mais si l’erreur ou la tromperie avait été dominant dans les situations d’apprentissage on a du mal à comprendre comment l’apprentissage linguistique et donc la langue elle-même auraient pu se stabiliser comme pratiques culturelles. Or, l’hypothèse que je soutiens ici c’est que l’association entre communication linguistique et acquisition des croyances n’est pas si automatique : la mentalisation sert de médiation entre apprentissage linguistique et acceptation du témoignage. C’est à travers la reconnaissance d’un acte intentionnel que l’enfant infère ce qu’on lui est dit .
La compréhension et l’apprentissage sont des processus bien plus riches et inférentiels que ce que l’on suppose habituellement. La présence de processus inférentiels tout au long de l’apprentissage et de l’acquisition du langage pourrait donner un argument aux réductionnistes, car elle semble montrer que la confiance dans le témoignage n’est pas primitive mais se fonde sur d’autres types d’inférence. Certes, une vision inférentielle de la communication affaiblie l’idée d’un principe de crédulité reidéen : croire les autres n’est pas un tropisme, mais un processus mental qui suppose une activité cognitive autonome . Néanmoins, les processus d’inférence en jeu dans la mentalisation ne sont pas un cas d’inférence inductive générale : la compréhension d’autrui se base sur une « théorie de l’esprit » tacite, qui nous permet de faire des inférences très particulières à partir d’inputs spécifiques (tout comme une théorie physique naïve guide nos inférences sur la trajectoire des objets inanimés). Un examen plus attentif des processus cognitifs impliqués dans l’acquisition des croyances par le biais d’autrui atténue ainsi le contraste entre réductionnisme et anti-réductionnisme, en nous permettant de reformuler la question. Il ne s’agit pas tant de savoir si il a ou il n’y a pas de processus inférentiels, mais plutôt de comprendre quelle est la nature des processus inférentiels impliqués et comment interagissent les inférences sur les autres et les inférences sur le monde.
Cette interaction entre compétence communicative et compétence épistémique nous amène à considérer de plus près la deuxième objection, l’objection pragmatique et à tenter de mieux éclairer les mécanismes pragmatiques à la base de la confiance épistémique.


Présomption de vérité, coopération et posture de confiance : esquisse d’une pragmatique de la confiance


Dans le célèbre roman de Jerzy Kosinski, Being There , rendu encore plus célèbre par le film interprété par Peter Sellers, Mr. Chance est un vieux jardinier mentalement retardé qui n’est jamais sorti de son jardin. Son patron meurt, il sort pour la première fois dans la ville de Washington, est renversé par une voiture et grâce à une série de coïncidences fortuites, il se retrouve à habiter dans l’appartement d’un tycoon de la finance américaine et à dialoguer avec les hommes et le femmes les plus en vue des Etats-Unis. Un jour, le Président des Etats-Unis en visite lui demande son avis sur la mauvaise saison à Wall Street. Mr. Chance répond, comme toujours, avec des phrases vagues sur la vie du jardin : «Dans un jardin la croissance a sa saison. Il y a le printemps et l’été mais il y a aussi l’automne et l’hiver. Et ensuite à nouveau le printemps et l’été. Tant que les racines ne sont pas coupées, tout est bien et ira bien ». Après une sérieuse réflexion, le président interprète ces propos comme un constat profond sur la symétrie fondamentale entre nature et société et les cite à la télévision le lendemain même. Bien sûr, nous ne sont pas ici dans un cas d’échange conversationnel ordinaire : il s’agit d’un cas extrême de « sur-interprétation » dont les effets de malentendu amusent le lecteur. Mais est-ce que les cas d’interprétation quotidienne de la parole d’autrui sont radicalement différents de celui-ci ? Considérons la façon dont Président interprète Mr. Chance. Il lui attribue une certaine crédibilité en tant qu’interlocuteur à cause du contexte social de leur rencontre : Mr.Chance est apparemment un ami de son ami, donc, par un effet de réputation et de réseau social, il est un interlocuteur digne d’attention. Le Président s’attend à que Mr Chance contribue d’une façon appropriée à la conversation, donc sur-interprète ses propos conformément cette attente. Il interprète ce que dit Mr. Chance dans le contexte de ses propres croyances sur l’état de l’économie américaine : d’où le sentiment que la phrase de Mr. Chance est particulièrement perspicace et profonde. Les idées du Président sur l’économie américaine que cet échange avec Mr. Chance inspire, vont évidemment bien au-delà du maigre et vague commentaire de ce dernier sur les saisons du jardin.
Cet exemple caricatural peut néanmoins nous aider à mieux comprendre les rapports entre communication et acquisition de croyances. La communication verbale est un processus inférentiel riche et articulé et non pas un simple transfert d’information d’une tête à une autre. A chaque fois que nous nous engageons dans un échange conversationnel, nous participons activement à la construction d’un ensemble des pensées, d’hypothèses générées « pour le bien de la conversation » et que nous allons retravailler et retenir en partie à la lumière de nos propres croyances. L’investissement dans ce travail cognitif d’interprétation et de compréhension mutuelle requiert une confiance dans le fait que notre interlocuteur est en train de jouer le même jeu et d’accepter un ensemble de règles tacites qui guident notre conversation, et en particulier qu’il s’efforce de dire des vérités pertinentes. Dans le cas de Mr. Chance, le malentendu dépend du fait que cette présomption est erronée : Renfermé dans une forme d’autisme, Mr. Chance répète des phrases sans les connecter au contexte de la conversation. L’effet de malentendu devient ainsi matière à fiction. Dans le roman, personne ne se rend compte du malentendu en dépit d’interactions répétées, avec des conséquences spectaculaires : Mr. Chance devient un gourou de la politique et de la finance américaine et un candidat possible à la présidence des Etats-Unis. Dans la vie réelle, la confiance, et en particulier la présomption de vérité peuvent toujours être remises en cause en fonction de la façon dont les échanges évoluent et s’enchaînent. Voyons de plus près comment se met en place et se maintient cette présomption de vérité dans la conversation, et quelle est son rôle dans la justification du témoignage.
L’idée que la communication requiert une présomption de vérité est désormais une platitude philosophique : au cours du XXème siècle cette idée a pris la forme de différents principes et règles de communication : à la suite de W.V.O Quine , Donald Davidson a invoqué un principe de charité interprétative selon lequel tout acte d’interprétation nécessiterait une attribution massive de croyances vraies à nos interlocuteurs. David Lewis a proposé une convention de vérité dans L partagée par les locuteur d’une langue L et qui fonde l’interprétation sémantique des expressions de L. Paul Grice a proposé une série de maximes de régulation de la conversation, parmi lesquelles une maxime de qualité qui nous enjoint à dire le vrai. Certains arguments anti-réductionnistes sur le témoignage reprennent ces principes pour justifier au moins en partie a priori les croyances acquises par le biais du témoignage. L’argument, dans sa forme générale est le suivant : puisque l’usage même du langage requiert un lien entre parole et vérité, nous pouvons, en absence d’indices contraires, faire confiance aux dires des autres. Pourtant, cet argument se heurte à plusieurs objections. L’invocation de principes à la Davidson ou de conventions à la Lewis donne peut être des conditions « transcendantales » de possibilité d’acquérir des croyances justifiées a priori par le biais du témoignage, mais elle n’explique pas un trait phénoménologique très saillant de cette acquisition, à savoir la confiance que nous faisons à la personne qui nous parle du fait même qu’elle nous a intentionellement adressé la parole.
Grice, lui, prend en compte la dimension intentionnelle de la communication, en voyant dans l’acte de dire quelque chose à quelqu’un la réalisation d’une intention très particulière puisqu’elle a besoin, pour aboutir, d’être reconnue comme telle par le destinataire de cet acte. C’est la reconnaissance d’une elle intention qui suscite chez le destinataire la présomption que le locuteur s’est conformé aux maximes de la conversation et en particulier à la maxime de qualité. Il y a pourtant même dans le cas de Grice deux objections possibles : premièrement la maxime de qualité est trop rigide. Lorsque le locuteur viole cette maxime Grice est obligé de conclure que le locuteur ne dit rien, mais « fait comme si » il disait quelque chose, et ce afin de véhiculer un message implicite. Cette analyse ne fonctionne pas du tout dans les cas très ordinaires d’expression vague ou approximative où les critères épistémiques contextuellement à l’oeuvre n’exigent non que le locuteur disent vrai mais seulement qu’il ne trompe pas le destinataire. En second lieu, les maximes semblent jouent un rôle ex post facto, une fois qu’une phrase a été énoncée, en vue de reconstruire, comme un détective, ce que le locuteur voulait dire en l’énonçant. Or, la confiance préalable qui nous justifierait à croire autrui se base sur le fait que le locuteur se présente comme une source fiable d’information par le seul fait de nous adresser la parole d’une façon intentionnelle : c’est son acte de nous dire quelque chose qui met en place une relation entre nous basée sur des attentes réciproques.
Un acte de communication est un engagement dans une interaction qui établit non seulement une sérié d’attentes sociales , mais un environnement cognitif partagé. Dans la pragmatique cognitive contemporaine on fait l’hypothèse que chaque acte de communication suscite des attentes de pertinence à partir desquelles les interlocuteurs construisent leurs hypothèses sur ce qui est dit , à l’intérieur d’un environnement cognitif partagé que leurs phrases contribuent à engendrer. A chaque échange conversationnel, notre paysage mental s’enrichit des nouvelles représentations et hypothèses sur le monde que nous construisons « pour le bien de la conversation ». Nous adoptons une posture de confiance dans la volonté de notre interlocuteur d’être pertinent pour nous et de s’engager dans la construction d’un environnement mutuel. Ceci n’implique pas que nous persisterons à croire tout ce que nous aurons accepté pour le bien de la conversation. Une posture de confiance est un ingrédient fondamental du processus de la conversation, mais il s’agit d’une forme de « confiance virtuelle » qui peut être éphémère. Comme dans l’histoire de Mr. Chance, les croyances sur l’économie américaine auxquelles le Président abouti sont engendrées par la posture de confiance qu’il adopte dans son échange avec Mr. Chance. Ces idées cependant sont largement indépendantes de ce que Mr. Chance a dit, et sont issues d’une interprétation fondée sur ce que le Président pensait déjà.
Notre travail cognitif, porté par la confiance que nous faisons à l’intentionnalité de notre interlocuteur, peut largement dépasser, voire s’écarter, de la seule compréhension de ce qui a été dit. La posture de confiance que nous assumons dans une conversation est toute la vulnerabilité cognitive que nous acceptons en nous engageant dans cet échange. Cette confiance est à la fois fondamentale et fragile : elle est nécessaire pour guider nos interprétations, mais elle peut être facilement retirée à la lumière de nouveaux indices. Par le seul fait de s’adresser à nous, autrui nous demande d’adopter une telle posture de confiance. La justification de cette posture n’est pas à chercher dans des propriétés du langage, mais dans la spécificité cognitive et sociale de notre reconnaissance d’un acte intentionnel dont nous sommes le destinataire. Cette posture de confiance peut nous disposer à croire, mais elle n’est pas suffisante à nous rendre crédules : nous élaborons avec notre interlocuteur un environnement cognitif partagé dont les retombées épistémiques relèvent de notre responsabilité. Pour être en situation de croire ce que nous dit autrui, il faut accepter la vulnérabilité que comporte tout engagement dans un échange verbal, mais il n’est pas nécessaire pourtant d’abdiquer notre autonomie cognitive.

Références :
Baldwin, D. Moses, L. (2001) “Links between social understanding and early word learning: Challenges to current accounts” Social Development, 10, p. 309-29.
Bezundehout, A. (1998) « Is Verbal Communication a Purely Preservative Process ? », Philosophical Review, vol. 107, n. 2, p. 261-88.
Bloom, P. (2000) How children learn the meaning of words, Mit Press, Cambridge, MA.
Burge, T. (1993) “Content Preservation”, Philosophical Review, vol. 102, p. 457-88.
Coady, A.C. (1992) Testimony, Clarendon Press, Oxford.
Clément, F. et al (2004) “The ontogenesis of trust” Mind and Language, 19, p. 360-79.
Conein, B. (2005) Les sens sociaux, Economica, Paris.
Koenig, M.A., Harris, P.L. (2005) “The role of social cognition in early trust” Trends in Cognitive Science, vol. 9, n. 10, p. 457-59.
Lackey, L. (2006) “It takes Two to Tango: Beyond Reductionism and Non-Reductionism in the Epistemology of Testimony” in J. Lackey and E. Sosa (eds.) The Epistemology of Testimony, Oxford University Press.
Lackey, L. (à paraître) “Testimony and the Infant/Child Objection”, Philosophical Studies.
Lutz, D., Keil, F. (2002) “Early understanding in the division of cognitive labour”, Child Development, 73, 1073-1084.
Moran, R. (2003) Authority and Estrangement, Harvard University Press, Cambridge, MA.
Moran, R. (2005) “Getting Told and Being Believed” in Philosophers’ Imprint, vol. 5, n. 5, p. 1-29.
Origgi, G. (2004) “Croyance, deference, témoignage” in E. Pacherie, J. Proust (éd.) La philosophie cognitive, Editions Ophrys et Maison de Sciences de l’Homme, p. 167-83.
Origgi, G. (2004) “Is Trust an Epistemological Notion ?” Episteme, vol. 1, n. 1, p. 61-72.
Origgi, G. (2006) « Peut-on être anti-réductionniste à propos du témoignage ? », Philosophie, vol. 88.
Origgi, G. ; Sperber, D. (2000) « On the proper function of language », in P. Carruthers, A. Chamberlain, Evolution and the Human Mind, Cambridge University Press.
Pea, R.D. (1982) « Origings of verbal logic : Spontaneous denials by two and three years old », Journal of Child Language, 9, p. 597-626.
Pouivet, R. (2003) Qu’est-ce que croire? Vrin, Paris .
Rotenberg, K. (1980) “A promise kept, a promise broken: Developmental bases of trust”, Child Development, 51, 2, p. 614-617.
Sabbagh, M.; Baldwin, D. (2001) “Learning words from knowledgeable versus ignorant
Speakers: Link between preschoolers’theory of mind and semantic development”, Child Development, 72, 1054-70.

Tuesday, December 27, 2005

Gènes et culture



Draft. Do not quote. Manuscrit en préparation pour le Dictionnaire du Corps édité par Michela Marzano, PUF. Tous droits réservés



Peu de concepts s’opposent aussi nettement que ceux de « gène » et de « culture ». La référence aux gènes fait penser à ce qui est pre-déterminé dans notre organisme, que nous ne pouvons pas changer au cours de notre vie. L’idée de culture évoque, elle, la variabilité, les innombrables différences de croyances, de comportements et de normes sociales qui relèvent d’un apprentissage et qui contribuent à l’identité personnelle. Toutefois cette dichotomie conceptuelle, même si elle persiste souvent dans le discours public qui oppose « naturel » à « culturel » ou « inné » à « acquis », a été largement dépassée par les développements des sciences de la vie et des sciences sociales au cours des dernières 50 années, ce qui permet aujourd’hui au neurobiologiste Jean-Pierre Changeux de conclure : « Le conflit idéologique entre gène et culture fait partie du passé ». Cette fausse opposition est pourtant profondément enracinée dans notre classification des traits qui définissent un être humain : après tout, souffrir de l’anémie méditerranéenne n’est pas du même ordre que parler le chinois. En quoi donc ce contraste est-il dépassé et comment articule-t-on dans la science contemporaine les rapports entre biologie et culture ?

La conception scientifique du gène

La conception scientifique du rôle des gènes dans la construction du corps et de l’esprit trouve son origine dans les travaux de Gregor Mendel. Ce moine autrichien a montré, il y a près de cent cinquante ans, que les « caractères » qui définissent un organisme sont contrôlés par des « facteurs » cachés qui en déterminent l’héritabilité à travers des lois combinatoires. En 1909, Wilhelm Johannsen introduit le mot « gène » pour désigner les « facteurs unitaires » qui seraient responsables de la transmission des caractères. La génétique s’impose alors comme un programme de recherche visant à éclairer les « lois de la constance » et de la stabilité intergénérationnelle, donc, en ce sens, un programme de recherche orthogonal par rapport à la théorie darwinienne, qui avait permis de mieux comprendre les « lois de la transformation et de l’évolution ». Au long de premières quarante années du vingtième siècle, la génétique progresse même si les gènes restent une hypothèse théorique, pour laquelle il n’y a pas de support matériel : on suppose qu’il y a des facteurs qui contrôlent les traits des organismes en développement et la stabilité de ces traits d’une génération à l’autre, mais la nature de ces facteurs reste inconnue. A partir des années quarante, les travaux des biologistes George Beadle et Edward Tatum permettent d’avancer l’hypothèse que les gènes exercent leurs effets en influençant la production d’enzymes. Un enzyme est une molécule spéciale, un catalyseur, qui accélère une réaction chimique. On savait que l’absence de certains enzymes était responsable de divers troubles physiques et mentaux. D’où l’hypothèse de Beadle et Tatum : « un gène, un enzyme ». En 1953, la découverte par James Watson, Francis Crick, Maurice Wilkins et Rosalind Franklin de la structure du support matériel des gènes, c'est-à-dire la structure à double hélice de l’acide désoxyribonucléique (ADN), ouvrait une nouvelle ère de la recherche génétique : on se rendit vite compte que les gènes faisaient beaucoup plus que guider simplement la construction des enzymes : ils contrôlaient la construction des protéines, c’est à dire des longues chaînes de molécules d’amino-acides à la base de la construction et du fonctionnement de notre corps. La structure à double hélice permettait d’élucider le mystère de l’héritabilité et de la stabilité des caractères : l’ADN est une substance chimique capable d’auto-réplication : chaque brin de la molécule initiale structurée en double hélice sert de matrice pour la synthèse d’une nouvelle molécule d’ADN. Le processus à la fois de réplication et de conservation est donc contenu dans cette capacité d’auto-réplication avec un taux très bas d’erreurs de l’ADN. Un gène n’est qu’un fragment stable (mais non-nécessairement continu) de la série des combinaisons des nucléotides, qu’on retrouve à chaque génération. Grâce aux découvertes de Jacques Monod et François Jacob dans les années soixante, la vision du rôle des gènes se précise : non seulement les gènes ont la capacité de se reproduire, mais ils ont la capacité de diriger et contrôler le processus de construction de l’organisme, en variant les protéines à construire selon la présence ou l’absence d’autres facteurs. Chaque gène peut donc non seulement construire une protéine, mais réguler ce processus de construction en prenant en compte d’autres facteurs, comme la présence d’autres gènes. L’expression d’un gène est donc inhibée ou activée par la présence d’autres gènes, de facteurs environnementaux et d’autres facteurs de régulation. Au milieu des années soixante, la nouvelle synthèse de la théorie darwinienne de l’évolution, de la biologie génétique et de la génétique des populations (HAMILTON 1964, MAYR 1963) a permis d’expliquer l’évolution d’une population en termes de modifications de la fréquence d’un gène par sélection naturelle.
Les avancées impressionnantes de la génétique au vingtième siècle ont abouti en 2003 au déchiffrage du génome humain, c'est-à-dire au séquençage des gènes présents dans l’ADN humain. Ce résultat extraordinaire ouvre une phase nouvelle dans l’étude de l’être humain et de son développement individuel et culturel. On peut aujourd’hui se poser de nouvelles questions : Comment les quelques 30 000 gènes déchiffrés dans notre ADN contribuent-ils à expliquer l’unicité des individus et leur diversité culturelle ? Quel est le rôle des gènes dans l’évolution culturelle et, réciproquement, quel effets l’évolution culturelle peut-elle avoir sur l’expression génétique ? Comment la complexité des vingt milliards des neurones interconnectés dans le cerveau humain peut-elle être expliquée à partir du petit nombre de gènes qui en contrôlent la construction ? Comprendre les rapports entre gènes et culture passe d’abord par la compréhension du rôle des gènes dans la construction de ce complexe cerveau/esprit qui a rendu possible l’explosion culturelle humaine.

Gènes, cerveau et langage

La singularité du comportement humain par rapport aux autres espèces animales n’a pas une explication évidente en termes génétiques. La divergence entre le génome humain et celui d’un chimpanzé est de moins de 1% (KING & WILSON 1975) et le rôle ce maigre 1% est loin d’être bien compris. On ne peut pas affirmer par exemple que la différence fonctionnelle entre humains et autres primates est due à l’émergence de nouveaux gènes spécialisés: les gènes responsables des fonctions cérébrales humaines ne constituent pas une classe de gènes particulière : la plupart de ces gènes ont des expressions ailleurs que dans le cerveau et sont analogues aux gènes d’autres espèces. La singularité du fonctionnement cérébral humain dans l’évolution n’est donc pas le simple produit d’une complexité croissante du génome. Le développement de certaines fonctions cognitives du cerveau humain, telles que le langage et d’autres capacités représentationnelles, crée une dynamique nouvelle dans l’évolution de notre espèce : l’accumulation d’une génération à l’autre des solutions aux problèmes posées par l’environnement et le rôle massif de l’apprentissage font de l’essor de la culture humaine un événement sans précédent dans le monde animal, capable de modifier les conditions mêmes d’action de la sélection naturelle sur notre espèce. Le déclenchement d’un processus de co-évolution gènes/culture explique l’exception humaine.
C’est dans le langage qu’on a longtemps vu le propre de notre espèce. L’évolution d’un système de représentation et de communication si articulé serait à la base de l’exception culturelle humaine. Le langage serait le résultat d’une série de mutations adaptatives (mutations cérébrales ainsi que somatiques, comme la présence d’un larynx capable d’articuler) qui auraient doté les humains de capacités symboliques nouvelles à la base de la boucle évolutive langage/cerveau (DEACON 1997).
L’étude des bases génétiques de la compétence linguistique, ne permet pourtant pas encore d’identifier un « gène du langage » en dépit de quelques déclarations fracassantes dans la presse. On connaît aujourd’hui certains gènes, comme le gène FOXP2, dont les mutations sont associées à des malformations spécifiques dans l’articulation du langage. D’où l’hypothèse que l’apparition du langage serait le résultat d’une modification du gène FOXP2 que l’analyse phylogénétique fait remonter à il y a environ 200 000 ans. Mais l’hypothèse reste spéculative. Et s’il est difficile d’établir une corrélation entre gènes et aires cérébrales, il est encore plus difficile d’établir des corrélations entre aires cérébrales et fonctions cognitives. Certaines aires, dites de Wernicke et de Broca, sont impliquées dans la compréhension et la production du langage. Mais ces mêmes aires sont aussi impliquées dans plusieurs autres capacités, comme la mémoire, la vocalisation et l’imitation. (FRIEDERICI 2002 ; KAAN &SWAAB 2002). Il semble alors que le rôle du langage dans l’exception humaine, soit à situer à l’intérieur d’un cadre plus complexe d’évolution des fonctions cognitives. Ainsi la pensée abstraite, bien que sûrement favorisée par l’essor d’un langage, peut être enracinée dans d’autres compétences cognitives. L’être humain est une « machine à idées ». Il est capable non seulement de produire des représentations abstraites, mais aussi d’en reproduire grâce à des extraordinaires capacités d’imitation et de communication. La coordination stratégique, la planification, l’anticipation d’actions d’autrui ainsi que la représentation du monde social autour de soi requièrent des compétences variées qui peuvent avoir contribué à l’émergence d’un environnement culturel qui a son tour a rendu possible la co-évolution cerveau/culture. Si on raisonne en termes darwiniens sur l’évolution de ces compétences, comme ça a été fait surtout dans le cadre de la psychologie évolutionniste (COSMIDES-TOOBY 1992, BYRNE-WHITEN 1997), on peut faire l’hypothèse que la pression sélective exercée sur l’évolution de ces différentes fonctions cognitives a crée une variété de « niches culturelles » (ODLING-SMEE & LALAND) favorables à l’essor d’une culture proprement humaine et donnant un caractère adaptatif au langage. Par exemple la capacité à se représenter les actions d’autrui en termes de croyances et d’intentions, ce que les psychologues appellent « théorie de l’esprit », aurait pu évoluer sous la pression d’une vie sociale de plus en plus complexe où des compétences de psychologie naïve pouvaient se révéler avantageuses (TOMASELLO 1999). Le cerveau humain aurait ainsi évolué sous la pression sélective des défis posés par son environnement non seulement naturel, mais aussi social et culturel. L’idée même de « nature humaine », d’une essence universelle commune à tout être humain, objet de tant de débats philosophiques au cours des siècles, ne peut donc être réduite ni à l’information contenue dans le génome humain, ni à la seule vie sociale et culturelle de l’espèce : en effet, ces deux aspects interagissent entre eux.

Culture et évolution

Une des contributions majeures de la théorie de la sélection naturelle de Darwin c’est d’avoir permis de repenser les phénomènes biologiques en termes de population. L’évolution par sélection naturelle ne peut s’expliquer qu’à l’échelle d’une population d’individus variés. Ces variations, dues à des mutations, ont un impact différent sur le succès reproductif (ou fitness) des individus. L’évolution est rendue possible par les variations héritables du succès reproductif. Par une simple lois algorithmique, les variations qui assurent un succès reproductif supérieur seront mieux représentées à chaque génération successive. La synthèse néo-darwinienne -l’application de la théorie darwinienne à la génétique- a permis de comprendre l’évolution en termes de variation de la fréquence des gènes dans une population sous l’effet de différentes forces au premier rang desquelles la sélection naturelle.
L’approche néo-darwinienne de l’évolution biologique a été étendue plus récemment à l’explication de l’évolution culturelle. L’apprentissage culturel introduit un effet cumulatif chez les humains qui a eu des retombées sur la sélection naturelle (TOMASELLO 1999) des nos capacités cognitives. L’espèce humaine ne se distingue pas seulement par le maintien d’un pool génétique d’une génération à l’autre. Chaque population humaine maintient également d’une génération à l’autre un « pool » d’informations acquises culturellement. Ce pool d’idées, pratiques et valeurs affecte la façon dont notre espèce répond à la sélection naturelle. L’expression culturelle, normalement considérée dans la plupart des sciences sociales comme indépendante de la biologie, est vue en cette perspective en continuité avec l’expression biologique : chaque élément du comportement d’un organisme vivant est le produit conjoint de l’interaction entre l’information génétique stockée en lui et les propriétés de son environnement. La sélection naturelle est responsable des mécanismes d’apprentissage fondamentaux qui produisent des comportements adaptatifs dans l’interaction avec l’environnement. Notre cerveau est resté relativement stable depuis près de 200000 ans tandis que notre évolution culturelle s’est extraordinairement accélérée au fil de l’histoire, en particulier au cours des derniers 40000 ans. Il suffit de penser aux conséquences du changement culturel majeur de notre histoire - l’invention de l’agriculture il y a 13000 ans - qui a engendré une transformation démographique et sociale radicale dans l’espèce humaine sans pourtant affecter l’organisation du cerveau. L’évolution culturelle a une dynamique propre qui combine héritage, apprentissage et communication pour engendrer des effets non prévisibles en termes de simple adaptation biologique.
Plusieurs modèles de l’évolution culturelle d’inspiration darwinienne ont été proposés dans les dernières trente années, parmi lesquels on peut distinguer trois familles principales : (1) la sociobiologie, (2) la mémétique et (3) les modèles de double héritabilité qui donnent une importance particulière l’articulation entre évolution biologique et évolution culturelle.
En 1975 l’entomologiste américain Edward O. Wilson baptisa « sociobiologie » une conception du comportement social des espèces animales combinant des techniques d’analyse provenant de l’éthologie, de la théorie néo-darwinienne de la sélection et de la génétique des populations. Selon cette conception, les comportements des animaux, et en particulier leurs comportements sociaux, sont des expressions des gènes au même titre que les traits somatiques. Autant que les traits somatiques, ils s’expliquent principalement par l’effet de la sélection darwinienne. La sociobiologie aura marqué un tournant important dans l’étude du comportement animal, mais son extension au cas humain, proposée par Wilson dans le dernier chapitre de son livre et reprise par d’autres chercheurs, a provoqué un débat tumultueux au milieu des années soixante-dix. La sociobiologie en tant qu’étude des bases biologiques du comportement social (animal et humain) caractérise un type de comportement en termes de sa contribution à la propagation des gènes qui le contrôlent. Une conduite qui peut sembler être le produit d’une motivation morale ou culturelle est en fait l’expression de prédispositions naturelles sélectionnées grâce aux avantages adaptatifs qu’elles confèrent. Les variations de comportements et de représentations socioculturelles entre ou à l’intérieur de populations peuvent être l’effet de conditions environnementales qui amènent les mêmes gènes à s’exprimer différemment. Cette façon d’expliquer les variations culturelles se heurte à deux sérieuses objections. La première est le constat de ce que les anthropologues appellent l’ « unité psychique de l’espèce humaine » : les différences biologiques entre individus et populations, en particulier en ce qui concerne leurs capacités cognitives, sont trop faibles et trop dispersées pour expliquer les différences culturelles. L’autre objection est que la possibilité d’expressions différentes des gènes en fonctions des conditions environnementales est sans commune mesure avec l’amplitude et la richesse des différences culturelles. Nombreux sont aujourd’hui les sociobiologistes qui ont accepté la critique faite par les défenseurs de la psychologie évolutionnaire (BARKOW, COSMIDES & TOOBY 1992) et selon laquelle l’effet des gènes sur la culture passe par leur effet sur les mécanismes mentaux ; ce sont ces derniers qui ont été sélectionnés au cours de l’évolution de l’espèce et non les comportements socioculturels. Ces derniers émergent dans un environnement qui a changé et qui change beaucoup trop vite pour que les gènes eux-mêmes s’y adaptent.
La deuxième famille des théories a connu un succès « grand public » remarquable depuis la sortie, en 1976, du livre du zoologiste Richard Dawkins : Le Gène égoïste. Selon Dawkins, il ne faut pas chercher des corrélations entre comportements socioculturels et gènes. La biologie humaine rend possible la culture mais celle-ci constitue un nouveau niveau d’évolution guidée par un processus de sélection darwinienne opérant non sur des gènes mais sur ces nouvelles unités culturelles analogues au gène mais autonomes par rapport à la sélection naturelle et capables de s’autorépliquer en passant « d’une tête à l’autre ». Dawkins baptisa mèmes ces nouvelles unités. Les mèmes constituent une nouvelle classe de réplicateurs. Comme dans le cas de la sélection naturelle les conditions d’une sélection culturelle des mèmes dépendent de leur variations héritables et de leur différent potentiel de réplication. Un mème est un trait culturel discret, relativement stable, qui se reproduit grâce à la capacité d’imitation humaine. Un même peut être une idée, un tic, un préjugé, un morceau de musique. Certains mèmes peuvent favoriser les gènes de leurs porteurs, comme par exemple le mème d’une découverte scientifique ou d’une pratique hygiénique, tandis que d’autres peuvent les défavoriser, comme par exemple le célibat ou les sports dangereux. La mémétique s’est révélée elle-même un même fertile et elle fait l’objet d’un nombre d’articles et d’études, mais elle s’est révélée plutôt stérile du point de vue de ses applications empiriques. Et les critiques à cette approche se sont multipliées aussi au fil des années. Cavalli Sforza critique par exemple la centralité de l’imitation dans la théorie de Dawkins, en insistant sur d’autres « forces » de la transmission culturelle comme la migration des individus et les phénomènes d’influence et d’autorité qui changent radicalement la propagation d’un trait d’une façon analogue aux mécanismes de dérive génétique plutôt que de sélection.
Robert Boyd et Peter Richerson (BOYD- RICHERSON 2005) ont eux-aussi critiqué la conceptualisation de l’information culturelle en termes de réplicateurs discrets. Plusieurs modèles de l’évolution culturelle sont en fait compatibles avec l’idée de variation culturelle, et même avec l’idée que l’information culturelle ne se réplique pas du tout, mais se reconstruit d’une génération à l’autre.
Ces critiques proviennent souvent d’auteurs qui ont plaidé pour une approche de l’évolution culturelle qui ne se réduise pas à la biologie mais qui prenne en compte la réalité biologique de la cognition humaine et ses effets sur l’évolution culturelle. Comprendre pourquoi certaines croyances et aptitudes prolifèrent et d’autres pas comporte de prendre en compte en même temps des facteurs biologiques, écologiques, psychologiques et historiques. Ces approches insistent sur l’interaction entre les phénomènes sociaux à l’échelle des population et des biais psychologiques qui influencent la diffusion de l’information culturelle. Selon Boyd et Richerson, chaque phénomène d’évolution culturelle est le résultat de l’action de forces différentes parmi lesquelles la sélection naturelle, la dérive culturelle (qui dépend d’anomalies statistiques dans une population : par exemple un expertise culturelle comme un dialecte ou une technique de broderie, qui est connue seulement par un petit nombre d’individus qui disparaissent sans transmettre leur savoir faire), et une série de biais psychologiques qui favorisent certaines variantes culturelles par rapport à d’autres. Par exemple, certaines versions d’un trait culturel seront préférées en raison de leur contenu (content-bias), d’autres en raison du fait qu’elles sont déjà les plus répandues (conformity-bias) d’autres encore par le fait qu’elles ont été adoptées par les individus les plus admirés dans la société (model-based bias). Ces facteurs de décision influencent l’acceptation ou le rejet d’une variante culturelle.
Selon une école de chercheurs venant de l’anthropologie cognitive, en particulier Scott Atran, Pascal Boyer, Lawrence Hirschfeld et Dan Sperber, il convient d’accorder une importance particulière, parmi les facteurs de propagation culturelle, aux dispositions cognitives spécialisées évoluées pour traiter différents types d’information. Pour ces auteurs, la relative stabilité d’un trait culturel n’est pas assurée par le degré de fidélité des copies qui en sont produites. Dans la transmission culturelle humaine, les variations des versions produites sont plutôt la norme que l’exception. La variation des représentations culturelles produites par chaque individus au niveau des microprocessus locaux d’acquisition, compréhension et mémorisation est compensée, au niveau des macro-processus d’évolution culturelle, par la permanence d’une génération après l’autre de prédispositions cognitives qui contraignent la façon dont un input est traité et interprétée. Ces contraintes cognitives sur la diffusion culturelle expliquent à la fois les innombrables variations individuelles dans la représentation et la reconstruction de l’information culturelle et la convergence entre ces représentations au niveau d’une population. Dans cette conception, la transmission culturelle est vue comme un processus beaucoup plus créatif que ce que l’on suppose généralement. L’individu, doté de capacité cognitives ayant une forte base biologique en même temps qu’une riche histoire développementale, y est un acteur et pas seulement un vecteur de processus socioculturels manifestes à l’échelle des sociétés et de leur histoire.

BIBLIOGRAPHIE :
BYRNE, R.W., WHITEN, A., Macchiavellian Intelligence, Cambridge, Cambridge University Press, 1997. CAVALLI-SFORZA, L., & FELDMAN, M., Cultural Transmission and Evolution, Princeton, New Jersey, Princeton University Press, 1981. CHANGEUX, P., Gènes et culture, Paris, Odile Jacob 2003. BARKOW, J.,COSMIDES, L. & TOOBY, J., The adapted mind, Oxford University Press, 1992. DAWKINS, R. Le gene égoïste, Paris, Odile Jacob, 1996. DEACON, T., The symbolic species, New York, Penguin, 1997. DURHAM, W., Coevolution. Genes, culture and human diversity, Stanford, Stanford University Press, 1991. FISHER et al., “Localisation of a gene implicated in a severe speech and language disorder”, Natural Genetics, 1998, n° 18(2), p. 298. FOX KELLER, E., Le siècle du gene, Paris, Gallimard, 2000. FRIEDERICI, A.D., « Towards a neural basis of auditory sentence processing », Trends in Cognitive Science, n° 6(2) p. 78-84. HAMILTON, W. “The genetic evolution of social behaviour”, Journal of Theoretical Biology, n° 7, 1964, p. 1-52. KAAN, E. & SWAAB, T.Y. (2002) « The brain circuitry of syntactic comprehension » Trends in Cognitive Science, n° 6(8) p. 350-356. KING, M.C. & WILSON, A.C., “Evolution at two Levels in Humans and Chimpanzees”, Science, n° 188, p. 107-116. MARCUS, G., The Birth of the Mind, New York, Basic Books, 2004. MAYR, E., Animal Species and Evolution, Cambridge MA, Harvard University Press, 1963. ODLING-SMEE, F.J., LALAND, N., et al., Niche construction: the neglected process in evolution, Princeton, New Jersey, Princeton University Press, 2003. ORIGGI, G., SPERBER, D., “Evolution, communication and the proper function of language”, in P. Carruthers & A. Chamberlain (eds.) Evolution and the human mind, Cambridge, Cambridge University Press, 2000, p. 140-169. RICHERSON, P.J., & BOYD, R. Not by genes alone, Chicago, Chicago University Press, 2005. SPERBER, D. (1996) La contagion des idées, Paris, Odile Jacob. TOMASELLO, M., The cultural origins of human cognition, Cambridge, MA, Harvard University Press, 1999. WILSON, E.O., Sociobiology: the new synthesis, Cambridge, MA, Harvard University Press, 1975.

Tuesday, November 01, 2005

Elogio dell'assolutismo

Articolo apparso sull'inserto domenicale de Il Sole 24 Ore il 23 ottobre 2005. Tutti i diritti riservati.

Recensione di Simon Blackburn : Truth : A Guide for the Perplexed, Penguin 2005.



Ci sono veri standard. L’astronomia e l’astrologia non sono semplicemente due punti di vista diversi all’interno di un conflitto di potere: la prima soddisfa i criteri scientifici mentre la seconda no. Ci sono fatti, non solo interpretazioni, come pensava Nietzsche. Nel suo nuovo libro, Truth, terzo di una seria dedicata alla divulgazione filosofica (si vedano i suoi Think e Being Good) Simon Blackburn si cimenta in una difesa della verità oggettiva, oggi travolta nelle “Guerre di verità” (Truth Wars) che dominano il dibattito filosofico. I due campi opposti hanno assunto nella storia della filosofia etichette differenti: assolutisti contro relativisti, tradizionalisti contro post-moderni, platonisti contro scettici, realisti contro idealisti, razionalisti contro costruttivisti, etc., ma la battaglia è, secondo Blackburn, sempre la stessa dai tempi di Socrate e Protagora fino ad oggi: tra coloro che pensano che ci sia una realtà oggettiva di cui stiamo parlando e che valga la pena di sviluppare argomenti ragionati per parlarne e coloro che pensano che non c’è nulla al di fuori delle nostre costruzioni mentali e interpretazioni. Nella versione contemporanea del dibattito, il relativismo si accompagna spesso a una sorta di “post-strutturalismo” secondo il quale non solo le nostre opinioni sono tutte sullo stesso piano, ma esse sono il frutto di oscure forze di pressione sociale: potere, cultura, status, genere e appartenenza etnica sarebbero le determinanti ultime di ciò che crediamo vero o falso. Così la filosofa Luce Irigaray, icona del post-modernismo nei campus americani, sostiene che e=mc2 sia un’equazione sessuata che privilegia la velocità della luce rispetto ad altre velocità che sono vitali per noi, espressione del maschilismo insito nella fisica contemporanea.
Blackburn ha una chiara preferenza per il razionalismo e vuole difendere una nozione di verità oggettiva senza cadere in una metafisica intollerante e superata che presupponga un solo mondo intatto là fuori che possiamo riflettere nello specchio delle nostre teorie. A differenza di Bernard Williams, che nel suo libro: Geneaolgia della verità. Storia e virtù di dire il vero (Fazi, 2005) difendeva le virtù morali della verità, ossia l’accuratezza e la sincerità, Blackburn propone una difesa dall’interno, esprimendo le sue simpatie per la teoria minimalista o deflazionista della verità. Per il minimalista, dire “Piove” e dire “E’ vero che piove” significa la stessa cosa: asserire la verità di un enunciato non aggiunge nessuna proprietà particolare a quell’enunciato. L’idea stessa di verità come corrispondenza ai fatti non ha senso, dato che non c’è differenza tra asserire un fatto e asserire che quel fatto è vero. Si potrebbe obbiettare, come ha fatto Jerry Fodor nella sua recensione sul TLS del 28 settembre, che la soluzione minimalista di Blackburn risponde alla questione semantica della verità, ossia qual è il significato del predicato “vero”, ma lascia aperta la questione epistemologica e ontologica della verità, ossia di cosa parliamo quando parliamo di fatti. Effettivamente le guerre di verità che Blackburn paventa assomigliano più a battaglie metafisiche che a disquisizioni semantiche su cosa significa dire il vero. Ma il libro resta uno sforzo di divulgazione, e, in una visione d’insieme della questione si intuisce la prossimità concettuale che Blackburn vede tra minimalismo in semantica e forme di realismo interno (à la Putnam) in epistemologia, entrambi tentativi di non “uscire” dalle nostre teorie per ancorarle a un’ingenua corrispondenza con il mondo, pur mantenendo un’idea di oggettività.
E nel tono pacato che lo contraddistingue, Blackburn sovverte un luogo comune secondo cui l’assolutista sarebbe l’alleato del conservatore politico, di chi difende lo status quo, mentre il relativista si ritroverebbe dal lato del liberal multiculturalista e tollerante che rifiuta una visione a un solo centro della verità. E invece no: sono i Bush e i Blair oggi i relativisti che vanno in guerra in nome di un punto di vista, quello occidentale, da difendere al di là di qualsiasi evidenza oggettiva per ragioni di potere e dominazione culturale. L’assolutista è oggi chi è capace di criticare il Patriot Act in nome di valori universalmente legittimi. E’ colui che sta dalla parte di Mohamed El Baradei e di Hans Blix, e di tutti coloro che con pazienza continuano a fare scrupolosamente il proprio lavoro di indagine sui fatti prima di affermare con baldanza ciò che è vero e ciò è falso.

Monday, October 17, 2005

Contingency detection plus domain-specific inferences




This is a comment posted on Monday in the virtual debate around Pascal Boyer and Clark Barret's paper on Causal Inference.

The authors argue that rather than looking for a module of causal detection, detection of contingencies should be investigated in order to understand its role in constraining downstream inferences. Roughly, the system detects a contingency relation in a specific environment and matches it with a set of inferences that lead to relevant conclusions in that environment. For example, the detection of contingency relations between two moving geometric shapes, like two triangles, may trigger an intentional reading of the movement, that is, an activation of a “look-for-animate-agents” system. So, the idea is that we detect a contingency relation in a specific context and this triggers specific inferences. But don’t we need those specific inferential patterns to detect the contingency relations? In the case of the moving shapes, what is the difference between detecting “intentional-looking” contingencies, as Happé has defined them, and detecting contingencies in the context of intentional expectations? What would be the advantage of a two-step explanation of a contingency-detection that triggers a domain-specific inference? And also, what is precisely ‘causal’ in the detection of the co-presence of two or more stimuli in the environment, if their only effect is that they trigger an set of domain-specific inferences? How does this explain our expectations about causality, that is, our expectations about the connection of events and not simply their correlation?

Sunday, October 16, 2005

Causal Inferences: Evolutionary Domains and Neural Systems




A new paper is on line and open to discussion in our workshop on Causality:
Pascal Boyer and Clark Barrett: Causal Inferences: Evolutionary Domains and Neural Systems
Debate is open to everybody via a moderated forum.

Wednesday, October 05, 2005

Death as an Empirical Backdoor to the Representation of Mental Causality


Hans Baldung-Grien, 1509.

A new paper, by Jesse Bering on Death as an Empirical Backdoor to the Representation of Mental Causality is on line and open to discussion in the virtual workshop on Causality
Discussion is open to everybody via a moderated forum.

Monday, October 03, 2005

Ce qui reste de la philosophie de Sartre. Un entretien avec Jacques Bouveresse et Vincent Descombes

Cet entretien a été réalisé par Gloria Origgi au Collège de France en Septembre 2005. La version italienne est parue en 2005 sur la revue MicroMega. Tous droits reservés. Prière de ne pas citer sans autorisation




Propos recueillis par Gloria Origgi

VD. Tout d’abord une distinction importante qui est d’ordre biographique. Le rôle que joue aujourd’hui Sartre sur la scène « professionnelle » de la philosophie, et le rôle qu’il a joué. Si on prend Sartre de l’avant-guerre, il y a des contributions qui sont celles d’un phénoménologue professionnel, La transcendence de l’ego, c’est un très bon texte qui se lit encore très bien. Ce sont souvent des textes vigoureux mais mesurés, qui se présentent comme des contributions parmi d’autres dans un mouvement plus général. Il me semble qu’il y a une mutation de Sartre, qui est due à la guerre, à la libération et c’est là que vient l’élément biographique. Dans la génération qui suit, les gens qui se sont tournés vers la philosophie, disons les trois quart d’entre eux, c’est par Sartre : et ce n’est ni par sa philosophie plus technique, ni par L’être et le néant, mais par sa figure, par le théâtre – on allait encore au théâtre à l’époque - le roman, les positions politiques…Je suis sûr que dans tous les intellectuels qui sont entrés dans la philosophie par Sartre, si on creuse on trouve une « couche Sartre » au fond de leur engagement philosophique. Si on va derrière ceux qui sont devenus après heideggeriens, hegeliens, il y a une tendresse pour Sartre. Dans Deleuze il y a une couche Sartre, dans Derrida aussi. Si on prend Derrida, tous les auteurs littéraires dont il traite sont ceux que Sartre discute dans les essais de critique littéraire Situations 1. Il ne s’agit pas d’un hasard. Il prend tous les auteurs dont Sartre traite positivement. Donc Mauriac non, mais Artaud, Bataille, Genet, Blanchot etc…

JB. C’est exact. Le fait est qu’ils ont tous aussi les mêmes références philosophiques que Sartre. Principalement allemandes. Le système de référence n’a pas beaucoup changé entre l’époque de Sartre et celle de Derrida. Du point de vue chronologique, je pense, Vincent, que tu as tout à fait raison. Au début des années soixante, on a vécu le déclin du « sartrisme » au profit du structuralisme. On a assisté à une espèce de passation de pouvoir de l’existentialisme, représenté par Sartre, vers le structuralisme, la psychanalyse, etc. Beaucoup de gens qui avaient fait leurs études de philosophie initialement dans un contexte sartrien, sont rapidement devenus des structuralistes enthousiastes. Le passage ne s’est cependant pas effectué sans douleur pour tout le monde. Sartre lui-même a assez mal réagi à la montée en puissance du structuralisme, dont il détestait certainement les prétentions objectivistes et scientistes. Le triomphe du mode de pensée structuraliste est vraiment quelque chose qu’il n’a pas compris. Il y a vu une espèce de dernier effort de la culture bourgeoisie et du capitalisme lui-même pour conserver leur pouvoir et leur influence.


VD. Il faut dire que cette passation de pouvoir se passe quand même en partie à l’intérieur des Temps Modernes, la revue fondée par Sartre. Les discussions avec Lévi-Strauss, Jean Pouillon (anthropologue français 1916-2002) sont contre Sartre mais avec lui comme interlocuteur.
C’était la génération des adolescents qu’à 16 ans avaient été fascinés par Sartre et que adultes avaient compris qu’il était question de passer à autre chose. La question est de savoir jusqu’à quel point ont-ils renié, critiqué, mis en cause Sartre ou tout simplement sont-ils passés à autre chose.

JB. Parmi les sartriens que j’ai connu, un bon nombre se sont transformés sans coup férir en lacano-althusseriens. Il est exact qu’au début entre les gens qui venaient de se convertir au structuralisme et Les Temps Modernes les choses se sont relativement bien passées. Mais je pense que cela ne pouvait pas durer et cela n’a effectivement pas duré.

VD. Oui tout à fait mais le conflit n’est pas paru avec Lévi-Strauss : plutôt avec Foucault, qui voulait de quelque sorte incarner un modèle d’intellectuel semblable à celui de Sartre. Si on peut simplifier, le trajet normal philosophique de l’après-guerre était le suivant : on découvre Sartre adolescents : fascination pour les concepts, libération à l’égard des parents…Après on prend plus au sérieux la philosophie, donc Sartre paraît un peu léger, surtout car on l’associe avec des dissertations de jeunesse…donc à ce moment là on passe à Merleau-Ponty… Le dernier Merleau-Ponty, L’ontologie de l’invisible et ce genre des choses sont une transition vers Lacan, puis après vers le structuralisme pur. On a l’impression de devenir de plus en plus profonds, mais on est entrés par Sartre et Beauvoir donc il n’y aura jamais d’autres références : on a l’impression dans ce trajet typique d’explorer toujours la même chose mais d’une façon plus « forte », plus « profonde ». D’ailleurs, même Heidegger critiquait le coté léger de Sartre. Il disait que c’était nul, ça restait français, petit, c’était Le Moi, il fallait aller en avant, donc soit la Foret Noire soit l’inconscient lacanien, soit les structures foucaultiennes, tous ça c’était plus fort.

JB. J’ajouterais que les heidegerriens professionnels, si on peut les appeler ainsi, ne l’ont jamais considéré comme un bon interprète de Heiddegger. Il était vu plutôt comme un simple amateur, rempli certes de bonne volonté, mais qui n’avait pas compris grand- chose, en profçondeur, à la philosophie de Heiddegger. On avait l’impression que, pour eux, Sartre était resté à la porte du heideggerianisme, il avait fait de celui-ci une espèce d’humanisme, alors que tout lecteur intelligent et compétent de Heiddegger était censé avoir compris que l’orientation intellectuelle de celui-ci était au contraire anti-humaniste - ce qui a d’ailleurs permis aux structuralistes de trouver assez facilement un terrain d’entente avec lui. . Il y avait un désaccord de fond…

VD. C’est très injuste vis-à-vis de Sartre.

JB. Oui effectivement, mais c’était si tu te souviens bien l’idée reçue sur Sartre lecteur et interprète d’Heiddegger.

VD. Le responsable est Jean Beaufret (1907-1982) en tant que destinataire de la lettre sur l’humanisme d’Heiddegger, l’idée qu’il savait directement d’Heiddegger que l’humanisme sartrien n’était pas la même chose lui donnait une autorité spéciale. En plus il y avait une attitude critique vis-à-vis de Sartre car il était publique, n’importe qui pouvait le lire, et il y avait l’idée que tout ce qu’il avait dit de compliqué dans L’Etre et le Néant, était dit d’une façon plus simple dans quelques romans ou dans Les mains sales, tandis que dans la chapelle heiddeggerienne on ne rentre pas comme ça, n’est-ce pas ? Il faut avoir suivi Beaufret…

JB. Il faut quand même maintenir une distinction importante entre ce que Sartre représente par le grand public et ce qu’il représente pour les philosophes professionnels. Evidemment, dans le milieu philosophique professionnel je ne sais pas exactement ce que peut être être la position philosophique qu’il occupe à présent : quel est l’usage que l’on peut encore faire de lui dans les Universités? Il est probablementassez réduit. Je n’ai pas d’informations directes là-dessus, mais ça m’étonnerait qu’on se serve énormément de Sartre dans les cours de philosophie, même s’il reste certainement toujours présent. Pour le grand public, en revanche, il reste une référence philosophique centrale. Dans le titre du livre que lui a consacré Bernard Henri-Lévy , il est présenté comme le “penseur du siècle”. Le fait même d’écrire un livre dans lequel on lui attribue ce genre de position me laisse, je l’avoue, passablement perplexe. Il faut quand même avoir une idée assez singulière de ce qu’a été la philosophie du XXème siècle pour pouvoir considérer les choses de cette façon. Il est vrai que “le plus grand penseur” ne veut pas dire exactement la même chose que “le plus grand philosophe”. Mais, même compte tenu que cela, il me semble qu’il y aurait des candidats nettement plus sérieux que Sartre. On pourrait dire que Sartre représente souvent le grand penseur pour un milieu philosophique semi-professionnel et également pour un bon nombre de littéraires. Il faudrait peut-être parler à ce propos de la différence, plus accentuée que ça n’est généralement le cas ailleurs, qu’il y a entre les philosophes qui sont considérés comme « importants » par les médias, car ce sont des philosophes qui s’adressent à tout le monde, et les philosophes qu’on appelle avec un certain mépris «“universitaires”, qui sont censés ne s’adressser qu’aux spécialistes. On a dit de Sartre qu’il était un philosophe qui ne devait rien à l’Université et à l’institution philosophique en général; et c’est une chose qui a certainement joué en sa faveur. De ce point de vue-là, il est l’exacte antithèse de Raymond Aron, qui était, lui aussi, un intellectuel public et engagé ,et qui a eu une action très importante, mais qui avait un style d’universitaire tout à fait classique. Sartre a rompu à un moment donné complètement avec l’Université et je crois me souvenir que, pendant les événements de 68, il a adopté un ton assez proche de celui de la révolution culturelle et tenu des propos du genre suivant: « On a vu Raymond Aron tout nu et on lui rendra ses habits quand il aura consenti à faire son autocritique ». C’était un manifestation paroxistique, mais en même temps, je crois, assez typique du genre de sentiments qu’il entretenait à l’égard de l’Université et de ses représentants.

VD. J’ai l’impression dans l’université il est rentré au niveau de l’histoire philosophique : il y a des revues d’études sartriennes, une société d’amis de Sartre. Il y a des thèses. En revanche dans le débat contemporain, il requiert une « re-actualisation ». Alain Renault a essayé récemment de jouer Sartre contre Heidegger. Mais il y a des chose qu’on aurait du mal à lire aujourd’hui. Si l’esquisse d’une théorie des émotions est aujourd’hui tout à fait lisible, la Critique de la raison dialectique par contre ne passe pas…

JB. Pour être juste à son égard il faut sans doute dire qu’il a conservé un rôle de grande figure et même de figure exemplaire, un peu le rôle du « juste », de quelqu’un qui s’est battu très généreusement la plupart du temps pour de bonnes causes. J’ai été très frappé à ce propos-là par le fait suivant : une fois où je m’étais permis une remarque ironique à l’égard de Sartre devant Georges Canguilhem qui avait été son condisciple à l’Ecole Normale Supérieure, j’ai été assez surpris de l’entendre prendre sa défense et me dire : « Vous savez Sartre c’était un chic type : c’était quelqu’un de généreux qui vous aurait donné sa chemise : je n’en dirais pas autant de Paul Nizan ». Canguilhem n’aimait pas beaucoup Nizan, notamment à cause des idées politiques qu’il défendait au moment où il l’a connu, mais, en ce qui concerne Sartre, même s’il ne pouvait vraisemblablement pas faire grand cas de sa philosophie, il y avait quelque chose dans la générosité de l’homme (et du penseur lui-même) qui l’impressionnait. Quand on compare, de ce point de vue, Sartre aux célèbrités intellectuelles que nous sommes obligés de supporter actuellement, le résultat est pour le moins édifiant. Je pourrais ajouter encore qu’Althusser m’a dit un jour dans des circonstances à peu près identiques (je m’étais permis de lui dire que je ne pouvais pas faire grand-chose de la philosophie de Sartre et que je le trouvais même souvent logomachique, pour ne pas dire délirant), qu’on ne pouvait critiquer Sartre qu’avec prudence et modération, parce que lui au moins était un intellectuel qui ne s’était jamais vendu. Le contraste avec la façon dont les choses se passent aujourd’hui me semble tout à fait frappant. La plupart des intellectuels réputés en France, semblent à présent toujours prêts à se vendre, au sens propre ou au sens figuré, au pouvoir politique, au pouvoir économique ou au pouvoir médiatique et parfois aux trois en même temps sans que la chose ne soulève le moindre problème. Sartre appartient à une génération où un intellectuel digne de ce nom se sentait tenu de préserver son indépendance intellectuelle et morale par rapport à toute une série de pouvoirs à commencer par le pouvoir politique. C’est une attitude qui a tendance à passer aujourd’hui pour rigoriste, sectaire et un peu ridicule; et ceux qui admirent le plus Sartre ne sont pas forcément ceux qui ont le plus envie de l’imiter sur ce point.
Canguilhem est né, je crois, en 1904, Sartre en 1905 et Jean Cavaillès en 1903 : ce sont trois figures qui, de trois façons différentes, occupent une position centrale dans l’évolution de la pensée française. On peut être tenté de se poser la question suivante : si au lieu que ce soit Cavaillés qui est devenu un héros de la Résistance et qui a été fusillé par les Allemands en 1944, ça avait été Sartre, est-ce que l’histoire de la philosophie française contemporaine n’aurait pas été complètement différente? Cavaillès connaissait particulièrement bien la phénoménologie et la philosophie allemande en général. Il avait contribué à faire inviter Husserl à donner des des conférences à Paris ; et il a assisté aux fameuses conférences de Davos en 1929, qui ont été un événement déterminant à bien des égards parce qu’il y avait là Heidegger, Cassirer et Carnap. Et Carnap, contrairement à ce qu’on croit généralement, était très au courant de ce que faisait Heidegger et la polémique qui a éclate entre eux quelques années après a eu des raisons qui n’étaient pas seulement philosophiques, mais également politiques. Carnap était en désaccord avec Heidegger, pour une part essentielle, à cause de ce qu’il avait compris ou avait pressenti de la proximité bien réelle qu’il y avait, du point de vue politique, entre Heidegger et le nazisme. Je me suis souvent posé la question suivante: si Cavaillès avait survécu à la guerre, de quelle façon aurait-il réagi à l’indulgence à peu près illimitée dont Heidegger a bénéficié, sur ce point, dans le milieu philosophique français, y compris chez ceux de ses membres qui étaient le plus à gauche ? Mais une question qui est encore plus intéressante est celle de savoir ce qu’il serait advenu de la phénoménologie française, si ceux qui, comme Sartre et Merleau-Ponty, la représentaient avaient eu en face d’eux un interlocuteur comme Cavaillès.
On a l’habitude de distinguer pour ce qui concerne la France deux grandes tendances philosophiques - c’est d’ailleurs Cavaillès qui est à l’origine de cette distinction - celle des philosophies de la conscience et celle des philosophies du concept. On trouve, d’un coté, les représentants de la philosophie de la conscience et du sujet qui ont commencé à avoir la vie vraiment difficile quand le structuralisme a conquis le pouvoir, et de l’autre les philosophe du concept, c'est-à-dire, concrètement parlant la tradition épistémologique française héritée de Bachelard. Bachelard, Cavaillès, Canguilhem sont les trois figures majeures de cette tradition; et Foucault et Bourdieu, dans deux genres différents, en ont été les héritiers. Sartre est considéré généralement comme ayant appartenu,de façon tout à fait typique, à la tradition de la philosophie de la conscience, par opposition à la philosophie du concept. Il n’a manifestement jamais fait grand cas ni de la science ni de l’épistémologie. Je ne sais pas ce qu’il popuvait penser de ce que cherchaient à faire les gens comme Cavaillès. Mais cela ne représentait sûrement pas pour lui, c’est le moins qu’on puisse dire, ce qu’il y avait de plus important en philosophie. Il devait trouver assez étrange l’idée qu’un philosophe puisse s’intéresser de près à la logique mathématique et éprouver le besoin de se doter d’une culture mathématique très approfondie. De ce point de vue, Sartre est un philosophe typiquemen et complètement littéraire, ce en quoi il correspond tout à fait à la tendance domainante de la philosophie française. Quand Jules Vuillemin et Gilles-Gaston Granger ont créé la revue L’Age de la Science, qui a existé et est morte deux fois, faute d’un nombre suffisant de lecteurs, ils se plaignaient du fait que notre époque, qui est celle de la science, n’ait pas la philosophie qu’elle mériterait; et ce qu’ils visaient implicitement était la conception sartrienne de la philosophie et l’influence exercée par Sartre sur la philosophie française. On pourrait dire également, la primauté absolue de la philosophie pratique sur la philosophie théorique et la politisation intégrale de la philosophie, si caractéristique de cette époque-là. Sartre ne voyait sûrement pas l’intérêt, pour un philosophe, d’acquérir une formation scientifique sérieuse et ne croyait pas à la possibilité, pour une philosophie “scientifique”, d’apporter une contribution significative à la résolution des problèmes importants en philosophie. Il n’attendait rien, de ce point de vue, des sciences exactes et pas beaucoup plus des sciences humaines. (La façon dont il parlait de l’économie politique, par exemple, était à cet égard, édifiante.)

VD. Effectivement si Sartre avait été fusillé pendant la Guerre on se retrouverait avec son œuvre de l’avant-guerre, c'est-à-dire, en gros celle d’un philosophe intéressé à la psychologie phénoménologique, un peu à l’esthétique et à quelques questions éthiques. Mais même en psychologie l’intérêt pour les faits scientifiques ne va pas très loin. Par contre Merleau-Ponty a toujours été plus ouvert aux sciences humaines. Il a fait plusieurs cours sur la philosophie des sciences humaines qu’on lit toujours avec profit aujourd’hui. C’est pourquoi il a joué un rôle important, à l’époque de la Libération, dans la nouvelle orientation de la philosophie vers des questions anthropologiques qui devait conduire à l’épisode structuraliste à la fin des années 1950.

JB. D’ailleurs le genre d’appréciations que Sartre porte sur la psychologie à prétention scientifique est clair : il dit dans l’ Esquisse d’une théorie des émotions, qu’une psychologie scientifique serait juste capable de collectionner des faits sans jamais accéder à une compréhension réelle. Or, « atteindre les faits c’est par définition atteindre l’isolé, c’est préférer par positivisme l’accident à l’essentiel, le contingent au nécessaire, le désordre à l’ordre… » C’est une vision de la science qui est tout de même assez effarante, puisque ce qui lui est reproché est d’être à peu près incapable de dépasser le niveau de l’empirisme le plus plat. On ne peut pas dire que la philosophie française contemporaine ait fait, de façon générale, beaucoup de cas des faits empiriques. Mais, dans sa façon de les ignorer, Sartre est allé encore plus loin que beaucoup d’autres

VD. J’ajouterais sur la méthode littéraire : effectivement pour ce qui est de sa méthode phénoménologie il y a eu une conjonction dans Sartre de son génie littéraire et de son inventivité philosophique : il n’est pas un génie en philosophie comme il l’est en littérature, mais il est rapide, productif…et sa méthode phénoménologique donne en littérature des portraits brillants comme au théâtre, qui se substituent à des analyses et des démonstrations que vous retrouvez par exemple chez Husserl, qui n’a aucun talent littéraire, mais qui est patient, tandis que chez Sartre son idée que tout est mensonge bourgeois, mensonge existentiel, l’amène à prendre des raccourcis littéraires, par des scènes, des procédés pas habituels en philosophie, qui peuvent faire bouger les choses et essayer d’aller à des vérités difficiles.
JB. Tu dis que la raison est méthodologique, on pourrait dire aussi qu’elle est politique. Il y a, chez Sartre, l’idée qu’un certain moment on n’a pas à se donner le mal d’argumenter. Argumenter (ou, en tout cas, donner l’impression de le faire) est ce que font les représentants de la culture bourgeoise pour essayer de conserver le pouvoir qu’ils exercent. Il y a l’idée que l’exigence d’une démarche rationnelle et argumentative pourrait être frauduleuse parce qu’elle permet de poursuivre subrepticement des objectifs, bien différents, qui sont de nature politique.

VD. Ce qui est frappant, par exemple dans L’être et le néant, c’est qu’il y a une alternance de certaines pages qui sont de la grande littérature et puis des moments de déduction qui font penser à du « Super-Fichte », du pur phénomène à l’extase de la déduction absolue. Mais c’est plutôt les exemples qui restent, la jeune fille au café, le garçon de café, le joueur…

JB. Il était incroyablement inventif et extrêmement brillant. Personnellement, je ne l’ai vu qu’une fois aux Semaines de la pensée marxiste. C’était dans les années soixante : il y avait, si je me souviens bien, Jean Hyppolite, qui avait été également son condisciple à l’Ecole Normale Supérieure, et Jean-Pierre Vigier, physicien marxiste, élève de De Broglie, qui voulait absolument montrer qu’il existait quelque chose comme une dialectique dans la nature elle-même, une chose que Sartre trouvait complètement absurde, et là il avait raison. Je l’avais trouvé exceptionnellement éloquent, rapide, sûr de lui et dogmatique.

VD. Oui, il était extrêmement brillant, Il m’est arrivé de le voir une ou deux fois à nos manifestations du quartier latin contre la guerre d’Algérie, donnant le bras à Simone de Beauvoir. Sartre était en toujours en tête, ça faisait partie de son coté généreux, d’un homme qui ne s’épargnait pas. Cette attitude participait à un sorte d’aura qui à la fin est devenue un crédit à sa philosophie.

JB. JB Je suis resté, moi aussi, très admiratif à l’égard de Sartre, considéré sous cet aspect-là. Il y avait chez lui un côté désintéressé, en particulier un mépris de l’argent, que je continue à trouver impressionnant, surtout si on le compare à ce qu’est devenu entre-temps en France le personnage de l’intellectuel prototypique. On se dit que quelque chose a réellement changé, et sûrement pas en bien. Il suffit d’imaginer Sartre parmi nous, avec tous les événements révoltants qui ont eu lieu récemment, comme par exemple les incendies qui ont coûté la vie à des gens, appartenant aux catégories les plus défavorisées, qu’on est incapable de loger dans des conditions décentes. Même les intellectuels qui aimeraient bien se présenter comme les successeurs désignés de Sartre sont remarquablement discrets et même silencieux sur les questions de cette sorte et sur les questions de justice sociale en général. A vrai dire, il n’y a plus aucun intellectuel aujourd’hui en France qui pourrait revendiquer une position comparable à celle qu’avait Sartre. On pourrait dire que Foucault et Bourdieu avaient repris le flambeau sous une autre forme, tandis que si on regarde maintenant qui sont les héritiers supposés de Sartre… Il ne leur manque pas seulement certaines des qualités intellectuelles, mais également certaines des vertus morales qu’il avait.


VD. Mais pour reprendre la distinction dans la philosophie française entre philosophie de la conscience et philosophie du concept, c’est sur que Sartre a joué un rôle important du coté de la philosophie du sujet. Dans mon livre Le complément du sujet j’ai un ton élogiateur de certains passages de la philosophie du sujet sartrienne, surtout de sa démarche, presque analytique, d’analyse grammaticale du sujet. Au début de L’Etre et le néant il y a une longue discussion d’un problème inextricable de la philosophie, c'est-à-dire la question de la conscience immédiate à soi. En termes traditionnels c’est comment assurer le rapport à soi dans tous les actes mentaux alors que ce rapport à soi n’apparaît pas explicitement donné. Sartre entre dans ce débat avec une analyse syntaxique de la forme de la phrase « Je m’ennuie » : voilà le rapport de la conscience à soi car dans cette phrase il y a le pronom réfléchi « me », donc le sujet revient sur lui-même dans l’ennuie. Mais comment le sujet revient-il sur lui-même au sens où il serait la cause de son propre ennui ? Sa solution c’est de dire que le pronom réfléchi « me » n’est pas simplement le pronom réfléchi renvoyant à « je ». Si c’était simplement un pronom renvoyant à « je » , ce « je » pourrait être posé sans la réflexion, donc ça serait comme dans la phrase « je me lave les mains », ou je mentionne un sujet qui pourrait exister sans le rapport à soi. L’essence de la conscience à soi est ce rapport entre pronom réfléchi et sujet qui ne peut pas être posé sans réflexion. Donc d’une certaine façon il saisit un problème central, sans le débloquer. Je pense que la clé de certaines difficultés de la philosophie du sujet est là, et Sartre l’avait bien vue. Sartre est obligé d’inventer un concept de conscience dans lequel il y aurait une réflexion inhérente à « Je m’ennuie », mais une réflexion qui ne ressemble à aucune réflexion connue : ce n’est pas la réflexion de « je me corrige », ni de « je me rase », c’est un réflexion irréflechie. Et il fait une véritable analyse logico-grammaticale, en revenant à la grammaire latine, à la distinction entre eius et sui.

JB. Ce qui ne lui empêche de considérer, comme toute sa génération, l’analyse logico-syntaxique de la philosophie du Cercle de Vienne comme une aberration philosophique. Il défend, comme Merlau-Ponty, une analyse de la conscience dans laquelle le fait que je suis conscient est irréductible contre une analyse purement logique du terme « conscient » ou « sujet ».
Mais pour revenir à la phénoménologie en France : les rapports entre Sartre et Merleau-Ponty étaient très bons jusqu’à un certain moment : ils collaborent aux Temps Modernes, et puis ils ont un désaccord un peu près pour les mêmes raisons qu’avec Camus, c'est-à-dire pour des raisons politiques…

VD. Il y avait quand même entre les deux un désaccord philosophique. Dans La phénoménologie de la perception tout le chapitre sur la liberté est une critique à Sartre. En gros Merleau-Ponty reproche à Sartre de toujours viser l’opposition la plus extrême entre la conscience et les choses, le pour soi et l’en soi, la liberté et la nature. Pour Merleau, la philosophie doit au contraire explorer l’espace des formes intermédiaires entre la nature et la liberté, entre l’objet et le sujet. Mais ça c’est un désaccord philosophique, tandis que sur le plan politique Merlau-Ponty prend les distances par rapport à Sartre sur le communisme.
Mais je voudrais revenir sur ce qui est encore vivant dans la philosophie de Sartre et qui se rattache à son analyse grammaticale du sujet. Une opposition grammaticale centrale dans la philosophie de Sartre est celle entre première personne et troisième personne. Ce qui est vivant de sa pensée c’est une utilisation de ce contraste qu’on trouve dans La question juive , dans L’être et le néant et que par Simone de Beauvoir est passé dans le féminisme, donc maintenant partout, c'est-à-dire l’idée que si on décrit quelqu’un à la troisième personne c’est forcement de l’extérieur et c’est aliénant. D’une certaine façon, les descriptions qui sont faites de quelqu’un à la troisième personne reviennent à renfermer ce quelqu’un dans des classifications qu’il ne contrôle pas. Ca est passé chez Foucault, est passé également dans le post-structuralisme sans certificat d’origine, pourtant ça vient de Sartre. En revanche le discours en première personne serait quelque chose de libre et d’authentique, ce qui vient de l’existentialisme. Tout ça est très vivant aujourd’hui, surtout dans l’idée post-structuraliste que dès qu’on décrit quelqu’un on le reconstruit selon des systèmes de pouvoir et de domination. C’est la question juive selon Sartre : d’après Sartre il n’y a pas de juifs, il y a des gens qui sont invités à reprendre à la première personne ce qu’on dit d’eux, et qui cèdent à la pression sociale de se décrire à eux-mêmes en tant que juifs. Mais s’ils s’interrogeaient eux-mêmes dans leur conscience ils verraient bien qu’il n’y a pas une « juiveté » intrinsèque à leur personne. De même, le garçon de café de L’Etre et le néant est un type social. Sartre ne pousse pas à l’époque de L’Etre et le néant, comme il fera après, l’idée que derrière le type social il y a tout un système de domination, d’exploitation, etc.. A’ l’époque de l’Etre et le néant c’est plutôt quelque chose d’inauthentique : le garçon de café se conforme et en même temps il sait bien que ce n’est pas vrai…ce qui est frappant c’est cette surcharge, ce sur- investissement philosophique donné à un contraste troisième personne/première personne, qui acquiert une dimension morale et politique.
Un autre aspect de la philosophie du sujet sartrienne que est repris aujourd’hui c’est l’idée que le rapport à soi n’est pas descriptif, c'est-à-dire que je suis un sujet ce n’est pas quelque chose qu’on découvre sur soi-même, mais un engagement moral et existentiel vis-à-vis de sa liberté d’agir. Dans La transcendance de l’ego il y a une esquisse d’une théorie de l’action intéressante. L’exemple est d’un homme qui court pour attraper le bus – à l’époque on pouvait encore attraper le bus en course parce qu’il y avait une plateforme derrière – et donc qui a une attitude de projet, c'est-à-dire un rapport à son action qui n’est pas un rapport cognitif, mais de projection en avant. Quant à l’idée d’une responsabilité universelle, il faudrait la mettre en rapport avec l’idée existentialiste suivante : pour que je sois responsable de tout il faut qu’il y a un seul acte libre dans toute l’histoire universelle et c’est celui qu’on me demande maintenant. Moi je vois là une sécularisation du thème religieux présent par exemple dans Kierkegaard, ou dans le pari de Pascal : j’engage ma vie et je l’engage en une fois.

JB. Ce que j’ai toujours trouvé aberrant chez Sartre personnellement, c’est sa théorie de la liberté et de la responsabilité. Cette idée qu’on est, en toutes circonstances, en quelque sorte radicalement libre et également responsable de tout me semble une chose assez ahurissante. On peut-être plus ou moins libre, d’une façon qui dépend de conditions externes et en particulier de conditions sociales (c’est un point sur lequel Bourdieu avait certainement raison), alors que la liberté chez Sartre semble être toujours un état de choses du type « tout ou rien ». Il y a un déclaration célèbre qui m’a toujours sidéré chez lui et c’est : « Jamais nous n’avons été aussi libres que sous l’occupation ». Je trouve ça pour le moins inquiétant, et je ne vois pas comment expliquer que l’on puisse s’exprimer de cette façon autrement que par une confusion typique et probablement délibérée entre la sensation de liberté et la liberté elle-même, c'est-à-dire que, du moment que je peux conserver la sensation d’être libre, je suis libre. Mais la liberté n’est pas seulement et encore moins d’abord une sensation interne.Et je ne crois pas qu’il suffise de dire que, même quand on me fait violence, je peux encore être libre, puisque j’ai encore la possibilité de protester intérieurement, de me dire que je ne suis pas d’accord, etc etc.

VD. Il y a aussi un aspect stoïcien dans l’existentialisme de Sartre. L’idée que je suis en prison, je suis dans l’enfer et je n’ai jamais été aussi libre parce que tout ça n’y peut rien et je peux toujours dire non.

JB. Il y a un texte très intéressant de Bourdieu à ce sujet, où il critique cette notion de liberté comme confondue régulièrement avec la sensation d’être libre. (Bourdieu pense, du reste, que les intellectuels sont, de façon générale, beaucoup moins libres qu’ils ne le pensent et voudrait contribuer justement à les rendre plus libres par une meilleure connaissance des déterminations auxquelles ils obéissent sans le savoir.) Peut-être la conception de Sartre est-elle un héritage lointain de Descartes : l’erreur provient d’un excédent du pouvoir de la volonté par rapport à celui de l’entendement. Autrement dit, la capacité de juger est limitée, mais la capacité de vouloir (et de refuser) est illimitée et toujours à notre disposition. On pourrait dire que la liberté aussi est illimitée, en ce sens-là.

VD. Moi j’y vois du Fichte : Le moi est au fond de lui-même pure indétermination. Supposons que je sois en prison :j’aurais pu ne pas y être, je pourrais être ailleurs, car rien dans la pure notion du moi ne m’impose d’être ici plutôt que là, en prison plutôt qu’ailleurs.
Un peu comme Derrida : puisque je peux penser que je vais mourir donc c’est comme si j’étais déjà mort…

JB. Je trouve ces déclarations assez stupéfiantes: si on considère la liberté comme un idéal qui doit être défendu à tout prix, et je suis bien d’accord que c’est ce qu’il faut faire, je ne vois pas pourquoi on se serait battu contre l’occupation par exemple, si c’était dans ces conditions-là que l’on pouvait être le plus libre, ni même pourquoi, à la limite, on se révolterait contre une forme de servitude quelconque si aucune contrainte externe ne peut empêcher les gens d’être malgré tout libres. Qui étaient les gens désignés par « nous » dans la phrase : « Nous n’avons jamais été aussi libres que sous l’occupation » ? Sartre lui-même et quelques privilégiés qui ont conservé cette liberté tout au long de la guerre, de l’occupation et après…? Ou bien tout le monde?

VD. Moi j’y vois une thèse de métaphysique modale : puisque je peux ressentir mon emprisonnement comme une oppression, alors je manifeste en protestant que je ne suis pas réduit à cela, être en prison, et donc, en un sens, je suis déjà sorti de prison. C’est comme si je ne pouvais me penser dans la dimension du possible sans que ce possible, d’une certaine façon, ne soit déjà actuel : je ne pourrais pas me concevoir libéré si je n’étais pas déjà libéré.
Il y a l’exemple dans L’Etre et le néant de l’homme en prison qui n’a pas le droit de dire « je suis coincé » parce qu’il se pense libre. Et il peut y avoir des souvenir hegeliens de conscience malheureuse, conscience stoïcienne…

JB. Il y a deux positions extrêmes qui me semblent également intenables, l’une qui consiste à dire que même quand on a l’impression d’être libre on ne l’est pas, car même si on vit dans un régime démocratique où les libertés individuelles sont à peu près respectées, on est contrôlé, conditionné et déterminé néanmoins de toutes les façons possibles et imaginables : ça, c’est un peu la position vers laquelle incline Foucault dans sa critique de la société dite libérale (on peut appeler cela l’argument de la “prison invisible”); et puis il y a une position qui est à l’opposé de celle-là, et c’est celle de Sartre, qui consiste à dire que, même quand vous êtes contraint de vivre sous un régime dictatorial, en un certain sens, qui est le sens important, vous êtes encore libre. Je trouve ces deux positions aussi déraisonnables et même absurdes l’une que l’autre.

VD. Enfin, on pourrait se demander si Sartre n’est pas destiné à devenir un classique qu’on admire, mais qu’on ne lit pas.

JB. Je suis convaincu qu’il restera. Ce problème me fait penser à une remarque de Wittgenstein, qui dit « Les œuvres des Grands Maîtres sont comme des soleils qui se lèvent et se couchent ». En d’autres termes, il y a des moments où elles se lèvent et puis elle peuvent rester couchées pendant un certain temps et se lever à un moment donné à nouveau. Je pense que c’est ça qui va se passer dans le cas de Sartre : il restera quand même un penseur de grande envergure, mais je suis vraiment embarrassé quand on me demande d’expliquer en quoi exactement il était grand : est-ce que c’était comme philosophe ? Est-ce que c’était comme écrivain ? Est-ce que c’était comme intellectuel critique et militant? Peut être c’est le mélange de toutes ces choses qui fait sa grandeur, justement parce qu’il est le seul à avoir réalisé ce genre de synthèse. On l’a défini comme « l’intellectuel total ». On peut probablement trouver des gens qui lui sont supérieurs dans la plupart des choses qu’il a faites. Mais on ne reverra pas de sitôt quelqu’un qui serait capable de les faire toutes en même temps. Le vingtième siècle a eu, selon moi, des philosophes et également des écrivains incontestablement plus grands que lui. Mais peut-on trouver une figure intellectuelle qui aurait réussi à en faire autant que lui et à peser d’un poids aussi important dans un si grand nombre de domaines différents ?

VD. Ah non. Aron disait qu’il voulait être Shakespeare et Hegel en même temps…Je me demande si on va pas se re-intéresser à sa philosophie quand on sera sorti de l’époque sur laquelle il a exercé une séduction fondamentale : avant l’immédiat il était déjà d’une certaine façon dans l’universel par une sorte de séduction totale. Tant qu’on est dans cette séduction on résiste à Sartre. Je m’intéresse à certaines pages de Sartre car je suis sorti de cette séduction.

JB. Evidemment c’est une figure qui va susciter la nostalgie. Il va représenter quelque chose qui était encore possible à une certaine époque et qui ne l’est plus.

VD. C’est la nostalgie de l’époque où on écrivait L’être et le néant au café. Maintenant dans les cafés il y a de la musique et du bruit....

Cet entretien a été réalisé par Gloria Origgi au Collège de France en Septembre 2005. La version italienne de ce texte va paraître sur la revue MicroMega. Tous droits reservés. Prière de ne pas citer sans autorisation

Tuesday, September 20, 2005

A new paper on Film and Cognition on line and open to discussion




A new paper, by the experimental psychologist Heiko Hecht, is now on line and open to discussion in the virtual workshop on Art and Cognition on line at: www.interdisciplines.org

Daniel Cohen sur Le Monde: Le classement infamant des universités françaises

Un article de l'économiste Daniel Cohen sur l'état pitoyable des universités françaises et européennes en général.

An article by the French economist Daniel Cohen on the desperate state of European universities that should be considered by the European research policy makers

Le classement infamant des universités françaises
Article paru dans Le Monde du 15.09.05



L'UNIVERSITÉ de Shanghaï publie chaque année le classement des 500 premières universités du monde. Et, chaque année, c'est le même crève-coeur pour les universitaires français de voir la place dérisoire qui leur est assignée. Sur les 100 premières universités, 4 seulement sont françaises : Paris-VI à la 46e place, Paris-IX à la 61e, Strasbourg-I à la 92e et l'Ecole normale supérieure (de la rue d'Ulm) à la 93e place (la liste est disponible sur http://ed.sjtu.edu.cn/ranking.htm). Cette tendance est encore soulignée par le rapport annuel sur l'éducation de l'OCDE, qui situe la France au 19e rang sur 26 en matière d'enseignement supérieur. L'OCDE insiste tout particulièrement sur le manque d'investissements consacrés à l'université ( lire page 12). Comme tous les classements, celui de l'université de Shanghaï est discutable. Il fait la part trop belle aux Prix Nobel, tend à ignorer les publications des chercheurs rattachés à des organismes de recherche extérieurs et donne une prime aux grands établissements sur les petits. La puissance - intellectuelle et financière - des universités américaines est pourtant patente.

Ignorer ce classement au motif qu'il est imparfait tiendrait de la politique de l'autruche. Comme disait Proust du snob qui sait reconnaître au premier coup d'oeil un salon à la mode, tout universitaire qui a mis les pieds dans une université américaine comprend d'emblée qu'il s'est posé sur une autre planète.

Faut-il, peut-on, copier le modèle américain ? L'idée qu'il faudrait strictement l'importer en Europe paraîtra inacceptable à beaucoup. L'hypothèse mérite pourtant d'être considérée. Après tout, le XXe siècle a été dominé, dans le monde industriel, par une "organisation scientifique du travail", le taylorisme, qui s'est imposée partout.

Si l'on admet que les innovations scientifiques et techniques seront au XXIe siècle ce que l'organisation du travail industriel a été au XXe, il ne serait pas aberrant de considérer qu'une "organisation scientifique du savoir" s'impose également.

Les universités américaines doivent leur efficacité à ce qu'elles apportent une réponse aux contradictions majeures qui traversent l'organisation du savoir : l'équilibre, tout d'abord, entre compétition et coopération, l'arbitrage, ensuite, entre recherche fondamentale et recherche appliquée.

Les universités américaines sont indiscutablement concurrentielles. Elles se disputent les meilleurs étudiants, les meilleurs enseignants et disposent du nerf de la guerre : l'autonomie financière, qui leur est donnée à la fois par les droits d'inscription élevés et des dotations financières propres. Elles sont aussi un lieu de coopération : les enseignants passent de l'une à l'autre au gré des séminaires ou des années sabbatiques, présentent ensemble des projets de recherches à la NSF, l'équivalent de notre CNRS (qui n'est outre-Atlantique qu'une agence de moyens).

Mais, surtout, les universités américaines sont suffisamment fortes pour discuter de puissance à puissance avec le reste de la société, politique ou industrielle. Se joue ici la question tant controversée du rapport entre la recherche fondamentale et la recherche appliquée.

Les chercheurs français ont récemment manifesté leurs craintes de voir leurs programmes de recherche dictés par une logique industrielle ou bureaucratique. Se faisant l'écho de leurs inquiétudes, le président de l'Académie des sciences, Edouard Brézin, faisait remarquer qu'on n'avait pas découvert l'électricité en cherchant à faire de nouvelles bougies. Par quoi il voulait dire, à juste titre, que la logique des découvertes scientifiques est irréductible aux usages qu'on en attend.

Pour autant, on aurait tort de clore le débat sur ce seul constat. L'idée extrême selon laquelle sciences et techniques formeraient deux mondes étanches est également fausse. La thermodynamique au XIXe siècle est née de recherches visant à améliorer l'efficacité des machines à vapeur. Selon les historiens, la complémentarité entre sciences et techniques est le facteur crucial qui explique pourquoi la révolution industrielle du XVIIIe siècle diffère de toutes celles qui ont précédé.

C'est parce que les liens entre recherches fondamentale et appliquée sont complexes que le besoin d'institutions puissantes et autonomes est indispensable, qui protègent les chercheurs du court-termisme des industriels, sans les conduire pour autant à ignorer la demande sociale qui leur est adressée. Le fait que les universités américaines soient des lieux d'enseignement joue à cet égard un rôle décisif. Répondre à la demande de formation est un stimulant puissant, qui oblige à répondre aux tendances de long terme de la société, sans avoir à renoncer aux impératifs de la science. Revenons en France. Sans refaire un diagnostic qui est hélas déjà bien connu, le contraste est saisissant. Les universités sont à la fois trop pauvres pour se faire concurrence et trop pauvres pour coopérer. L'écologie d'un système où la demande de formation nourrit la vitalité des départements concernés et guide les orientations des établissements est perdue.

"DIX HARVARD"

La faiblesse institutionnelle de l'Université nourrit la suspicion des industriels et des chercheurs eux-mêmes. Privé d'un terrain de rencontre, c'est ensuite la méfiance entre industriels et chercheurs qui s'envenime. Pour conjurer la crise que traverse la recherche française, on a ainsi créé au cours de la seule année 2005 : une agence pour l'innovation industrielle, une nouvelle agence pour la recherche et des pôles de compétitivité. Chacun, industriel, scientifique ou collectivité locale, aura gagné sa juste part de l'effort national, mais au prix d'un accroissement malheureux de la complexité institutionnelle. En l'absence d'un socle de référence légitime, la recherche s'émiette.

Une loi de programmation et d'orientation de la recherche est prévue, qui devrait déboucher sur la création de pôles de recherche et d'enseignement supérieur (les PRES). Le débat s'annonce rude entre ceux qui voudront leur donner une personnalité morale forte et autonome et ceux qui voudront limiter ces pôles à n'être que des structures légères et peu contraignantes. L'enjeu est pourtant capital. Il faut espérer que l'on ne créera pas un niveau de complexité additionnel, mais bien une instance capable de rassembler les acteurs de la recherche et de l'enseignement supérieur.

S'ajoute à la complexité interne du débat français le fait que le problème n'est pas strictement national. Les autres grands pays européens, à l'exception de la Grande-Bretagne, ne font pas mieux que la France. On ne compte ainsi que cinq universités allemandes et une seule université italienne dans les cent premières recensées par l'université de Shanghaï.

Nombre d'universitaires, italiens notamment, plaident pour que la Commission européenne prenne en charge la création de "dix Harvard", pour reprendre la formule du chancelier Schröder. Elle créerait ainsi à leurs yeux une base plus tangible que les promesses vaines de l'agenda de Lisbonne. Le problème est que le potentiel de destruction d'une telle mesure serait considérable. Pour fabriquer ces "dix Harvard", il faudrait forcément prendre sur les ressources intellectuelles des institutions existantes, au risque de les déstabiliser durablement et de ruiner leurs efforts d'adaptation.

Ce risque suggère une voie médiane : que la Commission ne crée que "cinq Harvard", pluridisciplinaires, mais prévoie également un budget de fonctionnement équivalent pour les meilleurs pôles existants, discipline par discipline. On offrirait ainsi une alternative européenne aux "multinationales du savoir" américaines, tout en ouvrant un champ propice à des innovations institutionnelles souples et adaptées aux contraintes nationales. Une voie nouvelle serait ainsi ouverte, sensible à l'exigence européenne de créer et de préserver.

Daniel Cohen pour le Monde