Wednesday, April 05, 2006

Wine epistemology



To appear in B. Smith (ed.) Philosophy and Wine, London. Draft. Do not quote


Wine epistemology: The role of reputational and rating systems in the world of wine



Ever since Pliny the Elder, talk about wine and its aesthetic appraisal oscillates between giving allegiance to the subjectivity of taste and appealing to systems of ranking and reputation. Book XIV of his Historia Naturalis is dedicated to wine, its cultivation and its benefits. In chapter 8 of the book, Pliny acknowledges the subjective dimension of wine tasting: “quam ob rem de principatu se quisque iudicem statuet” (His. Nat, XIV, 8), while presenting, a few lines above, a long and structured ranking list of the best wines, based on the reputation they had for emperors and other distinguished people. Famous proverbs such as De gustibus non est disputandum or chacun à son goût are often mentioned alongside remarks on the need of some “standards” or rules of taste to help our sense of discrimination.
Even Robert Parker, the internationally acclaimed “taste-pundit” in the world of wine, whose 100 points-based system of wine rating has revolutionized the wine market, entitles subjective taste as the ultimate judge. He writes in his subscribers-only website of wine rating www.erobertparker.com : “There can never be any substitute for your own palate nor any better education than tasting the wine yourself.” Or take this declaration in one of the most authoritative books on wine ever published, Hugh Johnson’s World Atlas of Wine: “The best judge of the right styles of wine for your palate is you. There are no absolutes of right and wrong in wine appreciation” (p. 49, 5th edition). Yet, the book is a monument to the reputation and the rating systems of the various regions in which wine is produced all over the world.
Wine taste is the paradigmatic case of subjective experience: it is highly variable, not only from one person to another, but also within the same individual from one particular occasion to another; it is highly incommunicable and depends upon a unique combination of external and internal conditions. Yet, the world of wine is a domain in which experts have a major role in defining the very experience of taste. This is of course no surprise: Wine is an aesthetic experience, and as such, needs evaluative criteria.
Hume’s famous essay Of the Standard of Taste is an attempt to argue for the need of a principle, a rule that allows us to discriminate between good and bad taste, and which he finds in the “joint verdict of true judges”:

Strong sense, united to delicate sentiment, improved by practice, perfected by comparison, and cleared of all prejudice, can alone entitle critics to this valuable character; and the joint verdict of such, wherever they are to be found, is the true standard of taste and beauty.


For Hume, a true judge is thus a connoisseur, that is, a person well acquainted with an aesthetic domain, and competent to transmit his or her judgement on the matter.
Connoisseurship is an elusive concept which vaguely refers to a special kind of expertise. If most of us are able to recognize a connoisseur in an aesthetic domain, like fine arts or interior decoration, it would be hard to precisely say what defines him or her as such. Is a connoisseur just someone who has good taste or does she or he have an objective expertise in a domain? The tension between subjective experience and objective expertise is especially vivid in the world of wine because, on the one hand, taste, like smell, is considered a lower sense, whose relation to aesthetic judgement is less clear-cut than that of sight and hearing (see Scruton, this volume), and, on the other hand, knowledge of wine is not a well defined epistemic field, so connoisseurs in the world of wine are often considered as no more than snobs that bluff their way by pretending an expertise that doesn’t have any serious objective grounds.
What is wine connoisseurship about? In trying to define it, the Italian gastronomist Carlo Petrini , founder of the Slow Food movement, plays with the common etymology of the two Italian words sapore (taste) and sapere (knowledge), both coming from the Latin word sàpere which means at the same time “having taste” and “knowing”. Taste requires knowledge to become good taste, that is, to belong to the licit sensory pleasures that a particular society considers as legitimate. Yet, the word gastronomy entered the European lexicon quite recently, through the 1801 poem by Joseph Berchoux, La gastronomie ou l’homme des champs à table, nearly as a joke, an oxymoron in which two markedly contradictory terms are put together to convey the idea of an impossible “science of the stomach” alluding hilariously to the word astronomy.
Sensory pleasures such as food and wine have been quite recently admitted among the proper pleasures in our society. Alcohol consumption is still forbidden by some religions and in many countries, and food restrictions and proscriptions are found in every culture. The way in which talking about wine and food has become so cultivated may perhaps depend on the need to detach it from the lower origins of the pleasures of palate. But I don’t want here to provide a sociological account of wine talk and its place in the mechanisms of social recognition and social distinction. This is an interesting topic that has been explored at length in sociology, especially in Pierre Bourdieu’s seminal work on the social critique of taste .
Rather, I would like to approach the question from the point of view of social epistemology, trying to understand how sets of knowledge structures, such as classifications, ranking systems, reputational systems, guide us in acquiring a capacity for discrimination in a particular epistemic domain. Taste, as Kant says, is an acquired disposition to discriminate and appraise. I shall consider wine taste in this sense as an interesting example of a more general epistemic process of appraisal that underlies our acquisition of expertise in so many different fields of knowledge and practice.
Wine seems of a special epistemological interest because it is an epistemic domain that we enter as adults and sometimes with relatively little cultural background to bias our taste and our judgement (we don’t undergo any obligatory institutional education in wine taste even in those areas of the world, like Southern Europe, where one is very likely to be exposed to wine talk and appraisal from childhood on). We deliberatively decide to learn about wine, defer to experts and acquire their manners and expertise. Thus, trying to elucidate what sorts of epistemic strategies are at stake in the case of acquiring wine taste seems at a first glance easier than in the case of other domains whose acquisition can be affected by age, school education and coercive teaching.
My general point will be that acquiring a wine expertise is not so radically different as it may seem at a first glace from acquiring epistemic competence in any domain of knowledge. Acquiring taste as a discriminative ability, a “sense of quality” that allows us to sort items of cultural knowledge, is a process that is not very well investigated in epistemology and cognitive science, but that plays a crucial role in knowledge acquisition. We need experts, tags, labels and rating systems in order to acquire a capacity for discrimination, to understand the style of thought that is proper to a particular body of knowledge. Without the mastery of some credible procedures for sorting information and enabling us to navigate through bodies of knowledge we would face the impossible task of Bouvard et Pécuchet, the two heroes of Flaubert who decided to retire and to go through every known discipline without, in the end, being able to learn anything.
Let me state my point in this way: Coming to know a body of knowledge involves, at least at the beginning, the ability to identify whom to trust for that knowledge. Assessing an expert’s or a label’s reputation is a way of orientating our trust in a new domain of knowledge so as to appropriately defer to other people’s expertise (the expert or the labelling institution) in the early learning phase in which a totally autonomous judgement is not possible. This is a controversial epistemological point and I would like to explain it better. On the classical view, a crucial requirement of any epistemology - whose aim is to tell us how we ought to arrive at our beliefs - is to ensure the autonomy of our process of knowledge acquisition. Various criteria, rules and principles on how to conduct our mind have been put forward along the history of philosophy as a guarantee to preserve the autonomy and freedom of thought necessary to the acquisition of knowledge. Recent approaches in epistemology have challenged this view and tried to account for the epistemic reliability of the inevitable trust and deference that permeate our cognitive life. Following this latter line, in my work I try to understand the place of deference, trust and reputation in our acquisition of knowledge . I defend the idea that deferring to indirect criteria to evaluate information - like reputation or trustworthiness of our interlocutors- is a fundamental epistemic strategy that has to be taken into account in any serious investigation of the processes of knowledge acquisition. Roughly, we do not acquire information in order to assess other people’s reputation: rather, we assess their reputation in order to acquire information.
By adopting this approach, a number of epistemological questions arise:


  1. What are the processes of construction of systems of reputations and ranking in a given domain of knowledge?

  2. How are different processes used to obtain information about that domain ?

  3. How do people use these systems to orient their discrimination ?

  4. What is the role of experts’ trustworthiness in maintaining or challenging these systems?


In order to elucidate these questions I will analyze three examples that will illustrate the complex relations between the institutional systems of classifications, the trustworthiness of experts and the acquisition of wine taste: The French appellation systems, the Californian systems, and the rise of the credibility of the taste-pundit Robert Parker and his influence on the wine market.

Classification and reputation. The French vs. the Californian appellation system.

In her book, How Institutions Think, the famous anthropologist Mary Douglas compared two systems of wine classification, the famous 1855 classification of Bordeaux’s wines in France and the more recent classification system of Californian wines, as an example of the institutional/public pressure on our ways of acquiring categories in a domain of knowledge. After a detailed description of the two different labelling systems - the Bordeaux’s regional-based system vs. the Californian grape-based - she concluded that the Californian labelling system marked a transition in our thinking about wine from the old and complex French regional-based system, whose way of condensing information “can only be unpacked by a connoisseur”, to the new, more pragmatic and market-oriented grape-based system. In her words: “This is how the names get changed and how the people and the things are rejigged to fit the new categories […] They make new kinds of institutions, and the institutions make new labels, and the new labels make new kinds of people” (p. 108). According to Douglas, this difference between the two classificatory styles expresses a conceptual shift in our way of thinking about wine. Yet, her prediction of a transition from the French classification system to the Californian one has not been fulfilled: the Johnson’s World’s Atlas of Wine, which she mentions as irrelevant to understanding the contemporary wine market, has attained its 6th edition and is still the number one best-selling book in the world of wine. It is true that the two systems are very different, and it is worth exploring in more detail how these differences have an impact on our discernment . But the resilience of the regional-based French classifications systems suggests that the distinct role of these labelling systems is not just to provide us with the categories that enable us to classify reality: these labelling systems are resilient as long as they are also reputational systems, that is, as long as the way in which they label the items gives us information on how to appraise the value of the items. In this perspective, the Californian Appellation system is not a rationalization of the French system towards a more pragmatic or market-oriented wine categorization. It just establishes a different network of deferential relations that consumers use in order to orient their choices. But let us have a closer look at these systems of classification.

Quality and reputation: The French Bourgogne and Bordeaux classification systems


French appellation systems are very idiosyncratic and vary from a region to another. The two most famous areas of wine production, Bourgogne and Bordeaux, have completely separate classification systems: the Bourgogne is based on a complex system of quality classification of the lands, whereas the Bordeaux is based on the châteaux system. The Bourgogne classification system was systematized and unified in 1906 by the Institut National des Appellations d’Origine (INAO), by appealing to previous local classification systems. It divides, according to their position and their soil composition, the lands into small vineyards that form the various appellations: Chablis, Mersault, Beaune, Nuits, etc. It further sorts the vineyards into four quality classes: Grands Crus (a rank that is deserved only by 32 small vineyards or climats, whose name represents the best wines in Bourgogne: Musigny, Chambertin, Montrachet, Chambertin Clos de Bèze, Romanée-Conti, etc.), Premiers Crus (about 600 vineyards which are usually indicated on the wine by the name of the village plus the name of the vineyards (like Gevrey-Chambertin Close St Jacques or Chambolles-Musigny Les Amoureuses), the appellation communale, which allows a wine to be called by the name of the village in which the vineyard is situated (like Mersault or Pommard, but also Gevrey-Chambertin, Chambolle-Musigny, Puligny-Montrachet – all village wines unless from a specific climat), and finally, a generic appellation Bourgogne reserved to less well situated vineyards, or to grapes taken from many, sometimes quite good, vineyards, in the case of good producers. This classification is a reputational system that establishes in a fairly robust way quality standards on a double level: first, by fragmenting the whole region into small portions of land and attributing appellations to them; second, by imposing on this fragmentation a four-level ranking system of vineyard quality. A connoisseur’s eye will thus read in a bottle’s label detailed information about the wine’s reputation according to the quality of the vineyard in which it is produced.
Bordeaux’s wines are classified according to a variety of local ranking systems, whose most well known is that of the châteaux in the Médoc region (with the exception of Château Haut-Brion in Graves) that was established in 1855, in response to Napoleon’s III request to rank Médoc wines for the Parisian Exposition Universelle, a very selective showcase of the French élite culture. The ranking was established by wine industry brokers according to the château reputation and its trading prices over the previous 100 years. The grand crus were already produced differently from ordinary Bordeaux wines, typically from older wine stocks, that often reached more than 50 years of age , thus raising the reputation of those château proprietors who could afford to keep large stocks for so long. The château reputation, calculated in terms of prices, was the key-ingredient in establishing the 1855 ranking system, a very different criterion than that of the land quality used in the Bourgogne system. A château is a controlled vineyard which has winemaking and storage facilities on the property. Its reputation depends thus not only on the vineyard’s position and soil quality, but also on the savoir-faire and past performances of the proprietors. As Hugh Johnson explains in his World’s Atlas, a maître de chai is a central figure of the château, one whose craft is supposed to be inherited from father and grand-father (cf. 5th edition, p. 82). The 1855 classification included 60 châteaux from Médoc and one from Graves, ranked as first, second, third, fourth and fifth growths (crus). Only four châteaux were ranked among the Premiers Crus: Lafite, Margaux, Latour and Haut-Brion (a fifth premier cru, Mouton-Rotchild, was added almost 100 years later).
By giving a primary role to the châteaux reputation, the Bordeaux’s reputational system provides different cues to the consumers. Winemakers’ mastery and their credibility over the years are the relevant cues for assessing whom to trust among the producers in this highly fragmented market. An experimental study in economics on quality expectations, reputation and prices in the Bordeaux wine market shows that the price premium associated with a better reputation exceeds twenty times the price associated with current quality. In a highly fragmented market, where information gathering about individual producers is very costly, the epistemic role of a château’s reputation is crucial to orient one’s taste.

Deference relations. The Californian 1978 Appellation system.

The Californian appellation system was established in 1978 by the Bureau of Alcohol, Tobacco and Firearms (ATF), with the aim of improving the reputation of American wines (California produces more than 90% of the wine made in United States), by allowing a wine to be named after a “politically designated” region. In 1980, were created “American viticultural areas” (AVA), that is, delimited wine-growing regions that have distinctive geographical features, such as Napa Valley, Sonoma Valley, or Anderson Valley. A wine maker who uses one of these legal appellations doesn’t need to produce wine inside the designated areas: it suffices that at least 85% of the grapes present in the wine should come from it. The AVA system doesn’t fix which variety of grape or yield should grow in a particular area and in which percentage. A wine produced with 85% Napa Valley Chardonnay grape will deserve to be a Chardonnay with the Napa Valley appellation. A Californian winery has much more freedom than a French one in choosing its appellations. Many producers still ignore the AVA classifications, and prefer to stick to the simpler labelling used before 1980, that is, naming the winery plus the grape variant. Others are not only committed to the AVA systems, but have also started to put on their labels the name of locally renowned vineyards now associated to a grape variety, such as Zinfandel in Dry-Creek Valley and Pinot Noir in the cooler hills of Carneros. Differentiation of areas and vineyards is still ongoing: indeed a very different picture from that drawn by Mary Douglas, who predicted an inevitable simplification of the classification systems towards a grape-based labelling. In fact, the more the reputation of Californian wines grows, the more fine-grained and stratified the classification system becomes, thus incorporating information that can be unpacked only by the expert’s eye.
The relative freedom of labelling of Californian winemakers doesn’t simplify the classification system. It leads rather to the establishment of a complex network of deferential relations among appellations and wineries, as has been shown by the economist J. M. Podolny. If a winery in one region puts the name of another region on its labels in order to indicate a better quality of grapes coming from that region, this is interpreted as an act of deference towards that region, and will contribute to its overall reputation and to the impact of the appellation on the price of wines. As Podolny shows, half of the bottles which bear the name “Napa Valley” on their labels are not produced within Napa Valley, as a clear act of deference and acknowledgment of the superiority of the grapes coming from this particular AVA. An example of a strategy used to influence status perception through affiliation to an appellation is the recent association of the Gallo winery, the largest producer of wine in US whose reputation is associated with cheap and mediocre wines, with the appellation Sonoma Valley, as an attempt to change its reputation and improve the perception of its wine (cf. Podolny p. 113). The use of the label “Gallo of Sonoma” is an act of deference of the Gallo vineyards towards the Sonoma region, thus signalling a more careful selection of the provenance of the grapes. This act of deference has a double effect: on the one hand, it makes transparent to the consumers the relationship between the two entities, that is, the fact that Gallo buys grapes from Sonoma Valley. One the other hand, it contributes to stabilizing a distinct identity of the label “Gallo of Sonoma”, that will orient consumers’ choice.
Podolny’s case study of the reputational network created by Californian wineries’ affiliations shows that this network has an influence on past evaluations of quality, an important parameter for fixing prices in a market. That is, the reputation that a particular winery gains through affiliations not only isn’t determined by its past, but influences how its past is evaluated.
So, here we have a third kind of reputational system, in which people rely on “who is associated with whom” in order to get information about a particular wine, given that it would be too costly and cumbersome to obtain this information from direct inspection of the quality.

These three examples show how different reputational systems provide consumers’ evaluation heuristics with different cues: the Bourgogne system provides cues about the quality of the vineyards, the Bordeaux’s about the mastery of the Châteaux, and the Californian about the social network of status relations. These different types of cues incorporate evaluations that are used by the consumers to get information that would be very costly to obtain otherwise. The “normative landscape” encoded in this ranking systems orients the novice in his or her first steps within the new domain of knowledge of wine.

Credibility, trust and moral qualities: The rise of Robert Parker’s trustworthiness


As Steven Shapin pointed out in a recent article, it is remarkable that the most famous taste pundit over the last decades, Robert Parker, comes from the United States. A former lawyer, born in Baltimore in 1947, Parker began writing wine reports around 1975 and has become since then the most respected critic throughout the world. His publication, The Wine Advocate, has more than 40,000 subscribers. His rise coincides with the rise of American wine and its now worldwide reputation. Parker’s best known revolution is his rating system based on a 100 point scale, a much more flexible system than the usual 20 point scales: 96-100 points correspond to an extraordinary wine, 90-95 to an outstanding wine, 80-89 to a barely above average to very good wine, 70-79 an average wine, etc. Almost every wine shop in the United States displays the Parker points below the prices of wines to orient the customers.
How did Robert Parker succeed in imposing himself as the most authoritative connoisseur in the domain of wine expertise? Why do people overall the world trust his judgments? His fame is related to his judgement on the 1982 vintage of Bordeaux, whose “British experts” have judged as overripe and not worth buying for the long term. His positive evaluation was eventually endorsed by the rest of the world. Actually, his rise wasn’t without conflicts. As the story tells, in 2004 he was heavily criticized by one of the leading wine critics, the British Jancis Robinson, for having rated a 2003 vintage Château Pavie 95-100, a “ridiculous wine” according to Robinson, whose appreciators deserved a “brain and palate transplant”. Still, despite a few attempts to discredit the reputation of his palate, Robert Parker is internationally considered a man of exquisite and precise taste, a “true judge”, in Hume’s words, whose infallible buds dictate the laws of oenological excellence. Wine experts in the wine industry play a key-role in balancing the effects of reputation that we have seen in the previous section of the paper: blind-tasting is a way of ensuring a criterion of quality independent of the classifications described above. When different blind evaluations converge, one may consider to possess an objective measure of the “perceived” quality of a wine (as opposed to its “expected quality”, that is, its reputation). Professional blind evaluations are performed under controlled conditions by panels of experts. But Parker has never accepted to be part of these panels. He presents himself as an independent critic and has not been formally trained in wine. He started his bimonthly publication as a vocation, abandoning his attorney career against the advice of friends and relatives. So, again, why is Parker trusted? Given that he doesn’t appeal to any professional expertise or rigorous standard of evaluation, should we admit the thesis of the superiority of his taste apparatus: exceptional palate, buds and memory that are never mistaken? Against this superhuman view of a “million dollar nose”, that can be used as a litmus test to determine the quality of a wine, I would rather explore an alternative view: Parker is identified as a modern version of a gentleman, a man of honour, and for this reason he is considered trustworthy, a friend of the ordinary consumer, not siding with the experts and the elite. The socio-epistemological role of the moral qualities of gentlemanry and honour in the evaluation truthfulness has been superbly addressed by Steven Shapin in his work on truth and credibility in the emergence of modern science. He explores “the connections between the identity of individuals making claims and the credibility of what they claim” (p. 126) and the way in which judgements of the truth or falsity of knowledge-claims incorporated assessments of the knowledge source during the emergence of experimental science in the XVII century. A similar connection between the acceptance of normative standards and the display of moral qualities, such as integrity and freedom of action, can be traced also in the case of the assessment of the credibility of a taste expert such as Robert Parker. Parker is supposedly incorruptible: The Wine Advocate’s subtitle is: “The Independent Consumer’s Bimonthly Guide to Fine Wine”. He sees himself as a self appointed consumer’s advocate, a crusader whose mission is to free the world of wine from hypocrisy and bad faith. His publication doesn’t accept advertising. He doesn’t accept gifts from wine producers or invitations to the vineyards, doesn’t speculate on the wine market, and prefers to taste alone at home, without the pressure of social occasions. His detachment is a guarantee of trustworthiness. He shows also a total disregard of the lore of hierarchies of wine. He’s not a snob as he claims are his British competitors, too sensitive to the lineage of wine. As his admirers claim, he brings a democratic breeze into the wine industry, by detaching the evaluation of wines from the reputation of their location and history. His simple and synthetic reports lack the verbosity of those by other critics and are easy to understand. Integrity, democracy, intelligibility are constituents of Parker’s self-professed identity and it is through the appraisal of his identity that consumers decide to trust him. While usually convergence of content and other indirect epistemic criteria play a role in assessing the credibility of reports, the case of Parker is somewhat different: it is the display of his moral qualities that reinforces his authority.
The relation between experts’ trustworthiness and historically determined reputational systems is thus quite complex: experts are not simply tools or instruments, as Smith claims (see Smith, this volume) that allow the consumer to assess the real quality of the wine by proxy, or to unpack unintelligible information out of a wine label. Experts participate in the maintenance and the transformations of the reputational systems by counterbalancing their role, challenging their hierarchies or reinforcing them.
A novice who approaches a complex and traditional corpus of knowledge such as wine expertise is confronted with a normative landscape, rich of cues he uses to orient his sense of discrimination. The lore of tradition is structured by the classifications, ranks and reputational systems that teach us what is canonical for that corpus of knowledge, that is, what defines the threshold of identity below which that corpus ceases to exist. We learn these maps fast, by using heuristics that allow us to rapidly associate values to items. But we are not blindly deferential to this lore. To the extent that we acquire an autonomous capacity of discrimination, we challenge and revise it, by relying on our own experience and on those experts whom we consider trustworthy in that domain. A socio-epistemological investigation of the different heuristics we construct and use to structure a body of knowledge is a worthy project, even in those cultural domains whose underlying facts of the matter are difficult to pinpoint. I don’t think there exists a “science of wine”. But this doesn’t imply that our acquisition of a discrimination is deprived of any objective value. Although a science of wine is still out of our reach, the sketch of an epistemology of wine that I’ve presented here is an attempt to describe how people structure their knowledge, which heuristics they employ, which experts they trust in trying to navigate an historically embedded and epistemologically entangled corpus of knowledge such as wine expertise.
Gaston Bachelard used to say that science has not the philosophy it deserves. In the case of wine, it would be perhaps more appropriate to say that philosophy has not the science it deserves.

References

J. P. Albert (1989) “La nouvelle culture du vin”, Terrain, n. 13 (October) : Boire. On line at: http://terrain.revues.org/document2961.html

Bourdieu, P. (1979) La distinction, Paris, Editions Minuit. English translation (1986) : Distinction. A social critique of the judgement of taste, Routledge, London.

M. Foucault (1966) Les mots et les choses, Paris, Gallimard. Eng. Trans. (1970) The Order of Things, Tavistock, London.

A. L. Hughson, R.A. Boakes (2002): “The knowing nose: The role of knowledge in wine expertise” Food Quality and Preference, 13, 7-8, 463-372.

Origgi, G. (2004) “Is Trust an Epistemological Notion?” Episteme, vol. 1, n. 1, 61-72.

Origgi, G. (2005) “What Does it Mean to Trust in Epistemic Authority?” in P. Pasquino (ed.) The Concept of Authority, Fondazione Olivetti, Rome.
Podolny, J.M. (2005) Status Signals, Princeton University Press.
Solomon, G. (1990), Psychology of novice and expert wine talk. American Journal of Psychology 105 pp. 495–517.
Solomon, G. (1997), Conceptual change and wine expertise. The Journal of the Learning Sciences 6 pp. 41–60
Shapin, S. (1994) The Social History of Truth, Chicago University Press.

Tuesday, April 04, 2006

Illustrations




Abtract accepted for the conference Art and Science the will be held in London, 22-23 June 2006.

Much of the recent debate about the role of representations in science and argumentation focuses on the role of visual representations in scientific reasoning. How do scientists use visual representations and what do these images mean? Can images be part of a scientific argument? And, if they can, how do they contribute to the overall meaning of a scientific argument? Visual representations are thus viewed as non-linguistic objects that can exploit the fine-grainedness of visual perception as opposed to verbal description for a variety of purposes such as conveying data, exemplifying an argument, or acting as cognitive facilitators in order to visualise information.
In this paper I will argue that illustrations, that is, cognitive facilitators that make things clearer to the mind, play a central role both in language and in other representational systems. In my view, illustrations (linguistic and pictorial) are a subset of exemplifications, and play a distinctive role in argumentation: Instead of providing evidence for an hypothesis (as exemplifications do in inductive reasoning) they facilitate the construction of a visual representation of that hypothesis. Both kinds of illustrations, linguistic and non-linguistic elicit semantically dense representations of a property or a concept presented in an argument. I will take some linguistic examples of illustration coming from the philosophical literature, in order to show that their role in the overall meaning of an argument is very similar to the role of images when used as illustrations.
Take the example of a relatively recent philosophical book, Margaret Gilbert’s book on Social Facts (Routledge, 1989). She introduces the technical philosophical notion of “we-intentions” and the illustrates it with various examples, such as for example the “restaurant case” (p.175) in which: “A group of people are eating together, two of them, Tony and Celia, are engaged and the other two barely know each other. Tony asks Celia: “Shall we share a pastry?” Celia agrees. The one of the other man, Bernard, turns to Sylvia, who is sitting on his right and whom she hardly knows and asks “Shall we share a pastry?”. She finds his use of “we” inappropriate”. These stories are neither presented as pieces of evidence that may prove the hypothesis at stake, nor are they standard exemplifications (as defined in Goodman, 1976) because the don’t possess the properties they are supposed to exemplify. They illustrate these properties by eliciting a visual representation.
Or take the more classical case of J.P. Sartre’s famous illustrations of what “bad faith” means. He introduces the description of a scene, in which he pictures a girl sitting with a man who she knows very well would like to seduce her. But when he takes her hand, she tries to avoid the painful necessity of a decision to accept or reject him, by pretending not to notice, leaving her hand in his as if she were not aware of it. The second illustration of “bad faith” describes a café waiter who is doing his job just a little too keenly; he is obviously 'acting the part'. These descriptions play an obvious role in his argument by contributing to making the notion of “bad faith” more vivid.
These descriptive sketches require a narrative ability and may fail to elicit the appropriate visualisation of the concept because of lack of some aesthetic properties.
My idea is that illustration as a rhetoric device bears interesting relations with visual representations both in the case of linguistic illustrations and graphic illustrations. A better investigation of the notion of illustration could provide an insight on the role of visual representations in argumentation.

Wednesday, March 15, 2006

Text-e. The Book




My new book on the future of text in Internet is now out. It results from the online conference I have organized with the Bibliothèque Publique d'Information in Paris and the start up GiantChair in 2001 on the website www.text-e.org

It is a collection of essays on the impact of new technologies on writing. It includes contributions by: Stefana Broadbent, Francesco Cara, Roberto Casati, Roger Chartier, Umberto Eco, Jason Epstein, Stevan Harnad, Bruno Patino, Dan Sperber, Theodore Zeldin.

With a forward and a conclusion written by myself and a selection of the discussion which took place on the website.

You can buy it and may be look inside at Amazon

Friday, March 03, 2006

Comments on Steven Davies: Social/Political/Psychological Identity




Presented at the Workshop on Social Cognition, Ecole Normale Supérieure, 3-4 March 2006



In W.G. Sebald’s novel Austerlitz, when the thirteen years old Dafydd Elias is told by his teacher that he has to put the name « Jacques Austerlitz » on his examination papers, because that is his real name, something changes in his identity. He grew up in the little town of Bala in Wales, son of the Calvinist preacher Emyr Elias and now he discovers that the preacher is not his real father, but just took him into his house at the beginning of the Second World War. The first reaction he has to this news is that the new name doesn’t evoke anything to him: he cannot connect it to any reality. All his world until that moment is Wales, and if “Jacques” evokes to him a French song he heard once, “Austerlitz” is completely opaque and mute. Still, his identity won’t ever be the same and the rest of the book is a long journey of memory in order to reconstruct his past identity of Czech Jewish child.
Does something change in Austerlitz’s identity when he acquires this information? From an objective point of view, he was already Jacques Austerlitz, before coming to know that this is his name. What’s special in this name that has the power to change his identity once that he comes to know it?
According to Steven, for someone’s to have an identity, the following conditions should be met:

•she possesses one or more properties;
•she reflectively and self-consciously thinks of herself as having these properties
•she poses to herself questions about who or what she is for which her possessing the properties is an answer; and
•she believes that the possession of the properties plays important roles in her life.

Steven distinguishes also between a person’s identity and her self-conception. A person’s identity is what or who she is; a person’s self-conception concerns her beliefs about what or who she is.
People may be mistaken about their identities (believing of having a property that actually they don’t have) or mistaken about their self-conceptions (I can believe that I am the most beautiful woman in Paris while being sadly mistaken about this).
Steven opts for a “externalist” notion of identity: My believing of having certain properties is not sufficient for having those properties as part of my identity: I have to objectively possess these properties. On the other hand, if these properties are inert in my mental life (as the fact of being a Czech Jewish for Austerlitz), they don’t count either as part of my identity. So, according to Steven, we cannot completely “make up” an identity and cannot be imposed an identity from “outside” (as in the famous British novel by Nigel Dennis Cards of Identity in which a bunch of psychologists who are members of an identity club, meet once a year in a country house to “create” some psychological profiles, and then impose them to some people in the village) if we do not represent what is imposed to us as relevant for our self-understanding.
Still, Steven contrasts a first-person perspective and a third-person perspective on identity: As the Christian Mary of Steven’s example, I never thought of myself as an Italian when I was in Italy. I had to emigrate to understand that being Italian was part of my identity. I acquired the self-consciousness of this trait because other people started to look at me and making sense of my behaviour by using this characteristic.
My question is thus: Is it really possible to separate a first-person perspective and a third person perspective on cultural identity? Isn’t it precisely the contact between our own perspective on ourselves and that of the others the endroit charnière in which our cultural identity becomes an intresting notion? This may sound a bit Sartrian, and lead us to conclude that “Hell is other people”. But the way in which “I see myself seen” seems to be irreducible to a first-person perspective only or a third-person perspective only. The notion of cultural identity seems to me so central in thinking about social cognition because it is neither just a trait of our folk-psychology, nor just a social, legal or cultural notion. It’s my awareness of the gaze of the others on me as an Italian, a woman, or a French resident that makes these traits play a role in the way in which they contribute to my making sense of who I am.

Sunday, February 26, 2006

Chi ha paura della terza cultura?




Published on Il Sole 24 Ore (26 February 2006). All rights reserved.Copyright Il Sole 24 Ore. Do not reproduce without permission.
Pubblicato sul Domenicale de Il Sole 24 Ore. Tutti i diritti riservati.

Che la scoperta di una classe di neuroni premotori nel cervello dei macachi possa avere importanti ripercussioni filosofiche sulla natura della socialità umana ha qualcosa di sorprendente: dopotutto, cosa c’entra l’attivazione di una cellula del sistema nervoso di una scimmia con il complesso intrigo delle nostre relazioni sociali? Al di là delle appassionanti discussioni suscitate da questa scoperta (per una visione d’insieme del dibattito recente si veda il convegno: www.interdisciplines.org/mirror ), essa ci dice qualcosa su come sono cambiati negli ultimi vent’anni i rapporti tra le “due culture”, come le aveva definite C.P. Snow nel suo famoso saggio del 1959 The Two Cultures, ossia tra scienze naturali e scienze umane. Antropologia, linguistica, sociologia, tutte discipline che stabilirono la loro autonomia affermando l’indipendenza del piano delle manifestazioni sociali e culturali umane dal loro sostrato biologico, lasciano spazio oggi a programmi di ricerca naturalistici, in continuità con i metodi delle scienze naturali (proprio questa settimana, a Parigi, l’antropologo Maurice Bloch ha svolto la sua lezione inaugurale al Collège de France sul tema: L’antropologia cognitiva alla prova della sperimentazione empirica: il caso della teoria della mente). E’ possibile allora una terza cultura, come l’ha definita l’agente letterario John Brockman, in cui le scienze empiriche partecipano a renderci un’immagine di senso di noi stessi e del nostro agire?
Indagare le basi biologiche dei sentimenti morali, dei giudizi estetici, dell’interpretazione degli altri o delle credenze religiose provoca ancora un’immediata resistenza intellettuale, in nome di un’eccezione dell’esperienza umana situata storicamente e irriducibile ai suoi vincoli naturali. Una simile direzione di ricerca sembra stravolgere profondamente la missione stessa delle scienze umane e sociali, volte a comprendere come le strutture storico-sociali, i rapporti di potere e di dominazione culturale si incarnano negli esseri umani fino a determinarne le espressioni individuali. Una tensione quindi apparentemente irrisolvibile tra modelli esplicativi incociliabili. Ma è proprio così?
Due critiche principali sono rivolte ai programmi di ricerca naturalistici nelle scienze umane. La prima è il riduzionismo, ossia ridurre esperienze sociali e personali complesse a meccanismi neurofisiologici. La seconda è l’anti-storicismo, ossia la mancanza di contestualizzazione storica, di indagine genealogica sugli oggetti stessi della ricerca, come se le forme di pensiero e gli schemi di azione che cerchiamo di spiegare siano “tipi naturali” immutabili. E bisogna riconoscere che spesso alcuni esponenti del nuovo naturalismo irritano proprio per le pretese riduzioniste e universaliste. Prendiamo il progetto della neuro-estetica:. Vilanayur Ramachandran sostiene che alcune risposte neurologiche a stimoli “esagerati” (come un occhio grande il doppio di un occhio normale) sono alla base della nostra esperienza estetica (un effetto neurologico presente anche nei topi che si chiama: Peak Shift). L’idea di aver sostituito alle “vaghe speculazioni degli storici” un principio scientifico di attribuzione di valore estetico suona piuttosto immodesta. Ma lo studio delle risposte psicologiche alle opere d’arte è stato intrapreso anche da valenti storici dell’arte, come per esempio David Freedberg, che nel suo lavoro seminale Il potere delle immagini (Einaudi, 1993), cercava di comprendere i vincoli psicologici e antropologici universali delle risposte umane alle immagini. Niente di riduzionista né di anti-storicista nell’approccio di Freedberg, solo un tentativo di guadagnare intelligibilità senza privarsi delle risorse delle scienze empiriche.
Sull’anti-storicismo si potrebbe argomentare che le spiegazioni che vanno per la maggiore oggi negli approcci naturalistici sono anch’esse di natura storica: gli argomenti evoluzionisti cercano di spiegare un comportamento o una forma mentis attuale in termini di una storia di adattamento del nostro cervello a condizioni ancestrali.
Così per esempio il filosofo Daniel Dennett, nel suo nuovo libro Breaking the Spell (Viking, 2006) si cimenta in un tentativo di spiegazione naturalistica delle nostre credenze religiose in termini darwiniani. Dennett isola in alcune predisposizioni cognitive i “germi” delle credenze religiose, come la capacità di leggere i fenomeni intorno a noi in termini intenzionali, e la conseguente predisposizione a cercare agenti responsabili di ciò che accade, o la maggiore memorabilità dell’informazione contro-intuitiva, di cui le religioni abbondano. A queste tendenze cognitive individuali, Dennett unisce numerose speculazioni sui principi della selezione dei gruppi, sull’evoluzione della struttura corporativa della religione e sulla selezione nel tempo, basata sull’autorità, di insiemi di credenze invulnerabili alla prova. Anche in questo caso però, l’ortodossia darwinista di Dennett può infastidire il lettore. Ma se l’eccessivo finalismo evoluzionista di Dennett sembra a sua volta una forma di credo religioso, non significa che il tentativo di guardare la religione con gli occhi delle scienze naturali sia un progetto privo di senso. Basta leggere direttamente i lavori antropologici a cui Dennett in parte si ispira, per trovare studi, come quello di Scott Atran, In Gods We Trust, (Oxford, 2002) che affiancano ad argomenti evoluzionisti osservazioni ecologiche e antropologiche ed esperimenti psicologici per ricostruire il “paesaggio ecologico” in cui un sistema di credenze evolve e si mantiene. Atran spiega le differenze tra religioni animiste, panteiste e monoteiste in termini di “distanza” psicologica nelle rappresentazioni che i diversi gruppi umani hanno del loro mondo biologico circostante e della società in cui vivono: laddove le rappresentazioni della natura e della società tendono a confondersi (come nelle società totemiche) avremo religioni animiste. Più le rappresentazioni tendono a distanzarsi, più si tenderà verso sistemi monoteisti. Ecco un esempio di una prospettiva non riduzionista né anti-storicista, ma che si appoggia sulle scienze empiriche nella spiegazione di un fenomeno religioso.
La terza cultura va vista allora come una cultura vettoriale, in cui spiegazioni provenienti da discipline differenti interagiscono senza ridursi una all’altra. Basti pensare ancora, come ultimo esempio, ai lavori sulle emozioni di Jon Elster, in cui neurobiologia, letteratura e teoria della scelta razionale entrano come vettori di una spiegazione insieme causale e concettuale di cosa significa sentire (Cf. J. Elster The Alchemies of the Mind, 1999). E’ possibile allora una terza cultura? La tentazione è forte di vedere in questi assemblaggi leggeri di saperi una nuova via della conoscenza, una cultura pluralista che tesse trame fitte tra fatti e interpretazioni senza l’onere ideologico di ridurre gli uni alle altre o viceversa.

Thursday, January 12, 2006

Reply to John Hyman


Is this neck a "super-stimulus"?

This message has ben posted in the discussion around John Hyman paper: Art and Neuroscience in the virtual workshop on Art and cognition: Pictures in Science and Cognition


John Hyman puts too much emphasis on “bold claims” that are so common these days in the so-called “scientific best-seller” literature, like: “Great art is ambiguity” or “All art is caricature”- and which are often part of the editing strategies to make a scholarly book appealing for a larger audience - instead of addressing some more substantial claims. Nobody wants to find the definitive neural correlate of art, the “art neuron”. Yet, we are not entirely satisfied by socio-historical explanations that explain a form of artistic expression in terms of a vector of social, cultural and historical forces of power and domination, and that seem to be much more mainstream today in art studies than neuro-aesthetics. It seems to me a reasonable project to take into account some cognitive constraints in the stabilization of a cultural form of expression, as art is. Zeki and Ramachandran’s attempts are efforts in this direction, that is, trying to isolate some perceptual/cognitive constraint at play in the stabilization of an art form.
But let’s go through some of the details of Hyman’s objections:
In his discussion on the inappropriateness of the Peak Shift effect in order to explain our art preferences, Hyman “knock-down” argument against Ramachandran boils down to the idea that the female figures in Indian art are a too far departure from reality to be a super-stimulus: The distance between the stimulus we are predisposed (by training or by evolution) to respond positively and the super-stimulus cannot be too large for the Peak-Shift to take place: “Ramachandran’s explanation of the beauty of the Indian sculpture does not work. In the first place, there is no evidence that the spectators who find it beautiful have been trained in this way. And second, the body shape of the goddess deviates much too far from the norm”. I don’t see how this could be such a devastating objection: One can reply that the spectator doesn’t need to be trained, but he may have been predisposed by evolution to respond positively to a class of stimuli. And what counts as an appropriate “distance” from two stimuli? A rat that has been trained to positively react to a square (S+) instead of a circle (S-), will react to a bigger square even it is not clear in which sense the bigger square is more distant from the circle than the original square. A better line of objection would be to argue that, at least in the case of female goddesses, Ramachandran’s theory seems to presuppose a male audience as target of these works, and I wouldn’t bet on this hypothesis. I will return on the objections to Zeki in another message. Just would like to mention in conclusion that a lively discussion around Ramachandran’s work has already took place on our website at: Art and Cognition The original paper by Ramachandran and the archives of the discussion are online and available to you all.

Tuesday, January 10, 2006

Le sens des autres: l'ontogenèse de la confiance épistémique




Manuscrit soumis à la révue Raisons Partiques. Ne pas citer sans autorisation. Tous droits réservés.

Draft. Paper submitted to the review Raisons Pratiques. Do not quote. All rights reserved.



Mais qu’y a-t-il donc de si périlleux dans le fait que les gens parlent, et que leurs discours indéfiniment prolifèrent ?
Michel Foucault, L’ordre du discours.

Speech is the highest and lowest human function, the endroit charnière between the mechanical grunt of the vocal chords and the poetry of cognition
Alice Kaplan, French Lessons

Epistémologie du témoignage : la dépendance épistémique de la parole des autres

Quelqu’un vous adresse la parole, vous dit quelque chose, et vous le croyez. Cette forme banale d’interaction est au centre d’un débat en épistémologie sociale portant sur le rôle du témoignage dans l’acquisition des connaissances. Comment pouvons nous acquérir des croyances justifiées par le biais des paroles d’autrui ? Le discours n’est-il que le véhicule de connaissances justifiées par d’autres moyens ou peut-il lui-même en assurer la justification?
La dépendance épistémique d’autrui est un phénomène majeur dans la vie humaine. Peu de connaissances peuvent être acquises sans l’aide d’autrui voire sans la médiation d’institutions sociales et de technologies inventées et maîtrisées par d’autres. Sans cette « division du travail cognitif » typique des sociétés humaines, notre vie cognitive ne serait pas très différente que celle des autres animaux.
La dépendance épistémique de la parole d’autrui comporte des difficultés épistémologiques supplémentaires : le langage est trompeur, les possibilités de manipulation et de mensonge sont infinies. Dans quelles conditions sommes-nous justifiés à croire ce que nous disent les autres? Comment éviter le risque de crédulité que toute acte de confiance dans nos interlocuteurs comporte ?
Les questions que soulèvent la fiabilité du témoignage et le statut de la communication comme véhicule de connaissance se retrouvent tout au long de l’histoire de la philosophie. L’épistémologie traditionnelle – de Platon aux néo-empiristes – fait peu de cas de cette forme d’accès au savoir : l’idée même d’une connaissance acquise par le truchement d’autrui semble incompatible avec l’autonomie intellectuelle qui caractérise le sujet connaissant rationnel. On pourrait même voir l’histoire de l’épistémologie comme celle d’une série des prescriptions et des règles de conduite de l’esprit visant à le protéger des risques de crédulité et d’ « infection » par le faux. Juste à titre d’exemple, parmi les « principes de régulation de l’opinion » que Locke discute dans son Essai sur l’entendement humain, une des obligations visant à renforcer l’autonomie de l’esprit est de ne pas accepter d’idées sur la base de l’autorité .

Le débat épistémologique autour de la confiance à accorder au témoignage d’autrui a été relancé dans l’épistémologie contemporaine par un nombre de travaux qui re-évaluent le témoignage comme source de connaissance et le placent au même niveau que d’autres ressources considérées traditionnellement comme plus fiables, telles que la perception ou l’inférence. Contre la vision philosophique classique du témoignage comme source de fausses croyances et de distorsions, une épistémologie du témoignage s’est constituée pendant les dernières dix années à l’intérieur de l’épistémologie sociale. Elle s’articule autour d’une opposition entre deux positions principales, le réductionnisme et l’anti-réductionnisme. Selon le réductionnisme, qu’on fait typiquement remonter à David Hume , la croyance en un témoignage est toujours justifiée par des raisons indépendantes de celui-ci, raisons qui sont elles mêmes fondées sur des sources de connaissance plus fondamentales telles que la perception, l’inférence et la mémoire. Selon Hume, notre confiance en un témoignage est établie a posteriori, après avoir observé une corrélation stable entre ce que le témoin rapporte et la réalité, c'est-à-dire, après avoir nous-mêmes établi la fiabilité du témoin, par une inférence inductive ordinaire. Selon l’anti-réductionnisme, traditionnellement associé au philosophe écossais Thomas Reid , le témoignage n’est pas réductible à d’autres sources de connaissance . La version contemporaine de l’anti-réductionnisme défendue notamment par Anthony Coady et Tyler Burge , plaide pour une justification a priori du savoir acquis par la communication : pour ces auteurs, le langage n’est pas seulement un véhicule d’informations : il est une source de légitimation de nos croyances .
Dans cet article je voudrais analyser plus de près la plausibilité d’une approche anti-réductionniste du témoignage, en explorant d’une part les bases cognitives du développement de la confiance en la parole d’autrui et d’autre part les mécanismes pragmatiques à l’oeuvre dans l’interprétation des témoignages. Il me semble en effet que les arguments anti-réductionnistes fondés sur les propriétés de la communication linguistique ne prennent pas suffisamment en compte la complexité des processus cognitifs et des interactions sociales impliqués dans l’apprentissage et dans la communication.

Deux arguments contre le réductionnisme

L’anti-réductionnisme contemporain procède d’une ré-évaluation du langage comme source de légitimation épistémique. Je prendrai ici en considération deux des objections qu’il oppose au réductionnisme. Une première objection part du constat que, dans la plupart des circonstances, il est impossible d’établir d’une façon indépendante la fiabilité d’un témoignage sans s’appuyer sur d’autres croyances elles-mêmes tirées de témoignages. Si je peux tenter de vérifier d’une façon indépendante un témoignage selon lequel l’aspirine fait baisser la température, je reconnais un cachet comme étant un cachet d’aspirine en vertu d’autres connaissances acquises par témoignage. Ceci est d’autant plus évident que l’on prend en compte la dimension de l’apprentissage : ma capacité d’afficher aujourd’hui des raisons positives pour mes croyances dépend d’un long processus d’apprentissage au long duquel j’ai dû accepter sur la simple base du témoignage ce que signifiaient les mots et quelles étaient les règles du discours. Au moins pendant l’enfance, l’apprentissage ne saurait s’appuyer sur la quête de raisons indépendantes permettant de s’assurer de ce qu’on a appris. L’acquisition des outils linguistiques et conceptuels qui rendront possible nos inductions sur la fiabilité des témoignages est elle-même intrinsèquement dépendante du témoignage d’autrui. Dans les mots de Thomas Reid : « la nature veut que nous soyons portés dans les bras d’une mère, avant que nous puissions faire usage de nos jambes ; elle a voulu pareillement que notre croyance fût dirigée par l’autorité et la raison des autres, avant qu’elle pût l’être par nos propres lumières. La première de ces deux intentions nous est suffisamment révélée par la faiblesse de l’enfant et la tendresse de la mère ; la crédulité de la jeunesse et l’autorité de l’âge attestent avec évidence la seconde »
La seconde objection au réductionnisme que je voudrais considérer ici mène, elle aussi, à voir dans le discours même non seulement un véhicule, mais une source de légitimation des connaissances et se fonde sur le fait que le locuteur prend la responsabilité de ses actes de parole. Le fait que quelqu’un parle ne fournit pas simplement une donnée d’observation du même ordre que celle fournie par d’autres comportements ou d’autres phénomènes. La communication a un rôle épistémique qui lui est propre. Un acte du langage fournit un type de donnée très spécial : il établi une relation de croyance non pas – ou non pas seulement – entre un sujet et un état de chose dans le monde mais entre deux sujets. Croire ce qui m’est dit c’est avant tout croire la personne qui m’adresse la parole. Il y a donc une forte asymétrie entre la situation épistémique ordinaire où les croyances d’un sujet s’appuient sur un ensemble de données – situation que le réductionnisme considère comme paradigmatique même dans le cas du témoignage – et ce qui se passe lorsque nous croyons un interlocuteur. Il s’agit alors d’une relation entre deux sujets intentionnels, l’auteur d’un acte de parole et le destinataire de cet acte. Cet aspect si manifeste du « croire autrui » a été négligé par les auteurs qui pourtant attribuent un rôle épistémique spécifique à la communication, exception faite par Richard Moran , qui a défendu cette ligne d’objection et selon qui la spécificité du « dire » tient à la responsabilité mutuelle des interlocuteurs.
Dans ce qui suit, je voudrais prendre au sérieux ces deux objections – que j’appellerai l’objection développementale et l’objection pragmatique – en les considérant non seulement comme des objections de principe, mais en essayant aussi d’en saisir la portée empirique à travers une compréhension des mécanismes cognitifs en jeu dans l’apprentissage et dans la communication. Une examen de l’ontogenèse et de la pragmatique de la confiance épistémique devrait également aider à dépasser la polarisation entre réductionnisme et anti-réductionnisme dans l’analyse du témoignage.

Les bases cognitives de la dépendance épistémique : l’ontogenèse de la confiance


C’est un lieu commun de penser que, s’il existe une prédisposition à la crédulité, c’est dans l’enfance qu’elle se manifeste le plus clairement. Les enfants, dépourvus d’autonomie intellectuelle, se retrouvent dans une situation de déférence fondamentale vis-à-vis de leur parents ou instructeurs. Leur confiance dans la parole des autres est un ingrédient du processus d’apprentissage : sans une bonne dose de confiance préalable, il ne serait pas possible d’apprendre quoi que ce soit. Certes, les enfants sont naïfs et les capacités d’évaluation épistémique se développent d’une façon graduelle. Ce n’est pas pour autant que les enfants sont de simples « enregistreurs » de toute information provenant des adultes. La psychologie cognitive des vingt dernières années a montré que, contrairement à ce que pourrait suggérer leur extrême vulnérabilité et leur dépendance des autres pour leur survie, les enfants ont, dès la naissance, une vie cognitive bien plus riche et plus autonome que cette « prometteuse bruyante confusion » à laquelle William James réduisait l’expérience perceptive d’un nouveau né . Les enfants n’arrivent pas au monde avec un cerveau pareil à une tabula rasa sur lequel l’apprentissage culturel inscrira les concepts et les règles du raisonnement. De nombreuses recherches montrent l’existence chez les enfants pré-linguistiques de capacités cognitives hautement articulées leur permettant de traiter d’une façon différenciée les stimuli qu’ils reçoivent de l’environnement. Un bébé de 5 mois, par exemple, se représente un objet solide comme une entité indépendante avec des propriétés physiques telles qu’il ne peut pas être dans deux endroits au même temps, ne peut pas traverser un autre objet solide, etc . D’autres expériences montrent qu’à cet age les bébés ont une discrimination numérique des objets, et des attentes sur leurs mouvements. Contra Piaget, selon qui les connaissances abstraites se construisent progressivement par l’observation et l’internalisation des régularités externes à travers l’interaction sensori-motrice avec l’environnement, cette nouvelle approche du développement cognitif met en évidence des capacités représentationnelles précoces chez l’enfant qui guident sa structuration des informations qu’elle reçoit de ses sens.
De même, l’enfant n’est pas dépourvu de toute ressource cognitive propre face à l’information qui lui provient d’autrui. A partir d’environ l’age de 9 mois et de façon rapidement croissante, donc avant le développement du langage, le bébé montre des capacités d’attention conjointe et de compréhension des buts de certaines actions d’autrui qui lui permettent d’avoir des attentes sur le monde social autour de lui, d’en tirer parti et de le manipuler à son avantage . On peut soutenir que les capacités de mentalisation, qui se développent d’une façon indépendante du langage, sont à la base de la compétence communicative de l’enfant et jouent un rôle crucial dans l’apprentissage linguistique même . L’enfant est donc un acteur social bien plus sophistiqué que ce qu’on pourrait croire. Mon hypothèse ici c’est que les compétences psychologiques et communicatives de l’enfant lui permettent de s’en remettre à autrui, en particulier dans la formation de ses croyances, de façon moins totalement passive et vulnérable qu’on ne le suppose généralement . Cette hypothèse converge avec la deuxième objection présentée aux arguments réductionnistes, selon laquelle le rôle épistémique de la communication est très différent de celui d’autres sources d’acquisition de savoir basées sur l’observation et l’induction. Croire ce que dit autrui est un processus cognitif basé sur d’autres inférences: c’est l’intentionnalité de l’acte communicatif du locuteur qui détermine notre confiance dans ce qu’il nous dit et en assure une légitimation au moins partielle.
Un être capable d’une lecture élaborée du monde social a donc un avantage non seulement relationnel, mais aussi épistémique grâce à une compréhension plus fine des intentions et des compétences de ses sources d’information. Plusieurs auteurs plaident aujourd’hui pour une explication de l’ « exception culturelle » caractéristique de l’espèce humaine basée sur le développement d’une théorie de l’esprit, ou d’un sens des autres, qui nous donnerait un avantage non seulement en termes de socialisation mais aussi d’accumulation culturelle et d’apprentissage . Du point de vue développemental, nombre d’expériences récentes montrent une corrélation entre développement d’une théorie de l’esprit et capacité d’évaluation des sources d’information. Les enfants autour de 4 ans développent une théorie de l’esprit plus sophistiquée qui leur permet d’attribuer des croyances fausses aux autres . En même temps, ils deviennent plus sceptiques dans l’acquisition d’information (par exemple, dans l’apprentissage de nouveaux mots), en dosant leur confiance selon les performances de leurs informateurs . L’ontogenèse de la confiance épistémique est donc à reconstruire à l’intérieur du rôle de la mentalisation dans l’apprentissage. Un enfant n’apprend pas un nouveau mot par une simple association : il s’appui sur l’acte intentionnel de son informateur pour fixer la référence du mot (cf. Bloom 2000). Ainsi, ce lien étroit entre reconnaissance d’intention et apprentissage par le truchement d’autrui pourrait constituer une base empirique pour une légitimation épistémique d’une « confiance primitive » dans la parole d’autrui. En prêtant attention aux intentions d’autrui, l’enfant, qui a un accès très limité à l’acquisition autonome de connaissance, se retrouve avec un mécanisme d’acquisition d’information qui est beaucoup plus puissant sans être pour autant passif.
La confiance préalable que l’enfant fait à la parole d’autrui est associée à sa capacité de reconnaissance d’un acte de parole comme acte intentionnel. Au cours du développement, le raffinement de ses compétences sociales lui permet d’évaluer la crédibilité des ses interlocuteurs ainsi que d’en éprouver la sincérité. Le développement des compétences épistémiques et celui des compétences psychologiques restent étroitement lié : apprendre à mieux évaluer les sources d’information passe par une compréhension plus fine des stratégies intentionnelles des autres. Bref, pour connaître le monde il est crucial de connaître les autres : notre « sens social » joue un rôle fondamental dans le développement de notre compétence épistémique .
La recherche psychologique sur le développement de la confiance épistémique nous livre le schéma suivant :

Développement de la confiance épistémique
:

16 mois: Les enfants distinguent entre affirmations vraies et fausses et apprennent les mots d’informateurs qui montrent les capacités intentionnelles adéquates (Baldwin & Moses 2001)
2 ans: Les enfants construisent l’identité des agents en partie sur leur fiabilité passée et commencent à montrer de la méfiance sélective envers les autres (Pea 1982)
3 ans: Les enfants retiennent l’information qui provient d’informateurs fiables et sont sensibles au degré d’assurance de l’informateur (Clément et al, 2004)
4 ans: La méfiance sélective des enfant s’élargi aux informateurs négligents et ils sont moins réceptifs aux informations trompeuses en provenance de locuteurs naïfs. Il commencent néanmoins à sur-estimer la fiabilité des informateurs fiables (Sabbagh, Baldwin, 2001 ; Welch-Ross, 1999)(d’après M. Koening et P. Harris (2005) « The role of social cognition in early trust », TICS, 9, 10, p. 457).

Ce développement conjoint des capacités de mentalisation et des capacités épistémiques permet de remettre en question, au moins au niveau du développement, l’opposition radicale entre réductionnisme et anti-réductionnisme. Ceux qui défendent une position anti-réductionniste en utilisant l’objection développementale, soutiennent que l’apprentissage est un cas de déférence fondamentale à autrui, c'est-à-dire, un cas de crédulité pure où on se fie aux autres sans aucune raison. Selon Coady , par exemple, il ne peut qu’en aller ainsi car c’est impossible d’acquérir un langage sans acquérir en même temps des croyances vraies sur ce dont on nous parle. En d’autres termes, il est impossible d’imaginer une situation d’apprentissage du langage qui ne présuppose pas la vérité des témoignages sur le monde qui nous permettent cet apprentissage. Lorsqu’une mère dit à son fils de 2 ans « le four est brûlant » elle lui apprend en même temps et d’une façon indissociable des mots et un fait du monde. Elle peut se tromper, mais si l’erreur ou la tromperie avait été dominant dans les situations d’apprentissage on a du mal à comprendre comment l’apprentissage linguistique et donc la langue elle-même auraient pu se stabiliser comme pratiques culturelles. Or, l’hypothèse que je soutiens ici c’est que l’association entre communication linguistique et acquisition des croyances n’est pas si automatique : la mentalisation sert de médiation entre apprentissage linguistique et acceptation du témoignage. C’est à travers la reconnaissance d’un acte intentionnel que l’enfant infère ce qu’on lui est dit .
La compréhension et l’apprentissage sont des processus bien plus riches et inférentiels que ce que l’on suppose habituellement. La présence de processus inférentiels tout au long de l’apprentissage et de l’acquisition du langage pourrait donner un argument aux réductionnistes, car elle semble montrer que la confiance dans le témoignage n’est pas primitive mais se fonde sur d’autres types d’inférence. Certes, une vision inférentielle de la communication affaiblie l’idée d’un principe de crédulité reidéen : croire les autres n’est pas un tropisme, mais un processus mental qui suppose une activité cognitive autonome . Néanmoins, les processus d’inférence en jeu dans la mentalisation ne sont pas un cas d’inférence inductive générale : la compréhension d’autrui se base sur une « théorie de l’esprit » tacite, qui nous permet de faire des inférences très particulières à partir d’inputs spécifiques (tout comme une théorie physique naïve guide nos inférences sur la trajectoire des objets inanimés). Un examen plus attentif des processus cognitifs impliqués dans l’acquisition des croyances par le biais d’autrui atténue ainsi le contraste entre réductionnisme et anti-réductionnisme, en nous permettant de reformuler la question. Il ne s’agit pas tant de savoir si il a ou il n’y a pas de processus inférentiels, mais plutôt de comprendre quelle est la nature des processus inférentiels impliqués et comment interagissent les inférences sur les autres et les inférences sur le monde.
Cette interaction entre compétence communicative et compétence épistémique nous amène à considérer de plus près la deuxième objection, l’objection pragmatique et à tenter de mieux éclairer les mécanismes pragmatiques à la base de la confiance épistémique.


Présomption de vérité, coopération et posture de confiance : esquisse d’une pragmatique de la confiance


Dans le célèbre roman de Jerzy Kosinski, Being There , rendu encore plus célèbre par le film interprété par Peter Sellers, Mr. Chance est un vieux jardinier mentalement retardé qui n’est jamais sorti de son jardin. Son patron meurt, il sort pour la première fois dans la ville de Washington, est renversé par une voiture et grâce à une série de coïncidences fortuites, il se retrouve à habiter dans l’appartement d’un tycoon de la finance américaine et à dialoguer avec les hommes et le femmes les plus en vue des Etats-Unis. Un jour, le Président des Etats-Unis en visite lui demande son avis sur la mauvaise saison à Wall Street. Mr. Chance répond, comme toujours, avec des phrases vagues sur la vie du jardin : «Dans un jardin la croissance a sa saison. Il y a le printemps et l’été mais il y a aussi l’automne et l’hiver. Et ensuite à nouveau le printemps et l’été. Tant que les racines ne sont pas coupées, tout est bien et ira bien ». Après une sérieuse réflexion, le président interprète ces propos comme un constat profond sur la symétrie fondamentale entre nature et société et les cite à la télévision le lendemain même. Bien sûr, nous ne sont pas ici dans un cas d’échange conversationnel ordinaire : il s’agit d’un cas extrême de « sur-interprétation » dont les effets de malentendu amusent le lecteur. Mais est-ce que les cas d’interprétation quotidienne de la parole d’autrui sont radicalement différents de celui-ci ? Considérons la façon dont Président interprète Mr. Chance. Il lui attribue une certaine crédibilité en tant qu’interlocuteur à cause du contexte social de leur rencontre : Mr.Chance est apparemment un ami de son ami, donc, par un effet de réputation et de réseau social, il est un interlocuteur digne d’attention. Le Président s’attend à que Mr Chance contribue d’une façon appropriée à la conversation, donc sur-interprète ses propos conformément cette attente. Il interprète ce que dit Mr. Chance dans le contexte de ses propres croyances sur l’état de l’économie américaine : d’où le sentiment que la phrase de Mr. Chance est particulièrement perspicace et profonde. Les idées du Président sur l’économie américaine que cet échange avec Mr. Chance inspire, vont évidemment bien au-delà du maigre et vague commentaire de ce dernier sur les saisons du jardin.
Cet exemple caricatural peut néanmoins nous aider à mieux comprendre les rapports entre communication et acquisition de croyances. La communication verbale est un processus inférentiel riche et articulé et non pas un simple transfert d’information d’une tête à une autre. A chaque fois que nous nous engageons dans un échange conversationnel, nous participons activement à la construction d’un ensemble des pensées, d’hypothèses générées « pour le bien de la conversation » et que nous allons retravailler et retenir en partie à la lumière de nos propres croyances. L’investissement dans ce travail cognitif d’interprétation et de compréhension mutuelle requiert une confiance dans le fait que notre interlocuteur est en train de jouer le même jeu et d’accepter un ensemble de règles tacites qui guident notre conversation, et en particulier qu’il s’efforce de dire des vérités pertinentes. Dans le cas de Mr. Chance, le malentendu dépend du fait que cette présomption est erronée : Renfermé dans une forme d’autisme, Mr. Chance répète des phrases sans les connecter au contexte de la conversation. L’effet de malentendu devient ainsi matière à fiction. Dans le roman, personne ne se rend compte du malentendu en dépit d’interactions répétées, avec des conséquences spectaculaires : Mr. Chance devient un gourou de la politique et de la finance américaine et un candidat possible à la présidence des Etats-Unis. Dans la vie réelle, la confiance, et en particulier la présomption de vérité peuvent toujours être remises en cause en fonction de la façon dont les échanges évoluent et s’enchaînent. Voyons de plus près comment se met en place et se maintient cette présomption de vérité dans la conversation, et quelle est son rôle dans la justification du témoignage.
L’idée que la communication requiert une présomption de vérité est désormais une platitude philosophique : au cours du XXème siècle cette idée a pris la forme de différents principes et règles de communication : à la suite de W.V.O Quine , Donald Davidson a invoqué un principe de charité interprétative selon lequel tout acte d’interprétation nécessiterait une attribution massive de croyances vraies à nos interlocuteurs. David Lewis a proposé une convention de vérité dans L partagée par les locuteur d’une langue L et qui fonde l’interprétation sémantique des expressions de L. Paul Grice a proposé une série de maximes de régulation de la conversation, parmi lesquelles une maxime de qualité qui nous enjoint à dire le vrai. Certains arguments anti-réductionnistes sur le témoignage reprennent ces principes pour justifier au moins en partie a priori les croyances acquises par le biais du témoignage. L’argument, dans sa forme générale est le suivant : puisque l’usage même du langage requiert un lien entre parole et vérité, nous pouvons, en absence d’indices contraires, faire confiance aux dires des autres. Pourtant, cet argument se heurte à plusieurs objections. L’invocation de principes à la Davidson ou de conventions à la Lewis donne peut être des conditions « transcendantales » de possibilité d’acquérir des croyances justifiées a priori par le biais du témoignage, mais elle n’explique pas un trait phénoménologique très saillant de cette acquisition, à savoir la confiance que nous faisons à la personne qui nous parle du fait même qu’elle nous a intentionellement adressé la parole.
Grice, lui, prend en compte la dimension intentionnelle de la communication, en voyant dans l’acte de dire quelque chose à quelqu’un la réalisation d’une intention très particulière puisqu’elle a besoin, pour aboutir, d’être reconnue comme telle par le destinataire de cet acte. C’est la reconnaissance d’une elle intention qui suscite chez le destinataire la présomption que le locuteur s’est conformé aux maximes de la conversation et en particulier à la maxime de qualité. Il y a pourtant même dans le cas de Grice deux objections possibles : premièrement la maxime de qualité est trop rigide. Lorsque le locuteur viole cette maxime Grice est obligé de conclure que le locuteur ne dit rien, mais « fait comme si » il disait quelque chose, et ce afin de véhiculer un message implicite. Cette analyse ne fonctionne pas du tout dans les cas très ordinaires d’expression vague ou approximative où les critères épistémiques contextuellement à l’oeuvre n’exigent non que le locuteur disent vrai mais seulement qu’il ne trompe pas le destinataire. En second lieu, les maximes semblent jouent un rôle ex post facto, une fois qu’une phrase a été énoncée, en vue de reconstruire, comme un détective, ce que le locuteur voulait dire en l’énonçant. Or, la confiance préalable qui nous justifierait à croire autrui se base sur le fait que le locuteur se présente comme une source fiable d’information par le seul fait de nous adresser la parole d’une façon intentionnelle : c’est son acte de nous dire quelque chose qui met en place une relation entre nous basée sur des attentes réciproques.
Un acte de communication est un engagement dans une interaction qui établit non seulement une sérié d’attentes sociales , mais un environnement cognitif partagé. Dans la pragmatique cognitive contemporaine on fait l’hypothèse que chaque acte de communication suscite des attentes de pertinence à partir desquelles les interlocuteurs construisent leurs hypothèses sur ce qui est dit , à l’intérieur d’un environnement cognitif partagé que leurs phrases contribuent à engendrer. A chaque échange conversationnel, notre paysage mental s’enrichit des nouvelles représentations et hypothèses sur le monde que nous construisons « pour le bien de la conversation ». Nous adoptons une posture de confiance dans la volonté de notre interlocuteur d’être pertinent pour nous et de s’engager dans la construction d’un environnement mutuel. Ceci n’implique pas que nous persisterons à croire tout ce que nous aurons accepté pour le bien de la conversation. Une posture de confiance est un ingrédient fondamental du processus de la conversation, mais il s’agit d’une forme de « confiance virtuelle » qui peut être éphémère. Comme dans l’histoire de Mr. Chance, les croyances sur l’économie américaine auxquelles le Président abouti sont engendrées par la posture de confiance qu’il adopte dans son échange avec Mr. Chance. Ces idées cependant sont largement indépendantes de ce que Mr. Chance a dit, et sont issues d’une interprétation fondée sur ce que le Président pensait déjà.
Notre travail cognitif, porté par la confiance que nous faisons à l’intentionnalité de notre interlocuteur, peut largement dépasser, voire s’écarter, de la seule compréhension de ce qui a été dit. La posture de confiance que nous assumons dans une conversation est toute la vulnerabilité cognitive que nous acceptons en nous engageant dans cet échange. Cette confiance est à la fois fondamentale et fragile : elle est nécessaire pour guider nos interprétations, mais elle peut être facilement retirée à la lumière de nouveaux indices. Par le seul fait de s’adresser à nous, autrui nous demande d’adopter une telle posture de confiance. La justification de cette posture n’est pas à chercher dans des propriétés du langage, mais dans la spécificité cognitive et sociale de notre reconnaissance d’un acte intentionnel dont nous sommes le destinataire. Cette posture de confiance peut nous disposer à croire, mais elle n’est pas suffisante à nous rendre crédules : nous élaborons avec notre interlocuteur un environnement cognitif partagé dont les retombées épistémiques relèvent de notre responsabilité. Pour être en situation de croire ce que nous dit autrui, il faut accepter la vulnérabilité que comporte tout engagement dans un échange verbal, mais il n’est pas nécessaire pourtant d’abdiquer notre autonomie cognitive.

Références :
Baldwin, D. Moses, L. (2001) “Links between social understanding and early word learning: Challenges to current accounts” Social Development, 10, p. 309-29.
Bezundehout, A. (1998) « Is Verbal Communication a Purely Preservative Process ? », Philosophical Review, vol. 107, n. 2, p. 261-88.
Bloom, P. (2000) How children learn the meaning of words, Mit Press, Cambridge, MA.
Burge, T. (1993) “Content Preservation”, Philosophical Review, vol. 102, p. 457-88.
Coady, A.C. (1992) Testimony, Clarendon Press, Oxford.
Clément, F. et al (2004) “The ontogenesis of trust” Mind and Language, 19, p. 360-79.
Conein, B. (2005) Les sens sociaux, Economica, Paris.
Koenig, M.A., Harris, P.L. (2005) “The role of social cognition in early trust” Trends in Cognitive Science, vol. 9, n. 10, p. 457-59.
Lackey, L. (2006) “It takes Two to Tango: Beyond Reductionism and Non-Reductionism in the Epistemology of Testimony” in J. Lackey and E. Sosa (eds.) The Epistemology of Testimony, Oxford University Press.
Lackey, L. (à paraître) “Testimony and the Infant/Child Objection”, Philosophical Studies.
Lutz, D., Keil, F. (2002) “Early understanding in the division of cognitive labour”, Child Development, 73, 1073-1084.
Moran, R. (2003) Authority and Estrangement, Harvard University Press, Cambridge, MA.
Moran, R. (2005) “Getting Told and Being Believed” in Philosophers’ Imprint, vol. 5, n. 5, p. 1-29.
Origgi, G. (2004) “Croyance, deference, témoignage” in E. Pacherie, J. Proust (éd.) La philosophie cognitive, Editions Ophrys et Maison de Sciences de l’Homme, p. 167-83.
Origgi, G. (2004) “Is Trust an Epistemological Notion ?” Episteme, vol. 1, n. 1, p. 61-72.
Origgi, G. (2006) « Peut-on être anti-réductionniste à propos du témoignage ? », Philosophie, vol. 88.
Origgi, G. ; Sperber, D. (2000) « On the proper function of language », in P. Carruthers, A. Chamberlain, Evolution and the Human Mind, Cambridge University Press.
Pea, R.D. (1982) « Origings of verbal logic : Spontaneous denials by two and three years old », Journal of Child Language, 9, p. 597-626.
Pouivet, R. (2003) Qu’est-ce que croire? Vrin, Paris .
Rotenberg, K. (1980) “A promise kept, a promise broken: Developmental bases of trust”, Child Development, 51, 2, p. 614-617.
Sabbagh, M.; Baldwin, D. (2001) “Learning words from knowledgeable versus ignorant
Speakers: Link between preschoolers’theory of mind and semantic development”, Child Development, 72, 1054-70.

Tuesday, December 27, 2005

Gènes et culture



Draft. Do not quote. Manuscrit en préparation pour le Dictionnaire du Corps édité par Michela Marzano, PUF. Tous droits réservés



Peu de concepts s’opposent aussi nettement que ceux de « gène » et de « culture ». La référence aux gènes fait penser à ce qui est pre-déterminé dans notre organisme, que nous ne pouvons pas changer au cours de notre vie. L’idée de culture évoque, elle, la variabilité, les innombrables différences de croyances, de comportements et de normes sociales qui relèvent d’un apprentissage et qui contribuent à l’identité personnelle. Toutefois cette dichotomie conceptuelle, même si elle persiste souvent dans le discours public qui oppose « naturel » à « culturel » ou « inné » à « acquis », a été largement dépassée par les développements des sciences de la vie et des sciences sociales au cours des dernières 50 années, ce qui permet aujourd’hui au neurobiologiste Jean-Pierre Changeux de conclure : « Le conflit idéologique entre gène et culture fait partie du passé ». Cette fausse opposition est pourtant profondément enracinée dans notre classification des traits qui définissent un être humain : après tout, souffrir de l’anémie méditerranéenne n’est pas du même ordre que parler le chinois. En quoi donc ce contraste est-il dépassé et comment articule-t-on dans la science contemporaine les rapports entre biologie et culture ?

La conception scientifique du gène

La conception scientifique du rôle des gènes dans la construction du corps et de l’esprit trouve son origine dans les travaux de Gregor Mendel. Ce moine autrichien a montré, il y a près de cent cinquante ans, que les « caractères » qui définissent un organisme sont contrôlés par des « facteurs » cachés qui en déterminent l’héritabilité à travers des lois combinatoires. En 1909, Wilhelm Johannsen introduit le mot « gène » pour désigner les « facteurs unitaires » qui seraient responsables de la transmission des caractères. La génétique s’impose alors comme un programme de recherche visant à éclairer les « lois de la constance » et de la stabilité intergénérationnelle, donc, en ce sens, un programme de recherche orthogonal par rapport à la théorie darwinienne, qui avait permis de mieux comprendre les « lois de la transformation et de l’évolution ». Au long de premières quarante années du vingtième siècle, la génétique progresse même si les gènes restent une hypothèse théorique, pour laquelle il n’y a pas de support matériel : on suppose qu’il y a des facteurs qui contrôlent les traits des organismes en développement et la stabilité de ces traits d’une génération à l’autre, mais la nature de ces facteurs reste inconnue. A partir des années quarante, les travaux des biologistes George Beadle et Edward Tatum permettent d’avancer l’hypothèse que les gènes exercent leurs effets en influençant la production d’enzymes. Un enzyme est une molécule spéciale, un catalyseur, qui accélère une réaction chimique. On savait que l’absence de certains enzymes était responsable de divers troubles physiques et mentaux. D’où l’hypothèse de Beadle et Tatum : « un gène, un enzyme ». En 1953, la découverte par James Watson, Francis Crick, Maurice Wilkins et Rosalind Franklin de la structure du support matériel des gènes, c'est-à-dire la structure à double hélice de l’acide désoxyribonucléique (ADN), ouvrait une nouvelle ère de la recherche génétique : on se rendit vite compte que les gènes faisaient beaucoup plus que guider simplement la construction des enzymes : ils contrôlaient la construction des protéines, c’est à dire des longues chaînes de molécules d’amino-acides à la base de la construction et du fonctionnement de notre corps. La structure à double hélice permettait d’élucider le mystère de l’héritabilité et de la stabilité des caractères : l’ADN est une substance chimique capable d’auto-réplication : chaque brin de la molécule initiale structurée en double hélice sert de matrice pour la synthèse d’une nouvelle molécule d’ADN. Le processus à la fois de réplication et de conservation est donc contenu dans cette capacité d’auto-réplication avec un taux très bas d’erreurs de l’ADN. Un gène n’est qu’un fragment stable (mais non-nécessairement continu) de la série des combinaisons des nucléotides, qu’on retrouve à chaque génération. Grâce aux découvertes de Jacques Monod et François Jacob dans les années soixante, la vision du rôle des gènes se précise : non seulement les gènes ont la capacité de se reproduire, mais ils ont la capacité de diriger et contrôler le processus de construction de l’organisme, en variant les protéines à construire selon la présence ou l’absence d’autres facteurs. Chaque gène peut donc non seulement construire une protéine, mais réguler ce processus de construction en prenant en compte d’autres facteurs, comme la présence d’autres gènes. L’expression d’un gène est donc inhibée ou activée par la présence d’autres gènes, de facteurs environnementaux et d’autres facteurs de régulation. Au milieu des années soixante, la nouvelle synthèse de la théorie darwinienne de l’évolution, de la biologie génétique et de la génétique des populations (HAMILTON 1964, MAYR 1963) a permis d’expliquer l’évolution d’une population en termes de modifications de la fréquence d’un gène par sélection naturelle.
Les avancées impressionnantes de la génétique au vingtième siècle ont abouti en 2003 au déchiffrage du génome humain, c'est-à-dire au séquençage des gènes présents dans l’ADN humain. Ce résultat extraordinaire ouvre une phase nouvelle dans l’étude de l’être humain et de son développement individuel et culturel. On peut aujourd’hui se poser de nouvelles questions : Comment les quelques 30 000 gènes déchiffrés dans notre ADN contribuent-ils à expliquer l’unicité des individus et leur diversité culturelle ? Quel est le rôle des gènes dans l’évolution culturelle et, réciproquement, quel effets l’évolution culturelle peut-elle avoir sur l’expression génétique ? Comment la complexité des vingt milliards des neurones interconnectés dans le cerveau humain peut-elle être expliquée à partir du petit nombre de gènes qui en contrôlent la construction ? Comprendre les rapports entre gènes et culture passe d’abord par la compréhension du rôle des gènes dans la construction de ce complexe cerveau/esprit qui a rendu possible l’explosion culturelle humaine.

Gènes, cerveau et langage

La singularité du comportement humain par rapport aux autres espèces animales n’a pas une explication évidente en termes génétiques. La divergence entre le génome humain et celui d’un chimpanzé est de moins de 1% (KING & WILSON 1975) et le rôle ce maigre 1% est loin d’être bien compris. On ne peut pas affirmer par exemple que la différence fonctionnelle entre humains et autres primates est due à l’émergence de nouveaux gènes spécialisés: les gènes responsables des fonctions cérébrales humaines ne constituent pas une classe de gènes particulière : la plupart de ces gènes ont des expressions ailleurs que dans le cerveau et sont analogues aux gènes d’autres espèces. La singularité du fonctionnement cérébral humain dans l’évolution n’est donc pas le simple produit d’une complexité croissante du génome. Le développement de certaines fonctions cognitives du cerveau humain, telles que le langage et d’autres capacités représentationnelles, crée une dynamique nouvelle dans l’évolution de notre espèce : l’accumulation d’une génération à l’autre des solutions aux problèmes posées par l’environnement et le rôle massif de l’apprentissage font de l’essor de la culture humaine un événement sans précédent dans le monde animal, capable de modifier les conditions mêmes d’action de la sélection naturelle sur notre espèce. Le déclenchement d’un processus de co-évolution gènes/culture explique l’exception humaine.
C’est dans le langage qu’on a longtemps vu le propre de notre espèce. L’évolution d’un système de représentation et de communication si articulé serait à la base de l’exception culturelle humaine. Le langage serait le résultat d’une série de mutations adaptatives (mutations cérébrales ainsi que somatiques, comme la présence d’un larynx capable d’articuler) qui auraient doté les humains de capacités symboliques nouvelles à la base de la boucle évolutive langage/cerveau (DEACON 1997).
L’étude des bases génétiques de la compétence linguistique, ne permet pourtant pas encore d’identifier un « gène du langage » en dépit de quelques déclarations fracassantes dans la presse. On connaît aujourd’hui certains gènes, comme le gène FOXP2, dont les mutations sont associées à des malformations spécifiques dans l’articulation du langage. D’où l’hypothèse que l’apparition du langage serait le résultat d’une modification du gène FOXP2 que l’analyse phylogénétique fait remonter à il y a environ 200 000 ans. Mais l’hypothèse reste spéculative. Et s’il est difficile d’établir une corrélation entre gènes et aires cérébrales, il est encore plus difficile d’établir des corrélations entre aires cérébrales et fonctions cognitives. Certaines aires, dites de Wernicke et de Broca, sont impliquées dans la compréhension et la production du langage. Mais ces mêmes aires sont aussi impliquées dans plusieurs autres capacités, comme la mémoire, la vocalisation et l’imitation. (FRIEDERICI 2002 ; KAAN &SWAAB 2002). Il semble alors que le rôle du langage dans l’exception humaine, soit à situer à l’intérieur d’un cadre plus complexe d’évolution des fonctions cognitives. Ainsi la pensée abstraite, bien que sûrement favorisée par l’essor d’un langage, peut être enracinée dans d’autres compétences cognitives. L’être humain est une « machine à idées ». Il est capable non seulement de produire des représentations abstraites, mais aussi d’en reproduire grâce à des extraordinaires capacités d’imitation et de communication. La coordination stratégique, la planification, l’anticipation d’actions d’autrui ainsi que la représentation du monde social autour de soi requièrent des compétences variées qui peuvent avoir contribué à l’émergence d’un environnement culturel qui a son tour a rendu possible la co-évolution cerveau/culture. Si on raisonne en termes darwiniens sur l’évolution de ces compétences, comme ça a été fait surtout dans le cadre de la psychologie évolutionniste (COSMIDES-TOOBY 1992, BYRNE-WHITEN 1997), on peut faire l’hypothèse que la pression sélective exercée sur l’évolution de ces différentes fonctions cognitives a crée une variété de « niches culturelles » (ODLING-SMEE & LALAND) favorables à l’essor d’une culture proprement humaine et donnant un caractère adaptatif au langage. Par exemple la capacité à se représenter les actions d’autrui en termes de croyances et d’intentions, ce que les psychologues appellent « théorie de l’esprit », aurait pu évoluer sous la pression d’une vie sociale de plus en plus complexe où des compétences de psychologie naïve pouvaient se révéler avantageuses (TOMASELLO 1999). Le cerveau humain aurait ainsi évolué sous la pression sélective des défis posés par son environnement non seulement naturel, mais aussi social et culturel. L’idée même de « nature humaine », d’une essence universelle commune à tout être humain, objet de tant de débats philosophiques au cours des siècles, ne peut donc être réduite ni à l’information contenue dans le génome humain, ni à la seule vie sociale et culturelle de l’espèce : en effet, ces deux aspects interagissent entre eux.

Culture et évolution

Une des contributions majeures de la théorie de la sélection naturelle de Darwin c’est d’avoir permis de repenser les phénomènes biologiques en termes de population. L’évolution par sélection naturelle ne peut s’expliquer qu’à l’échelle d’une population d’individus variés. Ces variations, dues à des mutations, ont un impact différent sur le succès reproductif (ou fitness) des individus. L’évolution est rendue possible par les variations héritables du succès reproductif. Par une simple lois algorithmique, les variations qui assurent un succès reproductif supérieur seront mieux représentées à chaque génération successive. La synthèse néo-darwinienne -l’application de la théorie darwinienne à la génétique- a permis de comprendre l’évolution en termes de variation de la fréquence des gènes dans une population sous l’effet de différentes forces au premier rang desquelles la sélection naturelle.
L’approche néo-darwinienne de l’évolution biologique a été étendue plus récemment à l’explication de l’évolution culturelle. L’apprentissage culturel introduit un effet cumulatif chez les humains qui a eu des retombées sur la sélection naturelle (TOMASELLO 1999) des nos capacités cognitives. L’espèce humaine ne se distingue pas seulement par le maintien d’un pool génétique d’une génération à l’autre. Chaque population humaine maintient également d’une génération à l’autre un « pool » d’informations acquises culturellement. Ce pool d’idées, pratiques et valeurs affecte la façon dont notre espèce répond à la sélection naturelle. L’expression culturelle, normalement considérée dans la plupart des sciences sociales comme indépendante de la biologie, est vue en cette perspective en continuité avec l’expression biologique : chaque élément du comportement d’un organisme vivant est le produit conjoint de l’interaction entre l’information génétique stockée en lui et les propriétés de son environnement. La sélection naturelle est responsable des mécanismes d’apprentissage fondamentaux qui produisent des comportements adaptatifs dans l’interaction avec l’environnement. Notre cerveau est resté relativement stable depuis près de 200000 ans tandis que notre évolution culturelle s’est extraordinairement accélérée au fil de l’histoire, en particulier au cours des derniers 40000 ans. Il suffit de penser aux conséquences du changement culturel majeur de notre histoire - l’invention de l’agriculture il y a 13000 ans - qui a engendré une transformation démographique et sociale radicale dans l’espèce humaine sans pourtant affecter l’organisation du cerveau. L’évolution culturelle a une dynamique propre qui combine héritage, apprentissage et communication pour engendrer des effets non prévisibles en termes de simple adaptation biologique.
Plusieurs modèles de l’évolution culturelle d’inspiration darwinienne ont été proposés dans les dernières trente années, parmi lesquels on peut distinguer trois familles principales : (1) la sociobiologie, (2) la mémétique et (3) les modèles de double héritabilité qui donnent une importance particulière l’articulation entre évolution biologique et évolution culturelle.
En 1975 l’entomologiste américain Edward O. Wilson baptisa « sociobiologie » une conception du comportement social des espèces animales combinant des techniques d’analyse provenant de l’éthologie, de la théorie néo-darwinienne de la sélection et de la génétique des populations. Selon cette conception, les comportements des animaux, et en particulier leurs comportements sociaux, sont des expressions des gènes au même titre que les traits somatiques. Autant que les traits somatiques, ils s’expliquent principalement par l’effet de la sélection darwinienne. La sociobiologie aura marqué un tournant important dans l’étude du comportement animal, mais son extension au cas humain, proposée par Wilson dans le dernier chapitre de son livre et reprise par d’autres chercheurs, a provoqué un débat tumultueux au milieu des années soixante-dix. La sociobiologie en tant qu’étude des bases biologiques du comportement social (animal et humain) caractérise un type de comportement en termes de sa contribution à la propagation des gènes qui le contrôlent. Une conduite qui peut sembler être le produit d’une motivation morale ou culturelle est en fait l’expression de prédispositions naturelles sélectionnées grâce aux avantages adaptatifs qu’elles confèrent. Les variations de comportements et de représentations socioculturelles entre ou à l’intérieur de populations peuvent être l’effet de conditions environnementales qui amènent les mêmes gènes à s’exprimer différemment. Cette façon d’expliquer les variations culturelles se heurte à deux sérieuses objections. La première est le constat de ce que les anthropologues appellent l’ « unité psychique de l’espèce humaine » : les différences biologiques entre individus et populations, en particulier en ce qui concerne leurs capacités cognitives, sont trop faibles et trop dispersées pour expliquer les différences culturelles. L’autre objection est que la possibilité d’expressions différentes des gènes en fonctions des conditions environnementales est sans commune mesure avec l’amplitude et la richesse des différences culturelles. Nombreux sont aujourd’hui les sociobiologistes qui ont accepté la critique faite par les défenseurs de la psychologie évolutionnaire (BARKOW, COSMIDES & TOOBY 1992) et selon laquelle l’effet des gènes sur la culture passe par leur effet sur les mécanismes mentaux ; ce sont ces derniers qui ont été sélectionnés au cours de l’évolution de l’espèce et non les comportements socioculturels. Ces derniers émergent dans un environnement qui a changé et qui change beaucoup trop vite pour que les gènes eux-mêmes s’y adaptent.
La deuxième famille des théories a connu un succès « grand public » remarquable depuis la sortie, en 1976, du livre du zoologiste Richard Dawkins : Le Gène égoïste. Selon Dawkins, il ne faut pas chercher des corrélations entre comportements socioculturels et gènes. La biologie humaine rend possible la culture mais celle-ci constitue un nouveau niveau d’évolution guidée par un processus de sélection darwinienne opérant non sur des gènes mais sur ces nouvelles unités culturelles analogues au gène mais autonomes par rapport à la sélection naturelle et capables de s’autorépliquer en passant « d’une tête à l’autre ». Dawkins baptisa mèmes ces nouvelles unités. Les mèmes constituent une nouvelle classe de réplicateurs. Comme dans le cas de la sélection naturelle les conditions d’une sélection culturelle des mèmes dépendent de leur variations héritables et de leur différent potentiel de réplication. Un mème est un trait culturel discret, relativement stable, qui se reproduit grâce à la capacité d’imitation humaine. Un même peut être une idée, un tic, un préjugé, un morceau de musique. Certains mèmes peuvent favoriser les gènes de leurs porteurs, comme par exemple le mème d’une découverte scientifique ou d’une pratique hygiénique, tandis que d’autres peuvent les défavoriser, comme par exemple le célibat ou les sports dangereux. La mémétique s’est révélée elle-même un même fertile et elle fait l’objet d’un nombre d’articles et d’études, mais elle s’est révélée plutôt stérile du point de vue de ses applications empiriques. Et les critiques à cette approche se sont multipliées aussi au fil des années. Cavalli Sforza critique par exemple la centralité de l’imitation dans la théorie de Dawkins, en insistant sur d’autres « forces » de la transmission culturelle comme la migration des individus et les phénomènes d’influence et d’autorité qui changent radicalement la propagation d’un trait d’une façon analogue aux mécanismes de dérive génétique plutôt que de sélection.
Robert Boyd et Peter Richerson (BOYD- RICHERSON 2005) ont eux-aussi critiqué la conceptualisation de l’information culturelle en termes de réplicateurs discrets. Plusieurs modèles de l’évolution culturelle sont en fait compatibles avec l’idée de variation culturelle, et même avec l’idée que l’information culturelle ne se réplique pas du tout, mais se reconstruit d’une génération à l’autre.
Ces critiques proviennent souvent d’auteurs qui ont plaidé pour une approche de l’évolution culturelle qui ne se réduise pas à la biologie mais qui prenne en compte la réalité biologique de la cognition humaine et ses effets sur l’évolution culturelle. Comprendre pourquoi certaines croyances et aptitudes prolifèrent et d’autres pas comporte de prendre en compte en même temps des facteurs biologiques, écologiques, psychologiques et historiques. Ces approches insistent sur l’interaction entre les phénomènes sociaux à l’échelle des population et des biais psychologiques qui influencent la diffusion de l’information culturelle. Selon Boyd et Richerson, chaque phénomène d’évolution culturelle est le résultat de l’action de forces différentes parmi lesquelles la sélection naturelle, la dérive culturelle (qui dépend d’anomalies statistiques dans une population : par exemple un expertise culturelle comme un dialecte ou une technique de broderie, qui est connue seulement par un petit nombre d’individus qui disparaissent sans transmettre leur savoir faire), et une série de biais psychologiques qui favorisent certaines variantes culturelles par rapport à d’autres. Par exemple, certaines versions d’un trait culturel seront préférées en raison de leur contenu (content-bias), d’autres en raison du fait qu’elles sont déjà les plus répandues (conformity-bias) d’autres encore par le fait qu’elles ont été adoptées par les individus les plus admirés dans la société (model-based bias). Ces facteurs de décision influencent l’acceptation ou le rejet d’une variante culturelle.
Selon une école de chercheurs venant de l’anthropologie cognitive, en particulier Scott Atran, Pascal Boyer, Lawrence Hirschfeld et Dan Sperber, il convient d’accorder une importance particulière, parmi les facteurs de propagation culturelle, aux dispositions cognitives spécialisées évoluées pour traiter différents types d’information. Pour ces auteurs, la relative stabilité d’un trait culturel n’est pas assurée par le degré de fidélité des copies qui en sont produites. Dans la transmission culturelle humaine, les variations des versions produites sont plutôt la norme que l’exception. La variation des représentations culturelles produites par chaque individus au niveau des microprocessus locaux d’acquisition, compréhension et mémorisation est compensée, au niveau des macro-processus d’évolution culturelle, par la permanence d’une génération après l’autre de prédispositions cognitives qui contraignent la façon dont un input est traité et interprétée. Ces contraintes cognitives sur la diffusion culturelle expliquent à la fois les innombrables variations individuelles dans la représentation et la reconstruction de l’information culturelle et la convergence entre ces représentations au niveau d’une population. Dans cette conception, la transmission culturelle est vue comme un processus beaucoup plus créatif que ce que l’on suppose généralement. L’individu, doté de capacité cognitives ayant une forte base biologique en même temps qu’une riche histoire développementale, y est un acteur et pas seulement un vecteur de processus socioculturels manifestes à l’échelle des sociétés et de leur histoire.

BIBLIOGRAPHIE :
BYRNE, R.W., WHITEN, A., Macchiavellian Intelligence, Cambridge, Cambridge University Press, 1997. CAVALLI-SFORZA, L., & FELDMAN, M., Cultural Transmission and Evolution, Princeton, New Jersey, Princeton University Press, 1981. CHANGEUX, P., Gènes et culture, Paris, Odile Jacob 2003. BARKOW, J.,COSMIDES, L. & TOOBY, J., The adapted mind, Oxford University Press, 1992. DAWKINS, R. Le gene égoïste, Paris, Odile Jacob, 1996. DEACON, T., The symbolic species, New York, Penguin, 1997. DURHAM, W., Coevolution. Genes, culture and human diversity, Stanford, Stanford University Press, 1991. FISHER et al., “Localisation of a gene implicated in a severe speech and language disorder”, Natural Genetics, 1998, n° 18(2), p. 298. FOX KELLER, E., Le siècle du gene, Paris, Gallimard, 2000. FRIEDERICI, A.D., « Towards a neural basis of auditory sentence processing », Trends in Cognitive Science, n° 6(2) p. 78-84. HAMILTON, W. “The genetic evolution of social behaviour”, Journal of Theoretical Biology, n° 7, 1964, p. 1-52. KAAN, E. & SWAAB, T.Y. (2002) « The brain circuitry of syntactic comprehension » Trends in Cognitive Science, n° 6(8) p. 350-356. KING, M.C. & WILSON, A.C., “Evolution at two Levels in Humans and Chimpanzees”, Science, n° 188, p. 107-116. MARCUS, G., The Birth of the Mind, New York, Basic Books, 2004. MAYR, E., Animal Species and Evolution, Cambridge MA, Harvard University Press, 1963. ODLING-SMEE, F.J., LALAND, N., et al., Niche construction: the neglected process in evolution, Princeton, New Jersey, Princeton University Press, 2003. ORIGGI, G., SPERBER, D., “Evolution, communication and the proper function of language”, in P. Carruthers & A. Chamberlain (eds.) Evolution and the human mind, Cambridge, Cambridge University Press, 2000, p. 140-169. RICHERSON, P.J., & BOYD, R. Not by genes alone, Chicago, Chicago University Press, 2005. SPERBER, D. (1996) La contagion des idées, Paris, Odile Jacob. TOMASELLO, M., The cultural origins of human cognition, Cambridge, MA, Harvard University Press, 1999. WILSON, E.O., Sociobiology: the new synthesis, Cambridge, MA, Harvard University Press, 1975.