Μετάφραση στα ελληνικά στο τέλος της σελίδας.

By Elizabeth Kolbert

In 1975, researchers at Stanford invited a group of undergraduates to take part in a study about suicide. They were presented with pairs of suicide notes. In each pair, one note had been composed by a random individual, the other by a person who had subsequently taken his own life. The students were then asked to distinguish between the genuine notes and the fake ones.

Some students discovered that they had a genius for the task. Out of twenty-five pairs of notes, they correctly identified the real one twenty-four times. Others discovered that they were hopeless. They identified the real note in only ten instances.

As is often the case with psychological studies, the whole setup was a put-on. Though half the notes were indeed genuine—they’d been obtained from the Los Angeles County coroner’s office—the scores were fictitious. The students who’d been told they were almost always right were, on average, no more discerning than those who had been told they were mostly wrong.

In the second phase of the study, the deception was revealed. The students were told that the real point of the experiment was to gauge their responses to thinking they were right or wrong. (This, it turned out, was also a deception.) Finally, the students were asked to estimate how many suicide notes they had actually categorized correctly, and how many they thought an average student would get right. At this point, something curious happened. The students in the high-score group said that they thought they had, in fact, done quite well—significantly better than the average student—even though, as they’d just been told, they had zero grounds for believing this. Conversely, those who’d been assigned to the low-score group said that they thought they had done significantly worse than the average student—a conclusion that was equally unfounded.

“Once formed,” the researchers observed dryly, “impressions are remarkably perseverant.”

A few years later, a new set of Stanford students was recruited for a related study. The students were handed packets of information about a pair of firefighters, Frank K. and George H. Frank’s bio noted that, among other things, he had a baby daughter and he liked to scuba dive. George had a small son and played golf. The packets also included the men’s responses on what the researchers called the Risky-Conservative Choice Test. According to one version of the packet, Frank was a successful firefighter who, on the test, almost always went with the safest option. In the other version, Frank also chose the safest option, but he was a lousy firefighter who’d been put “on report” by his supervisors several times. Once again, midway through the study, the students were informed that they’d been misled, and that the information they’d received was entirely fictitious. The students were then asked to describe their own beliefs. What sort of attitude toward risk did they think a successful firefighter would have? The students who’d received the first packet thought that he would avoid it. The students in the second group thought he’d embrace it.

Even after the evidence “for their beliefs has been totally refuted, people fail to make appropriate revisions in those beliefs,” the researchers noted. In this case, the failure was “particularly impressive,” since two data points would never have been enough information to generalize from.

The Stanford studies became famous. Coming from a group of academics in the nineteen-seventies, the contention that people can’t think straight was shocking. It isn’t any longer. Thousands of subsequent experiments have confirmed (and elaborated on) this finding. As everyone who’s followed the research—or even occasionally picked up a copy of Psychology Today—knows, any graduate student with a clipboard can demonstrate that reasonable-seeming people are often totally irrational. Rarely has this insight seemed more relevant than it does right now. Still, an essential puzzle remains: How did we come to be this way?

In a new book, “The Enigma of Reason” (Harvard), the cognitive scientists Hugo Mercier and Dan Sperber take a stab at answering this question. Mercier, who works at a French research institute in Lyon, and Sperber, now based at the Central European University, in Budapest, point out that reason is an evolved trait, like bipedalism or three-color vision. It emerged on the savannas of Africa, and has to be understood in that context.

Stripped of a lot of what might be called cognitive-science-ese, Mercier and Sperber’s argument runs, more or less, as follows: Humans’ biggest advantage over other species is our ability to coöperate. Coöperation is difficult to establish and almost as difficult to sustain. For any individual, freeloading is always the best course of action. Reason developed not to enable us to solve abstract, logical problems or even to help us draw conclusions from unfamiliar data; rather, it developed to resolve the problems posed by living in collaborative groups.

“Reason is an adaptation to the hypersocial niche humans have evolved for themselves,” Mercier and Sperber write. Habits of mind that seem weird or goofy or just plain dumb from an “intellectualist” point of view prove shrewd when seen from a social “interactionist” perspective.

Consider what’s become known as “confirmation bias,” the tendency people have to embrace information that supports their beliefs and reject information that contradicts them. Of the many forms of faulty thinking that have been identified, confirmation bias is among the best catalogued; it’s the subject of entire textbooks’ worth of experiments. One of the most famous of these was conducted, again, at Stanford. For this experiment, researchers rounded up a group of students who had opposing opinions about capital punishment. Half the students were in favor of it and thought that it deterred crime; the other half were against it and thought that it had no effect on crime.

The students were asked to respond to two studies. One provided data in support of the deterrence argument, and the other provided data that called it into question. Both studies—you guessed it—were made up, and had been designed to present what were, objectively speaking, equally compelling statistics. The students who had originally supported capital punishment rated the pro-deterrence data highly credible and the anti-deterrence data unconvincing; the students who’d originally opposed capital punishment did the reverse. At the end of the experiment, the students were asked once again about their views. Those who’d started out pro-capital punishment were now even more in favor of it; those who’d opposed it were even more hostile.

If reason is designed to generate sound judgments, then it’s hard to conceive of a more serious design flaw than confirmation bias. Imagine, Mercier and Sperber suggest, a mouse that thinks the way we do. Such a mouse, “bent on confirming its belief that there are no cats around,” would soon be dinner. To the extent that confirmation bias leads people to dismiss evidence of new or underappreciated threats—the human equivalent of the cat around the corner—it’s a trait that should have been selected against. The fact that both we and it survive, Mercier and Sperber argue, proves that it must have some adaptive function, and that function, they maintain, is related to our “hypersociability.”

Mercier and Sperber prefer the term “myside bias.” Humans, they point out, aren’t randomly credulous. Presented with someone else’s argument, we’re quite adept at spotting the weaknesses. Almost invariably, the positions we’re blind about are our own.

A recent experiment performed by Mercier and some European colleagues neatly demonstrates this asymmetry. Participants were asked to answer a series of simple reasoning problems. They were then asked to explain their responses, and were given a chance to modify them if they identified mistakes. The majority were satisfied with their original choices; fewer than fifteen per cent changed their minds in step two.

In step three, participants were shown one of the same problems, along with their answer and the answer of another participant, who’d come to a different conclusion. Once again, they were given the chance to change their responses. But a trick had been played: the answers presented to them as someone else’s were actually their own, and vice versa. About half the participants realized what was going on. Among the other half, suddenly people became a lot more critical. Nearly sixty per cent now rejected the responses that they’d earlier been satisfied with.

Cartoon
“Thanks again for coming—I usually find these office parties rather awkward.”
ShareTweetBuy a cartoon
This lopsidedness, according to Mercier and Sperber, reflects the task that reason evolved to perform, which is to prevent us from getting screwed by the other members of our group. Living in small bands of hunter-gatherers, our ancestors were primarily concerned with their social standing, and with making sure that they weren’t the ones risking their lives on the hunt while others loafed around in the cave. There was little advantage in reasoning clearly, while much was to be gained from winning arguments.
Among the many, many issues our forebears didn’t worry about were the deterrent effects of capital punishment and the ideal attributes of a firefighter. Nor did they have to contend with fabricated studies, or fake news, or Twitter. It’s no wonder, then, that today reason often seems to fail us. As Mercier and Sperber write, “This is one of many cases in which the environment changed too quickly for natural selection to catch up.”

Steven Sloman, a professor at Brown, and Philip Fernbach, a professor at the University of Colorado, are also cognitive scientists. They, too, believe sociability is the key to how the human mind functions or, perhaps more pertinently, malfunctions. They begin their book, “The Knowledge Illusion: Why We Never Think Alone” (Riverhead), with a look at toilets.

Virtually everyone in the United States, and indeed throughout the developed world, is familiar with toilets. A typical flush toilet has a ceramic bowl filled with water. When the handle is depressed, or the button pushed, the water—and everything that’s been deposited in it—gets sucked into a pipe and from there into the sewage system. But how does this actually happen?

In a study conducted at Yale, graduate students were asked to rate their understanding of everyday devices, including toilets, zippers, and cylinder locks. They were then asked to write detailed, step-by-step explanations of how the devices work, and to rate their understanding again. Apparently, the effort revealed to the students their own ignorance, because their self-assessments dropped. (Toilets, it turns out, are more complicated than they appear.)

Sloman and Fernbach see this effect, which they call the “illusion of explanatory depth,” just about everywhere. People believe that they know way more than they actually do. What allows us to persist in this belief is other people. In the case of my toilet, someone else designed it so that I can operate it easily. This is something humans are very good at. We’ve been relying on one another’s expertise ever since we figured out how to hunt together, which was probably a key development in our evolutionary history. So well do we collaborate, Sloman and Fernbach argue, that we can hardly tell where our own understanding ends and others’ begins.

“One implication of the naturalness with which we divide cognitive labor,” they write, is that there’s “no sharp boundary between one person’s ideas and knowledge” and “those of other members” of the group.

This borderlessness, or, if you prefer, confusion, is also crucial to what we consider progress. As people invented new tools for new ways of living, they simultaneously created new realms of ignorance; if everyone had insisted on, say, mastering the principles of metalworking before picking up a knife, the Bronze Age wouldn’t have amounted to much. When it comes to new technologies, incomplete understanding is empowering.

Where it gets us into trouble, according to Sloman and Fernbach, is in the political domain. It’s one thing for me to flush a toilet without knowing how it operates, and another for me to favor (or oppose) an immigration ban without knowing what I’m talking about. Sloman and Fernbach cite a survey conducted in 2014, not long after Russia annexed the Ukrainian territory of Crimea. Respondents were asked how they thought the U.S. should react, and also whether they could identify Ukraine on a map. The farther off base they were about the geography, the more likely they were to favor military intervention. (Respondents were so unsure of Ukraine’s location that the median guess was wrong by eighteen hundred miles, roughly the distance from Kiev to Madrid.)

Surveys on many other issues have yielded similarly dismaying results. “As a rule, strong feelings about issues do not emerge from deep understanding,” Sloman and Fernbach write. And here our dependence on other minds reinforces the problem. If your position on, say, the Affordable Care Act is baseless and I rely on it, then my opinion is also baseless. When I talk to Tom and he decides he agrees with me, his opinion is also baseless, but now that the three of us concur we feel that much more smug about our views. If we all now dismiss as unconvincing any information that contradicts our opinion, you get, well, the Trump Administration.

“This is how a community of knowledge can become dangerous,” Sloman and Fernbach observe. The two have performed their own version of the toilet experiment, substituting public policy for household gadgets. In a study conducted in 2012, they asked people for their stance on questions like: Should there be a single-payer health-care system? Or merit-based pay for teachers? Participants were asked to rate their positions depending on how strongly they agreed or disagreed with the proposals. Next, they were instructed to explain, in as much detail as they could, the impacts of implementing each one. Most people at this point ran into trouble. Asked once again to rate their views, they ratcheted down the intensity, so that they either agreed or disagreed less vehemently.

Sloman and Fernbach see in this result a little candle for a dark world. If we—or our friends or the pundits on CNN—spent less time pontificating and more trying to work through the implications of policy proposals, we’d realize how clueless we are and moderate our views. This, they write, “may be the only form of thinking that will shatter the illusion of explanatory depth and change people’s attitudes.”

One way to look at science is as a system that corrects for people’s natural inclinations. In a well-run laboratory, there’s no room for myside bias; the results have to be reproducible in other laboratories, by researchers who have no motive to confirm them. And this, it could be argued, is why the system has proved so successful. At any given moment, a field may be dominated by squabbles, but, in the end, the methodology prevails. Science moves forward, even as we remain stuck in place.

In “Denying to the Grave: Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, a psychiatrist, and his daughter, Sara Gorman, a public-health specialist, probe the gap between what science tells us and what we tell ourselves. Their concern is with those persistent beliefs which are not just demonstrably false but also potentially deadly, like the conviction that vaccines are hazardous. Of course, what’s hazardous is not being vaccinated; that’s why vaccines were created in the first place. “Immunization is one of the triumphs of modern medicine,” the Gormans note. But no matter how many scientific studies conclude that vaccines are safe, and that there’s no link between immunizations and autism, anti-vaxxers remain unmoved. (They can now count on their side—sort of—Donald Trump, who has said that, although he and his wife had their son, Barron, vaccinated, they refused to do so on the timetable recommended by pediatricians.)

The Gormans, too, argue that ways of thinking that now seem self-destructive must at some point have been adaptive. And they, too, dedicate many pages to confirmation bias, which, they claim, has a physiological component. They cite research suggesting that people experience genuine pleasure—a rush of dopamine—when processing information that supports their beliefs. “It feels good to ‘stick to our guns’ even if we are wrong,” they observe.

The Gormans don’t just want to catalogue the ways we go wrong; they want to correct for them. There must be some way, they maintain, to convince people that vaccines are good for kids, and handguns are dangerous. (Another widespread but statistically insupportable belief they’d like to discredit is that owning a gun makes you safer.) But here they encounter the very problems they have enumerated. Providing people with accurate information doesn’t seem to help; they simply discount it. Appealing to their emotions may work better, but doing so is obviously antithetical to the goal of promoting sound science. “The challenge that remains,” they write toward the end of their book, “is to figure out how to address the tendencies that lead to false scientific belief.”

“The Enigma of Reason,” “The Knowledge Illusion,” and “Denying to the Grave” were all written before the November election. And yet they anticipate Kellyanne Conway and the rise of “alternative facts.” These days, it can feel as if the entire country has been given over to a vast psychological experiment being run either by no one or by Steve Bannon. Rational agents would be able to think their way to a solution. But, on this matter, the literature is not reassuring. ♦

http://www.newyorker.com/magazine/2017/02/27/why-facts-dont-change-our-minds

 

Μετάφραση: Μαίρη Μανωλέλλη

ΓΙΑΤΙ ΤΑ ΓΕΓΟΝΟΤΑ ΔΕΝ ΕΠΗΡΕΑΖΟΥΝ ΤΗ ΣΚΕΨΗ ΜΑΣ.

Το 1975 ερευνητές στο Σταντφορντ προσκάλεσαν μία ομάδα τελειόφοιτων να λάβουν μέρος σε μία μελέτη σχετικά με την αυτοκτονία. Τους παρέδωσαν ζευγάρια σημειωμάτων αυτοκτονίας. Το ζευγάρι σημειωμάτων αποτελούνταν από ένα σημείωμα πλαστό το οποίο είχε γραφτεί από έναν οποιονδήποτε άνθρωπο ενώ το άλλο από έναν άνθρωπο ο οποίος είχε προβεί στην αυτοκτονία (υποθετικά). Στη συνέχεια ζητήθηκε από τους τελειόφοιτους  να διαχωρίσουν το γνήσιο από το πλαστό σημείωμα.
Μερικοί τελειόφοιτοι ανακάλυψαν ότι ήταν ιδιοφυείς στη συγκεκριμένη εργασία. Διαβάζοντας και τα 25 ζευγάρια σημειώσεων κατάφεραν να επιλέξουν το γνήσιο σημείωμα 24 φορές. Άλλοι ανακάλυψαν ότι είχαν πολύ κακές επιδόσεις. Επέλεξαν το γνήσιο σημείωμα μόνο 10 φορές.

Όπως συχνά συμβαίνει με τις μελέτες ψυχολογίας όλο το σκηνικό των σημειωμάτων ήταν «στημένο». Παρόλο που τα μισά σημειώματα ήταν γνήσια καθώς είχαν προσκομισθεί από την δικαστική περιφέρεια του Los Angeles, τα αποτελέσματα σχετικά με το εάν τελικά έγιναν οι αυτοκτονίες ήταν φανταστικά. Οι τελειόφοιτοι που ενημερώθηκαν ότι έκαναν την σωστή επιλογή δεν ήταν, κατά μέσο όρο, περισσότερο παρατηρητικοί (ή ευφυείς) σε σχέση με εκείνους που ενημερώθηκαν ότι έκαναν τα περισσότερα λάθη.

Στη δεύτερη φάση της μελέτης, οι τελειόφοιτοι ενημερώθηκαν για την «στημένη» έρευνα. Ενημερώθηκαν ότι το πραγματικό μέλημα του πειράματος ήταν να μετρηθούν οι απαντήσεις τους σε σχέση με την γνώμη που απέκτησαν για τον εαυτό τους ύστερα από την απάντηση του μελετητή «είσαι σωστός» και «είσαι λάθος». (Οι οποίες ήταν ψεύτικες και στα πλαίσια του πειράματος). Τελικώς τους ζητήθηκε να υπολογίσουν πόσα σημειώματα αυτοκτονίας θεωρούσαν ότι είχαν κατατάξει στη σωστή κατηγορία και πόσα πίστευαν ότι ένας μέσος τελειόφοιτος θα κατάφερνε να κατατάξει σε αυτή. Σε αυτό το σημείο κάτι περίεργο συνέβη. Οι τελειόφοιτοι που ανήκαν στην ομάδα με το υψηλό σκορ θεώρησαν ότι τα είχαν πάει αρκετά καλά, σημαντικά καλύτερα από τον μέσο τελειόφοιτο, ακόμα και όταν τους είπαν οι ερευνητές ότι δεν είχαν κανένα λόγο να πιστέψουν την πληροφορία για την επιτυχία τους στην πρώτη φάση του πειράματος.

Αντίστοιχα, εκείνοι στους οποίους είχε ανακοινωθεί ότι ανήκαν στην ομάδα με το χαμηλότερο ποσοστό επιτυχίας, είπαν ότι θεωρούσαν ότι τα είχαν πάει σημαντικά άσχημα σε σχέση με τον μέσο τελειόφοιτο – ένα συμπέρασμα που ήταν εξίσου αβάσιμο.
«Από τη στιγμή που σχηματίζονται, οι εντυπώσεις είναι αξιοσημείωτα επίμονες», οι ερευνητές παρατήρησαν ξερά.

Μερικά χρόνια αργότερα, δύο νέες ομάδες από τελειόφοιτους τους Στανφορντ στρατολογήθηκαν για μία παρόμοια έρευνα.
Στους τελειόφοιτους δόθηκαν πακέτα πληροφοριών για ένα ζευγάρι πυροσβεστών, τον Φρανκ Κ. και τον Γιώργο Η. Το βιογραφικό του Φρανκ περιελάβανε μεταξύ και άλλων πληροφοριών ότι είχε ένα κοριτσάκι μωρό και του άρεσε το scuba diving. Ο Γιώργος είχε ένα μικρό γιο και του άρεσε το γκολφ. Τα πακέτα επιπλέον περιλάμβαναν τα αποτελέσματα των ανδρών σε μία έρευνα που είχαν λάβει μέρος και οι ερευνητές αποκαλούν “Tεστ μεταξύ Ρίσκου και Συντηρητικής επιλογής” (Risky Conservative choice test). Σύμφωνα με την μία εκδοχή του πακέτου πληροφοριών, ο Φρανκ ήταν ένας επιτυχημένος πυροσβέστης και ο οποίος σύμφωνα με το τεστ, πάντοτε φαινόταν να κάνει την ασφαλέστερη επιλογή  (συντηρητικός). Στο άλλο πακέτο ο Φρανκ σύμφωνα με το τεστ, έκανε και πάλι τις  ασφαλέστερες επιλογές (συντηρητικός) αλλά ήταν ένας απαίσιος πυροσβέστης που πολλές φορές οι προϊστάμενοι του είχαν κάνει αναφορά. Για άλλη μια φορά στα μέσα της έρευνας οι τελειόφοιτοι ενημερώθηκαν ότι είχαν παραπλανηθεί και ότι η πληροφόρηση που είχαν λάβει ήταν εντελώς φανταστική. Στη συνέχεια ζητήθηκε από τους τελειόφοιτους να περιγράψουν τις προσωπικές τους πεποιθήσεις. Τι είδους συμπεριφορά απέναντι στον ρίσκο θεωρούσαν ότι ένας επιτυχημένος πυροσβέστης έπρεπε να έχει; Οι τελειόφοιτοι που είχαν λάβει το πρώτο πακέτο με το προφίλ του επιτυχημένου πυροσβέστη θεωρούσαν ότι θα έπρεπε να αποφεύγει το ρίσκο, ενώ εκείνοι που έλαβαν το δεύτερο πακέτο με το προφίλ του αποτυχημένου πυροσβέστη θεωρούσαν ότι έπρεπε να το επιδιώκει.

Ακόμα και μετά τα αποδεικτικά στοιχεία «όταν οι πεποιθήσεις έχουν εντελώς καταρριφθεί, οι άνθρωποι αδυνατούν να προβούν στις κατάλληλες αναθεωρήσεις αυτών των πεποιθήσεων» οι ερευνητές παρατήρησαν. Σε αυτή την περίπτωση η αποτυχία ήταν «ιδιαίτερα εντυπωσιακή» μιας και δύο μόνο σημεία δεδομένων δεν θα μπορούσαν ποτέ να έχουν αρκετή πληροφορία ώστε να καταλήξει κανείς σε έναν γενικό κανόνα.

Η μελέτη του Στάντφορντ έγινε διάσημη. Ερχόμενη από μία ομάδα ακαδημαϊκών στα 1970, ο ισχυρισμός ότι οι άνθρωποι δεν μπορούν να σκεφτούν ορθολογικά ήταν σοκαριστικός. Δεν είναι πλέον. Χιλιάδες μεταγενέστερες έρευνες έχουν επιβεβαιώσει και εξελίξει αυτή τη διαπίστωση. Όλοι όσοι έχουν παρακολουθήσει το ερευνητικό θέμα μέσα στα χρόνια – ή ακόμα και περιστασιακά διαβάζουν το περιοδικό «Ψυχολογία Σήμερα» – γνωρίζουν ότι κάθε απόφοιτος ψυχολογίας με ένα ντοσιέ στα χέρια μπορεί να παρουσιάσει ότι οι άνθρωποι που μοιάζουν λογικοί είναι συχνά εντελώς παράλογοι. Σπάνια θα μπορούσε αυτό το εύρημα να είναι πιο σχετικό από ότι τώρα. Παρόλα αυτά ένα σημαντικό ερώτημα παραμένει: Πως φτάσαμε να είμαστε έτσι.

Σε ένα νέο βιβλίο «Το Αίνιγμα της λογικής» (Harvard) , οι ερευνητές της γνωσιακής* λειτουργίας Hugo Mercier και Dan Sperber αποπειρώνται να απαντήσουν το ερώτημα. Ο Mercier που εργάζεται στο Γαλλικό ερευνητικό Ινστιτούτο στη Λυών και ο Sperber, που τώρα έχει την έδρα του στο Κεντρικό Ευρωπαϊκό Πανεπιστήμιο στη Βουδαπέστη, ανέδειξαν ότι ο λόγος/λογική είναι ένα εξελισσόμενο χαρακτηριστικό (evolved trait) όπως η εξέλιξη μας στο περπάτημα (bipetalism) ή η τριχρωματοψία. Αναδύθηκε στις Σαβάνες της Αφρικής και πρέπει να γίνει αντιληπτό σε αυτό το πλαίσιο (σχόλιο μεταφράστριας: μάλλον αναφέρεται στην τριχρωματοψία).
Απογυμνωμένα από πολλά που θεωρούνται γνωσιακή επιστήμη (cognitive-sciense-ese), τα επιχειρήματα του Mercier και Sperber έχουν περισσότερο ή λιγότερο ως ακολούθως: Το μεγαλύτερο πλεονέκτημα των ανθρώπων σε σχέση με άλλα είδη είναι η ικανότητα μας να συνεργαζόμαστε. Η συνεργασία είναι τόσο δύσκολο να αποκτηθεί όσο και να διατηρηθεί. Για κάθε άτομο η αυτονομία στη δράση (freeloading) είναι πάντοτε η καλύτερη πορεία δράσης.

*Η γνωσιακή επιστήμη (cognitive science) είναι το επιστημονικό πεδίο που ασχολείται με τη μελέτη του νου. Πρόκειται για ένα διεπιστημονικό αντικείμενο το οποίο αντλεί γνώσεις και ερευνητική μεθοδολογία από τις γνωστικές νευροεπιστήμες, τη γνωστική ψυχολογία, την τεχνητή νοημοσύνη, τη γλωσσολογία και τη φιλοσοφία του νου. Η έρευνα στη γνωσιακή επιστήμη εστιάζεται κυρίως στη μελέτη της αντίληψης, της προσοχής, της νόησης, της δράσης, της γλώσσας, της μνήμης, της μάθησης και της γνωστικής ανάπτυξης. https://el.wikipedia.org/wiki/%CE%93%CE%BD%CF%89%CF%83%CE%B9%CE%B1%CE%BA%CE%AE_%CE%B5%CF%80%CE%B9%CF%83%CF%84%CE%AE%CE%BC%CE%B7
Ο λόγος-λογική αναπτύχθηκε όχι για να μας δώσει τη δυνατότητα να λύσουμε αφηρημένα ή λογικά προβλήματα ή ακόμα να μας βοηθήσει να βγάλουμε συμπεράσματα από άγνωστα δεδομένα, αλλά μάλλον αναπτύχθηκε για την επίλυση των προβλημάτων που αναδύονται από τη διαβίωση σε ομάδες.

«Ο λόγος-λογική είναι το μέσο προσαρμογής των ανθρώπων στην (υπέρ) κοινωνικοποίηση» «Reason is an adaptation to the hypersocial niche humans have evolved for themselves», έγραψαν οι Mercier και Sperber. Συνήθειες του μυαλού που μοιάζουν περίεργες ή ανόητες ή απλά χαζές από μία διανοούμενη σκοπιά αποδεικνύονται πανούργες όταν κανείς τις βλέπει από την προοπτική της κοινωνικής αλληλεπίδρασης (interactionist perspective).

Σκεφτείτε τι έχει γίνει γνωστό ως «επιβεβαίωση της προκατάληψης» (confirmation bias), η τάση που έχουν οι άνθρωποι να υποστηρίζουν πληροφορίες που αγκαλιάζουν τις πεποιθήσεις τους και να απορρίπτουν πληροφορίες που είναι ενάντια σε αυτές. Από τις πολλές μορφές της «ελαττωματικής» σκέψης (του ανθρώπινου είδους)  που έχουν αναγνωριστεί η «επιβεβαίωση της προκατάληψης» είναι η επικρατέστερη. Είναι το αντικείμενο συζήτησης πολλών εγχειριδίων για τα οποία αξίζει να γίνουν πειράματα. Ένα από τα πιο διάσημα από αυτά τα πειράματα διεξήχθη ξανά στο Στάντφορντ. Σε αυτό το πείραμα οι ερευνητές συγκέντρωσαν μία ομάδα ανθρώπων στην οποία υπήρχαν αντίθετες γνώμες σχετικά με τη θανατική ποινή. Μισοί από τους φοιτητές ήταν υπέρ της θανατικής ποινής και θεωρούσαν ότι μπορεί να αποθαρρύνει το έγκλημα. Οι άλλοι μισοί ήταν κατά αυτής και θεωρούσαν ότι δεν έχει καμία επίδραση στο έγκλημα.
Από όλους τους φοιτητές ζητήθηκε να λάβουν υπόψη τους δύο μελέτες από τις οποίες: η μία μελέτη περιείχε δεδομένα που υποστήριζαν ότι η θανατική ποινή απέτρεπε το έγκλημα και η άλλη μελέτη περιείχε δεδομένα που έθεταν τη θεωρία υπό αμφισβήτηση. Και οι δύο μελέτες ήταν «στημένες» και είχαν σχεδιαστεί ώστε να παρουσιάσουν με αντικειμενικό τρόπο εξίσου αδιάσειστες στατιστικές. Οι φοιτητές που αρχικά υποστήριζαν την θανατική ποινή, έκριναν τα δεδομένα που έλεγαν ότι όντως η θανατική ποινή ήταν αποτρεπτικός παράγοντας προς το έγκλημα, ιδιαίτερα αξιόπιστα ενώ τα δεδομένα που έδειχναν ότι δεν περιορίζεται το έγκλημα, μη πειστικά. Οι φοιτητές που αρχικά είχαν τοποθετηθεί κατά της θανατικής ποινής έκαναν το αντίθετο. Στο τέλος του πειράματος οι φοιτητές ρωτήθηκαν ακόμα μια φορά για την άποψή τους. Εκείνοι που είχαν ταχθεί υπέρ, είχαν γίνει ακόμα περισσότερο, κι εκείνοι που είχαν εναντιωθεί ήταν περισσότερο ενάντια.

Εάν ο λόγος-λογική έχει σχεδιαστεί στον άνθρωπο για να παράγει ευθυκρισία (ευθύς + κρίση) τότε είναι δύσκολο να φανταστούμε ένα πιο σοβαρό ελάττωμα του από την «επιβεβαίωση της προκατάληψης». Φανταστείτε, πρότειναν οι Mercier και Sperber ένα ποντίκι που σκέφτεται με τον τρόπο που σκεφτόμαστε εμείς. Ένα τέτοιο ποντίκι που θα είχε την τάση να επιβεβαιώνει την πεποίθησή του ότι δεν υπάρχει γάτα τριγύρω, πολύ σύντομα θα κατέληγε σε δείπνο. Στο βαθμό που η επιβεβαίωση της προκατάληψης οδηγεί τους ανθρώπους στην απόρριψη αποδείξεων για νέες ή υποτιμημένες απειλές-το ανθρώπινο ισοδύναμο της γάτας γύρω από τη γωνία-, αναδεικνύεται ένα χαρακτηριστικό που πρέπει να λειτουργεί κατά (του λόγου/λογικής). Το γεγονός ότι τόσο εμείς όσο αυτό επιβιώνει, ισχυρίζονται ο Mercier και Sperber, αποδεικνύει ότι πρέπει να υπάρχει κάποια προσαρμοστική λειτουργία, και ότι η λειτουργία αυτή έχει σχέση με την υπερ κοινωνικοποίησή μας "hypersociability."

Οι Mercier και Sperber προτιμούν τον όρο “η προκατάληψη της δικής μου πεποίθησης” (myside bias). Οι άνθρωποι είναι τυχαίως εύπιστοι. «Είμαστε αρκετά έμπειροι στο να εντοπίζουμε τις αδυναμίες στα επιχειρήματα κάποιου άλλου (ενώ) σχεδόν πάντα, οι θέσεις στις οποίες είμαστε κατά κανόνα τυφλοί είναι οι προσωπικές μας».
Ένα πιο πρόσφατο πείραμα που διεξήχθη από τον Mercier κι κάποιους ευρωπαίους συναδέλφους του, με απλό τρόπο αποδεικνύει αυτή την ασυμμετρία. Ζητήθηκε από συμμετέχοντες σε μελέτη να απαντήσουν μια σειρά από απλά προβλήματα λογικής. Στη συνέχεια τους ζητήθηκε να εξηγήσουν τις απαντήσεις τους να τις αλλάξουν στην περίπτωση που αναγνώριζαν λάθη. Η πλειοψηφία ήταν ικανοποιημένη με τις αρχικές επιλογές της ενώ λιγότερο από 15%, άλλαξε γνώμη στη δεύτερη φάση.

Στην Τρίτη φάση του πειράματος στους συμμετέχοντες παρουσιάστηκαν παρόμοια θέματα (όπως παραπάνω) ταυτόχρονα με την απάντησή τους και την απάντηση ενός ακόμα συμμετέχοντα που είχε διαφορετική άποψη. Ξανά τους δόθηκε η ευκαιρία να αλλάξουν τις απαντήσεις τους. Αλλά ένα τρυκ παίχτηκε πάλι. Οι απαντήσεις που τους παρουσιάστηκαν σαν κάποιου άλλου ήταν στην πραγματικότητα οι δικές τους και αντίστροφα. Περίπου οι μισοί από τους συμμετέχοντας κατάλαβαν το «λάθος».  Οι άλλοι μισοί έγιναν ξαφνικά πιο επικριτικοί. Περίπου το 60% απέρριψε τις προσωπικές του απαντήσεις με τις οποίες είχε μείνει ικανοποιημένο στην προηγούμενη φάση.

Αυτή η ασυμμετρία σύμφωνα με τους Mercier και Sperber αντανακλά το έργο της εξέλιξης της λογικής μας και που στοχεύει να μας προστατέψει από το να μας κακομεταχειρίζονται άλλα μέλη της ομάδας μας. Ζώντας σε μικρές ομάδες κυνηγών - τροφοσυλλεκτών οι πρόγονοί μας ήταν πρωτίστως απασχολημένοι με τη προσωπική τους κοινωνική υπόσταση και να διασφαλίσουν ότι δεν θα ήταν εκείνοι που θα έβαζαν σε κίνδυνο τη ζωή τους στο κυνήγι ενώ άλλοι θα χασομερούσανε γύρω από τη σπηλιά. Το όφελος από την ευθυκρισία ήταν μικρό ενώ το η νίκη επί των λογομαχιών (με όποιο τρόπο) ήταν ωφελιμότερη. 

Μεταξύ των πολλών-πολλών θεμάτων που οι πρόγονοί μας δεν ανησυχούσαν, αφορούσε το πόσο αποτρεπτική ήταν η θανατική ποινή και τα ιδανικά χαρακτηριστικά ενός πυροσβέστη. Ούτε είχαν να αντιμετωπίσουν κατασκευασμένες  μελέτες ή ψεύτικα νέα ή το twitter. Είναι να απορεί κανείς που σήμερα η λογική μας αποτυγχάνει. Σύμφωνα με τους Mercier and Sperber «Πρόκειται για μία από τις πολλές περιπτώσεις που το περιβάλλον άλλαξε πολύ γρηγορότερα με αποτέλεσμα η φυσική επιλογή* να μην έχει προλάβει να ανταποκριθεί.»

*Η Φυσική επιλογή είναι η διαδικασία εξέλιξης των ειδών μέσω της οποίας οι οργανισμοί που είναι καλύτερα προσαρμοσμένοι στο περιβάλλον αφήνουν περισσότερους απογόνους από εκείνους που είναι λιγότερο προσαρμοσμένοι. Η θεωρία της φυσικής επιλογής διατυπώθηκε επίσημα το 1858, από τον Κάρολο Δαρβίνο. Στηρίζεται στην παρατήρηση πως ορισμένες διαφορές μεταξύ των ατόμων σε έναν πληθυσμό είναι κληρονομήσιμες. (https://el.wikipedia.org/wiki/%CE%A6%CF%85%CF%83%CE%B9%CE%BA%CE%AE_%CE%B5%CF%80%CE%B9%CE%BB%CE%BF%CE%B3%CE%AE )

Ο Steven Sloman, καθηγητής στο Brown και ο Philip Fernbach, καθηγητής στο πανεπιστήμιο του Κολοράντο είναι γνωσιακοί επιστήμονες. Και οι ίδιοι πιστεύουν ότι η κοινωνικότητα είναι το κλειδί του πως το ανθρώπινο μυαλό λειτουργεί ή μάλλον δυσλειτουργεί. Ξεκινούν το βιβλίο τους «Η αυταπάτη της γνώσης: Γιατί δεν σκεφτόμαστε ποτέ μόνοι μας» (Riverhead), με μία ματιά στις τουαλέτες.
Πρακτικά, οποιοσδήποτε στις ηνωμένες πολιτείες και κατ επέκταση σε όλο τον δυτικό κόσμο είναι εξοικειωμένος με τις τουαλέτες. Μία τυπική τουαλέτα με καζανάκι έχει ένα κεραμικό δοχείο γεμάτο με νερό. Όταν πατάμε το κουμπί ή όταν τραβάμε το χερούλι, το νερό και οτιδήποτε έχουμε εναποθέσει μέσα σε αυτό «καταπίνεται» σε ένα λούκι και από εκεί οδηγείται σε ένα αποχετευτικό σύστημα. Αλλά πως αυτό πραγματικά συμβαίνει;

Σε μία μελέτη που διενεργήθηκε στο Yale, ζητήθηκε από τελειόφοιτους να βαθμολογήσουν την προσωπική τους αντίληψη σε σχέση με τις συσκευές που χρησιμοποιούν καθημερινά συμπεριλαμβανομένης της τουαλέτας, του φερμουάρ και της κυλινδρικής κλειδαριάς. Στη συνέχεια τους ζητήθηκε να καταγράψουν βήμα-βήμα του πως αυτές οι συσκευές λειτουργούν και να ξανά βαθμολογήσουν την προσωπική τους αντίληψη. Προφανώς η προσπάθεια αποκάλυψε στους φοιτητές την άγνοιά τους καθώς οι αυτοεκτιμήσεις τους κατέρρευσαν. (Οι τουαλέτες, φάνηκε ότι είναι πιο πολύπλοκες από αυτό που νομίζουμε).

Ο Steven Sloman και ο Philip Fernbach αποκαλούν αυτό το αποτέλεσμα “ψευδαίσθηση της εις βάθους αιτιολόγησης”, που συναντάμε στα πάντα. Οι άνθρωποι πιστεύουν ότι γνωρίζουν πολλά περισσότερα από εκείνα που πραγματικά γνωρίζουν. Αυτό που μας ωθεί να πιστεύουμε κάτι τέτοιο είναι οι άλλοι άνθρωποι. Στην περίπτωση της τουαλέτας μου, κάποιος τη σχεδίασε ώστε να την κάνει εύκολη προς χρήση σε εμένα. Αυτό είναι κάτι στο οποίο οι άνθρωποι είναι πολύ καλοί. Βασιζόμαστε ο ένας στην εμπειρία του άλλου από τότε που καταλάβαμε πως μπορούμε να κυνηγάμε ομαδικά που πιθανώς ήταν ένα σημείο κλειδί ως προς της εξελικτική μας ιστορία. Τόσο καλά συνεργαζόμαστε που είναι πολύ δύσκολο να εντοπίσουμε που τελειώνει η δική μας αντίληψη και που ξεκινάει του άλλου. 
«Μια συνέπεια της φυσικότητας με την οποία χωρίζουμε τη διανοητική εργασία», γράφουν, είναι ότι δεν υπάρχει «κάποιο αυστηρό όριο μεταξύ ιδεών και γνώσεων ενός ατόμου» και «των υπολοίπων μελών» της ομάδας.

Αυτά τα θολά σύνορα, ή, αν προτιμάτε, η σύγχυση, είναι επίσης ζωτικής σημασίας σε ό, τι θεωρούμε πρόοδο. Καθώς οι άνθρωποι εφηύραν νέα εργαλεία για νέους τρόπους ζωής, ταυτόχρονα δημιούργησαν νέες σφαίρες άγνοιας. Αν ο καθένας είχε επιμείνει, ας πούμε, στον έλεγχο των αρχών της μεταλλουργίας, πριν να πιάσει καν ένα μαχαίρι, η Εποχή του Χαλκού δεν θα είχε προσδώσει πολλά (στην ανθρωπότητα). Όταν πρόκειται για νέες τεχνολογίες, η ελλιπής κατανόηση ενδυναμώνεται.
Αυτό που μας βάζει σε μπελάδες, σύμφωνα με τους Sloman and Fernbach είναι το πολιτικό πεδίο. Είναι ένα πράγμα να πατήσω το καζανάκι χωρίς να γνωρίζω πως δουλεύει και άλλο πράγμα να τάσσομαι υπέρ ή κατά σε μία απαγόρευση μετανάστευσης χωρίς να ξέρω περί τίνος πρόκειται. 

Οι Sloman and Fernbach παραθέτουν μία έρευνα που διεξήχθη το2014, όχι πολύ αργότερα από την προσάρτηση της Κριμαίας στη Ρωσία. Οι ερωτηθέντες απάντησαν στο πως θεωρούσαν ότι η usa έπρεπε να αντιδράσει και που βρίσκεται η Ουκρανία στον χάρτη. Όσο πιο μακριά εντόπιζαν την Ουκρανία στον χάρτη τόσο περισσότερες πιθανότητες είχαν να είναι υπέρ στρατιωτικής επέμβασης. (Οι ερωτηθέντες ήταν τόσο αβέβαιοι για την τοποθεσία της Ουκρανίας ώστε η μέση εικασία ήταν λάθος κατά χίλια οκτακόσια μίλια, όση περίπου η απόσταση από το Κίεβο στη Μαδρίτη.)

Έρευνες σε πολλά άλλα θέματα έχουν δώσει παρόμοια απογοητευτικά αποτελέσματα. «Κατά κανόνα, έντονα συναισθήματα σχετικά με θέματα δεν προκύπτουν από βαθιά κατανόηση», οι Sloman και Fernbach γράφουν. Και εδώ η εξάρτησή μας από άλλα μυαλά ενισχύει το πρόβλημα. Εάν η θέση σας σχετικά με τον νόμο οικονομικών προσιτής φροντίδας, ας πούμε, είναι αβάσιμες και εγώ στηρίζομαι σε αυτό, τότε η γνώμη μου είναι, επίσης, αβάσιμη. Όταν μιλώ με τον Tom και ο ίδιος αποφασίσει ότι συμφωνεί μαζί μου, τότε η γνώμη του είναι επίσης αβάσιμη, αλλά τώρα που οι τρεις μας συμφωνούμε αισθανόμαστε πολύ πιο αυτάρεσκοι για τις απόψεις μας. Αν όλοι απορρίψουμε ως μη πειστική, κάθε πληροφορία που έρχεται σε αντίθεση με τη γνώμη μας, θα έχουμε λοιπόν το φαινόμενο Διοίκησης Trump.

"Έτσι εξηγείται πώς μια κοινωνία γνώσης μπορεί να γίνει επικίνδυνη", παρατηρούν ο Sloman και ο Fernbach. Οι δυο τους έχουν διεξάγει τη δική τους εκδοχή του πειράματος της τουαλέτας, υποκαθιστώντας την με δημόσια πολιτική. Σε μια μελέτη που διεξήχθη το 2012, ρώτησαν τους ανθρώπους για τη στάση τους σχετικά με ζητήματα όπως: Πρέπει να υπάρχει ένα ενιαίο σύστημα-πληρωμένης υγειονομικής περίθαλψης; Ή αξιοκρατική αμοιβή για τους εκπαιδευτικούς; Οι συμμετέχοντες κλήθηκαν να βαθμολογήσουν τις θέσεις τους ανάλογα με το πόσο έντονα συμφωνούσαν ή διαφωνούσαν με τις προτάσεις. Στη συνέχεια, έπρεπε να εξηγήσουν, όσο πιο αναλυτικά μπορούσαν, τα αποτελέσματα εφαρμογής της κάθε μία από αυτές. Οι περισσότεροι άνθρωποι σε αυτό το σημείο «έμπλεξαν». Ερωτηθείς για άλλη μια φορά να βαθμολογήσουν τις απόψεις τους, άλλαξαν στάση και άρχισαν να συμφωνούν ή διαφωνούν λιγότερο σφοδρά.

Ο Sloman και ο Fernbach βλέπουν σε αυτό το συμπέρασμα της έρευνας ένα μικρό κερί φωτός σε σχέση με το σκοτάδι που υπάρχει στον κόσμο μας. Εάν εμείς, ή οι φίλοι μας ή οι αυθεντίες στο CNN – αφιερώνουν λιγότερο χρόνο σε βαρύγδουπα λόγια και περισσότερο χρόνο στις επιπτώσεις των πολιτικών προτάσεων, θα αντιληφθούμε πόσο ανίδεοι είμαστε και πόσο μέτριες είναι οι απόψεις μας. Αυτή «μπορεί να είναι η μόνη μορφή σκέψης που θα θρυμματίσει την ψευδαίσθηση της - σε βάθος αιτιολογημένης σκέψης - και θα αλλάξει την στάση των ανθρώπων.»

Ένας τρόπος για να δούμε την επιστήμη, είναι σαν ένα σύστημα που διορθώνει φυσικές αποκλίσεις των ανθρώπων. Σε ένα καλά διοικούμενο εργαστήριο, δεν υπάρχει χώρος για μεροληψία υπέρ μιας άποψης. Τα αποτελέσματα του εργαστηρίου πρέπει να μπορούν να αναπαραχθούν σε άλλα εργαστήρια, από ερευνητές οι οποίοι δεν έχουν κάποιο κίνητρο να τις επιβεβαιώσουν. Και αυτό, θα μπορούσε κανείς να πει είναι η αιτία που το σύστημα (της επιστήμης) έχει αποδειχθεί τόσο επιτυχημένο. Σε κάθε δεδομένη στιγμή, ένα πεδίο έρευνας μπορεί να κυριαρχείται από διαμάχες, αλλά, στο τέλος, η μεθοδολογία επικρατεί. Η επιστήμη κινείται προς τα εμπρός, ακόμα και εάν εμείς παραμένουμε κολλημένοι στις θέσεις μας.

Στο «Η άρνηση στον Τάφο: Γιατί αγνοούμε τα γεγονότα που θα μας σώσουν» (Oxford), ο Jack Gorman, ένας ψυχίατρος, και η κόρη του, Sara Gorman, ειδική στη δημόσια υγεία, μέτρησαν το χάσμα ανάμεσα σε αυτό που η επιστήμη μας λέει και σε αυτό που λέμε εμείς στον εαυτό μας. Η ανησυχία τους επικεντρώνεται σε αυτές τις επίμονες πεποιθήσεις που όχι μόνο είναι αποδεδειγμένα ψευδείς, αλλά και δυνητικά θανατηφόρες, όπως η πεποίθηση ότι τα εμβόλια είναι επικίνδυνα. Φυσικά το επικίνδυνο του θέματος δεν είναι ο πληθυσμός να εμβολιάζεται, αυτός είναι άλλωστε ο λόγος που τα εμβόλια δημιουργήθηκαν. «Ο εμβολιασμός είναι ένας από τους θριάμβους της σύγχρονης ιατρικής» αλλά ανεξαρτήτως πόσες πολλές επιστημονικές μελέτες καταλήγουν στο συμπέρασμα ότι τα εμβόλια είναι ασφαλή και ότι δεν υπάρχει καμία σχέση μεταξύ εμβολιασμών και αυτισμού, ο άνθρωπος "κατά των εμβολιασμών" παραμένει ασυγκίνητος. (Μπορούν πλέον να υπολογίζουν στους εαυτούς τους –σαν τον Donald Trump, ο οποίος είπε ότι, παρόλο που ο ίδιος και η σύζυγός του εμβολίασαν τον γιος τους, Barron, αρνήθηκαν να το πράξουν σύμφωνα με το χρονοδιάγραμμα που συνέστησαν οι παιδίατροι).

Οι Gormans, επίσης, υποστηρίζουν ότι οι τρόποι σκέψης που τώρα φαίνονται αυτοκαταστροφικοί σε κάποιο σημείο έχουν υπάρξει προσαρμοστικοί. Και αυτοί, επίσης, αφιερώνουν πολλές σελίδες για την επιβεβαίωση της προκατάληψης, η οποία, ισχυρίζονται, έχει ένα φυσιολογικό συστατικό. Σε έρευνά τους αναφέρουν ότι οι άνθρωποι βιώνουν γνήσια απόλαυση, μια δόση ντοπαμίνης - όταν επεξεργάζονται πληροφορίες που υποστηρίζουν τις πεποιθήσεις τους. «Είναι ωραίο να κολλάμε στις απόψεις μας, ακόμη και αν κάνουμε λάθος», παρατηρούν.

Οι Gormans δεν θέλουν απλά να καταχωρήσουν τους τρόπους που με τους οποίους χάνουμε την ευθυκρισία μας. Θέλουν να τους διορθώσουν. Πρέπει να υπάρχει κάποιος τρόπος, επιμένουν, να πείσουμε τους ανθρώπους ότι τα εμβόλια κάνουν καλό στα παιδιά, ενώ τα περίστροφα είναι επικίνδυνα. (Μια άλλη διαδεδομένη αλλά στατιστικά αφόρητη πεποίθηση που θα ήθελαν να δυσφημίσουν είναι ότι η ιδιοκτησία ενός όπλου σας κάνει πιο ασφαλείς.)

Αλλά και εδώ αντιμετωπίζουν τα ίδια προβλήματα που έχουν απαριθμήσει. Το να παρέχουν στους ανθρώπους ακριβής πληροφόρηση δεν φαίνεται να βοηθάει. Οι άνθρωποι απλά την αντιπαρέρχονται. Ελκυστικές πληροφορίες στα συναισθήματά τους μπορεί να λειτουργήσουν καλύτερα, αλλά αυτό είναι προφανώς αντίθετο προς το στόχο της προώθησης της υγιούς επιστήμης. «Η πρόκληση που παραμένει», γράφουν προς το τέλος του βιβλίου τους, «είναι να καταλάβουμε πώς να αντιμετωπίσουμε τις τάσεις που οδηγούν σε ψευδείς επιστημονικές πεποιθήσεις».

Σχόλιο μετάφρασης: Η παρακάτω παράγραφος αφορά σε αμερικανικά γεγονότα και ανθρώπους που ενδεχομένως να μην τα καταλαβαίνουμε. 
«Το Αίνιγμα της Λογικής», «Η ψευδαίσθηση της γνώσης» και το «αρνούμενος ως τον τάφο» ήταν όλα γραμμένα πριν από τις εκλογές του Νοεμβρίου. Και παρόλα αυτά προλαμβάνουν την Kellyanne Conway και την άνοδο των «εναλλακτικών γεγονότων». Αυτές τις μέρες, μπορεί να υποθέσει κανείς ότι το σύνολο της χώρας έχει παραδοθεί σε ένα τεράστιο ψυχολογικό πείραμα που τρέχει είτε από κανέναν, είτε από τον Steve Bannon. Ορθολογικοί συντελεστές (άνθρωποι) θα είναι σε θέση να σκεφτούν μια λύση. Αλλά, σε αυτό το θέμα, η λογοτεχνία δεν είναι καθησυχαστική.