Jeśli zapytamy przypadkowego przechodnia, czy uważa się za osobę racjonalną, to przypuszczalnie otrzymamy odpowiedź twierdzącą. Nie powinno to rzecz jasna zaskakiwać, wszak w powszechnej świadomości człowiek, w przeciwieństwie np. do krowy, jest istotą myślącą, racjonalną. Z tego powinno wynikać zdroworozsądkowe, rozumowe podejmowanie decyzji i zdolność kontrolowania własnych popędów, instynktów, emocji. A przynajmniej tak lubimy myśleć o sobie, swoich wyborach i decyzjach.
Nie ulega wątpliwości, że w zakresie myślenia, krowa mogłaby się od nas wiele nauczyć, albowiem jest niemal pewne, że krowa do najwytrawniejszych myślicieli nie należy. Z pewnością dysponuje ona pewną formą świadomości, ale już nie taką, która umożliwiłaby jej wewnętrzną konstatację: „Jestem krową, więc jestem”. Człowiek może, a dowodem na to jest nie tylko słynne cogito ergo sum Kartezjusza, ale przede wszystkim sam fakt, że i Ty, Drogi Czytelniku, możesz w każdej chwili powtórzyć to zdanie w swojej głowie. Możesz również pomyśleć sobie, że jesteś osobą racjonalną, logiczną, obiektywną, a świat, który każdego dnia doświadczasz, to wynik intelektualnej, obiektywnej, niezakłóconej uprzedzeniami oceny. Twojej własnej rzecz jasna.
I wówczas będziesz w błędzie. Poznawczym.
Myślenie człowieka bowiem skażone jest licznymi błędami poznawczymi, z których istnienia najczęściej w ogóle nie zdajemy sobie sprawy, ponieważ naszemu komputerowi pokładowemu wcale nie zależy, abyśmy byli tego świadomi. W jego mniemaniu – dla naszego własnego dobra.
Błędy poznawcze
Sformułowanie pojęcia błędu poznawczego przypisuje się słynnemu duetowi psychologów – Amosowi Tverskiemu i Danielowi Kahnemanowi. Od tamtego czasu zagadnienie stało się przedmiotem wielu eksperymentów, prac i polemik z zakresu nie tylko szeroko rozumianej psychologii, ale też ekonomii, medycyny czy biznesu. Nie bez powodu – odkrycie, że człowiek dokonuje wyborów pod wpływem pozornie nieracjonalnych, nielogicznych i na pierwszy rzut oka bezmyślnych kryteriów musiało wywrócić do góry nogami ówczesne próby zrozumienia zachowań jednostki i tłumu.
Do dziś jednak, mimo licznych prac poświęconych błędom poznawczym, nie ma zgody dotyczącej ich genezy, mechanizmu działania czy nawet klasyfikacji. W polskiej kulturze psychologicznej, z kolei, zrozumienie istoty błędu poznawczego jest o tyle trudne, że sam wyraz b ł ą d narzuca nomen omen błędny sposób interpretacji pojęcia, co wynika z nieprecyzyjnego tłumaczenia angielskiego odpowiednika cognitive bias (z ang. ‘bias’ – uprzedzenie, skos, tendencja).
Błąd, jak wiadomo, sam się nie popełnia, a więc musi być jakiś winny, sprawca. Istotą błędów poznawczych jest jednak to, że popełniamy je nieświadomie, bez względu na nasze intencje, wykształcenie czy nawet samoświadomość. Każdy racjonalista, każdy psycholog i każdy zwycięzca „Jeden z dziesięciu” popełnia błędy poznawcze z mniejszą lub większą częstotliwością, ale nie dlatego, że jest głupi, defektywny, niedouczony, złośliwy lub nieodpowiedzialny. Dlaczego zatem?
Weźmy na przykład taką gorączkę. Jeśli spojrzymy na nią z punktu widzenia objawu, to uznamy podniesioną temperaturę ciała i osłabienie za wadę organizmu. Komu miałoby niby służyć osłabienie, obniżony apetyt i brak chęci życia? Z punktu widzenia psychologii ewolucyjnej, podniesiona temperatura pomaga zwalczać patogeny i może zapobiegać rozprzestrzenianiu się bakterii na inne osoby przez uniemożliwienie choremu przemieszczania się, dostępu do wody pitnej, wspólnego pożywienia, etc. Z tej perspektywy zatem gorączka nie tylko nie jest wadą czy błędem, ale wręcz doskonałym mechanizmem obronnym, który swoją drogą „wyłączamy” dziś przez medyczne zbijanie gorączki narażając się tym samym na powtórne infekcje w przyszłości.
Gorączka oczywiście nie jest błędem poznawczym, ale doskonale pokazuje kierunek analogii. Najprostszym z punktu widzenia psychologii ewolucyjnej uzasadnieniem istnienia błędów poznawczych są ograniczone pod względem czasu i przepustowości możliwości obliczeniowe mózgu, który, aby podejmować efektywne działania, musi polegać na skrótach myślowych. Skróty te mogą być więc adaptacją ewolucyjną organizmu do konkretnych problemów, z jakimi organizm musiał się borykać w danym „momencie rozwojowym” (okresie czasu, kiedy presja środowiska wymuszała konkretną adaptację, co de facto mogło trwać miliony lat, jednak w skali historii życia to zaledwie mrugnięcie oka).
Skróty myślowe jednak są z natury defektywne, a więc podatne na błędy. Na przykład dzięki stereotypom jesteśmy w stanie błyskawicznie ocenić przechodnia (np. pod kątem zagrożenia) i mimo że w większości przypadków nasza ocena okaże się w dużej mierze słuszna (niekoniecznie moralnie!), to uogólnienie zawsze będzie krzywdzące dla wyjątków, mniejszości.
(Bez)błędna ewolucja
Psychologia ewolucyjna wskazuje, że błędy poznawcze są o wiele częściej funkcją mózgu, niż błędem jego architektury[1]. Co to oznacza? W bardzo dużym uproszczeniu, że tak jak ludzkie oko wykorzystuje ograniczony zakres fal elektromagnetycznych do postrzegania barw (380 – 760 nm), tak mózg wykorzystuje ograniczone zakresy danych do podejmowania decyzji.
Przyjrzyjmy się najpowszechniejszym błędom poznawczym, aby zrozumieć istotę tego, o czym dotychczas rozmawialiśmy:
- Błąd potwierdzenia (confirmation bias) – polega na preferowaniu źródeł informacji (np. mediów lub osób) oraz samych informacji, które potwierdzają nasze dotychczasowe przekonania. Skłonność ta może mieć przynajmniej dwa praktyczne wymiary:
- Osoby wierzące, że globalne ocieplenie powoduje człowiek, będą szukać argumentów potwierdzających to przekonanie, jednocześnie ignorując argumenty przeciwne. I odwrotnie.
- Osoby o konkretnych poglądach politycznych będą korzystały tylko z czasopism lub portali informacyjnych sprzyjających ich poglądom.
Mimo że prawda bardzo rzadko jest nam dostępna, w obu przypadkach racjonalnie byłoby skonfrontować informacje z różnych, przeciwstawnych sobie źródeł. Mimo to wolimy ograniczać optykę postrzegania świata do tego, co jest nam znane, ponieważ daje nam to poczucie bezpieczeństwa. Tłumaczy to m.in. dlaczego ludzie mają skłonność do agresji wobec osób podważających ich poglądy.
- Efekt status quo (status quo effect), czyli niechęć do zmian. Nie trzeba chyba nikogo przekonywać, że zmiana czegokolwiek w naszym życiu to nie lada wysiłek. Sama skłonność poznawcza natomiast polega na podświadomym dążeniu do podejmowania takich decyzji, które gwarantują utrzymanie przyjętego stanu rzeczy wg reguły „jeśli coś działa, to po co to zmieniać?” lub „jeśli coś nie jest zepsute, to nie naprawiaj tego”.Skłonność ta ma bardzo praktyczne uzasadnienie ewolucyjne: oszczędność energii i strach przed nieznanym. Jeśli główny celem życia jest przetrwanie, a wyczerpanie zasobów energetycznych lub nieznane zagrożenie mogą powodować przerwanie życia, to po co marnować energie na niepotrzebne zmiany, które mogą przy okazji wygenerować nieznane ryzyko?
- Efekt silniejszego (bandwagon effect) – jest to naturalna tendencja człowieka do zachowywania się tak jak większość, nawet jeśli dane zachowanie jest zupełnie bezsensowne, szkodliwe lub autodestrukcyjne[2]. Jednym z praktycznych przykładów tego efektu może być moda[3] lub głosowanie według sondaży („Nie głosuję na XYZ, bo według sondaży nie ma szans, więc zagłosuję na mniejsze zło”).
- Efekt negatywnego nastawienia (negativity bias) – polega na tym, że wydarzenia o negatywnym charakterze mają na nas znacznie większy wpływ, niż równie intensywne wydarzenia o pozytywnym charakterze. Najprostszym wyjaśnieniem tego zjawiska jest naturalna skłonność człowieka do unikania bólu i przykrych wydarzeń, która powoduje, że lepiej zapamiętujemy negatywne doświadczenia, aby w przyszłości skuteczniej ich unikać (np. raczej nikt nie wsadza drugi raz palca do kontaktu, jeśli miał przyjemność zrobić to jako dziecko).
- Złudzenie gracza (gambler’s fallacy) – przekonanie, że losowe zdarzenia kompletnie od siebie niezależne mają na siebie wzajemny wpływ, np. rzucanie kostką i oczekiwanie, że skoro trzy razy nie wypadła pożądana przez nas liczba oczek, to za kolejnym razem powinna wypaść. W rzeczywistości natomiast za każdym razem jest dokładnie takie samo prawdopodobieństwo wylosowania poszczególnych wartości.
Między rozsądkiem a logiką
Jesteśmy przyzwyczajeni do szukania w świecie logicznej struktury, która umożliwia przewidywanie zdarzeń i zachowań. Jest to naturalna ludzka potrzeba, która przypuszczalnie zaowocowała powstaniem systemów religijnych dostarczających prostych i strukturalnie spójnych odpowiedzi na trudne pytania dotyczące natury rzeczy. Dla racjonalisty tradycji russelowskiej owe rozwiązanie będzie nielogiczne, nierozsądne, niemądre. Nieracjonalne. Życie na ziemi rządzi się jednak innymi prawami i z punktu widzenia przetrwania, którym zajmuje się psychologia ewolucyjna, jeśli coś jest głupie, ale działa, to nie jest głupie.
Niestety tutaj docieramy do innego problemu, którego ewolucja nie przewidziała. Nawet jeśli kiedyś funkcje mózgu zwane błędami poznawczymi zwiększały szansę przetrwania, to czy dziś, wobec braku presji środowiska, mają one rację bytu?
Nie znam odpowiedzi na to pytanie. Chcę zwrócić natomiast uwagę na inny aspekt zagadnienia, który z pewnością wart jest zgłębienia, a mianowicie – manipulację. Skłonność ludzi do podążania za tłumem, autorytetami, łączenia się w grupy czy poszukiwania informacji potwierdzających ich przekonania są powszechnie wykorzystywane nie tylko do manipulowania opinią publiczną, ale również – a może przede wszystkim – inżynierii społecznej, która – niewidoczna gołym okiem dla przeciętnego obserwatora – na przestrzeni pokoleń może wyrządzić opłakane skutki.
Dla zmanipulowanych.
Tekst jest piątą częścią cyklu Poradnik Myślenia Krytycznego.
___
[1] Haselton, M. G.; Nettle, D. & Andrews, P. W. (2005). The evolution of cognitive bias. (PDF). In D. M. Buss (Ed.), The Handbook of Evolutionary Psychology: Hoboken, NJ, US: John Wiley & Sons Inc. pp. 724–746.
[2] Colman, Andrew (2003). Oxford Dictionary of Psychology. New York: Oxford University Press. p. 77. ISBN 0-19-280632-7.
[3] D. Stephen Long; Nancy Ruth Fox (2007). Calculated Futures: Theology, Ethics, and Economics. Baylor University Press. p. 56. ISBN 978-1-60258-014-5. Retrieved 30 August 2013.
[4] D. Kahneman, A. Tversky. Subjective probability: A judgment of representativeness. „Cognitive Psychology”. 3 (3), s. 430–454, 1972. DOI: 10.1016/0010-0285(72)90016-3.
mega interesujące! Dzięki za świetny artykuł