W jaki sposób błędy poznawcze i heurystyki wpływają na foresight, szczególnie na proces tworzenia scenariuszy?  

Foresight: klucz do kształtowania przyszłości

Współczesne tempo i intensywność zmian sprawiają, że zdolność analizy możliwych przyszłości staje się umiejętnością niezwykle pożądaną. Szybki postęp technologiczny, zmiany w sposobie myślenia oraz ewolucja wartości, to tylko niektóre z czynników, które utrudniają patrzenie w przyszłość i planowanie działań. W konsekwencji wiele osób nie wie na jaki świat należy się przygotować, a co za tym idzie – na czym powinni skupić swoją uwagę już dzisiaj.

Wizje przyszłości dają nam więc nie tylko wgląd w wyzwania jakim będziemy musieli sprostać za jakiś czas, ale przede wszystkim dają wgląd w nasze założenia, wskazują aktualne potrzeby i możliwe kierunki działania. To podejście strategiczne, które umożliwia organizacjom identyfikację nieoczekiwanych szans i zagrożeń oraz wspiera wczesne wykrywanie nadchodzących zmian. Dzięki foresightowi możliwe jest świadome podejmowanie decyzji i wykorzystywanie pojawiających się możliwości.

Lista metod foresightowych jest stosunkowo obszerna. Częstym celem ich stosowania jest opracowanie zestawu scenariuszy rozwoju badanej dziedziny w długoterminowej perspektywie. Scenariusze te nie służą przewidywaniu przyszłości, wręcz przeciwnie, opierają się na założeniu, że przyszłych zdarzeń nie da się przewidzieć. Dlatego tworzy się kilka alternatywnych wizji rozwoju, które obrazują różne możliwe kierunki rozwoju sytuacji. W trakcie tego procesu mogą ujawnić się niedostrzegalne wcześniej, bądź zupełnie nowe szanse i zagrożenia. Rekomendacje, które powstają, z definicji są mniej podatne na zaburzenia na ścieżce rozwoju. W efekcie, organizacje stają się bardziej odporne na niepewność i elastyczne w obliczu zmieniających się warunków.

Pomimo stosunkowo ustrukturyzowanego podejścia, proces opracowywania scenariuszy, podobnie zresztą jak większość naszych działań, nie jest wolny od błędów poznawczych. Skróty myślowe i tendencje, które kształtują nasze postrzeganie świata mogą w znacznym stopniu wpłynąć na analizę scenariuszową i stanowić przeszkodę w jej realizacji. 

Błędy poznawcze i heurystyki a foresight

Codziennie stajemy przed wyborami, wyciągamy wnioski i formułujemy opinie. Jednak ilość informacji, która dociera do nas w każdej chwili, jest tak duża, że nasz umysł nie jest w stanie przetwarzać ich wszystkich z jednakową dokładnością. W związku z tym, nieustannie musimy wybierać te, które są dla nas najważniejsze – te, które są godne zapamiętania, mają znaczenie emocjonalne lub są istotne dla kontroli naszych zachowań. Aby ułatwić sobie proces selekcji, mózg stosuje uproszczone metody myślenia, czyli heurystyki. Błędy poznawcze wynikają właśnie z takich uproszczeń w przetwarzania informacji. Opierają się one na schematach zakorzenionych w naszych doświadczeniach, nabytej wiedzy oraz wzorcach, które dostrzegamy w otaczającym świecie. Jednak poleganie na tych wzorcach i przeszłych doświadczeniach może być ograniczające, szczególnie w badaniu skomplikowanej i nieprzewidywalnej przyszłości. Aby skutecznie analizować przyszłość, niezbędne jest odejście od utartych schematów myślenia i wyobrażeń, opartych wyłącznie na przeszłości.

Iluzja końca historii

Spośród wielu błędów poznawczych, które mogą ograniczać zakres i kreatywność opracowywanych scenariuszy, szczególnie warto zwrócić uwagę na Iluzję końca historii (eng. End-of-history illusion). Ten błąd poznawczy odnosi się do przekonania, że jednostka osiągnęła już znaczny rozwój osobisty, więc w przyszłości nie nastąpią już większe zmiany w jej charakterze, wartościach czy upodobaniach. Skutkiem takiego myślenia jest niedocenianie przez ludzi jak bardzo ich własna przyszłość, jak i świat wokół nich, mogą zmienić się w przyszłości. 

W kontekście projektowania scenariuszy iluzja końca historii może prowadzić do nadmiernego skupienia się na obecnych warunkach i trendach. Eksperci, kierując się tym błędem, mogą zakładać, że obecny stan świata — polityczny, ekonomiczny, społeczny — pozostanie stosunkowo niezmieniony. Taka perspektywa sprzyja konserwatywnemu spojrzeniu na przyszłość, które nie uwzględnia potencjalnych zakłóceń ani radykalnych zmian. W efekcie mogą zostać zignorowane pojawiające się technologie, nowe ruchy społeczne czy inne globalne wydarzenia, które mogą radykalnie wpłynąć na przyszłość.

Aby uniknąć iluzji końca historii w foresighcie, niezbędne jest świadome rozpoznawanie i kwestionowanie teraźniejszości. Wymaga to aktywnego poszukiwania słabych sygnałów i pojawiających się trendów, które mogą sugerować możliwość istotnych zmian. Przyjmując, że przyszłość prawdopodobnie będzie różniłą się od teraźniejszości, tak samo, jak teraźniejszość różni się od przeszłości, możliwe jest tworzenie bardziej kompleksowych i dynamicznych scenariuszy. W rezultacie organizacje będą lepiej przygotowane na szeroki zakres możliwych przyszłości.

Heurystyka dostępności

Znaczącym błędem poznawczym w kontekście analizy potencjalnych przyszłości jest heurystyka dostępności (eng. Availability heuristic). Jest to skrót myślowy, który polega na ocenianiu prawdopodobieństwa i częstości zdarzeń na podstawie łatwości, z jaką odpowiednie przypadki mogą być przywołane z pamięci. W konsekwencji, ludzie często przeceniają prawdopodobieństwo zdarzeń, których przykłady występowania wciąż dobrze pamiętają. Można bez wahania stwierdzić, że decyzje, które podejmujemy są często zależne od tego skrótu myślowego. Przy dokonywaniu wyborów kierujemy się informacjami, które pozyskaliśmy niedawno lub osobistymi doświadczeniami, ignorując alternatywne czynniki, których nie możemy sobie tak łatwo przypomnieć. Podobnie eksperci mogą nadmiernie podkreślać wpływ niedawnych lub szeroko nagłośnionych wydarzeń podczas opracowywania przyszłych scenariuszy, co prowadzi do pominięcia mniej oczywistych, ale potencjalnie bardziej istotnych czynników, które również mogą wpłynąć na badany obszar.

Aby ograniczyć wpływ heurystyki dostępności, kluczowe jest uświadomienie sobie jej istnienia. Choć nie zmieni to sposobu, w jaki nasz mózg analizuje informacje, może pomóc w rozpoznaniu momentów, kiedy ulegamy temu błędowi i zachęcić nas do poszukiwania bardziej obiektywnych informacji. To właśnie dlatego podczas tworzenia scenariuszy korzysta się z wiedzy szerokiego grona ekspertów. Wprowadzają oni różnorodne perspektywy, które mogą być nieoczywiste dla badaczy foresightu, ale są niezbędne dla wszechstronnego spojrzenia na możliwe przyszłości.

Efekt potwierdzenia

Wszyscy mamy skłonność do dostrzegania informacji, które potwierdzają nasze dotychczasowe przekonania, jednocześnie ignorując te, które mogłoby je kwestionować. Zjawisko to znane jako efekt potwierdzenia (ang. Confirmation bias) polega na tym, że podświadomie wyszukujemy, interpretujemy i zapamiętujemy informacje w sposób zgodny z naszymi wcześniejszymi opiniami lub hipotezami. W efekcie mniej uwagi poświęcamy alternatywnym punktom widzenia. Nasze przekonanie o własnej racji może być na tyle silne, że nawet w obliczu danych, które przeczą naszym poglądom jesteśmy skłonni je zignorować lub zinterpretować tak, by wzmocnić naszą perspektywę. Dzieje się tak dlatego, że analiza nowych informacji wymaga czasu i energii, dlatego nasz mózg stara się przyspieszyć ten proces, często kosztem obiektywności.

Osoby angażujące się w proces opracowywania scenariuszy oraz organizacje, dla których prowadzana jest analiza, powinny uwzględniać szeroki wachlarz możliwych przyszłości. Należy brać pod uwagę zarówno pozytywne, jak i negatywne scenariusze, aby nie wpaść w pułapkę efektu potwierdzenia. W przeciwnym razie może dojść do faworyzowania tych scenariuszy, które są zgodne z obecnymi oczekiwaniami ekspertów co do przyszłości i odrzucenia lub niedocenienia informacji sugerujących alternatywne zmiany. W rezultacie organizacje mogą nie dostrzec pojawiających się zagrożeń lub szans, a w konsekwencji nie będą przygotowane do podjęcia lepszych decyzji strategicznych.

Stronniczość sztucznej inteligencji

W ostatnich latach modele językowe znalazły szerokie zastosowanie w wielu różnych dziedzinach, w tym w foresightcie. Sztuczna inteligencja oferuje potężne narzędzia do przetwarzania ogromnych ilości danych i identyfikowania wzorców, które mogą unikać ludzkiej uwadze. W efekcie niektórzy postrzegają algorytmy jako niezawodne narzędzia umożliwiające podejmowanie trafnych decyzji. Aby jednak AI mogła spełniać tę rolę, musiałaby być całkowicie bezstronna i wolna od wszelkich uprzedzeń. Choć odpowiedzi generowane przez AI miały w założeniu być obiektywne, praktyka pokazała, że – podobnie jak ludzie – sztuczna inteligencja również nie jest odporna na stronniczość.

Źródłem tego problemu są przede wszystkim dane używane do trenowania modeli AI. Systemy uczą się z ogromnych zbiorów danych, które zawierają informacje opracowane przez człowieka, a te nierzadko są naznaczone różnymi uprzedzeniami. 

W praktyce problem stronniczości w AI dotyczy wielu etapów – od zbierania danych, przez ich selekcję, po sam proces uczenia maszynowego. Przykładowo, w modelach językowych takich jak GPT, stronniczość może pojawić się na poziomie treści źródeł, które model analizuje. Jeżeli treści te odzwierciedlają stereotypy lub ograniczone perspektywy, model będzie je utrwalać w swoich odpowiedziach. Co więcej, niektóre badania wykazały, że AI może nieświadomie dyskryminować na podstawie płci, rasy czy innych cech demograficznych, nawet jeśli nie zostały one bezpośrednio uwzględnione w danych wejściowych.

Jeśli dane treningowe zawierają błędy lub odzwierciedlają stereotypy czy uprzedzenia w stosunku do pewnych grup społecznych model nieuchronnie się ich nauczy i będzie je powielać w swoich wynikach. Może to prowadzić do niezamierzonych, a wręcz szkodliwych, konsekwencji, zwłaszcza w kluczowych obszarach, takich jak systemy rekrutacyjne, wymiar sprawiedliwości czy opieka zdrowotna.

Podobne ryzyko występuje także w foresighcie. Całkowite poleganie na AI bez świadomości jej uprzedzeń może prowadzić do fałszywego przekonania o obiektywności jej wyników. Odzwierciedla to wspomniany wcześniej efekt potwierdzenia. Kiedy korzystamy ze sztucznej inteligencji, mamy kontrolę nad tym, jak formułujemy pytania lub polecenia dla systemu. W rezultacie użytkownik może nieświadomie kierować odpowiedzią AI w taki sposób, aby potwierdzała jego wcześniejsze przekonania, co prowadzi do tworzenia scenariuszy, opartych na jego własnych, ograniczonych perspektywach. Dlatego, aby zminimalizować ryzyko stronniczości, wciąż konieczna jest dokładna weryfikacja wyników pracy z AI oraz uzupełnianie ich o ludzką ocenę. Pozwoli to zminimalizować ryzyko wystąpienia tego błędu Taka kombinacja pozwala na głębsze zrozumienie wyników, uwzględnienie różnych punktów widzenia oraz na bardziej zrównoważone i trafne decyzje. Jednak w foresighcie, gdzie kluczowe jest badanie różnorodnych i często nieoczywistych scenariuszy przyszłości, integracja AI z ludzkim doświadczeniem i intuicją może znacznie zwiększyć wartość prognoz i analiz.

Choć obawy związane ze stronniczością AI są uzasadnione, warto podkreślić, że sztuczna inteligencja niesie ze sobą ogromny potencjał w dziedzinie foresightu. Algorytmy AI potrafią błyskawicznie przetwarzać ogromne ilości danych, identyfikując trendy i korelacje, które umknęłyby uwadze nawet najbardziej doświadczonych analityków. To pozwala na tworzenie bardziej kompleksowych i wiarygodnych scenariuszy przyszłości, uwzględniających subtelne sygnały zmian. Co więcej, AI może pomóc w przezwyciężeniu ludzkich ograniczeń, takich jak efekt potwierdzenia, poprzez generowanie różnorodnych perspektyw i prowokowanie do myślenia poza utartymi schematami. Kluczem do skutecznego wykorzystania AI jest świadomość jej potencjalnych uprzedzeń oraz umiejętne połączenie jej możliwości z ludzką intuicją i krytycznym myśleniem.

Zakończenie

W kontekście tworzenia scenariuszy, błędy poznawcze i heurystyki nie muszą być postrzegane jedynie jako ograniczenia, ale mogą stanowić kluczowy element, który skłania nas do głębszej refleksji nad naszym podejściem do foresightu. Te naturalne zniekształcenia percepcji przypominają nam, że żadna analiza, niezależnie od tego, jak zaawansowana technologicznie czy wszechstronna, nie jest w stanie w pełni uchwycić złożoności przyszłych wydarzeń. Zamiast próbować całkowicie wyeliminować błędy poznawcze, powinniśmy je postrzegać jako wskazówkę do rozwijania nowych metod, które uwzględniają te ograniczenia i wykorzystują je w sposób, który wzbogaca naszą analizę przyszłości.

Być może najważniejszym wyzwaniem, przed którym stajemy, jest przyjęcie bardziej pokornej postawy wobec przyszłości. Świadomość, że nasz umysł jest skłonny do uproszczeń, powinna prowadzić nas do poszukiwania bardziej zróżnicowanych i interdyscyplinarnych podejść do foresightu. Integracja sztucznej inteligencji z ludzką intuicją i doświadczeniem, zamiast być prostym połączeniem technologii i tradycyjnej analizy, może stać się katalizatorem dla zupełnie nowej jakości prognozowania, w której wielość perspektyw pozwala na zbudowanie bardziej odpornych scenariuszy.

Co więcej, uznanie nieprzewidywalności jako nieodłącznego elementu przyszłości może zainspirować organizacje do przyjęcia strategii otwartości i elastyczności, które są kluczowe w świecie szybkich i niespodziewanych zmian. Zamiast postrzegać przyszłość jako coś, co należy kontrolować lub przewidzieć, możemy ją traktować jako dynamiczny proces, w którym kluczowe znaczenie mają nasze reakcje na to, co nieoczekiwane. To z kolei oznacza, że foresight przestaje być jedynie narzędziem planowania, a staje się platformą do ciągłego uczenia się, adaptacji i innowacji.

W ostatecznym rozrachunku, błędy poznawcze mogą pełnić rolę przypomnienia o naszych ludzkich ograniczeniach, ale też o potencjale, jaki tkwi w twórczym myśleniu i odwadze do eksplorowania nieznanych obszarów. Przyszłość, z całym swoim bogactwem możliwości i niespodzianek, wymaga od nas nie tylko precyzyjnych narzędzi analitycznych, lecz także otwartego umysłu, gotowego na to, co nieprzewidziane. To właśnie ta gotowość na nieoczekiwane jest kluczem do skutecznego foresightu — takiego, który nie tylko reaguje na zmiany, ale aktywnie je kształtuje.

Autor: Aleksandra Szymańska