Metoda delficka i Real-Time Delphi

Klucz do zbiorowej inteligencji w złożonym świecie

Metoda delficka, w szczególności w jej nowoczesnej formie Real-Time Delphi (RTD), to potężne narzędzie zaprojektowane do wspomagania procesów decyzyjnych w warunkach charakteryzujących się rosnącą złożonością i niepewnością. Pozwala skutecznie wykorzystać inteligencję zbiorową i pomaga osiągnąć konsensus między zróżnicowanymi grupami interesariuszy. Jest szczególnie przydatna, gdy tematy są skomplikowane, a dostępne dane są ograniczone, mało wiarygodne lub niedostępne.

Metoda delficka narodziła się w RAND Corporation w unikalnym kontekście wczesnej zimnej wojny. W obliczu konieczności prognozowania wpływu przyszłych technologii na działania wojenne – w obszarze pozbawionym precyzyjnych praw naukowych – badacze szukali bardziej niezawodnego sposobu na syntezę eksperckich ocen. Badacze z RAND zauważyli, że tradycyjne metody, takie jak nieustrukturyzowane dyskusje czy konferencje, często zawodziły. Opieranie się na autorytarnych wypowiedziach „geniusza” czy decyzjach wynikających wyłącznie z hierarchii również okazało się podatne na błędy poznawcze i ograniczoną perspektywę. Ted Gordon i Olaf Helmer opisali wyniki wczesnych badań dotyczących prognozowania długoterminowego w raporcie RAND P-2982 z września 1964 roku

Podstawowe zasady klasycznej metody delfickiej (MRD)

W odpowiedzi na te wyzwania, około 1959 roku opracowano klasyczną metodę delficką, opartą na kilku kluczowych zasadach mających na celu ograniczenie „szumu” i presji, co miało prowadzić do bardziej przemyślanego konsensusu opartego na wspólnym rozumowaniu. Te zasady to:

Anonimowość: Opinie uczestników były anonimowe. To zachęcało do szczerego wyrażania opinii i zmniejszało wpływ autorytetów czy efektu reputacji.

Iteracyjność: Proces składał się z kilku rund. Dawało to ekspertom możliwość ponownej oceny własnych opinii w świetle informacji zwrotnej od grupy.

Kontrolowana informacja zwrotna: Między rundami moderator analizował odpowiedzi, udostępniał zagregowane statystyki (takie jak mediany, rozstępy ćwiartkowe – IQR) oraz streszczenia anonimowych uzasadnień, ze szczególnym uwzględnieniem opinii mniejszości. Ten element umożliwiał ekspertom refleksję nad rozumowaniem całej grupy. W przypadku prognoz prawdopodobieństwa, informacja zwrotna pomagała poprawić dokładność ocen.

Uzasadnienia („dlaczego”): Uczestnicy byli proszeni o argumentowanie swoich ocen. Zdolność do uzasadniania swoich wyborów jest uważana za kluczowy mechanizm zbiorowego uczenia się w metodzie delfickiej.

Ten uporządkowany, iteracyjny proces miał na celu ograniczenie szumu i presji, umożliwiając osiągnięcie bardziej przemyślanego konsensusu opartego na wspólnym rozumowaniu. Choć początkowo stosowany do prognoz technologicznych, z czasem znalazł szerokie zastosowanie w planowaniu polityk publicznych, prognozowaniu biznesowym, naukach medycznych i edukacji.

Kluczowe elementy skutecznego badania delfickiego

Najlepsze praktyki w zakresie zarządzania panelem, projektowania kwestionariuszy, angażowania uczestników i unikania błędów, które mogą podważyć wyniki opierają się na poniższych przesłankach.

  • Jasno określony cel badania. Nieprecyzyjne pytania skutkują niejasnymi odpowiedziami. Cele powinny być konkretne i mierzalne.
  • Konstrukcja kwestionariusza. Dobre tezy są jednoznaczne, nieoczywiste, nieprzeładowane treścią, zawierają określony horyzont czasowy i są nazwane. Dobrze, gdy są wyzwaniem dla utartych założeń.
  • Precyzja badania. Każda teza może być oceniana w wielu wymiarach (np. prawdopodobieństwo, wpływ). Liczba kryteriów ocen odzwierciedla zakres i precyzję badania.
  • Dobór ekspertów. Najlepsi uczestnicy to nie tylko specjaliści, ale także osoby o różnorodnym doświadczeniu, posiadające zdolności do myślenia systemowego i otwarte poznawczo. Warto unikać ekspertów z jedną ulubioną teorią, skłonnych do nadmiernej pewności co do prezentowanych przez nich tez.
  • Wielkość panelu. Nie liczy się ilość, lecz jakość. Mniejsza, zaangażowana grupa może mieć większą wartość niż tłum biernych uczestników.
  • Zaangażowanie. Badanie musi być intuicyjne, ciekawe i nagradzać uczestników za aktywność.
  • Analiza jakościowa. Największy potencjał tkwi w uzasadnieniach, nie w ocenach liczbowych. Nie wolno zapominać o eksploracji argumentacji.

Częste błędy, których należy unikać:

  • Nadmierne dążenie do konsensusu
  • Ukrywanie skrajnych opinii
  • Brak dostępu do uzasadnień
  • Zbyt sztywna nawigacja
  • Nieintuicyjny interfejs
  • Brak informacji zwrotnej po zakończeniu badania

Ewolucja do Real-Time Delphi (RTD)

Klasyczna metoda Delficka (MRD), mimo swojej skuteczności, miała wady. Prowadzona początkowo korespondencyjnie, a następnie mailowo i online, wymagała długich przerw między rundami na analizę danych i przygotowanie informacji zwrotnej. To sprawiało, że badania były powolne (trwające miesiącami), kosztowne i często prowadziły do spadku zaangażowania i rezygnacji uczestników (tzw. drop-out).

Rozwój internetu i technologii umożliwił ewolucję MRD do Real-Time Delphi (RTD). Pionierskie prace Theodore’a Gordona i Adama Pease’a (częściowo wspierane grantem DARPA) doprowadziły do stworzenia pierwszych platform RTD.

Kluczowe różnice i korzyści RTD

Główne zmiany w RTD w porównaniu do klasycznej metody obejmują:

Brak rund: Zamiast sekwencyjnych rund, uczestnicy mają ciągły dostęp do platformy przez cały okres trwania badania. Proces jest bardziej płynny.

Natychmiastowa informacja zwrotna: Statystyki zbiorcze, takie jak mediana i rozstęp ćwiartkowy (IQR), oraz uzasadnienia innych uczestników są aktualizowane i dostępne w czasie rzeczywistym. Gdy uczestnik dokona oceny lub ją zmieni, natychmiast widzi zagregowane wyniki grupy. Bardziej zaawansowane narzędzia RTD, takie jak 4CF HalnyX 2.0, oferują ulepszone wizualizacje wyników, przejrzyście prezentujące aktualny rozkład ocen, a także szereg innych udoskonaleń, m.in. wskaźniki kierujące uwagę uczestników tam, gdzie jest to najbardziej potrzebne (np. z uwagi na dużą rozbieżność opinii w danym pytaniu, albo dużą różnicę pomiędzy odpowiedzią uczestnika a dominującymi opiniami w grupie). 

Swoboda zmiany oceny: Uczestnicy mogą wracać na platformę w dowolnym momencie, zapoznawać się z nowymi ocenami oraz komentarzami, oraz modyfikować swoje oceny i uzasadnienia gdy tylko argumenty grupy uznają za przekonujące. Jest to istotna różnica względem wielo-rundowego trybu, w którym zmiana oceny była ograniczona do jednej na rundę. 

Podejście RTD skraca czas badań, zwiększa zaangażowanie uczestników i oferuje większą elastyczność. Jest też mniej obciążające dla organizatorów (którzy nie muszą zarządzać wielo-rundowym procesem), a także uczestników (którzy nie muszą wielokrotnie wypełniać tej samej ankiety w kolejnych rundach). 

Badania porównawcze: MRD vs RTD

Porównanie metody Multi-Round Delphi (MRD) i Real-Time Delphi (RTD) było przedmiotem wielu badań. W jednym z nowszych badań randomizowanych Fiony A. Quirke i innych porównano tradycyjny MRD z szybszym podejściem RTD w kontekście opracowania zestawu podstawowych wyników badań (core outcome set) nad leczeniem encefalopatii noworodków. Celem było sprawdzenie, czy szybsze i łatwiejsze w realizacji badanie RTD  dorównuje skutecznością bardziej tradycyjnemu, wieloetapowemu podejściu. 

W badaniu wzięło udział 222 uczestników – w tym rodzice pacjentów, pracownicy ochrony zdrowia i naukowcy – którzy zostali losowo przydzieleni do tradycyjnej wersji wielorundowej lub do wersji RTD. Wszyscy oceniali tę samą listę 92 potencjalnych wyników (czyli rzeczy, które można by mierzyć jako efekt leczenia uszkodzeń mózgu u noworodków). Uczestnicy z grupy Multi-Round Delphi (MRD) odpowiadali na pytania ankietowe w trzech oddzielnych rundach, rozłożonych w czasie, widząc podsumowania grupowe po każdej rundzie. Z kolei uczestnicy Real-Time Delphi przechodzili interaktywną ankietę, w której otrzymywali natychmiastową informację zwrotną o zmieniających się odpowiedziach grupy – w jednej sesji. Wszyscy oceniali te same zagadnienia na tej samej skali, a celem było określenie, które z wyników są „kluczowe” i powinny zostać włączone do podstawowego zestawu dla przyszłych badań klinicznych.

W trakcie eksperymentu badacze analizowali kilka aspektów: ile ocenianych elementów uznano za ważne w poszczególnych metodach, jak uczestnicy zmieniali (lub nie zmieniali) swoje odpowiedzi po zobaczeniu informacji zwrotnej oraz jak szybko (lub wolno) kształtował się konsensus. Sprawdzano także trzy zdefiniowane wcześniej efekty: efekt informacji zwrotnej (czy opinie innych wpływają na zmianę ocen), efekt iteracji (czy kolejne rundy – lub upływ czasu w przypadku RTD – prowadzą do coraz bardziej zbieżnych odpowiedzi) oraz efekt warunków początkowych (czy czas dołączenia do ankiety wpływa na odpowiedzi – np. czy osoby dołączające później zbliżają się bardziej do konsensusu niż wcześniejsze).

Kluczowe wnioski: konsensus starą i nową drogą

Wyniki badania dostarczyły bogatych informacji na temat skuteczności obu podejść. Oto najważniejsze obserwacje:

  • Obie metody prowadziły do bardzo podobnych wniosków: Spośród 92 analizowanych wyników około 73% uzyskało tę samą klasyfikację konsensusu w obu metodach. Innymi słowy, większość wyników została podobnie oceniona niezależnie od wybranego wariantu metody. Zdaniem badaczy oznacza to istotną przewagę RTD, które pozwala uzyskać porównywalne wyniki w mniej złożonym, a przez to mniej obciążającym czasowo uczestników i organizatorów procesie. 
  • Metoda RTD była szybsza i znacząco większa liczba uczestników ukończyła całą ankietę: Real-Time Delphi okazała się bardziej efektywna i praktyczna – 83% uczestników ukończyło całą ankietę, w porównaniu do 54% w grupie trój-rundowej. W MRD uczestnicy musieli powracać do ankiety kilkukrotnie, co zwiększało ryzyko rezygnacji. Swoboda powrotu do ankiety w dowolnym momencie zapewniona przez  RTD przełożyła się na wyższe zaangażowanie uczestników.
  • Uczestnicy RTD rzadziej zmieniali zdanie: Analiza „efektu informacji zwrotnej” (feedback effect) wykazała statystycznie istotną, choć bardzo małą różnicę w stopniu zmiany ocen po otrzymaniu informacji zwrotnej. Uczestnicy RTD korygowali swoje oceny w kierunku średniej grupy o 0,05 punktu na skali Likerta mniej niż w MRD.
  • Wczesne odpowiedzi wpływały na późniejsze: Zaobserwowano „efekt warunków początkowych” (initial condition effect) – osoby, które dołączyły później, częściej zbliżały swoje odpowiedzi do konsensusu. Pierwsze odpowiedzi tworzyły swoisty punkt odniesienia. Choć efekt był subtelny, pokazuje, że w systemach z informacją zwrotną „na żywo” początkowe dane mogą mieć wpływ na pozostałe.
  • Brak korzyści z przedłużania procesu: Najważniejszy wniosek: zmuszanie uczestników do przechodzenia przez trzy rundy nie przyniosło wyraźnie lepszych rezultatów niż podejście jednosesyjne, „na żywo”. Różnice między ocenami były wykrywalne statystycznie, ale praktycznie mało znaczące (i niekoniecznie związane z samą metodą). Tymczasem wydłużony proces wiązał się z większą liczbą rezygnacji, a także większą czaso- i kosztochłonnością.

Zastosowania metody delfickiej

Delphi – szczególnie w wersji RTD – znajduje zastosowanie w wielu dziedzinach. Metoda ta jest szeroko wykorzystywana w strategicznym prognozowaniu i foresighcie jako narzędzie wspierające usystematyzowaną eksplorację przyszłości. Umożliwia ocenę kluczowych trendów, sił napędzających zmiany i obszarów niepewności, które wpływają na długofalowy rozwój. Sprzyja ujawnianiu różnorodnych perspektyw i kwestionowaniu dominujących narracji, co pozwala na wielowymiarowe spojrzenie na scenariusze rozwoju. Metoda ta pomaga tworzyć jakościowe wizje przyszłości, uwzględniając zarówno główne przewidywania, jak i „wczesne sygnały”, które mogą wskazywać na nadchodzące przełomy. Wspiera również budowanie wspólnego zrozumienia i strategicznego porozumienia między interesariuszami, przygotowując ich na przyszłe wyzwania.

Współczesna metoda Delphi odgrywa również istotną rolę w zarządzaniu ryzykiem, wykraczając poza tradycyjne oceny zagrożeń. Umożliwia systematyczne skanowanie horyzontu i analizę słabych sygnałów, czyli wczesnych wskaźników potencjalnych ryzyk lub szans. Dodatkowo pozwala na zniuansowaną ocenę złożonych ryzyk poprzez zbieranie opinii ekspertów, uwzględniających niepewności oraz możliwe efekty kaskadowe i współzależności. Metoda ta jest również przydatna w analizie ryzyk związanych z nowymi technologiami i zmianami politycznymi, które wymagają wiedzy eksperckiej z różnych dziedzin, stając się narzędziem do zarządzania ryzykami o wysokiej złożoności.

Metoda Delphi w opiece zdrowotnej jest szczególnie użyteczna przy opracowywaniu i aktualizacji zestawów podstawowych wyników (COS) w badaniach klinicznych dotyczących danego schorzenia. Pozwala to pacjentom, klinicystom i badaczom współpracować w ustalaniu priorytetowych wyników, które mają kluczowe znaczenie dla wszystkich stron. Jest również powszechnie wykorzystywana do tworzenia wytycznych i protokołów praktyki klinicznej, wspierając zespoły ekspertów w osiąganiu konsensusu w kwestii najlepszych praktyk, szczególnie w przypadku braku wysokiej jakości danych. 

Delphi wspiera także definiowanie wskaźników jakości opieki zdrowotnej, umożliwiając porozumienie między pacjentami, świadczeniodawcami i menedżerami co do kluczowych, mierzalnych wskaźników jakości. Dodatkowo, jest skutecznym narzędziem w ustalaniu priorytetów badań zdrowotnych i zdrowia publicznego, angażując interesariuszy w określanie najważniejszych pytań badawczych i interwencji, co pozwala efektywnie zarządzać alokacją zasobów.

W polityce i administracji publicznej metoda Delphi wspiera tworzenie i ocenę polityk publicznych, umożliwiając identyfikację wyzwań, analizę dostępnych rozwiązań oraz ocenę ich skuteczności, wykonalności i możliwych skutków. Ułatwia także budowanie konsensusu wokół rekomendacji, sprzyjając lepszemu podejmowaniu decyzji.

Jest również cenna w planowaniu strategicznym i prognozowaniu – pomaga określić przyszłe warunki działania, wyznaczyć długoterminowe priorytety i ocenić alternatywne ścieżki rozwoju. Dzięki systematycznej analizie ryzyk związanych z politykami czy zewnętrznymi trendami (np. geopolitycznymi, technologicznymi) wspiera opracowanie strategii minimalizujących zagrożenia.

Delphi znajduje także zastosowanie w tworzeniu wytycznych i standardów regulacyjnych, ułatwiając konsensus między ekspertami i interesariuszami. Dodatkowo, skutecznie wspiera procesy partycypacyjne i konsultacje społeczne – zarówno wśród węższych grup, jak i szerokich paneli obywatelskich.

Metoda Delphi znajduje szerokie zastosowanie także w planowaniu urbanistycznym – od tworzenia wizji i norm urbanistycznych po priorytetyzację inwestycji. Umożliwia angażowanie ekspertów lub zespołów zadaniowych w opracowanie scenariuszy przyszłości dla miast i regionów, identyfikację długoterminowych priorytetów (gospodarka, środowisko, sprawiedliwość społeczna) oraz ocenę alternatywnych ścieżek rozwoju i budowanie wspólnego kierunku działań.

Wspiera także analizę i ocenę różnych wariantów polityk przestrzennych i infrastrukturalnych, z uwzględnieniem takich kryteriów jak wykonalność, koszt, wpływ i atrakcyjność. Ułatwia identyfikację i zarządzanie ryzykiem miejskim – np. w kontekście zmian klimatu, infrastruktury czy spójności społecznej – oraz opracowywanie strategii wzmacniania odporności miast.

Delphi jest przydatna przy ustalaniu priorytetów inwestycyjnych, pomagając uzyskać konsensus między ekspertami, decydentami i interesariuszami. Może być też dostosowana do angażowania mieszkańców w tworzenie wizji rozwoju i konsultacje planistyczne. Wreszcie, metoda ta służy budowaniu wspólnych standardów urbanistycznych i praktyk projektowych na podstawie konsensusu ekspertów.

Warto korzystać z nowoczesnych platform do realizacji badań delfickich

Dostępne platformy do realizacji badań delfickich nie są sobie równe. Jest wiele czynników, które składają się na efektywność narzędzia do realizacji tego rodzaju badań i są o wiele ważniejsze, niż w przypadku zwykłych badań ankietowych – od przyjaznego, intuicyjnego interfejsu, poprzez funkcje ułatwiające koncentrację na miejscach wymagających uwagi przy kolejnych odwiedzinach, po rozwiązania wspomagające zapoznawanie się z ocenami grupy, przegląd argumentacji i zmianę własnej oceny. Te i wiele innych elementów decydują o tym, czy uczestnicy faktycznie będą w stanie inspirować się ocenami innych, jak chętni będą do zmiany własnych ocen, a także jak mocno zaangażują się w cały proces. Niegdyś ograniczone możliwości technologiczne bardzo utrudniały sprostanie tym wszystkim wyzwaniom, a twórcy platform robili co mogli w ich ramach. Najnowocześniejsze platformy RTD to narzędzia zupełnie innej generacji, bazujące co prawda na tej samej idei, ale pod względem funkcjonalności, efektywności i przyjazności dla uczestników badań trudne  do porównania ze starszymi rozwiązaniami, z których wiele powstało ponad dekadę temu.

Dlatego aby w pełni wykorzystać potencjał RTD, warto wykorzystywać platformy nowej generacji, takie jak 4CF HalnyX, które wspierają wygodną eksplorację uzasadnień, wskazują miejsca wymagające uwagi, facylitują angażujący i konstruktywny dialog, a wszystko to w przyjaznej i intuicyjnej formie, kompatybilnej także z tak ważnymi współcześnie urządzeniami mobilnymi.

Cechy dobrych platform RTD:

  • Eksploracja uzasadnień – łatwa analiza „dlaczego”, filtrowanie, porównywanie argumentów
  • Inteligentne podpowiedzi – wskazanie miejsc spornych, nowych komentarzy, zmian konsensusu
  • Zintegrowana interakcja – dyskusje, oceny komentarzy, mapowanie argumentacji
  • Wizualizacja – czytelne wykresy, rozkłady opinii, zmiany ocen
  • Widoczna ewolucja myśli – śledzenie zmian ocen po przeczytaniu komentarzy
  • UX i dostępność – intuicyjny, nowoczesny interfejs, niska bariera wejścia
  • Bezpieczeństwo i autoryzacja – niezawodność danych, spójność

Sztuczna inteligencja a metoda delficka

Sztuczna inteligencja doskonale sprawdza się w analizie ogromnych zbiorów danych, wykrywaniu wzorców i generowaniu licznych scenariuszy decyzyjnych. Jednak to człowiek musi ocenić ich sensowność, wiarygodność i zgodność z wartościami oraz celami społecznymi. Dane same w sobie nie stanowią wiedzy – wymagają kontekstu, interpretacji i osadzenia w realiach etycznych i społecznych. AI nie posiada świadomości normatywnej, dlatego nie może samodzielnie podejmować decyzji o istotnym znaczeniu dla społeczeństwa – konieczna jest tu ludzka refleksja, różnorodność perspektyw i odpowiedzialne deliberacje.

Dodatkowym wyzwaniem są zagrożenia wynikające z nieprzejrzystości działania AI oraz ryzyko wzmacniania algorytmicznych uprzedzeń i baniek informacyjnych. Aby temu przeciwdziałać, potrzebny jest ustrukturyzowany dialog społeczny i świadome zarządzanie technologią, np. przy użyciu metod takich jak badania delfickie. Modele AI bazują na danych historycznych, przez co mogą nie rozpoznawać nowych wyzwań czy zmieniających się wartości. Dlatego to człowiek wyznacza kierunek i ponosi odpowiedzialność. Współpraca człowieka z AI powinna opierać się na wzajemnym uzupełnianiu: AI dostarcza analiz, a ludzie tworzą znaczenie, podejmują decyzje i nadają kierunek zmianom.

W biznesie AI może przewidywać trendy i optymalizować procesy, lecz to ludzie muszą przekształcić te dane w strategie zgodne z wartościami firmy i realiami rynku. W polityce publicznej i globalnej AI wspomaga modelowanie scenariuszy, ale tylko wspólna refleksja interesariuszy nad wartościami, sprawiedliwością i skutkami polityk może prowadzić do akceptowalnych rozwiązań. Podobnie w medycynie, gdzie AI wspiera diagnostykę, ale interpretacja wyników i decyzje terapeutyczne muszą być oparte na wiedzy klinicznej, etyce i dialogu z pacjentem. W tych kontekstach metoda Real-Time Delphi sprawdza się jako narzędzie ułatwiające uzyskanie konsensusu i integrację zróżnicowanych perspektyw.

Także w badaniach naukowych AI przyspiesza analizę danych i formułowanie hipotez, jednak ludzka rola pozostaje niezastąpiona przy ustalaniu priorytetów, ocenie ryzyk i interpretacji wyników w kontekście międzydyscyplinarnym. Real-Time Delphi umożliwia wspólne wypracowywanie kierunków badawczych, uwzględniając zarówno dane ilościowe, jak i jakościowe wnioski ekspertów. We wszystkich tych dziedzinach AI jest cennym narzędziem, ale to człowiek zapewnia etyczne zakorzenienie, zdolność do syntezy i zrozumienie szerszego kontekstu. Real-Time Delphi – szczególnie wspomagany nowoczesnymi platformami – pełni rolę pomostu między algorytmiczną analizą a świadomym, ludzkim działaniem.

Podsumowanie

Metoda Delphi, szczególnie w nowoczesnej odsłonie RTD, pozostaje jednym z najlepszych narzędzi do podejmowania decyzji w złożonych, niepewnych warunkach. Kluczem jest odpowiedni dobór ekspertów, dobrze skonstruowany kwestionariusz, zaangażowanie uczestników oraz narzędzia wspierające eksplorację uzasadnień i dynamiczną analizę. Platformy takie jak 4CF HalnyX 2.0 pokazują, że dobrze zaprojektowane środowisko może nie tylko usprawnić badanie, ale uczynić je przestrzenią do realnego, wspólnego uczenia się i uzyskiwania wartościowszych osądów w złożonych tematach.