Sztuczna inteligencja i big data w foresighcie strategicznym

Żyjemy w stuleciu “napędzanym” przez dane. W ostatnich latach o sztucznej inteligencji, Big Data, analizach predykcyjnych (ang. Predictive Analytics), rozpoznawaniu wzorców (ang. Pattern Recognition) i Machine Learning słyszy i mówi się wszędzie. Nowe modele biznesowe wywierają rewolucyjny wpływ na procesy i infrastrukturę biznesową. Transformacja cyfrowa jest imperatywem dla każdej organizacji, a sztuczna inteligencja jej katalizatorem. 

Eksplozja Big Data i narzędzi analitycznych przyniosła nowe możliwości w dziedzinie foresightu strategicznego. Big Data i ulepszone możliwości analityczne pomagają poszerzyć wiedzę i skorygować błędy poznawcze (ang. Cognitive Biases). Niektóre techniki eksploracji danych i samouczenia się maszyn (ang. Machine Learning) można zastosować, aby odkrywać wczesne sygnały zmian i korygować błędne postrzeganie wzorców w przypadkach, gdy nimi nie są. 

Stosowana obecnie w korporacyjnym foresight eksploracja danych (data mining) głównie służy wyszukiwaniu, text scrapingowi i streszczaniu tekstu. Analityka Big Data znacząco ułatwia  bezpośrednią obserwację wczesnych sygnałów. Jednym z przykładów jest obserwacja nowych zachowań klientów na podstawie eksploracji danych sprzedażowych. W tym kontekście, skanowanie w poszukiwaniu słabych sygnałów może mieć więcej wspólnego z analizą prekursorską (precursor analysis), gdzie subkultury lub pierwsi użytkownicy (early adopters) mogą wskazywać na późniejsze zmiany w większych, wolniej poruszających się systemach. Poprzez odkrywanie mniejszych zmian w ograniczonych zbiorach danych można wnioskować lub dedukować bardziej znaczące zmiany.

Do eksploracji danych i automatyzacji wczesnych etapów korporacyjnego foresightu przydatne są strategie wyszukiwania. Eksperci są za to bardziej skuteczni w późniejszych etapach, takich jak interpretacja danych, podejmowanie i wdrażanie strategicznych decyzji. 

Rola sztucznej inteligencji w skanowaniu horyzontu

Skanowanie horyzontu przy użyciu AI polega na przeszukiwaniu i wydobywaniu ogromnych ilości danych ze stron internetowych i mediów społecznościowych, analizowaniu ich w czasie rzeczywistym i generowaniu informacji. Osiąga się to poprzez web scraping, metody statystyczne i opinie ekspertów. 

Technologie sztucznej inteligencji, takie jak Machine Learning, Deep Learning, Computer Vision, and Natural Language Processing (NLP), znacznie przewyższają tradycyjne techniki statystyczne i opinie ekspertów, osiągając zarówno wyższą dokładność (tj. moc predykcyjną), jak i szczegółowość (tj. głębokość analizy). Nowe technologie inżynierii oprogramowania, takie jak Big Data i Semantic Web Mining, oferują ogromne usprawnienia w zakresie gromadzenia, przechowywania i przetwarzania danych. Semantic Web Mining przewyższa tradycyjną eksplorację sieci dzięki podejściu opartemu na ontologii, które oferuje większą wydajność podczas tworzenia (a także skalowania) struktury i zakresu eksploracji zawartości sieci. Big Data, w szczególności Event Stream Processing oraz architektury Kappa i Lambda, oferują znaczące ulepszenia w stosunku do tradycyjnych technik przetwarzania danych, tj. mniejsze opóźnienia, wysoką odporność na błędy, analizę w czasie rzeczywistym, wysoką skalowalność.

Strategiczny foresight potraktowany kompleksowo wymaga identyfikacji i monitorowania wartości odstających, potencjalnych wstrząsów, słabych sygnałów, dzikich kart, itp. W tym obszarze głębokie uczenie (ang. Deep Learning) jest jedną z możliwych form monitoringu i analizy. Głębokie sieci neuronowe (ang. Deep Neural Networks) i algorytmy zaawansowanej optymalizacji (ang. Advanced Optimization) to dobre sposoby badania rozkładów odstających, nieregularnych wzorców i nieciągłości.

Znaczna część wysiłków w skanowaniu horyzontów wiąże się z wydobywaniem danych z tekstu (ang. Text Mining), analizą sentymentu, wykrywaniem subiektywności, identyfikacją opinii, streszczaniem tekstu, kontekstowym modelowaniem tematu (ang. Contextual Topic Modeling), kodowaniem otwartym (ang. Open-ended Coding), itp. Przydatne jest też głębokie NLP, szczególnie te oparte na architekturach: Recurrent Neural Network (RNN), Gated Recurrent Unit (GRU), Long Short-Term Memory (LSTM), Encoder-Decoder oraz Sequence-to-Sequence.

Połączenie uczenia nienadzorowanego (ang. Unsupervised Learning) i uczenia przez wzmocnienie (ang. Reinforcement Learning) oferują skalowalny sposób na opracowanie wielu wersji przyszłości. Co ważniejsze, Reinforcement Learning może umożliwić opracowanie optymalnych planów działania dla każdej wersji przyszłości w sposób skalowalny i obiektywny. 

Eksploracja wzorców z audio (mowy), obrazów i filmów może być skutecznie prowadzona tylko poprzez percepcję komputerową (Audition & Vision). Obecnie nie ma innej alternatywy opłacalnego rozwiązania w tej chwili.

AI oferuje mechanizm automatyzacji procesu skanowania horyzontu, zapewniając większą spójność, większą powtarzalność, niskie koszty długoterminowe, mniej błędów i krótszy czas cyklu wdrażania.

Maciej Jagaciak z 4CF: “Zdając się na wsparcie maszyn w analizach strategicznych analitycy i decydenci mają skłonność do traktowania ich wskazań jako prawd absolutnych. Przestrzegam przed takim podejściem. Choć wynikające ze statystyki wnioski wyciągnięte na podstawie ogromnego zbioru danych mogą wielokrotnie okazać się bardziej prawdziwe, niż opinie ekspertów, to – jak w każdym badaniu statystycznym – kluczowy dla wyniku jest dobór próby. Temat przygotowywania odpowiednich zbiorów danych dla uczenia algorytmów sztucznej inteligencji jest obecnie bardzo ważny w środowisku badaczy, zwłaszcza gdy coraz częściej w doniesieniach medialnych można natknąć się na pomysły wprowadzenia systemów SI do systemów sprawiedliwości, medycznych, czy ubezpieczeniowych. Dla przykładu najnowsza iteracja systemu OpenAi – GTP3 – choć doskonale sprawdza się w generowaniu tekstów (przeszła nawet test Turinga ponieważ oszukała użytkowników forum reddit co do swojej tożsamości), jednocześnie umacnia negatywne stereotypy przez powtarzanie m.in. rasistowskich żartów.”

Uczenie nienadzorowane (ang. Unsupervised Learning) wykrywa sygnały i szumy 

Podczas gdy eksploracja tekstu i metody NLP będą nadal podstawowym elementem opartych na AI narzędzi foresight, metody samouczenia się maszyn oferują niewykorzystany potencjał do rozpoznawania wzorców. Eksperci foresight zyskają solidne wsparcie naukowe dla swoich wniosków dzięki technikom klasyfikacji i grupowania, które wykorzystują te metody. Poprzez kwantyfikację potencjalnie interesujących obserwacji lub poszukiwanie nowych wzorców w istniejących zbiorach danych, możemy znaleźć słabe sygnały, które zapowiadają nadchodzącą zmianę. Innymi słowy, uczenie maszynowe wypełnia lukę pomiędzy eksploracją danych tekstowych a tradycyjnymi metodami statystycznymi.

Rozważmy na przykład zmianę zachowania konsumentów. Możemy mieć przeczucie, że dwie grupy klientów, które poza tym mają ze sobą niewiele wspólnego, nagle wykazują podobne zachowania lub postawy. Może to wskazywać na zmianę wartości leżących u podstaw tych dwóch grup i wpływać na to, jak powinniśmy postrzegać interesariuszy w naszych alternatywnych przyszłościach. Zarówno ustrukturyzowane, jak i nieustrukturyzowane dane mogą nam pomóc w dostrzeżeniu interesujących sygnałów. Wykorzystując eksplorację tekstu do skanowania grup docelowych w mediach społecznościowych, możemy znaleźć częstotliwości słów, kombinacje i nastroje istotnych wzmianek. Jeśli mamy dostęp do danych demograficznych, geolokalizacji lub innych metadanych, możemy być w stanie znaleźć przybliżone korelacje zawierające słaby sygnał nowego, pojawiającego się zjawiska. Dostępność danych, których praktyczne wykorzystanie wymagało wcześniej zbyt wiele pracy, umożliwi nam dokładniejsze poszukiwanie wzorców, które mogą zapoczątkować nowy trend, poprzez połączenie różnych istniejących baz danych lub czasami danych ankietowych. 

Techniki samouczenia się maszyn, takie jak optymalizacja oparta na odległościach (ang. Distance-Based Optimization) lub modele klastrowe, pozwalają nam spojrzeć na sygnały w wielowymiarowych przestrzeniach wektorowych, które są zbyt złożone dla ludzkiego umysłu, aby dostrzegać je intuicyjnie. Dlatego też, zamiast używać ludzkich heurystyk we wnioskowaniu zależności (ang. human heuristics to infer relationships), możemy postrzegać sygnały kontekstowo, używając modeli statystycznych. Oferuje to naukowe wsparcie dla zaobserwowanego wzorca oraz pomaga nam uniknąć pokusy wnioskowania o wzorcach tam, gdzie ich nie ma, zjawiska zwanego apofenią. 

Metody nadzorowane (ang. Supervised Methods) i analityka predykcyjna (ang. Predictive Analytics)

Często, gdy myślimy o AI, myślimy o analityce predykcyjnej. „Przewidywanie” jest często kontrowersyjnym słowem wśród ekspertów foresight, ponieważ sugeruje, że przyszłość można przewidzieć. Znaczenie słowa „przewidywanie” różni się od sposobu, w jaki słowo to jest powszechnie używane w foresight. W samouczeniu się maszyn analityka predykcyjna jest najczęściej rozumiana jako model klasyfikacyjny, który może przewidzieć pewne wyniki dla zmiennej docelowej w oparciu o korelacje, które znajduje w etykietowanych danych treningowych. 

Analityka predykcyjna nie odkryje również „czarnych łabędzi”, ponieważ modele te szukają wzorców w danych z przeszłości. Ważne jest również, aby pamiętać, że korelacja nie zawsze oznacza związek przyczynowy. Analityka predykcyjna informuje nas, co prawdopodobnie się wydarzy, ale niekoniecznie dlaczego. Modele predykcyjne okazały się skuteczne w identyfikowaniu nowych klientów, ofiar przestępstw, pacjentów z określonymi zagrożeniami zdrowotnymi i innych przypadkach, w których musimy dokonać indywidualnych prognoz dla każdej obserwacji.

Odkąd użyteczne spostrzeżenia na poziomie mikro są wspólnym celem przy stosowaniu modeli predykcyjnych, mogą one być uznane za mniej istotne dla futurystów poszukujących zmian w większych systemach. Jednakże, analityka predykcyjna może mieć pewne bezpośrednie zastosowanie w rozpoznawaniu wzorców. Drzewa decyzyjne na przykład dostarczają informacyjnych wizualizacji, które mogą budować głębokie zrozumienie ukrytych połączeń i intuicyjnie ilustrują połączenia dla większej grupy. W tym zastosowaniu analityki predykcyjnej, bierzemy pod uwagę nie tylko indywidualne wyniki, ale także powiązania pomiędzy każdym punktem danych. Drzewa decyzyjne w tym kontekście mogą być stosowane jako alternatywa dla innych podejść wielowariantowych. I podczas gdy parametryczne podejścia wielowymiarowe, które są używane do znalezienia tendencji centralnych, zazwyczaj wymagają numerycznych danych przedziałowych, drzewa decyzyjne mogą obsługiwać dane kategoryczne.

Sztuczne sieci neuronowe (ang. Artificial Neural Networks, ANNs) i nowe rodzaje danych

Najbardziej wyrafinowaną formą modeli predykcyjnych są sieci neuronowe, w szczególności to, co znamy jako głębokie uczenie (ang. Deep Learning). ANN naśladują wysoce złożoną nieliniową strukturę neuronów w ludzkim mózgu. Warstwa wejściowa, np. obraz, dostarcza informacji, które wyzwalają odpalanie “neuronów” połączonych w różnych ukrytych warstwach, aż do momentu, gdy dane wyjściowe mniej lub bardziej przypominają oryginał. 

ANN są rodzajem analityki predykcyjnej zdolnej do obsługi danych innego typu i poziomu rozdzielczości niż wyżej wymienione metody. Sztuczne sieci neuronowe mogą obsługiwać dane w różnych formatach. ANN mogą analizować elementy, które niekoniecznie mają bezpośrednie znaczenie dla futurystów, takie jak barwy i nasycenie obrazu. Dotyczy to zwłaszcza sieci neuronowych z kilkoma warstwami ukrytymi, zwanych również głębokimi sieciami neuronowymi. Ponieważ ANN przewidują na podstawie atrybutów, a nie logicznego rozumowania, czasami popełniają nonsensowne błędy. Rozumowanie „synaptyczne” wewnątrz sieci jest często tak złożone, że nie jesteśmy w stanie określić powodu, dla którego sieć wykonuje określone połączenie. 

Ponieważ nie znamy wewnętrznych połączeń między warstwami wejściową i wyjściową, metody te nazwano algorytmami “czarnej skrzynki”. Ponieważ futuryści mają większą potrzebę zrozumienia rozumowania kryjącego się za połączeniami, a nie tylko przewidywania poszczególnych wyników, wartość sieci neuronowych wykorzystujących głębokie uczenie ma dziś dla foresight ograniczone znaczenie. W miarę jak futuryści będą mieli dostęp do coraz większej liczby nietradycyjnych danych, głębokie uczenie może być przydatne do przetwarzania bardziej zróżnicowanych zbiorów danych, takich jak obrazy czy dane audio, w celu poszukiwania trendów i słabych sygnałów.

sztuczna inteligencja w foesighcie

Photo by ev on Unsplash

Stronniczość maszyn i etyczna sztuczna inteligencja

Wykorzystanie analizy danych do ograniczenia ludzkich błędów poznawczych nie jest możliwe, jeśli dane, na których trenuje się maszyny, przejęły te błędy. W rzeczywistości, bez etycznych celów i odpowiedniej inżynierii, ryzykujemy raczej wzmocnienie niż wyeliminowanie błędów poznawczych.

Znane są przykłady odmówienia udzielenia kredytu hipotecznego “nieuprzywilejowanym” wnioskodawcom czy nauczycieli, którzy zostali ukarani za wyniki szkół w przeszłości. Niesprawiedliwość osadzona w danych historycznych nie tylko pogłębia się, ale również tworzy zasłonę fałszywego, napędzanego przez maszyny obiektywizmu. 

Uprzedzenia społeczne zostały odkryte w NLP, gdzie algorytmy głębokiego uczenia są szkolone na danych, które odzwierciedlają stereotypy kulturowe. Amazon musiał pozbyć się narzędzia do rekrutacji opartego na sztucznej inteligencji po tym, jak przeszkolono je na danych dotyczących zasobów ludzkich, które wykazały, że kobiety mają mniejsze szanse na zdobycie technicznych stanowisk w firmie. Jednak twierdzenie, że metody algorytmiczne są z natury stronnicze, zakłada, że to same maszyny, a nie ludzie, którzy je szkolą, są źródłem tej stronniczości, a tak z pewnością nie jest. 

Podejmuje się już szereg wysiłków na rzecz usuwania uprzedzeń, a komputery są szkolone w zakresie rozróżniania niezamierzonych skojarzeń słów. Usunięcie uprzedzeń z algorytmów może być tak proste, jak usunięcie kilku zmiennych wejściowych, lub tak złożone, jak neutralizacja reprezentacji wektorowej słów (word embedding). 

Duże firmy technologiczne takie jak Facebook czy IBM rozwijają inicjatywy mające na celu zapobieganie uprzedzeniom pochodzącym od maszyn, które pomagają analitykom dowiedzieć się, jak model reaguje na pojedynczą cechę, przezwyciężając problem z algorytmami czarnej skrzynki, o którym była mowa wcześniej. Google proaktywnie stosuje wyrafinowane metody, aby wyniki wyszukiwania nie tylko dostarczały wąsko trafnych zapytań, ale także starały się spełniać standardy etyczne. 

Jednak wartościowe może być również badanie wyników stronniczego działania algorytmów w celach diagnostycznych. Modele uczenia maszynowego mogą pomóc organizacjom nauczyć się głęboko zakorzenionych, czasem nieświadomych uprzedzeń, które wpływają na kulturę organizacyjną. Przed porzuceniem swojego systemu rekrutacji AI, menedżerowie zatrudniający w firmie Amazon byli w stanie dowiedzieć się o ukrytych uprzedzeniach i wpływach językowych, które dyskryminowały kandydatki w ich procesach rekrutacji. Dowiedzieli się, że życiorysy, które odniosły sukces, często zawierały słowa takie jak „wykonał” i „zdobył”, które emanowały pewnością siebie. Słowa te były częściej używane przez kandydatów płci męskiej. 

Kiedy dane szkoleniowe są oczyszczone z nieodłącznych uprzedzeń, są one z natury bardziej przejrzyste i wiarygodne w swoich przewidywaniach niż ludzie. Projekty samouczenia się maszyn, które mogą skutkować stronniczością algorytmów, w większości przypadków różnią się od modeli, rodzajów danych i celów, z jakimi większość specjalistów foresight zetknie się w swoich działaniach analitycznych. Dlatego też, podczas gdy futuryści kontrolują nie tylko źródła danych, które mają być przetwarzane, ale także interpretację wyników, prawdopodobieństwo wystąpienia błędu społecznego, który mógłby wypaczyć analizę, jest niemal zerowe.

Kacper Nosarzewski, 4CF: “Choć nie istnieją realne dane na temat przyszłości, to same dane na temat obecnych prognoz są już wartościowym wkładem do analizy. Co więcej, bazy danych i korpusy rozwijane konkretnie pod kątem zastosowań foresightowych można cały czas doskonalić, zarówno co do objętości, jak i co do jakości.”

Dostęp do danych i ochrona prywatności

Foresight oparty o dane może być dobry, tylko jeśli mamy dostęp do dobrych danych. Jak mówi powiedzenie „śmieci wchodzą, śmieci wychodzą”. Podczas gdy każdego dnia tworzonych jest ponad 2,5 kwintyliona bajtów danych, większość z nich jest nadal niedostępna dla większości ludzi. Co więcej, rozbieżność informacji pomiędzy tymi, którzy posiadają dane, a tymi, którzy ich nie posiadają, jest coraz większa. Jednym z przykładów są dane generowane przez podłączone urządzenia. Niegdyś nieme gadżety i urządzenia stają się inteligentniejsze, ułatwiają nam życie i pomagają dokonywać oszczędnych i efektywnych wyborów. Całe łańcuchy dostaw wykorzystują te dane do monitorowania naszych domowych nawyków i zachowań. Takie dane mogą być skarbnicą wiedzy dla ekspertów foresight, którzy chcą dowiedzieć się o zmianach w środowisku, w którym żyją ludzie. Jednak prawdopodobnie w najbliższym czasie niewiele z tych danych stanie się publicznie dostępnych. Jednym z powodów jest oczywiście ochrona prywatności użytkowników.

Ale nawet po anonimizacji, firmy, które wykorzystują te dane do maksymalizacji zysku dla siebie, mają niewiele zachęt do dzielenia się nimi. 

Warto wspomnieć, że nasze badania z natury nie są zainteresowane informacjami umożliwiającymi identyfikację osób. Dzieje się tak dlatego, że naszym celem jest mierzenie zmian, a nie przedstawianie osobom indywidualnym ofert produktowych. 

Podsumowanie

Chociaż sztuczna inteligencja zapewnia bardziej wszechstronne dane i możliwości analityczne, nie jest prawdopodobne, aby zastąpiła ludzką zdolność do rozważania różnych przyszłych wyników. Zamiast tego zapewni nam możliwość oceny bieżącej sytuacji z ilościową miarą precyzji i dokładności, której nie bylibyśmy w stanie osiągnąć, stosując wyłącznie ludzkie podejście.

Eksploracja danych pomaga nam wykonać brudną robotę polegającą na zrozumieniu zależności tam, gdzie one istnieją, ale to do nas należy znalezienie implikacji i budowanie narracji na temat tych zależności.

Niniejszy artykuł powstał w oparciu o dwie publikacje: “Mine the Gap: Augmenting Foresight Methodologies with Data Analytics”, autorstwa Anne Boysen z University of Houston, opublikowanej  w World Futures Review w 2020 r. oraz “Strategic Foresight Development through AI-based Horizon Scanning”, autorstwa Tamal Chowdhury, Ph.D., opublikowanej na LinkedIn 22 stycznia 2019 oraz wzbogacony przez opinie Macieja Jagaciaka i Kacpra Nosarzewskiego, ekspertów 4CF.