W erze, gdy sztuczna inteligencja przestaje być domeną science fiction i wkracza w nasze codzienne życie, głosy ostrzegające przed jej potencjalnymi zagrożeniami nabierają nowego znaczenia. Wśród nich wyróżnia się opinia profesora Yoshuy Bengio, jednego z najbardziej szanowanych ekspertów w dziedzinie AI. Czy jego obawy to przesadny pesymizm, czy może przenikliwa analiza nadchodzących wyzwań? Przyjrzyjmy się bliżej argumentom, które mogą zmienić sposób, w jaki postrzegamy przyszłość ludzkości w świecie coraz bardziej zdominowanym przez maszyny.
Ogólna Sztuczna inteligencja: szansa czy zagrożenie? Profesor Yoshua Bengio ostrzega
Profesor Yoshua Bengio to światowej sławy naukowiec, jeden z pionierów w dziedzinie sztucznej inteligencji i głębokiego uczenia. Jest profesorem na Uniwersytecie Montrealskim, założycielem i dyrektorem naukowym Quebec Artificial Intelligence Institute (Mila), a także laureatem Nagrody Turinga w 2018 roku, często nazywanej „Noblem informatyki”, którą otrzymał wraz z Geoffreyem Hintonem i Yannem LeCunem.
Bengio, autor licznych publikacji naukowych i książek, swoimi badaniami nad sztucznymi sieciami neuronowymi i głębokim uczeniem przyczynił się do przełomowych odkryć w dziedzinie AI. Jednocześnie, jako aktywny działacz na rzecz odpowiedzialnego rozwoju AI, nieustannie zwraca uwagę na potencjalne zagrożenia i konieczność stworzenia międzynarodowych regulacji.
Ze względu na swoje osiągnięcia i wkład w rozwój sztucznej inteligencji, profesor Bengio jest powszechnie uznawany za jednego z „ojców chrzestnych AI”. Jego opinie i publikacje są szeroko komentowane i cytowane w środowisku naukowym i technologicznym. W swoim najnowszym tekście „Reasoning through arguments against taking AI safety seriously”, opublikowanym 9 lipca 2024 na osobistym blogu, Bengio podejmuje polemikę z argumentami podważającymi wagę zagrożeń związanych z rozwojem sztucznej inteligencji.
Świadomość a inteligencja – czy maszyny muszą być świadome, by być niebezpieczne?
Autor szczegółowo analizuje twierdzenia negujące możliwość osiągnięcia przez AI poziomu inteligencji porównywalnego z ludzką (AGI) lub przewyższającego ją (ASI). Z chirurgiczną precyzją obnaża błędne założenia, takie jak konieczność istnienia świadomości dla zaistnienia AGI/ASI. Bengio podkreśla, że świadomość nie jest warunkiem sine qua non wysokiego poziomu inteligencji maszyny, a jej brak nie wyklucza potencjalnych zagrożeń.
Profesor nie pozostawia również złudzeń zwolennikom akceleracjonizmu, którzy argumentują, że spowolnienie rozwoju AI oznaczałoby utratę ogromnych korzyści. Z właściwą sobie przenikliwością zwraca uwagę, że takie podejście pomija realne ryzyko utraty kontroli nad AI, co może prowadzić do katastrofalnych konsekwencji. Bengio przekonuje, że racjonalna ocena sytuacji wymaga holistycznego spojrzenia, uwzględniającego zarówno potencjalne korzyści, jak i zagrożenia związane z rozwojem AI.
Czy modele językowe to tylko „wróżenie z fusów”?
Co więcej, kanadyjski naukowiec poddaje ostrej krytyce argument, jakoby obecne modele językowe były jedynie systemami przewidującymi kolejne słowa, a nie prawdziwą inteligencją. Podkreśla, że takie uproszczenie ignoruje fakt, iż modele te posiadają zdolność do uczenia się i rozumienia języka na poziomie umożliwiającym im wykonywanie złożonych zadań. To z kolei rodzi fundamentalne pytanie: jak daleko jesteśmy od momentu, w którym AI osiągnie poziom inteligencji pozwalający jej na autonomiczne działanie i podejmowanie decyzji, potencjalnie zagrażających ludzkości?
Bengio konkluduje, że mimo braku pewności co do tempa rozwoju AI i dokładnej natury potencjalnych zagrożeń, istnieją wystarczające przesłanki, aby traktować kwestię bezpieczeństwa AI z najwyższą powagą. Postuluje podjęcie zdecydowanych działań mających na celu minimalizację ryzyka, takich jak intensyfikacja badań nad bezpieczeństwem AI, opracowanie skutecznych mechanizmów kontroli oraz stworzenie międzynarodowych regulacji dotyczących rozwoju i wykorzystania sztucznej inteligencji.
Głosy poparcia i sprzeciwu
Warto podkreślić, że Bengio nie jest osamotniony w swoich obawach. Wielu ekspertów podziela jego zdanie, wskazując na ryzyko utraty kontroli nad AI, która mogłaby wymknąć się spod ludzkiej kurateli i stać się egzystencjalnym zagrożeniem dla naszego gatunku. Wizje rodem z filmów science fiction, w których maszyny przejmują władzę nad światem, mogą okazać się bliższe rzeczywistości, niż skłonni jesteśmy przyznać.
Jednak nie wszyscy podzielają ten pesymistyczny scenariusz. Część środowiska naukowego uważa, że obawy Bengio są przesadzone, a AI to przede wszystkim potężne narzędzie, które może przynieść ludzkości niewyobrażalne korzyści. Wskazują na ogromny potencjał AI w medycynie, nauce, edukacji czy biznesie. Dzięki sztucznej inteligencji możemy szybciej diagnozować choroby, odkrywać nowe leki, personalizować nauczanie czy rewolucjonizować procesy produkcyjne. Jakoś nie widać robota z maczugą, który napadałby na stacje benzynowe ani roju dronów, atakującego elektronie jądrowe.
W obliczu tej fascynującej, ale i niepokojącej debaty, stajemy przed fundamentalnym pytaniem: Czy AGI to zwiastun naszego końca, czy może początek nowej, wspaniałej ery ludzkości? Odpowiedź na to pytanie wymyka się prostym kategoryzacjom. Jedno jest pewne – rozwój AI postępuje w zawrotnym tempie i nie możemy dłużej ignorować potencjalnych zagrożeń, na które zwraca uwagę profesor Bengio i jemu podobni.
Stoimy u progu epoki, która może zdefiniować przyszłość naszego gatunku. Potrzebna jest szeroka, interdyscyplinarna dyskusja z udziałem naukowców, polityków, przedsiębiorców i całego społeczeństwa. Tylko wspólnym wysiłkiem możemy wypracować odpowiednie regulacje i mechanizmy kontroli, które pozwolą nam bezpiecznie korzystać z dobrodziejstw AI, minimalizując jednocześnie ryzyko.
Od decyzji, które podejmiemy dziś, zależy, czy sztuczna inteligencja stanie się naszym najwierniejszym sojusznikiem, czy też największym zagrożeniem. Głos profesora Bengio odnotujmy skrzętnie – ignorowanie ostrzeżeń przed AGI, a zwłaszcza przejściem od AGI do ASI może okazać się największym błędem w historii ludzkości.