Poniżej pragnę przybliżyć dzisiejszy stan grafiki komputerowej. Zamierzam też  odpowiedzieć na pytanie: jak obecne kierunki badań naukowych i trendy technologiczne kształtują przyszłość tej dziedziny. Grafika czasu rzeczywistego – tradycyjnie kojarzona jedynie z grami – zaczyna dominować również filmy, architekturę, a nawet motoryzację. Użycie metod sztucznej inteligencji demokratyzuje tworzenie grafiki, wirtualnych światów, awatarów użytkownika czy wideokonferencje. Grafika komputerowa pozwala każdemu poczuć się jak dyrektor artystyczny i błyskawicznie wręcz tworzyć sztukę. W związku z trendami związanymi z wirtualną rzeczywistością, metawersum czy web3 również w dziedzinie grafiki komputerowej pojawiają się nowe wyzwania etyczno-legislacyjne, z którymi będzie musiało poradzić sobie w najbliższej przyszłości dzisiejsze społeczeństwo.  

Historia gier komputerowych to w pewnym sensie historia grafiki komputerowej. Nie przypadkiem gry komputerowe nazywane są po angielsku video games, czyli tłumacząc dosłownie “gry wideo”. Wytwarzanie i wyświetlanie obrazu jest nieodłączną częścią interaktywnej rozrywki.

Pionierzy informatyki i matematycy, tacy jak Alan Turing, John von Neumann i Stanisław Ulam, szybko odkryli, że komputery mogą nie tylko w mig rozwiązywać równania różniczkowe i łamać szyfry, ale też wizualizować dane naukowe w formie, którą jest dużo łatwiej zrozumieć lub zaprezentować.

Początkowo grafika była wizualizowana na prymitywnych drukarkach. Dość szybko naukowcy zauważyli jednak, że mogą użyć sprzętu komputerowego, aby wyświetlać obraz na oscyloskopach i kineskopach. Pamiętajmy, że wtedy sprzęt komputerowy zajmował całe piętra budynków! Wtedy też naukowcy zaczęli tworzyć także dla zabawy pierwsze gry komputerowe. 

Od czasu gdy pierwsza grafika komputerowa służyła do prezentacji danych naukowych, a gry komputerowe były tworzone dla zabawy przez kreatywnych (i być może znudzonych?) pracowników laboratoriów, minęło wiele czasu. Dzisiaj szacuje się, że w 2021 sam tylko przemysł produkcji gier komputerowych był wart 198 miliardów dolarów. A przecież grafika komputerowa ma znacznie szersze zastosowanie.

Rodzaje grafiki komputerowej

W informatyce kluczowym kryterium rozróżniającym pomiędzy rodzajami grafiki jest interaktywność i tempo wyświetlania pojedynczych klatek obrazu. Grafika gier komputerowych jest utożsamiana obecnie z grafiką czasu rzeczywistego. Nieformalnie przyjmuje się jako minimum ok. 12 klatek na sekundę. Wciąż tak są wyświetlane klasyczne, ręcznie rysowane, budżetowe filmy animowane. O ile ludzkie oko jest w stanie zobaczyć różnicę pomiędzy obrazem wyświetlanym z częstotliwością nawet pomiędzy 120 a powyżej 140 klatek na sekundę, to 12 herców jest umowną granicą, od której możemy mówić o iluzji płynnego ruchu.

W grach komputerowych przyjmuje się, że absolutne minimum dla interaktywnego doświadczenia to 30 klatek na sekundę. 30 klatek na sekundę to zaledwie 33 milisekund obliczeń – niewielki budżet, który przez kilkadziesiąt lat bardzo ograniczał jakość wyświetlanego obrazu. Bez zagwarantowania tego minimum niektórzy właściciele platform, tacy jak Sony PlayStation lub Microsoft Xbox, teoretycznie mogą nie przyjąć gry do sklepu!

Grafika wyświetlana z częstotliwością do raz na kilka sekund jest czasami określana jako “interaktywna”. Jest ona przydatna do naukowych wizualizacji i interaktywnej eksploracji danych.  Natomiast grafikę, której obliczenie zajmuje powyżej 10 sekund, a czasami do kilku dni!, określa się jako offline.

Historycznie różnica pomiędzy grafiką offline a czasu rzeczywistego była gigantyczna. Wystarczy porównać film z 1995 roku – Toy Story i grę komputerową z 1996 roku Tomb Raider.

Na szczęście grafika i sprzęt komputerowy nie stoją w miejscu. Dla kontrastu gra z tej samej serii w 2018 roku i wyświetlająca obraz w czasie rzeczywistym wyglądała lepiej niż Toy Story, którego obliczenia obrazu trwały wiele tygodni.

Wraz z popularyzacją od 2010 roku Physically Based Rendering  – obliczania obrazu zainspirowanego modelowaniem procesów fizycznych i techniki raytracingu – śledzenia promieni światła w ciągu ostatnich czterech lat, granice pomiędzy technologią grafiki gier komputerowych i filmową będą się coraz bardziej zacierać. Różnica już staje się głównie ilościowa, a nie jakościowa. Kolejnym kamieniem milowym jest technologia path tracing – fizycznego śledzenia na raz wielu interakcji światła, takich jak odbicia, rozproszenie, przenikanie światła przez materiały fizyczne, którą filmowcy już stosują, a która wkrótce będzie dostępna też dla gier komputerowych.

Nie musimy jednak czekać kolejnych 5-10 lat na upowszechnienie się tej technologii poza laboratoriami badawczymi. Technologia grafiki gier komputerowych już zaczyna być używana poza przemysłem interaktywnej rozrywki.

Grafika komputerowa w architekturze i motoryzacji

Wyświetlanie wysokiej jakości obrazu w czasie rzeczywistym zaczyna dominować wizualizacje architektoniczne. Unreal Engine i Unity 3D, tak zwane “silniki”, czyli pakiety różnych technologii: od języków skryptowych, przez narzędzia, po technologie graficzne, umożliwiające tworzenie gier, są z powodzeniem stosowane już dzisiaj przez architektów, zwłaszcza wnętrz.

Dostępne w “silnikach” realistyczne efekty oświetlenia, katalogi fizycznych obiektów, nawet żarówek, fizycznie modelujące jasność, temperaturę barw, jak i rozproszenie światła, , a także natychmiastowe obliczenia i prezentacja obrazu zrewolucjonizowały to pole. Architekci mogą zaprezentować klientom nie tylko wygląd pomieszczenia w trzech wymiarach i z każdego kąta, ale też jego zmiany wraz z porą dnia czy roku. Dzięki zaawansowanym wizualizacjom projektant może dobrać właściwe oświetlenie, a klient może je zobaczyć używając hełmu wirtualnej rzeczywistości, również z własnego domu. Błyskawiczna produktywność grafiki czasu rzeczywistego sprawia, że wszelkie sugestie czy poprawki mogą być naniesione przez architekta natychmiastowo, podczas konsultacji z klientem. Architektura to jedno z zastosowań, ale i inne branże projektowe zaczynają używać “silników” gier komputerowych do wizualizacji i współpracy z klientami, chociażby branża motoryzacyjna. Nie jest to tylko Tesla – firma znana z innowacji i nowoczesnego, nietypowego podejścia do motoryzacji, która traktuje samochód jak sprzętową platformę do stale zmieniającego się oprogramowania i zatrudnia dziesiątki ekspertów od grafiki. Są to również bardziej tradycyjne firmy, kojarzone z technologicznym konserwatyzmem, które korzystają z gotowych rozwiązań. Przykładem jest tu współpraca Mercedes Benz i Volvo z producentem kart graficznych, Nvidią. Nvidia tworzy platformę “Omniverse” która łączy fotorealistyczną grafikę, wirtualną rzeczywistość dla projektantów, obliczanie grafiki w “chmurze” z symulacjami fizycznymi. Klient nie potrzebuje zatem najnowszego sprzętu, może korzystać z mocy obliczeniowej serwerów.

Mercedes Benz i Volvo korzystają z tej technologii do symulacji zachowania samochodu na drodze, usprawniania linii montażowych i maszyn produkcyjnych, a także tworzenia fotorealistycznych danych do trenowania sieci neuronowych dla autonomicznych samochodów. Zdobycie danych z czujników i kamer zamontowanych na samochodzie z okoliczności tuż przed wypadkiem jest bardzo trudne i niebezpieczne, podczas gdy symulacja komputerowa może przetestować wszelkie możliwe scenariusze. Następnie dane te mogą być wykorzystane do usprawnienia “inteligentnych” systemów, wczesnego wykrycia niebezpieczeństwa i zapobieganiu wypadkom. Autonomiczne samochody potrzebują ogromnych ilości danych do treningu sieci neuronowych, a błyskawiczna grafika czasu rzeczywistego i technologia gier komputerowych może je dostarczyć niskim kosztem, a także umożliwić ekspertom interaktywną analizę różnych scenariuszy na drodze.

Wirtualne produkcje filmowe z użyciem grafiki komputerowej

Użycie grafiki w produkcjach filmowych jest powszechne od przynajmniej 30 lat. Stosowano ją przy produkcji legendarnych efektów z Terminatora 2, w poruszających filmach animowanych Pixara, czy używa się jej we współczesnych “blockbusterach”, w których całe, kilkuminutowe sekwencje scen walki, łącznie z modelami aktorów, są tworzone na komputerach. Ostatnie kilka lat przyniosło ogromną zmianę i innowację w grafice filmowej przy użyciu technologii… gier komputerowych. Narysowanie kilku klatek filmowych stosując tradycyjną grafikę do produkcji filmowych zajmuje minuty, godziny, czy nawet dni. Możliwość tworzenia i wyświetlania wirtualnych światów w czasie rzeczywistym i w jakości prawie dorównującej filmom otworzyła nowe, rewolucyjne podejście do kompozycji efektów i pracy reżyserów. 

Tradycyjnie reżyser, który chciał umieścić scenę w konkretnej lokacji filmowej, musiał polegać na scenografach, którzy ją zbudują. Zajmowało to dużo czasu, zwiększało koszta produkcji, a czasami było wręcz fizycznie niemożliwe, szczególnie w przypadku filmów fantastycznych lub fantastyki naukowej. Grafika komputerowa umożliwiła tzw. “green screening”, czyli filmowanie aktorów na zielonym tle. Następnie graficy pracowicie usuwają tło i zastępują je scenami wygenerowanymi komputerowo. Umożliwiło to znacznie większą kreatywność, np. umożliwiając wprowadzanie zmian długo po nakręceniu sceny, bez potrzeby powtarzania ujęć, ale też było czasochłonnym procesem. Czasami elementy zielonego koloru i odbitego światła psuły ujęcia i ograniczały możliwości ekspresji aktorów i filmografów, którzy musieli sobie wyobrażać gdzie będą się znajdować dodane cyfrowo elementy sceny. Grafika czasu rzeczywistego i “silniki” takie jak Unreal Engine umożliwiły wyświetlanie tych elementów… na ogromnych ekranach i w czasie rzeczywistym. Scena filmowa przyszłości to pomieszczenie z ogromnymi ekranami wyświetlającymi tło i minimalną ilością obiektów fizycznych, z którymi aktorzy wchodzą w bezpośrednią interakcję.

ILM i Epic Games używały tej technologii w większości ujęć swoich ostatnich produkcji: “Han Solo” i “Mandalorianin”.

W ten sposób aktorzy mogą czuć się jakby znajdowali się nawet na innej planecie. Filmograf i reżyser od razu widzą jak dane ujęcie się sprawdzi. Nowoczesne panele i ekrany z szerokim zakresem dynamiki jasności światła umożliwiają oświetlenie aktorów przez sam panel i uzyskanie dużo bardziej realistycznych, spójnych scenerii. NIe potrzebne są drogie i trudne w obsłudze światła scenowe.

Alternatywnym rozwiązaniem, gdy aktorzy grają np. animowane postacie lub zwierzęta jak w “Planecie Małp”, albo gdy dana produkcja nie ma wystarczającego budżetu na kostiumy, jest technologia motion capture. Tradycyjnie motion capture jest powolnym procesem. Aktorzy zakładają specjalne kostiumy, filmowani są w specjalnych pomieszczeniach przez dziesiątki kamer. Następnie animatorzy przenoszą ruchy aktorów na animowane postacie. Każdy ma inne proporcje ciała i nawet przy niewielkiej różnicy, ręczne poprawki są konieczne, by dana animacja wyglądała naturalnie. Pełne rezultaty gry aktorskiej na ekranie są dostępne czasami dopiero kilka dni po zdjęciach. Użycie technologii grafiki z gier komputerowych umożliwia reżyserowi podgląd animowanej postaci na ekranie w czasie rzeczywistym.

Podczas gdy aktor odgrywa scenę, zaawansowane algorytmy przeliczają daną animację, przenoszą ją na wirtualną postać, a reżyser widzi to na ekranie, czasami podłączonym i przymocowanym bezpośrednio do kamery, w czasie rzeczywistym. Jest w stanie błyskawicznie sugerować zmiany i poprawki.

To już dzisiejsza technologia używana w praktyce zarówno przez filmowców, jak i animatorów gier komputerowych. Martin Scorsese pokazał w “Irlandczyku”, w którym kierunku będzie ona się dalej rozwijać. W tym klasycznym gangsterskim kinie, o ironio wyprodukowanym przez Netflixa pomimo filmowego konserwatyzmu reżysera, oglądamy historię, która rozgrywa się na przestrzeni wielu dekad. Robert De Niro, Joe Pesci, i Al Pacino grają zarówno dojrzałych mężczyzn, jak i siebie w młodości. “Postarzanie” aktorów jest relatywnie proste przy użyciu makijażu. Ale realistyczne odmłodzenie jest praktycznie niemożliwe. Do tego Martin Scorsese twardo odmawia korzystania z kostiumów motion capture. Twierdzi, że ograniczają one ekspresję aktorów i powodują nienaturalną mimikę.

Całość procesu “odmładzania” była tworzona komputerowo, przez kombinację automatycznych algorytmów, najnowszych osiągnięć grafiki, i ręcznej pracy, poprawek animatorów. Trzy lata temu był to powolny proces wymagający doświadczenia i umiejętności grafików. Postęp prac badawczych nad trójwymiarową fotografią sugeruje, że wkrótce będzie to dostępne dla każdego, w czasie rzeczywistym, i być może nawet na naszych smartfonach.

Być może w przyszłości aktorzy w ogóle nie będą musieli być na planie filmowym. Może wystarczy tylko użyczyć wizerunek, a technologie tzw. DeepFakes – podmieniania wirtualnych aktorów – umożliwią tańszą produkcję, albo umieszczanie postaci aktorów, którzy są na emeryturze lub już zmarli. Nie wiem jak wyglądałoby to od strony prawnej i etycznej, ale widzieliśmy hologram zmarłego rapera Tupaca na festiwalu “Coachella”. Być może zobaczymy więc kiedyś nowe filmy z Jamesem Deanem czy Marlin Monroe. Z jednej strony idea ta może budzić niepokój, ale może też zostać wykorzystana kreatywnie. Cyfrowy klon aktorki Sean Young został umieszony w “Blade Runner 2049” jako klon postaci granej przez nią w oryginalnym “Łowcy Androidów” z 1982 roku i również budził niepokój bohaterów filmu.

Zastosowaniem tej technologii może być również… komunikacja i wideokonferencje. Firma Nvidia zaprezentowała technologię, która używa sieci neuronowych do rekonstrukcji obrazu przy użyciu i przesyłaniu bardzo małej ilości danych.

Technologia ta umożliwia nie tylko wyświetlanie lepszej jakości obrazu przy słabym połączeniu internetowym, ale również podmianę oświetlenia, tła, a nawet ubrań lub makijażu. Na post-covidowym rynku coraz bardziej zdalnej pracy na pewno pomoże to zmniejszyć stres związany z wirtualnymi spotkaniami i jeszcze bardziej uelastycznić nasz dzień. Codziennie będziemy mogli prezentować się naszym rozmówcom świeżo i profesjonalnie, nawet jeżeli warunki nie są idealne do rozmowy.

Trójwymiarowa, interaktywna fotografia

Tworzenie trójwymiarowych postaci i obiektów to czasochłonny proces wymagający specjalistycznych umiejętności – od modelowania, przez tworzenie tekstur, wirtualne szkielety do animacji. Stworzenie pojedynczego prostego obiektu do gry komputerowej, na przykład samochodu, może zająć kilka tygodni. Na amerykańskim rynku to koszt rzędu tysięcy dolarów; dla postaci i jej animacji koszt ten to dziesiątki, a nawet setki tysięcy dolarów.

Dla porównania cyfrowa fotografia jest dostępna dla każdego. Jest tania, nie wymaga specjalistycznego sprzętu. Każdy może się nauczyć robić świetne zdjęcia nawet za pomocą kamery w telefonie. Dlatego też wielu naukowców i działy badawczo-rozwojowe zajmują się fotogrametrią – rodzajem trójwymiarowej fotografii, która z kilku zdjęć tworzy pełne, trójwymiarowe obiekty, które można umieścić w wirtualnych światach.

Tradycyjnie fotogrametria wymagała ręcznej pracy grafików lub specjalnej technologii “lightstage” do skanowania aktorów, jednak kosztującej wiele milionów dolarów. Warto tu wspomnieć, że również polskie gry komputerowe powstawały przy użyciu fotogrametrii. Jest wśród nich “Zaginięcie Ethana Cartera”, które wygrało wiele nagród. Gra zawiera przepiękną grafikę zeskanowanych polskich krajobrazów i zabytków pomimo małego, zaledwie, kilkuosobowego zespołu!

Jest to rozwiązanie akceptowalne dla zespołów specjalistów lub firm posiadających budżet na wynajęcie lub zbudowanie takiej technologii, ale nie dla zwykłych użytkowników. Dlatego też działy badawczo-rozwojowe pracują nad demokratyzacją trójwymiarowej fotografii i rekonstrukcji modeli ze zdjęć.

Dobrym przykładem jest publikacja Facebooka, która tworzy realistyczne, trójwymiarowe, animowane modele ludzi z obrazu ze zwykłej kamery.

W ostatnich latach pojawiają się dziesiątki podobnych publikacji rocznie. Każda tworzy modele o coraz lepszej jakości, wymaga coraz mniej zdjęć, a także działa coraz szybciej.

Jeszcze nie jesteśmy na etapie, aby móc uzyskać fotorealistyczny model z pojedynczego zdjęcia, ani płynnego trójwymiarowego wideo. Jednak jeśli obecny postęp się utrzyma to w przyszłości, każdy z nas będzie mógł stworzyć całe wirtualne światy przy użyciu telefonu komórkowego lub też umieścić postać wyglądającą jak on/ona w grze komputerowej, lub wirtualnej rzeczywistości.

Google we współpracy z Waymo, firmą zajmującą się autonomicznymi samochodami, pokazało jak ta technologia może przenosić całe miasta do wirtualnych światów, skanując ulice San Francisco.

Technologia skanowania i podmiany aktorów niesie ze sobą również ryzyko tworzenia fałszywych wideo i podszywania się pod tożsamość innych. Taka technologia istnieje już od kilku lat i wielokrotnie, przy głośnych lub szokujących wiadomościach, pojawiały się oskarżenia o fake newsy i manipulacje zdjęć i wideo przy użyciu technologii sztucznej inteligencji. W związku z tym na branżowych konferencjach grafiki komputerowej i rozpoznawania obrazów, takich jak IEEE CVPR dyskutuje się o zagadnieniach etycznych i zagrożeniach związanych z potencjalnym użyciem technologii do niemoralnych lub nielegalnych celów. Wraz z rozwojem technik syntezy obrazu pojawiają się nowe publikacje w dziedzinie tzw. digital forensics, czyli cyfrowej kryminalistyki do wykrywania zmanipulowanych treści. Jak na razie zaskakująco łatwo jest wykryć fałszerstwa wykonane za pomocą sztucznej inteligencji przy użyciu… tak, również sztucznej inteligencji! Jeżeli oskarżenia o cyfrowe “fałszywki” będą się dalej pojawiać w przestrzeni publicznej, również właściciele platform społecznościowych, takich jak Facebook, Twitter, lub YouTube, powinni uwzględnić metody cyfrowej kryminalistyki w swojej działalności i informować użytkowników o potencjalnej manipulacji.

Przyszłość produkcji i sztuczna inteligencja

Ostatnia dekada to błyskawiczny rozwój technologii uczenia się maszyn i sztucznej inteligencji, która już zrewolucjonizowała świat. Korzystamy z sieci neuronowych kiedy Spotify lub Netflix rekomendują nam nowy album lub film, Google poprawia pisownię (i gramatykę!) w dokumentach i e-mailach. Również wtedy, gdy najnowsze aparaty w telefonach komórkowych dobierają temperaturę kolorów zdjęć. Także wspomniany wcześniej  rozwój fotogrametrii opiera się m.in. na technologiach uczenia się maszyn.

Autor grafiki: Claude AI UK

Jednak grafika komputerowa to nie tylko realistyczna reprodukcja rzeczywistości. To również tworzenie nowych światów. Ograniczone jedynie wyobraźnią twórcy i czasami możliwościami obliczeniowymi komputera, które stale rosną, zwłaszcza w świecie kart graficznych.

Czy technologia może zdemokratyzować również i ten aspekt grafiki i kreatywności? Myślę, że tak. Przez ostatnie lata coraz więcej mówi się – jak i prowadzi badania – nad zwiększeniem produktywności cyfrowych artystów i lepszymi narzędziami dla nich. Wiele z nich jest na razie bardzo specjalistyczna i niszowa, przeznaczona dla profesjonalistów, np. zredukowanie potrzeby ręcznej optymalizacji modeli. Jednak ostatni rok przyniósł również ogromne postępy w kompletnej demokratyzacji cyfrowej sztuki.

Dyrektor artystyczny pracuje z grafikami posługując się mową, wyobraźnią i tekstem, na przykład opisując styl, kształt i kolory. W kwietniu tego roku OpenAI zaprezentowało technologię DALL-E 2, która umożliwia tworzenie cyfrowych obrazów w dokładnie taki sposób. Użytkownik po prostu opisuje obraz, który jest “malowany” od zera przez wytrenowaną sieć neuronową. Obraz może być następnie zmieniany, uwzględniając sugestie użytkownika.

Efekty są spektakularne. Nie sposób nie pomyśleć, jak bardzo zrewolucjonizuje to kreatywność i sztukę. W przyszłości każdy z odrobiną wyobraźni, gustu i podstawowym zasobem artystycznego słownictwa będzie mógł tworzyć obrazy i trójwymiarowe modele wyobraźnią i słowem, podobnie jak dyrektor artystyczny. Specjaliści będą osiągać te same lub lepsze rezultaty jak wcześniej, jednak dużo szybciej i taniej.

Raczej nie wydaje mi się, by technologie sztucznej inteligencji zastąpiły artystów. Sztuka to dużo więcej niż wykonanie i “rzemiosło”. Raczej dostaniemy o wiele ciekawsze, bardziej szczegółowe i różnorodne wirtualne światy w grach i filmach, a także więcej możliwości ekspresji w mediach społecznościowych i całym internecie.

Technologia ta wzbudza również kontrowersje i dyskusje. Dane treningowe są pobierane przez firmy z internetu, z platform ze sztuką cyfrową, kompletnie ignorując prawa autorskie oryginalnych twórców. Firmy jak OpenAI twierdzą, że użycie do treningu podlega pod tzw. fair use, czyli dozwolone użycie do celów edukacyjnych, naukowych, satyrycznych. Rodzi się jednak pytanie, czy artysta, którego praca służy do wytrenowania komercyjnej sieci neuronowej, nie powinien dostać tantiemów z takiego użycia jego/jej pracy? Niestety nie ma nawet przejrzystego procesu i regulacji prawnych dotyczących tego, jak takie dane są zbierane. Firmy, które z tych danych korzystają milczą o tym  w swoich publikacjach. Inne kontrowersje budzi fakt, że sam koszt energii elektrycznej potrzebnej do wytrenowania takich algorytmów wynosi ok. 10 milionów dolarów. Zapewne drugie tyle kosztuje obsługa serwerów; nie wspominając o pensjach najlepszych naukowców, którzy zarabiają miliony dolarów rocznie każdy. Czy można mówić o demokratyzacji, kiedy dostęp do danego medium posiadają i kontrolują jedynie najbogatsze, pojedyncze firmy?

Grafika komputerowa i meta-światy

Pod koniec 2021 roku Mark Zuckerberg, założyciel i CEO Facebooka, ogłosił zmianę nazwy firmy na Meta. Wywołało to wiele branżowych żartów. Natomiast zmiana ta nie jest spowodowana jedynie chęcią poprawienia PR ze względu na kontrowersje wokół firmy z ostatnich lat. Nie chodzi tylko o skandal związany z udostępnieniem danych firmie Cambridge Analytica, o radykalizację użytkowników przez algorytmiczną linię czasu, o niejasne finansowanie reklam wyborczych, i przesłuchania w Kongresie Stanów Zjednoczonych, w których Zuckerberg pod przysięgą zeznawał nieprawdę. Główną, oficjalną przyczyną zmiany nazwy firmy jest nowa wizja internetu pełnego grafiki trójwymiarowej, nazywana “Metaverse”, czyli w luźnym tłumaczeniu meta-świat.

Facebook czy Meta nie jest jedyną firmą, która patrzy w stronę meta-światów; również inne firmy, tradycyjnie zajmujące się grami komputerowymi, takie jak Roblox i Epic Games, a także wspomniany wcześniej projekt Nvidii “Omniverse” są żywotnie zainteresowane metawersum. 

Przy tak ogromnym zainteresowaniu nazwą zaskakuje jak bardzo mgliste są wizje meta-światów. Pojawiają się złośliwe komentarze, że to tylko chwilowy trend. Ponieważ jedynym elementem wspólnym tych wizji jest… internet. Jednak wszystkie te firmy akcentują, że przyszłość jest cyfrowa, to oczywistość i połączona – to też już powoli standard, nawet w krajach globalnego Południa. Są jednak nowe elementy, jak chociażby akcent na grafikę trójwymiarową i powszechne tworzenie cyfrowych treści przez użytkowników, za które twórcy mieliby dostawać wynagrodzenie, czasami w postaci radykalnych, częściowo politycznych propozycji – jak kryptowaluty. Wielu inwestorów utożsamia z tego powodu meta-światy z bardzo modnym terminem “web3”. To wizja dalszego rozwoju i decentralizacji platform w połączeniu z coraz dalej idącą monetyzacją. Równie często pojawiają się śmiałe wizje, że wiele interakcji międzyludzkich przeniesie się do trójwymiarowych, luźno połączonych “światów”, pomiędzy którymi będziemy mogli swobodnie przenosić wirtualne dobra, np. trójwymiarowe modele, muzykę, obrazy czy filmy. Światy te oferowałyby zaawansowaną, interaktywną grafikę gier komputerowych i mogłyby być dostępne przy pomocy komputerów, telefonów, ale również i gogli wirtualnej lub rozszerzonej rzeczywistości.

Przypomina to wizje “cyberprzestrzeni” z literatury cyberpunk z lat 80-tych i 90-tych, gdzie hakerzy “netrunnerzy” odwiedzają trójwymiarowe światy w sieci i podróżują po nich wyszukując informacje i spotykając innych hakerów i sztuczną inteligencję. To nie jest przypadek. Sam termin metaverse został stworzony przez pisarza popularnonaukowego Neala Stephensona w powieści “Zamieć”. Wielu założycieli korporacji w Dolinie Krzemowej nie ukrywa, że powieść ta była ogromną inspiracją. Nazwa metaverse jest wprost z niej zapożyczona. Podobnie jak książka i film “Player One” pokazujące połączone cyfrowe światy naszpikowane odniesieniami do popkultury z lat 80-tych i 90-tych. Sam Neal Stephenson dość chłodno wypowiedział się na ten temat. Twierdzi, że o niczym nie wiedział i całkowicie odcinał się od terminu, a aktor Keanu Reeves, znany m.in. z klasycznego cyberpunkowego filmu “Matrix”, wyśmiewał przywłaszczenie tej nazwy przez Facebooka. Samo nazewnictwo jest o tyle ironiczne i niefortunne, że “Zamieć” i “Player One” przedstawiają dystopijne światy, w których większość ludzkości żyje w biedzie i slumsach, jest kontrolowana przez gigantyczne korporacje, a wirtualna rzeczywistość jest tam ostatnią powszechną i tanią formą eskapizmu. Mam nadzieję, że nie taką przyszłość przyniesie nam wizja Marka Zuckerberga.

Nie sposób jednak zignorować ogromnego potencjału grafiki czasu rzeczywistego i przenikania się gier i mediów społecznościowych. Większość amerykańskich wczesnych nastolatków spotyka się ze znajomymi w grach Fortnite. Szacuje się, że obecnie do Fortnite loguje się powyżej 30 milionów użytkowników dziennie. Nastolatkowie korzystają też z gier stworzonych na platformie Roblox, która ma 54 miliony aktywnych użytkowników. Oni tam nie tylko grają, a po prostu spędzają czas. Rozmawiają, oglądają jak ich rówieśnicy grają, i wydają pieniądze na cyfrowe kostiumy postaci. To nowy symbol statusu!

Brakujące elementy meta-świata to technologia, na przykład przenoszenia wirtualnych przedmiotów pomiędzy platformami i łatwe tworzenie nowych, trójwymiarowych obiektów i postaci. To także metadane, które określają zachowanie się danych obiektów na różnych platformach, skalowalna, dobra wydajność wyświetlania grafiki na różnym sprzęcie i brakujące regulacje prawne i etyczne. To na przykład problem treści nielegalnych lub nieodpowiednich dla młodszych użytkowników, które są stworzone na konkretnej platformie 18+. Kto będzie odpowiedzialny za przeniesienie i wyświetlenie takiej zawartości w grze kierowanej dla dzieci? Właściciel platformy, czy konkretny użytkownik, który może być anonimowy? Jeżeli nielegalne zawartości znajdą się na blockchainie, który z definicji jest nieedytowalny, nieusuwalny, i rozproszony, kto zostanie pociągnięty do odpowiedzialności karnej? Jak zapobiec dalszemu rozprzestrzenianiu się najgorszych z tych materiałów? Tutaj niestety ideologia i polityka twórców technologii, często skrajnie prawicowo-libertariańska, biorą górę nad zdrowym rozsądkiem i zastanym porządkiem prawnym. Natomiast Dolina Krzemowa liczy, że po raz kolejny “wyprzedzi” regulacje prawne i nie poniesie żadnych konsekwencji.

Wirtualna rzeczywistość a grafika komputerowa

Wirtualna i rozszerzona rzeczywistość przebiła się do masowej wyobraźni w okolicach 2016 roku. Ciężko było odwiedzić jakiekolwiek branżowe targi, konferencje, lub nawet przeczytać artykuł, bez napotkania się na nowe technologie, start-upy, lub gry VR. Z jednej strony mieliśmy Oculus VR od Facebooka, Daydream of Google, a z drugiej “mieszaną” rzeczywistość – elementy VR i AR – od Magic Leap.

Virtual Reality

Gry VR wciąż się pojawiają, ale cieszą się umiarkowanym sukcesem. Ogromne medialne zainteresowanie dość szybko przycichło, zarówno ze względu na brak zastosowań innych niż gry, jak i ograniczenia samej technologii. 

Po kilku latach zastoju i względnej medialnej ciszy, dzisiaj temat powraca. Jest często wskazywany jako kluczowy element meta-świata. Nie tylko Google na nowo ogłasza rekrutację do pracy nad mieszaną rzeczywistością. Także branżowi analitycy twierdzą, że w tym roku, nawet podążająca własną drogą i odporna na zewnętrzne trendy Apple pokaże własny hełm do eksploracji wirtualnych światów.

Amerykańska sieć supermarketów Walmart przyłączyła się do trendu zarówno wirtualnej rzeczywistości, jak i meta-światów, proponując… wirtualne zakupy w VR. Wywołało to głównie krytykę zarówno analityków, jak i klientów. Zakupy internetowe są wygodne dokładnie dlatego, że nie musimy chodzić po sklepie, schylać się na niższe półki i nie ryzykujemy przeoczenia tańszej alternatywy. Jaki ma sens kopiowanie procesu żmudnych zakupów, który tak chętnie porzucamy w dobie e-commerce?

Nie wiem, czy przyszłość cyfrowych interakcji jest trójwymiarowa. Kino i telewizja kilkukrotnie podchodziły do trójwymiarowej wizji, po raz pierwszy w okolicach lat 50-tych. Fiasko trójwymiarowych filmów zaowocowało tzw. “Nowym Hollywood” i genialnym kinem autorskim lat 60-70-tych. Wizja reżysera była w nich ważniejsza niż ciekawostki technologiczne. Podobnie trend filmów 3D z późnych lat dwutysięcznych odchodzi w zapomnienie.

Myślę że rzeczywistość rozszerzona ma wciąż niezrealizowany potencjał w bardziej niszowych, przemysłowych zastosowaniach, takich jak dostarczanie informacji diagnostycznych operatorom maszyn i inżynierom, czy też do pokazywania materiałów treningowych nie w sali lekcyjnej, a w praktycznej sytuacji. Ponadto połączenie okularów AR z systemami rozpoznawania dźwięku i mowy może pomóc osobom niesłyszącym. Czy jednak wizje obiecywane inwestorom z Doliny Krzemowej, że każdy z nas będzie nosił na głowie okulary wyświetlające trójwymiarowy obraz cały dzień i zastąpią one smartfony, się spełnią? Nie wydaje mi się, ale na pewno będziemy obserwować ciekawy rozwój i dalszą popularyzację tych technologii na przestrzeni następnych 5-10 lat.

Patrząc w przyszłość grafiki komputerowej

Grafiką i grami komputerowymi interesuję się od dziecka i wczesnych lat 90-tych. Pierwsze efekty graficzne programowałem mając 8 lat. Zawodowo zajmuję się grafiką komputerową od prawie 13 lat, najpierw w grach, potem w działach badawczo-rozwojowych korporacji. Pamiętam pojawiające się już od końca lat 90-tych głosy w prasie, że grafika jest już fotorealistyczna i niewiele zostało do osiągnięcia, postęp będzie tylko zwalniał. Jednak co kilka lat pojawiała się technologia, która była dużo lepsza niż poprzednie. Wówczas wielu ekspertów ponownie ogłaszało nowy kamień milowy i następnie kolejny, nadchodzący koniec postępu. Sam tak myślałem ok. 2017 roku, kiedy inkrementalna generacja konsol gier głównie zwiększyła rozdzielczość ekranu. Oczywiście byłem w ogromnym błędzie. Od tego czasu pojawiło się kilka znaczących przełomów technologicznych zwiększających realizm, poszerzających zastosowania, a nawet powstały zupełnie nowe domeny, np. połączenie grafiki i sztucznej inteligencji.

Na pewno mamy jeszcze wiele do osiągnięcia. Osobiście jestem podekscytowany myśląc o przyszłości grafiki i ciekawych, potencjalnych kierunkach badań. Jestem prawie pewien, że w pewnym momencie nastąpi pełna unifikacja grafiki czasu rzeczywistego i “offline”. Grafika będzie znajdowała zastosowanie w coraz większej ilości branż i domen, a wirtualne symulacje z pogranicza grafiki i symulacji fizyki pozwolą na szybszy rozwój inżynierii i nauki.

Branża filmowa już została zrewolucjonizowana przez grafikę, a być może malejące koszty i postęp technologii sztucznej inteligencji pozwolą na demokratyzację filmografii. Czy czeka nas renesans niezależnego, autorskiego kina, tym razem z fantastycznymi światami i efektami specjalnymi godnymi blockbusterów Hollywood?

Demokratyzacja tworzenia trójwymiarowej grafiki, animacji i cyfrowej sztuki jeszcze dalej rozmyje granicę pomiędzy konsumentami i twórcami. Jedynie wyobraźnia i talent będą ograniczać możliwości ekspresji.

Cyfrowe spotkania będą miały coraz lepszą jakość, staną się coraz łatwiejsze, a technologia wirtualnej i rozszerzonej rzeczywistości ułatwi przekazywanie wiedzy, informacji, materiałów instruktażowych, a także przyczyni się do powstania nowych form rozrywki.

Pozostaje mieć nadzieję – i aktywnie używać demokratycznych instytucji – by nadążyć za tym postępem i przygotować się na ryzyko cyfrowych fałszywek i dezinformacji. Obywatelskie, poinformowane społeczeństwo może zapobiec monopolizacji naszego cyfrowego życia przez gigantyczne korporacje. Jednak aby tak się stało, musimy śledzić trendy i polegać na instytucjach tak politycznych, akademickich, jak i obywatelskich, aby nowe technologie służyły przede wszystkim ludzkości.

 

Przeczytaj również nasz artkuł „2030. Czy sztuczna inteligencja może być etyczna? Raport Pew Research Center„.