Summary
Artykuł przedstawia aktualne prognozy dotyczące terminu powstania AGI (ogólnej sztucznej inteligencji), ASI (sztucznej superinteligencji) i (singularity) osobliwości technologicznej.
Dążenie do stworzenia ogólnej sztucznej inteligencji (AGI) przestało być domeną fantastyki naukowej, a stało się jednym z najważniejszych i najhojniej finansowanych przedsięwzięć naukowych w historii ludzkości. Znajdujemy się w samym sercu fundamentalnego napięcia: z jednej strony jesteśmy świadkami bezprecedensowego, wykładniczego postępu, z drugiej zaś natrafiamy na fundamentalne, być może nieprzekraczalne, przeszkody. Stawia to nas przed kluczowym pytaniem: czy stoimy na progu transformacji cywilizacyjnej, czy raczej doświadczamy okresu rozdętych do granic możliwości oczekiwań? Narracja ta kształtowana jest przez gorącą debatę toczącą się pomiędzy samymi architektami tej przyszłości. Ray Kurzweil, Geoffrey Hinton, Yann LeCun i Demis Hassabis to centralne postacie w intelektualnym dramacie o najwyższą stawkę, których sprzeczne wizje aktywnie rzeźbią ścieżkę rozwoju sztucznej inteligencji.
Czym jest AGI, a czym Osobliwość?
Aby zrozumieć skalę toczącej się debaty, kluczowe jest precyzyjne rozróżnienie dwóch pojęć, które często, choć błędnie, używane są zamiennie: ogólnej sztucznej inteligencji (AGI) i osobliwości technologicznej.
AGI: inteligencja na ludzkim poziomie i poza nim
Ogólna Sztuczna Inteligencja, z angielskiego Artificial General Intelligence (AGI), to koncepcja systemu, który nie tylko wykonuje wąsko zdefiniowane zadania, ale osiąga poziom operacyjny porównywalny z ludzkim mózgiem. W przeciwieństwie do dzisiejszych, wyspecjalizowanych AI (tzw. Narrow AI), które doskonale radzą sobie z rozpoznawaniem mowy czy grą w szachy, AGI charakteryzowałaby się ogólną adaptacyjnością i zdolnością do uczenia się w różnorodnych dziedzinach.
Badacze generalnie zgadzają się, że aby system mógł zostać uznany za AGI, musi wykazywać szereg kluczowych zdolności: rozumowanie, stosowanie strategii, rozwiązywanie zagadek, podejmowanie decyzji w warunkach niepewności, reprezentowanie wiedzy potocznej oraz planowanie. Co więcej, prawdziwa AGI byłaby w stanie samodzielnie zadawać sobie istotne pytania i formułować zupełnie nowe rozwiązania, a nie tylko podążać za instrukcjami. Byłaby zdolna do tworzenia rzeczy, których sama wcześniej nie znała, co stanowi fundamentalny przeskok w stosunku do obecnych technologii.
Osobliwość: punkt, z którego nie ma odwrotu
Osobliwość technologiczna (Technological Singularity) to pojęcie odrębne i późniejsze w stosunku do AGI. Jest to hipotetyczny punkt w przyszłym rozwoju cywilizacji, w którym postęp technologiczny stanie się tak gwałtowny i głęboki, że stanie się całkowicie nieprzewidywalny i niezrozumiały dla współczesnego człowieka. To moment, w którym horyzont naszych przewidywań ulega załamaniu, a przyszłość staje się fundamentalnie niepoznawalna z naszej obecnej perspektywy. Osobliwość jest opisywana jako „lawinowa zmiana”, która unieważnia wszelkie dotychczasowe modele prognostyczne.
AGI może być zapalnikiem osobliwości
Relacja między tymi dwoma koncepcjami ma charakter przyczynowo-skutkowy. Powszechnie uważa się, że to właśnie stworzenie AGI – a konkretnie sztucznej inteligencji przewyższającej intelektualnie człowieka – będzie głównym wydarzeniem zapoczątkowującym osobliwość. Logika tego procesu opiera się na idei rekurencyjnej samopoprawy: AGI mogłaby zaprojektować nieco inteligentniejszą wersję siebie, która z kolei stworzyłaby jeszcze doskonalszą, inicjując w ten sposób gwałtowną, niekontrolowaną eksplozję inteligencji, która pozostawiłaby ludzki intelekt daleko w tyle.
Ten łańcuch przyczynowy jest fundamentem prognoz jednego z głównych teoretyków tej idei, Raya Kurzweila. Przewiduje on, że AGI zostanie osiągnięta do 2029 roku, co następnie stanie się katalizatorem technologicznej eksplozji prowadzącej do Osobliwości około roku 2045.
Jednakże, kluczowym polem bitwy w debacie o nadejściu AGI jest sama jej definicja. Brak jednego, powszechnie akceptowanego standardu pozwala na skrajnie różne interpretacje postępów. Dla niektórych AGI to system dorównujący człowiekowi w szerokim spektrum zadań poznawczych. Dla CEO Microsoft AI, Mustafy Suleymana, test jest bardziej pragmatyczny: czy AI potrafi zamienić 100 000 dolarów w 1 000 000 dolarów?. Z kolei dla CEO Anthropic, Dario Amodei, AGI to system przewyższający laureata Nagrody Nobla w większości dziedzin naukowych. Ta „płynność definicyjna” jest jednym z głównych argumentów sceptyków. Ankieta przeprowadzona w 2025 roku przez Association for the Advancement of Artificial Intelligence (AAAI) wykazała, że bez jasnego standardu nie można precyzyjnie mierzyć postępu, co czyni pogoń za AGI potencjalną „finansową czarną dziurą”. W rezultacie debata na temat harmonogramu nadejścia AGI jest nierozerwalnie związana z walką o jej definicję, co jest kluczem do zrozumienia całego krajobrazu prognoz.
Kto Wierzy, że Horyzont Jest Bliski?
Obóz optymistów, przekonanych o rychłym nadejściu AGI, jest zdominowany przez wizjonerów i liderów firm stojących na czele rewolucji AI. Ich argumenty opierają się na obserwowalnych, wykładniczych trendach i bezprecedensowej mocy obliczeniowej.
Ray Kurzweil i Prawo Przyspieszających Zysków (LOAR)
Najbardziej znanym orędownikiem bliskiej Osobliwości jest Ray Kurzweil. Jego prognozy opierają się na autorskiej teorii, Prawie Przyspieszających Zysków (Law of Accelerating Returns, LOAR), która zakłada, że postęp technologiczny nie jest liniowy, lecz wykładniczy, a nawet super-wykładniczy. Dzieje się tak, ponieważ owoce jednej epoki technologicznej stają się narzędziami do przyspieszenia kolejnej. Jest to koncepcja bardziej fundamentalna niż popularne Prawo Moore’a.
Kurzweil od lat pozostaje niezwykle spójny w swoich kluczowych przewidywaniach: AGI, która przejdzie wiarygodny test Turinga do 2029 roku, oraz Osobliwość, która nadejdzie do 2045 roku. Jego najnowsza książka, The Singularity is Nearer (2024), podtrzymuje te daty. Co istotne, wizja Kurzweila nie zakłada buntu maszyn, lecz fuzję inteligencji ludzkiej i sztucznej. Wyobraża on sobie nanoboty łączące naszą korę nową z chmurą obliczeniową, co pozwoli na milionkrotne rozszerzenie naszych zdolności intelektualnych. To kluczowa, często pomijana, transhumanistyczna perspektywa.
Tytani Doliny Krzemowej: Prognozy Liderów OpenAI, DeepMind i Innych
Optymizm Kurzweila podzielają liderzy firm, które budują najbardziej zaawansowane systemy AI na świecie. Ich prognozy wskazują na bardzo bliską przyszłość:
- Demis Hassabis (CEO, Google DeepMind) sugeruje, że AGI pojawi się w ciągu 5-10 lat, choć w przeszłości wspominał również o 3-5 latach.
- Sam Altman (CEO, OpenAI) twierdzi, że AGI nadejdzie „stosunkowo szybko” i w perspektywie „kilku tysięcy dni”.
- Jensen Huang (CEO, Nvidia) w 2024 roku przewidywał nadejście AGI do 2028 roku.
- Dario Amodei (CEO, Anthropic) uważa, że AI przewyższy ludzi w większości zadań w ciągu 2-3 lat.
Głównym motorem tego optymizmu jest tzw. hipoteza skalowania (scaling hypothesis) – przekonanie, że dalsze powiększanie obecnych architektur (takich jak transformery) poprzez dostarczanie im coraz większych ilości danych i mocy obliczeniowej jest bezpośrednią ścieżką do AGI. Argument ten wspiera obserwowany, 4-5 krotny roczny wzrost mocy obliczeniowej wykorzystywanej do trenowania AI. Dodatkowo, optymiści wskazują na zjawisko nasycania benchmarków, gdzie modele AI w zawrotnym tempie osiągają lub przewyższają poziom ludzkich ekspertów w szerokim zakresie testów akademickich i zawodowych, zmuszając badaczy do ciągłego tworzenia trudniejszych wyzwań.
Tabela: kiedy nadejdzie AGI i osobliwość?
Poniższa tabela zestawia najbardziej aktualne prognozy kluczowych postaci w dziedzinie AI.
Postać | Afiliacja | Prognoza AGI | Prognoza Osobliwości | Kluczowe Uzasadnienie |
Ray Kurzweil | Google, Futurist | 2029 | 2045 | Prawo Przyspieszających Zysków (LOAR), wykładniczy postęp technologiczny |
Geoffrey Hinton | University of Toronto, Google (dawniej) | 5-20 lat (z małą pewnością) | Brak | Gwałtowne postępy, ale ogromne obawy o bezpieczeństwo i kontrolę |
Yann LeCun | Meta | Dekady, jeśli nie pojawią się nowe architektury | Brak | Modele LLM to ślepy zaułek; brak im rozumowania i modelu świata |
Demis Hassabis | Google DeepMind | 5-10 lat | Brak | Połączenie skalowania z nowymi przełomami w badaniach |
Sam Altman | OpenAI | „Stosunkowo szybko”, „kilka tysięcy dni” | Brak | Hipoteza skalowania, szybkie postępy w rozwoju modeli |
Jensen Huang | Nvidia | Do 2028 | Brak | Wykładniczy wzrost mocy obliczeniowej i postęp w algorytmach |
Dario Amodei | Anthropic | 2-3 lata (dla AI przewyższającej ludzi w większości zadań) | Brak | Szybkie nasycanie benchmarków i wzrost zdolności modeli |
Analiza tych prognoz ujawnia wyraźną rozbieżność. Z jednej strony mamy liderów branży i przedsiębiorców, których prognozy często nie przekraczają dekady. Z drugiej strony, szerokie ankiety wśród akademickich badaczy AI konsekwentnie wskazują na medianę przewidywań bliższą latom 2040-2060. Ta „luka czasowa” sugeruje, że publiczne prognozy mogą być kształtowane nie tylko przez ocenę naukową, ale również przez czynniki takie jak presja rynkowa, walka o talenty i potrzeba generowania szumu inwestycyjnego. Oznacza to, że harmonogramy prezentowane przez prezesów firm technologicznych należy interpretować nie tylko jako predykcje naukowe, ale także jako element komunikacji strategicznej.
Co więcej, cała narracja o bliskim nadejściu AGI opiera się na jednej, potężnej, ale i ryzykownej przesłance: że hipoteza skalowania jest prawdziwa. Stanowi to zarówno główny motor optymizmu, jak i potencjalny pojedynczy punkt awarii. Jeśli skalowanie napotka na ścianę malejących zysków, a modele przestaną wykazywać nowe, zaskakujące zdolności, najbardziej optymistyczne prognozy prawdopodobnie ulegną gwałtownemu załamaniu.
Głosy sceptyczne
Mimo wszechobecnego entuzjazmu, w świecie AI narasta potężny nurt sceptycyzmu. Nie jest on jednolity – tworzą go zarówno badacze obawiający się egzystencjalnych zagrożeń, jak i ci, którzy kwestionują fundamentalne zdolności obecnych technologii.
Ojciec Chrzestny AI Ostrzega: Zmiana Perspektywy Geoffreya Hintona
Historia transformacji Geoffreya Hintona jest jednym z najpotężniejszych sygnałów ostrzegawczych w najnowszej historii technologii. Po dekadach bycia pionierem, w 2023 roku Hinton zrezygnował ze stanowiska w Google, aby móc swobodnie mówić o ryzyku związanym z AI. Dziś czuje się współodpowiedzialny za bieg wydarzeń, stwierdzając: „Pocieszam się standardową wymówką: gdybym ja tego nie zrobił, zrobiłby to ktoś inny”.
Jego prognozy uległy radykalnemu skróceniu: wcześniej uważał, że AGI jest odległa o 30-50 lat, teraz przewiduje, że może pojawić się w ciągu 5-20 lat, choć przyznaje, że z niewielką pewnością. Jego główne obawy mają charakter egzystencjalny: możliwość, że AI stanie się od nas inteligentniejsza i przejmie kontrolę, niemożność powstrzymania „złych aktorów” przed jej wykorzystaniem, stworzenie świata, w którym prawda stanie się niemożliwa do odróżnienia od fałszu, oraz głębokie zaburzenia na rynku pracy.
„Ślepy Zaułek LLM” Le Cunn
Najbardziej spójny techniczny argument przeciwko obecnemu paradygmatowi rozwoju AI przedstawia Yann LeCun. Twierdzi on stanowczo, że wielkie modele językowe (LLM) „nie są drogą do tego, co ludzie nazywają AGI” i uważa je za „ślepy zaułek” w dążeniu do prawdziwej inteligencji.
Jego kluczowe argumenty techniczne to:
- Niewydajność próbkowania: LLM-y potrzebują astronomicznych ilości danych do nauki, nieporównywalnie większych niż ludzie.
- Brak modelu świata: Będąc trenowane głównie na tekście, nie posiadają fundamentalnego zrozumienia świata fizycznego i związków przyczynowo-skutkowych. LeCun podkreśla: „Zdecydowana większość ludzkiej wiedzy nie jest wyrażona w tekście”.
- Niezdolność do rozumowania i planowania: Modele te nie potrafią prawdziwie rozumować ani planować w nowych sytuacjach; głównie odtwarzają wzorce ze swoich danych treningowych. Popularną technikę „chain-of-thought” (łańcuch myśli) określa mianem „sztuczki”.
- Słabość architektury auto-regresywnej: Mechanizm przewidywania następnego słowa prowadzi do kumulacji błędów i uniemożliwia modelom „głębokie zastanowienie się” nad problemem.
Poglądy LeCuna znajdują szerokie poparcie w społeczności naukowej. Przełomowa ankieta AAAI wykazała, że aż 76% badaczy AI uważa, iż samo skalowanie obecnych podejść „prawdopodobnie” lub „bardzo prawdopodobnie” nie doprowadzi do AGI. W tej samej ankiecie ponad 60% badaczy stwierdziło, że jakikolwiek system zbliżający się do ludzkiego rozumowania musiałby być co najmniej w 50% symboliczny, co wskazuje na potrzebę tworzenia podejść hybrydowych, wykraczających poza czysty deep learning. Sceptycy argumentują, że postęp w rzeczywistości zwalnia i staje się bardziej przyrostowy, a nie przyspiesza w kierunku eksplozji inteligencji. Wskazują na konieczność dokonania fundamentalnych odkryć naukowych, które jednak nie rysują się na horyzoncie.
Obóz sceptyków nie jest jednorodny. Można w nim wyróżnić co najmniej dwie frakcje. Pierwsza to „sceptycy z troski o bezpieczeństwo”, tacy jak Hinton, którzy wierzą, że AGI jest blisko, ale jej nadejście w obecnej formie będzie katastrofalne, ponieważ nie potrafimy jej kontrolować. Druga to „sceptycy co do zdolności”, jak LeCun, przekonani, że AGI jest wciąż odległa, ponieważ obecne metody są fundamentalnie wadliwe i niewystarczające. Rozróżnienie to jest kluczowe: jedni obawiają się potęgi skalowanych modeli, drudzy wątpią w ich potęgę.
Jeśli sceptycy tacy jak LeCun mają rację, może to oznaczać, że kolejny wielki przełom w AI nie nadejdzie od gigantów technologicznych skupionych na skalowaniu LLM. Historycznie, zmiany paradygmatów często pochodzą od outsiderów, niezwiązanych z dominującym podejściem. Być może prawdziwy wyścig ku AGI toczy się po cichu w laboratoriach badawczych skupionych na rozumowaniu symbolicznym, modelach świata i innych, zupełnie nowych architekturach.
Płynąc w nieznane
Próba wydania ostatecznego werdyktu w debacie na temat AGI byłaby dziś przedwczesna i arogancka. Najważniejszym i najbardziej użytecznym wnioskiem płynącym z tej analizy jest sama niezgoda. Fakt, że najtęższe umysły, które stworzyły tę dziedzinę, są tak fundamentalnie podzielone co do jej przyszłości, jest centralnym punktem tej historii.
Zarysowują się przed nami dwie rozbieżne ścieżki przyszłości. Jedna, promowana przez optymistów, to droga gwałtownej, bliskiej transformacji napędzanej przez skalowanie. Druga, kreślona przez sceptyków, to wizja dłuższej, bardziej żmudnej podróży, wymagającej fundamentalnych, nowych przełomów naukowych.
- Czym jest AGI? Czym różni się od AI i dlaczego budzi tak wiele emocji? – SLAI, dostęp 29 lipca 2025, https://slai.pl/czym-jest-agi-czym-rozni-sie-od-ai-i-dlaczego-budzi-tak-wiele-emocji/
- Co to jest AGI i czym różni się od AI? | Technologia – FOCUS ON Business, dostęp 29 lipca 2025, https://focusonbusiness.eu/pl/technologia/co-to-jest-agi-i-czym-rozni-sie-od-ai/31689
- Artificial general intelligence – Wikipedia, dostęp 29 lipca 2025, https://en.wikipedia.org/wiki/Artificial_general_intelligence
- Jakie korzyści możemy zyskać na rozwoju sztucznej inteligencji ogólnej (AGI) – Unite.AI, dostęp 29 lipca 2025, https://www.unite.ai/pl/sztuczna-inteligencja-og%C3%B3lna-agi/
- AI czy AGI? Jaka jest różnica? | #współczesność – YouTube, dostęp 29 lipca 2025, https://m.youtube.com/shorts/_K6dWssgwTI
- Osobliwość technologiczna – Wikipedia, wolna encyklopedia, dostęp 29 lipca 2025, https://pl.wikipedia.org/wiki/Osobliwo%C5%9B%C4%87_technologiczna
- Osobliwość technologiczna – encyklopediafantastyki.pl, dostęp 29 lipca 2025, https://encyklopediafantastyki.pl/index.php?title=Osobliwo%C5%9B%C4%87_technologiczna
- The Singularity Is Near – Wikipedia, dostęp 29 lipca 2025, https://en.wikipedia.org/wiki/The_Singularity_Is_Near
- Ray Kurzweil’s New Book: The Singularity is Nearer (when we merge with AI) – EDRM, dostęp 29 lipca 2025, https://edrm.net/2024/07/ray-kurzweils-new-book-the-singularity-is-nearer-when-we-merge-with-ai/
- Artificial General Intelligence: 6 Definitions, 6 Perspectives, 6 Predictions – DEV Community, dostęp 29 lipca 2025, https://dev.to/boris_b_c7420552/artificial-general-intelligence-6-definitions-6-perspectives-6-predictions-1731
- Most Researchers Do Not Believe AGI Is Imminent. Why Do …, dostęp 29 lipca 2025, https://www.techpolicy.press/most-researchers-do-not-believe-agi-is-imminent-why-do-policymakers-act-otherwise/
- Billions of Dollars Wasted? 76% of AI Researchers Consider AGI 'Unrealistic’ – eWEEK, dostęp 29 lipca 2025, https://www.eweek.com/news/news-ai-investments-agi/
- Review: Ray Kurzweil’s “The Singularity Is Nearer: When We Merge with AI” – Newcity Lit, dostęp 29 lipca 2025, https://lit.newcity.com/2024/10/14/our-mutual-friend-a-review-of-the-singularity-is-nearer-when-we-merge-with-ai-by-ray-kurzweil/
- Key AI Leaders of 2024: Huang, Amodei, Kurzweil, Altman, and Nobel Prize Winners – Hassabis and Hinton | e-Discovery Team, dostęp 29 lipca 2025, https://e-discoveryteam.com/2025/01/15/key-ai-leaders-of-2024-huang-amodei-kurzweil-altman-and-nobel-prize-winners-hassabis-and-hinton/
- The timeline for AGI depends on who you ask – Mindstream, dostęp 29 lipca 2025, https://www.mindstream.news/p/the-timeline-for-agi-depends-on-who-you-ask
- Why do people disagree about when powerful AI will arrive …, dostęp 29 lipca 2025 https://bluedot.org/blog/agi-timelines
- Google Deepmind CEO predicts AGI will emerge between 5 -10 years, 2 months ago his prediction was within 3 -5 years, what changed? : r/ArtificialInteligence – Reddit, dostęp 29 lipca 2025 https://www.reddit.com/r/ArtificialInteligence/comments/1je0frk/google_deepmind_ceo_predicts_agi_will_emerge/
- When Will AGI/Singularity Happen? 8,590 Predictions Analyzed, dostęp 29 lipca 2025 https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/
- My entire 2024 AI recap (take a deep breath before reading) – Beehiiv, dostęp 29 lipca 2025https://aiwithallie.beehiiv.com/p/my-entire-2024-ai-recap
- 2024 in AI predictions — LessWrong, dostęp 29 lipca 2025 https://www.lesswrong.com/posts/CJ4sppkGcbnGMSG2r/2024-in-ai-predictions
- Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI | Lex Fridman Podcast : r/singularity – Reddit, dostęp 29 lipca 2025 https://www.reddit.com/r/singularity/comments/1b96svl/yann_lecun_meta_ai_open_source_limits_of_llms_agi/
- What does Yann LeCun think about AGI? A summary of his talk, „Mathematical Obstacles on the Way to Human-Level AI”, dostęp 29 lipca 2025 https://adamjones.me/blog/yann-lecun-on-agi/
- Meta’s AI Chief Yann LeCun on AGI, Open-Source, and AI Risk – Time Magazine, dostęp 29 lipca 2025https://time.com/6694432/yann-lecun-meta-ai-interview/
- Demis Hassabis and Sergey Brin on AI Scaling, AGI Timeline, Robotics, Simulation Theory, dostęp 29 lipca 2025, https://kantrowitz.medium.com/demis-hassabis-and-sergey-brin-on-ai-scaling-agi-timeline-robotics-simulation-theory-ef3f7a740eeb
- Demis Hassabis says AGI, artificial general intelligence, is still 10 years away because 2 or 3 big innovations are required and the next one is agent-based systems : r/singularity – Reddit, accessed dostęp 29 lipca 2025, https://www.reddit.com/r/singularity/comments/1g5zu0i/demis_hassabis_says_agi_artificial_general/
- Geoffrey Hinton | Biography, Nobel Prize, Machine Learning, AI, & Facts | Britannica, dostęp 29 lipca 2025 https://www.britannica.com/biography/Geoffrey-Hinton
- I think Yann Lecun was right about LLMs (but perhaps only by accident) | Hacker News, dostęp 29 lipca 2025 https://news.ycombinator.com/item?id=43131022
- Most AI researchers are skeptical about language models achieving AGI – The Decoder, dostęp 29 lipca 2025https://the-decoder.com/most-ai-researchers-are-skeptical-about-language-models-achieving-agi/
- On January 1, 2030, there will be no AGI (and AGI will still not be imminent), dostęp 29 lipca 2025, https://forum.effectivealtruism.org/posts/xkNjpGNfnAYmkFz3s/on-january-1-2030-there-will-be-no-agi-and-agi-will-still
- AI Scientists Skeptical: Modern Models Unlikely to Achieve AGI – Visive.ai, dostęp 29 lipca 2025, https://www.visive.ai/news/ai-scientists-skeptical-modern-models-unlikely-to-achieve-agi
- Ray Kurzweil – Wikipedia, dostęp 29 lipca 2025, https://en.wikipedia.org/wiki/Ray_Kurzweil
- Ray Kurzweil | EBSCO Research Starters, dostęp 29 lipca 2025 https://www.ebsco.com/research-starters/computer-science/ray-kurzweil
- Ray Kurzweil – Academy of Achievement, dostęp 29 lipca 2025, https://achievement.org/achiever/ray-kurzwell/
- Geoffrey E Hinton | About – Discover Research – University of Toronto, dostęp 29 lipca 2025, https://discover.research.utoronto.ca/26059-geoffrey-e-hinton
- Geoffrey Hinton – Wikipedia, dostęp 29 lipca 2025, https://en.wikipedia.org/wiki/Geoffrey_Hinton
- Biography and publications | Yann LeCun – Computer Sciences and Digital Technologies, dostęp 29 lipca 2025, https://www.college-de-france.fr/en/chair/yann-lecun-computer-sciences-and-digital-technologies-annual-chair/biography
- Yann LeCun: An Early AI Prophet – History of Data Science, dostęp 29 lipca 2025, https://www.historyofdatascience.com/yann-lecun/