Sam Altman twierdzi, że AGI może nastąpić 'w ciągu kilku lat'. Demis Hassabis mówi o 'dekadzie'. Yoshua Bengio ostrzega przed zagrożeniami. Rzetelna analiza co wiemy, a czego nie.
AGI (Artificial General Intelligence) — AI zdolna do wykonania dowolnego zadania intelektualnego równie dobrze jak człowiek — to cel i obsesja branży. Różne definicje AGI tworzą różne odpowiedzi na pytanie 'kiedy': wąska definicja (przewyższa ludzi we wszystkich benchmarkach) — niektórzy twierdzą, że to już nastąpiło lub nastąpi do 2027. Szeroka definicja (rozumie świat jak człowiek, potrafi samodzielnie się uczyć, działa w otwartym środowisku) — prawdopodobnie lata lub dekady.
Superinteligencja (AI wielokrotnie mądrzejsza od najinteligentniejszego człowieka) — ten scenariusz jest fundamentalnie nieprzewidywalny. Scenariusze: (1) Soft landing — AGI pojawia się stopniowo, ludzkość adaptuje się; (2) Hard takeoff — szybki samopostęp AI do superinteligencji z nieznanym wynikiem; (3) Plateau — AI nie osiągnie AGI bez fundamentalnych przełomów. Zdanie autora: AGI jest nieuchronne w horyzoncie 10-20 lat.
Kluczowe jest nie 'kiedy', ale 'jak' — czy zdążymy zbudować governance structures, rozwiązać alignment i zapewnić, że korzyści są szeroko dystrybuowane.