Brytyjsko-kanadyjski Geoffrey Hinton, znany jako „Ojciec chrzestny sztucznej inteligencji,” był pionierem głębokiego uczenia się i sztucznych sieci neuronowych. W tym roku otrzymał Nagrodę Nobla w dziedzinie fizyki za wkład w sztuczną inteligencję. Jednak niedawno powiedział, że istnieje10–20 procent szans, że sztuczna inteligencja (AI) spowoduje wyginięcie ludzkości w ciągu najbliższych 30 lat, czyli więcej niż 10 procent, które przewidywał wcześniej.
Ludzie są jak trzylatki przed sztuczną inteligencją.
Według niedawnegoStanowisko Strażnikaoraz w wywiadzie dla programu Today w BBC Radio 4 Hinton powiedział, że szybki rozwój sztucznej inteligencji stworzył przed ludzkością bezprecedensowe wyzwania. „Nigdy nie mieliśmy do czynienia z kimś mądrzejszym od nas samych. Ile przykładów możesz podać rzeczy, które są mniej inteligentne, ale kontrolują rzeczy bardziej inteligentne? Ledwie. Jedynymi wyjątkami mogą być matki i dzieci, ale udało się to osiągnąć w ciągu milionów lat ewolucji.”
W wywiadzieHinton opisał ludzi jako trzylatka w porównaniu z zaawansowanymi systemami sztucznej inteligencji, mówiąc: „Pomyśl o sobie i trzylatku; w przyszłości będziemy trzylatkami wobec zaawansowanych, wysoce inteligentnych systemów.” Twierdzi, że ta asymetria inteligencji prawdopodobnie doprowadzi do utraty kontroli nad sztuczną inteligencją.
Hinton, pionier badań sieci neuronowych, przez wiele lat pracował w Google, aż w 2023 r. zdecydował się odejść, aby skupić się na zagrożeniach związanych ze sztuczną inteligencją. Ostrzegł, że w ciągu najbliższych dwóch dekad systemy sztucznej inteligencji mogą przewyższyć ludzką inteligencję, a wyzwania i kryzysy, jakie ze sobą niosą, będą nieprzewidywalne. Uważa, że samego nastawienia przedsiębiorstw na zysk nie można zagwarantować bezpiecznego rozwoju sztucznej inteligencji. Wzywa rządy na całym świecie do współpracy w celu opracowania rygorystycznych mechanizmów regulacyjnych pozwalających uniknąć potencjalnych katastrof.
Hinton podkreśla, że możliwości sztucznej inteligencji to nie tylko przełomy technologiczne, ale mogą potencjalnie zmienić struktury władzy, a nawet wpłynąć na cały porządek społeczny. Przyznaje, że jest zarówno pełen podziwu, jak i obaw związanych z potencjałem tej technologii, i bez ogródek stwierdza, że „jest to jedna z najbardziej przełomowych innowacji w historii ludzkości”.
Jednocześnie Yann LeCun, główny naukowiec zajmujący się sztuczną inteligencją w Meta Marka Zuckerberga, kolejna krytyczna postać w dziedzinie sztucznej inteligencji, ma zupełnie odmienne podejście do przyszłości sztucznej inteligencji. Wierzy, że sztuczna inteligencja, odpowiednio wykorzystana, może rozwiązać globalne wyzwania, takie jak niedobory energii i nierówna dystrybucja zasobów medycznych. LeCun podkreślił, że groźba wyolbrzymiania sztucznej inteligencji może przyćmić jej potencjalne korzyści i argumentował, że narracja o „końcu świata” jest stronnicza.
LeCun argumentuje, że sztuczna inteligencja może nie tylko poprawić wydajność, ale może także być „zbawicielem” w rozwiązywaniu problemów planety. Uważa on, że dopóki ludzie będą odpowiedzialnie wykorzystywać technologię, korzyści ze sztucznej inteligencji znacznie przewyższają ryzyko.
Jaka przyszłość czeka sztuczną inteligencję?
Brak zgody wśród ludzi co do przyszłości sztucznej inteligencji pokazuje polaryzację kontrowersji wokół technologii sztucznej inteligencji: z jednej strony istnieją głębokie obawy, że technologia wymknie się spod kontroli, a optymistyczne oczekiwania co do jej potencjału. W kontekście szybkiego postępu technologicznego toczy się gorąca debata na temat wpływu sztucznej inteligencji, a w centrum uwagi znajdują się również kwestie regulacyjne.
Obecnie wielu ekspertów uważa, że rozwój sztucznej inteligencji musi równoważyć innowacyjność i bezpieczeństwo. Zarówno przedsiębiorstwa, jak i rządy powinny rozwijać technologię, zapewniając jednocześnie precyzję i egzekwowanie specyfikacji, aby uniknąć potencjalnie katastrofalnych konsekwencji.
Niemniej jednak w tej długiej debacie na temat przyszłości ludzkości zwolenników i krytyków łączy jedno: jak zapewnić, aby technologia działała na rzecz ludzkości i nie zagrażała jej przetrwaniu.