Британсько-канадський Джеффрі Хінтон, відомий як «Хрещений батько штучного інтелекту,” став піонером глибокого навчання та штучних нейронних мереж. Цього року він отримав Нобелівську премію з фізики за внесок у розвиток штучного інтелекту. Однак нещодавно він сказав, що єІмовірність того, що штучний інтелект (ШІ) призведе до вимирання людства протягом наступних 30 років, становить від 10 до 20 відсотків, що перевищує 10 відсотків, які він передбачив раніше.
Люди схожі на трирічних дітей перед ШІ.
Згідно з нещодавнімСторожовий поста в інтерв’ю програмі Today на BBC Radio 4 Хінтон сказав, що швидкий розвиток ШІ створив безпрецедентні виклики для людства. «Нам ніколи не доводилося мати справу з чимось розумнішим за себе. Скільки ви можете навести прикладів речей, які менш розумні, але контролюють більш розумні речі? Навряд чи. Єдиним винятком можуть бути матері та діти, але це було досягнуто протягом мільйонів років еволюції.”
В інтерв'ю,Хінтон описав людей як трирічних дітей порівняно з передовими системами ШІ, сказавши: «Подумайте про себе та трирічну дитину; у майбутньому ми будемо трирічними дітьми перед передовими високоінтелектуальними системами.” Він стверджує, що така асиметрія інтелекту може призвести до втрати контролю над ШІ.
Піонер у дослідженні нейронних мереж, Хінтон багато років працював у Google, поки не вирішив піти у 2023 році, щоб зосередитися на ризиках ШІ. Він попередив, що системи ШІ можуть перевершити людський інтелект у найближчі два десятиліття, а виклики та кризи, які вони принесуть, будуть непередбачуваними. Він вважає, що безпечний розвиток штучного інтелекту не може бути гарантовано лише корпоративною орієнтацією на прибуток. Він закликає уряди в усьому світі працювати разом, щоб розробити суворі механізми регулювання, щоб уникнути потенційних катастроф.
Основна думка Хінтона полягає в тому, що можливості штучного інтелекту є не просто технологічним проривом, але можуть потенційно змінити структури влади і навіть вплинути на весь суспільний порядок. Він визнає, що одночасно вражений і побоюється потенціалу цієї технології, і прямо заявляє, що «це одна з найбільш руйнівних інновацій в історії людства».
У той же час Янн ЛеКун, головний науковець зі штучного інтелекту в Meta Марка Цукерберга, ще одна критична фігура в галузі ШІ, має зовсім інше ставлення до майбутнього ШІ. Він вважає, що за правильного використання ШІ може вирішити глобальні проблеми, такі як дефіцит енергії та нерівний розподіл медичних ресурсів. ЛеКун підкреслив, що загроза перебільшення штучного інтелекту може затьмарити його потенційні переваги, і стверджував, що розповідь про «кінець світу» упереджена.
Лекун стверджує, що штучний інтелект може не тільки підвищити ефективність, але також може стати «рятівником» для вирішення проблем планети. Він вважає, що поки люди відповідально керують технологіями, переваги штучного інтелекту значно переважають ризики.
Яке майбутнє очікує ШІ?
Розбіжності серед людей щодо майбутнього штучного інтелекту демонструють поляризацію суперечок щодо технології штучного інтелекту: з одного боку, існують глибокі занепокоєння щодо виходу технології з-під контролю та оптимістичні очікування щодо її потенціалу. На тлі стрімкого технологічного прогресу точаться гострі дискусії про вплив штучного інтелекту, а також у центрі уваги питання регулювання.
Зараз багато експертів вважають, що розробка штучного інтелекту повинна збалансувати інновації та безпеку. І підприємства, і уряди повинні вдосконалювати технології, забезпечуючи при цьому точність і дотримання технічних характеристик, щоб уникнути потенційно катастрофічних наслідків.
Тим не менш, у цій довгій дискусії про майбутнє людства прихильники та критики мають одне спільне: як забезпечити, щоб технології працювали на людство і не загрожували його виживанню.