Geoffrey Hinton, anglo-canadese, noto come “Padrino dell'intelligenza artificiale," ha aperto la strada al deep learning e alle reti neurali artificiali. Quest’anno gli è stato assegnato il Premio Nobel per la fisica per i suoi contributi all’intelligenza artificiale. Tuttavia, ha recentemente affermato che esiste un fileUna probabilità del 10-20% che l’intelligenza artificiale (AI) causerà l’estinzione umana entro i prossimi 30 anni, una probabilità superiore al 10% previsto in precedenza.
Gli esseri umani sono come bambini di tre anni di fronte all’intelligenza artificiale.
Secondo un recenteIl posto di guardianoe in un'intervista al programma Today della BBC Radio 4, Hinton ha affermato che il rapido sviluppo dell'intelligenza artificiale ha creato sfide senza precedenti per l'umanità. “Non abbiamo mai avuto a che fare con qualcosa di più intelligente di noi stessi. Quanti esempi puoi fornire di cose meno intelligenti che controllano cose più intelligenti? Difficilmente. Le uniche eccezioni potrebbero essere le madri e i bambini, ma questo è stato raggiunto nel corso di milioni di anni di evoluzione.”
Nell'intervista,Hinton ha descritto gli esseri umani come bambini di tre anni rispetto ai sistemi di intelligenza artificiale avanzati, dicendo: "Pensa a te stesso e a un bambino di tre anni; in futuro saremo bambini di tre anni di fronte a sistemi avanzati altamente intelligenti.” Sostiene che questa asimmetria dell’intelligenza porterà probabilmente alla perdita di controllo sull’intelligenza artificiale.
Pioniere nella ricerca sulle reti neurali, Hinton ha lavorato per Google per molti anni fino a quando ha deciso di lasciare nel 2023 per concentrarsi sui rischi dell'intelligenza artificiale. Ha avvertito che i sistemi di intelligenza artificiale potrebbero superare l’intelligenza umana nei prossimi due decenni e che le sfide e le crisi che porteranno saranno imprevedibili. Ritiene che lo sviluppo sicuro dell’intelligenza artificiale non possa essere garantito solo dal solo orientamento al profitto aziendale. Chiede ai governi di tutto il mondo di lavorare insieme per sviluppare meccanismi normativi rigorosi per evitare potenziali disastri.
Il punto centrale di Hinton è che le capacità dell’intelligenza artificiale non sono solo scoperte tecnologiche ma possono potenzialmente cambiare le strutture di potere e persino influenzare l’intero ordine sociale. Ammette di essere allo stesso tempo stupito e preoccupato per il potenziale di questa tecnologia e afferma senza mezzi termini che "questa è una delle innovazioni più dirompenti della storia umana".
Allo stesso tempo, Yann LeCun, il capo scienziato dell’intelligenza artificiale presso Meta di Mark Zuckerberg, un’altra figura critica nel campo dell’intelligenza artificiale, ha un atteggiamento molto diverso nei confronti del futuro dell’intelligenza artificiale. È convinto che, se utilizzata correttamente, l’intelligenza artificiale può risolvere sfide globali come la carenza di energia e la distribuzione ineguale delle risorse mediche. LeCun ha sottolineato che la minaccia di esagerare l’intelligenza artificiale potrebbe oscurare i suoi potenziali benefici e ha sostenuto che la narrativa della “fine del mondo” è parziale.
LeCun sostiene che l’intelligenza artificiale non solo può migliorare l’efficienza ma potrebbe anche essere un “salvatore” per risolvere i problemi del pianeta. È convinto che finché gli esseri umani guidano la tecnologia in modo responsabile, i benefici dell’intelligenza artificiale supereranno di gran lunga i rischi.
Dove riserva il futuro per l’intelligenza artificiale?
Il disaccordo tra le persone sul futuro dell'intelligenza artificiale mostra la polarizzazione della controversia sulla tecnologia dell'intelligenza artificiale: da un lato ci sono profonde preoccupazioni per la possibilità che la tecnologia sfugga al controllo e aspettative ottimistiche sul suo potenziale. Sullo sfondo dei rapidi progressi tecnologici, è in corso un acceso dibattito sull’impatto dell’intelligenza artificiale e anche le questioni normative sono al centro dell’attenzione.
Attualmente molti esperti ritengono che lo sviluppo dell’intelligenza artificiale debba bilanciare innovazione e sicurezza. Sia le aziende che i governi dovrebbero far avanzare la tecnologia garantendo al tempo stesso che le specifiche siano precise e applicate per evitare conseguenze potenzialmente catastrofiche.
Tuttavia, in questo lungo dibattito sul futuro dell’umanità, sostenitori e critici hanno una cosa in comune: come garantire che la tecnologia funzioni per l’umanità e non minacci la sua sopravvivenza.