Geoffrey Hinton britânico-canadense, conhecido como “Padrinho de inteligência artificial,Pioneiro em aprendizado profundo e redes neurais artificiais. Este ano, ele recebeu o Prêmio Nobel de Física por suas contribuições à inteligência artificial. No entanto, ele disse recentemente que há um10 a 20 % de chance de que a inteligência artificial (IA) cause extinção humana nos próximos 30 anos, acima dos 10 % que ele previu anteriormente.
De acordo com um recentePostagem TheGuardianE em uma entrevista ao programa Today da BBC Radio 4, Hinton disse que o rápido desenvolvimento da IA havia criado desafios sem precedentes para a humanidade. ““Nunca tivemos que lidar com algo mais inteligente que nós mesmos. Quantos exemplos você pode dar de coisas menos inteligentes, mas controlando coisas mais inteligentes? Dificilmente. As únicas exceções podem ser mães e bebês, mas isso foi alcançado ao longo de milhões de anos de evolução. ”
Na entrevista,Hinton descreveu os humanos como uma criança de três anos em comparação com os sistemas avançados de IA, dizendo: “Pense em você e em uma criança de três anos; No futuro, seremos crianças de três anos na frente de sistemas altamente inteligentes avançados. ” Ele argumenta que essa assimetria de inteligência provavelmente levará à perda de controle sobre a IA.
Pioneiro na pesquisa de rede neural, Hinton trabalhou para o Google por muitos anos até que ele decidiu sair em 2023 para se concentrar nos riscos da IA. Ele alertou que os sistemas de IA podem superar a inteligência humana nas próximas duas décadas, e os desafios e crises que eles trazem serão imprevisíveis. Ele acredita que o desenvolvimento seguro da IA não pode ser garantido apenas pela orientação para o lucro corporativo. Ele pede que os governos em todo o mundo trabalhem juntos para desenvolver mecanismos regulatórios rigorosos para evitar possíveis desastres.
O ponto principal de Hinton é que os recursos de IA não são apenas avanços tecnológicos, mas podem potencialmente alterar as estruturas de poder e até afetar toda a ordem social. Ele admite que está admirado e apreensivo com o potencial dessa tecnologia e afirma sem rodeios que "essa é uma das inovações mais perturbadoras da história da humanidade".
Ao mesmo tempo, Yann Lecun, cientista -chefe da IA da Meta de Mark Zuckerberg, outra figura crítica no campo da IA, tem uma atitude muito diferente em relação ao futuro da IA. Ele acredita que, se adequadamente utilizado, a IA pode resolver desafios globais, como escassez de energia e distribuição desigual de recursos médicos. Lecun enfatizou que a ameaça de exagerar a IA poderia ofuscar seus benefícios potenciais e argumentou que a narrativa do "fim do mundo" é tendenciosa.
Lecun argumenta que a IA pode não apenas melhorar a eficiência, mas também pode ser um "salvador" para resolver os problemas do planeta. Ele acredita que, enquanto os seres humanos impulsionam a tecnologia com responsabilidade, os benefícios da IA superam em muito os riscos.
Onde o futuro se mantém para a IA?
A discordância entre as pessoas sobre o futuro da IA mostra a polarização da controvérsia da tecnologia da IA: por um lado, há profundas preocupações sobre a tecnologia que fica fora de controle e as expectativas otimistas sobre seu potencial. No contexto de rápidos avanços tecnológicos, há um debate acalorado sobre o impacto da IA, e as questões regulatórias também estão em destaque.
Atualmente, muitos especialistas acreditam que o desenvolvimento da IA precisa equilibrar a inovação e a segurança. Tanto as empresas quanto os governos devem avançar a tecnologia, garantindo que as especificações sejam precisas e sejam aplicadas para evitar consequências potencialmente catastróficas.
No entanto, neste longo debate sobre o futuro da humanidade, os proponentes e os críticos têm uma coisa em comum: como garantir que a tecnologia funcione para a humanidade e não ameaça sua sobrevivência.