「」として知られるイギリス系カナダ人のジェフリー・ヒントン人工知能のゴッドファーザー、」はディープラーニングと人工ニューラルネットワークの先駆けとなった。今年、彼は人工知能への貢献によりノーベル物理学賞を受賞した。しかし、彼は最近、あると言いました。人工知能(AI)が今後30年以内に人類を絶滅させる確率は10~20パーセントで、同氏が以前に予測した10パーセントよりも高い。
AIの前では人間は3歳児のようなものです。
最近の情報によると、ガーディアンポストそしてヒントン氏はBBCラジオ4のトゥデイ番組のインタビューで、AIの急速な発展が人類に前例のない課題をもたらしたと述べた。 「私たちは自分たちよりも賢いものに対処する必要はありませんでした。知性は低いものの、より知的なものを制御するものの例をいくつ挙げることができますか?しそうにない。唯一の例外は母親と赤ちゃんかもしれませんが、これは何百万年もの進化の中で達成されました」
インタビューでは、ヒントン氏は、高度な AI システムと比較すると、人間は 3 歳児のようなものだと表現し、次のように述べています。あなた自身と 3 歳児のことを考えてください。将来、私たちは高度な高度知能システムの前に立つ 3 歳児になります。」彼は、この知能の非対称性が AI に対する制御の喪失につながる可能性が高いと主張しています。
ニューラル ネットワーク研究の先駆者であるヒントン氏は、AI のリスクに焦点を当てるために 2023 年に退職を決意するまで、長年 Google で働いていました。同氏は、AIシステムは今後20年間で人間の知能を超える可能性があり、AIシステムがもたらす課題や危機は予測不可能なものになると警告した。同氏は、AIの安全な開発は企業の利益志向だけでは保証できないと考えている。同氏は、世界中の政府が協力して、潜在的な災害を回避するための厳格な規制メカニズムを開発するよう求めています。
ヒントン氏の要点は、AIの能力は単に技術的な進歩であるだけでなく、権力構造を変える可能性があり、さらには社会秩序全体に影響を与える可能性があるということだ。彼は、このテクノロジーの可能性に畏敬の念と不安を抱いていることを認め、「これは人類史上最も破壊的なイノベーションの 1 つです」と率直に述べています。
同時に、マーク・ザッカーバーグのメタ社のチーフAIサイエンティストであるヤン・ルカン氏は、AI分野におけるもう一人の重要人物だが、AIの将来に対して全く異なる態度をとっている。同氏は、AIが適切に活用されれば、エネルギー不足や医療資源の不平等な配分などの世界的な課題を解決できると信じている。ルカン氏は、誇張されたAIの脅威がその潜在的な利点を覆い隠す可能性があると強調し、「世界の終わり」の物語には偏りがあると主張した。
ルカン氏は、AIは効率を向上させるだけでなく、地球の問題を解決する「救世主」にもなり得ると主張する。人間が責任を持ってテクノロジーを推進する限り、AI のメリットはリスクをはるかに上回ると彼は信じています。
AI の未来はどこにあるのでしょうか?
AI の将来に関する人々の間の意見の相違は、AI 技術論争の二極化を示しています。一方で、この技術が制御不能になることに対する深い懸念と、その可能性に対する楽観的な期待があります。急速なテクノロジーの進歩を背景に、AIの影響について激しい議論が交わされており、規制問題にも注目が集まっています。
現在、多くの専門家は、AI の開発にはイノベーションとセキュリティのバランスを取る必要があると考えています。企業と政府はいずれも、壊滅的な結果を招く可能性を回避するために、仕様が正確で強制されていることを確認しながらテクノロジーを進歩させる必要があります。
それにもかかわらず、人類の将来に関するこの長い議論において、支持者と批判者には共通点が 1 つあります。それは、テクノロジーが人類のために機能し、人類の生存を脅かさないようにする方法です。