人間はAIの前にいる3歳のようです

イギリス・カナダ人のジェフリー・ヒントン、「人工知能のゴッドファーザー、」深い学習と人工ニューラルネットワークの先駆者。今年、彼は人工知能への貢献に対して、物理学のノーベル賞を受賞しました。しかし、彼は最近、あると言った人工知能(AI)が今後30年以内に人間の絶滅を引き起こす可能性が10〜20%で、彼が以前に予測した10%を超えています。

最近によるとガーディアンポストそして、BBC Radio 4's Todayプログラムとのインタビューで、ヒントンは、AIの急速な発展が人類にとって前例のない課題を生み出したと述べました。 「私たちは自分よりも賢いものに対処する必要はありませんでした。あまりインテリジェントではないが、よりインテリジェントなものを制御しているものについては、いくつの例を与えることができますか?しそうにない。唯一の例外は母親と赤ちゃんかもしれませんが、これは何百万年もの進化にわたって達成されてきました。」

インタビューで、ヒントンは、高度なAIシステムと比較して、人間は3歳のようであると述べ、「」と述べた。あなた自身と3歳について考えてください。将来、私たちは高度な高度なインテリジェントシステムの前で3歳になります。」彼は、この知能の非対称性がAIに対する制御の喪失につながる可能性が高いと主張している。

ニューラルネットワーク研究の先駆者であるヒントンは、2023年にAIのリスクに焦点を当てるために辞めることを決定するまで、長年Googleで働いていました。彼は、AIシステムが今後20年間で人間の知性を上回る可能性があり、彼らがもたらす課題と危機は予測不可能であると警告しました。彼は、AIの安全な発展は、企業の利益志向だけでは保証できないと考えています。彼は、潜在的な災害を避けるために、世界中の政府が協力するように協力するように求めています。

ヒントンの核心は、AI機能は単なる技術的なブレークスルーではなく、潜在的に電力構造を変え、社会秩序全体に影響を与える可能性があるということです。彼は、この技術の可能性についてwe敬の念を抱いており、不安を抱いていることを認めており、「これは人類史上最も破壊的な革新の1つである」と率直に述べています。

同時に、AIの分野にある別の重要な人物であるマーク・ザッカーバーグのメタの主任AI科学者であるヤン・レクンは、AIの将来に対して非常に異なる態度を持っています。彼は、適切に利用すれば、AIはエネルギー不足や医療資源の不平等な分布などの世界的な課題を解決できると考えています。 Lecunは、AIを誇張するという脅威が潜在的な利益を覆い隠す可能性があると強調し、「世界の終わり」の物語が偏っていると主張しました。

Lecunは、AIは効率を改善するだけでなく、惑星の問題を解決するための「救世主」でもある可能性があると主張しています。彼は、人間が責任を持って技術を駆り立てる限り、AIの利点はリスクをはるかに上回ると信じています。

AIの未来はどこに保持されますか?

AIの将来についての人々の間の意見の相違は、AI技術の論争の二極化を示しています。一方で、技術が制御不能になり、その可能性について楽観的な期待があることについて深い懸念があります。急速な技術の進歩を背景に、AIの影響について激しい議論があり、規制上の問題もスポットライトを浴びています。

現在、多くの専門家は、AIの開発がイノベーションとセキュリティのバランスをとる必要があると考えています。企業と政府の両方は、潜在的に壊滅的な結果を避けるために仕様が正確で強制されるようにしながら、技術を進める必要があります。

それにもかかわらず、人類の将来についてのこの長い議論の中で、支持者と批評家は共通点が1つあります。テクノロジーが人類のために働き、その生存を脅かすことを保証する方法です。

Related Posts