AIシステムは間違いを犯し、それを認めないことがある

人間が生死に関わる責任を任せられる人工知能システムを構築するためには、機械は非常に人間的な特性を身につける必要がある。間違いを認めること。

AIシステムは間違いを犯しても、それを認めないことがある

By Tara Haelle

2022年4月5日C 人工知能システムは病気の診断に役立つように作られているが、生死に関わる責任を任せられるようになる前に、AIは非常に人間らしい特性を身につける必要があるだろう。それは、「間違いを認めること」です。

そして、実はまだそれができないのです。

ケンブリッジ大学とオスロ大学の研究者によれば、現在、AIは自分が間違えたことに気づくよりも、問題に対して正しい答えを出すことの方が多い。

この根本的な欠陥は、数学の問題に根ざしていると彼らは報告しています。

数学の記述の中には、真偽を証明できないものがある。例えば、私たちの多くが学校で習った数学は、簡単な問題や厄介な問題に対する答えを見つけるために使われるのだが、その後、その数学の適用における一貫性を証明するために使うことはできないのだ。

私たちは正しい答えを出したかもしれないし、そうでないかもしれませんが、私たちは自分の仕事を確認する必要がありました。これは、コンピュータのアルゴリズムにはほとんどできないことなのです。

20世紀初頭、数学者のアラン・チューリングとクルト・ゲルが初めて指摘した数学のパラドックスで、数学の問題の中には証明できないものがあるというフラグが立っています。

数学者のスティーブン・スメイルは、このAIの基本的な欠陥を「世界の18の未解決数学問題」にリストアップしました。

この数学的パラドックスに基づき、ケンブリッジ大学応用数学・理論物理学部のマシュー・コルブルック博士率いる研究者たちは、AIの問題領域を分類する新しい方法を提案した。

米国科学アカデミー紀要』において、研究者らは、人間の脳のニューロン・ネットワークをモデルにしたAIニューラル・ネットワークCが、より信頼性の高い結果を出すために実際に訓練できる状況をマッピングしています。

より賢く、より安全なAIシステムを作るために必要な重要な初期作業です。

Hot