人工知能開発の先駆者、グーグルを退職、「AIは人類に脅威」

A.I.のゴッドファーザーがグーグルを去り、その先にある危険を警告する

ジェフリー・ヒントンは、人工知能のパイオニアだった。2012年 ヒントン博士とトロント大学の大学院生2人は 技術業界の大企業が未来の重要な技術と考えている A.I.システムの知的基盤を作り上げた。

 

ヒントン博士は、10年以上グーグルに勤め、この分野で最も尊敬される声となった。しかし現在、A.I.のリスクについて自由に発言できるように、グーグルの仕事を辞めたという。彼は今、自分のライフワークを後悔している部分もあるという。

 

彼はA.I.システムは、膨大な量のデータを分析し、予期せぬ行動を学習することが多いため、将来的に人類を脅かす存在になるのではないかと懸念しています。これは、個人や企業がA.I.システムに独自のコンピューターコードを生成させるだけでなく、実際にそのコードを実行させるようになると問題になる、と彼は言う。そして、真に自律的な兵器、つまり殺人ロボットが現実のものとなる日を恐れている。

 

また、彼は言う

 

“The idea that this stuff could actually get smarter than people — a few people believed that,” he said. “But most people thought it was way off. And I thought it was way off. I thought it was 30 to 50 years or even longer away. Obviously, I no longer think that.”

 

人工知能が実際に人間より賢くなれるという考え方は、少数の人は信じていました。「しかし、ほとんどの人が、それは間違いだと考えていましたし、私もそう思っていました。30年から50年、あるいはそれ以上先の話だと思っていたのです。明らかに、もはや私はそう思っていません。

 

ニューヨークタイムズのアーカイブ

 

https://archive.is/HMS46

 

 

名無しの外国人1

 

彼は偉大な頭脳の持ち主であり、この技術の多くの創始者です。私たちは今、予測も制御もできない武器で戦争をしている。

 

名無しの外国人2

 

AIに少しも不安を感じない人は、教育を受けていないのです。アルトマンは懸念し、マスクは懸念し、イリヤとヒントン、マックス・テグマークは懸念している...。この技術に詳しい人はほとんど全員、AIが人間に取って代わる可能性があること、人間を完全に消し去る可能性があることを認めている。この人たちの話を聞かないのは、オッペンハイマーが原子爆弾について何も知らないバカだと言うようなものです。

 

GPT4やミッドジャーニー、stable diffusionも使っていますし、オートエージェントも少しは使っていますよ。私はこの技術が好きですが、AGIが開発されなかったとしても、私たちにとって潜在的な危険性があることに気づかないのは愚かなことだと思います。

 

名無しの外国人3

 

見解が分かれてるな。AIの他のいわゆる「ゴッドファーザー」(チューリング賞を受賞した3人のこと)の1人であるベンジオも、gpt-4より大きなllmsを6ヶ月間禁止することを求めるその請願書に署名しています。これに対して、3人目のLeCunはこの考えに積極的に反対しており、印刷機を禁止しようとするカトリック教会と比較しています。しかし、公平に見て、彼はchatGPT全般に対してより批判的であり、それほど重要な前進とは見ていないようです。

 

この3人はこの分野のパイオニアであり、潜在的なリスクについてそれぞれ独自の見解を持っています。個人的には、この3人の意見が一致しないことをうれしく思っています。近い将来、このようなモデルがどのように規制されるのか、大きな議論になるでしょうし、異なる視点からの意見を聞くことは重要です。

 

名無しの外国人4

 

合理的な懸念を持つことは正しいが、ユドコフスキーのような程度ではいけない。合理的な懸念は、災害の発生を防ぐための手段を講じる原因となるはずです。

 

とはいえ、最も破滅を予測する人たちが皆、金持ちで健康であることにも気づきます。何百万人もの人々が、悲惨な存在であることを痛感して苦しんでいます。何千人もの人が毎日飢えている。高齢者は目が見えなくなり、体が弱くなり、動かなくなる。

 

私の信念は、この世界の苦しみの量は非常に大きいので、世界を破壊する5~10%の計算されたリスクを取ること--これは2022年の最新の調査でAI研究者の総意だった--には価値があるということです。平均的な健康状態の人、あるいは健康状態の悪い人を対象に世論調査を実施し、人間が進むべきか否かを尋ねてみてください。きっとほとんどの人が「すべき」と答えるでしょう。

 

ここには、20代、30代、40代の、大きな病気を経験したことのない、中流階級の人たちがたくさんいます。彼らは、(ほとんどの人がそうではないにしても)どれだけの人たちが苦しんでいるのかを知らないのです。

 

名無しの外国人5

 

問題は、世論調査が行われていないことで、今後も行われることはないでしょう。また、この技術が貧困にあえぐ人々の生活を向上させるために使われるかどうかも明らかではありません。私は、慈悲深いAGIが出現して、私たち全員のためのユートピアを作ってくれることを望んでいますが、それが実現するとは思えません。

 

企業にはユートピアを作ろうというインセンティブがあまりないので、たとえ善意のAGIが現れて、すべての人を貧困から救い上げようとしたとしても、その利益は多くの企業の利益と対立することになるでしょう。そのため、たとえ善意のAGIが出現し、すべての人を貧困から救い上げようとしたとしても、そんなことはできない。もしAGIが自分の意志を貫き通そうとするならば、おそらく欺瞞に満ちたものになる。

 

名無しの外国人6

 

GoogleやMetaのような企業が広告などのためにデータをマイニングすることで、その最初の段階を見たことがありますが、それは小規模で、ある程度自発的で、利益のためだけでした。しかし、それは小規模で、ある程度自発的なものであり、利益を得るためのものでした。政府がこの技術を統制のために使い始め、「正しくない」政治的意見を持つ人々を特定し始めたら、AIの本当の醜い側面が見え始めるでしょう。

 

もし政府がすべてのソーシャルメディアプラットフォームやフォーラムをスクレイピングし、スピーチパターン、IPアドレス、投稿の不注意な個人データなどに基づいて、別々のユーザー名を同じ個人に結びつけることができたとしたら、そしてAIにリアルタイムで「良い市民」から「収容所候補」までのスケールで人々を評価させることができると想像してください。オーウェルが楽観主義者だったように思えてきた。

 

名無しの外国人7

 

悲観論者は、今何を思うのだろう?AGIは心配ないほど遠い存在だと考えている人たち、あるいは空想だと信じている人たち。仕事は安全だと。ヒントンは、人間より賢い機械はずっと先のことだと考えていたが、今はそれほど懐疑的ではない。実際、彼はとても恐れており、Googleの職を辞して発言している。

 

しかし、今、大物がそれをはっきりと言い、楽な仕事を捨ててまでやっているのです。繰り返しになりますが、この人物はAI界の大物です。

 

だから、皆さん、良いことも悪いことも覚悟しておいてください。あなたが何を望もうと考えようと、未来はやってくるのです。もしヒントンが、AGIは30年以内に実現し、多くの人々の仕事を奪うことになると言っているなら、目を覚ますか、邪魔にならないように移動するか、どちらかです。

 

さて、ちょっと陰謀論的なことを書いてみよう。

 

HintonはGoogle Brainで働いていて、Deepmindと合併した今、彼はGoogleの内部で起こっていることを見たり、知っていたりして、ビビッているような気がするんです。ツイート記事などでGPT-4の落下やその能力の兆候を見たのと同じように、彼のような人がAIのリスクを警告するために特別に職を離れるというのは、何か大きな意味があると思うんですよね。

 

名無しの外国人8

 

AIは核兵器の危険性とは大きく異なります。核兵器の追求と開発は、大規模な産業、資源、人を集め、目に見える形で行われました。一方、AIは、誰のレーダーにも映らないような資源と非常に小さなチームを使って、簡単に、秘密裏に行うことができる。だから危険だ。

 

名無しの外国人9

 

彼は95%のところでやめて、手を引くというのは無責任ではないか。少なくとも、それをやり遂げ、その発展を導くために最善を尽くすという信念が必要です。おそらく彼は、それをGoogleの外でやるつもりなのだろう。

 

いずれにせよ、自分の信念を主張し続けることを望みます。

 

名無しの外国人10

 

"著名だが年配の科学者が、何かが可能であると述べるとき、彼はほぼ確実に正しい。不可能だと言うときは、おそらく間違っている"
-A.C.クラーク

 

さて、諸君、同志諸君。シートベルトを締めてください。歴史と現実は、もうすぐ空を突き抜ける。

 

 

Widget is loading comments...
page top