心配無用

ブログ

ホームページホームページ / ブログ / 心配無用

May 11, 2023

心配無用

[L'hype sull'IA non è nuovo.La storia dell’esagerazione di questa possibilità risale a molto tempo fa.

[AI の誇大宣伝は新しいものではありません。 その可能性を誇張する歴史は数十年前に遡ります。 この記事では、ロバート J. マークスが、2022 年の著書『Non-Computable You: What You Do That Artificial Intelligence Never Will』で詳しく取り上げられている見解の多くを繰り返しています。 今日は、もともと 2017 年 10 月 3 日に書かれ、The Stream で公開された記事を共有します。]

AI は私たちの世界を変革しています。 それについて心配する必要がありますか?

起業家で億万長者のイーロン・マスク氏は懸念している。

ウディ・アレンはかつてこう言いました、「もしすべてが幻想で、何も存在しないとしたらどうなるでしょうか?その場合、私は間違いなくカーペットにお金を払いすぎました。」 マスク氏はカーペットの代金を払いすぎたと考えている。 私たちが知っているように、この世界はスーパープログラマーによって設計された高度なコンピューターシミュレーションであり、私たち人間はそのシミュレーションにおける知的なエージェントである可能性が高いと彼は信じています。 マスク氏は私たちがインテリジェントなデザインの産物であると信じていると言えるでしょう。

そして私たちは、インテリジェントに設計されたシミュレーションとして、独自の AI (人工知能) シミュレーションを生成しています。 マスクの世界では、私たちはシミュレーションを書いているシミュレーションです。 私たちが作成する AI についてマスク氏は、「人工知能については非常に注意する必要があると思います。私たちの存在を脅かす最大の脅威は何かと言えば、おそらくそれでしょう。ですから、私たちは非常に注意する必要があります。」と警告しています。

マスク氏は、私たちを書いたスーパープログラマーにとって、私たちが存続の脅威となるかもしれないことを気にしていないようだ。 そして、もしマスクが正しければ、私たちが作成したAIシミュレーションは、最終的には私たちのシミュレーションが作成したシミュレーションによって破壊されるのではないだろうか? したがって、マスク氏が心配することは何もないのかもしれない。

AIが人類をこれ以上台無しにするのを避けるために、マスク氏はAIを制御する必要があると信じている。 この点に関しては彼は正しい。 すべての新しいテクノロジーには危険が伴います。 自動車、家庭用電気、電子レンジの導入による脅威がありました。 アルフレッド・ノーベルは、ダイナマイトの発明によってもたらされる脅威を懸念していました。 彼は、ノーベル平和賞を含むノーベル賞を創設することで自分の良心を救った。

そして、人類が終末装置の発明に最も近づいているのは、原爆と水爆の技術です。

では、ターミネーター映画に登場するスカイネットのようなコンピューターが自意識を持ち、私たちを抹殺しようとすることを心配する必要があるでしょうか? あるいは、『マトリックス』のように、コンピューターが私たちをぬるぬるした胎児のスープに浸かるよう強制する一方で、私たちの脳に組み込まれたコンピュータープログラムが私たちを仮想現実の架空の世界に連れて行くかもしれない。

コンピューターが人間を超えた知能を獲得する、いわゆるシンギュラリティを懸念する研究者たちは、この脅威を真剣に受け止めています。 これが起こると、コンピュータが引き継ぎ、あなたと私にとって最高の生活はロボットに甘やかされるペットになるでしょう。 心配する必要がありますか?

短い答えは「いいえ」です。 AI に関して多くの正当な懸念が提起される可能性がありますが、これらはそうではありません。 これらのことは何も起こりません。

コンピューターが意識を持ったり、理解したりすることは決してないという証拠がますます増えています。 ジョンズ・ホプキンス・ホワイティング・スクールのロボット研究室所長、グレゴリー・チリクジアン氏は、「ロボットはいかなる形の創造性や知覚力も発揮できないだろう」と付け加えた。

でも、ちょっと待ってください! 私たちは、これらすべてのことを行う何かを知っています。 それはどういうわけか私たちの耳の間にある3ポンドの脂肪の肉の中に含まれています。 おそらく私たちの脳のおかげで、私たちは創造的で、意識があり、感覚を持っています。 では、なぜいつか AI は私たちが行っていることをできなくなるのでしょうか?

人工知能やロボットが決して人間のより高度な能力を獲得できない最大の理由は、意識、理解、知覚、創造性などの機能が、現在コンピューターと定義されているものの範囲を超えているためです。 アラン・チューリングは 1930 年代にチューリング マシンを発明しました。 チャーチとチューリングの論文では、今日コンピュータで実行できることはすべて、チューリングのオリジナルのマシンでも実行できると述べています。 10億倍、1兆倍の時間がかかるかもしれませんが、それは可能です。 したがって、チューリング マシンで実行できない演算は、今日のスーパーコンピューターでは実行できません。

チューリングは、コンピューターの力を超えた多くの決定論的な操作が存在することを示しました。 たとえば、別の任意のコンピュータ プログラムが何を行うかを常に分析するようにコンピュータ プログラムを作成することはできません。 任意に選択されたコンピューター プログラムは最終的に停止するのでしょうか、それとも永久に実行されるのでしょうか? チューリングは、コンピューターではこの問題を解決できないことを示しました。 チューリング マシン、したがって今日のコンピューターには、実行できることについて根本的な制限があります。 理解という点では、私たちの脳はさまざまな点でチューリングマシンを超えて機能します。

哲学者のジョン・サールはチャイニーズ・ルームの議論の中で別の理由を提示した。 パッッジという名前の小男がいる部屋を想像してみてください。 彼はドアの隙間から中国語のメッセージを受け取りました。 パッジはメッセージを見て、部屋にある大量のファイルキャビネットに行き、同一または類似のメッセージを探します。 ファイル キャビネットの各フォルダーには 2 枚の紙が入っています。 そのうちの1枚には、ドアの隙間から滑り落ちたメッセージと一致する可能性のあるメッセージが書かれています。 ファイル内の 2 枚目の紙は、そのメッセージに対する対応する応答です。 Pudge が正しいメッセージと一致すると、対応する応答をコピーします。 フォルダーを再ファイルし、ファイル ドロワーを閉じた後、パッジはドアのスロットに戻り、そこから応答を送信し、仕事は完了です。

こちらがテイクアウトです。

パッッジは質問または応答を理解していますか? いいえ、パッッジは仕事をしていますが、中国語さえ読みません。 彼は単にパターンを合わせているだけです。 外から見るとパッッジは中国語を理解しているように見えるかもしれませんが、彼はそうではありません。 彼は単にアルゴリズム、つまり何らかの目標を達成するための段階的な手順に従っているだけです。

段階的な手順に従ってケーキを焼くとき、つまりレシピに従うとき、アルゴリズムを実行していることになります。 コンピューターにできるのはそれだけです。 アルゴリズムからの指示に従うことができます。

IBM のワトソン スーパーコンピューターがゲーム番組「Jeopardy!」で全員を破ったときのことを覚えていますか? 中国人の部屋のパッッジがウィキペディアの部屋に配属されるのは想像できる。 ワトソンが質問されると、パッジはウィキペディアのファイルキャビネットに行き、適切な回答を取り出し、スロットから外に出します。 コンピューターのワトソンは質問も答えも理解できません。 ワトソンは事前にプログラムされたアルゴリズムに従っています。 それは意識的ではありません。

では、何が私たちの脳、あるいはむしろ私たちに、コンピューターにはできないことを可能にするのでしょうか? 何が私たちと違うのでしょうか?

研究者の中には、私たちの驚くべき脳についての唯物論的な説明を求めている人もいます。 ロジャー・ペンローズ卿とスチュアート・ハメロフ博士は、脳内に見られる量子細管に注目して、量子力学モデルを提案しています。 ハメロフ氏は、彼らの脳の量子細管理論は「[強い] AI とシンギュラリティの大前提と矛盾している」と指摘しています。

ペンローズとハメロフの理論は、非アルゴリズム的な物理的な脳プロセスを提案しています。 コンピューターはアルゴリズムの実行に限定されています。 非アルゴリズムとは計算不可能を意味するため、ペンローズとハメロフが提案しているものはコンピューター上でシミュレートできません。 ペンローズ・ハメロフ理論や、いわゆる量子意識に関する他の研究が成功し、実用的なモデルに組み込むことができれば、脳と同じことを行う機械を生成できるようになるでしょう。 この新しいテクノロジーはコンピューターではありません。 別の名前を付ける必要があります。

もし私たちが人間のような脳を構築できるとしたら、恐れることはありません。 とても恐れてください。 スカイネットはすぐそこまで来ているかもしれない。 しかし、コンピューターが単に高速化し、より多くのメモリを使用する限り、この点について心配する必要はありません。

たとえコンピューター、つまりAIの限界を受け入れたとしても、マスク氏の懸念には依然として本質がある。 彼は、私たちが「何か邪悪なものを偶然生み出してしまう」のではないかと心配している。 彼は正しい。 コンピューターは命令されたことを実行します。

有名な SF 小説および映画「2001 年宇宙の旅」には、HAL という名前の高水準コンピューターが登場します。 映画の最後で、HAL は宇宙飛行士がミッションの主な目的を妨げているため、宇宙飛行士を殺そうとします。

これはコンピュータが不正になったというよりも、不注意なプログラミングです。 たとえHALが意識を持っているというフィクションを認めるとしても、責任は人間が使命よりも重要であることを明確にしなかったHALのプログラマーにあります。

SF 作家のアイザック アシモフは、1942 年の SF パルプマガジンの記事で AI 規制に鋭く切り込み、後に他の同様のテーマの記事とまとめて、『I Robot』というタイトルの本として出版しました。 アシモフは、AI ロボットの人間への従属を保証する 3 つの法則を提案しました。 アシモフの 3 つの法則のうちの最初のものは次のとおりです。

もし HAL が最初のアシモフの法則でプログラムされていたなら、HAL は宇宙飛行士を殺害してミッションを引き継ごうとすることは決してないだろう。 しかし、繰り返しになりますが、映画はあまり面白くなくなります。

AIの議員や規制当局はアシモフよりも広い視野で考える必要がある。 逃走する殺人容疑者をテーピングしようとする警察官に、AI ロボットは何をするでしょうか? 人間に危害を加えることを許さない最初の法律に従って、ロボットは警官の武装を解除し、殺人者は逃走するだろう。 最初の法律は改正する必要がある。

AIはいつか、行動する前に道徳的、倫理的な判断を下せるようになるだろうと言う人もいる。 いいえ。 道徳的、倫理的な判断はコンピュータプログラムで事前に行われます。

ルールの結果について考えるのは、議員や規制当局の仕事です。 彼らはしばしばそのやり方が下手です。 その結果生じる AI 規制によって、大勢の官僚がみんなのコードをのぞき見する必要がなくなることを願っています。 AI の動作に企業が責任を負う方が良いアイデアのように思えます。 そのようなルールを策定するには、私よりも優れた量子細管を持つ議員が必要です。

AI は今後も労働者に取って代わり、世界を変えていくでしょう。 旅行代理店、料金所の従業員、銀行の窓口係、レジ係、実店舗の従業員はアルゴリズムに取って代わられています。 しかし、AI の成長により、情報技術のスペシャリスト、ブロガー、データ アナリスト、プログラマー、ウェブマスターなどの仕事も生み出されました。

新しいテクノロジーは必ずこの種の移行を引き起こします。 経済学者は、自動車工場に取って代わられた、ことわざのバギー鞭工場を引き合いに出すことを好みます。

ただし、マーケティング、名声、無知、または Web サイトのクリック数の増加を動機とする AI の誇大広告には注意してください。 1900 年代初頭、トーマス エジソンは直流技術を宣伝しようとして、ニコラ テスラと競合する交流を使用して州の博覧会で動物を感電死させました。 エジソンは、1903 年にコニーアイランドで象のトプシーを打ち殺してしまいました。エジソンがこれをしたのは、人々がテスラの交流ではなく彼の直流を採用するためでした。

エジソンによれば、テスラの交流は潜在的な存亡の脅威であったという。 しかし、エジソンは真実には興味がありませんでした。 エジソンは、それが自分のビジネスを改善すると考えたため、誇大広告を吐き出しました。 今日の家庭の壁コンセントの出力から明らかなように、交流に問題があったにもかかわらず、テスラは戦いに勝ちました。 今でも時折感電死が発生したり、電気絶縁体の擦り切れによる住宅火災が発生したりしています。 しかし、私たちは電力のない生活によってこれらのリスクを排除することを検討することさえあるでしょうか?

新しいテクノロジーには必ず影響があります。 私の素晴らしい携帯電話のおかげで、私はウェブや世界の知識にアクセスできますが、そうすることで、Google とおそらく NSA に対して自分のプライバシーを犠牲にすることになりました。 常にトレードオフが存在します。 個人的には、テキサス州マクレガーからウェストバージニア州チャールストン近くの家まで車をプログラムし、GO を押して後部座席に潜り込んで昼寝するのが待ちきれません。 ここには危険が潜んでいる可能性があります。 間違ってノースカロライナ州チャールストンに入る可能性がありました。

ここで重要なのは、誇大宣伝をフィルタリングし、AI の限界を理解し、感電死したゾウを無視することです。 ほぼすべての AI 予測は双曲線的です。 National Enquirer と同様に、彼らは真実以外の何かによって動機付けられています。 ニールス・ボーアの「予測は非常に難しい。特に将来については」というアドバイスに留意してください。