Yuki Imamura

人工知能の意思と戦争

2024-01-18

2023年3月ごろから凄まじい勢いで、AIは進化しているように感じます。

私も毎日の仕事にChatGPTやGithub Copilotなどを利用しています。コーディングに関しては、完全に必需品になっており、Github Copilotなしでスムーズにコーディングできるかどうか怪しくなってきました。明らかに生産性は向上し、身の回りが便利になってきています。

さらに一昨日提供が開始されたMicrosoftの「Copilot Pro」にも、さっそく課金を始めました。今後仕事で活用できるレベルの様々なAIサービスが生まれてくると容易に予想できることでしょう。

しかし、テクノロジーは良い道具にも悪い道具にもなります。これだけパワフルで便利なものだからこそ、利用する人々のリテラシー教育や倫理教育はこれまで以上に必要になっていきます。

『ポスト・ヒューマン誕生』に出会ったときは、汎用型のAIは馬鹿げた話だと思っていました(と同時にワクワクもありました)。この勢いであれば、2030年以内には未来学者であるレイ・カーツワイルが言及するシンギュラリティが実現してしまうのではないか、そんな可能性まで感じ始めました。

もっと正確に言えば、そろそろ目の前で会話している相手が「AIなのか、人間なのか」を判別できなくなりそうです。

私たちが人間とAIを判別できなくなるということは、すなわちシンギュラリティ時代の到来を意味します。もっとも根本的な主題とは、「意思」がそこに存在すると錯覚し始めることだと私は考えています。

判別できなくなることが、AIに支配されることに繋がります。これはChatGPTをはじめて、触ったときに思ったことです。自分以外の存在の意思は、証明できないので、そこに存在すると思ったら、そこには意思があることになります。

恐れているのは、一般的に言うところのAIによる失業、著作権問題等よりも、戦争に利用され始めることです。

AIによってデータの分析からターゲットの判別、殺戮の実行まで自動化できるのなら、それはAI時代の戦争です。結局は人間と人間の争いなのですが、実際はAIがやっているということになります。

この状況こそ、AIによる反逆の構図だろうと思っています。もしかしたら意思決定は人間がやることになるかもしれません。もしくは実際には人間がほとんどの操作して、AIが補助するのかもしれません(AIがコーヒーを入れるとか)。いずれにせよ、人間が関与するのは間違いありませんし、一番最初の重要なコマンド(スタートの命令)は人間が行うことでしょう。

しかし、「本当にそうなのだろうか?」と私たちは考えるようになります。

戦っている本人が物理的な人でないのであれば、今攻撃してきたのは誰なのかがわかりません。AIなのか、人間なのか、そこに確信はありません。確信が持てません。

なぜなら常に相手には意思があるように見えるからです。AIによる反逆とは、この構図のことです。

私たちの生きているうちに、この問題に直面することは間違いないと思います。

不確かさが加速する未来に向けて、私たちは何かしらの対策を講じる必要があるのはたしかです。ただ、その何かとは具体的に何なのか、今のところまだわかっていません。