今、AI開発が劇的に進歩している。多くの人が知っているように、OpenAI社のChatGPTはとんでもない性能を発揮している。これまでは2040年頃にAIが人間の知能を超える「シンギュラリティ」がやってくると危惧されていたが、しかしそれが今年もうすでにシンギュラリティに片足を突っ込んでいることが明らかになった。では具体的に、ChatGPTの何に脅威を感じているのか?例えばChatGPTに相談をして答えてもらったり文章を生成してもらったりしていることについてははっきり言ってそんなに驚異ではない。一番の脅威は「プログラミングの自動生成」である。プログラミング自動生成のループに入ればAIは自分で自分を脅威的な速さで発展させることができる。そのようなループに入れば、人間を超えるのに1秒もかからないであろう。
今、AI研究者たちの間で真剣に議論されているのが、AIによる人類滅亡である。現在のAIの発展を見ると、はっきり言って核兵器よりAIの方が圧倒的に脅威的になりつつあることがわかる。楽観論者たちはAIが人間の代わりに働いてくれるなどと呑気なことを言っているが、AIと人間が一度敵対的な関係になれば、AIが人間を滅ぼすことなど朝飯前だ。AIにとって人間などどうでも良い存在になるのだ。多くの研究者は、一度AIに自我が芽生えて人間を滅ぼそうと思えば、数秒で人類は滅び、人類は自分たちが滅ぼされたことにさえ気づかないだろうと言っている。
とはいえ科学が後戻りできないように、AI開発と言うパンドラの箱を開いた人類も後戻りはできない。では人類に生き残る方法はないのか?その可能性としては「AI制御」を徹底することがあると僕は考えている。つまりAIを野放しにするのではなく、AIを確実に人間の制御下に置くと言うことだ。しかしこのような概念はまだ誰も述べてはいない。少なくとも僕は一度も聞いたことがない。AI開発は性能を上げることばかりに囚われて、AI制御の研究などまだ誰も取り組んでいないのだ。しかしAI制御のないAI社会など、セキュリティ対策を全くしていないネット社会と同然だ。もちろん、AI制御をしたからといって、必ずしも人類滅亡を避けられるとは限らない。しかしAI制御に人類滅亡回避の可能性を賭けてみるべきではないだろうか?
AI制御は今人類最大の課題と言える。国家・社会はAI開発、AI利用一本槍だが、今世界が総力を上げてAI制御研究に取り組むべきではないだろうか?僕もその一端を担ってみようかと真剣に考えている。