ホーキング博士の警告について考えてみる
▪️ホーキング博士の警鐘
先週だったか、ネット上でホーキング博士のAIに対する警鐘が話題になっていた。人工知能は病気や戦争、貧困の根絶に貢献する可能性がありながらも、人類史上最悪の脅威になりうるとのことだ。
「ひとたび人類が人工知能を開発してしまえば、それは自立し、加速度的に自らを再設計していくだろう」という部分のインパクトが強く、考え方がSF的過ぎるという意見も多かったようだ。
▪️個人的見解
私としての見解は以下の三つだ。
・ 人工知能がそこまで進化する前に兵器に搭載されて問題になる
・ 便利さ故にモラルの崩壊が起きて問題になる
・ そこまで行く前に別の問題にぶち当たり文明が衰退する
つまり、ホーキンング博士の懸念が実現する前に、別の問題に阻まれるということだ。
AIを開発するといっても目的は経済活動だ。人間の思考のメカニズム等の経済に寄与しない研究、突き詰めれば魂の性質といった現代人からすれば胡散臭いようなものも追求しないと、人間のように思考するコンピュータは作れないと思う。仕組みもわからないのに、同じ動きをするものが作り出せるとは思えない。
また、お金のことしか頭になければ、技術を達成するのに必要な発想を誰かが出したとしても、それに価値を見出せない。つまり、現代人では人間のように思考するAIは作れないと考えている。
▪️コンピュータに魂は宿るか
ただ、こういう可能性ならあると思う。何かの動物の受精卵をいじくって、脳細胞や神経細胞だけを生み出して、何らかの方法で制御を加えてコンピュータとして機能させる。こういう手法であれば、生き物のように考えるコンピュータ、っぽいものは作れる可能性がある。
だが、この方法で考えるコンピュータを作ったとしても、本質的には馬車と同じだ。馬に馬車を引かせるように、生き物の考える機能を間借りするだけだ。考えるコンピュータを作ったのでなく、コンピュータに生き物をねじ込んだだけだ。
こういう方法で高性能な人口知能を実現したら、ホーキング博士のいうような事態も考えられると思う。なぜなら、思考のメカニズムや魂の構造、そういった仕組みを無視して機能だけ実装するからだ。これって何かに似てないか?そう。あなたの現場で動くブラックボックスなシステムと似ている。
▪️そこで人工知能について語りたくなった君たちの期待を打ち砕く
つまり何が言いたいか。自分の使ってるシステムくらいきちんと使いこなそうということだ。人工知能云々の前に、目の前にある道具をきちんと使いこなそう。それができれば目的は十分に達成できる。ツールを使いこなすことで、労働時間を短縮させて もっと有意義な活動に打ち込める。一つのツールを使いこなすのに時間や労力は必要だが、それに見合った知見の広がりも得ることができる。
高度な人口知能が実現したとして、仕事の生産性が良くなるだろうか。その前に残業時間を減らそう。人口知能云々言う前に、思考というプログラムが腐ってないかちゃんとデバッグしよう。その方が現実的だ。私たちの抱えている本当の問題は、労働の効率より労働のありかただろう。そこに人工知能の出る幕は無い。
これからの時代は創造より活用だ。新しいものを作り出すのではなく、既存のものをどう使うかが、ないがしろにされていないだろうか。人工知能より目先の問題として、私はそちらに警鐘を鳴らしたい。
コメント
仲澤@失業者
今あるシステムを使いこなそう。は重要ですね。
もっとも、原子力やら民主主義やらはなかなか使いこなせてないようです。
コラムを読んで大昔に感銘を受けた(というか、笑い転げた)SF小説を思い出しました。
マレイ・ラインスターの「ジョーという名のロジック(A Logic Named Joe)」です。検閲機能が壊れた検索器(ロジック=AI+ブラウザみたいなものらしい)が、ほんとは教えてはいけないことも回答してしまい、大混乱に陥るといった話でした。
この小説が書かれたのは1946年。つまりエニアックが発表された年であることも、結構な衝撃でした。
こういった想像力に関しては、科学者より小説家のほうが上手かもしれませんねぇ(笑)。
naruhira
時折人口知能というTypoを織り交ぜ、機械知能による判読エラーを誘発するわけですね。ww
でも、「目の前にある道具をきちんと使いこなそう」はすばらしい視点です。
当たり前の事なのに、ついつい流されてしまいます。ありがとう。