奥深く悩ましく、そして楽しいソフトウェアテストの世界

AIチャットボットとリスクとリテラシー

»

バグ出してますか?HOLLYです。(定番の書き出しにしたいらしい...)

近頃、AIチャットボットの進化が著しく、SNSでは日々様々な利用例が流れてきています。
知らないことを聞いたり、タイトルから詩を考えてもらうくらいでは、便利なんだなぁ、と思う程度ですが、
コードの自動生成やコードレビューに使えたり、テストへの活用だとテスト内容を考えてもらう、といった利用方法になると、
ちょっとそれは大丈夫なのか?と安易な利用へのリスクを懸念してしまいます。
そうしたAIチャットボットのリスクを少し考えてみたいと思います。

AIチャットボットのリスクを考える

セキュリティリスクを考慮しているか

精度の高いAIチャットボットの進化している学習データはどこから来ているのか、疑うべきです。
安易に便利だからと仕様書や未公開のソースコードといった機密情報を安易にチャットに入力してはいけません。
そういえば、だいぶ前にオンライン翻訳サービスにも英語の仕様書を訳そうとして問題になったとかならなかったとか、
クラウドサービスへのリスク意識がないと"やらかし"はなくなりませんね。
さらに利用者自体が攻撃者となるような、例えば自動生成で悪意のあるコードも書けてしまう、誰かになりすました文章を生成できるとなると、さらに多方面にセキュリティリスクは高くなるのは言うまでもないかと思います。

生成されたデータの信頼性を疑う

GPT言語モデルは、単語から単語を予測し文章を作り上げていきます。
その単語間のランダム性や確率といったものを見ており、不自然な文章ではない「それっぽい文章」が生成できます。
GPT-2は昨年私も文章生成をテスト方面に利用できないかと試していたのですが、まだまだ不自然さの残るものでした。
しかしGPT-3、ChatGPTからその生成される文章性能が凄まじく向上していて、もはや不自然どころか真実味のある文章になりすぎてしまっている点にリスクがあるような気がしています。
例えば、「食品○○には発ガン性物質がある。理由は△△」といった真実味のあるデマ情報が、何らかの手段で多く学習データに入り込んでしまった場合、あからさまなノイズデータであれば除去できますが、真実の判定が難しい場合はそれが不特定多数の多くの一般ユーザに知られてしまうことになるでしょう。
その結果、不利益を被る企業や、関係者への利害に影響する事態になった場合、AIは責任を取れるでしょうか。
ノイズデータを最初にインプットした悪意のあるユーザの特定も難しいかもしれませんし、一度広がった風評被害の回復の難しさは最近のニュースなどからでもあるように容易に想像できます。
特に難しいのは利用者側のリテラシで、これまでの不自然さの残るようなAIモデルであれば、「まぁAIだし、本当か嘘か、怪しいものだ」となっていたものが、近頃のSNSの利用者の反響からは「これは使える!」と内容の真偽を疑わないままもはや絶対的に便利な辞書として認知されている風潮さえあるような気がしています。
Wikiの情報にも誤りがあるように、出典のないAIチャットボットの出力結果も思考停止せずに疑うことが大事ではないかと思います。

結局使う側のリテラシ次第、でよいのか?

結局、セキュリティにせよ生成データの信頼性にせよ、利用者が理解し適切に利用すれば便利なツールであることは間違いないのですが、そのリテラシレベルがとても追いついていないと思っています。
今後さらに一般大衆化が進み、ITリテラシのさらに低い方達が使いだすと社会問題にも発展してくるのではないかと懸念しています。

・・・では、今回はこの辺で。

Comment(0)

コメント

コメントを投稿する