消費者庁の公表した「消費者のデジタル化への対応に関する検討会AIワーキンググループ報告書 」によると以下のようなAIに関するトラブルが予想されるとのことです。
上記の想定されるリスクからは、問題点としていくつかのパターン分けができるかと思います。
- 個人情報の流出、プライバシー侵害というセキュリティ上の問題
- 災害発生等でAIが利用できない場合の緊急措置に関する問題
- AIによる誤動作・誤判断による事故、不適切な情報提供や取引の発生
- AIに頼りすぎることによる運用上の問題
このうち、1番目のセキュリティ上の問題と2番目の緊急措置に関する問題はAIというよりIT全般として取り組むべき対策と考えます。
セキュリティであれば、通信の暗号化・盗聴の防止などの対策、緊急措置に関する問題であれば、バックアップシステムの確保などが対策になるかと思います。
残り2つに関しては、AIの本来的な問題であろうと思われます。
ここでAIに実用上期待できることは、ドラえもんやターミネーターのような意思を持った”強いAI”ではなく、「AlphaGo」のような”弱いAI”であるという点です。
つまり、特定の分野・状況下に限定し、その中で判断ができるレベルが現在のAIであるということです。
碁や将棋、チェスなどのゲームの世界、データの入力項目をチェックする等の単純作業などです。
私たちの生活の上で起こることや変化を全てAIが理解・判断することはできないという前提でAIを使いこなす必要があります。
最後はやはり人の目、人の判断がまだまだ必要な段階です。
次に”AIに頼りすぎることによる運用上の問題”ですが、これも悩ましい点です。
複雑な計算プロセスをAIが全て引き受けてくれて、人は結果だけを受け取ればよいというのは、ある意味AIのメリットでもあります。
ですが、上表のケースのように「審査の根拠が不明な場合、どう改善すれば審査を通過するか分からない」というのでは、金融機関として顧客と折衝することもできません。
このような場合、AIシステムを導入するにあたり、AI開発ベンダーに丸投げするのではなく、先々の運用を考えて開発段階から、金融機関担当者とAI開発ベンダーが意思疎通をしておくことが必要です。
例えば、AIシステムを開発するときに使用するテストデータ項目(これを”特徴量”といいます)の選定、またどの特徴量を動かすとどのように結果が変わるのかを試すテストデータを実験してみる、各特徴量の結果に与えるインパクトを計測する、などの後の運用フェーズで必要になりそうな情報をしっかりとAI開発ベンダーと共有しておくことが重要です。
読者登録をお願いします