AI倫理とクリエイティビティは共存できるのか?
AIが活用されているサービスと聞いて何を思い浮かべますか?自動翻訳やチャットボット、スマートスピーカー等日常のあらゆる場面でAIが活用されています。ソニーでは、AIの開発や利用を拡大していくにあたり、ソニーグループAI倫理ガイドラインの遵守を徹底し、「責任あるAI」を目指しています。一方、ソニーはクリエイティビティを起点として事業を行っています。倫理と創造性(クリエイティビティ)、一見対立するように見受けられますが、ソニーはどのように捉えているのでしょうか。今回、AI倫理室の今田さんから、AI倫理の重要性やソニーのAI倫理との向き合い方についてお話を伺いました。
- 田村 みゆ
ソニーが掲げるAI倫理の目指す世界とは
—そもそもAI倫理とはどのようなものなのでしょうか?
2016年から17年頃にかけて、AI技術が飛躍的に進歩し、さまざまな用途でAI技術の応用が加速しました。一方で、画像認識AIを活用した他社サービスが女性を動物と誤認してサービス停止に至った例や、他社のチャットボットが悪意のある発言を含んだ会話を学習した結果、人権侵害にあたる発言をするようになりサービス停止に至った例などがありました。AIの利活用において生じうる、公平性、透明性、アカウンタビリティ等を中心とした倫理的な課題が一般に「AI倫理」と総称されます。
—ソニーが掲げるAI倫理はどのようなことでしょうか。
ソニーが目指すAI倫理の方向性の一つは、「責任あるAI」による競争優位性の確立です。つまり、「ソニーの製品・サービスはAI倫理の観点でもしっかり確認されている」というポイントでもお客様に選んでいただけることだと思います。また、AIの利活用に伴う法律や、ブランドイメージ、倫理上のリスクを評価し低減するために、開発の早い段階からリスク抽出特定を行い、対応を計画・実行することが必要です。これらを実践することにより、全てのお客様に対して適切な製品やサービスづくりを進めていくことを目指しています。
マクロな視点とミクロな視点を使い分ける
—以前、AIの技術を活用した恋愛シミュレーションアプリケーション『束縛彼氏』についてお話を伺ったのですが、『束縛彼氏』ではAI倫理はどのように関わっていたのでしょうか。
発表前からAI倫理のアセスメントを行っていました。各事業部門は、ソニー品質マネジメントシステム(ソニー製品やサービスの品質維持向上を目指し、継続的に改善するための仕組み)の一部として、AI倫理アセスメントを実施しなければなりません。その後、AI倫理委員会で最終的に製品やサービスの内容を確認し、発表するという流れになります。
—AI倫理委員会はマクロな視点で、事業部門ごとではミクロな視点でAI倫理を検討しているのですね。
ソニーは、AIを活用することにより、平和で持続可能な社会の発展に貢献し、人々に感動を提供することを目指しています。またソニーは、エンタテインメントや、エレクトロニクス、半導体、金融等多様な事業を持っています。ソニーグループAI倫理ガイドラインは、これら事業を運営していくために定め、多様なステークホルダーとの対話を進めるとともに、ソニーにおけるAIの活用や研究開発を促進していきます。またそうした活用において、ガイドラインに違反してしまうようなリスクがないかを、まずはその当事者、つまり事業部門がアセスメントを実施した上で、AI倫理委員会でも確認していきます。
あくまで人間中心に考える
—ソニーといえば人間の創造性を解き放つような製品を世の中に出されていると思うのですが、創造性とAI倫理の共存はできるでしょうか。
ソニーのPurposeである「クリエイティビティとテクノロジーの力で、世界を感動で満たす。」において、感動を届ける対象はクリエイターやユーザー、つまり人間なんですね。ソニーのPurposeを踏まえてAI倫理ガイドラインでは始めに、「豊かな生活という、より良い社会の実現」を掲げています。クリエイターやコンテンツプロダクションに関わる人間の創造性や能力を機械に置き換えるのではなく、AIを道具として人間の能力や体験を向上させ、社会や生活を良くしていくためにAIを使っていくということだと思います。
—あくまでAI倫理は人間中心で考えることであり、AI倫理はクリエイティビティや感動を満たすためにあるべきものなのですね。
AIを道具として人間の想像力や創造性を解き放つためには、同時にそれぞれのAIの利活用例におけるリスクが何か、どのような対応が必要であるかを早い段階から検討し、リスクを最小化するためにはどうしたらいいか考え、実行することが大事だと考えます。
クリエイティブとAI倫理はどのような社会を築くのか
—今田さんの考えるAI倫理の今後の展望について教えてください。
AIの技術の進歩は非常に速く、今まで考えてもみなかったような技術や、もっと先に登場するのではないかと思っていたものが思ったより早く出てきたりすることがあります。従って、AIの利活用を加速していくためには、新しい技術の登場に応じていかにリスクを想定し対応するか、AIの開発者や提供者、外部の有識者を含めた社内外のステークホルダーとの対話をスピーディに進めていく必要があると思います。
—新たなAIの技術を活用して製品やサービスを開発することが攻めの姿勢に対して、AI倫理で取り組んでいるリスクマネジメントは守りの姿勢のように見受けられますが、この関係性はときに対立しないのでしょうか。
個人的な考えではありますが、AI技術によるイノベーションの促進・加速とそこにおけるリスクマネジメントの関係性は、しばし「アクセルとブレーキ」と誤解されることもあります。しかし、私はリスクマネジメントをブレーキではなく「ガードレール」として捉えることができるのではないかと思っています。
—「アクセルとガードレール」、とてもわかりやすい例えですね。この関係性についてもう少し詳しく伺いたいです。
例えばガードレールは、ドライバーが認識することによってリスクの存在を示し、万が一事故が起きても衝撃を抑えてくれます。同じように、AI倫理アセスメントがあるからこそ安心してAI技術を使った製品やサービスの開発をして、クリエイティビティを発揮することができる、またそれによってその製品やサービスの付加価値が上がる、という世界が我々の目指すところではないでしょうか。
<編集部のDiscover>
今田さんのインタビューを通して、AI倫理とは、人間のクリエイティビティを尊重するための「攻撃は最大の防御」もとい「防御は最大の攻撃」であるのだと気づかされました。どこまでをよしとするかを判断するために、常に先々のことまで考えて対策を練る姿に「特撮に登場する防衛軍のようでカッコ良いな」とインタビュー終了後、個人的に感動していました。