AI倫理原則の最新潮流(2/2ページ)
帝京大文学部教授 濱田陽氏
便宜上、同数のものも違う番号で区別した。全部で22個の価値が汲み取れ、このうち⑦⑪⑬⑮⑳㉑は、従来からの16の価値以外に19年8月以降に新たに確認された6個の価値である。調査対象に日本が含まれていないのは、総務省の倫理原則が19年3月に定められたためで、この6個を除く価値を満たしている。この分析は、新たな国際動向に照らして総務省の倫理原則の改訂を検討するためになされたものだ。
分析された40種のAI倫理原則・指針等のうち、①透明性・説明可能性は35種で取りあげられており、現時点で、AI倫理原則において最も普遍的な価値と考えられているといっていい。記載されていない例があっても、同じ国・地域・国際機関ではいずれかの原則・指針等で採用されている。そして、②公平性、③人間の尊厳、④アカウンタビリティ、⑤プライバシーまでの5つが(あるいは、⑥安全性を加えた6つが)、ここ数年、国際的に、倫理原則の代表的な価値と考えられていることが分かる。アカウンタビリティとは、透明性・説明可能性を前提とした上で、AIに影響を受ける組織、個人に対して、説明責任をもつこと、新たに加わった⑪責任は、説明責任のみならず、悪影響を与えないこと、与えた場合の解決の仕組みを構築することなど、より踏み込んだ内容までが含まれる。
◇
以上より、広い意味での制御可能性、そして人権が、現行のAI倫理原則において最も重視され、多くの価値に関係していることが分かる。これは逆に、制御可能性に関わる価値がおろそかになり、人為的偏向(バイアス)が加わることによる人権侵害を懸念してのことだろう。たとえば、公平性は、「人種、皮膚の色、性、言語、宗教、政治的またはその他の意見、国民的または社会的出身、財産、出生またはその他の地位」(世界人権宣言第2条)を理由に、AIのアルゴリズム、すなわち計算し結論を導くステップのセットによって差別を受けてはならないことを意味する。そして、新たな6個の価値は、制御可能性の内実を、より確かなものにしようとするものがほとんどである。
さらに、新たに重要度が高まりつつある価値に⑩多様性・包摂、⑭持続可能な社会がある。多様性・包摂は、様々な人種、性、宗教等の人びとが、AIの利活用に参画できることを意味する。これに関して、UNESCO「人工知能の倫理に関する勧告」(21年11月)には、「文化研究、教育、倫理、国際関係、法律、言語学、哲学、政治学、社会学、心理学など科学、技術、工学、数学(STEM)以外の分野を含む学際的AI研究を促進する必要」を明記している。この「文化研究」には、宗教や宗教文化の研究が当然、含まれると解釈できよう。また、同勧告は、AIにも必須なIT関連のデータ抽出に全世界のエネルギーの10%近くを消費している事実を指摘し、気候変動や環境問題の解決にAIが役立ちうる可能性とその環境負荷の両面に注意を促している。この勧告は、ロシアやイスラム諸国を含む全加盟国193カ国が参加する総会で採択されており、法的拘束力はないが、現時点で、もっとも世界的な合意といえ、AI倫理原則のトレンドをはかる上で重要である。
◇
EUが2021年4月に「AI規制法案」を発表して、アメリカや日本、中国をはじめ主要国が取ってきた、ガイドラインを設けてAI開発を促進し、市場の自主的な作用に任せる、いわゆるソフトロー路線に対し、具体的な法規制や裁判を前提とするハードロー路線を打ち出した。
この法案では軍事領域は対象外だが、同年10月にNATOが、そして、22年6月に米国国防総省が独自のAI戦略、道筋で自発的なAI倫理原則を公表するなど、新たな潮流が生じている。
米プロテスタント最大教派の南部バプテスト連盟は19年4月に声明を、バチカンは20年2月に呼びかけを公にしたが、以降も、AI技術・社会実装化の急激な進展とともに、AI倫理原則をめぐる動きは風雲急を告げている。総務省・AIネットワーク社会推進会議の年毎の報告書2016~2022では、宗教をはじめ、哲学、倫理学への言及、軍事的な議論は、ほとんど掲載されていない。しかし、人類の大問題に取り組むためには、多様性・包摂、持続可能な社会の価値がいっそう重要性を帯びてくるだろう。
多様性・包摂は、「共有可能性」といいかえることができる。人類にとって容認できないAI技術が秘匿、独占され、制御不可能になることは、原理的にも避けなければならない。多様な宗教、そして、無宗教の立場から、AIとの適切な関係性を見出す知恵を探求、実践、共有することが、真に持続可能な社会の実現のために欠かせないのだ。