「OECDのAI原則」 平野晋中央大学国際情報学部長

主催:情報通信政策フォーラム(ICPF)
日時:7月25日木曜日18時30分から20時30分
場所:ワイム貸会議室四谷三丁目 会議室B
東京メトロ四谷三丁目駅前、スーパー丸正6階
講師:平野晋(中央大学国際情報学部長)
司会:山田 肇(ICPF)

平野氏の講演資料はこちらにあります。

冒頭、平野氏は次のように講演した。

  • 中央大学国際情報学部は1期生が4月に入学したばかりの新しい学部で、〈IT〉と〈法律〉の2つ(IT + Law = iTL)を学ぶほか、グローバル教養(SDGsや倫理・哲学など)も身に着ける。産官学のリンク(Ichigaya-Tamachi Link = iTL)になるのが目標である。
  • AIやロボットは人類の脅威か? 脅威と言う人も、心配無用という人もいる。良い面を極大化しリスクを極小化することが重要であり、欧州ではこれを「信用できるAI(trustworthy AI)」と表現している。
  • 工学技術の進歩に人の知恵が追い付いていないことが問題であり、自身は法律家なので予防法学の視点で考えている。予防法学は3つのP(Predict, Provide, and Protect 予測し、備え、防護する)で表せる。
  • hard lawではなく、拘束力のないルールであるsoft law(ガイドラインや原則など)がAIやロボットの分野では有効である。hard law(法規制)であまり締め付けると開発企業が萎縮してしまい、AIの発展が経済発展につながらなくなってしまう。AIのメリットをどんどんと社会に浸透させていくことも必要である。
  • 2016年2月に総務省で「AIネットワーク化検討会議」が始まった。当初は8原則であったが、これはOECDのプライバシー8原則に倣った。同年6月に高松で開催されたG7情報通信大臣会合で総務大臣が公表したところ各国からの反応が非常に良かった。総務省だけでなく、政府全体として推進するために内閣府に「人間中心のAI社会原則検討会」が2018年5月に立ち上げがった。
  • 日本での成果を2016年から何度もOECDにインプットしてきたが、OECDでもAI原則をつくるための「AIGO(エイゴ又はエイ・アイ・ゴーと発音」(Artificial Intelligence expert Group at the OECD)と呼ばれる「AI専門家会合」が立ち上がった。先般、今年の5月にOECDの原則が出来上がり理事会で承認され、加盟国以外も参加してOECDのAI原則になった。OECDでの作成過程では橋問題(自動運転の車にスクールバスが突っ込んできたとき、スクールバスにぶつかって30名の児童が死亡するのと、橋の欄干に進路を取り乗員1名が死亡するのと、どちらが正しいか)なども例示し、AIの開発や利活用の課題を明らかにして、原則を作っていった。米国でにも日本の成果をインプットすべく国際平和基金で発表した。
  • OECDのAI原則の構造は、大きくSection1(AIの管理原則)とSection2(政府が取り組むべき事項)に分かれており、それぞれ5項目が含まれている。
  • 管理原則は英語ではPrinciples for responsible stewardship of trustworthy AIという。stewardshipは日本語に訳しにくいため正式な訳でも「スチュワードシップ」とカタカナになると思われ、管理する責任という意味合いである。これには次の5項目が含まれる。

原則1:包摂性のある成長、持続可能な開発、幸福をもたらすものであること
原則2:人権や民主主義の尊重など人間中心の諸価値で構築され、必要に応じて人間の判断が介入できること
原則3:透明性を確保し責任ある情報開示を行うこと
原則4:堅ろうであり、セキュリティ、安全のリスクを管理すること
原則5:上記諸原則と正常な動作に責任と説明義務を負うこと

  • それぞれの原則についてOECD資料に説明が付いている。日本語訳も作成される予定であり、正式にはそれを参照して欲しい。
  • わが国は、OECDのAI原則に対して多くの貢献をしてきた。.内閣府、総務省で作成した原則はOECD原則の基盤となっている。

講演後、以下のような質疑が行われた。

OECDでの議論について
Q(質問):リスクを最小化するためにsoft lawだけで大丈夫か。
A(回答):総務省の初期の会議でもその懸念が指摘されたが、hard lawは産業界が嫌がった。しかし、指摘の通りsoft lawだけでずっと続けるのは適切ではない。AIの利用が進めば問題点がより明確に見えてくるはずなので、その時に考えるのが良い。
Q:まだ開発が進んでいないので、今はhard lawはまだ時期早いということか。
A:その通りである。
Q:兵器利用などの話題は出てこないのか。
A:兵器など軍事利用はスコープの範囲外として国内では議論してきた。OECDも同じである。AIの軍事利用は国連で議論されている。
Q:AIは単数か複数か。複数のAIがあると、互いの判断が干渉しあい、思わぬ事故が起きる可能性もあるのではないか。
A:そこまでの議論にはならなかったが、ネットワークにつながった時に危害が生じないようにという話は総務省で検討された。なお「AI」を単体で捉えるよりも、寧ろ「AIシステム」として全体として捉えた上で、システム全体として安全を実現すべきという話に成った。
Q:東京消防庁はロボット掃除機がファンヒータを押して火事が起きることがあると警告した。ロボット掃除機の開発者もファインヒータの開発者も相互干渉など想定しない。この件はAIではないが、検討が必要だと思う。
A:リスク対策がきちんとされているかが重要となることは同感である。ちなみに、内閣府の「AI社会原則」の場合にはAIを広く定義しており、今の時点ではAIを用いない高度なシステムも含まれている。
Q:OECDに日本の結果を持っていった時に、入らなかったものはあるか。
A:ほとんど入った。OECDの事務局も「日本は非常に貢献してくれた」と言っている。記憶に残る程の議論になったのは、stewardshipという単語ぐらいであると思う。和訳が難しい単語なので。
Q:個人情報保護法では事前同意の原則があるが、認知症などで判断能力がなくなった場合には困ってしまう。GDPRも完全な人間を前提にして考えられたものである。同様に、AIを利用する場面について判断できない人のことは考えられているのか。
A:まだ考えられていない。医療のインフォームド・コンセントも本人同意を得るのが難しい場合には家族や代理人が同意することになっていると思われる。私見になるが、類推すると同じような考え方になるのではないか。
Q:意思決定という点で、AIに人格、法人格は与えられるのか。
A:内閣府、OECDでは議論されていないと思う。私の本(『ロボット法』)では扱っている。自動運転の賠償責任について自動運転車を「法人」のように捉えて保険の基金(vehicle)とする考えがあるが、おもしろい考え方である。

説明責任について
Q:ディープラーニングなどは説明できない技術である。天気予報も説明はできないが「晴れ」らしいということになる。説明責任はどのように考えればいいのか。
A:OECDの透明性と説明可能性では、「文脈に応じた説明」と書いてあり、すべてやれという話になっていない。どういう情報を使った、どういう分析をしたのかということに対する説明責任も原則として大きな影響がある場合に限られよう。囲碁AIは生死に関係ないので、説明責任は比較的にはさほど重要でないと考えられる。他方、与信や人事評価などは重要な判断になるので、不利な影響を被る人々には説明が重要となる。しかし、学生の就活エントリー・シートを人間(企業の採用担当者等)が不採用と判断した場合は「何で?」とあまり聞かれないが、AIがすると説明責任があるというのは個人的には不思議だと思っている(すなわち前者においても本来ならば説明責任があるべきとも思われる)。このような反応の違いの原因は、人間の判断よりもAIの方が信頼されていないからこそ生じるのではないかと思われる。
Q:AIの原則で、人間が判断する機会を与えるとあるが、判断スピードは人間のほうが遅い。馬を買って訓練し、行き先を告げると連れていってくれるようになった。ある日、交差点で馬が人にぶつかって人が死亡してしまった。馬を買って訓練した人が責任を持つのか?
A:学習させた人にも責任の一端があるように思われるが、状況で変わる部分もある。注意義務違反では、予見できたかできなかったか、危険を回避すべきであったか否かで判断がわかれる。馬に任せきりとなるとこれに違反したことになり得る。動物なので信用できないとなれば、AIも信用できないというように予見されるかもしれない。いずれにしろ、生死に関わるとなると高い注意義務が発生する。
Q:飛行機事故の際に事故調査委員会が原因を調べ、天変地異によるもの、整備が悪いなど航空会社の責任、飛行機自体が悪かった、という3ついずれかの結論を出す。自動運転も事故が起きたときに、ドライブレコーダーのようにデータがあれば、調査してどの原因がわかるようになる。
A:OECDの原則にも検証可能性が含まれている。更に総務省のAI諸原則にも、データがないと事故分析できないのできちんと残しておくということが書かれている。ただ何年分・何時間分残すかなどは、未だ明確ではない。そのような詳細は、今後検討されていくと思われる。

AIを利用する企業の説明責任について
Q:AIを組み込んだシステムをお客様に提供し、そのお客様が業務で利用しているという多層構造になる。多層化したビジネスになった時に、AIシステムを業務で利用する人に対して説明し、さらにエンドユーザにも説明するとなると、どう説明したらよいか難しい。何か参考になるものはないか。
A:総務省のAI利活用ガイドライン・AI利活用原則には「詳説」があり参考になる。分野別の各論はこれからである。
Q:業種業態に関わらずAIが増えていき企業が消費者に対応していくことになるが、ガイドラインなどどこまでチェックすればいいのか悩ましい。OECDや総務省のものを重点的にみればいいのか。
A:その通りだと思う。総務省のAI利活用ガイドライン・AI利活用原則の詳説には、いろいろなケースが書かれており参考になる。内閣府の人間中心のAI社会原則はすべての前提になる。

教育や啓発の必要性について
Q:5Gに向けてサイバーセキュリティ教育を子供のうちからしなくてはいけないという話がある。AIについても教育も早期に実施すべきと思う。そのような機会を立ち上げたりしないのか。
A:内閣府の人間中心のAI社会原則の中に、幼児教育からリカレント教育まで必要と書いた。そこに書かれているので政策として進められることになる。具体的なアイデアはまだないこれからと思われる。国際情報学部でもAIを研究教育で取り上げるが、全国的な教育はこれから広がっていくだろう。
C(コメント):今生きている人は全員、自動車の便利さとリスクを知っている。AIは急に現れたので大人も何も知らないから、大人に対しても教育しなくてはいけない。
Q:AIの専門家でない一般の人々に、説明責任などに配慮したAIを作っていますと言ってもわからない。のギャップはどうするのか。
A:啓発が必要で、そこには「信頼」が重要である。立法府、行政府のみならず企業にも、わかりやすく伝えることをきちんと進めてもらいたい。なおAI開発ガイドラインは常識的な内容であり、企業が守れるものになっている。ここから信頼が生れてくると考えている。
Q:日産は衝突防止機能を宣伝しているが、何時間もハンドルの上に手を浮かしていられるはずはない。間違った宣伝をするとAIの良さが伝わらないのではないか。
A:ヒューマン・マシン・インタフェース(HMI)の問題であり、レベル4からレベル5に移行する際の大きな論点である。ちなみに中華航空のエアバスの名古屋空港の事故も自動と手動の切りかえが原因だったので参考になろう。
C:普通は進行方向を向いているイメージだが、メルセデスベンツのCMでは4人が向かいあって座っている。そこまで自動運転を信頼できるかというと、CMが実現するのは遠い先だろう。