オンラインセミナー「データ駆動型社会への転換」 谷脇康彦インターネットイニシアティブ副社長

開催日時:2024年4月12日金曜日 午後7時から1時間程度
講演者:谷脇康彦・インターネットイニシアティブ取締役副社長
司会:山田 肇ICPF理事長

谷脇氏の講演資料はこちらにあります。

谷脇氏の講演ビデオ(一部)はこちらにあります。

冒頭、谷脇氏は次のように講演した。

  • リアル空間には国際連合憲章をはじめ国際的ルールが存在するが、サイバー空間にはない。サイバー空間は民間投資によって構築されてきたので、サイバー空間における民間の活動は可能な限り自由に行われるのがよく、政府の規制は最小限にと欧米や日本は主張してきた。これに対して、中国、ロシアなどは国家主権の名の下に国が管理することが必要であるとしている。サイバー攻撃の危険にさらされている途上国も中露よりである。
  • 民間重要インフラ等への国境を越えたサイバー攻撃、偽情報拡散等を通じた情報戦等が恒常的に発生し、有事と平時の境目はますます曖昧になってきている。国家安全保障の対象は非軍事的とされてきた分野にまでに拡大し、軍事と非軍事の境目も曖昧になっている。まさに、インターネット運営のあり方(internet governance)が問われている。
  • IETF等の団体はトップダウンデザインは有害であり、ネットワークの孤島化、相互接続を損ない、相互運用性を混乱させると主張している。これに対して、中国はITU-Tで、長期的な視点をもって、将来のネットワークのためのトップダウンのデザインを責任をもって開発するのがよいとしている。
  • しかし、⽶外交問題評議会は2022年の報告書で、オープンでグローバルなインターネットを促した米国の政策は失敗だったと評価し、政策はぶれ始めている。背景には巨大プラットフォーマへの警戒が根底にある。
  • そんな政策背景の下で、物理層と論理層を中心としたインターネットガバナンスから、サービス層のデジタルガバナンスに関心が移行し始めている。IGFは「インターネットは引き続きデジタル社会におけるコアな構成要素であり続けるだろうが、これらの議論は、データに関する権利、AI倫理、その他のより広いデジタルエコシステムのように、デジタル技術が社会にインパクトをどのように与えるかといった、従来よりも広い視野まで広げていく必要がある」とのメッセージを2023年に発出した。
  • デジタルガバナンスには、データガバナンス、AIガバナンス、セキュリティガバナンスの三要素がある。
  • まずはデータガバナンス。現実社会がIoTによってモニターされ、データがサイバー空間に送信される。データはAIによって解析され、現実社会にフィードバックされて、介護負担の軽減、資源枯渇への対応など、社会問題の解決に利用される。これがデータ駆動型社会である。データが国民の行動変容や新たな富を生み出す時代に対応した新たな社会ルールの構築が必要である。
  • データ駆動社会を考える3つの視点は次のとおりである。データの量の増加とそれに対応したデータ連携の促進、データの質の向上とデータセキュリティの強化、そして、データの流通速度の向上・サイバー国際ルールの整備である。
  • データ連携によって事業モデルの変⾰がおきている。これに対応し、欧州の競争力強化のために、欧州はデータ戦略を加速している。2025年施行予定のデータ法では、IoTデータの適正な対価での共有促進、大企業と中小企業との間のデータ契約の適正化を確保、クラウドサービス間の円滑な乗り換えを義務化などが規定されている。2023年にデータガバナンス法が施行され、データ仲介事業者(情報銀行、データ取引市場、データ協同組合)を届出制とし、データのセキュリティ確保を要件化した。AI法もまもなく発効する。
  • 一方、日本では法制度の整備が進んでいない。欧州が5億人の市場規模で規制を始めるとグローバル企業がそれに対応する結果、欧州ルールが世界的にデファクトとなるブリュッセル効果が起きる。GDPRが実例である。遅れたままでは、日本は実質的に欧州ルールを適用せざるを得ない状況に陥るだろう。
  • AIは経済全体(通常は国家レベルまたは国際的なレベル)に影響を与える技術(General Purpose Technology)であり、既存の社会経済構造にインパクトをもたらすことで社会を劇的に変える力を有している。
  • AIに対するサイバー攻撃が起きている。たとえば、学習データに間違った出力を生じさせる汚染データを挿入し、モデルが悪意をもって機能するように修正して、AIの信頼性を喪失させるData Poisoning(データ汚染)攻撃。同時に、AIを利用したサイバー攻撃も始まっている。たとえば、AIを用いたシステムの脆弱性の探索やマルウェアの作成、AIによる偽音声・偽動画を用いて取引先と誤認させ金銭の振込をさせるビジネスメール詐欺など。
  • 中国は2023年に「生成人工知能サービスの管理のための規則」を施行し、実質的に海外生成AIを排除した。欧州は2023年に欧州議会が「AI法案」を採択し、リスクベースでAIを4段階に分類し、規制を適用するとした。禁止4類型として、サブリミナルな手法のAIシステム、年齢、身体的障害、精神的障害による脆弱性を利用するAIシステム、ソーシャルスコアを公的機関が用いるAIシステム、法執行を目的としたリアルタイムでの遠隔生体識別システムも規定されている。米国も2023年にAIに関する大統領令を公表し、超党派でAI関連法案の策定について協議を始めている。
  • 日本は、人間中心のAI社会原則や、各府省が作成したガイドラインを統合して、AI事業者ガイドラインをまもなく公表するが、他国に比べて規制色は薄い。
  • 米国は「人工的な領域ではあるものの、自然に形成された陸、海、空、そして宇宙と同様に、サイバー空間は国防省の活動にとって重要な領域だ:として、サイバー空間を作戦領域として取り扱うと2011年に宣言した。そして、サイバー抑⽌戦略を打ち出している。わが国でも、能動的サイバー防御の導入が2022年に国家安全保障戦略に組み込まれた。セキュリティ分野では、わが国は他国と足並みをそろえている。
  • セキュリティ、プライバシーと利便性は相互に二律背反の関係にあり、バランスが重要である。AIによって三者のバランスが急速かつ劇的に変化しようとしている今、AIガバナンスの具体的ルールを早急に確立する必要性に迫られている。ルールの確立によって、サイバー空間におけるトラスト(信頼)が実現するだろう。

講演後、次のような質疑があった。

質問(Q):データガバナンス、AIガバナンス、セキュリティガバナンスの三要素について法制度を構築する必要があり、わが国は欧米に比べて遅れているという主張はよく理解できた。法制度の構築を国民が支持するためには、データ駆動型社会化で国民がどのような利益を得るか、社会問題の解決にどう資するのかの説明が求められるのではないか。
回答(A):今日の講演では省略したことだが、個別化・最適化・自動化がデータ駆動型社会で期待できる国民の利益である。しかし、例えば個別化が「差別化」をもたらさないようにすべきで、それを支援するのがデジタルガバナンスの法制度である。データ駆動型社会で国民が利益を享受するということと、デジタルガバナンスの法制度は車の両輪と理解していただきたい。
Q:欧州では法整備が進んでいるが、それが欧州市民にどのように役立つと言われているのか、あるいは考えられているのか?
A:欧州が法整備を進めているが、そこには人権を守るという理由の他にGAFA対抗という側面がある。それゆえ、法整備でどのような利益が欧州市民にもたらされるかはまだはっきりしていない。特にAI法がうまく働くのかは誰にもわからない。
Q:欧州のAI法で年齢、身体的障害、精神的障害による脆弱性を利用するAIシステムは禁止という話があった。買い物を支援するAIロボットは高齢者の日常生活を支える。しかし、高齢者の判断能力がさらに低下して深夜に買い物に行きたいと言い出しAIロボットがそれに応じたら、それは高齢者を傷つける。支援と危害というAIロボットの二面性を考えると、年齢、身体的障害、精神的障害による脆弱性を利用するAIシステムは禁止というのも容易ではないのではないか?
A:欧州のAI法には禁止四類型が書いてあるが、なぜこの四類型なのかは理解できない。また、年齢による脆弱性を補うAIも当然認められるべきと思う。その点で欧州AI法は運用がとてもむずかしいことになると評価している。一方、わが国自民党のAI法素案には禁止する類型は書かれていない。個別にリスクを評価するとなっていて、そのアプローチの方が正しいと考えている。「車は便利だが人を殺す」と似た話で、きちんと議論し法体系を組み立てないとまずい。
Q:脳血管障害で変わった歩き方をする人がいる。空港の保安AIシステムが、その人は怪しいと特定したらそれは差別である。脆弱性を利用するAIシステムは禁止にも一理はあるのではないか。
A:AIは学習して成長していく。その過程で変わった歩き方をしているというだけで怪しいと判断しないように、AIを教育していく必要がある。AI法を施行していく際には、規則やガイドラインを整備していくことになるだろう。その中で、何はよくて何は悪いかも、より詳細に定められていくと思う。
Q:法制度は複雑化の一途をたどっている。新法制定の際にAIを活用して相互矛盾を確認するといったことも必要になるのではないか。法律案の作成時にはAIは使わないといった暗黙のルールでもあるのか。
A:法律の中身は人間が考えるべきでAIには委ねられない。しかし、条文に起こしたり、齟齬を確認するのはAIを使ってもよい。ただし、AIによる学習が悪用されて、例えば特定の方向への誘導などが起きないようにするのは人間の仕事である。