セミナー「違法・有害情報のSNSプロバイダ責任」 山本健人・北九州市立大学准教授

開催日時:2025年10月30日木曜日 午後7時から1時間程度
開催方法:ZOOMセミナー
講演者:山本健人・北九州市立大学准教授(総務省・デジタル空間における情報流通に係る制度ワーキンググループ構成員)
司会:山田 肇・ICPF理事長

山本氏の講演資料はこちらにあります

山本氏は次のように講演した。

  • 違法情報には名誉毀損などの他者の権利を侵害する「権利侵害情報」と、法令でその流通が違法とされている「その他違法情報」がある。一方、有害情報は違法情報ではないが、個人の生命・自由・財産ないし社会に有害な影響を与える情報である。ただし有害性を判断する一義的な規準はなく、広範な概念である。
  • 誤情報、偽情報、フェイクニュースは、違法情報か有害情報に分類できる。この講演では、それゆえ、違法情報・有害情報という表現を主に使う。
  • SNSの登場でメディア環境は変容した。ユーザー生成コンテンツ(UGC)と呼ばれる一般ユーザーが作成・発信する情報が増加したが、人間の認知的処理能力には限界があるため、SNS事業者が圧倒的な情報量を独自の基準で選別するようになっている。報道機関やメディア企業に所属する者によって作成・発信されるプロ性の高いコンテンツ(PGC)はSNSではUCGと並列的に表示される。収益の低下も相まって、PGCの生成基盤(伝統メディア)は弱体化している。
  • 供給される膨大な情報量に対し、私たちが払えるアテンションや時間は圧倒的に希少である。そこで、アテンションが交換財として経済的価値をもって取引されるようになった。SNS事業者は、先にも説明したように圧倒的な情報量を独自の基準で選別するが、より多くの広告収入を獲得するのは、刺激的で魅惑的なコンテンツである。その過程で、丹念な取材をもとに書かれた退屈な真実よりも、刺激的で魅惑的な偽情報/違法・有害情報のほうが経済的利益を生むようになっていった。
  • 変容するデジタル情報空間の諸問題への対処が必要であるが、決定打はなく多面的同時並行的な対策が求められている。その一つのアプローチとして、SNS事業者の媒介者責任のあり方について再考した。
  • 米国通信品位法の目的はインターネット上の「下品な」コンテンツの規制である。同法の230条はオンラインサービス事業者が自主的に、ポルノ、下品なジョーク、暴力的なストーリーなど、子どもたちを害するようなメッセージや画像をモデレートできる環境をつくるための条項である。それによって、真の政治的議論の多様性、文化的発展のユニークな機会、知的活動の多様な道筋を提供するフォーラムとなる可能性を持つインターネットの継続的な発展を促進することも同規定の目的である。
  • アメリカの通信法体系では媒介者について3類型がある。第一がコモン・キャリアで通信の秘密が適用され、自らが媒介する情報の内容を知ることはできないため、コンテンツの中身についての責任は負わない。次が頒布者で、情報の内容を知ることができるが、その内容を編集することができないものであり、情報の内容が違法であることを知っていたときのみ、その情報の流通に責任を負う。最後が発行者で、情報の内容を編集でき、情報の伝達について、原則として責任を負う。
  • 通信品位法230条は、双方向オンラインサービスプロバイダ(事業者)は発行者としての責任は負わないとした。そのうえで、憲法上保護されるか否かに関わりなく、わいせつ、みだら、好色、汚らわしい、過度に暴力的、ハラスメント的、またはその他の不快であると考える素材へのアクセスや利用可能性を制限する目的で、事業者が誠実に自主的に行った措置も免責されるとした。「インターネットをクリーンにする」パートナーとして事業者を位置付けようとしたものである。
  • しかし、裁判所の拡大解釈によって、広範な免責が認められていった。たとえば、違法なコンテンツの存在を知っていたにもかかわらず、当該コンテンツを削除しなかった場合にも免責される。事業者が、アプリケーション等により安全な機能を搭載するなどのサービス設計の変更をすべきであったのに、そうしなかった場合や、危険な商品の販売等の違法行為を助長している場合なども免責される。
  • SNS事業者のコンテンツ・モデレーションとは、以下のような行為である。コンテンツの削除、収益化の停止、真偽不明などのラベル付与、表示順位の低下、アカウント停止・終了、プロミネンス(特定情報の上位での表示)。また、厳密には異なるがいわゆるレコメンデーションも本講演では便宜的にコンテンツ・モデレーションに含める。Facebookが2022年第2四半期に914,500,000件のモデレーションを行うなど、膨大な量のモデレーションが実施されている。
  • このような状況を受け、共和党、民主党、一部学者が異なる立場から異なる見解に基づき、通信品位法230条の改革を主張している。
  • 例えばトランプ大統領は前任期の末期に、「オンライン検閲を禁ずる大統領令」(2020年5月28日)を発出し、限られた数の巨大SNS 事業者が、アメリカ人がインターネットで発信できる表現を恣意的に選別し、公共的な議論を形成する際に、人々が何を見て、何を見ないかをコントロールする強大な権力を有しているとの指摘をした。そして、通信品位法230 条が与える免責は、名誉毀損等の違法・有害なコンテンツを削除することを意図して与えられたものなので、巨大SNS 事業者が好まないコンテンツを検閲し、そのような意見を抑圧することを許すために与えられたものではないと主張した。加えて、SNS 事業者が、「誠実な」モデレーションを行っていない場合は、「発行者」として扱い免責しないとの規制を準備するように連邦通信委員会に命じた。
  • この指摘は、コンテンツ・モデレーションが恣意的になされているとの認識に基づき、中立なコンテンツ・モデレーションを実施すべきとの方向性だが、中立なコンテンツ・モデレーションは可能だろうか?  一部の党派的見解が不利に扱われないこと(中立性)やフェイクニュースや偽・誤情報、違法・有害な情報を蔓延させないこと(健全性)が期待されているが、容易にその該当性は判断できない。
  • 一つのラディカルだが、明確なアプローチはモデレーションを禁止することである。つまり、SNS事業者がモデレーションを行っている場合は免責を付与しないとする。230条廃止論やコモン・キャリア論の一部はこうした方向性と軌を一にするが、この提案は、SNS事業者のビジネスに大きな打撃を与え、ユーザーにとっても望ましくない結果となる可能性が高い。
  • そこで、モデレーションの結果ではなく、望ましいモデレーションに向けた意思と努力を免責の条件とすることを提案する。また、それを測る基準としてたとえば、次の三点を提案する。
    • 組織化:モデレーション慣行の改良を検討する常設の部局を設ける、関連するアクターとベストプラクティスなどの情報共有を行う、リスク評価や人権等への影響評価を行う
    • 透明化・説明責任:サービス設計・変更の平易な説明、定期的な透明性レポートの公表
    • 監査:アルゴリズムなどの監査(エラー率の改善傾向、ヴァルネラブルな集団を不利に扱う、あるいは偽・誤情報等を含む過激なコンテンツを過度にレコメンドするアルゴリズムを用いていないか)
  • 講演者としては、モデレーションのシステム設計の改良へ向けた介入はモデレーションの実態とも適合的であると考えている。一方で、事業者にどのような種類、どの程度の取り組みを求めるのか、誰が事業者の取り組みを免責に値すると評価するのか、評価の透明性をどのように確保するのかをより詰めて明確する必要があるといった課題もある。とはいえ、プラットフォーム規制の実効性確保を念頭に置いたとき、日本も免責条項の再設計について議論を深めるべきだ。

講演後、次のような質疑があった。

質問(Q):最後に説明された「誠実なモデレート」を評価する組織について質問したい。日本なら総務省、米国なら連邦通信委員会といった公的組織が評価すると政治的な疑念を生む恐れがある。すべてを裁判に委ねることはできないのか。
回答(A):政治的な疑念には同意するゆえ、政府による評価にも透明性が求められる。そのうえで、政府の評価についてさらに異議を申し立てたい人は、裁判に訴えればよい。
Q:テレビ放送におけるBPOのように、SNS事業者が作る民間組織に委ねるという可能性はあるのか。
A:UGCは途方もない量がある。一つ一つのコンテンツについて個別に解決していくのは限界がある。今回の提案はモデレーションのシステムの評価・改善を免責によって基礎づけようとするものであり、マクロな視点に基づいている。BPOのような仕組みをこのシステムに対する評価・提言を行う組織として設立し位置づけることはできるかもしれない。もっとも、個別のコンテンツの判断に関する深刻なエラーが発生する可能性は当然に残るので、こうしたミクロなケースへの対応は裁判的統制がまずは想起される。
Q:違法情報、有害情報と認知できる段階から削除するまでの時間で評価してはどうか。
A:権利侵害情報への対応義務については、情報流通プラットフォーム対処法で原則14日以内、その下の省令で7日以内という規定がある。こうしたタイムラインを定める方法は、その他違法情報、有害情報への対策を考えるにあたっても参考になる。この他、まずは速やかに削除する、その先でじっくり検討して復活させる場合もある、というような方法もあるかもしれない。
Q:AIとの関係を質問したい。今現在もモデレーションにAIを活用しているだろうが、技術進展でより精緻なモデレーションができるのではないか。
A:AIは活用しつつも最終的には人間が判断するプロセスを挟む場合もあるというのが現状である。この先に学習量が増えていけば、AIの精度は上がるだろう。その段階になれば、AIによるモデレーションの精度等を技術的に検証できる。つまり、精度も監査できるようになるので、誠実なモデレートの評価という仕組みに組み込めるだろう。
Q:先生は総務省の検討会に参加されているが、そこでもこのような議論が行われているのか。
A:総務省では免責の条件を再検討するという議論はされていない。ハードロー、あるいはソフトローとしてどのような方法が適切かを議論している。立法事実があり事業者の義務を明確に規定できる場合には立法化のハードルは高くないが、とくに有害情報の対策については法律で踏み込んだ規定をするのには限界がある。
Q:このコンテンツに対して、このようにモデレーションを実行しているなら免責であるという範囲を定めるのは難しい。SNS事業者が発行者と見なされるケースもあると思うが。
A:免責の範囲が定まらないと立法は難しいという指摘に同意する。もっとも、免責が特権であると整理できれば、特権付与の条件設定は直接義務を課すよりもハードルが下がるのではないかと考えている。SNS事業者は何をどんな順番で届けるかはコントロールしているが、コンテンツの内容にまで手を入れているわけではない。「発行者」とすべきかについてはもう少し慎重に考えたい。
Q:何とか類型化する努力を重ねないと、立法化にまで至るのは難しいだろう。
A:基本的には同意しているが、細かなラインを引くと、すぐに時代遅れになるという問題もある。このバランスをとることも課題である。