梶浦敏範【公式】ブログ

デジタル社会の健全な発展を目指す研究者です。AI、DX、データ活用、セキュリティなどの国際事情、今後の見通しや懸念をお伝えします。あくまで個人の見解であり、所属する団体等の意見ではないことをお断りしておきます。

コンテンツモデレーション(前編)

 先月総務省の「デジタル空間における情報流通の健全性確保の在り方に関する検討会」が、中間とりまとめ(*1)を公表した。ネット上の、偽情報、誤情報、なりすまし型の偽広告など社会的に大きな影響をもたらすものにどう対処するか。中でも投稿者自身ではなく、SNS等の運営事業者(報告書では情報伝送PFサービス)やSNS等の広告に関与する事業者(同広告仲介PFサービス)の責任や対処義務をどうするかが、議論された結果である。

 

 座長を含めて知己の人もいるが、ほとんどは大学教授(法学・情報学等)で、デジタル政策分野の専門弁護士が加わっている。非常に興味深い報告書なのだが、広範囲な内容ゆえ、今回は「コンテンツモデレーション」について紹介したい。その意味は、投稿された内容を見て不都合があれば、何らかの措置をPFサービス事業者が行うということ。

 

        

 

 コンテンツが投稿された瞬間には、サービス事業者も是非は判断できない。読者や行政からの指摘を受けて措置を考えることもあるだろう。どんなコンテンツが対象となるかというと、報告書では偽/誤情報をこう規定している。「検証可能な誤りがあって、情報そのものに違法性があり有害か、(違法ではないにしても)その情報の流通拡散によって、社会的に大きな影響があるなら、対処すべき」とある。ではその措置だが、いくつものレベルがある。

 

1)発信者に対して警告を表示する

2)広告を非表示にしたり、広告報酬の支払いを停止

 

 一般ユーザには知らせないで、発信者が自主的に是正するか、広告収入を断つことで益がないとしてあきらめさせるわけだ。それでも続けるようなら、

 

3)情報の表示を邪魔しない形での(警告)ラベルを付与

4)情報表示に影響する形での(警告)ラベルを付与

 

 一般ユーザにもわかる形で警告をする。もちろんユーザに対する注意喚起も含む。TVの海外ニュースで「○○国営放送をそのままお伝えしています」とテロップを入れるようなものだ。

 

<続く>

 

*1:事実上の最終答申案で、今後微修正されてパブコメに掛けられ、正式に答申となる予定。000958297.pdf (soumu.go.jp)