5月、改正プロバイダ責任制限法が参院本会議で可決、成立した。公布から1年以内に施行され、法律名は「特定電気通信による情報の流通によって発生する権利侵害等への対処に関する法律」、通称「情報流通プラットフォーム対処法」(情プラ法)に改められる。今注目の「情プラ法」について解説したい。
この改正は、誹謗(ひぼう)中傷などのインターネット上の違法・有害情報への対処を目的としたものだ。月間アクティブユーザー数が一定以上の事業者、具体的には「Facebook」「Instagram」などを運営する米Meta、「X」(旧Twitter)を運営するXといった巨大ITプラットフォームの運営企業を対象としている。
誹謗中傷対策として、2022年のプロバイダ責任制限法改正で、匿名で誹謗中傷をされた場合、発信者情報の開示手続を簡易・迅速に行うことができるようになった。今回の改正は、このような開示請求等にとどまらない内容となったため、法律の名称自体が変わることになる。
誹謗中傷が社会問題化しており、その多くがSNSなどのインターネット上で、匿名で投稿されている。誹謗中傷は、ネット上に残り続けることで被害者を傷つけ続けることになる。
一方、誹謗中傷への対応はプラットフォーム側に委ねられている。多くの事業者は、AIと人の目で、誹謗中傷の監視・削除といった対応を行っている。しかし実際は、プラットフォームによっては削除されない、削除申請してもその後通知がこないなどの課題も指摘される。
総務省は2022年4月、「誹謗中傷への取組の透明性・アカウンタビリティ確保状況について」で、ヤフー(現LINEヤフー)、LINE(同)、Google、Meta、Twitter(現X)のプラットフォーム5社の誹謗中傷への対応状況などについて聞き取り、公開している。事業者ごとに、削除申請件数や対応件数に大きなばらつきがあることがわかる。
総務省の「令和4年度インターネット上の違法・有害情報対応相談業務等請負業務報告書」によると、違法・有害情報相談センターに寄せられている相談件数は高止まりしている。その多くは名誉毀損やプライバシー侵害など誹謗中傷に該当するものであり、削除方法を求める相談が多くを占める。つまり、ユーザーが誹謗中傷の削除方法がわからずに困っているという実態があり、それが今回の改正につながったということだ。
今回の改正で事業者に対し義務付けることは、主に以下の2つ。(1)削除申出への対応の迅速化、(2)運用状況の透明化――となる。
具体的には、削除申出窓口や手続を整備、公表。削除申出への対応体制の整備。削除申出に対して、削除に応じるか否か一週間程度で判断、通知する必要がある。さらに削除基準を策定、公表した上で、削除した場合は発信者への通知も行うこととする。事業者は、削除の実施状況とそれに対する自己評価を年1回公表する必要がある。
違反した場合、総務省は是正勧告や命令を出すことができ、命令に応じない場合は1億円以下の罰金が科される。総務省は今後、施行に向けて詳細な運用ルールを含めた省令の検討を進めるという。
欧州連合(EU)は2022年、「デジタルサービス法」(DSA)を定めている。プラットフォーム事業者に対して、ネット上の違法・有害情報の削除を義務付けるものだ。一方、日本では表現の自由への兼ね合いから、対処が進んでこなかったという経緯がある。
誹謗中傷対策は徐々に進みつつある。ネット上の誹謗中傷が問われることが多い罪「侮辱罪」が厳罰化され、プロバイダ責任制限法改正によって開示請求がスピーディになり、さらに今回の改正で事業者に対して迅速な削除を義務付けることになる。今回の改正によって誹謗中傷削除が大きく前進することを期待したい。
高橋暁子
ITジャーナリスト、成蹊大学客員教授。SNS、10代のネット利用、情報モラルリテラシーが専門。スマホやインターネット関連の事件やトラブル、ICT教育に詳しい。執筆・講演・メディア出演・監修などを手掛ける。教育出版中学国語教科書にコラム 掲載中。元小学校教員。
公式サイト:https://www.akiakatsuki.com/
Twitter:@akiakatsuki
CNET Japanの記事を毎朝メールでまとめ読み(無料)
ZDNET×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
ものづくりの革新と社会課題の解決
ニコンが描く「人と機械が共創する社会」