慶應義塾

【特集:ソーシャルメディアと社会】松尾 剛行:ソーシャルメディア法務の実務──情報プラットフォーム対処法施行下におけるアカウント凍結対応を例に

公開日:2025.10.07

執筆者プロフィール

  • 松尾 剛行(まつお たかゆき)

    その他 : 弁護士政策・メディア研究科 特任准教授

    松尾 剛行(まつお たかゆき)

    その他 : 弁護士政策・メディア研究科 特任准教授

筆者は、『最新判例にみるインターネット上の名誉毀損の理論と実務*1』等を著しており、SNS法務とも呼ばれる、ソーシャルメディア法務を実践している。ソーシャルメディア法務には様々な内容のものがあり、例えば最近は、SNS選挙とディープフェイク、「ボット」と呼ばれる自動投稿アカウント等が話題になっているところである。もっとも、本稿では、アカウント凍結にフォーカスして述べる*2。

Ⅰ ソーシャルメディア法務の3つの立場

1 ソーシャルメディア法務における3つの立場

ソーシャルメディア法務においては、大きく対象者、表現者及び運営者という3つの立場が存在する。

対象者は「被害者」と呼ぶことも多いところ、ソーシャルメディアにおける表現により、被害を受けたと主張する者である。もちろん実際に被害者であることも多いが、結果的には法的な請求権が成立しないこともあることから、本稿ではニュートラルな表現として対象者と呼ぶ。対象者は、投稿削除、発信者の開示、謝罪、(アカウント凍結を含む)再発防止等を求めたいと考える。

表現者は、「ユーザ」「発信者」等と呼ぶことも多いところ、ソーシャルメディアにおいて投稿や配信等の活動をする者である。対象者の立場からは「加害者」と呼ぶこともある。表現者としては、そもそも運営者により自分の投稿が削除されることを望まない(削除されても仕方がないような投稿は自分で削除することも多い)。また、プライバシーの観点から匿名アカウントが自己のアカウントであると暴かれることを望まない。加えて、そのソーシャルメディアを自分の「居場所」としている以上、居場所が奪われることを意味する(不当な)アカウント凍結を強く拒否する。

運営者は、ソーシャルメディア運営者とかプラットフォーム運営者と呼ばれることがあるところ、問題となるソーシャルメディアを運営する者である。運営者のところには、対象者からの開示請求、削除請求(アカウント凍結要求)等が行われ、逆に表現者からは開示をするな、削除をするな、アカウントを凍結するな等と要求される。まさに両者の間で「板挟み」となる立場である。

筆者は弁護士としてこれら全ての立場からの実務を行ってきた。

2 一定程度必要なコンテンツモデレーションと、旧プロバイダ責任制限法

ここで、運営者としては、自己の提供するものが、「治安の悪いソーシャルメディア」となると、ユーザが離れる等の悪影響があり、一定の問題ある投稿に対しては、削除等のコンテンツモデレーションを行いたい。とはいえ、まさに、過剰に削除・開示・アカウント凍結等すれば表現者から強く抗議を受けるところである。また、逆に削除・開示・アカウント凍結等が過少となれば、対象者から強く抗議を受けるところである。このような状況において、旧プロバイダ責任制限法は、運営者の削除・開示の要件を定め、その要件に従ったコンテンツモデレーション対応を行う限り、運営者が責任を問われないこととした。

削除を例にとって説明すれば、「情報の流通によって他人の権利が侵害されていることを知ることができたと認めるに足りる相当の理由」(同法3条1項2号)がある場合を除き、運営者は当該投稿を流通させたことにつき対象者に対して責任を負わず、また、現に削除しても、「情報の流通によって他人の権利が不当に侵害されていると信じるに足りる相当の理由」(同条2項1号)があれば、表現者に対して責任を負わないとしていた*3。

要するに、対象者が現に「この投稿が違法だ」として削除等を運営者に求め、運営者が権利侵害投稿と信じるに足りる相当の理由があると知った場合には、運営者としては表現者からの責任を問われるおそれなく削除を行うことができるという制度が情報プラットフォーム対処法への改正以前から既に存在していたのである。

Ⅱ 情報プラットフォーム対処法時代のアカウント凍結実務

1 旧法下のアカウント凍結対応の実務

このように、筆者としても、一定のコンテンツモデレーションそのものは必要と考えるものの、その方法次第では表現者の権利に重大な影響を及ぼし得るところである。そして、運営者は、個別投稿の削除、アカウントの一時的停止、(一時的な)機能制限等の様々なコンテンツモデレーションの手段を有している。

そのような多数の手段の中でも、「アカウントの(永久)凍結」は、表現者へ及ぼす悪影響が極めて大きい。特に、利用規約上、永久凍結処分を受けた者はその後別のアカウントを作成することが禁じられることも多い。その意味で、凍結は当該ソーシャルメディアにおいて今後表現することが禁じられる、極めて重い処分である。例えばある表現者が現に利用規約に違反し、かつ、違反に対して利用規約上凍結が可能と規定されていたとしても、軽微な利用規約違反が直ちに凍結処分を正当化するとは考えるべきではなく、あくまでもそのような処分の量定が他の選択肢との比較の中で正当な場合、具体的には他のより緩やかな措置では表現者に利用規約を遵守させるとか、当事者の権利を保護するという目的が達成できない場合等に限定すべきである。それにもかかわらず、一部の運営者により凍結の選択が比較的安易に行われているのではないか、という問題は、長期に渡って提起されている。例えば、2024年の兵庫県知事選挙では、斉藤知事の対立候補のⅩアカウントが選挙期間に複数回凍結されたところ、ⅩのAIのアルゴリズムが、組織的な通報に「騙され」、凍結を繰り返したのではないかと指摘されている*4。

特に、どのような場合に、最終手段である永久凍結処分を選択するのか等の基準が明確に定められておらず、ある意味では、運営者の「自由裁量」により恣意的に凍結処分ができるようにも読めるような利用規約やガイドライン等を定める運営者が存在することが重大な問題である。つまり、凍結というのは、本来は運営者におけるソーシャルメディアサービス契約上の債務不履行なのであり、そのような債務不履行行為が正当化されるためには、相当の厳格な要件が充足されることが必要なはずである。それを仮に利用規約に定めたとしても、そのような処分を恣意的に行うことができるというのは、ソーシャルメディアサービスの重要性や運営者の社会的責任の観点から到底許容できないことである。

AIのアルゴリズムの不当な利用を含む、不適切な凍結に対して、筆者は長年表現者を代理して運営者と戦ってきた。例えばVTuber を代理して国際的動画配信プラットフォームを東京地裁で訴え、勝利した*5。

このような実務対応の中では、まずは裁判外におけるやり取りで凍結解除を試み、それが不可能な場合には、裁判手続を行うという2段構えで、多数のアカウントの凍結解除を実現してきた。即ち、不当凍結が単にAIアルゴリズムの誤りであれば、弁護士が代理人としてついたとして通告することで、人間の担当者がレビューし、誤りに気付き、凍結が解除されることがある。通告をしても凍結が解除されなければ、裁判手続を利用することで、日本の弁護士が代理人に就任することから、手続の中でどの投稿がどうして凍結を必要とするような重大な違反と判断されたのか等を追及することで、凍結が解除される可能性がある。

筆者としては、上記のとおりコンテンツモデレーションの必要性そのものは理解しており、決して「一切コンテンツモデレーションをすべきではない」とは主張していない*6。しかし、そのコンテンツモデレーションの手法の中に、表現者に対するダメージが大きいものから小さいものまでがある以上、その選択においては表現者の行為の程度にみあった適切なものとすべきである。

また、筆者として、そのようなコンテンツモデレーションのためにAI等を利用することの必要性も理解している。しかし、アルゴリズムが不公平なものとなる*7等、問題が生じる可能性がある。そこで、そのようなAIによる問題のある処理が、自社の正式な判断として表現者に表示されることがないように、人間の確認プロセスを入れた、いわゆる「ケンタウルスモデル」等を含む対応を検討すべきである*8。

2 情報プラットフォーム対処法

ここで、情報プラットフォーム対処法は、一部の大規模な運営者に削除等の体制構築を義務付けることで、裁判手続外において、問題がある投稿が迅速に削除されることを期待している。

すなわち、「月間アクティブユーザー1000万以上または月間投稿数200万以上」などの規模要件、侵害情報の送信防止措置が技術的に可能であること、そして権利侵害発生のおそれが少ない特定電気通信役務ではないこと、といった3つの要件に基づき、一部の大規模な運営者を指定し、特別な義務を課すこととした。現時点では、Google(YouTube)、LINEヤフー(Yahoo! 知恵袋、LINEオープンチャット等)、Meta(Facebook、Instagram)、TikTok Pte.Ltd.(TikTok、TikTok Lite)、X Corp.(X)、ドワンゴ(ニコニコ)、サイバーエージェント(Abemaブログ)、湘南西武ホーム(爆サイ)、Pinterest Europe Limited(Pinterest)などが指定されている。

そして、これらの大規模運営者に対しては、情報プラットフォーム対処法において主に以下のような、当該運営者の運営するプラットフォーム上の権利侵害に対する対応が求められている。

・ 削除申出受付方法の公表(同法22条):対象者からの削除申出を受け付けるための方法を定め、オンライン等で公表する義務がある。この方法は、日本語での申出が可能で、対象者に過重な負担を課さないものでなければならない。

・ 侵害情報調査の実施(同法23条):削除申出があった場合、遅滞なく必要な調査を行わなければならない。

・ 専門員の選任(同法24条):削除申出があった場合、遅滞なく必要な調査を行うために権利侵害対処に関して十分な知識経験を有する専門員(弁護士等)を選任しなければならない。

・ 対象者への結果通知(同法25条):申出から原則7日以内に、削除措置の有無とその理由を対象者に通知する義務がある。措置を講じない場合は、再度の申出に資するよう、具体的な理由を明示する必要がある。

・ 削除基準の公表(同法26条):自ら定めた削除基準を公表し、それに従って削除措置を講じる必要がある。

・ 表現者への通知(同法27条):削除措置を講じた場合は、遅滞なくその旨とその理由を発信者にも通知しなければならない。

・ 措置実施状況の公表(同法28条):毎年1回、削除申出の受付状況や対象者および表現者への通知状況、このような状況に対して自身が行った評価等を含む運用状況を公表する義務がある。

これらの義務に違反した場合、総務大臣は違反是正のための勧告や命令を行うことができ(同法30条)、命令に正当な理由なく違反した場合は、行為者への拘禁刑や罰金、法人への罰金といった罰則が科される(同法35条、37条)。

3 情報プラットフォーム対処法とアカウント凍結

興味深いことに、情報プラットフォーム対処法は、アカウント凍結について規定を置いている。

すなわち、同法2条8号は侵害情報送信防止措置を定義しているところ、これは「侵害情報の送信を防止する措置」、つまりいわゆる削除*9を意味する。

これに対し、同条9号は「当該情報の送信を防止するとともに、当該情報の発信者に対する特定電気通信役務の提供を停止する措置」を「役務提供停止措置」と定義している。この役務提供停止措置は、特定電気通信役務の提供を停止する、つまり、そもそもサービスを提供しない措置なのだから、アカウント凍結を含む概念である。なお、「永久」に停止する、いわゆる永久凍結の場合に限らない、一時停止の場合も概念上は役務提供停止措置に含まれることには留意が必要である。

そして、同法26条2項2号は、大規模運営者に対し、削除等の基準を定めるにあたり、「役務提供停止措置を講ずることがある場合においては、役務提供停止措置の実施に関する基準ができる限り具体的に定められていること。」とする努力義務を定めている*10。

これは大規模運営者に対してしか適用されないし、あくまでも努力義務に過ぎない。とはいえ、まさに上記の、凍結の基準が不明確であったり、いわば自由裁量的に凍結できるような利用規約やコミュニティガイドライン等の規定が見られたりするという現状の問題点に対するより実効的な対応となる可能性がある。

これは、アカウント凍結が最終手段として、事前に具体的に定められた、そのような最終手段を講じることが真にやむを得ない場合にのみ限定して実施されるべきことを裏から規定していたといえるのであり、今後のアカウント凍結対応実務において非常に示唆的であると考える。

4 情報プラットフォーム対処法の課題と改善の方向性

このように、情報プラットフォーム対処法においてはアカウント凍結についても望ましい方向性の規定が入ったところである。

もっとも、個別には、前記3のとおり、アカウント凍結の基準を具体的に定めることが努力義務に留まっているし、また、少なくとも文言上は「できる限り具体的に定める」と規定されるに留まり、定めるべき具体的な内容を明示していない。

このような課題については、例えば、前記2で述べた、措置実施状況の公表として、情報プラットフォーム対象法施行規則18条5項8号がアカウント停止等を行った件数を理由の別及び当該措置を講ずることとなった経緯の別に応じて区分して公表し、また同項10号がAIを利用してアカウント停止をした件数、同項15号がアカウント停止への不服申し立て件数(同項16号がうちAIを利用したもの)、同項17号がアカウント停止措置の撤回件数(同項18号がうちAIを利用したもの)を公表することを求めている。そこで、このような公表内容を踏まえて更に情報プラットフォーム対処法及び実務が改善していくことを期待したい。

Ⅲ おわりに

以上簡潔にソーシャルメディア実務を、アカウント凍結対応の観点から述べてきたが、一部の個別の内容はともかく、情報プラットフォーム対処法の趣旨自体は非常によいものである以上、今後の運用、特にアカウント凍結の運用においてその趣旨を十分に反映した実務が積み重なることを強く期待したい。

〈註〉

*1 松尾剛行= 山田悠一郎『最新判例にみるインターネット上の名誉毀損の理論と実務』(勁草書房、第二版、2019年)

*2 なお、情報プラットフォーム対処法については、学習院法務研究において今年度中に「情報流通プラットフォーム対処法施行下における名誉毀損・名誉感情侵害等に対する手続法的対応(仮)」という論稿を公表予定である。

*3 なお、この内容は後述の情報プラットフォーム対処法への改正後も実質的な変化はない。

*4 選挙とソーシャルメディアについては、放送倫理・番組向上機構「放送人権委員会 近畿地区意見交換会を開催 「SNS時代の選挙報道 局の垣根を越えて議論」」2025年2月3日(https://www.bpo.gr.jp/?p=12337)、松尾剛行「選挙と政治に関するAI - SNSにおけるディープフェイクを中心に」「情報社会における社会的側面からのトラスト形成」(韓国釜山研究会 2025年2月21日)、および、松尾剛行「「AIの悪」たる選挙の文脈でのディープフェイクを中心とした偽情報と民刑事対応──名誉毀損、業務妨害罪を中心に」「情報社会における社会的側面からのトラスト形成」(日韓釜山研究会2025年7月25日)参照。

*5 松尾剛行「プラットフォームによるアカウント凍結等に対する私法上の救済について」(情報法制研究10号、2021年)66頁以下。その他、松尾剛行『サイバネティック・アバターの法律問題』(弘文堂、2024年)168頁以下及び松尾剛行= 髙田晃央「プラットフォーマーをめぐる法律関係」インターネット事件実務研究会『事例大系インターネット関係事件──紛争解決の考え方と実務対応』(ぎょうせい、2025年)284頁以下所収参照。

*6 上記のとおり、筆者自身も対象者を代理してコンテンツモデレーションを要求することもある。

*7 成原慧= 松尾剛行「AIによる差別と公平性 ──金融分野を題材に」(季刊個人金融2023年冬号)11頁参照。

*8 ハルシネーションの可能性を踏まえて人間の確認が必要等と論じた、松尾剛行『生成AIの法律実務』(弘文堂、2025年)492~493頁参照。

*9 但し、実際に物理的にサーバ上から削除されなくても、当該投稿が閲覧できなくなれば、問題となる投稿の送信はされないことから、侵害情報送信防止措置が行われたとされることに留意されたい。

*10 同号ではなく同項1号に関するものであるが、「「できる限り具体的に」(法第26条第2項第1号)大規模特定電気通信役務提供者が策定する、送信防止措置の実施に関する基準は、「できる限り具体的に」(法第26条第2項第1号)定められるべきである。具体的には、法律用語のみならず、世間一般で用いられている表現を用いて、誹謗中傷、海賊版、自殺などのカテゴリ別に明快に記述すべきである。」とする特定電気通信による情報の流通によって発生する権利侵害等への対処に関する法律における大規模特定電気通信役務提供者の義務に関するガイドラインⅢ・1も参照。

※所属・職名等は本誌発刊当時のものです。