また、利用者が生み出した「投稿」というデータの活用方法を、プラットフォームのオーナーが独断で決めることに異論を唱えるジャロン・ラニアー氏のような一派も少なくない。

 ちなみに、私個人としては、(2)の可能性にも注目している。実際、研究対象としてのSNSデータの有用性には地域差や世代差があるし、流行り廃りもあるので、研究の目的に合わせてデータソースを選んでいくしかない。10年後にはTwitterとは全く異なるSNSが広く使われているかもしれないし、その新たなSNSコミュニティが研究目的のデータ利用に優しいかどうかも全くわからないし、そもそも論として「SNS? 昭和っぽくない?」とか自分の娘に言われているかもしれないのだ。

プラットフォーマーによる「自主規制」の弊害

 データを無償で開示してくれたとしても、その内容が、我々紛争研究者が関心を持っているような、当事者の生の声そのままである保証はない。なぜなら、近年SNSプラットフォームは、暴力的な内容や犯罪、ヘイトスピーチなどに関して、自社プラットフォーム上の独自の自主規制を行なっているからである。これを「コンテンツ・モデレーション(Content Moderation)」と呼ぶ。

 コンテンツ・モデレーションには大きく分けて2つの方法がある。一つは、発言内容や発信主体のアカウントそのものを削除すること。二つ目は、内容を削除しないものの、おすすめに表示されにくいようにすることである。

本コラムは新潮社の会員制国際情報サイト「新潮社フォーサイト」の提供記事です。フォーサイトの会員登録はこちら

 コンテンツ・モデレーションの主たる目的は、もちろん自社SNSが犯罪や違法行為の温床になることを防ぐためであるが、実践にはいくつか課題がある。

 第一に、何が違法かは国によってルールが異なる。例えば、独裁体制を敷く政府に匿名で異論を唱える内容が、「国家扇動罪」などの国内法に抵触するとの理由で削除されしまう可能性があり、この場合、SNSは知らずに独裁に協力してしまう結果となる。

 第二に、コンテンツ・モデレーションはほぼコンピューターによって自動制御されるので、2015年にはとあるアメリカ先住民族出身の人物のFacebookアカウントが「名前が普通じゃない」という理由でフェイクアカウントとして勝手に削除されるという事例も起きた。失礼な話である。

 第三に、削除や規制の判断基準が同一プラットフォーム上でも言語によって大きく異なる。コンピューターが理解するのが得意な言語は判断基準がより正確でかつ厳しいが、そうでない言語では対応が画一的でなかったり、甘かったりする。

◎新潮社フォーサイトの関連記事
鳥インフルエンザ、南極周辺の哺乳動物で確認
「受け入れは限界」――申請者急増に苦慮するドイツの移民難民庁
火山に夢中? アイスランドの噴火を狙う観光客たち