Twitterが、自社サービスの推奨アルゴリズムが政治的に右寄りのコンテンツを増幅させる傾向があるとする独自の調査結果を明らかにしました。この調査は、アルゴリズムが実際に保守的な内容のコンテンツをユーザーのタイムラインに多く流しているかどうかを調べるものではありません。しかし調査した7か国のうち6か国で、全体的にみて政治的に右寄りなコンテンツを増幅しているとのこと。
具体的には、7か国(英国、米国、カナダ、フランス、ドイツ、スペイン、日本)におけるアルゴリズムのタイムラインが、選挙に当選した議員の政治的コンテンツを増幅するか、または一部の政治団体だけがより多くの増幅を受けているかどうかという2点について調査が行われました。
Twitterの機械学習・倫理・透明性・説明責任(META)チームの責任者Rumman Chowdhury氏は「それが起こっているのはわかったが、なぜそそうなるのかがわからない。ユーザーの意図による面もあり、プラットフォーム上の人々の行動による面もあるが、その原因はわかりません。ただ、この情報を人々に共有することが重要だと考えている」と述べています。
Chowdhury氏は「Twitterのホームフィードは単一のアルゴリズムで成り立っているわけではない」、「個人やグループがどのようにTwitterを利用し、人々のTwitter利用にどう影響して世界に何を起こすのかをモデル化することはできない」としており、連携して機能するTwitterのシステムレベルの複雑さを強調しました。
その上で、アルゴリズムが設計上、バイアスを生み出すような性質を持たないのであれば、右寄り、つまり保守的コンテンツが拡散しやすいのは、一部の政治的に右寄りの人々が自身の主張をオンラインで広めるのに長けていたり、その主張への支持を得るのに成功していることなどが推測されます。
METAチームは、テクノロジーやアルゴリズム倫理学者、評論家など名の知れた人を集めて構成されています。そしてチームは2021年の優先事項として、研究内容を一般に公開することを掲げていました。ただその研究内容を実際に人々に正確に伝えるのは難しいことで、Chowdhury氏は今回の研究の背景が省略され誤って伝えられてしまうことを心配し、チームとともに今回の発表をどのように誤解なく伝えるかでかなり議論したとしました。
さらに偏りの原因を完全に理解するためには、より多くの研究が必要だとし「アルゴリズムの増幅はデフォルトでは問題にならない」とも述べています。研究者たちは、調査結果が「アルゴリズムによるパーソナライゼーションが、主だった政治的な発言の数々よりも極端なイデオロギーのほうを増幅するという考えは支持しない」と指摘しています。
今回の研究結果はSNSなどのプラットフォーム企業が自社のアルゴリズムが意図しない影響を及ぼすという考えをどう研究しているかを示すという点でも興味深いものです。Facebookは、アルゴリズムに関する社内の研究結果を公開すべきだとの批判を受けており、内部告発者はユーザーのデフォルトのタイムライン表示を、単なる時系列に沿ったものに戻すべきだと指摘しているものの、Facebookはアルゴリズムを擁護する姿勢を示しています。
Twitterはこれまでにも、タイムラインにおける画像のクロップを行うアルゴリズムについての報奨金プログラムを実施したりしてプラットフォーム全体の偏りを発見し、ニュートラルな立場を維持しようといます。
Source:Twitter