「おすすめ機能」でそこら中に“落とし穴”が……
問題なのはYouTubeの「おすすめ機能」にある。その背後にあるアルゴリズムはユーザーである視聴者が「バランスよく情報に接する」だとか「正確な情報を手に入れる」だとか、そんな目的では動いてくれない。
どんな動画を観せれば視聴時間が伸びるか、あるいは視聴を繰り返すか、を常にユーザーでテストしながらどんどん次の動画、次の動画とみせていく。本人は自分で選んでいるつもりでも、それは提案されたいくつかの中から選べるだけ。せいぜいリモコンでできる操作の範囲でしかないのだ。
YouTubeにはさまざまなジャンルの動画が存在するが、政治や世界情勢、食の安全といった生活に関わるテーマの動画はどうしても視聴し続けていくうちに「マスメディアが報じない真実」といった中毒性の強い陰謀論に引き寄せられやすい。
これは当然プラットフォームがユーザーを陰謀論に閉じ込めたいわけではなく、再生回数や視聴時間のデータの積み上げの結果としてそのような動画を表示するのが効率が良い、ということなのだろう。たとえそれがフェイクニュースだとコメントで指摘したところで、コメント欄にもアルゴリズムが働き、表示が埋もれてしまう。
どちらにしても「ユーザーが信じたいもの、正しいと思うものだけを繰り返し見せる」つくりになっているのは間違いない。右がヤバい、左が怪しい、あるいはその両端にある思想が危険、というよりは、そこら中に落とし穴が掘ってあるイメージの方が近い。
家族がどんな情報を目にしているか、互いにチェックしてもいい
先程は「書斎でおじさんが一人で喋ってる動画は怪しい」などと書いたが、最近では独特な思想を持つ資産家や経営者が単独スポンサーとなりまるでテレビの報道番組のような豪華な画作りで運営されるチャンネルも出てきた。また芸能人の参入も多くみられ、動画の雰囲気や自分の先入観だけで内容の正確さを判断するのも厳しくなってきている。
だがネットメディアについてはその発信元、運営元の確認をするのはひとつの有効な手立てになるだろうし、大手メディアについてはそもそも「真実」「フェイク」という二元論ではなく各社がターゲットにしている読者層や報道の「クセ」みたいなものを感じながら楽しむのが良いのではないかと思う。同時に家族やパートナー、恋人など気軽に距離を置くことができない人がどんなソースでどんな情報を目にしているか、というのはときどきお互いにチェックしてもいいのかもしれない。
ここまで偉そうに書いているが、そもそも母の主張が正しく、僕が間違っている可能性だって完全には否定できないのだ。
彼女によると12月8日に大統領選についての何かが決するらしい。その日に何があるのか、調べるのすら面倒なので特に気にはしていないが、こんな親不孝な息子に今でも話題を提供し、仕事に繋げてくれる母には本当に感謝しかない。この原稿料で高級中華料理の店にでも誘って話の続きを聞こうと思います。