What is the Filter Bubble? Privacyについて考える

インターネットはあなたの好きなものだけをあなたに見せる

tk
9 min readJan 1, 2019

今回は、フィルターバブルとはどのようなもので、それが我々に及ぼす危険性についてまとめていく。

TED イーライ・パリサー[1]

フィルターバブルとは

フィルターバブルとは、インターネット上でユーザーが見たい情報しか見えなくなる事である。

例えば、Twitterはその例だ。自分の意見や趣味にあう人をフォローすることによって、自分の見たい情報だけが目につき、見たくないような情報は、目につかなくなる。そのような意見を呟くユーザーを、あなたがフォローしていないからである。Twitterの投票機能はさらに災厄だ。投票結果は、だいたいあなたの予想通りの結果が返ってくるはずである。

検索エンジンの場合も同様である。検索エンジンでは、Webビーコンという仕組みが使われていたりする。webビーコンについては次の記事で詳しく説明していく。Googleの場合、例えばユーザーの所在地、過去のクリック履歴、検索履歴などといった、各ユーザーのプライベートな情報から検索ボックスに打ち込んだ内容に関連するWebページが表示されるようになっているという。

Facebookに関しても、フィード欄ではユーザーの興味によってパーソナライズされているという。

このようなパーソナライズ化によって、同じ検索ワードを入力したユーザーであっても全く違う検索結果画面になることや、同じSNSから得られる情報が全く異なったもになってしまう。フィルタバブルに陥り、あなたの見ている世界は実は本当の世界ではないかもしれない。

フィルターバブルが引き起こす危険性

以下では、GoogleとFaceBookが引きおそす可能性があるフィルタバブルの危険性についてまとめていく。

ユーザーの情報や興味関心から上記のようなパーソナライズは、好みに合致するコンテンツの提供が可能とい観点から嬉しい機能である。Googleの検索ボックスで、天気と入力するとあなたが今いる地域の情報が自動的に表示される。試しにパソコンの前に座って、天気と入力して見ればわかるはずだ。ディナーと入力して同じ。確かに、とても便利である。一方で、あなたがどこに住んでいるかをGoogleのデータベースは日々の検索の記録から知っているということでもある。

これは、天気や食に限った話でもないかもしれない。例えば、ニュースに関してはどうであろう。

オーストラリア公正取引委員会(ACCC)が指摘するのは、エコーチェンバー現象という現象である。[2]

これは、ユーザーが見るニュースがユーザーの嗜好によって偏ってしまい、ニュースの一部の側面だけが目立つこととなってしまう現象である。スマートフォンが普及し、どこでも繋がるようになった一方、フィルターバブルの影響でユーザーが取得できるよう情報は、そのユーザーの好きな情報に偏り、反対意見や特定の意見が取得できないような状況に落ちいってしまう。

二つだけ、例を見ていこう。

Facebook

Facebookでは、より多くの時間ユーザーに利用してもらうために、ユーザーの興味や嗜好にあったフィードを表示するようにパーソナライズされているという。

このパーソナライズの結果がアメリカの選挙戦に与えた影響に関しての議論がるようだ。[4]

Facebookでは選挙期間中、ユーザーが見たいと思われる候補者に関する情報だけが表示されるのは素晴らしいSNSであったのだ。いくつかの調査[5]が示すように、SNS上のニュースや情報でユーザーが支持者を変更することはとても少くないようだ。このことは、保守派(トランプ派)・リベラル派(クリントン派)それぞれの支持者が、自分の思想のバブルの中に留まり、偏った思想を先鋭化させることにつながった可能性がある。[3]

さらにこの選挙では、facebookからの情報流失も話題になった。

例えば流出した個人情報の中に、どのユーザーがどちらの政権を指示ているのかがわかるような情報が含まれていれば、それぞれのユーザーに対して効果的なマーケティング広告を出すことも可能である。彼らを人工的な作り出したバブルで囲みこむのだ。

このように、フィルターバブルによってユーザーは、SNS上で自分がもらって嬉しい情報ばかりのニュースに出会う。まるで世間の皆がその意見を信じている可能に錯覚することになる。SNS上の情報でなく、広告に関しても同じだ。あらかじめ蓄積された個人情報によって、特定の広告のターゲットになったユーザーは、GoogleやFacebookなどで見る情報が知らずのうちに偏ったものになる。そうなるとそれが世界の常識だと誤認してします。

Google

Googleの検索結果にも、同じような個人のフィルターバブルが有権者の投票における意志決定に影響を及ぼしている懸念についてたびたび議論されている。DuckDuck Goという検索エンジンの運営会社は、米国在住のボランティアの協力を得て2018年6月24日に検索クエリ銃規制、移民、ワクチン接種と検索するという実験を行なったという。はじめはブラウザのプライベートモードでログアウトをした状態で検索を、次に通常のブラウザ画面で同様の検索を実施してもらったそうだ。[6]

実験の結果

実験の結果、検索場所や時間、サインイン/アウトなどをのぞいて、表示される内容は参加者の中で違ったという。特定の参加者には他のユーザーに現れなかったリンクが表示されたり、画像やビデオの検索結果も違ったという。

これは、先月2018年の12月に公表されたDuckDuckGOの調査によるものである。

しかし、そのあとにGoogleが、反論を行なっている。複数人が試して見ているが、そのようなパーソナライズがされていることは、これらの検証者の検証の結果認められなかったという。[7]

思ったこと

上記の内容は、ある時点では正しいがいつでも変更されている可能性がある。ただ僕が言いたいことは、このような操作を、彼らがいつでもできてしまう可能性があるということである。一部の特権層に我々の情報が集められることは果たして良い事なのだろうか。今回のPostは、直接的にプライバシーとは関係がないが、ユーザーの情報が蓄積されなければ、軽減されるの事実だろう。アメリカの企業にある我々の個人情報は、我々のバックグランドや思想を理解しているかもしれない。その個人情報を元にした効果的なマーケティングを行い、我々のことを操作することは、たやすいことかもしれない。

reference

[1]https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=ja#t-243492 より

[2]

[3]https://compass-media.tokyo/filterbubble_facebook/

[4]

[5]http://www.pewresearch.org/fact-tank/2016/11/07/social-media-causes-some-users-to-rethink-their-views-on-an-issue/

(SNSを利用する20パーセントの人がSNSの投稿を見て支持者を変更したというデータである。20パーセントの人が変更したというと多いようなイメージも湧く。)

[6]http://www.sem-r.com/news-2015/20181205194018.html

[7]

Twitter: @r_etx

--

--