「おすすめが増えるほど、見えない世界が広がる」
YouTubeやTikTokを使っていると、「自分にピッタリの動画」が次々と出てきます。
検索をしなくても、見たい情報が勝手に並ぶ——とても便利です。
でも、その裏側には大きな落とし穴があります。
それが 「フィルターバブル(filter bubble)」 と呼ばれる現象です。
おすすめが賢くなるほど、自分の好きな世界だけが広がり、嫌いな世界はどんどん見えなくなる。
つまり、“見える情報の多さ=見えている世界の広さ”とは限らないのです。
ネットは「海」じゃない、AIが作った「水槽」だ
インターネットは、まるで膨大な情報の海のように感じます。
しかし実際は、AIが“あなた好みの水槽”を作り、そこに入れているだけかもしれません。
動画やニュースが次々と届くのは、AIが 「あなたはこれが好きな人」 と判断しているからです。
この仕組みを レコメンド(おすすめ表示) と呼びます。
- 長く視聴した動画
- 途中でスワイプした動画
- いいねを押した投稿
- 調べた検索ワード
これらの行動を、AIはすべて数字に変えて記録しています。
AIが“あなたの考え”を作り始める瞬間
恐ろしいのは、レコメンドが 「好み」だけでなく「考え方」まで影響する可能性があることです。
- 特定の政治ニュースばかり見る人
- 同じ価値観のSNSアカウントだけフォローする人
- 自分と似た意見の動画だけ出てくる人
この状態が続くと、「それ以外の意見が存在することに気づかない」 という危険が出てきます。
AIが勝手に“自分に都合のいい世界”を作り、その中に閉じ込められる——これがフィルターバブルの本質です。
TikTokがわかりやすい例
TikTokはレコメンドの仕組みが特に強力です。
ほんの数本の動画視聴だけで、
おすすめの世界が激変します。
- 猫動画を最後まで見る → 猫動画だらけ
- 恋愛ドラマを数秒でスワイプ → そのジャンルはほぼ消える
AIは 「何を見たか」より「どれくらい見たか」 を学習します。
つまり TikTokは、“今の興味”を秒単位で予測して世界を作っているのです。
「おすすめ=本当の情報」ではない
ここで重要なのが ファクトチェック(事実確認) の視点です。
ネットは「事実ベース」ではなく、“おすすめベース”で情報が出てきます。
だからこそ、
- 本当に正しいのか?
- 誰が言っているのか?
- 他の情報源でも同じか?
という 確認(ファクトチェック) が必要です。
フィルターバブルに気づく最初の一歩は、「出てきた情報をそのまま信じない」ことです。
今日からできる対策(誰でもできる3つ)
✔ ① 検索ワードを変えてみる
いつもと違うキーワードで調べると、違う視点の情報に出会えます。
✔ ② 複数のニュースソースを見る
1つのアプリやSNSだけに頼らないことが大切です。
✔ ③ 反対意見を“あえて”読んでみる
自分と違う視点の情報を見ることで、世界が広がります。
まとめ|世界は「見せられている」ことに気づこう
AIは便利です。 おすすめ機能(レコメンド)は日常を快適にします。
しかし、“便利すぎる世界”は、同時に“狭い世界”にもなる可能性があります。
インターネットは海のように広いように見えて、
実は 透明な壁で囲まれた水槽の中で泳いでいるだけかもしれません。
「出てくる情報=世界のすべて」ではない。
そんな視点を持つだけで、情報に振り回されず、自分で考える力が育っていきます。



コメント