ลองสังเกตดูครับ
เวลาเราเลื่อนฟีด
ทำไมมันช่าง “ถูกใจ” เราเหลือเกิน
ข่าวที่เห็น…ก็ตรงใจ
คนที่แชร์…ก็เห็นด้วย
คอมเมนต์ส่วนใหญ่…ก็ไปในทิศเดียวกัน
มันเหมือนโลกออนไลน์ถูกออกแบบมาให้เรา “สบายใจ”
แต่คำถามคือ
มันสบายใจ…
หรือมันกำลัง “คัดกรองโลก” ให้เหลือแค่สิ่งที่เราอยากเห็น?
⸻
🧠 งานวิจัยบอกอะไรเกี่ยวกับเรื่องนี้?
งานวิจัยใน Journal of Computational Social Science ศึกษาเรื่องที่เรียกว่า
Echo Chambers
หรือ “ห้องเสียงก้อง”
คือพื้นที่ที่เราจะได้ยินแต่เสียงที่สะท้อนความคิดของเราเอง
ไม่ค่อยได้ยินเสียงที่ต่างออกไป
นักวิจัยจำลองเครือข่ายโซเชียลแบบคณิตศาสตร์
แล้วใส่พฤติกรรมพื้นฐานของมนุษย์ลงไปแค่ 2 อย่าง
1️⃣ Social Influence — เรามีแนวโน้มปรับความคิดให้ใกล้เคียงกับสิ่งที่เราเห็นบ่อย ๆ
2️⃣ Unfollow — ถ้าใครโพสต์อะไรที่เราไม่ชอบ เราก็เลิกติดตามได้ทันที
ฟังดูธรรมดามากใช่ไหมครับ?
แต่สองอย่างนี้แหละ
คือจุดเริ่มต้นของการแบ่งขั้ว
⸻
🔄 เมื่ออิทธิพล + การเลิกติดตาม ทำงานพร้อมกัน
สิ่งที่เกิดขึ้นในโมเดลจำลองคือ
• คนที่คิดคล้ายกันจะค่อย ๆ รวมกลุ่มกัน
• คนที่คิดต่างจะถูก unfollow ออกไป
• ความเชื่อภายในกลุ่มจะยิ่งเข้มข้นขึ้นเรื่อย ๆ
• การสื่อสารข้ามกลุ่มแทบไม่เกิดขึ้นเลย
เครือข่ายจะค่อย ๆ แยกออกเป็น “ก้อนความคิด” ที่แทบไม่แตะกัน
และที่น่าสนใจคือ
มันไม่ต้องมีใครสั่ง
ไม่ต้องมีการเซ็นเซอร์
ไม่ต้องมีรัฐเผด็จการ
แค่พฤติกรรมธรรมดาของผู้ใช้
กับระบบแนะนำที่ชอบจับคู่ “คนที่คล้ายกัน”
เท่านี้ก็พอแล้ว
⸻
📊 แล้วมันตรงกับโลกจริงไหม?
นักวิจัยเอาโมเดลไปเทียบกับข้อมูลจริงจากเครือข่ายรีทวีตการเมืองในสหรัฐฯ
ผลลัพธ์ใกล้เคียงกันมาก
• เครือข่ายแยกเป็นสองฝั่งชัดเจน
• ภายในแต่ละกลุ่มมีความเห็นที่เหมือนกันสูง
• การสื่อสารข้ามฝั่งต่ำมาก
พูดง่าย ๆ คือ
โลกจริง
กำลังเดินตามสมการทางคณิตศาสตร์ของ echo chamber
⸻
🎯 ประเด็นสำคัญไม่ได้อยู่ที่ “อัลกอริธึมอย่างเดียว”
หลายคนชอบโทษอัลกอริธึม
แต่ความจริงคือ
มนุษย์เองก็มีแนวโน้มจะเลือกฟังสิ่งที่สบายใจอยู่แล้ว
นี่คือสิ่งที่ในทฤษฎีการสื่อสารเรียกว่า
Selective Exposure Theory
มนุษย์จะเลือกเปิดรับข้อมูลที่สอดคล้องกับความเชื่อของตน
พอโซเชียลมีเดียเปิดโอกาสให้ unfollow ได้ง่าย
Selective Exposure ก็ยิ่งทำงานเต็มกำลัง
ระบบไม่ได้บังคับเรา
แต่ระบบ “ทำให้การเลือกข้างง่ายขึ้น”
⸻
🏛 มุมมองของอาจารย์บอม
ถ้ามองผ่านแว่นรัฐศาสตร์และการสื่อสารทางการเมือง
สิ่งที่เกิดขึ้นไม่ใช่แค่เรื่องฟีดข่าว
แต่มันกระทบถึง “โครงสร้างประชาธิปไตย”
1️⃣ Public Sphere ของ Habermas
เยือร์เกน ฮาเบอร์มาส พูดถึง “พื้นที่สาธารณะ”
ในฐานะพื้นที่ที่คนเห็นต่างสามารถถกเถียงกันด้วยเหตุผล
แต่ echo chamber ทำให้พื้นที่สาธารณะกลายเป็น
“พื้นที่สาธารณะย่อย ๆ”
ที่ไม่คุยกัน
ประชาธิปไตยจึงไม่ได้พังเพราะความเห็นต่าง
แต่พังเพราะ เราเลิกฟังกัน
⸻
2️⃣ Spiral of Silence
เอลิซาเบธ โนเอล-นอยมันน์ เสนอแนวคิด “เกลียวแห่งความเงียบ”
เมื่อคนรู้สึกว่าความเห็นของตนเป็นเสียงข้างน้อย
พวกเขาจะเงียบ
ใน echo chamber
เสียงที่ต่างออกไปจะหายไปเร็วมาก
เพราะถูกกดด้วยทั้ง social pressure และการ unfollow
⸻
3️⃣ Affective Polarization
การเมืองยุคใหม่ไม่ได้แค่ “คิดต่าง”
แต่มันคือ “ไม่ชอบกัน”
Echo chamber ทำให้เรามองอีกฝั่งไม่ใช่แค่คนคิดต่าง
แต่เป็น “ศัตรู”
และนี่คืออันตรายเชิงโครงสร้าง
เพราะประชาธิปไตยต้องการการอยู่ร่วมกันของความเห็นต่าง
ไม่ใช่การตัดขาดกัน
⸻
🧠 คำถามที่สำคัญกว่า “จะแก้ยังไง”
บางคนถามว่า
แล้วต้องแก้ที่อัลกอริธึมไหม?
แน่นอน การออกแบบระบบให้หลากหลายขึ้นเป็นเรื่องสำคัญ
แต่คำถามที่ลึกกว่านั้นคือ
เราพร้อมจะเห็นความคิดที่ทำให้เราไม่สบายใจหรือยัง?
เพราะสุดท้ายแล้ว
Echo chamber
ไม่ได้เกิดจากเทคโนโลยีเพียงอย่างเดียว
แต่มันเกิดจาก
ธรรมชาติของมนุษย์ที่อยากอยู่ในพื้นที่ปลอดภัยทางความคิด
⸻
🎯 สรุปแบบอาจารย์บอม
โซเชียลไม่ได้ทำให้คนแตกแยกทันที
แต่มันทำให้
“การเลือกฟังเฉพาะสิ่งที่เราชอบ”
ง่ายขึ้นอย่างที่ไม่เคยเป็นมาก่อน
และเมื่อมนุษย์มีอำนาจในการคัดกรองโลกด้วยปลายนิ้ว
โลกก็จะค่อย ๆ เหลือแต่เสียงสะท้อนของตัวเอง
คำถามคือ
เราจะใช้เทคโนโลยี
เพื่อสร้างกำแพงทางความคิด
หรือใช้มัน
เพื่อฝึกตัวเองให้โตพอจะฟังเสียงที่ต่าง?
นี่ไม่ใช่คำถามเรื่องอัลกอริธึมอย่างเดียว
แต่มันคือคำถามของวุฒิภาวะทางการเมือง
ของทั้งสังคม
⸻












