อัลกอริทึมอาจไม่ใช่ต้นเหตุหลักของการแบ่งขั้วทางการเมือง

Logo Thai PBS
อัลกอริทึมอาจไม่ใช่ต้นเหตุหลักของการแบ่งขั้วทางการเมือง
อ่านให้ฟัง
00:00อ่านข่าวให้ฟังโดย Botnoi Voice เว็บแอปพลิเคชันสำหรับสร้างเสียงจากข้อความด้วย AI (Text to Speech)
งานวิจัยใหม่เสนอว่าอัลกอริทึมข่าวสารของเฟซบุ๊กอาจไม่ได้ส่งผลกระทบทางตรงต่อแนวคิดทางการเมืองของคน เมื่อฟีดที่เรียงตามเวลาไม่ได้ทำให้คนเห็นข่าวปลอมน้อยลง

ความอื้อฉาวของเฟซบุ๊ก (Facebook) ในช่วงเลือกตั้งสหรัฐฯ ช่วงปี 2016 ที่นำไปสู่การแพร่กระจายของข่าวปลอม (Fake News) ข้อมูลอันไม่น่าเชื่อถือ (untrustworthy) และการแบ่งขั้วทางการเมือง (Political Polarization) ทำให้ทั่วโลกเกิดคำถามถึงอิทธิพลของโซเชียลมีเดียต่อการเสพข่าวสารของผู้ใช้งานที่ไม่อาจรับรู้ได้เลยว่ากำลังถูกกล่อมให้เชื่อหรือไม่เชื่อข้อมูลใด ผ่านอัลกอริทึมที่ซับซ้อนและเลือกแสดงเฉพาะเนื้อหาที่ตนมีโอกาสจะชื่นชอบสูง เหตุการณ์ดังกล่าวทำให้คำว่า Echo Chamber ถูกนำมาใช้อธิบายการที่ผู้ใช้งานเห็นแต่เนื้อหาที่ตนชอบและพึงพอใจ จนไม่ได้เห็นข้อมูลอื่น ๆ ที่อาจจะขัดแย้งต่อข้อมูลที่ถูกนำมาแสดงผลโดยอัลกอริทึม ส่งผลให้ผู้ใช้งานเกิดการแบ่งขั้วอย่างชัดเจน

อย่างไรก็ตาม งานวิจัยใหม่ 4 ชิ้นได้ถูกตีพิมพ์ลงในวารสารวิชาการเนเจอร์ (Nature) และไซแอนซ์ (Science) พร้อมกับข้อสรุปว่าอัลกอริทึมข่าวสารของเฟซบุ๊กอาจไม่ใช่ปัจจัยหลักในการแบ่งขั้วทางการเมือง

งานวิจัยหลักทั้ง 4 ชิ้นนั้นได้แก่

1. การแบ่งแยกทางความคิดอย่างไม่สมมาตรจากการรับรู้ข่าวการเมืองบนเฟซบุ๊ก (Asymmetric ideological segregation in exposure to political news on Facebook)


2. อัลกอริทึมข่าวสารของโซเชียลมีเดียกระทบต่อมุมมองและพฤติกรรมในช่วงหาเสียงเลือกตั้งอย่างไร (How do social media feed algorithms affect attitudes and behavior in an election campaign?)


3. การแชร์ข่าวบนโซเชียลมีเดียอาจช่วยกระจายเนื้อหาแต่ไม่กระทบโดยตรงต่อมุมมองหรือความเชื่อ (Reshares on social media amplify political news but do not detectably affect beliefs or opinions)


4. เนื้อหาที่มีจุดยืนเดียวกันบนเฟซบุ๊กอาจเป็นที่นิยม แต่ไม่ได้ทำให้เกิดการแบ่งขั้ว (Like-minded sources on Facebook are prevalent but not polarizing)

ทั้งหมดเป็นการศึกษาร่วมกันระหว่างสถาบันการศึกษา มหาวิทยาลัยเท็กซัส ออสติน (University of Texas at Austin) มหาวิทยาลัยนอร์ทเวสเทิร์น (Northwestern University) และบริษัทเมตา (Meta) ผู้ให้บริการเฟซบุ๊กโดยตรง งานวิจัยชุดนี้ศึกษากลุ่มตัวอย่างในช่วงเลือกตั้งเมื่อปี 2020 และได้แบ่งกลุ่มตัวอย่างออกเป็น 2 กลุ่ม ได้แก่ กลุ่มแนวคิดก้าวหน้า (Liberal) และกลุ่มอนุรักษ์นิยม (Conservative) จากนั้นได้ให้ทั้ง 2 กลุ่มทดลองใช้งานเฟซบุ๊กใน 2 ลักษณะ ได้แก่ ฟีดข่าวสารด้วยอัลกอริทึมที่จะนำเอาเนื้อหาในรูปแบบที่ผู้ใช้งานมีแนวโน้มจะชื่นชอบมาแสดง กับฟีดข่าวที่ถูกแสดงตามลำดับเวลาและไม่ถูกปรุงแต่งด้วยอัลกอริทึม (Chronological Feed) จากนั้นศึกษาพฤติกรรมและแนวโน้มการแชร์ข่าว รวมถึงมุมมองที่มีต่อข่าวสารทางการเมือง ผลการศึกษาพบว่าความแตกต่างของฟีดข่าวทั้ง 2 ลักษณะ ไม่ได้ทำให้มุมมองของกลุ่มตัวอย่างเปลี่ยนไปแต่อย่างใด และพบว่า ฟีดข่าวที่ไม่ถูกปรับแต่งด้วยอัลกอริทึมนั้นกลับทำให้เห็นข่าวที่เป็นข่าวปลอมเยอะขึ้นด้วย

นอกจากนี้ก็ยังมีการศึกษาย่อยอื่น ๆ ก่อนที่จะถูกตีพิมพ์ออกมาเป็นชุดงานวิจัยดังกล่าว ที่อาจเปลี่ยนมุมมองของเราที่มีต่ออัลกอริทึม และอาจจะถูกนำมาใช้ทำความเข้าใจสถานการณ์ปัจจุบันที่ในสหรัฐฯ กำลังอยู่ระหว่างการหาเสียงเลือกตั้งปี 2024

เว็บไซต์ด้านเทคโนโลยี The Verge ได้รายงานถึงผลการศึกษาดังกล่าวเช่นกัน และได้อ้างอิงถึงงานวิจัยในลักษณะเดียวกันในปี 2021 ในชื่อ “น้ำมันราดกองไฟ: โซเชียลมีเดียทำให้การแบ่งขั้วทางการเมืองสหรัฐฯ เข้มข้นขึ้นอย่างไร และควรรับมืออย่างไร” (Fueling the Fire: How Social Media Intensifies U.S. Political Polarization – And What Can Be Done About It) โดยมหาวิทยาลัยนิวยอร์ก (New York University) ที่พูดถึงการแบ่งขั้วว่า ไม่ได้มีจุดเริ่มต้นมาจากในโซเชียลมีเดีย แต่มาจากพฤติกรรมโดยธรรมชาติของมนุษย์ โดยที่มีโซเชียลมีเดียเป็นแค่ปัจจัยหนึ่งเท่านั้น

งานวิจัยและข้อสรุปดังกล่าวเป็นเพียงกระบวนการหนึ่ง ที่ใช้อธิบายอิทธิพลของโซเชียลมีเดียต่อพฤติกรรมทางสังคมของมนุษย์ ซึ่งก็คงต้องมีการศึกษาต่อไปเพื่อทำให้ความขัดแย้งนำไปสู่การพัฒนา แทนที่จะเป็นการห้ำหั่นกันอย่างไร้ประโยชน์บนโลกอินเทอร์เน็ต

ที่มาข้อมูล: Nature
“รอบรู้ ดูกระแส ก้าวทันโลก” ไปกับ Thai PBS Sci & Tech 

ข่าวที่เกี่ยวข้อง