Logo

أفريقيا: المعلومات المضللة تنتشر بالفعل كالفيروس، وتشير إلى نماذج رياضية مستمدة من علم الأوبئة


نحن ندرك بشكل متزايد كيف يمكن للمعلومات المضللة أن تؤثر على الانتخابات. أفاد حوالي 73% من الأمريكيين أنهم شاهدوا أخبارًا انتخابية مضللة، وحوالي نصفهم يجدون صعوبة في تمييز ما هو صحيح أو خطأ.

عندما يتعلق الأمر بالمعلومات الخاطئة، يبدو أن عبارة “الانتشار الفيروسي” هي أكثر من مجرد عبارة بسيطة. لقد وجد العلماء تشابهًا وثيقًا بين انتشار المعلومات الخاطئة وانتشار الفيروسات. في الواقع، يمكن وصف كيفية انتشار المعلومات الخاطئة بشكل فعال باستخدام نماذج رياضية مصممة لمحاكاة انتشار مسببات الأمراض.

إن المخاوف بشأن المعلومات الخاطئة منتشرة على نطاق واسع، حيث تشير دراسة حديثة أجرتها الأمم المتحدة إلى أن 85% من الناس في جميع أنحاء العالم يشعرون بالقلق إزاء هذه المعلومات.

وهذه المخاوف لها ما يبررها. نمت المعلومات المضللة الأجنبية من حيث التعقيد والنطاق منذ الانتخابات الأمريكية عام 2016. شهدت الدورة الانتخابية لعام 2024 نظريات مؤامرة خطيرة حول “التلاعب بالطقس” الذي يقوض الإدارة السليمة للأعاصير، وأخبار كاذبة عن المهاجرين الذين يأكلون حيواناتهم الأليفة ويحرضون على العنف ضد المجتمع الهايتي، ونظريات المؤامرة الانتخابية المضللة التي قام أغنى رجل في العالم، إيلون ماسك، بتضخيمها.

استخدمت الدراسات الحديثة نماذج رياضية مستمدة من علم الأوبئة (دراسة كيفية حدوث الأمراض بين السكان ولماذا). تم تطوير هذه النماذج في الأصل لدراسة انتشار الفيروسات، ولكن يمكن استخدامها بشكل فعال لدراسة انتشار المعلومات الخاطئة عبر الشبكات الاجتماعية.

تُعرف إحدى فئات النماذج الوبائية التي تعمل على نشر المعلومات المضللة باسم نموذج القابلية للعدوى والمتعافين (SIR). تحاكي هذه الديناميكيات بين الأفراد المعرضين للإصابة (S)، والمصابين (I)، والأفراد المتعافين أو المقاومين (R).

يتم إنشاء هذه النماذج من سلسلة من المعادلات التفاضلية (التي تساعد علماء الرياضيات على فهم معدلات التغيير) ويمكن تطبيقها بسهولة على انتشار المعلومات الخاطئة. على سبيل المثال، على وسائل التواصل الاجتماعي، يتم نشر معلومات كاذبة من فرد إلى آخر، حيث يصاب بعضهم بالعدوى، ويظل البعض الآخر محصنًا. ويعمل البعض الآخر بمثابة ناقلات بدون أعراض (ناقلات للمرض)، حيث ينشرون معلومات خاطئة دون معرفة ذلك أو التأثر به سلبًا.

هذه النماذج مفيدة بشكل لا يصدق لأنها تسمح لنا بالتنبؤ ومحاكاة الديناميكيات السكانية والتوصل إلى مقاييس مثل رقم التكاثر الأساسي (R0) – متوسط ​​عدد الحالات الناتجة عن فرد “مصاب”.

ونتيجة لذلك، كان هناك اهتمام متزايد بتطبيق مثل هذه الأساليب الوبائية على نظام المعلومات البيئي لدينا. تحتوي معظم منصات التواصل الاجتماعي على معدل R0 أكبر من 1، مما يشير إلى أن المنصات لديها القدرة على انتشار المعلومات الخاطئة على نحو يشبه الوباء.

تبحث عن حلول

تتضمن النمذجة الرياضية عادةً إما ما يسمى بالبحث الظاهري (حيث يصف الباحثون الأنماط المرصودة) أو العمل الآلي (الذي يتضمن عمل تنبؤات بناءً على علاقات معروفة). هذه النماذج مفيدة بشكل خاص لأنها تسمح لنا باستكشاف كيف يمكن للتدخلات الممكنة أن تساعد في الحد من انتشار المعلومات الخاطئة على الشبكات الاجتماعية.

يمكننا توضيح هذه العملية الأساسية بنموذج توضيحي بسيط موضح في الرسم البياني أدناه، والذي يسمح لنا باستكشاف كيفية تطور النظام في ظل مجموعة متنوعة من الافتراضات الافتراضية، والتي يمكن التحقق منها بعد ذلك.

يمكن لشخصيات وسائل التواصل الاجتماعي البارزة التي تتمتع بعدد كبير من المتابعين أن تصبح “ناشرين فائقين” للمعلومات المضللة عن الانتخابات، حيث ينشرون الأكاذيب لمئات الملايين من الأشخاص. ويعكس هذا الوضع الحالي حيث أفاد مسؤولو الانتخابات بأنهم متفوقون في محاولاتهم للتحقق من صحة المعلومات الخاطئة.

في نموذجنا، إذا افترضنا بشكل متحفظ أن الأشخاص لديهم فرصة بنسبة 10٪ فقط للإصابة بالعدوى بعد التعرض لها، فإن فضح المعلومات الخاطئة له تأثير ضئيل فقط، وفقًا للدراسات. في ظل سيناريو احتمال الإصابة بنسبة 10%، ينمو عدد السكان المصابين بالمعلومات الخاطئة عن الانتخابات بسرعة (الخط البرتقالي، اللوحة اليسرى).

“التطعيم” النفسي

إن تشبيه انتشار الفيروس بالمعلومات المضللة مناسب على وجه التحديد لأنه يسمح للعلماء بمحاكاة طرق مكافحة انتشاره. تتضمن هذه التدخلات نهجًا يسمى “التلقيح النفسي”، المعروف أيضًا باسم prebunking.

هذا هو المكان الذي يقدم فيه الباحثون الأكاذيب بشكل استباقي، ثم يدحضونها حتى يكتسب الناس مناعة مستقبلية ضد المعلومات المضللة. إنه مشابه للتطعيم، حيث يتم تعريف الأشخاص بجرعة (ضعيفة) من الفيروس لتهيئة أجهزتهم المناعية للتعرض في المستقبل.

على سبيل المثال، استخدمت دراسة حديثة روبوتات الدردشة المدعمة بالذكاء الاصطناعي للتوصل إلى أفكار مسبقة ضد الخرافات الشائعة المتعلقة بتزوير الانتخابات. وتضمن ذلك تحذير الناس مسبقًا من أن الجهات الفاعلة السياسية قد تتلاعب بآرائهم من خلال قصص مثيرة، مثل الادعاء الكاذب بأن “النتائج الضخمة للتصويت بين عشية وضحاها تقلب الانتخابات”، إلى جانب نصائح أساسية حول كيفية اكتشاف مثل هذه الشائعات المضللة. ويمكن دمج هذه “التطعيمات” في النماذج السكانية لانتشار المعلومات الخاطئة.

يمكنك أن ترى في الرسم البياني الخاص بنا أنه إذا لم يتم استخدام تقنية prebunking، فسيستغرق الأشخاص وقتًا أطول بكثير لبناء مناعة ضد المعلومات الخاطئة (اللوحة اليسرى، الخط البرتقالي). توضح اللوحة اليمنى كيف أنه إذا تم نشر prebunking على نطاق واسع، فإنه يمكن أن يحتوي على عدد الأشخاص الذين لديهم معلومات مضللة (الخط البرتقالي).

الهدف من هذه النماذج ليس جعل المشكلة تبدو مخيفة أو الإشارة إلى أن الناس هم ناقلو أمراض ساذجون. ولكن هناك أدلة واضحة على أن بعض القصص الإخبارية المزيفة تنتشر مثل عدوى بسيطة، فتصيب المستخدمين على الفور.

ومن ناحية أخرى، تتصرف قصص أخرى وكأنها عدوى معقدة، حيث يحتاج الناس إلى التعرض المتكرر لمصادر معلومات مضللة قبل أن يصابوا بالعدوى.

قم بالتسجيل للحصول على النشرات الإخبارية المجانية AllAfrica

احصل على آخر الأخبار الإفريقية التي يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك

أوشكت على الانتهاء…

نحن بحاجة إلى تأكيد عنوان البريد الإلكتروني الخاص بك.

لإكمال العملية، يرجى اتباع التعليمات الواردة في البريد الإلكتروني الذي أرسلناه إليك للتو.

حدثت مشكلة أثناء معالجة إرسالك. يرجى المحاولة مرة أخرى لاحقا.

وحقيقة أن قابلية تعرض الأفراد للمعلومات المضللة يمكن أن تتباين لا تنتقص من فائدة الأساليب المستمدة من علم الأوبئة. على سبيل المثال، يمكن تعديل النماذج اعتمادًا على مدى صعوبة أو صعوبة نقل المعلومات الخاطئة إلى مجموعات سكانية فرعية مختلفة.

على الرغم من أن التفكير في الناس بهذه الطريقة قد يكون غير مريح نفسيًا بالنسبة للبعض، إلا أن معظم المعلومات الخاطئة تنشرها أعداد صغيرة من الناشرين الفائقين المؤثرين، تمامًا كما يحدث مع الفيروسات.

إن اتباع نهج وبائي في دراسة الأخبار المزيفة يسمح لنا بالتنبؤ بانتشارها ووضع نموذج لفعالية التدخلات مثل التضليل المسبق.

وقد أثبتت بعض الأعمال الحديثة صحة النهج الفيروسي باستخدام ديناميكيات وسائل التواصل الاجتماعي من الانتخابات الرئاسية الأمريكية لعام 2020. ووجدت الدراسة أن مجموعة من التدخلات يمكن أن تكون فعالة في الحد من انتشار المعلومات الخاطئة.

النماذج ليست مثالية أبدًا. ولكن إذا أردنا وقف انتشار المعلومات الخاطئة، فيتعين علينا أن نفهمها حتى نتمكن من مواجهة أضرارها المجتمعية بشكل فعال.

ساندر فان دير ليندن، أستاذ علم النفس الاجتماعي في المجتمع، جامعة كامبريدج

ديفيد روبرت غرايمز، أستاذ مساعد في الإحصاء الحيوي والصحة العامة والرعاية الأولية، كلية ترينيتي في دبلن



المصدر


مواضيع ذات صلة