ابق على اطلاع بالتحديثات المجانية
كل ما عليك فعله هو الاشتراك في نشرة الذكاء الاصطناعي myFT Digest — والتي يتم إرسالها مباشرة إلى صندوق الوارد الخاص بك.
أصبح أصحاب نظريات المؤامرة الذين ناقشوا باستخدام روبوتات الذكاء الاصطناعي أكثر استعدادًا للاعتراف بالشكوك حول معتقداتهم، وفقًا لبحث يقدم رؤى حول التعامل مع المعلومات المضللة.
ووجد العلماء أن الانفتاح الذهني الأكبر امتد حتى إلى أكثر المريدين عنادًا واستمر لفترة طويلة بعد انتهاء الحوار مع الآلة.
يتعارض هذا البحث مع الفكرة التي تقول إنه من المستحيل تقريبًا تغيير عقل الأفراد الذين غاصوا في ثقوب الأفكار الشعبية غير المدعومة بالأدلة.
وتعتبر النتائج مذهلة لأنها تشير إلى دور إيجابي محتمل لنماذج الذكاء الاصطناعي في مكافحة المعلومات المضللة، على الرغم من نقاط ضعفها الخاصة أمام “الهلوسة” التي تدفعها في بعض الأحيان إلى نشر الأكاذيب.
وقال ديفيد راند، أحد الباحثين في العمل الذي نُشر في مجلة “ساينس” يوم الخميس، إن العمل “يرسم صورة أكثر إشراقا للعقل البشري مما قد يتوقعه الكثيرون” ويظهر أن “المنطق والدليل لم يموتا”.
وقالت راند، الأستاذة في كلية سلون للإدارة في معهد ماساتشوستس للتكنولوجيا: “حتى العديد من منظري المؤامرة سوف يستجيبون للحقائق والأدلة الدقيقة – عليك فقط معالجة معتقداتهم ومخاوفهم المحددة بشكل مباشر”.
وأضاف: “بينما توجد مخاوف مشروعة واسعة النطاق بشأن قوة الذكاء الاصطناعي التوليدي في نشر المعلومات المضللة، فإن ورقتنا البحثية تظهر كيف يمكن أن يكون أيضًا جزءًا من الحل من خلال كونه معلمًا فعالًا للغاية”.
أنت تشاهد لقطة من رسم بياني تفاعلي. من المرجح أن يكون ذلك بسبب عدم الاتصال بالإنترنت أو تعطيل JavaScript في متصفحك.
قام الباحثون بفحص ما إذا كانت نماذج اللغة الكبيرة للذكاء الاصطناعي مثل GPT-4 Turbo من OpenAI قادرة على استخدام قدرتها على الوصول إلى المعلومات وتلخيصها لمعالجة المعتقدات التآمرية المستمرة. وشملت هذه المعتقدات أن هجمات 11 سبتمبر 2001 الإرهابية كانت مدبرة، والانتخابات الرئاسية الأمريكية المزورة لعام 2020، وجائحة كوفيد-19 مدبرة.
شارك ما يقرب من 2200 مشارك أفكارًا تآمرية مع LLM، والتي أنتجت أدلة لدحض الادعاءات. وقال الباحثون إن هذه الحوارات قلصت اعتقاد الشخص في نظريته المختارة بنسبة 20 في المائة في المتوسط لمدة شهرين على الأقل بعد التحدث إلى الروبوت.
وقد قام أحد خبراء التحقق من الحقائق بتقييم عينة من نتائج النموذج نفسه للتحقق من دقتها. وقد وجد التحقق أن 99.2% من ادعاءات LLM صحيحة و0.8% مضللة، كما قال العلماء.
إن نهج الأسئلة والأجوبة المخصص للدراسة هو استجابة لعدم فعالية العديد من الاستراتيجيات الحالية في دحض المعلومات المضللة.
إن التعقيد الآخر الذي يحيط بالجهود العامة لاستهداف التفكير التآمري هو أن المؤامرات الفعلية تحدث بالفعل، بينما في حالات أخرى قد تكون الروايات المتشككة مزخرفة للغاية ولكنها تستند إلى جوهر الحقيقة.
إحدى النظريات حول سبب نجاح تفاعل برنامج المحادثة الآلي هو أنه يتمتع بإمكانية الوصول الفوري إلى أي نوع من المعلومات، بطريقة لا يستطيع المستجيب البشري القيام بها.
وتتعامل الآلة أيضًا مع محاوريها من البشر بأدب وتعاطف، على النقيض من السخرية التي تُوجه أحيانًا إلى أصحاب نظريات المؤامرة في الحياة الواقعية.
لكن راند قال إن أبحاثا أخرى أشارت إلى أن طريقة مخاطبة الآلة ربما لم تكن عاملا مهما. وأضاف أنه وزملاؤه أجروا تجربة متابعة تم فيها حث الذكاء الاصطناعي على تقديم تصحيح واقعي “دون التهكم”، وقد نجحت التجربة بنفس القدر.
وبحسب تعليق مصاحب نُشر أيضًا في مجلة ساينس، فإن “حجم الدراسة وقوتها واستمرار انخفاض معتقدات المؤامرة” يشير إلى أن “التدخل القابل للتطوير لإعادة معايرة المعتقدات المضللة قد يكون في متناول اليد”.
مُستَحسَن
ولكن القيود المحتملة شملت صعوبات في الاستجابة لنظريات المؤامرة الجديدة وفي إقناع الأشخاص الذين لديهم ثقة منخفضة في المؤسسات العلمية بالتفاعل مع الروبوت، كما قال بينس باجو من جامعة تيلبورغ الهولندية وجان فرانسوا بونيفون من كلية تولوز للاقتصاد، اللذان ألفا الورقة البحثية الثانوية معًا.
وقال باجو وبونيفون، اللذان لم يشاركا في البحث، “إن تقنية الحوار بالذكاء الاصطناعي قوية للغاية لأنها تعمل على أتمتة عملية توليد أدلة مضادة محددة وشاملة للحجج المعقدة لمؤمني المؤامرة، وبالتالي يمكن نشرها لتوفير معلومات دقيقة وتصحيحية على نطاق واسع”.
وأضافوا أن “هناك قيدًا مهمًا يحول دون تحقيق هذه الإمكانات يتمثل في طريقة تقديم الخدمة. أي كيفية إقناع الأفراد الذين لديهم معتقدات راسخة في المؤامرة بالانخراط في برنامج ذكاء اصطناعي مدرب بشكل صحيح في البداية”.