27 أفريل 2026 في 07:16 ص
news.tn
أخبار.تن - شعار الموقع
عاجل

الذكاء الاصطناعي الخفي: محرك للأداء أم خطر غير متحكم فيه في بيئة العمل؟

Admin User
نُشر في: 26 أفريل 2026 في 10:01 م
5 مشاهدة
3 min دقائق قراءة
المصدر: Lapresse.tn
0 إعجاب
0 حفظ
0 مشاركة
مشاركة على:

جاري التحميل...

الذكاء الاصطناعي الخفي: محرك للأداء أم خطر غير متحكم فيه في بيئة العمل؟

الذكاء الاصطناعي الخفي: محرك للأداء أم خطر غير متحكم فيه في بيئة العمل؟

سؤال الأسبوع: الذكاء الاصطناعي الخفي، محرك للأداء أم خطر غير متحكم فيه؟

لا بريس منذ إطلاق ChatGpt، أول ذكاء اصطناعي أتاح الوصول إلى الذكاء الاصطناعي التوليدي للجميع، يلجأ إليه الكبار والصغار بنقرة بسيطة للحصول على معلومات فورية من مختلف الأنواع: طبية، قانونية، تقنية أو تكنولوجية.

من الاستخدام الشخصي إلى الاستخدام المهني، تسلل الذكاء الاصطناعي التوليدي إلى كل مكان، مستثمرًا جميع المجالات، بما في ذلك بيئات العمل.

بسهولة الوصول إليه وفعاليته الهائلة، أصبح الحليف الأول لعدد متزايد من الموظفين. من كتابة رسائل البريد الإلكتروني، والترجمة، وتلخيص المستندات، والتعلم، وتنفيذ المهام المتكررة، والترميز... متعدد المهام، يفرض نفسه كمساعد لا غنى عنه في الحياة اليومية. إلا أن هذا اللجوء المكثف يمكن أن يثير مشاكل حقيقية في الإطار المهني، خاصة عندما يتعلق الأمر بالاستخدام غير المنظم، أي دون علم مديري نظم المعلومات (DSI).

هذا ما يسميه الخبراء "الذكاء الاصطناعي الخفي" (Shadow AI)، وهو مصطلح يشير إلى استخدام الموظفين لأدوات الذكاء الاصطناعي دون موافقة أو إشراف قسم تكنولوجيا المعلومات. ووفقًا للمتخصصين في تكنولوجيا المعلومات، فإن تغذية هذه الأدوات ببيانات داخلية يمكن أن يؤدي إلى تسربات ويعرض الشركة لتهديدات متعددة.

صحيح أن الذكاء الاصطناعي الخفي غالبًا ما يلبي أهدافًا مشروعة: تحسين الإنتاجية، تسريع الابتكار، أتمتة المهام. إنه يعكس رد فعل عملي من الموظفين، تمليه قيود الوقت والفعالية التشغيلية. ولكن، وفقًا للخبراء، فإن المخاطر حقيقية للغاية. يمكن أن يؤدي غياب الإشراف إلى تسرب البيانات ويعرض أعمال الشركة للخطر، خاصة إذا تم مشاركة معلومات حساسة عن غير قصد.

يضاف إلى ذلك تهديدات أخرى: إدخال برامج ضارة إلى نظام المعلومات، اتخاذ قرارات مبنية على نتائج غير قابلة للتتبع، أو تزايد الأخطاء. كما يظل خطر "الهلوسات" (معلومات خاطئة أو مختلقة يولدها الذكاء الاصطناعي) مصدر قلق.

الفشل الأخير الذي تورطت فيه شركة استشارية ذات شهرة عالمية، والتي أنتجت للحكومة الأسترالية تقريرًا مليئًا بالأخطاء والاقتباسات الخيالية، هو مثال صارخ على ذلك. إنه يذكرنا بمدى الضرر الذي يمكن أن يلحقه الاستخدام غير المنظم للذكاء الاصطناعي التوليدي بالشركة، مما يجعل هذه التكنولوجيا سلاحًا ذا حدين حقيقيًا. فهل يجب حظر استخدامه إذن؟

الخبراء مجمعون: بالتأكيد لا. فمن ناحية، سيكون تطبيق مثل هذا الحظر صعبًا. ومن ناحية أخرى، تستمر الاستخدامات، أحيانًا عبر حسابات شخصية أو أجهزة غير خاضعة للرقابة، كما كشف تحقيق حديث أجري في فرنسا. تعتمد الإدارة الفعالة للذكاء الاصطناعي الخفي بدلاً من ذلك على نهج يجمع بين القواعد والرؤية والأمان والتدريب.

بالنسبة لمديري نظم المعلومات، من الضروري تحديد إطار واضح، بالتمييز بين الأدوات المصرح بها وتلك غير المصرح بها. يسمح هذا التصنيف بتنظيم الاستخدامات مع الحفاظ على مساحة آمنة للتجريب. يجب أن تظل حماية البيانات في صميم هذه الاستراتيجية. إن ترسيخ ثقافة الشفافية، حيث يعلن الموظفون عن الأدوات التي يستخدمونها بدلاً من إخفائها، يشكل رافعة أساسية.

وبالتالي، فإن رؤية أفضل للاستخدامات الفعلية للذكاء الاصطناعي تسمح بتوقع المخاطر واحتوائها بشكل أفضل. أخيرًا، يبدو التدريب المستمر ضروريًا. يجب أن يوضح التدريب، المكيف مع المهن، والعملي والمنتظم، أن الاستخدام المسؤول للذكاء الاصطناعي يمكن أن يعزز الإنتاجية ويضمن أمن نظم المعلومات في آن واحد.

طبيعة الخبر: محايد
هذا الخبر يقدم معلومات محايدة

الكلمات المفتاحية(2)

التعليقات

News.tn يقدم مجموعة من الأخبار المستقاة من مجموعة واسعة من المصادر الإخبارية غير العربية. يجب التنويه أن المحتوى المقدم لا يعكس بالضرورة معتقداتنا وأفكارنا كمالكي الموقع. ما هو تقييمك للمعلومات المقدمة في المقال؟

مقالات ذات صلة