إيلون ماسك يخطط لمنافسة ويكيبيديا
وظائف شاغرة بشركة البحر الأحمر للتطوير
التعاون يتغلب على القادسية بهدفين في دوري المحترفين
غابات المانجروف في رابغ.. رئة طبيعية تعيد التوازن البيئي وتثري التنوع الحيوي
إدارات تعليمية تعلن بدء الدوام الشتوي في المدارس.. غدًا
وزارة الإعلام تطلق النسخة الثانية من مبادرة تعزيز التواصل مع المقيمين في المملكة
افتتاح المتحف المصري الكبير رسميًا.. أيقونة الألفية الجديدة وحارس كنوز الحضارة
التأمينات الاجتماعية توضح خطوات الإبلاغ عن إصابات العمل
وظائف شاغرة في شركة الفنار
وظائف فنية وهندسية شاغرة لدى شركة التصنيع
كشفت دراسة حديثة أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.
وأوضحت الدراسة، التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، أن بعض المستخدمين ينسون استخدام “الكوابح الأخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتؤديها بدلاً عنهم.
وقال الباحثون في المعهد الألماني: “كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم”، معربين عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.
وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبين أنها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.
وقدّم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود لخوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.
كما أشارت الدراسة إلى أن خوارزمية أخرى يستخدمها أحد تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.
وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% كحد أقصى.
وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.
وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لتصبح فعالة.
وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأمريكية الرائدة أوبن إيه.آي إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من “التوهم” أو التلفيق.
كما أظهرت دراسات أخرى صعوبة منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه خلاف الحقيقة.