مكتبة المسجد النبوي.. صرح علمي يعزّز حضور العربية في يومها العالمي
كأس العرب.. “فيفا” يعلن تقاسم السعودية والإمارات المركز الثالث رسميًا
الأمم المتحدة: انتهاكات في مخيم زمزم بدارفور ترقى لجرائم حرب
انطلاق فعاليات مهرجان شتاء طنطورة بمحافظة العُلا
السعودية: نتبنى دورًا محوريًا في تحسين أوضاع المهاجرين واللاجئين وتقديم الدعم الإنساني والإغاثي
ضبط 1652 مركبة مخالفة متوقفة في أماكن ذوي الإعاقة
الذهب يرتفع قرب ذروة قياسية
المغرب يفوز على الأردن ويتوج بـ كأس العرب 2025
تحطم طائرة أثناء هبوطها بمطار في نورث كارولينا شرق أمريكا
المغرب والأردن في نهائي كأس العرب.. التعادل 2-2 والاتجاه للأشواط الإضافية
كشفت دراسة حديثة أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.
وأوضحت الدراسة، التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، أن بعض المستخدمين ينسون استخدام “الكوابح الأخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتؤديها بدلاً عنهم.
وقال الباحثون في المعهد الألماني: “كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم”، معربين عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.
وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبين أنها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.
وقدّم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود لخوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.
كما أشارت الدراسة إلى أن خوارزمية أخرى يستخدمها أحد تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.
وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% كحد أقصى.
وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.
وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لتصبح فعالة.
وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأمريكية الرائدة أوبن إيه.آي إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من “التوهم” أو التلفيق.
كما أظهرت دراسات أخرى صعوبة منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه خلاف الحقيقة.