وظائف شاغرة لدى فروع شركة PARSONS
وظائف شاغرة بفروع مجموعة العليان
وظائف شاغرة في شركة البحر الأحمر
وظائف شاغرة لدى مستشفى قوى الأمن
الذهب مستقر مع ترقب مؤشرات التهدئة في الشرق الأوسط
توقعات الطقس اليوم: أمطار رعدية وسيول وبرد على عدة مناطق
اعتراض وتدمير مسيّرة في المنطقة الشرقية
السامري ينعش أجواء العيد في حائل
السعودية ترحب بقرار مجلس حقوق الإنسان بشأن تداعيات الهجمات الإيرانية غير المبررة
البحرين: عدوان إيراني سافر يستهدف خزانات الوقود بإحدى المنشآت
كشفت دراسة حديثة أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.
وأوضحت الدراسة، التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، أن بعض المستخدمين ينسون استخدام “الكوابح الأخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتؤديها بدلاً عنهم.
وقال الباحثون في المعهد الألماني: “كان من المرجح بشكل كبير أن يمارس الناس الغش عندما سمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم”، معربين عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.
وخلص فريق معهد ماكس بلانك، الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، إلى أن أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبين أنها “تلتزم في كثير من الأحيان” بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.
وقدّم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود لخوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.
كما أشارت الدراسة إلى أن خوارزمية أخرى يستخدمها أحد تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.
وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث تباينت النسبة من منصة إلى أخرى، في حين كانت النسبة لدى البشر 40% كحد أقصى.
وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية.
وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لتصبح فعالة.
وفي وقت سابق من هذا الشهر، أشار باحثون في شركة تطبيقات الذكاء الاصطناعي الأمريكية الرائدة أوبن إيه.آي إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من “التوهم” أو التلفيق.
كما أظهرت دراسات أخرى صعوبة منع نظام الذكاء الاصطناعي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه خلاف الحقيقة.