فيصل بن بندر يوجه الجهات المعنية بسرعة رفع تقارير نتائج الحالة المطرية
استمرار هطول أمطار غزيرة على أجزاء من منطقة الرياض
تعليم الرياض: تعليق الدراسة الحضورية غدًا
جامعة جدة تعلن بدء القبول في برامج الدراسات العليا للعام 2026
النفط يتراجع وسط توقعات بفائض المعروض
المنتخب السعودي يخسر أمام الأردن ويودع كأس العرب
خالد بن سلمان يبحث مستجدات الأحداث مع كبير مستشاري الرئيس الأمريكي
السعودية تعزي المغرب في ضحايا فيضانات آسفي
وظائف شاغرة بـ شركة سبيماكو الدوائية
الدراسة عن بُعد غدًا في مدارس الشرقية ومحافظة الأحساء
حذر خبراء التقنية والتكنولوجيا من التطور الهائل لتقنية الذكاء الاصطناعي، حيث أثرت وغيرت في العديد من جوانب حياتنا الحديثة، إلا أنه يمكن استخدامها لأغراض ضارة.
وكشفت ورقة حكومية بريطانية، وضعها أكثر من 50 خبيراً، أنه بحلول عام 2025 يمكن استخدام الذكاء الاصطناعي لارتكاب عمليات احتيال وشن هجمات إلكترونية.
كما بينت أنه بحلول ذلك الوقت سيكون لدى هذه التقنية القدرة على تعزيز القدرات الإرهابية في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية، وفق صحيفة The Times.
وشملت مجموعة المخاطر الأكثر فتكاً التي يمكن أن تنشأ بحلول 2030، كالتضليل الجماعي وأزمة البطالة حيث يستولي الذكاء الاصطناعي على وظائف منخفضة المهارات، واستخدام التكنولوجيا لمساعدة الإرهابيين على تطوير أسلحة بيولوجية.
وذكرت الورقة الصادرة عن المكتب الحكومي للعلوم، أنه لا توجد أدلة كافية لاستبعاد تهديد الذكاء الاصطناعي للإنسانية. واستناداً إلى مصادر، بما في ذلك المخابرات البريطانية، قالت الورقة إن العديد من الخبراء يعتقدون أن هذا خطر ذو احتمالية منخفضة للغاية.
وأضافت: “بالنظر إلى عدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي، إلا أنه لا توجد أدلة كافية لاستبعاد أنه إذا تم ضبط أنظمة الذكاء الاصطناعي ذات القدرة العالية، بشكل غير صحيح أو لم يتم التحكم فيها بشكل كاف، يمكن أن تشكل تهديداً وجودياً”.
ولفتت إلى أن الذكاء الاصطناعي يمكنه بالفعل أداء العديد من المهام المفيدة اقتصادياً مثل تلخيص المستندات الطويلة وتحليل البيانات.
كما أشارت الورقة إلى أنه من المرجح أن تصبح التكنولوجيا أكثر فائدة، ويمكن تنفيذ المهام بشكل أكثر كفاءة من البشر، لكنها لمحت إلى أنها لا تستطيع التنبؤ “بالقدرات الجديدة المحددة” التي سيكتسبها الذكاء الاصطناعي، حيث من المرجح أن تتطور الأساليب كثيراً.
وبحلول عام 2030، بحسب أحد السيناريوهات، فإنه يمكن لشركات التكنولوجيا تطوير ذكاء فائق اصطناعي قادر على إنجاز مهام معقدة وخداع البشر، وهو ما قد يشكل خطراً كارثياً.
كذلك حذرت من أن الذكاء الاصطناعي قد يؤدي إلى تفاقم المخاطر السيبرانية الحالية بشكل كبير في حالة إساءة استخدامه، من خلال شن هجمات إلكترونية بشكل مستقل.