أبعاد

تحذير جديد.. فجوة خطيرة بإجراءات السلامة لدى شركات الذكاء الاصطناعي

كشف معهد “مستقبل الحياة” (فيوتشر أوف لايف) في إصدار جديد من مؤشر السلامة في الذكاء الاصطناعي نُشر اليوم الأربعاء، أنّ ممارسات الأمان لدى شركات الذكاء الاصطناعي الكبرى، بما في ذلك “أنثروبيك” و”أوبن إيه.آي” و”إكس إيه.آي” و”ميتا”، لا تزال “أدنى بكثير من المعايير العالمية الناشئة”. 

وبحسب المعهد، خلصت لجنة مستقلّة من الخبراء خلال تقييمها لإجراءات السلامة، إلى أنّه على الرغم من تسابق الشركات لتطوير أنظمة فائقة الذكاء، فإن أيّا منها لا يمتلك استراتيجية قوية للسيطرة على هذه النماذج المُتقدّمة.

شركات الذكاء الاصطناعي تضغط ضد معايير السلامة

ويتزايد القلق العام بشأن التأثيرات الاجتماعية للأنظمة الأكثر ذكاء من البشر القادرة على التفكير المنطقي واتخاذ قرارات معقدة. ورُبطت بعض حالات الانتحار وإيذاء النفس بتفاعلات مع روبوتات محادثة تعمل بالذكاء الاصطناعي.

وقال ماكس تيجمارك، الأستاذ في معهد ماساتشوستس للتكنولوجيا، ورئيس معهد “مستقبل الحياة”: “إنه رغم الضجة المثارة في الآونة الأخيرة حول القرصنة القائمة على الذكاء الاصطناعي ومخاطر دفع هذه الأنظمة المستخدمين إلى الإصابة بالذهان أو إيذاء النفس، لا تزال شركات الذكاء الاصطناعي الأميركية أقل تنظيمًا من المطاعم وتواصل ممارسة ضغوط ضد معايير السلامة الملزمة”. 

استثمارات ضخمة

ولا يُظهر سباق تطوير الذكاء الاصطناعي أي تباطؤ، إذ تضخّ شركات التكنولوجيا الكبرى مئات المليارات من الدولارات لتوسيع جهودها في مجال التعلم الآلي.

ومعهد مستقبل الحياة منظمة غير ربحية تُحذر من المخاطر الوجودية المحتملة للذكاء الاصطناعي. وتأسس المعهد عام 2014 وكان الرئيس التنفيذي لشركة “تسلا” إيلون ماسك من أوائل الداعمين له.

*/

/*–>*/

/*–>*/

/*–>*/
]]>

jp`dv []d]>> t[,m o'dvm fY[vhxhj hgsghlm g]n av;hj hg`;hx hghw'khud

مقالات ذات صلة

زر الذهاب إلى الأعلى

اللهم اجعلني لك ذكارًا شكارًا مطواعًا مخبتًا أوابًا