
وکاله آریا للأنباء - یحذر رومان یامبولسکی، الباحث المتخصص فی أمن الذکاء الاصطناعی، من أن التطور السریع لهذه التقنیه قد یؤدی إلى انقراض البشریه.
ویقدر یامبولسکی أن احتمال حدوث هذا السیناریو الکارثی خلال المئه عام القادمه یصل إلى 99.9%.

خطه طموحه.. مدیر OpenAI یبحث عن بوابه فضائیه لمستقبل الذکاء الاصطناعی
ویستند باحث الذکاء الاصطناعی فی تحذیره إلى ملاحظته أن جمیع أنظمه الذکاء الاصطناعی الحالیه تفتقر إلى الضمانات الأمنیه الکافیه، ولا یرى أملا فی أن تحل الأجیال القادمه من هذه التقنیات مشاکلها الجوهریه. وینضم بذلک إلى قائمه من الخبراء القلقین، بما فی ذلک بعض الرواد فی المجال.
وقد صدر لیامبولسکی کتاب بعنوان "الذکاء الاصطناعی: غیر قابل للتفسیر، غیر متوقع، غیر قابل للسیطره" یشرح فیه المخاطر الأساسیه، مثل عدم القدره على التنبؤ بتصرفات الذکاء الاصطناعی أو فهم أسباب قراراته.
ویتوسع الکتاب لیتناول قضایا معقده کمن یتحکم فی هذه التقنیه وما هی عواقبها غیر المقصوده، وینتهی بمناقشات فلسفیه حول إمکانیه امتلاک الذکاء الاصطناعی للوعی أو الشخصیه.

دراسه تحذر: الذکاء الاصطناعی یقدم نصائح خطیره للمصابین بأمراض نفسیه
وفی حین یتصدر المخضرمون مثل یامبولسکی قائمه المتشائمین، تظهر أبحاث أخرى تقدیرات أقل تشددا، حیث قدرت دراسه أجرتها جامعتا أکسفورد وبون، وشملت آراء أکثر من 2700 خبیر، احتمال انقراض البشریه بسبب الذکاء الاصطناعی بـ 5% فقط.
وتوضح الباحثه کاتیا غریس، أن الخطر نفسه یعترف به معظم الخبراء، لکن الخلاف الحقیقی یکمن فی حجمه الدقیق.
من جهه أخرى، ترفض أسماء بارزه مثل أندرو إنغ المؤسس المشارک لـ Google Brain ورائد الذکاء الاصطناعی یان لیکون، فکره انقراض البشر بالکامل، ویرى لیکون أن بعض التحذیرات المبالغ فیها قد تخدم أغراضا أخرى غیر العلم.

تطویر الوعی لدى الذکاء الاصطناعی.. بین الفوائد والمخاطر المحتمله
ومن جهته، أدلى سام ألتمان نفسه، رئیس OpenAI، بتصریحات مثیره للجدل، حیث حذر من أن الذکاء الاصطناعی سیدمر عددا هائلا من الوظائف التی وصفها بأنها لیست "عملا حقیقیا"، وهو ما أثار انتقادات واسعه. کما توقع أن تؤدی هذه التقنیه إلى تغییرات جذریه فی "العقد الاجتماعی" القائم.
وکان ألتمان قد صرح قبل أکثر من عقد، فی عام 2015، بعباره أصبحت شهیره: "الأرجح أن الذکاء الاصطناعی سیؤدی إلى نهایه العالم، ولکن قبل ذلک، سیخلق شرکات عظیمه".
المصدر: إکسبریس