تكنولوجيا
السبت ٢٩ تموز ٢٠٢٣ - 13:40

المصدر: سكاي نيوز عربية

“إرهاب مسلح” بالذكاء الاصطناعي قريبا.. خطر جديد للتكنولوجيا

جاءت التحذيرات التي أطلقها قادة شركات في مجال الذكاء الاصطناعي، من احتمال استخدامه في تطوير وصناعة أسلحة تهدد مصير البشرية، لتضيف بعدا آخر لمخاطره المتزايدة إن لم يتم كبح جماحه بالقوانين.

ويكشف خبيران في مجال الذكاء الاصطناعي وتكنولوجيا المعلومات لموقع “سكاي نيوز عربية” حقيقة تلك المخاوف ومدى إمكانية تحققها في المستقبل القريب.

“إرهاب” الذكاء الاصطناعي

والثلاثاء، حذر 3 من قادة الذكاء الاصطناعي المؤثرين أثناء شهادتهم في جلسة استماع بالكونغرس الأميركي، من أن التسارع الكبير في تطوير الذكاء الاصطناعي قد يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.

انعقدت جلسة الاستماع بعد أيام من تقديم شركات تعمل في مجال الذكاء الاصطناعي التزامات طوعية للبيت الأبيض، لتنفيذ تدابير مثل وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في جعل التكنولوجيا أكثر أمانا.

مخاوف مبررة

يتحدث خبير تكنولوجيا المعلومات، سلوم الدحداح، عن “جانب أسود وخطر” للذكاء الاصطناعي،؛ نظرا لآن تلك الأنظمة قادرة على “التعلم وتطوير نفسها ذاتيا”.

ويمكن استخدام الذكاء الاصطناعي في تطور أسلحة “قاتلة وفتاكة”، حسب البرمجة التي يقوم الإنسان بتغذية تلك الأنظمة بها قبل أن تعمل على “تطوير ذلك بشكل ذاتي”، كما يوضح.

ويتساءل بدوره قائلا: “ماذا سيحدث إذا أتصل الذكاء الاصطناعي بأشخاص لديهم اهتمام بفعل الشر أو تطوير أسلحة مدمرة؟!”.

ويعتبر خبير التكنولوجيا أن حدوث هذا قد “يدمر كل شيء”، ويحول تلك الأنظمة الذكية إلى “وسيلة تهدد البشرية وتطور معدات وأسلحة عسكرية ذات قدرات غير محدودة”.

خطر “بلا حدود”

ومن جانبه يرى خبير تكنولوجيا المعلومات، إسلام غانم، أن تطور الذكاء الاصطناعي “ليس لديه حدود”؛ ولذلك تسعى الولايات المتحدة ودول الغرب لعدم عمل الشركات العملاقة في مجال الذكاء الاصطناعي بشكل منفرد، حتى لا يتحول إلى أداة تهدد تلك الدول أو تعبث بأمن البشرية.

والذكاء الاصطناعي التوليدي، الذي يستخدم البيانات لإنشاء محتوى جديد يشبه ما ينتجه البشر، مثلما يفعل “شات جي بي تي”، أحدثت قدراته صدمة في العالم، وبدأت برلمانات وحكومات، منها البرلمان الأوروبي، في وضع تشريعات تكبح جماحه، وتجعله تحت المراقبة والسيطرة.

نوعان لشركات الذكاء الاصطناعي

بحسب رأي سلوم الدحداح، فإن أكبر مخاطر الذكاء الاصطناعي تتعلق بـ”قدرة تلك الأنظمة على التعلم ذاتيا، والقيام بأشياء لا يريدها الإنسان”.

ويوضح: “نحن نؤيد تطوير الذكاء الاصطناعي، ولكن يجب تحديد ما يمكن لتلك الأنظمة تعلمه، وما لا يجب عليها معرفته أو الخوض فيه”.

ويشير لمخاطر أخرى، تتعلق بتغذية تلك الأنظمة بـ”بيانات مشوهة أو تطبيقات غير صحيحة، أو اختراقها من قبل بعض الجهات التي قد تستخدم قدرات الذكاء الاصطناعي في غير موضعها”.

ومن جانبه يشير إسلام غانم إلى نوعين من الشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي، النوع الأول يستجيب لتلك المخاوف ويعمل على “ضبط أداء الأنظمة الذكية”.

لكنه يتخوف من نوع آخر من الشركات التي “لا تستجيب لتلك المخاوف أو تراها غير مبررة”، وتسارع لإنتاج أنظمة ذكية للغاية “دون ضوابط أو قواعد”.