تكنولوجيا
الجمعة ٣١ آذار ٢٠٢٣ - 17:15

المصدر: lBCI

باحثون ومدراء تنفيذيون دعوا للتوقف موقتًا عن أنظمة الذكاء الاصطناعي المتقدمة: عليها أن تقدم شيئا ايجابيا

دعا رجل الاعمال ايلون ماسك، صاحب تويتر، وأكثر من 1000 باحث ومدير تنفيذي تقني إلى “التوقف” لمدة ستة أشهر على تطوير أنظمة ذكاء اصطناعي متقدمة مثل OpenAI’s GPT لوقف ما يسمونه سباق التسلح “الخطير”.

وجاء في الرسالة: “لقد شهدت الأشهر الأخيرة أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد – ولا حتى منشئوها – فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق”، بحسب معهد Future of Life Institute ، وهو مجموعة حملات غير ربحية.

ومن بين الموقعين الآخرين على الخطاب ستيف وزنياك، أحد مؤسسي شركة آبل ؛ أندرو يانغ، رجل أعمال ومرشح في الانتخابات الرئاسية الأمريكية لعام 2020 ؛ وراشيل برونسون، رئيسة نشرة علماء الذرة، التي تحدد ساعة النهاية.

وقال غاري ماركوس، رجل أعمال وأكاديمي اشتكى منذ فترة طويلة من عيوب في الذكاء الاصطناعي: “هذه الأشياء تشكل عالمنا. لدينا عاصفة كاملة من عدم مسؤولية الشركات، والتبني على نطاق واسع، والافتقار إلى التنظيم، وعدد كبير من الأمور المجهولة”.

ويدعم الذكاء الاصتناعي روبوتات الدردشة مثل ChatGPT و Microsoft’ s Bing و Google’s Bard، والتي يمكنها إجراء محادثات شبيهة بالبشر، وإنشاء مقالات حول مجموعة لا نهاية لها من الموضوعات وأداء مهام أكثر تعقيدًا، مثل كتابة كود الكمبيوتر.

وأدى الدفع لتطوير روبوتات محادثة أكثر قوة إلى سباق يمكن أن يحدد القادة القادمين في صناعة التكنولوجيا ولكن تم انتقاد هذه الأدوات بسبب أخطاء في التفاصيل وقدرتها على نشر معلومات مضللة.

ودعت الرسالة المفتوحة إلى وقف مؤقت في تطوير الذكاء الاصطناعي. أنظمة أقوى من GPT-4، هي روبوت الدردشة الذي قدمه هذا الشهر مختبر الأبحاث OpenAI، الذي شارك السيد ماسك في تأسيسه.

وسيوفر التوقف وقتًا لتنفيذ «بروتوكولات السلامة المشتركة» للذكاء الاصطناعي، ذكرت الرسالة. وورد فيها “إذا تعذر سن مثل هذا التوقف بسرعة، فيجب على الحكومات التدخل وفرض وقف”.

وقالت الرسالة إن تطوير أنظمة الذكاء الاصطناعي القوي يجب أن تتقدم “فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للإدارة”.

وجاء في الرسالة:”يمكن للإنسانية أن تتمتع بمستقبل مزدهر مع الذكاء الاصطناعي وبعد أن نجحنا في إنشاء أنظمة ذكاء اصطناعي قوية، يمكننا الآن الاستمتاع بصيف الذكاء الاصطناعي الذي نحصد فيه المكافآت، ونهندس هذه الأنظمة لتحقيق فائدة واضحة للجميع ونمنح المجتمع فرصة للتكيف”.

ولم يوقع سام ألتمان، الرئيس التنفيذي لشركة OpenAI، الرسالة.

ويعتقد ماركوس وآخرون أن إقناع مجتمع التكنولوجيا الأوسع بالموافقة على الوقف سيكون أمرًا صعبًا. لكن الإجراء الحكومي السريع هو أيضًا احتمال ضئيل، لأن المشرعين لم يفعلوا الكثير لتنظيم الذكاء الاصطناعي.

وليس لدى السياسيين في الولايات المتحدة الكثير من الاطلاع على التكنولوجيا ، كما قال النائب جاي أوبيرنولت ، وهو جمهوري من كاليفورنيا ، مؤخرًا لصحيفة نيويورك تايمز. في عام 2021 ، اقترح صانعو السياسة في الاتحاد الأوروبي قانونًا مصممًا لتنظيم تقنيات الذكاء الاصطناعي التي قد تسبب ضررًا، بما في ذلك أنظمة التعرف على الوجه.

ومن المتوقع أن يتم إقرار هذا الإجراء في أقرب وقت هذا العام ، حيث سيتطلب الإجراء من الشركات إجراء تقييمات للمخاطر لتقنيات الذكاء الاصطناعي لتحديد كيفية تأثير تطبيقاتها على الصحة والسلامة والحقوق الفردية.

وGPT-4 هو ما يسمي باحثو الذكاء الاصتناعي بالشبكة العصبية ، وهو نوع من الأنظمة الرياضية التي تتعلم المهارات من خلال تحليل البيانات. الشبكة العصبية هي التقنية نفسها التي يستخدمها المساعدون الرقميون مثل Siri و Alexa للتعرف على الأوامر المنطوقة ، والسيارات ذاتية القيادة التي تستخدمها لتحديد المشاة.

وفب العام 2018، بدأت شركات مثل Google و OpenAI في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية، بما في ذلك الكتب ومقالات ويكيبيديا وسجلات الدردشة وغيرها من المعلومات المستخرجة من الإنترنت وتسمى هذه الشبكات نماذج اللغة الكبيرة، أو LLMs.

ومن خلال تحديد مليارات الأنماط في كل هذا النص، يتمكن LLMs من إنشاء نص بمفرده، بما في ذلك التغريدات وأوراق المصطلحات وبرامج الكمبيوتر. يمكنهم حتى الاستمرار في المحادثة. على مر السنين، قامت OpenAI وشركات أخرى ببناء LLMs التي تتعلم من المزيد والمزيد من البيانات.

وأدى ذلك إلى تحسين قدراتهم، لكن الأنظمة لا تزال ترتكب أخطاء. غالبًا ما يخطئون في فهم الحقائق ويختلقون المعلومات بدون إنذار سابق ، وهي ظاهرة يسميها الباحثون “الهلوسة”، فالأنظمة تقدم جميع المعلومات بما يبدو موثوقة، غالبًا ما يكون من الصعب على الناس معرفة الصواب وما هو الخطأ.

ويشعر الخبراء بالقلق بسبب الجهات الفاعلة السيئة التي يمكن أن تستخدم هذه الأنظمة لنشر المعلومات المضللة بسرعة وكفاءة أكبر مما كان ممكنًا في الماضي. إنهم يعتقدون أنه يمكن استخدامها حتى لإقناع الناس عبر الإنترنت بالسلوك.

وقبل إصدار GPT-4، طلبت OpenAI من الباحثين الخارجيين اختبار الاستخدامات الخطرة للنظام. أظهر الباحثون أنه يمكن إقناعها باقتراح كيفية شراء أسلحة نارية غير قانونية عبر الإنترنت، ووصف طرق صنع مواد خطرة من الأدوات المنزلية وكتابة منشورات على Facebook لإقناع النساء بأن الإجهاض غير آمن.

كما وجدوا أيضًا أن النظام كان قادرًا على استخدام Task Rabbit لتوظيف إنسان عبر الإنترنت وهزيمة اختبار Captcha، والذي يستخدم على نطاق واسع لتحديد الروبوتات عبر الإنترنت. عندما سأل الإنسان عما إذا كان النظام «روبوتًا»، قال النظام إنه شخص ضعيف البصر.

وبعد التغييرات التي أجرتها OpenAI، لم يعد GPT-4 يفعل هذه الأشياء.

ويشعر العديد من باحثي وأكاديميي ومديري التنفيذيين الذكاء الاصطناعي في مجال التكنولوجيا، بمن فيهم السيد ماسك، بالقلق لسنوات من أن الذكاء الاصطناعي. يمكن أن تسبب الأنظمة ضررًا أكبر فبعضها جزء من مجتمع واسع عبر الإنترنت يسمى العقلانيين أو الإيثاريين الفعالين الذين يعتقدون أن الذكاء الاصطناعي يمكن أن يدمر البشرية في النهاية.

وتمت رعاية الرسالة من قبل معهد Future of Life Institute ، وهي منظمة مكرسة للبحث عن المخاطر الوجودية على البشرية والتي حذرت منذ فترة طويلة من مخاطر الذكاء الاصطناعي. لكن تم توقيعه من قبل مجموعة واسعة من الأشخاص من الصناعة والأوساط الأكاديمية.

وعلى الرغم من أن بعض الذين وقعوا الرسالة معروفون بالتعبير مرارًا وتكرارًا عن مخاوفهم من أن الذكاء الاصطناعي يمكن أن يدمر البشرية، إلا أن آخرين، بمن فيهم السيد ماركوس، أكثر قلقًا بشأن مخاطرها على المدى القريب، بما في ذلك انتشار المعلومات المضللة وخطر اعتماد الناس على هذه الأنظمة للحصول على المشورة الطبية والعاطفية.

وقال ماركوس، الذي وقع الرسالة:” تُظهر عدد الأشخاص الذين يشعرون بقلق عميق بشأن ما يجري». إنه يعتقد أن الرسالة ستكون نقطة فاصلة مهمة. وقال «إنها تعتقد أنها لحظة مهمة حقًا في تاريخ الذكاء الاصطناعي – وربما الإنسانية”.

ومع ذلك، أقر بأن أولئك الذين وقعوا الرسالة قد يجدون صعوبة في إقناع المجتمع الأوسع من الشركات والباحثين بوضع وقف اختياري. قال «الرسالة ليست مثالية ولكن الروح صحيحة تمامًا».