أوقفوا تجارب الذكاء الاصطناعي العملاقة: رسالة مفتوحة
This open letter was originally published in English here.
تاريخ النشر: 22 مارس/آذار 2023
يمكن أن تشكّل أنظمة الذكاء الاصطناعي ذات القدرات المنافسة للبشر مخاطر جسيمة على المجتمع والانسانية، كما يتضح من خلال عديد البحوث [1] وكما تقر به كبريات مختبرات الذكاء الاصطناعي [2]. وكما هو مذكور في مبادئ الذكاء الاصطناعي المقترنة بمؤتمر أسيلومار Asilomar AI Principlesوالمُعتمَدة على نطاق واسع، فإن الذكاء الاصطناعي المتقدم قد يحدث تغييرا عميقا في تاريخ الحياة على الأرض، وعليه، ينبغي التخطيط له وإدارته بالعناية والموارد المناسبة. ولسوء الحظ، فإن هذا المستوى من التخطيط والإدارة لم يتحقّق، على الرغم من أن الأشهر الأخيرة شهدت دخول مختبرات الذكاء الاصطناعي سباقًا غير خاضع للسيطرة يهدف إلى تطوير ونشر عقول رقمية أكثر قوة من أي وقت مضى لا يقدر أي كان – ولا حتى مبتكروها – على فهمهما أو التنبؤ بمسارها أو التحكم فيها بشكل موثوق.
لقد أضحت أنظمة الذكاء الاصطناعي المعاصرة قادرة على منافسة البشر في المهام العامة [3]، وحريّ بنا أن نتساءل: هل يجب أن نترك قنوات معلوماتنا عرضة لسيل من الدعاية والأكاذيب الصادرة عن الآلات؟ هل من الحكمة أن ندع الآلة تستحوذ على كافة الوظائف، بما فيها تلك التي تعطينا إحساسا بالرّضا؟ هل يجب أن نطور عقولًا غير بشرية مآلها أن تتفوق علينا عددا وذكاء وتُنهي صلاحياتنا وتحل محلّنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ لا ينبغي تفويض هذه القرارات لقادة تكنولوجيا غير منتخبين ولا يحسن تطوير أنظمة ذكاء اصطناعي قوية الا عندما نكون واثقين من أن تأثيراتها سوف تكون إيجابية وأن مخاطرها خاضعةٌ للسيطرة. يجب أن تكون هذه الثقة مبررة بشكل جيد وأن تتعاظم بقدر حجم تأثيرات النظام المحتملة. ينص البيان الأخير لشركة أوبن أي آي OpenAI حول الذكاء العام الاصطناعي على ما يلي: “قد يكون من المهم الحصول في مرحلة ما على مراجعة مستقلة تسبق الشروع في تدريب أنظمة مستقبلية كما أنه من المهم أن يتوصل أصحاب الجهود الأكثر تقدما إلى اتفاق يتم بموجبه الحد من معدل نمو الحوسبة الهادفة لابتكار نماذج جديدة.” نحن موافقون على هذا ونرى أننا بلغنا هذه المرحلة.
لذلك، فإننا ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف الفوري عن تدريب أنظمة ذكاء اصطناعي أقوى من جي بي تي GPT-4 لمدة لا تقل عن ستة أشهر. يجب أن يكون هذا التوقف علنيًا وقابلًا للتحقق وشاملا لكل الجهات الفاعلة. وإن تعذر سنّ مثل هذا التوقف بسرعة، يجب على الحكومات التدخل وفرض حظر مؤقت.
يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف لصياغة وتنفيذ مجموعة من بروتوكولات السلامة المشتركة اللازمة لتصميم وتطوير الذكاء الاصطناعي المتقدم يدققها ويشرف عليها خبراء خارجيون ومستقلون. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالا للشك [4]. هذا لا يعني توقفًا عن تطوير الذكاء الاصطناعي بشكل عام، بل هو مجرد تراجع عن السباق الخطير نحو نماذج مجهولة غير قابلة للتنبؤ وذات أنساق متزايدة وقدرات ناشئة.
يجب إعادة توجيه بوصلة بحوث الذكاء الاصطناعي وتطويره في اتجاه جعل النظم الحالية الصلبة أكثر دقة وأمانا وقابلية للتفسير وكذلك شفافة ومتينة، ومتسقة، وجديرة بالثقة والولاء.
بالتوازي مع ذلك، يجب على مطوّري الذكاء الاصطناعي العمل مع صانعي السياسات للتسريع بشكل دراماتيكي في تطوير أنظمة حوكمة قوية للذكاء الاصطناعي. وعلى أقل تقدير، ينبغي أن تتضمن هذه التدابير ما يلي: سلطات تنظيمية جديدة ومؤهلة مكرسة للذكاء الاصطناعي، ومراقبة أنظمة الذكاء الاصطناعي عالية القدرة والمجمّعات الكبرى للقدرات الحاسوبية وتعقبها، وأنظمة المصدر والوسم المائي للمساعدة في التمييز بين ما هو حقيقي وما مصنّع وتعقب النماذج المسرّبة، ونظام بيئي متين للتدقيق والتوثيق، والمسؤولية عن الأضرار الناجمة عن الذكاء الاصطناعي، وتمويل عام قوي لبحوث السلامة التقنية للذكاء الاصطناعي، ومؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الهائلة (خاصة تلك التي تهم الديمقراطية) التي سوف يسببها الذكاء الاصطناعي.
يمكن للإنسانية أن تتمتع بمستقبل زاهر مع الذكاء الاصطناعي. بعد أن نجحنا في إنشاء أنظمة ذكاء اصطناعي قوية، حقّ لنا الآن الاستمتاع بــ “صيف ذكاء اصطناعي” نحصد فيه المكافآت، ونهندس هذه الأنظمة لتحقيق منفعة واضحة للجميع، ونمنح المجتمع فرصة للتكيّف. لقد سبق وأن توقف المجتمع مؤقتا عن تطوير تقنيات أخرى كانت تحمل آثاراً كارثية محتملة عليه [5]. الآن، يمكننا القيام بنفس الشيء. دعونا نستمتع بصيف طويل للذكاء الاصطناعي، وليس الاندفاع والسقوط دون استعداد.
هذه بعض الأسئلة الشائعة إجابة على تساؤلات ونقاشات تم التطرق إليها في وسائل الإعلام وغيرها. يمكنك الاطلاع على هذه الأسئلة هنا.
بإضافة إلى هذه الرسالة المفتوحة، نشرنا مجموعة من التوصيات السياسية التي يمكن الاطلاع عليها هنا:
صنع السياسات أثناء فترة التوقف
12th April 2023
[1]
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
[2]
Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: 'A little bit scared of this'. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
[3]
Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
[4]
Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".
[5]
Examples include human cloning, human germline modification, gain-of-function research, and eugenics.
Media mentions
Signatories
View the full list of signatories
Attempting to load the full list of signatories on a mobile device or slow internet connection might cause formatting issues.
How does verification work?
• Declaration URL - This person has made a public declaration of signing the open letter which can be viewed online.