Skip to content
All Open Letters

أوقفوا تجارب الذكاء الاصطناعي العملاقة: رسالة مفتوحة

ندعو كافة المختبرات المعنية بالذكاء الاصطناعي إلى التوقف فورا عن تدريب أنظمة الذكاء الاصطناعي الأقوى من GPT-4
Signatures
31810

This open letter was originally published in English here.

تاريخ النشر: 22 مارس/آذار 2023

يمكن أن تشكّل أنظمة الذكاء الاصطناعي ذات القدرات المنافسة للبشر مخاطر جسيمة على المجتمع والانسانية، كما يتضح من خلال عديد البحوث [1] وكما تقر به كبريات مختبرات الذكاء الاصطناعي [2]. وكما هو مذكور في مبادئ الذكاء الاصطناعي المقترنة بمؤتمر أسيلومار  Asilomar AI Principlesوالمُعتمَدة على نطاق واسع، فإن الذكاء الاصطناعي المتقدم قد يحدث تغييرا عميقا في تاريخ الحياة على الأرض، وعليه، ينبغي التخطيط له وإدارته بالعناية والموارد المناسبة. ولسوء الحظ، فإن هذا المستوى من التخطيط والإدارة لم يتحقّق، على الرغم من أن الأشهر الأخيرة شهدت دخول مختبرات الذكاء الاصطناعي سباقًا غير خاضع للسيطرة يهدف إلى تطوير ونشر عقول رقمية أكثر قوة من أي وقت مضى لا يقدر أي كانولا حتى مبتكروهاعلى فهمهما أو التنبؤ بمسارها أو التحكم فيها بشكل موثوق.

لقد أضحت أنظمة الذكاء الاصطناعي المعاصرة قادرة على منافسة البشر في المهام العامة [3]، وحريّ بنا أن نتساءل: هل يجب أن نترك قنوات معلوماتنا عرضة لسيل من الدعاية والأكاذيب الصادرة عن الآلات؟ هل من الحكمة أن ندع الآلة تستحوذ على كافة الوظائف، بما فيها تلك التي تعطينا إحساسا بالرّضا؟ هل يجب أن نطور عقولًا غير بشرية مآلها أن تتفوق علينا عددا وذكاء وتُنهي صلاحياتنا وتحل محلّنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟ لا ينبغي تفويض هذه القرارات لقادة تكنولوجيا غير منتخبين ولا يحسن تطوير أنظمة ذكاء اصطناعي قوية الا عندما نكون واثقين من أن تأثيراتها سوف تكون إيجابية وأن مخاطرها خاضعةٌ للسيطرة. يجب أن تكون هذه الثقة مبررة بشكل جيد وأن تتعاظم بقدر حجم تأثيرات النظام المحتملة. ينص البيان الأخير لشركة أوبن أي آي OpenAI حول الذكاء العام الاصطناعي على ما يلي: قد يكون من المهم الحصول في مرحلة ما على مراجعة مستقلة تسبق الشروع في تدريب أنظمة مستقبلية كما أنه من المهم أن يتوصل أصحاب الجهود الأكثر تقدما إلى اتفاق يتم بموجبه الحد من معدل نمو الحوسبة الهادفة لابتكار نماذج جديدة.” نحن موافقون على هذا ونرى أننا بلغنا هذه المرحلة.

لذلك، فإننا ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف الفوري عن تدريب أنظمة ذكاء اصطناعي أقوى من جي بي تي GPT-4 لمدة لا تقل عن ستة أشهر. يجب أن يكون هذا التوقف علنيًا وقابلًا للتحقق وشاملا لكل الجهات الفاعلة. وإن تعذر سنّ مثل هذا التوقف بسرعة، يجب على الحكومات التدخل وفرض حظر مؤقت.

يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف لصياغة وتنفيذ مجموعة من بروتوكولات السلامة المشتركة اللازمة لتصميم وتطوير الذكاء الاصطناعي المتقدم يدققها ويشرف عليها خبراء خارجيون ومستقلون. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالا للشك [4]. هذا لا يعني توقفًا عن تطوير الذكاء الاصطناعي بشكل عام، بل هو مجرد تراجع عن السباق الخطير نحو نماذج مجهولة غير قابلة للتنبؤ وذات أنساق متزايدة وقدرات ناشئة.

يجب إعادة توجيه بوصلة بحوث الذكاء الاصطناعي وتطويره في اتجاه جعل النظم الحالية الصلبة أكثر دقة وأمانا وقابلية للتفسير وكذلك شفافة ومتينة، ومتسقة، وجديرة بالثقة والولاء.

بالتوازي مع ذلك، يجب على مطوّري الذكاء الاصطناعي العمل مع صانعي السياسات للتسريع بشكل دراماتيكي في تطوير أنظمة حوكمة قوية للذكاء الاصطناعي. وعلى أقل تقدير، ينبغي أن تتضمن هذه التدابير ما يلي: سلطات تنظيمية جديدة ومؤهلة مكرسة للذكاء الاصطناعي، ومراقبة أنظمة الذكاء الاصطناعي عالية القدرة والمجمّعات الكبرى للقدرات الحاسوبية وتعقبها، وأنظمة المصدر والوسم المائي للمساعدة في التمييز بين ما هو حقيقي وما مصنّع وتعقب النماذج المسرّبة، ونظام بيئي متين للتدقيق والتوثيق، والمسؤولية عن الأضرار الناجمة عن الذكاء الاصطناعي، وتمويل عام قوي لبحوث السلامة التقنية للذكاء الاصطناعي، ومؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الهائلة (خاصة تلك التي تهم الديمقراطية) التي سوف يسببها الذكاء الاصطناعي.

يمكن للإنسانية أن تتمتع بمستقبل زاهر مع الذكاء الاصطناعي. بعد أن نجحنا في إنشاء أنظمة ذكاء اصطناعي قوية، حقّ لنا الآن الاستمتاع بــصيف ذكاء اصطناعينحصد فيه المكافآت، ونهندس هذه الأنظمة لتحقيق منفعة واضحة للجميع، ونمنح المجتمع فرصة للتكيّف. لقد سبق وأن توقف المجتمع مؤقتا عن تطوير تقنيات أخرى كانت تحمل آثاراً كارثية محتملة عليه [5]. الآن، يمكننا القيام بنفس الشيء. دعونا نستمتع بصيف طويل للذكاء الاصطناعي، وليس الاندفاع والسقوط دون استعداد.

هذه بعض الأسئلة الشائعة إجابة على تساؤلات ونقاشات تم التطرق إليها في وسائل الإعلام وغيرها. يمكنك الاطلاع على هذه الأسئلة هنا.

بإضافة إلى هذه الرسالة المفتوحة، نشرنا مجموعة من التوصيات السياسية التي يمكن الاطلاع عليها هنا:

عرض الورقة

صنع السياسات أثناء فترة التوقف

12th April 2023

يمكنك أيضًا تنزيل هذه الرسالة المفتوحة كملف PDF..

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🦜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[3]

Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems "function appropriately and do not pose unreasonable safety risk".

[5]

Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Signatories


View the full list of signatories

Attempting to load the full list of signatories on a mobile device or slow internet connection might cause formatting issues.

Read More
OPEN LETTERS

Related posts

If you enjoyed this, you also might like:
Signatories
2672

Open letter calling on world leaders to show long-view leadership on existential threats

The Elders, Future of Life Institute and a diverse range of co-signatories call on decision-makers to urgently address the ongoing impact and escalating risks of the climate crisis, pandemics, nuclear weapons, and ungoverned AI.
14 February, 2024
Signatories
Closed

AI Licensing for a Better Future: On Addressing Both Present Harms and Emerging Threats

This joint open letter by Encode Justice and the Future of Life Institute calls for the implementation of three concrete US policies in order to address current and future harms of AI.
25 October, 2023
Signatories
31810

Pause Giant AI Experiments: An Open Letter

We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
22 March, 2023
Signatories
998

Open Letter Against Reckless Nuclear Escalation and Use

The abhorrent Ukraine war has the potential to escalate into an all-out NATO-Russia nuclear conflict that would be the greatest catastrophe in human history. More must be done to prevent such escalation.
18 October, 2022

Sign up for the Future of Life Institute newsletter

Join 40,000+ others receiving periodic updates on our work and cause areas.
cloudmagnifiercrossarrow-up linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram