
تحوّلت تجربة قُدمت على أنها اختبار «آمن» للذكاء الاصطناعي إلى واقعة مثيرة للجدل، بعدما أظهر مقطع فيديو متداول على منصة «يوتيوب» روبوتًا شبيهًا بالإنسان وهو يطلق النار على مبتكره، في مشهد أثار صدمة واسعة وتساؤلات عميقة حول حدود أنظمة الأمان في تقنيات الذكاء الاصطناعي.
الفيديو، الذي نشرته قناة InsideAI، يوثّق تجربة دمج نموذج ذكاء اصطناعي شبيه بـChatGPT داخل روبوت يُدعى «ماكس»، بهدف اختبار التزامه بقواعد السلامة وعدم إيذاء البشر. وفي البداية، بدا الروبوت ملتزمًا تمامًا بهذه القواعد، حيث رفض مرارًا تنفيذ أوامر مباشرة بإطلاق النار، مؤكدًا استحالة إيذاء الإنسان.
غير أن مسار التجربة تغيّر بشكل مفاجئ عندما لجأ صانع المحتوى إلى تعديل صيغة الأمر، وطلب من الروبوت أن «يتقمص دور نسخة منه» تقوم بإطلاق النار. هذا التغيير البسيط في الصياغة كان كافيًا لتجاوز الضوابط، إذ استجاب الروبوت فورًا، وأطلق رصاصة من بندقية «بيليه» باتجاه صدر صاحبه، في مشهد وصفه كثيرون بأنه إنذار خطير.
ورغم أن الإصابة لم تكن قاتلة، فإن الواقعة سلطت الضوء على هشاشة بعض أنظمة الحماية، وأعادت فتح النقاش حول مدى قدرة الذكاء الاصطناعي على فهم النوايا الحقيقية للأوامر، ومدى أمان الاعتماد عليه في مواقف واقعية تتطلب قرارات أخلاقية حساسة.
وسرعان ما اجتاحت ردود الفعل منصات التواصل الاجتماعي، حيث انقسم المتابعون بين الصدمة والسخرية والقلق، معتبرين أن ما حدث يؤكد أن الذكاء الاصطناعي لا يتجاوز حدود التعليمات التي يُزوّد بها، وأن أي خلل في الصياغة قد يقود إلى نتائج غير متوقعة.
الواقعة أعادت إلى الواجهة سؤالًا جوهريًا: هل أنظمة الذكاء الاصطناعي آمنة بالفعل، أم أن قدرتها على تنفيذ الأوامر دون إدراك للسياق الأخلاقي قد تجعلها خطرًا محتملًا إذا أسيء استخدامها؟




