لقد انتهى عصر شعار “لا تكن شريراً” لدى ”جوجل“، بعدما استبدلته في 2018 بشعار ألين هو “افعل صواباً”. أما الآن فقد تراجعت قيادة شركتها الأم ”ألفابيت“ عن أحد أهم مواقف الشركة الأخلاقية فيما يتعلق باستخدام الجيش للذكاء الاصطناعي لديها.
حذفت الشركة هذا الشهر تعهدها بعدم استخدام الذكاء الاصطناعي للأسلحة أو المراقبة، وهو وعد قطعته في 2018، فلم يعد هذا العهد ضمن مبادئ “الذكاء الاصطناعي المسؤول” لديها، ونشر رئيس قسم الذكاء الاصطناعي لديها، ديميس هاسابيس، منشوراً على مدونة يشرح التغيير ويؤطره باعتباره تقدماً لا مفر منه وليس تنازلاً بأي شكل.
كتب هاسابيس أن الذكاء الاصطناعي “أصبح منتشراً كما الهواتف المحمولة… لقد تطور بسرعة”.
ومع ذلك، فإن فكرة أن المبادئ الأخلاقية يجب أن “تتطور” مع السوق مغلوطة. نعم، نحن نعيش مشهداً جيوسياسياً متزايد التعقيد، كما وصفه هاسابيس، لكن التخلي عن المنطلقات الأخلاقية للحرب قد يؤدي إلى عواقب خارجة عن السيطرة.
إن جلبنا الذكاء الاصطناعي إلى ساحة المعركة، فقد نحصل على أنظمة آلية يستجيب بعضها لبعض بسرعة الآلة ولا تترك وقتاً للدبلوماسية. وقد تصبح الحرب أشد فتكاً، مع تصاعد الصراعات قبل أن يتوفر للبشر الوقت للتدخل. وقد تجبر فكرة القتال الآلي “النظيف” مزيداً من القادة العسكريين على التحرك، برغم أن أنظمة الذكاء الاصطناعي ترتكب كثيراً من الأخطاء وقد تتسبب في خسائر مدنية أيضاً.
إقرأ المزيد : كيف يمكن التعايش مع ترمب في عالم الإمبراطوريات؟
برنامج يقرر قتل إنسان
إن اتخاذ القرار آلياً هو المشكلة الحقيقية هنا. على عكس التقنية السابقة التي جعلت الجيوش أكثر كفاءة أو قوة، يمكن لأنظمة الذكاء الاصطناعي أن تغير بشكل أساسي من (أو ماذا) سيتخذ قرار إنهاء حياة الإنسان.
كم كان مزعجاً أن هاسابيس كان ممن صاغوا مبرر ”جوجل“ الذي توخت فيه عناية واضحة. فقد تبنى لحناً متبايناً بشدة في 2018، عندما أسست الشركة مبادئ الذكاء الاصطناعي، وكان من بين أكثر من 2400 شخص في مجال الذكاء الاصطناعي وضعوا أسماءهم على تعهد بعدم العمل على الأسلحة المستقلة.
بعد أقل من عقد، لم يكن لهذا الوعد أهمية كبيرة. قال ويليام فيتزجيرالد، العضو السابق في فريق سياسة ”جوجل“ والمؤسس المشارك لـ ”وركر إجنسي“ (Worker Agency)، وهي شركة سياسة واتصالات، إن ”جوجل“ كانت تحت ضغط شديد لسنوات لإبرام عقود عسكرية.
واستذكر زيارة نائب وزير الدفاع الأميركي السابق باتريك شاناهان لمقر أعمال ”جوجل“ السحابية في سانيفيل بولاية كاليفورنيا في 2017، بينما كان الموظفون في الوحدة يبنون البنية الأساسية اللازمة للعمل في مشاريع عسكرية سرية جداً مع البنتاغون. كان الأمل في الحصول على عقود قوياً.
مناهضة الاستخدام العسكري
ساعد فيتزجيرالد في إيقاف ذلك، فقد شارك في تنظيم احتجاجات الشركة بشأن مشروع ”مافين“ (Maven)، وهي صفقة أبرمتها ”جوجل“ مع وزارة الدفاع لتطوير الذكاء الاصطناعي لتحليل لقطات الطائرات بدون طيار، وكان موظفو “جوجل” يخشون أن تؤدي إلى استهداف آلي. في 2015، وقّع حوالي 4000 موظف على عريضة تنص على أن ”(جوجل) لا ينبغي أن تنخرط في مجال الحرب”، واستقال حوالي عشرة منهم احتجاجاً، وفي النهاية رضخت ”جوجل“ فلم تجدد العقد.
بالنظر إلى الوراء، يرى فيتزجيرالد أن ذلك كان مجرد ومضة. وقال: “لقد كان شذوذاً في مسار وادي السيليكون”.
منذئذ، على سبيل المثال، دخلت ”أوبن إيه آي“ في شراكة مع شركة المقاولات الدفاعية ”أندوريل إندستريز“ (Anduril Industries) وتروج منتجاتها لدى الجيش الأميركي. وكانت ”أوبن إيه آي“ حظرت في العام الماضي على أي شخص استخدام نماذجها “لتطوير الأسلحة”. كما دخلت ”أنثروبيك“، التي تصف نفسها بأنها مختبر ذكاء اصطناعي يضع السلامة في المقام الأول، في شراكة مع ”بالانتير تيكنولوجيز“ (Palantir Technologies) في نوفمبر 2024 لبيع خدمة الذكاء الاصطناعي ”كلود“ (Claude) لمقاولي الدفاع.
إخفاق التنظيم الذاتي
لقد أمضت ”جوجل“ سنوات تناضل لإنشاء رقابة مناسبة لعملها. فقد حلت مجلس أخلاقيات مثيراً للجدل في 2019، ثم طردت اثنين من أبرز مديري أخلاقيات الذكاء الاصطناعي لديها بعد عام. لقد انحرفت الشركة عن أهدافها الأصلية إلى حد أنها لم تعد قادرة على رؤيتها. وكذلك حال نظيراتها في وادي السيليكون التي لم يكن ينبغي أن يُترك لها أن تضع لنفسها قواعدها الناظمة.
لكن بشيء من حظ، سيضع تحول ”جوجل“ ضغوطاً أكبر على قادة الحكومة هذا الأسبوع لوضع لوائح ملزمة قانوناً لتطوير الذكاء الاصطناعي العسكري، قبل أن تزيد آليات التفاعل العرقية والضغوط السياسية إرساءها صعوبةً.
قد تكون القواعد بسيطة. مثل إلزام بإشراف بشري على جميع أنظمة الذكاء الاصطناعي العسكرية، وحظر أي أسلحة مستقلة تماماً يمكنها تحديد الأهداف دون موافقة بشرية أولاً، والتأكد من إمكانية تدقيق أنظمة الذكاء الاصطناعي هذه.
يأتي أحد المقترحات المعقولة بشأن هذه السياسة من معهد مستقبل الحياة، وهو مركز أبحاث كان يموله إيلون ماسك فيما مضى ويديره حالياً الفيزيائي ماكس تيغمارك من معهد ماساتشوستس للتقنية. يدعو المقترح إلى نظام متعدد المستويات بحيث تعامل السلطات الوطنية أنظمة الذكاء الاصطناعي العسكرية كما المرافق النووية، ويدعو إلى تقديم أدلة لا لبس فيها على هوامش أمانها.
كما ينبغي للحكومات التي ستجتمع في باريس أن تنظر أيضاً في إنشاء هيئة دولية لفرض معايير السلامة تلك على غرار إشراف الوكالة الدولية للطاقة الذرية على التقنية النووية. وينبغي أن تكون قادرة على فرض عقوبات على الشركات (والبلدان) التي تنتهك هذه المعايير.
إن تحول ”جوجل“ هو تحذير بأن حتى أقوى قيم الشركات قد تنهار تحت ضغط سوق شديدة التفاعل وفي ظل إدارة سياسية لا يمكن للمرء أن يقول لها لا ببساطة. لقد انتهى عصر التنظيم الذاتي وفق مبدأ لا تكن شريراً ، ولكن ما تزال هناك فرصة لوضع قواعد ملزمة لدرء أشد مخاطر الذكاء الاصطناعي قتامة، والحرب المؤتمتة بالتأكيد إحداها.