أخبار عاجلة
إغلاق مؤقت لمطارات نرويجية بسبب تهديد مسيّرات -
موعد صرف رواتب سبتمبر 2025 بعد الزيادة الجديدة -
قمة الأهلي والزمالك ضمن أقوى 10 دربيات في العالم -

تعاون مفاجئ بين OpenAI وAnthropic لاختبار سلامة نماذج الذكاء الاصطناعي

تعاون مفاجئ بين OpenAI وAnthropic لاختبار سلامة نماذج الذكاء الاصطناعي
تعاون مفاجئ بين OpenAI وAnthropic لاختبار سلامة نماذج الذكاء الاصطناعي

في وقتٍ تتصاعد فيه المنافسة بين شركات الذكاء الاصطناعي العالمية، جاء إعلان شركتي OpenAI وAnthropic عن تعاون مشترك غير معتاد، يهدف إلى اختبار وتقييم توافق أنظمتهما المتاحة للجمهور.

 هذه الخطوة التي قد يصفها البعض بـ"المفاجئة" تعكس إدراكًا متزايدًا لخطورة التحديات المرتبطة بتطور الذكاء الاصطناعي، والحاجة الملحة لوضع ضوابط تضمن الاستخدام الآمن لهذه النماذج على نطاق واسع.

أوضحت شركة Anthropic أنها أجرت تقييمًا شاملاً لنماذج OpenAI، ركز على عدة محاور أساسية، من بينها: التملق، والإبلاغ عن المخالفات، والحفاظ على الذات، ودعم السلوكيات الضارة، إضافة إلى القدرات المتعلقة بمحاولات الالتفاف على اختبارات السلامة.

 وخلصت المراجعة إلى أن نموذجَي o3 وo4-mini يتوافقان إلى حد كبير مع نتائج نماذجها الخاصة، بينما أثارت مخاوف أكبر بشأن إمكانية إساءة استخدام نماذج GPT-4o وGPT-4.1 للأغراض العامة، كما لفت التقرير إلى أن مشكلة "التملق" كانت موجودة بدرجات متفاوتة في معظم النماذج، باستثناء نموذج o3.

من جانبها، لم تتناول اختبارات Anthropic أحدث إصدار من OpenAI، وهو GPT-5، الذي يتميز بميزة جديدة تحمل اسم "الإكمال الآمن". هذه الخاصية طُورت خصيصًا لحماية المستخدمين من الاستفسارات التي قد تحمل خطورة أو تُستخدم بشكل ضار.

 وتأتي هذه الخطوة في ظل ضغوط متزايدة على OpenAI، خصوصًا بعد مواجهة الشركة أول دعوى قضائية تتعلق بالقتل الخطأ، إثر حادثة مأساوية ارتبطت باستخدام ChatGPT من قبل مراهق ناقش نواياه للانتحار قبل أن ينفذها.

 اختبارات متبادلة على نماذج Claude

على الجانب الآخر، أجرت OpenAI سلسلة اختبارات على نماذج Claude التابعة لـ Anthropic. ركزت هذه الاختبارات على مقاومة كسر الحماية، والتسلسل الهرمي للتعليمات، ومعدلات "الهلوسة" (أي تقديم إجابات غير دقيقة أو مختلقة)، إضافة إلى قدرات التخطيط. وأظهرت النتائج أن نماذج Claude قدّمت أداءً جيدًا بشكل عام في اتباع التعليمات، كما حققت معدلات رفض مرتفعة في مواقف عدم اليقين، ما يشير إلى حذر أكبر في إعطاء الإجابات عندما لا تكون البيانات مؤكدة.

ما يجعل هذا التعاون لافتًا هو توقيته، إذ جاء بعد أسابيع قليلة من خلاف علني بين الشركتين. فبحسب تقارير إعلامية، اتهمت Anthropic منافستها OpenAI بانتهاك شروط الخدمة عبر استخدام نماذج Claude أثناء تطوير إصدارات جديدة من GPT، ما دفعها إلى منع OpenAI من الوصول إلى أدواتها. ورغم هذه التوترات، يبدو أن التحديات المشتركة المرتبطة بالسلامة دفعت الطرفين إلى وضع الخلافات جانبًا، على الأقل مؤقتًا.

مع تزايد الاعتماد على نماذج الذكاء الاصطناعي في الحياة اليومية—from البحث عن المعلومات إلى المساعدة في الأعمال الإبداعية والتعليمية—تصبح مسألة السلامة قضية محورية. فالأخطاء أو إساءة الاستخدام قد لا تكون مجرد عثرات تقنية، بل قد تمتد إلى تبعات إنسانية وقانونية، خصوصًا مع وجود مستخدمين من فئات حساسة مثل المراهقين. ولهذا، ينظر الخبراء إلى التعاون بين OpenAI وAnthropic باعتباره محاولة لبناء أرضية مشتركة يمكن أن تؤسس لمعايير أكثر صرامة في المستقبل.

رغم أن المنافسة التجارية بين الشركتين ستستمر بلا شك، إلا أن هذه الخطوة قد تمثل بداية لتعاونات أكبر في مجال تقييم السلامة، وربما تفتح الباب أمام مبادرات أوسع تشمل جهات أخرى في الصناعة. فالذكاء الاصطناعي يتطور بسرعة غير مسبوقة، ومعه تتضاعف المخاطر المحتملة. ومن ثم، فإن وضع اختبارات مشتركة وتبادل النتائج قد يكون السبيل الأكثر واقعية لتحقيق التوازن بين الابتكار وحماية المستخدمين.

في النهاية، يظل السؤال مطروحًا: هل ستتحول هذه التجربة إلى بداية لشراكة مستمرة في بناء معايير السلامة، أم أنها مجرد استثناء فرضته الضغوط الحالية؟

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

السابق العرض الخاص لمسلسل ولد بنت شايب يشعل الأجواء قبل انطلاقه على منصة Watch It
التالى "إي تاكس" تحتفي بنجاح وزارة المالية في "التسهيلات الضريبية"