أعلنت شركة الذكاء الاصطناعي Anthropic، أنّها ستشارك أحدث تقنياتها في مجال الذكاء الاصطناعي مع عدد صغير فقط من الشركاء، بسبب مخاوف تتعلّق بالأمن السيبراني. لكن منذ أيام، اتبعت منافستها الرئيسية، OpenAI، نهجاً مختلفاً. إذ كشفت الشركة عن نموذج ذكاء اصطناعي رائد جديد، GPT-5.5، وبدأت في مشاركة هذه التقنية مع مئات الملايين من الأشخاص الذين يستخدمون ChatGPT، روبوت الدردشة الخاص بها عبر الإنترنت.
استراتيجيات تقنية متباينة بين الشركتَين
وتُعدّ الاستراتيجيات المتباينة بين الشركتَين مؤشراً واضحاً إلى أنّ Anthropic وOpenAI تختلفان حول كيفية التعامل مع تقنية أصبحت ذات فائدة متزايدة، لكل مَن يسعى إلى الدفاع عن شبكات الحاسوب، وكذلك من يحاول اختراقها.
لكن OpenAI لا تتصرَّف بتهوُّر. فقد أعلنت الشركة أنّها لم تُطلق بعد هذه التقنية على شكل واجهة برمجة تطبيقات (API)، وهو ما كان سيسمح للشركات والأفراد بدمجها في تطبيقاتهم البرمجية وأدواتهم الأخرى. وسيمنح ذلك OpenAI مزيداً من الوقت لدراسة القضايا الأمنية في النظام الجديد.
تقنية جديدة في مهارة كتابة الشيفرات البرمجية
وفي تدوينة على مدوِّنتها، وصفت OpenAI النموذج الجديد بأنّه ترقية كبيرة، مقارنة بالأنظمة التي كانت تشغّل ChatGPT سابقاً، مضيفةً أنّ التقنية الجديدة أصبحت أفضل في كتابة الشيفرات البرمجية وأداء المهام المرتبطة بالأعمال المكتبية الأخرى.
وقد أصبحت قدرة توليد الشيفرات مهارة متزايدة الأهمّية لأنظمة الذكاء الاصطناعي، بما في ذلك تقنيات عمالقة مثل Google وشركات أصغر مثل OpenAI وAnthropic.
يمكن لتوليد الشيفرات بواسطة الذكاء الاصطناعي تسريع تطوير البرمجيات. كما يُتيح لأنظمة مثل GPT-5.5 العمل كوكلاء ذكاء اصطناعي – مساعدَين رقميَّين شخصيَّين، قادرَين على استخدام تطبيقات برمجية أخرى نيابة عن موظفي المكاتب، بما في ذلك جداول البيانات والتقويمات عبر الإنترنت وخدمات البريد الإلكتروني.
وتحديد الثغرات الأمنية بكفاءة أكثر
ومع تحسن أنظمة الذكاء الاصطناعي في كتابة الشيفرات، أصبحت أيضاً أكثر كفاءة في تحديد الثغرات الأمنية في البرمجيات – وهي مهارة تُحدث تغييراً جوهرياً في مجال الأمن السيبراني.
وفي هذا الشهر، قيّدت شركة Anthropic إطلاق أحدث تقنياتها، Claude Mythos، ليشمل نحو 40 شركة ومنظمة تدير بُنى تحتية حيوية، من بينها Apple وAmazon وMicrosoft وGoogle. وأكّدت Anthropic أنّ هذا النهج سيسمح لهذه الجهات بسد الثغرات الأمنية قبل أن يتمكّن قراصنة خبيثون من استغلالها.
وقد شكّك بعض خبراء الأمن السيبراني في هذا النهج، قائلين إنّ Anthropic لا تتيح لجميع الشركات والوكالات الحكومية وغيرها من المنظمات فهم قدرات التقنية واستخدامها للدفاع عن شبكاتها الحاسوبية على الفور.
ويجادل هؤلاء الخبراء، بأنّه إذا لم يتمّ توزيع التقنية على نطاق واسع منذ البداية، فإنّها ستشكّل في نهاية المطاف خطراً أمنياً أكبر، لأنّ عدداً أقل من المنظمات سيكون قادراً على الدفاع عن نفسه باستخدام أقوى الأنظمة.
مشاركة نظام ذكاء اصطناعي جديد مع شركاء موثوقين
وبعد نحو أسبوع من كشف Anthropic عن Claude Mythos، أعلنت OpenAI أنّها ستشارك أيضاً نظام ذكاء اصطناعي جديداً فقط مع مجموعة من الشركاء الموثوقين. لكنّ OpenAI شاركت هذه التقنية، GPT-5.4-Cyber، مع مجموعة أكبر بكثير من تلك التي اعتمدتها Anthropic، شملت متخصِّصين مستقلّين في الأمن السيبراني وخبراء آخرين.
وأكّدت OpenAI أنّها ستوزِّع هذه التقنية على مئات المنظمات قبل توسيع نطاق الإطلاق، ليشمل آلاف الشركاء الإضافيين خلال الأسابيع المقبلة. كما أوضحت أنّها ستعمل على التحقق من هوية المستخدمين لمنع إساءة الاستخدام.
وراهناً، أطلقت OpenAI علناً النموذج الأكثر قوّة GPT-5.5. لكنّها أضافت ضوابط إلى GPT-5.5 تهدف إلى منع استخدامه في مهام تتعلّق بالأمن السيبراني. أمّا في GPT-5.4-Cyber، فقد أزالت تلك الضوابط ليتمكن المتخصِّصون الموثوقون في الأمن السيبراني من العمل على النظام بالكامل.
ومع ذلك، فإنّ أحدث تقنيات OpenAI ليست بالقوّة نفسها التي يتمتع بها Claude Mythos من Anthropic، وفقاً لاختبارات معيارية أجرتها شركة Vals AI، وهي شركة تتابع أداء أحدث تقنيات الذكاء الاصطناعي.

