OpenAI تُطلق GPT-4.1 بقدرات متقدمة في كتابة وتطوير الأكواد

أعلنت شركة OpenAI عن إطلاق سلسلة جديدة من نماذج الذكاء الاصطناعي تحت اسم GPT-4.1، والتي تشمل ثلاثة إصدارات مختلفة هي: الإصدار الأساسي، ونسخة Mini، ونسخة Nano. وتم تطوير هذه النماذج لتقديم أداء عالي المستوى في مهام البرمجة، خصوصًا تلك التي تتطلب فهمًا دقيقًا للتعليمات البرمجية وتنفيذها بكفاءة. وقد تم توفير هذه النماذج عبر واجهة برمجة التطبيقات الخاصة بـ OpenAI، دون طرحها بشكل مباشر في منصة ChatGPT حتى الآن. وتُعد القدرة على التعامل مع سياقات طويلة تصل إلى مليون رمز من أبرز ميزات GPT-4.1، وهي قفزة كبيرة في مجال معالجة النصوص الطويلة، حيث يعادل هذا الرقم نحو 750 ألف كلمة، وهو ما يفوق طول أعمال أدبية ضخمة مثل رواية “الحرب والسلام”.
وتأتي هذه الخطوة في ظل منافسة متزايدة بين عمالقة الذكاء الاصطناعي، إذ أطلقت جوجل نموذج Gemini 2.5 Pro بقدرات مشابهة من حيث حجم السياق والنتائج المتقدمة في اختبارات البرمجة، بينما طرحت شركة Anthropic نموذج Claude 3.7 Sonnet، إلى جانب إعلان شركة DeepSeek الصينية عن نموذج جديد متطور باسم V3. وفي هذا السياق، تسعى OpenAI إلى خلق منظومة متكاملة لما تسميه “وكيل ذكاء اصطناعي لهندسة البرمجيات”، يكون قادرًا على إنجاز دورة حياة التطوير البرمجي بالكامل، بما في ذلك البرمجة، وضمان الجودة، واكتشاف الأخطاء، وكتابة التوثيق الفني اللازم.
ووفقًا لـ OpenAI، فإن نموذج GPT-4.1 جاء نتيجة لملاحظات ومقترحات المطورين، حيث تم تحسين أداء النماذج من خلال تحسين دعم واجهات الاستخدام، وتجنب التعديلات البرمجية غير الضرورية، وتعزيز دقة تنسيقات الردود، إلى جانب تعزيز قدرته على استخدام الأدوات البرمجية بشكل متسق. وتُظهر نتائج الاختبارات أن GPT-4.1 الكامل يتفوّق على النسخ السابقة مثل GPT-4o وGPT-4o mini، وذلك في اختبارات معيارية مثل SWE-bench. أما النسختان Mini وNano فتركّزان على تقديم أداء سريع بكفاءة أعلى من حيث استهلاك الموارد، وإن كان ذلك يأتي على حساب بعض الدقة، علمًا بأن إصدار Nano يُعتبر الأسرع والأقل تكلفة من بين نماذج OpenAI حتى الآن.
وفي تقييمات SWE-bench Verified، وهي اختبارات تُنفذ عادة من قبل خبراء برمجة محترفين، حقق النموذج درجات تراوحت بين 52% و54.6%. رغم أن هذه النتيجة تُعد متقدمة، إلا أنها تظل دون المستوى الذي حققته نماذج منافسة، مثل نموذج جوجل الذي سجل 63.8%، ونموذج Claude 3.7 Sonnet الذي بلغ 62.3%. كما تم اختبار GPT-4.1 على معيار Video-MME الذي يقيس فهم النموذج لمحتوى مقاطع الفيديو، وقد حقق دقة وصلت إلى 72% في فئة المقاطع الطويلة غير المترجمة، وهو ما يعكس تقدمه في الفهم السمعي والبصري.
ورغم هذا التقدم الكبير، تعترف OpenAI بأن النموذج لا يزال يواجه بعض التحديات، خاصة عند تنفيذ مهام برمجية معقدة ترتبط بمستوى الأمان أو تتطلب عمليات تصحيح دقيقة. وأشارت إلى أن أداء النموذج يمكن أن يتراجع مع زيادة حجم البيانات المدخلة، وهي نقطة لا تزال قيد الدراسة والتحسين. ويُعتبر نموذج GPT-4.1 محدثًا بقاعدة معرفية حتى يونيو 2024، مما يمنحه الأفضلية في معالجة معلومات حديثة مقارنة بالإصدارات السابقة، وهو ما يفتح المجال أمام استخدامه في تطبيقات أكثر حداثة وتخصصًا خلال المرحلة القادمة.