تتمثل مهمة NinjaTech AI في جعل الجميع أكثر إنتاجية من خلال الاهتمام بالمهام المعقدة التي تستغرق وقتًا طويلاً باستخدام وكلاء الذكاء الاصطناعي (AI) بسرعة وبأسعار معقولة. أطلقنا مؤخرًا MyNinja.ai، أحد أوائل مساعدي الذكاء الاصطناعي الشخصيين متعددي الوكلاء في العالم، للمضي قدمًا نحو مهمتنا. تم إنشاء MyNinja.ai من الألف إلى الياء باستخدام وكلاء متخصصين قادرين على إكمال المهام نيابة عنك، بما في ذلك جدولة الاجتماعات وإجراء بحث عميق من الويب وإنشاء التعليمات البرمجية والمساعدة في الكتابة. يمكن لهؤلاء الوكلاء تقسيم المهام المعقدة والمتعددة الخطوات إلى حلول متفرعة، وهم قادرون على تقييم الحلول التي تم إنشاؤها ديناميكيًا مع التعلم المستمر من التجارب السابقة. يتم إنجاز كل هذه المهام بطريقة مستقلة تمامًا وغير متزامنة، مما يتيح لك متابعة يومك بينما يعمل Ninja على هذه المهام في الخلفية، والمشاركة عندما تكون مدخلاتك مطلوبة.

نظرًا لعدم وجود نموذج لغة كبيرة واحد (LLM) مثالي لكل مهمة، فقد علمنا أن إنشاء مساعد شخصي للذكاء الاصطناعي يتطلب العديد من LLMs المحسّنة خصيصًا لمجموعة متنوعة من المهام. من أجل تقديم الدقة والإمكانيات لإسعاد مستخدمينا، علمنا أيضًا أننا سنطلب هذه النماذج المتعددة للعمل معًا جنبًا إلى جنب. أخيرًا، كنا بحاجة إلى أساليب قابلة للتطوير وفعالة من حيث التكلفة لتدريب هذه النماذج المختلفة - وهو مشروع كان تاريخيًا مكلفًا بالنسبة لمعظم الشركات الناشئة. في هذا المنشور، نصف كيف قمنا ببناء وكيل الإنتاجية المتطور Ninjallm، العمود الفقري لـ MyNinja.ai، باستخدام AWS ترينيوم رقائق.

إنشاء مجموعة بيانات

لقد أدركنا في وقت مبكر أنه لإنجاز مهمة معالجة المهام نيابة عن المستخدم، نحتاج إلى نماذج متعددة تم تحسينها لمهام محددة. تشمل الأمثلة نماذج الباحث العميق والمبرمج العميق والمستشار. بعد اختبار النماذج مفتوحة المصدر المتاحة، شعرنا أن القدرات والاستجابات الجاهزة لم تكن كافية مع الهندسة السريعة وحدها لتلبية احتياجاتنا. على وجه التحديد، في اختبارنا لنماذج مفتوحة المصدر، أردنا التأكد من تحسين كل نموذج لأسلوب React/سلسلة الفكر للمطالبة. بالإضافة إلى ذلك، أردنا التأكد من أن النموذج سيفعل ذلك، عند نشره كجزء من الجيل المعزز للاسترجاع نظام (RAG)، اذكر بدقة كل مصدر، بالإضافة إلى أي تحيز لقول «لا أعرف» بدلاً من توليد إجابات خاطئة. لهذا الغرض، اخترنا ضبط النماذج لمختلف المهام النهائية.

عند إنشاء مجموعة بيانات التدريب الخاصة بنا، كان هدفنا مزدوجًا: تكييف كل نموذج لمهمته النهائية وشخصيته المناسبة (الباحث والمستشار والمبرمج وما إلى ذلك)، وتكييف النماذج لاتباع هيكل إخراج محدد. ولتحقيق هذه الغاية، اتبعنا نهج ليما من أجل الضبط الدقيق. استخدمنا عينة تدريب بحجم 20 مليون رمز تقريبًا، مع التركيز على شكل ونبرة الإخراج مع استخدام حجم عينة متنوع ولكنه صغير نسبيًا. لإنشاء مجموعة بيانات الضبط الدقيق الخاضعة للإشراف، بدأنا بإنشاء مهام أولية لكل نموذج. من خلال هذه المهام الأولية، قمنا بإنشاء مجموعة بيانات تركيبية أولية باستخدام نموذج Meta's Llama 2. تمكنا من استخدام مجموعة البيانات الاصطناعية لإجراء جولة أولية من الضبط الدقيق. لتقييم أداء هذا النموذج الذي تم ضبطه بدقة في البداية، قمنا بتجميع تعليقات المستخدمين لإنشاء المزيد من العينات بشكل متكرر. استخدمنا أيضًا سلسلة من المعايير - الداخلية والعامة - لتقييم أداء النموذج واستمرنا في التكرار.

الضبط الدقيق على تراينيوم

لقد اخترنا البدء بنماذج Llama لنموذج أساسي مدرب مسبقًا لعدة أسباب: أبرزها الأداء الرائع خارج الصندوق، والدعم القوي للنظام البيئي من المكتبات المختلفة، والترخيص المفتوح المصدر حقًا والترخيص المسموح به. في ذلك الوقت، بدأنا مع Llama 2، واختبرنا عبر الأحجام المختلفة (7B و 13B و 70B). للتدريب، اخترنا استخدام مجموعة من مثيلات trn1.32xlarge للاستفادة من رقائق Trainium. استخدمنا مجموعة من 32 حالة من أجل موازاة التدريب بكفاءة. استخدمنا أيضًا مجموعة AWS الموازية لإدارة تنسيق الكتلة. باستخدام مجموعة من مثيلات Trainium، استغرق كل تكرار للضبط الدقيق أقل من 3 ساعات، بتكلفة أقل من 1,000 دولار. سمح لنا وقت التكرار السريع والتكلفة المنخفضة بضبط نماذجنا واختبارها بسرعة وتحسين دقة نموذجنا. لتحقيق الدقة التي تمت مناقشتها في الأقسام التالية، كان علينا فقط إنفاق حوالي 30 ألف دولار، مما يوفر مئات الآلاف، إن لم يكن ملايين الدولارات إذا كان علينا التدريب على مسرعات التدريب التقليدية.

يوضح الرسم البياني التالي بنية التدريب لدينا.

بعد أن أنشأنا خطوط أنابيب الضبط الدقيق الخاصة بنا المبنية فوق Trainium، تمكنا من ضبط نماذجنا وتحسينها بفضل مكتبات التدريب Neuron Distributed. كان هذا مفيدًا للغاية وفي الوقت المناسب، لأنه قبل إطلاق MyNinja.ai، تم إصدار نماذج Meta's Llama 3. تشترك Llama 3 و Llama 2 في بنية مماثلة، لذلك تمكنا من الترقية بسرعة إلى الطراز الأحدث. سمحت لنا هذه السرعة في التبديل بالاستفادة من المكاسب المتأصلة في دقة النموذج، والركض بسرعة كبيرة من خلال جولة أخرى من الضبط الدقيق مع أوزان Llama 3 والاستعداد للإطلاق.

تقييم النموذج

لتقييم النموذج، كان هناك هدفان: تقييم قدرة النموذج على الإجابة على أسئلة المستخدم، وتقييم قدرة النظام على الإجابة على الأسئلة من خلال المصادر المتوفرة، لأن هذه هي الواجهة الأساسية لمساعد الذكاء الاصطناعي الشخصي الخاص بنا. لقد اخترنا هوت بوتكا و الأسئلة الطبيعية (NQ) مفتوحة مجموعات البيانات، وكلاهما مناسب تمامًا بسبب مجموعات البيانات المعيارية المفتوحة مع قوائم المتصدرين العامة.

قمنا بحساب الدقة من خلال مطابقة إجابة النموذج بالإجابة المتوقعة، باستخدام أفضل 10 مقاطع تم استردادها من مجموعة ويكيبيديا. أجرينا تصفية المحتوى وترتيبه باستخدام كولبرت تي في 2، وهو نموذج استرجاع يستند إلى بيرت. لقد حققنا دقة بنسبة 62.22٪ في مجموعة بيانات NQ Open و 58.84٪ على HotPotQA باستخدام نموذج Llama 3 RAG المحسن، مما يدل على تحسينات ملحوظة مقارنة بالنماذج الأساسية الأخرى. يلخص الشكل التالي نتائجنا.

العمل المستقبلي

وبالنظر إلى المستقبل، نعمل على العديد من التطورات لمواصلة تحسين أداء نموذجنا وتجربة المستخدم. أولاً، نعتزم استخدام بوربو لضبط نماذجنا. تجمع ORPO بين الضبط الدقيق التقليدي ومحاذاة التفضيلات، مع استخدام مجموعة بيانات محاذاة التفضيلات الفردية لكليهما. نعتقد أن هذا سيسمح لنا بمواءمة النماذج بشكل أفضل لتحقيق نتائج أفضل للمستخدمين.

بالإضافة إلى ذلك، نعتزم بناء نموذج مجموعة مخصص من النماذج المختلفة التي قمنا بضبطها بدقة حتى الآن. مستوحاة من بنيات نماذج Mixture of Expert (MoE)، نعتزم تقديم طبقة توجيه إلى نماذجنا المختلفة. نعتقد أن هذا سيؤدي إلى تبسيط بنية خدمة النموذج وتوسيع نطاقه بشكل جذري، مع الحفاظ على الجودة في المهام المختلفة التي يتوقعها مستخدمونا من مساعد الذكاء الاصطناعي الشخصي الخاص بنا.

الخاتمة

إن بناء وكلاء الذكاء الاصطناعي من الجيل التالي لجعل الجميع أكثر إنتاجية هو مسار NinjaTech AI لتحقيق مهمتها. لإضفاء الطابع الديمقراطي على الوصول إلى هذه التكنولوجيا التحويلية، من الأهمية بمكان الوصول إلى الحوسبة عالية القوة والنماذج مفتوحة المصدر ونظام بيئي من الأدوات التي تجعل تدريب كل وكيل جديد ميسور التكلفة وسريعًا. إن رقائق الذكاء الاصطناعي المصممة خصيصًا من AWS، والوصول إلى أفضل النماذج مفتوحة المصدر، وبنية التدريب الخاصة بها تجعل هذا ممكنًا.

لمعرفة المزيد حول كيفية قيامنا ببناء الذكاء الاصطناعي الشخصي متعدد الوكلاء من NinjaTech AI، يمكنك قراءة ورقة بيضاء. يمكنك أيضًا تجربة وكلاء الذكاء الاصطناعي هؤلاء مجانًا على MyNinja.ai.

حول المؤلفين

أراش صدرية هو المؤسس المشارك والرئيس التنفيذي للعلوم في Ninjatech.ai. شاركت Arash في تأسيس Ninjatech.ai برؤية لجعل الجميع أكثر إنتاجية من خلال الاهتمام بالمهام التي تستغرق وقتًا طويلاً مع وكلاء الذكاء الاصطناعي. وقد تشكلت هذه الرؤية خلال فترة عمله كعالم تطبيقي أول في AWS، حيث قاد المبادرات البحثية الرئيسية التي حسنت بشكل كبير كفاءة البنية التحتية على مدى ست سنوات، مما أكسبه العديد من براءات الاختراع لتحسين البنية التحتية الأساسية. تشمل خلفيته الأكاديمية درجة الدكتوراه في نمذجة الكمبيوتر والمحاكاة، مع التعاون مع مؤسسات مرموقة مثل جامعة أكسفورد وجامعة سيدني و CSIRO. قبل عمله في مجال الصناعة، حصل أراش على فترة بحث ما بعد الدكتوراه تميزت بالمنشورات في المجلات عالية التأثير، بما في ذلك Nature Communications.

طاهر عازم هو مهندس برمجيات للموظفين في NinjaTech. تركز Tahir على منصات التدريب والاستدلال المستندة إلى Inf2 و Trn1 من NinjaTech، وبوابتها الموحدة للوصول إلى هذه المنصات، ومهارتها البحثية القائمة على RAG. وقد عمل سابقًا في Amazon كمهندس برمجيات أول، حيث قام ببناء أنظمة تعتمد على البيانات من أجل الاستخدام الأمثل للبنية التحتية العالمية المتطورة للإنترنت في Amazon، مما أدى إلى خفض التكلفة والازدحام ووقت الاستجابة. قبل الانتقال إلى الصناعة، حصل طاهر على درجتي الماجستير والدكتوراه في علوم الكمبيوتر من جامعة ستانفورد، ودرّس لمدة ثلاث سنوات كأستاذ مساعد في NUST (باكستان)، وحصل على درجة ما بعد الدكتوراه في أنظمة تحليلات البيانات السريعة في EPFL. قام طاهر بتأليف العديد من المنشورات المقدمة في مؤتمرات رفيعة المستوى مثل VLDB و USENIX ATC و MobiCom و MobiHoc.

تنغفي شوي هي عالمة تطبيقية في NinjaTech AI. تشمل اهتماماته البحثية الحالية معالجة اللغة الطبيعية والتعلم متعدد الوسائط، لا سيما باستخدام نماذج اللغة الكبيرة والنماذج الكبيرة متعددة الوسائط. أكمل Tengfei دراسات الدكتوراه في كلية علوم الكمبيوتر بجامعة سيدني، حيث ركز على التعلم العميق للرعاية الصحية باستخدام أساليب مختلفة. كان أيضًا مرشحًا زائرًا لدرجة الدكتوراه في مختبر الرياضيات في التصوير (LMI) بجامعة هارفارد، حيث عمل على الرؤية الحاسوبية ثلاثية الأبعاد للبيانات الهندسية المعقدة.