في التزامنا المستمر بالعلوم المفتوحة ، نصدر تقرير Voxtral الفني:
ويغطي التقرير تفاصيل عن ما قبل التدريب وما بعد التدريب والمواءمة والتقييمات. نقدم أيضا تحليلا حول اختيار بنية النموذج المثلى ، والتي يجب استخدام تنسيق التدريب المسبق ، وفوائد DPO.
إلغاء كتم الصوت يحول LLM النصي إلى الذكاء الاصطناعي الصوتي. في ، إنه @MistralAI Mistral-Small-3.2-24B ، مما يجعله مفتوح المصدر بالكامل. العب لعبة اختبار مع مضيف لاذع ، أو تابع الأخبار التقنية ، أو مجرد التسكع والتحدث. أو قم بتعديله لفعل أي شيء تريده!
تقديم Mistral Small 3.2 ، تحديث صغير ل Mistral Small 3.1 لتحسين:
- التعليمات التالية: صغير 3.2 أفضل في اتباع التعليمات الدقيقة
- أخطاء التكرار: ينتج Small 3.2 أجيالا لا نهائية أو إجابات متكررة أقل
- استدعاء الوظيفة: قالب استدعاء الوظيفة Small 3.2 أكثر قوة
نحن فخورون بالإعلان عن Mistral Compute - وهي مشروع غير مسبوق للبنية التحتية الذكاء الاصطناعي في أوروبا ، ومبادرة استراتيجية تضمن بقاء جميع الدول القومية والشركات ومختبرات الأبحاث على مستوى العالم في طليعة الابتكار الذكاء الاصطناعي.
اقرأ المزيد في الموضوع.
اليوم نطلق الأثير0 ، أول نموذج تفكير علمي لدينا.
قمنا بتدريب Mistral 24B مع RL على العديد من مهام التصميم الجزيئي في الكيمياء. من اللافت للنظر أننا وجدنا أن LLMs يمكن أن تتعلم بعض المهام العلمية بكفاءة أكبر من البيانات أكثر من النماذج المتخصصة المدربة من البداية على نفس البيانات ، ويمكنها التفوق بشكل كبير على النماذج الحدودية والبشر في تلك المهام. بالنسبة لمجموعة فرعية على الأقل من مشاكل التصنيف العلمي والانحدار والتوليد ، قد توفر LLMs بعد التدريب نهجا أكثر كفاءة في البيانات من مناهج التعلم الآلي التقليدية. 1/ن