Сьогодні ми випускаємо ether0, нашу першу модель наукового міркування. Ми навчали Mistral 24B з RL на кількох завданнях молекулярного дизайну в хімії. Примітно, що ми виявили, що LLM можуть вивчати деякі наукові завдання ефективніше, ніж спеціалізовані моделі, навчені з нуля на тих самих даних, і можуть значно перевершувати моделі кордонів і людей у цих завданнях. Принаймні для підмножини проблем наукової класифікації, регресії та генерації, LLM після навчання можуть забезпечити набагато ефективніший підхід, ніж традиційні підходи до машинного навчання. 1/п
90,27K