Dnes vydáváme ether0, náš první model vědeckého uvažování. Trénovali jsme Mistral 24B s RL na několika úlohách molekulárního designu v chemii. Pozoruhodné je, že jsme zjistili, že LLM se mohou naučit některé vědecké úkoly mnohem efektivněji než specializované modely trénované od nuly na stejných datech a mohou v těchto úkolech výrazně překonat hraniční modely a lidi. Přinejmenším pro podmnožinu vědeckých problémů s klasifikací, regresí a generováním mohou post-trénovací LLM poskytnout mnohem datově efektivnější přístup než tradiční přístupy strojového učení. 1/n
90,24K