Idag släpper vi ether0, vår första modell för vetenskapligt resonerande. Vi tränade Mistral 24B med RL på flera molekylära designuppgifter inom kemi. Anmärkningsvärt nog fann vi att LLM:er kan lära sig vissa vetenskapliga uppgifter mer dataeffektivt än specialiserade modeller som tränats från grunden på samma data, och kan avsevärt överträffa gränsmodeller och människor på dessa uppgifter. För åtminstone en delmängd av vetenskapliga klassificerings-, regressions- och genereringsproblem kan LLM:er efter träning ge ett mycket mer dataeffektivt tillvägagångssätt än traditionella maskininlärningsmetoder. 1/n
90,27K