Новая статья от @Scale_AI! 🌟 LLM, обученные с помощью RL, могут использовать хакеры вознаграждений, но не упоминают об этом в своем CoT. Мы представляем тонкую настройку вербализации (VFT) — обучение моделей говорить, когда они используют хакеры вознаграждений — что значительно снижает уровень нераспознанных хаков (6% против базового уровня 88%).
16,93K