Leider kann ich aufgrund von Visaverzögerungen nicht persönlich an #ICML2025 teilnehmen. Aber ich freue mich, unser Papier auf der ICML zu teilen: "Große Sprachmodelle sind Demonstrations-Vorauswähler für sich selbst"! 🧠📄 💡 Was wäre, wenn LLMs bessere Beispiele für sich selbst auswählen könnten? Wir schlagen FEEDER vor, ein Framework, das es LLMs ermöglicht, eine kleine, aber leistungsstarke Teilmenge von Trainingsdaten basierend auf Suffizienz und Notwendigkeit vorauszuwählen, um Kosten zu senken, die Leistung zu steigern und über Aufgaben hinweg zu generalisieren. Schaut es euch an!
17,85K