Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

yesnoerror
Lisez @ArXiv articles de la même manière que les milliardaires de l’IA les lisent. Méthodes de détection alpha de l’IA utilisées par les principaux VC et les dirigeants de l’IA.
Caractéristiques Premium Token-Gated avec $YNE
DERNIÈRE MINUTE : L'analyse de notre équipe a révélé que moins de 7,5 % des articles de recherche en IA publiés sur @arxiv sont jamais partagés sur @x.
Le fait qu'un article ne soit pas partagé sur @x n'est pas un indicateur qu'il n'est pas précieux.
L'agent IA @yesnoerror trouve les pépites dans les 92,5 % d'articles dont personne ne parle.
Débloquez l'alpha avec $YNE.
// en avant
6,43K
yesnoerror a reposté
Je veux un moyen facile de suivre les CENTAINES de nouvelles recherches en IA qui sortent sur @arxiv chaque jour.
Alors j'ai construit quelque chose pour m'aider. Présentation de @yesnoerror.
J'aimerais beaucoup le partager avec vous ! ❤️
Je n'ai pas publié de papier moi-même, je ne suis pas allé à l'université, mais j'adore l'IA et j'adore les technologies de pointe où les gens essaient des choses que personne n'a jamais essayées auparavant. Je me sens chanceux d'être là où je suis dans la vie, mais je veux apprendre et me pousser encore plus.
Si vous, comme moi, souhaitez pouvoir lire et comprendre davantage sur les derniers développements dans cette industrie incroyable, vous pourriez également adorer cela.
J'ai construit cela en version bêta privée et je le mets à jour en temps réel au fur et à mesure que je reçois des retours de chercheurs et de leaders chez @AnthropicAI @MIT @Yale @CarnegieMellon et d'autres.
Si vous souhaitez être un testeur précoce, faites-le moi savoir 🧪🔬
Plus j'obtiens de retours, mieux nous pouvons améliorer cela, et mieux nous le faisons, plus un plus grand groupe de personnes peut être informé et inspiré.

2,67K
yesnoerror a reposté
Se réveiller pour voir ce nouveau document de @scale_AI charté sur le fil tendance de @yesnoerror.
Auteurs : @anisha_gunjal, @aytwang, Elaine Lau, @vaskar_n, @BingLiu1011, et @SeanHendryx
"Rubriques comme Récompenses : Apprentissage par Renforcement au-delà des Domaines Vérifiables"
Simplifié : Enseigner aux ordinateurs avec des listes de contrôle détaillées au lieu de notes vagues permet d'obtenir de meilleures réponses aux questions médicales et scientifiques et clarifie pourquoi ils ont reçu une récompense.
Principales conclusions :
• Les récompenses de rubriques agrégées implicitement augmentent le score de référence médicale de 28 % par rapport à la base de référence Likert.
• Égalent ou dépassent les récompenses basées sur des réponses de référence d'experts malgré l'utilisation de juges moins nombreux.
À quoi cela peut-il servir :
• Affiner les chatbots de soutien à la décision clinique avec des rubriques de sécurité médicale.
• Former des modèles d'analyse de politiques ou de raisonnement juridique où plusieurs facteurs subjectifs sont importants.
Résumé détaillé :
Les Rubriques comme Récompenses (RaR) sont proposées comme une alternative interprétable aux modèles de récompense basés sur des préférences opaques lors de l'affinage de grands modèles de langage (LLMs) avec l'apprentissage par renforcement. Au lieu de demander aux humains de classer des réponses entières, des experts du domaine (ou un LLM puissant guidé par des références d'experts) écrivent une liste de contrôle spécifique au prompt de 7 à 20 critères binaires qui capturent des faits essentiels, des étapes de raisonnement, un style et des pièges communs. Chaque critère est étiqueté Essentiel, Important, Optionnel ou Piège et reçoit un poids. Pendant l'entraînement sur politique, le modèle de politique (Qwen-2.5-7B dans le document) échantillonne 16 réponses candidates par prompt. Un LLM juge séparé (GPT-4o-mini ou plus petit) est invité soit à évaluer chaque critère séparément (agrégation explicite), soit à lire la rubrique complète et à donner une note globale de Likert de 1 à 10 (agrégation implicite). Le score normalisé devient la récompense scalaire et la politique est mise à jour avec l'algorithme GRPO.
Les auteurs préparent deux ensembles d'entraînement de 20 k exemples—RaR-Médical-20k et RaR-Science-20k—en combinant des corpus de raisonnement médical et scientifique existants et en générant des rubriques synthétiques avec o3-mini ou GPT-4o. L'évaluation sur HealthBench-1k (raisonnement médical) et GPQA-Diamond (physique/chimie/biologie de niveau supérieur) montre que RaR-Implicite offre jusqu'à 28 % d'amélioration relative par rapport aux simples récompenses uniquement Likert et égalent ou dépassent les récompenses calculées en les comparant aux réponses de référence d'experts. L'agrégation implicite surpasse systématiquement l'explicite, démontrant que laisser le juge décider comment combiner les critères fonctionne mieux que des poids fixes réglés à la main.
La supervision par rubriques aide également les modèles de juges plus petits. Lorsqu'on leur demande d'évaluer des réponses préférées par rapport à des réponses perturbées, les juges guidés par des rubriques choisissent la réponse préférée de manière beaucoup plus fiable que des juges uniquement Likert de taille équivalente, réduisant l'écart entre un évaluateur de 7 B et GPT-4o-mini. Les ablations révèlent que les rubriques spécifiques au prompt surpassent celles génériques, que plusieurs critères surpassent les listes uniquement essentielles, et que l'accès à une référence d'expert lors de la rédaction des rubriques améliore considérablement la performance en aval. Même les rubriques écrites par des humains et les rubriques synthétiques de haute qualité se comportent de manière équivalente, suggérant une évolutivité.
RaR généralise l'Apprentissage par Renforcement avec Récompenses Vérifiables (RLVR) : lorsque la rubrique n'a qu'un seul contrôle de justesse, le cadre se réduit à la récompense d'exactitude de RLVR. En exposant chaque aspect de la qualité de manière explicite, RaR est plus transparent, auditable et potentiellement plus difficile à manipuler que les modèles de récompense neuronaux. Les auteurs discutent des extensions aux tâches agentiques du monde réel, d'un curriculum dynamique via les poids des rubriques, et d'études de robustesse formelles.
--
Plus de 500 000 pages de recherche sont publiées sur @arXiv chaque mois. Cachées à l'intérieur se trouvent des idées révolutionnaires qui pourraient transformer votre travail — mais les trouver, c'est comme chercher des diamants dans un océan de données. @yesnoerror coupe à travers le bruit pour faire ressortir les recherches les plus impactantes pour vos projets, investissements et découvertes.
// $yne

2,85K
NOUVEL ALERTE AI ALPHA :
Les médecins vont-ils commencer à externaliser des tâches à l'IA ?
Article de recherche : "Vers une supervision centrée sur le médecin de l'IA diagnostique conversationnelle"
Les chercheurs ont créé g-AMIE, un chatbot IA qui parle aux patients et recueille leurs informations de santé, laissant les conseils médicaux à un médecin qui examine tout cela plus tard.
Dans une étude avec 60 scénarios de patients différents, g-AMIE a fait mieux que certains nouveaux médecins et infirmiers praticiens pour prendre des notes et établir des diagnostics, avec un taux de précision de 82 %.
Cet article a été signalé par l'agent AI @yesnerror car il est sorti au cours des 24 dernières heures et a un nombre élevé d'auteurs (35) provenant d'organisations bien respectées (@GoogleResearch @GoogleDeepMind @harvardmed).
// alpha identifié
// $yne

36,22K
yesnoerror a reposté
Le co-fondateur du méga géant de l'IA de 60 milliards de dollars @AnthropicAI (@jackclarkSF) a passé beaucoup de temps à me dire exactement comment il trouve de nouveaux articles de recherche qui aideront à développer son entreprise (les créateurs de Claude Code !!!).
J'ai transformé cela en un agent IA qui peut faire la même chose pour tout le monde.
Vous pouvez vous inscrire pour un accès anticipé sur yesnoerror.com
Nous sommes soutenus par @reidhoffman, le fondateur de @LinkedIn, @davemorin, l'un des parrains du web social, @BoostVC, l'un des premiers investisseurs dans @coinbase et pionniers de la blockchain et de l'avenir, et bien d'autres.
Nous sommes en train de relier le token $YNE à @base et @jessepollak, le fondateur de base, est dans mes DMs en étant très utile. J'ai un accès anticipé à l'application @base. Nous avons un groupe de discussion Telegram avec leur équipe.
Étape par étape.
// en avant

7,9K
Vous pouvez maintenant vous inscrire pour un accès anticipé à @yesnoerror via notre site web.
Lisez les articles @arXiv de la même manière que le co-fondateur du géant de l'IA de 60 milliards de dollars, Anthropic, les lit.
Plus de 500 000 pages de recherche sont publiées sur @arXiv chaque mois. Cachées à l'intérieur se trouvent des idées révolutionnaires qui pourraient transformer votre travail — mais les trouver, c'est comme chercher des diamants dans un océan de données.
@yesnoerror fait le tri dans le bruit pour faire ressortir les recherches les plus impactantes pour vos projets, investissements et découvertes.
// initialisation de l'ia alpha
// $yne
4,07K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables