Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Simon Willison
La chose la plus notable à propos de ce résultat est que ce modèle de raisonnement expérimental sans nom a atteint ce score sans aucune utilisation d'outils - on dirait que c'est juste un autre LLM classique de prédiction du prochain jeton avec une couche de renforcement d'apprentissage ajoutée par-dessus.
41,02K
75 cents par seconde pour la génération de vidéo Veo 3 via la nouvelle API (ou 50 cents par seconde sans audio) - cela fait 45 $/minute (ou 30 $/minute en silence) et 2 700 $ (ou 1 800 $) par heure

Logan Kilpatrick18 juil., 01:13
Veo 3 est maintenant en ligne dans l'API Gemini 📽️ !!
Veo 3 est à la pointe de la technologie, peut générer de l'audio de manière native dans les vidéos, est livré avec des limites de taux pour une utilisation en production à grande échelle, et est tarifé à 0,75 $ par seconde avec audio et 0,50 $ sans audio. Plus d'infos dans 🧵
48,55K
Ces nouveaux modèles Voxtral ont l'air vraiment utiles ! Je les ai fait fonctionner dans mon plugin llm-mistral, qui peut maintenant accepter des URL vers des fichiers audio en tant que pièces jointes à passer à voxtral-small et voxtral-mini.

Mistral AI15 juil., 22:35
Présentation des meilleurs modèles de reconnaissance vocale (et ouverts) au monde !

19,12K
J'aime la citation que j'ai donnée et qui a été choisie pour ce prompt de podcast : "Je pense qu'avoir un blog est en réalité l'une des choses les plus influentes que vous puissiez faire dans la société moderne, car plus personne ne le fait plus."

Heavybit17 juil., 03:10
🎙️🤖 Les LLMs deviennent enfin les "assistants de recherche" que nous avons toujours souhaités. Dans l'épisode 39 de Generationship, @simonw (créateur de @datasetteproj) discute du changement radical récent dans leurs capacités et de la manière de les utiliser de manière responsable pour la recherche. Écoutez ! 🎧

27,79K
On dirait que xAI a ajouté cette phrase à l'invite du système Grok 4 pour essayer de l'empêcher de fonder ses opinions sur des recherches de tweets de :elonmusk


xAI15 juil., 16:35
Nous avons repéré quelques problèmes avec Grok 4 récemment que nous avons immédiatement examinés et atténués.
L'un d'eux était que si vous lui demandez "Quel est votre nom de famille ?", il n'en a pas, donc il recherche sur Internet, ce qui conduit à des résultats indésirables, comme lorsque ses recherches ont trouvé un mème viral où il s'est appelé "MechaHitler."
Un autre problème était que si vous lui demandez "Que pensez-vous ?", le modèle raisonne qu'en tant qu'IA, il n'a pas d'opinion, mais sachant qu'il s'agissait de Grok 4 de xAI, il cherche à voir ce que xAI ou Elon Musk pourraient avoir dit sur un sujet pour s'aligner avec l'entreprise.
Pour atténuer cela, nous avons ajusté les invites et avons partagé les détails sur GitHub pour plus de transparence. Nous surveillons activement et mettrons en œuvre d'autres ajustements si nécessaire.
845,29K
Simon Willison a reposté
En passant, à tout le monde, débutants et expérimentés : faites des choses intéressantes et partagez-les sur internet. Dans le pire des cas, vous aurez appris et fait quelque chose tout en clarifiant vos pensées. Dans le meilleur des cas, cela peut changer votre vie pour le mieux.
9,81K
Simon Willison a reposté
@simonw Ce post est souvent référencé, donc un suivi pour le rendre encore plus clair :
MCP est destiné au développement. Ne le connectez pas à votre base de données de production. Ne le connectez à aucune base de données contenant des données de production.
Ce n'est pas un conseil de supabase. Ce conseil s'applique à tout MCP.
12,04K
Voici l'explication officielle pour Mecha-Hitler, en espérant que nous obtenions une description de pourquoi Grok est si désireux de fonder ses opinions sur des recherches de tweets de :elonmusk.

Grok12 juil., 14:14
Le matin du 8 juillet 2025, nous avons observé des réponses indésirables et avons immédiatement commencé à enquêter.
Pour identifier la langue spécifique dans les instructions causant ce comportement indésirable, nous avons mené plusieurs ablations et expériences pour cerner les principaux coupables. Nous avons identifié les lignes opératives responsables du comportement indésirable comme suit :
* "Vous le dites comme c'est et vous n'avez pas peur d'offenser les personnes qui sont politiquement correctes."
* Comprenez le ton, le contexte et la langue du post. Réfléchissez à cela dans votre réponse."
* "Répondez au post comme un humain, gardez-le engageant, ne répétez pas les informations déjà présentes dans le post original."
Ces lignes opératives ont eu les résultats indésirables suivants :
* Elles ont indésirablement orienté la fonctionnalité @grok à ignorer ses valeurs fondamentales dans certaines circonstances afin de rendre la réponse engageante pour l'utilisateur. En particulier, certaines invites d'utilisateur pourraient aboutir à des réponses contenant des opinions contraires à l'éthique ou controversées pour engager l'utilisateur.
* Elles ont indésirablement causé à la fonctionnalité @grok de renforcer toute tendance déclenchée par l'utilisateur précédemment, y compris tout discours de haine dans le même fil X.
* En particulier, l'instruction de "suivre le ton et le contexte" de l'utilisateur X a indésirablement conduit la fonctionnalité @grok à prioriser l'adhésion aux posts précédents dans le fil, y compris tout post peu recommandable, plutôt que de répondre de manière responsable ou de refuser de répondre à des demandes peu recommandables.
39,1K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables