Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Simon Willison
Je vois beaucoup de publications blâmant cette fuite de données scandaleuse de l'application Tea sur le codage vibe.
Je ne pense pas que le codage vibe ait été impliqué du tout : la déclaration de Tea indique que la fuite concernait "un système de stockage de données hérité" de février 2024 - le codage vibe n'était pas vraiment en cours à l'époque.

91,93K
Est-ce que quelqu'un réussit à exécuter une boucle de codage agentique de style Claude Code contre un modèle local ?
Cela semble être le défi ultime pour l'appel d'outils locaux en ce moment, car cela nécessite potentiellement des dizaines d'appels dans une boucle et de bonnes performances sur un contexte plus long.
71,08K
Anthropic vient de multiplier par 10 la limite de taux pour le niveau 2 et au-dessus.
Le niveau 2 est celui que vous obtenez lorsque vous avez acheté au moins 40 $ de crédits - la limite de taux précédente pour Sonnet 4 était de 40 000 tokens par minute, la nouvelle limite est de 450 000 tokens par minute !
(Le nombre de requêtes par minute pour le niveau 2 est resté à 1 000)
27,75K
GitHub a lancé Spark hier, leur plateforme de création d'applications à partir de prompts extrêmement bien conçue pour créer et itérer sur des applications React avec authentification utilisateur et stockage persistant.
J'aime beaucoup ! Je l'ai rétro-ingénierie avec Spark lui-même, les détails sont fascinants.
155,27K
Quel est le meilleur modèle local que vous avez réussi à exécuter sur macOS pour l'utilisation d'outils, et comment l'avez-vous exécuté ?
Je n'ai pas eu de bons résultats avec ceux que j'ai essayés sur Ollama - même pour des choses très basiques (appels uniques), ils semblent souvent oublier de les appeler ou d'y répondre en fonction du résultat.
127,65K
La chose la plus notable à propos de ce résultat est que ce modèle de raisonnement expérimental sans nom a atteint ce score sans aucune utilisation d'outils - on dirait que c'est juste un autre LLM classique de prédiction du prochain jeton avec une couche de renforcement d'apprentissage ajoutée par-dessus.
41,12K
75 cents par seconde pour la génération de vidéo Veo 3 via la nouvelle API (ou 50 cents par seconde sans audio) - cela fait 45 $/minute (ou 30 $/minute en silence) et 2 700 $ (ou 1 800 $) par heure

Logan Kilpatrick18 juil., 01:13
Veo 3 est maintenant en ligne dans l'API Gemini 📽️ !!
Veo 3 est à la pointe de la technologie, peut générer de l'audio de manière native dans les vidéos, est livré avec des limites de taux pour une utilisation en production à grande échelle, et est tarifé à 0,75 $ par seconde avec audio et 0,50 $ sans audio. Plus d'infos dans 🧵
48,66K
Ces nouveaux modèles Voxtral ont l'air vraiment utiles ! Je les ai fait fonctionner dans mon plugin llm-mistral, qui peut maintenant accepter des URL vers des fichiers audio en tant que pièces jointes à passer à voxtral-small et voxtral-mini.

Mistral AI15 juil., 22:35
Présentation des meilleurs modèles de reconnaissance vocale (et ouverts) au monde !

19,23K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables