Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Zhang Xiaojun a posé une question à Yang Zhilin lors d'une interview :
Vous voulez finalement créer un modèle général plutôt qu'un modèle de codage, n'est-ce pas ?
Cette question reflète plus profondément la manière dont les utilisateurs perçoivent un nouveau produit d'IA,
y compris tous les grands modèles et agents ou autres formes de produits, en termes d'utilisation, de migration, jusqu'à ce qu'ils forment des habitudes,
qui est en réalité très floue.
Souvent, une performance exceptionnelle dans un domaine spécifique attire les utilisateurs,
tandis qu'une capacité généralisée/générale atteignant 60 points peut fidéliser les utilisateurs.
Cela m'a particulièrement frappé lorsque j'utilisais perplexity et GPT :
perplexity est meilleur que chatGPT en termes de capacité d'étude de marché (en vitesse) ;
tandis que dans la recherche/rédaction dans Gmail, il performe mieux que le propre Gemini de Google.
C'est précisément lors de ces comparaisons occasionnelles que la performance de perplexity est meilleure que celle des autres grands modèles généraux, ce qui a augmenté ma fréquence d'utilisation.
Il en va de même pour d'autres produits d'IA :
la discussion sur les modèles ou non-modèles me semble un peu dépassée,
ou du moins pas une question à laquelle les builders de première ligne réfléchissent.
Ce qui est à réfléchir, ce sont les points d'entrée et de fidélisation.
Résoudre petit à petit des petits problèmes et des petits scénarios, encercler la ville depuis la campagne, perplexity peut aussi être plus utile que GPT et Gemini.
Meilleurs
Classement
Favoris