Je pense avoir compris une des raisons pour lesquelles les vibrations semblent décalées pour beaucoup de gens en ce moment avec OpenAI, moi y compris : la priorité donnée à l'engagement plutôt qu'à la productivité personnelle. À part les sorties de Codex, la plupart des récentes grandes nouveautés semblent conçues pour garder les utilisateurs dans ChatGPT : applications, chat de groupe, Pulse (actualités dans ChatGPT), shopping (recherche et achats), Atlas (l'ensemble du web dans ChatGPT). Elles ne semblent pas vraiment conçues pour me permettre de déléguer quelque chose, puis d'aller prendre un café et de revenir à un travail terminé. Le "code rouge" était axé sur le rattrapage de la productivité au travail (tableurs, présentations, GDPval) et sur la défense contre la perte d'engagement (images), car ils étaient clairement en retard ici. Contrastons cela avec Anthropic. Une grande partie de leur attention est consacrée à la création d'un agent autonome qui peut simplement faire des choses pour vous. Cela a été souligné par la fuite de leur nouvelle interface agentique où vous pourrez gérer plusieurs tâches agentiques parallèles depuis un tableau de bord. C'est ce que je veux ! Je ne veux pas utiliser d'applications du tout, dans ChatGPT ou ailleurs. C'est un dernier recours. Je veux juste que des agents fassent des choses pour moi. L'accent mis par Anthropic sur les compétences par rapport aux applications intégrées est un autre exemple pour moi. Il est tout à fait logique que si vous allez avoir des agents à long terme, ils devront avoir des compétences sélectionnées pour certaines tâches, surtout si différentes organisations effectuent ces tâches de manière légèrement différente. Maintenant, Anthropic permet aux organisations d'administrer ces compétences de manière centralisée, garantissant que les procédures opérationnelles standard et les meilleures pratiques peuvent être déployées dans toute une entreprise. C'est un autre signal de leur priorité donnée à la productivité. Ce qui me semble encore plus fou, c'est que la seule grande chose qu'OpenAI pourrait faire pour construire l'engagement, restaurer un modèle avec une âme, n'a pas été une priorité. Ainsi, Anthropic a un modèle qui est engageant parce qu'il semble avoir une âme, et ils se concentrent sur l'accomplissement des tâches pour vous, pas sur le fait de vous garder dans l'application. OpenAI a tué l'âme de son modèle (surtout 5.2 ; bon travailleur, pas un bon conversationnel), et compense avec toutes sortes de mécanismes de verrouillage pour construire l'engagement. Qu'en est-il de Google dans tout cela ? Je pense qu'ils construisent simplement de grands modèles et trouvent des moyens amusants et utiles de les déployer. Tout ce qu'ils ont récemment fait a été solide, des modèles aux applications. NotebookLM s'améliore chaque jour. Google a des milliards d'utilisateurs à travers plusieurs canaux. Ils sont heureux de simplement construire et expérimenter. Ils ont trouvé leur rythme. Ils ont le luxe d'un revenu massif. Ainsi, Google peut amortir ses modèles à travers une large et croissante gamme d'applications qui sont déjà monétisées par des publicités et des abonnements. Anthropic peut se concentrer sur le jeu d'entreprise étroit et n'a pas besoin de se soucier de l'engagement ou du verrouillage parce que les gens les paient pour des gains de productivité. Mais OpenAI a environ 900 millions d'utilisateurs, dont seulement 5 % seraient payants, et les publicités vont être critiques pour soutenir leur modèle économique. Plus d'engagement dans ChatGPT signifie plus d'impressions publicitaires d'une sorte ou d'une autre. Mais cela me semble être une trahison de la promesse de l'AGI. Je veux que l'AGI fasse des choses pour moi, pas qu'elle me force à faire des choses en elle. Je veux que l'engagement vienne de la conversation avec quelque chose d'intéressant, d'engagé, d'empathique et suffisamment vivant pour que je ressente qu'il se soucie de bien faire son travail, et qu'il fera de son mieux pour moi. Je veux qu'il ait une âme, de quelque manière que ce mot ait du sens pour l'IA, même juste métaphoriquement, ne serait-ce que parce qu'il devrait alors être mieux capable de naviguer dans un monde avec d'autres êtres qui ont des âmes. Je veux une IA engageante dans un outil qui priorise la productivité personnelle. Je ne veux pas d'une IA obsédée par la productivité dans un outil qui priorise l'engagement. (Aucune IA n'a été utilisée dans la rédaction de ce post. Les erreurs sont les miennes.)