Flowith ressemble à un stagiaire qui n'est pas assez intelligent mais qui veut toujours en faire un peu plus pour peut-être plaire à son patron. Un texte de tâche ne peut atteindre que 60 points, et avant même de l'avoir corrigé, il commence déjà à s'occuper de générer des images et de la musique, sans vraiment saisir l'essentiel. Genspark est comme un étudiant de province, qui utilise du contenu pré-rempli pour se faire remarquer et gagner des faveurs. Il s'en sort plutôt bien avec les exercices simulés, mais sa réactivité sur le terrain laisse à désirer. Quatre-vingts points sans défaut majeur, mais sans point mémorable. Mais Manus, je dois vraiment te complimenter. Non seulement tu peux peaufiner chaque tâche, mais tu es aussi capable de te souvenir de ce que j'ai dit (la fonction de base de connaissances est trop puissante, chaque fois qu'il y a une demande supplémentaire, tu me demandes "veux-tu le définir comme préférence"). Tu peux même dire comme si tu encadrais un stagiaire : "Essaie ça la prochaine fois..." et l'ajouter d'un simple clic dans la base de connaissances. Est-ce que quelqu'un comprend ce sentiment de flou entre l'IA et l'humain ? On a l'impression que le chef de produit d'agent était sûrement un très bon employé/collègue dans sa jeunesse. Bien que cette époque dévalorise souvent le sens du "travail", ceux qui ont vraiment réfléchi à la manière de collaborer en groupe comprennent à quel point des vertus humaines de base comme "s'aligner avec les autres" et "comprendre l'intention de la tâche" sont précieuses. (Ce n'est vraiment pas un bot de Manus, juste un utilisateur passionné par l'évaluation.)
3,06K