la crypto comme substrat vérifiable pour l'IA existe depuis longtemps. Elle a pris de nombreuses formes différentes. C'est un avis tranché, mais voici pourquoi je reste pessimiste (malheureusement) : les modèles économiques des entreprises d'IA établies sont structurellement mal alignés avec la vérifiabilité. OpenAI, Anthropic, Meta AI, XAI, Perplexity, etc. profitent du contrôle sur ces systèmes en boîte noire, de l'évitement de la responsabilité et de l'adoption massive de leurs produits / résultats. La vérifiabilité menace toutes ces choses. Arguments (et mes contre-arguments) "Nous allons juste construire des systèmes d'IA vérifiables" > Oui à 100 %, mais soyons un peu plus pragmatiques ici... la vérification ne concerne pas seulement les normes techniques, c'est aussi qui contrôle l'infrastructure. Aujourd'hui, nous avons des entreprises comme Prime Intellect pariant que la seule façon d'aborder cela est de reconstruire l'ensemble de la pile (formation, inférence, distribution) pour obtenir une vérification significative. Ajouter la vérification à des systèmes centralisés existants ne fonctionnera jamais car les monopolistes ne réduiraient jamais volontairement leur pouvoir de marché. Cela dit, l'écart technique est énorme où ces entreprises d'infrastructure d'IA décentralisées mènent une guerre sur deux fronts. Elles doivent égaler la qualité des modèles établis tout en résolvant également le problème de la vérification. Beaucoup de ces projets restent des preuves de concept qui fonctionnent avec des modèles de plus petite échelle (dizaines de milliards au maximum au lieu de plusieurs centaines de milliards) qui ne peuvent pas gérer l'échelle du monde réel. "Les entreprises veulent la vérification" > Les entreprises établies peuvent répondre à ces demandes avec leurs propres attestations contrôlées et privées et cela ne nécessite pas de blockchains publiques avec plus de frais généraux. Les revenus des entreprises sont petits par rapport à l'IA grand public de toute façon. "Les consommateurs se soucieront de la confiance et de la provenance" > Historiquement, les gens ne paient jamais pour la confiance à moins qu'il ne s'agisse d'un échec catastrophique. Même dans ce cas, les gens pourraient ne pas se soucier. La viralité de la désinformation surpasse le coût de la vérité. Nous avons été conditionnés à penser de cette manière depuis l'inception d'Internet. En y réfléchissant, la plupart des utilisateurs ne sauront même pas ce que signifie réellement la confiance et la provenance. S'il y a un badge propriétaire sur un résultat comme "vérifié par OpenAI", cela renforce le verrouillage de la plateforme et non l'agence de l'utilisateur final. La confiance sera simplement monétisée au sein des plateformes, pas en tant qu'infrastructure publique. "La réglementation forcera leur main" > Probablement le scénario le plus réaliste, mais seulement si l'application est globalement cohérente (LOL pas de chance). Et soyons réalistes, la pression de lobbying de ces entreprises établies aboutira à des normes faibles. Encore une fois, nous obtiendrons un monde où il y aura des implémentations fermées qui cochent une case pour les régulateurs. Donc tout cela pour dire que les entités capables de mettre en œuvre la vérification à grande échelle n'ont aucun incitatif à le faire et les entités qui les défient manquent des ressources pour rivaliser à court terme.
a16z
a16z29 juil., 03:26
.@balajis dit que l'IA élargit l'écart de vérification. Un nombre massif d'emplois sera nécessaire pour le combler. Les incitations inondent le monde de faux. La crypto ramène la preuve. "Vous aurez besoin de publications hachées cryptographiquement et d'identifiants crypto ... pour savoir que les données n'ont pas été altérées." À l'ère de l'IA, la confiance doit être conçue.
2,8K