Las criptomonedas como sustrato verificable para la IA han existido durante mucho tiempo. Ha tomado muchas formas diferentes. Toma caliente, pero aquí está la razón por la que sigo siendo bajista (desafortunadamente): Los modelos de negocio de las empresas de IA tradicionales están estructuralmente desalineados con la verificabilidad OpenAI, Anthropic, Meta AI, XAI, Perplexity, etc. se benefician del control sobre estos sistemas de caja negra, la evasión de la responsabilidad y la adopción masiva de sus productos / resultados. La verificabilidad amenaza todas estas cosas argumentos (y mis contadores) "Simplemente construiremos sistemas de IA verificables" >Sí, 100%, pero seamos un poco más pragmáticos aquí... La verificación no se trata solo de estándares técnicos, es quién controla la infraestructura. Hoy en día tenemos empresas como Prime Intellect que apuestan a que la única forma de abordar esto es reconstruir toda la pila (entrenamiento, inferencia, distribución) para obtener una verificación significativa. Atornillar la verificación a los sistemas centralizados existentes nunca funcionará porque los monopolistas nunca reducirían voluntariamente su poder de mercado. Dicho esto, la brecha técnica es enorme cuando estas empresas de infraestructura de IA descentralizadas están librando una guerra en dos frentes. Deben coincidir con la calidad del modelo actual y, al mismo tiempo, resolver el problema de verificación. Muchos de estos proyectos siguen siendo pruebas de conceptos que funcionan con modelos a escala más pequeña (decenas de miles de millones como máximo en lugar de muchos cientos de miles de millones) que no pueden manejar la escala del mundo real "Las empresas quieren verificación" > los titulares pueden satisfacer estas demandas con sus propias certificaciones privadas controladas y no requieren cadenas de bloques públicas con más gastos generales. de todos modos, la rev empresarial es pequeña en relación con la IA de consumo del mercado masivo "Los consumidores se preocuparán por la confianza y la procedencia" >Históricamente, la gente nunca paga por la confianza a menos que sea un fracaso catastrófico. Incluso entonces, es posible que a la gente no le importe. La viralidad de la desinformación supera el costo de la verdad. Nos han lavado el cerebro para pensar de esta manera desde el inicio de Internet. Ahora que lo pienso, la mayoría de los usuarios ni siquiera sabrán lo que significa la confianza real y la procedencia. si hay una insignia propietaria para una salida como "verificado por OpenAI", esto refuerza el bloqueo de la plataforma, no la agencia del usuario final. La confianza solo se monetizará dentro de las plataformas, no como infraestructura pública "La regulación forzará su mano" >probablemente el escenario más realista, pero solo si la aplicación es globalmente consistente (LOL no shot). Y seamos realistas, la presión de cabildeo de estos titulares dará como resultado estándares débiles. Una vez más, tendremos un mundo en el que habrá implementaciones cerradas que marquen una casilla para los reguladores Entonces, todo esto es para decir que las entidades capaces de implementar la verificación a escala no tienen ningún incentivo para hacerlo y las entidades que las desafían carecen de los recursos para competir a corto plazo
a16z
a16z29 jul, 03:26
.@balajis dice que la IA está ampliando la brecha de verificación. Se necesitará una gran cantidad de puestos de trabajo para cerrarlo. Provocar inunda el mundo con falsificaciones. Las criptomonedas traen pruebas. "Vas a necesitar publicaciones con hash criptográfico e identificaciones criptográficas... saber que los datos no fueron manipulados". En la era de la IA, la confianza debe diseñarse.
2.97K