el cripto como un sustrato verificable para la IA ha estado presente durante mucho tiempo. Ha tomado muchas formas diferentes. Es una opinión arriesgada, pero aquí está la razón por la que sigo siendo pesimista (desafortunadamente): los modelos de negocio de las empresas de IA establecidas están estructuralmente desalineados con la verificabilidad. OpenAI, Anthropic, Meta AI, XAI, Perplexity, etc. obtienen beneficios del control sobre estos sistemas de caja negra, la evasión de la responsabilidad y la adopción masiva de sus productos/resultados. La verificabilidad amenaza todas estas cosas. Argumentos (y mis contrargumentos) "simplemente construiremos sistemas de IA verificables" >sí, 100%, pero seamos un poco más pragmáticos aquí... la verificación no se trata solo de estándares técnicos, sino de quién controla la infraestructura. Hoy en día tenemos empresas como Prime Intellect apostando a que la única forma de abordar esto es reconstruir toda la pila (entrenamiento, inferencia, distribución) para obtener una verificación significativa. Añadir verificación a sistemas centralizados existentes nunca funcionará porque los monopolistas nunca reducirían voluntariamente su poder de mercado. Dicho esto, la brecha técnica es enorme, donde estas empresas de infraestructura de IA descentralizada están luchando en una guerra en dos frentes. Necesitan igualar la calidad del modelo establecido mientras también resuelven el problema de la verificación. Muchos de estos proyectos siguen siendo pruebas de concepto que funcionan con modelos de menor escala (decenas de miles de millones como máximo en lugar de muchos cientos de miles de millones) que no pueden manejar la escala del mundo real. "las empresas quieren verificación" >los incumbentes pueden satisfacer estas demandas con sus propias atestaciones controladas y privadas y no requieren blockchains públicas con más sobrecarga. De todos modos, los ingresos empresariales son pequeños en relación con la IA de consumo masivo. "los consumidores se preocuparán por la confianza y la procedencia" >históricamente, la gente nunca paga por la confianza a menos que sea un fracaso catastrófico. Incluso entonces, la gente aún podría no preocuparse. La viralidad de la desinformación compite con el costo de la verdad. Hemos sido lavados de cerebro para pensar de esta manera desde la creación de Internet. Pensándolo bien, la mayoría de los usuarios ni siquiera sabrán lo que realmente significa la confianza y la procedencia. Si hay una insignia propietaria en un resultado como "verificado por OpenAI", esto refuerza el bloqueo de la plataforma, no la agencia del usuario final. La confianza simplemente se monetizará dentro de las plataformas, no como infraestructura pública. "la regulación forzará su mano" >probablemente el escenario más realista, pero solo si la aplicación es globalmente consistente (LOL, no hay forma). Y seamos realistas, la presión de cabildeo de estos incumbentes resultará en estándares débiles. Nuevamente, obtendremos un mundo donde habrá implementaciones cerradas que cumplen con un requisito para los reguladores. Así que todo esto es para decir que las entidades capaces de implementar la verificación a gran escala no tienen incentivos para hacerlo y las entidades que las desafían carecen de los recursos para competir a corto plazo.
a16z
a16z29 jul, 03:26
.@balajis dice que la IA está ampliando la brecha de verificación. Se necesitarán una gran cantidad de empleos para cerrarla. El 'prompting' inunda el mundo con falsificaciones. La criptografía trae de vuelta la prueba. “Vas a necesitar publicaciones con hash criptográfico e identificaciones criptográficas ... para saber que los datos no fueron manipulados.” En la era de la IA, la confianza tiene que ser diseñada.
2,97K