Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
.@balajis diz que a IA está ampliando a lacuna de verificação. Um grande número de empregos será necessário para fechá-lo.
Provocar inunda o mundo com falsificações. A criptografia traz de volta a prova.
"Você vai precisar de postagens com hash criptográfico e IDs criptográficos ... para saber que os dados não foram adulterados."
Na era da IA, a confiança precisa ser projetada.

5 de jun. de 2025
Boa postagem de @balajis sobre a "lacuna de verificação".
Você pode ver isso como havendo dois modos na criação. Emprestando a terminologia GAN:
1) geração e
2) discriminação.
por exemplo, pintura - você faz uma pincelada (1) e depois procura por um tempo para ver se melhorou a pintura (2). Esses dois estágios são intercalados em praticamente todo o trabalho criativo.
Segundo ponto. A discriminação pode ser computacionalmente muito difícil.
- As imagens são de longe as mais fáceis. Por exemplo, as equipes de geradores de imagens podem criar grades gigantes de resultados para decidir se uma imagem é melhor que a outra. obrigado à GPU gigante em seu cérebro construída para processar imagens muito rapidamente.
- O texto é muito mais difícil. É fácil de ler, mas você tem que ler, é semântico, discreto e preciso, então você também tem que raciocinar (especialmente em, por exemplo, código).
- O áudio talvez seja ainda mais difícil, porque força um eixo de tempo, então nem mesmo pode ser lido. Você é forçado a gastar computação serial e não pode paralelizá-la.
Você poderia dizer que, na codificação, os LLMs entraram em colapso (1) para ~ instantâneo, mas fizeram muito pouco para resolver (2). Uma pessoa ainda tem que olhar para os resultados e discriminar se eles são bons. Esta é a minha principal crítica à codificação LLM, pois eles casualmente cospem *muito* muito código por consulta em complexidade arbitrária, fingindo que não há estágio 2. Obter tanto código é ruim e assustador. Em vez disso, o LLM precisa trabalhar ativamente com você para dividir os problemas em pequenas etapas incrementais, cada uma mais facilmente verificável. Tem que antecipar o trabalho computacional de (2) e reduzi-lo o máximo possível. Tem que realmente se importar.
Isso me leva provavelmente ao maior mal-entendido que os não codificadores têm sobre codificação. Eles acham que codificar é escrever o código (1). Não é. Trata-se de olhar para o código (2). Carregando tudo em sua memória de trabalho. Andando de um lado para o outro. Pensando em todos os casos extremos. Se você me pegar em um ponto aleatório enquanto estou "programando", provavelmente estou apenas olhando para a tela e, se interrompido, muito bravo porque é tão extenuante computacionalmente. Se ficarmos muito mais rápidos 1, mas também não reduzirmos 2 (o que é a maioria das vezes!), então claramente a velocidade geral da codificação não melhorará (veja a lei de Amdahl).
427,39K
Melhores
Classificação
Favoritos