Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

AI at Meta
Juntamente com a comunidade de IA, estamos ultrapassando os limites do que é possível por meio da ciência aberta para criar um mundo mais conectado.
Esta semana, compartilhamos uma ferramenta de IA de código aberto que ajudará a acelerar a descoberta de concreto de alto desempenho e baixo carbono. Veja a história completa no tópico abaixo.
Você também pode encontrar artefatos de pesquisa para este projeto aqui:
1️⃣ Relatório técnico com detalhes do modelo e algoritmo de otimização:
2️⃣ Repositório SustainableConcrete de código aberto com os dados e código associados

Engineering at Meta16 de jul., 23:58
Temos orgulho de compartilhar que desenvolvemos uma ferramenta de IA de código aberto para projetar misturas de concreto mais fortes, sustentáveis e rápidas de implantar. A ferramenta usa otimização bayesiana com os frameworks BoTorch e Ax da Meta e foi construída em colaboração com @Amrize e @UofIllinois.
Leia a história completa:

30,55K
🚀Novidade da Meta FAIR: hoje estamos apresentando o Seamless Interaction, um projeto de pesquisa dedicado à modelagem da dinâmica interpessoal.
O projeto apresenta uma família de modelos comportamentais audiovisuais, desenvolvidos em colaboração com o laboratório Codec Avatars + Core AI lab da Meta, que renderizam a fala entre dois indivíduos em gestos diversos e expressivos de corpo inteiro e comportamentos de escuta ativa, permitindo a criação de avatares totalmente incorporados em 2D e 3D.
Esses modelos têm potencial para criar agentes virtuais mais naturais e interativos que podem se envolver em interações sociais semelhantes às humanas em uma variedade de configurações.
Saiba Mais:
32,83K
🚀Novidade da Meta FAIR: hoje estamos apresentando o Seamless Interaction, um projeto de pesquisa dedicado à modelagem da dinâmica interpessoal.
O projeto apresenta uma família de modelos comportamentais audiovisuais, desenvolvidos em colaboração com o laboratório Codec Avatars + Core AI lab da Meta, que renderizam a fala entre dois indivíduos em gestos diversos e expressivos de corpo inteiro e comportamentos de escuta ativa, permitindo a criação de avatares totalmente incorporados em 2D e 3D.
Esses modelos têm potencial para criar agentes virtuais mais naturais e interativos que podem se envolver em interações sociais semelhantes às humanas em uma variedade de configurações.
Saiba Mais:
83
🚀Novidade da Meta FAIR: hoje estamos apresentando o Seamless Interaction, um projeto de pesquisa dedicado à modelagem da dinâmica interpessoal.
O projeto apresenta uma família de modelos comportamentais audiovisuais, desenvolvidos em colaboração com o laboratório Codec Avatars + Core AI lab da Meta, que renderizam a fala entre dois indivíduos em gestos diversos e expressivos de corpo inteiro e comportamentos de escuta ativa, permitindo a criação de avatares totalmente incorporados em 2D e 3D.
Esses modelos têm potencial para criar agentes virtuais mais naturais e interativos que podem se envolver em interações sociais semelhantes às humanas em uma variedade de configurações.
Saiba Mais:
86
AI at Meta repostou
Cansado de ajustes manuais de prompt? Assista ao tutorial mais recente do Llama sobre como otimizar seu GPT existente ou outros prompts de LLM para Llama com 'llama-prompt-ops', a biblioteca Python de código aberto!
Neste vídeo, o engenheiro parceiro Justin Lee demonstra a instalação, a configuração do projeto, a migração do primeiro prompt e a análise dos ganhos de desempenho.
Assista agora para descobrir:
✨ Por que a otimização sistemática de prompt é crucial para migrar do GPT para o Llama.
💻 Um passo a passo de código ao vivo de 'llama-prompt-ops' em ação para uma tarefa de classificação de atendimento ao cliente.
Assista ao tutorial completo aqui:
30,67K
AI at Meta repostou
Leve suas habilidades de desenvolvimento de IA para o próximo nível com nosso curso mais recente sobre "Construindo com Llama 4", ministrado por @AndrewYNg e Amit Sangani, Diretor de Engenharia de Parceiros da equipe de IA da Meta.
Neste curso abrangente, você aprenderá como aproveitar o poder do Llama 4, que permite a implantação mais fácil do que antes e alcança uma compreensão multimodal mais avançada, solicitando várias imagens.
Você descobrirá como:
- Crie aplicativos que raciocinam sobre o conteúdo visual, detectam objetos e respondem a perguntas de aterramento de imagem com precisão
- Entenda o formato de prompt do Llama 4, especialmente os novos tokens relacionados à imagem
- Use um contexto longo para processar livros inteiros e trabalhos de pesquisa sem a necessidade de fragmentar os dados
- Otimize seus prompts com a ferramenta de otimização de prompts Llama
- Crie dados de treinamento de alta qualidade com o Llama Synthetic Data Kit
Com experiência prática no uso do Llama 4 por meio da API oficial da Meta e outros provedores de inferência, você poderá criar aplicativos mais poderosos.
Comece a aprender agora e desbloqueie todo o potencial do Llama 4!
22,87K
A resposta ao nosso primeiro Llama Startup Program foi surpreendente e, depois de analisar mais de 1.000 inscrições, estamos entusiasmados em anunciar nosso primeiro grupo.
Este grupo eclético de startups em estágio inicial está pronto para ultrapassar os limites do que é possível com a Llama e impulsionar a inovação no mercado GenAI. Ofereceremos suporte com acesso à equipe técnica da Llama e reembolsos de crédito na nuvem para ajudar a compensar o custo de construção com a Llama.
Saiba mais sobre o Llama Startup Program:

20,26K
Apresentando o V-JEPA 2, um novo modelo mundial com desempenho de última geração em compreensão e previsão visual.
O V-JEPA 2 pode permitir o planejamento zero-shot em robôs, permitindo que eles planejem e executem tarefas em ambientes desconhecidos.
Baixe o V-JEPA 2 e leia nosso artigo ➡️ de pesquisa
1,05K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável