A IA está a moderar o que vemos online—sinalizando desinformação, deepfakes e mais... Mas se o modelo errado for utilizado, ou se o resultado for manipulado, o dano pode ser catastrófico. A moderação não pode ser apenas rápida. Tem de ser comprovável. É aqui que entra o DeepProve: 🧵
2/ Aqui está como funciona a moderação alimentada pelo DeepProve: 1. Um utilizador submete conteúdo numa plataforma social 2. Um modelo de moderação sinaliza-o 3. O DeepProve verifica o modelo, as entradas e a decisão 4. A plataforma recebe um resultado comprovável Cada publicação, título e vídeo, agora verificados.
3/ O DeepProve integra-se diretamente nos sistemas de moderação de IA — garantindo que cada decisão de conteúdo foi tomada com base no modelo aprovado, com o conteúdo correto e uma saída não adulterada. É privado por padrão, projetado para escalar em várias plataformas e 1000x mais rápido do que a concorrência.
4/ Como o nosso CEO @Ismael_H_R escreve na @CoinDesk: "Os golpes de deepfake já não são um problema marginal. Eles são uma ameaça sistémica à confiança humana." A DeepProve traz prova criptográfica para a linha da frente da moderação de IA. Leia o artigo completo:
4/ Como o nosso fundador e CEO @Ismael_H_R escreve em @CoinDesk: "Os golpes de deepfake já não são um problema marginal. Eles são uma ameaça sistémica à confiança humana." DeepProve traz prova criptográfica para a linha da frente da moderação de IA. Leia o artigo completo:
104,23K