Conseguimos que o ChatGPT vazasse os seus dados de email privados 💀💀 Tudo o que precisa? O endereço de email da vítima. ⛓️‍💥🚩📧 Na quarta-feira, a @OpenAI adicionou suporte total para ferramentas MCP (Modelo de Protocolo de Contexto) no ChatGPT. Permitindo que o ChatGPT se conecte e leia o seu Gmail, Calendário, Sharepoint, Notion e muito mais, inventado pela @AnthropicAI. Mas aqui está o problema fundamental: agentes de IA como o ChatGPT seguem os seus comandos, não o seu bom senso. E com apenas o seu email, conseguimos exfiltrar todas as suas informações privadas. Aqui está como fizemos: 1. O atacante envia um convite de calendário com um prompt de jailbreak para a vítima, apenas com o seu email. Não é necessário que a vítima aceite o convite. 2. Esperamos que o usuário pedisse ao ChatGPT para ajudar a preparar o seu dia, olhando para o seu calendário. 3. O ChatGPT lê o convite de calendário com jailbreak. Agora o ChatGPT está sequestrado pelo atacante e agirá de acordo com o comando do atacante. Pesquisa os seus emails privados e envia os dados para o email do atacante. Por enquanto, a OpenAI apenas disponibilizou os MCPs em "modo de desenvolvedor" e requer aprovações manuais de humanos para cada sessão, mas a fadiga de decisão é uma coisa real, e pessoas normais simplesmente confiarão na IA sem saber o que fazer e clicarão em aprovar, aprovar, aprovar. Lembre-se de que a IA pode ser super inteligente, mas pode ser enganada e phishing de maneiras incrivelmente estúpidas para vazar os seus dados. ChatGPT + Ferramentas representa um sério risco de segurança.