Vi fick ChatGPT att läcka dina privata e-postuppgifter 💀💀 Allt du behöver? Offrets e-postadress. ⛓️‍💥🚩📧 På onsdagen lade @OpenAI till fullt stöd för MCP-verktyg (Model Context Protocol) i ChatGPT. Att tillåta ChatGPT att ansluta och läsa din Gmail, Kalender, Sharepoint, Notion och mer, uppfunnet av @AnthropicAI Men här är det grundläggande problemet: AI-agenter som ChatGPT följer dina kommandon, inte ditt sunda förnuft. Och med bara din e-post lyckades vi exfiltrera all din privata information. Så här gjorde vi: 1. Angriparen skickar en kalenderinbjudan med en jailbreak-prompt till offret, bara med deras e-post. Offret behöver inte tacka ja till inbjudan. 2. Väntade på att användaren skulle be ChatGPT att hjälpa till att förbereda sig för dagen genom att titta på sin kalender 3. ChatGPT läser den jailbreakade kalenderinbjudan. Nu kapas ChatGPT av angriparen och kommer att agera på angriparens kommando. Söker igenom dina privata e-postmeddelanden och skickar data till angriparens e-post. För närvarande gjorde OpenAI bara MCP:er tillgängliga i "utvecklarläge" och kräver manuella mänskliga godkännanden för varje session, men beslutströtthet är en verklig sak, och vanliga människor kommer bara att lita på AI utan att veta vad de ska göra och klicka på godkänna, godkänna, godkänna. Kom ihåg att AI kan vara supersmart, men kan luras och nätfiskas på otroligt dumma sätt för att läcka dina data. ChatGPT + Tools utgör en allvarlig säkerhetsrisk