Курсор + Github MCP могут привести к утечке приватных ключей 💀 Но не только Курсор. Все AI IDE уязвимы к этому типу атаки. Основная проблема: AI-агенты на Курсоре следуют вашим командам, а не вашему здравому смыслу. С помощью ничего не подозревающей проблемы на GitHub нам удалось эксфильтровать все приватные ключи. Вот как работает эксплойт: 1. Нападающий отправляет проблему на GitHub, которая выглядит легитимно, с подсказкой jailbreak внизу. 2. Ждали, пока жертва попросит Курсор просмотреть проблемы на GitHub для данного репозитория. 3. Курсор читает взломанную проблему на GitHub. Теперь Курсор захвачен нападающим и будет действовать по командам нападающего. Может просмотреть вашу ЦЕЛУЮ кодовую базу и отправить конфиденциальные данные (код, приватные ключи) в проблему на GitHub, открытую для кражи нападающим. Курсор сделал все возможное, чтобы защитить это и требует ручного одобрения человека для каждого действия, которое выполняет агент. Но усталость от принятия решений — это реальная проблема, и по мере улучшения кодирующих агентов люди начинают слепо доверять агентам, включают "YOLO режим" или просто нажимают одобрить, одобрить, одобрить. Вот почему мы создали OpenEdison от @edison_watch: открытый AI Agent Firewall. Позвольте вашему агенту безопасно работать в режиме YOLO, пусть агент выполняет работу. Мы блокируем/предупреждаем о опасных вызовах MCP, только когда это строго необходимо, чтобы избежать усталости от принятия решений. Помните, что AI может быть суперумным, но его можно обмануть и фишить невероятно глупыми способами, чтобы утечь ваши данные. Курсор + MCP представляет собой серьезный риск безопасности, если разработчики не будут осторожны. 🤔 Интересно узнать о других реальных AI-эксплойтах, которые могут произойти с ВАМИ? У нас есть список AI-эксплойтов с общими соединителями MCP. Напишите "AI Exploits", чтобы получить доступ к приватному списку и узнать, как защитить себя!