Искусственный интеллект модерирует то, что мы видим в интернете — отмечает дезинформацию, дипфейки и многое другое... Но если используется неправильная модель или результат подделан, последствия могут быть катастрофическими. Модерация не может быть просто быстрой. Она должна быть доказуемой. Вот где вступает в игру DeepProve: 🧵
2/ Вот как работает модерация на основе DeepProve: 1. Пользователь отправляет контент на социальную платформу 2. Модель модерации помечает его 3. DeepProve проверяет модель, входные данные и решение 4. Платформа получает доказуемый результат Каждый пост, заголовок и видео теперь проверены.
3/ DeepProve встраивается непосредственно в системы модерации ИИ — гарантируя, что каждое решение о контенте было принято на основе утвержденной модели, с правильным контентом и неизмененным выводом. Он по умолчанию является приватным, создан для масштабирования на различных платформах и в 1000 раз быстрее, чем конкуренты.
4/ Как пишет наш CEO @Ismael_H_R в @CoinDesk: “Скам с использованием дипфейков больше не является маргинальной проблемой. Это системная угроза человеческому доверию.” DeepProve приносит криптографическое доказательство на передовую модерации ИИ. Читать полную статью:
4/ Как пишет наш основатель и генеральный директор @Ismael_H_R в @CoinDesk: "Глубокие подделки больше не являются маргинальной проблемой. Они представляют собой системную угрозу человеческому доверию." DeepProve приносит криптографическое доказательство на передовую модерации ИИ. Читать полную статью:
104,25K