wyścig w wykrywaniu deepfake'ów AI jest już przegrany cała odpowiedź branży technologicznej na deepfake'i polega na budowaniu lepszych detektorów i uważam, że to jeden z najdroższych błędów intelektualnych, które mają miejsce w tej chwili w AI nie możesz wygrać wyścigu, w którym druga strona zawsze rusza pierwsza. za każdym razem, gdy wykrywanie się poprawia, generowanie poprawia się szybciej każdy zbiór danych do wykrywania został zbudowany na fałszywych danych z wczoraj. fałszywe dane z jutra są już lepsze niż ten zbiór danych. jedynym rozwiązaniem jest zaprzestanie wykrywania fałszywych danych i udowodnienie autentyczności u źródła. to właśnie robi @brevis_zk Vera, aby umożliwić ciche wprowadzenie dowodów ZK do workflow setek milionów ludzi, którzy nigdy nie dowiedzą się, co oznacza zero wiedzy i nie muszą tego wiedzieć Vera rozszerza łańcuch kryptograficzny PRZEZ proces edycji, zamiast traktować edycję jako koniec autentyczności C2PA pozwala aparatom kryptograficznie podpisywać obrazy w momencie ich uchwycenia Vera zamyka tę lukę za pomocą dowodów ZK na samym procesie edycji matematycznie udowadnia: → opublikowana wersja pochodzi z podpisanego oryginału → zastosowano tylko dozwolone edyty → nic ukrytego nie zostało wprowadzone pochodzenie podróżuje z mediami przez cały proces a jeśli to zintegrowane zostanie z głównymi narzędziami edycyjnymi, z którymi już negocjują, to technologia ZK dotrze do setek milionów ludzi, którzy nigdy nie słyszeli o dowodach zero wiedzy wierzę, że to nie tylko historia kryptowalutowa, to warstwa infrastrukturalna dla samej prawdy w erze AI