⬛◼️⬛◼️⬛◼️⬛----🍜 Ora l'intera rete è molto confusa, qualsiasi informazione che cerchi è mescolata, a volte non sai quali siano vere e quali siano false, il problema dell'AI è quanto di ciò che c'è dentro è inventato o errato, e nessuno se ne preoccupa. Se questa situazione continua a essere ignorata, potrebbe diventare sempre più grave in futuro. Tutti sanno che @Mira_Network è qui per risolvere questa "crisi della verità". Ciò che fa è in realtà molto semplice (ma con un contenuto tecnico altissimo), estrae tutte le "affermazioni fattuali" dagli articoli o dai contenuti generati dall'AI, e poi li invia a una rete composta da un intero modello AI per verificare ciascuna di esse. I nodi eseguono modelli diversi, verificando in modo indipendente, e alla fine si vede se le valutazioni di ciascuna affermazione sono coerenti. ╭─────✦✦─⋆⋅☆⋅⋆───╮ Tutti i modelli dicono che è vero → Spunta ✅ Tutti dicono che è falso → Croce ❌ Se ci sono divergenze → Viene contrassegnato come "senza consenso", perché non tutte le questioni hanno una risposta assoluta. Il risultato è che vedrai un articolo contrassegnato con "questa frase è vera, questa frase è falsa, questa frase è controversa", l'intero processo è molto più trasparente~ Personalmente penso che questo sia estremamente necessario; fidarsi dell'output di un singolo modello non è diverso dal tornare a un sistema centralizzato. Il metodo di "verifica multi-firma" di Mira è invece più vicino al Web3 e può anche prevenire che le informazioni siano controllate da pochi modelli o persone~ In sintesi, questa è una direzione che vale la pena aspettarsi~ @KaitoAI #kaitoai
9,79K