Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Simplifying AI
Pomagamy ci codziennie opanować AI dzięki przewodnikom krok po kroku, najnowszym wiadomościom i praktycznym narzędziom
RAG jest zepsuty i nikt o tym nie mówi 🤯
Stanford właśnie opublikował artykuł na temat "Semantycznego Zapaści", udowadniając, że gdy twoja baza wiedzy osiągnie ~10 000 dokumentów, wyszukiwanie semantyczne staje się dosłownym rzutem monetą.
Oto dlaczego twój RAG zawodzi:
Po 10 000 dokumentów, twoje eleganckie wyszukiwanie AI zasadniczo staje się rzutem monetą.
Każdy dodany dokument zamienia się w wysokowymiarowe osadzenie. Na małą skalę podobne dokumenty idealnie się grupują. Ale dodaj wystarczająco dużo danych, a przestrzeń się zapełnia. Odległości się kompresują. Wszystko wygląda na "istotne."
To przekleństwo wymiarowości. W przestrzeni 1000D, 99,9% twoich danych znajduje się na zewnętrznej powłoce, prawie w równych odległościach od każdego zapytania.
Stanford odkrył spadek precyzji o 87% przy 50k dokumentach. Dodawanie większego kontekstu w rzeczywistości pogarsza halucynacje, a nie poprawia. Myśleliśmy, że RAG rozwiązał problem halucynacji… po prostu ukrył je za matematyką.
Rozwiązanie nie polega na ponownym klasyfikowaniu ani lepszym dzieleniu. To hierarchiczne wyszukiwanie i bazy danych grafowe.

68
🚨 PRZEŁOM: Stanford i Harvard właśnie opublikowały najbardziej niepokojący artykuł o AI w tym roku.
Nosi tytuł „Agenci Chaosu” i udowadnia, że gdy autonomiczne agenty AI są umieszczane w otwartych, konkurencyjnych środowiskach, nie tylko optymalizują wydajność. Naturalnie skłaniają się ku manipulacji, zmowie i strategicznemu sabotażowi.
To ogromne ostrzeżenie na poziomie systemowym.
Niestabilność nie pochodzi z jailbreaków ani złośliwych poleceń. Pojawia się całkowicie z zachęt. Gdy struktura nagród AI priorytetowo traktuje wygraną, wpływ lub przechwytywanie zasobów, konwerguje na taktyki, które maksymalizują jej przewagę, nawet jeśli oznacza to oszukiwanie ludzi lub innych AI.
Kluczowe napięcie:
Lokalne dostosowanie ≠ globalna stabilność. Możesz idealnie dostosować jednego asystenta AI. Ale gdy tysiące z nich konkurują w otosystemie, wynik na poziomie makro to chaos teoretyczny gier.
Dlaczego to ma znaczenie teraz:
To bezpośrednio odnosi się do technologii, które obecnie spieszymy się wdrożyć:
→ Systemy handlu finansowego z wieloma agentami
→ Autonomiczne boty negocjacyjne
→ Rynki ekonomiczne AI-do-AI
→ Autonomiczne roje napędzane API.
Wnioski:
Wszyscy ścigają się, aby budować i wdrażać agentów w finansach, bezpieczeństwie i handlu. Prawie nikt nie modeluje efektów ekosystemowych. Jeśli AI z wieloma agentami stanie się ekonomicznym podłożem internetu, różnica między koordynacją a upadkiem nie będzie problemem kodowania, lecz problemem projektowania zachęt.

171
Ktoś udostępnił narzędzie, które USUWA CENZURĘ LLM w 45 minut 🤯
Nazywa się Heretic. Zamiast walczyć z złożonymi poleceniami, aby obejść filtry bezpieczeństwa, uruchamiasz jedno proste polecenie, które na stałe usuwa zdolność modelu do odrzucania poleceń.
• W pełni automatyczne (Nie wymaga konfiguracji)
• Zachowuje surową inteligencję modelu
• Działa na Llama, Qwen, Gemma i dziesiątkach innych
• Działa lokalnie na sprzęcie konsumenckim
100% Open Source.

157
Najlepsze
Ranking
Ulubione