Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

响马
。。。。。。
响马 heeft opnieuw gepost
Na bijna een week van proberen en struikelen, heb ik eindelijk de Transformer opnieuw kunnen implementeren. Het gevoel nu is dat de constructie van de Transformer absoluut het resultaat is van genialiteit en hard werken. Zowel theoretisch als praktisch heeft het een baanbrekende betekenis. (Hoewel het nu een beetje achteraf is om dit te zeggen)
74,57K
Mijn verbinding was al een paar dagen slecht, alleen de knooppunten in IJsland konden verbinding maken. Vanmiddag was het ineens weer goed.

Jason Young23 aug, 19:41
De ladder was de hele middag kapot, ik voelde me alsof ik de verbinding met de wereld had verloren.
5,94K
AI is slechts een hulpmiddel, en hoe goed het gebruikt wordt, hangt af van de gebruiker. De code die door AI is geschreven, kan slechts als voldoende worden beschouwd. Het heeft te veel verschillende soorten code gezien en heeft geen eigen smaak, waardoor het vaak slechte code produceert. Deze code lijkt als modulefragmenten misschien geen probleem te hebben, maar in een grotere architectuur kunnen ze talloze verborgen problemen veroorzaken.

宝玉23 aug, 00:11
De meest geavanceerde AI-modellen schrijven geen slechte code; op modulair niveau overtreffen ze het gemiddelde niveau van menselijke programmeurs. Als de geschreven code slecht is, kijk dan eerst naar welk model is gekozen, of de context voldoende is en of de prompts geoptimaliseerd moeten worden.
Voor cross-modulaire code, beperkt door de lengte van het contextvenster, kan het nodig zijn dat mensen helpen met het ontwerp en de planning. Als de projectstructuur redelijk is, kan AI ook bestaande code hergebruiken om DRY (Don't Repeat Yourself) te behouden.
6,29K
AI kan ook lezen, maar het kan het niet onthouden. Pas wanneer we echte geheugenmodellen realiseren, kunnen we de beperkingen van de context doorbreken.

geniusvczh22 aug, 18:58
Als je er goed over nadenkt, is de reden dat AI slecht code schrijft niet omdat hij niet kan schrijven, maar omdat hij niet kan lezen. Mensen kijken naar veel schijnbaar niet-verwante dingen om een functie te maken, maar het zijn juist deze schijnbaar niet-verwante dingen die je de mogelijkheid bieden om het project DRY te houden. AI moet eerst dit leren om een steunpilaar te kunnen worden. 🤪
2,36K
Voor de studenten die AI-programmering gebruiken, hebben jullie gemerkt dat je met AI eigenlijk drukker bent geworden?
Vroeger kostte het twee weken om een aanvraag te voltooien, van het beschrijven van de aanvraag, het samenstellen van een team, tot het testen van de productfrontend en -backend, met een heleboel mensen die in actie kwamen.
Nu kan één persoon het in een avond afhandelen.
Maar vroeger kon je zeggen dat je op het team wachtte en ondertussen een beetje kon relaxen. Dat kan nu niet meer. 😶🌫️
66,83K
De aanbiedingen die worden gegeten door degenen die verhongeren, is de verdienste van de persoon die wordt geëerd.

garrulous abyss🌈22 aug, 16:58
Zeg niet dat het van de Bodhisattva is.
Als je in het wild bijna dood van de honger bent... en je ziet een graf aan de kant van de weg met offers. Je buigt je hoofd en zegt: "Sorry, ik ben bijna dood van de honger, ik neem een offer om te eten." Ik denk niet dat iemand of een geest je daar moeilijk mee zal maken...

2,22K
Wanneer een gebied begint te discussiëren over filosofie, betekent dit dat een fase bijna ten einde loopt. 😂

𝙩𝙮≃𝙛{𝕩}^A𝕀²·ℙarad𝕚g𝕞22 aug, 06:53
Waarom lijkt het erop dat AI-onderzoeksprojecten steeds meer naar de taalfilosofie neigen?

4,83K
Een enkele rag is het product van de eerste generatie verbeteringen. Mijn huidige aanpak is om rag te implementeren als mcp, met de twee API's ask en fetch. Het ophalen blijft gebruik maken van de traditionele rag-mechanismen, terwijl de uitgebreide lezing de AI in staat stelt om fetch aan te roepen om de context ervoor en erna te lezen. Mechanisch is het vergelijkbaar met cline grep dat opnieuw bestanden leest.

宝玉21 aug, 07:39
Diep van mening: 1. Multi-agent samenwerking is minder stabiel dan single-thread; 2. RAG is onbetrouwbaar en slechter dan traditionele zoekmethoden; 3. Hoe meer instructies in de prompt, hoe minder het model weet wat te kiezen.
—— Originele vertaling hieronder ——
Op de weg naar het bouwen van AI-agenten heeft ons team @Cline drie soorten "denkvira" geïdentificeerd. Wat we "denkvira" noemen, zijn ideeën die heel slim klinken, maar in de praktijk totaal niet werken.
Deze drie virussen zijn:
* Multi-agent samenwerking (Multi-Agent Orchestration)
* Zoekversterkte generatie (RAG)
* Hoe meer instructies = hoe beter het resultaat
Laten we ze eens nader bekijken!
1. Multi-agent samenwerking
Die scènes uit sciencefictionfilms - "achtergrondagenten, militaire agenten, analyseagenten, commandantagenten" die een grote groep sub-agenten uitzenden en uiteindelijk de resultaten samenvoegen - klinkt inderdaad heel cool. Maar de realiteit is dat de meeste nuttige agentwerkzaamheden single-threaded zijn.
Complexe samenwerkingsprocessen brengen zelden echte waarde, maar veroorzaken vaak chaos. Het is belangrijk te weten dat het al moeilijk genoeg is om het model stabiel te laten werken in een single-thread, laat staan om die parallelle samenwerkingslogica te verwerken. Dit verhoogt niet alleen de complexiteit van de implementatie, maar maakt ook het begrip en het besluitvormingsproces van het model uitzonderlijk complex.
2. Gebruik RAG om agenten te bouwen
RAG, oftewel Zoekversterkte Generatie (Retrieval Augmented Generation), is ook een soort denkvira. Het lijkt in theorie heel krachtig, maar in de praktijk, vooral in agentenscenario's, is het soms zelfs minder handig dan een basis tekstzoekopdracht zoals GREP.
Waarom vervaagt de glans van RAG in de werkstromen van agenten? Omdat de informatie die het ophaalt vaak losse fragmenten zijn, die het model niet in staat stellen een samenhangend en nuttig "begrip" te vormen.
Een betere methode is bijna altijd: laat het model zelf de documenten opsommen, zoek op een manier die lijkt op grep, en open en lees het hele document (zoals mensen dat doen). Het @Cline-team is hier al vroeg mee begonnen, en later zagen we dat @Amp - Research Preview en @Cursor ook deze meer pragmatische aanpak zijn gaan volgen.
3. Hoe meer instructies = hoe beter het resultaat
Er is een wijdverspreide misvatting: door steeds meer "instructies" in de systeemprompt te stapelen, kan het model slimmer worden. Dit is volledig onjuist.
Het "overladen" van de prompt zal het model alleen maar in verwarring brengen, omdat meer instructies vaak leiden tot conflicterende aanbevelingen en informatie-overload.
Het resultaat is dat je, net als bij het spel "mollen vangen", voortdurend de vreemde gedragingen van het model moet repareren, in plaats van echt nuttige output te krijgen. Voor de meeste moderne modellen is de beste aanpak om ze niet in de weg te staan, in plaats van ernaast te staan en voortdurend te schreeuwen om ze in een bepaalde richting te duwen. Waardeer elk woord (of Token) dat je hebt.
Samenvattend, deze drie ideeën zijn zeer verleidelijk. Als je niet de hele dag met AI bezig bent, lijkt het misschien allemaal heel logisch - maar dat is het niet. Natuurlijk, naarmate de onderliggende modelcapaciteiten verbeteren, kan onze kijk op deze methoden in de toekomst ook veranderen.
6,23K
Boven
Positie
Favorieten
Populair op onchain
Populair op X
Recente topfinanciering
Belangrijkste