I Sistemi Complessi di questa settimana sono con @philipkiely, che ha recentemente scritto il libro (letteralmente) sull'Ingegneria dell'Inferenza. Abbiamo discusso di come appare l'adozione dell'AI come questione ingegneristica nelle imprese.
Continuo a pensare che le app di chat siano a) tra le applicazioni singole più esplosivamente popolari mai portate sul mercato e b) principalmente una dimostrazione tecnologica per il vero prodotto, che è l'API. È un primitivo trasformativo come le istruzioni if e i cicli for.
A differenza delle istruzioni if e dei cicli for, si sta sviluppando uno strato di middleware, in parte a causa del ritmo di cambiamento del substrato sottostante, che (stranamente per la tecnologia) non è strettamente positivo. E quindi, per evitare di strapparsi i capelli quando viene rilasciato un aggiornamento del modello...
... il team incaricato di implementare l'intelligenza su larga scala può, ad esempio, avere un benchmarking automatizzato dei vari modelli rispetto ai vari compiti che hai, eseguire richieste precedenti contro il nuovo sfidante e valutarle automaticamente, e poi far avanzare automaticamente i vincitori.
Molto di questo somiglia all'introduzione adattiva di infrastrutture al volo, che è una capacità che mi sembra un po' fantascientifica.
Penso che ci sia una visibilità asimmetrica su Twitter riguardo ai casi d'uso dell'AI prosumer, inclusi gli strumenti di codifica moderni (che sono lo sviluppo di LLM più economicamente importante... fino ad oggi). L'introduzione nell'impresa sarà in ritardo, ma non di un decennio, e avrà un aspetto diverso.
Meno "diamo semplicemente a tutti le caselle di posta e YOLO", più piloti, più applicazioni di business gradualmente trasformate, e poi le cose diventano davvero strane nella seconda generazione quando inizi a pensare "Come appare questo processo aziendale se lo progettiamo attorno agli LLM esistenti."
1,31K