V minulosti všichni zoufale přecházeli do cloudu, ale náklady na jednotkový výpočetní výkon ve fázi inference přiměly mnoho týmů uvědomit si, že dlouhodobá inference AI ve velkém měřítku spaluje peníze v cloudu příliš rychle. Aplikace nativní pro umělou inteligenci jsou vhodnější pro ukládání kritických úloh odvozování do místních datových center, snižují latenci a šetří šířku pásma a náklady na pronájem cloudu Boj o paměť byl typickým rysem v počátcích tréninku hlubokého učení (kdo má více paměti, vyhrává), ale dnes: Limit propustnosti uložený do GPU přímo ovlivňuje inferenci QPS Rychlost interakce mezi GPU a kartou CPU/akcelerační je horní hranicí výkonu pipeline Spotřeba energie jednoho rackového AI clusteru může dosahovat desítek kilowattů a nesmyslný design PD přímo zmrazí rozsah nasazení výpočetního výkonu Pokud rozvržení datového centra zůstane v roce 2015 zaseknuté v paradigmatu návrhu tradičního webového/databázového podnikání, bude převráceno pod pracovní zátěží umělé inteligence Podívejte se na naše postřehy: 20 technologických odborníků na nové hardwarové trendy, které musí podniky sledovat prostřednictvím @forbes
10,42K