Wir freuen uns, in die $500M Series B von Nexthop zu investieren. AI zwingt zu einem kompletten Neubau der Infrastruktur von Rechenzentren, und das Networking wird zu einem der größten Engpässe. @nexthopai entwickelt Hochleistungs-Ethernet-Switches, die nativ für AI-Workloads konzipiert sind. AI-Training und -Inference sind auf Tausende von GPUs angewiesen, die ständig kommunizieren. Aber die Netzwerkschicht zwischen diesen GPUs hat Schwierigkeiten, Schritt zu halten: - AI-Cluster benötigen Tausende von Switches, die den Datenverkehr zwischen GPUs, Servern und Speicherknoten über mehrere Netzwerkschichten leiten - Jede neue GPU-Generation erfordert dramatisch höhere Bandbreite, geringere Latenz und größere Zuverlässigkeit vom zugrunde liegenden Netzwerk - Trotz dieses Anstiegs der Nachfrage hat sich der Markt für Rechenzentrums-Switches konsolidiert, während die Ingenieurskomplexität weiter steigt Nexthop verfolgt einen anderen Ansatz. Anstatt veraltete Netzwerkprodukte, die für die Cloud entwickelt wurden, anzupassen, entwirft Nexthop Switches von Grund auf für AI-Verkehrsmuster, mit Hardware und Software, die für hyperskalierte AI-Netzwerke gemeinsam entwickelt wurden. Ihre Plattform kombiniert Hochleistungs-Hardware mit umfassender Unterstützung für Open-Source-Betriebssysteme und offene Netzwerkstandards, was Hyperscalern die Flexibilität gibt, das Netzwerk in ihre eigenen Umgebungen zu erweitern und zu integrieren. Anshul Sadana hat mehr als 15 Jahre damit verbracht, Arista zu einem der prägendsten Netzwerkunternehmen der Cloud-Ära aufzubauen. Er und das Nexthop-Team bauen jetzt das Netzwerkunternehmen für die AI-Ära.