Home Nieuws De AI-boom voedt de behoefte aan snelheid in chipnetwerken

De AI-boom voedt de behoefte aan snelheid in chipnetwerken

16
0

Het nieuwe tijdperk van Silicon Valley draait om netwerken – en niet het soort dat je op LinkedIn aantreft.

Zoals de technologie-industrie sluist miljarden naar AI-datacenterszowel grote als kleine chipfabrikanten voeren de innovatie op rond de technologie die chips met andere chips verbindt, en serverracks met andere serverracks.

Netwerktechnologie bestaat al sinds het ontstaan ​​van de computer en verbindt mainframes op een kritische manier zodat ze gegevens kunnen delen. In de wereld van de halfgeleiders speelt netwerken op bijna elk niveau van de stapel een rol: van de verbinding tussen transistors op de chip zelf tot de externe verbindingen tussen dozen of rekken met chips.

Chipgiganten als Nvidia, Broadcom en Marvell beschikken al over gevestigde netwerknetwerken. Maar door de opkomst van AI zijn sommige bedrijven op zoek naar nieuwe netwerkbenaderingen die hen helpen de enorme hoeveelheden digitale informatie die door datacenters stroomt te versnellen. Dit is waar deep-tech startups zoals Lightmatter, Celestial AI en PsiQuantum, die optische technologie gebruiken om high-speed computing te versnellen, in beeld komen.

Optische technologie, of fotonica, beleeft een coming-of-age-moment. De technologie werd 25 jaar lang als “slap, duur en marginaal bruikbaar” beschouwd, totdat de AI-hausse de belangstelling ervoor weer aanwakkerde, aldus medeoprichter en hoofd wetenschappelijk directeur van PsiQuantum, Pete Shadbolt. (Shadbolt verscheen vorige week op een panel waar WIRED cohost was.)

Sommige durfkapitalisten en institutionele investeerders, in de hoop de volgende golf van chipinnovatie te kunnen opvangen of op zijn minst een geschikt acquisitiedoel te vinden, sluisden miljarden naar startups als deze die nieuwe manieren hebben gevonden om de datadoorvoer te versnellen. Zij zijn van mening dat traditionele interconnectietechnologie, die afhankelijk is van elektronen, eenvoudigweg geen gelijke tred kan houden met de groeiende behoefte aan AI-workloads met hoge bandbreedte.

“Als je historisch terugkijkt, was netwerken heel saai om te bespreken, omdat het pakketjes met bits verwisselde”, zegt Ben Bajarin, een oude technologieanalist die CEO is van het onderzoeksbureau Creative Strategies. “Nu moet het vanwege AI redelijk robuuste werklasten verplaatsen, en daarom zie je innovatie rond snelheid.”

Grote chip-energie

Bajarin en anderen prijzen Nvidia omdat het vooruitziend was over het belang van netwerken toen het jaren geleden twee belangrijke overnames in de technologie deed. In 2020 heeft Nvidia bijna $ 7 miljard uitgegeven om het Israëlische bedrijf Mellanox Technologies over te nemen, dat snelle netwerkoplossingen maakt voor servers en datacenters. Kort daarna kocht Nvidia Cumulus Networks om zijn netwerk van stroom te voorzien Linux-gebaseerd softwaresysteem voor computernetwerken. Dit was een keerpunt voor Nvidia, dat terecht gokte dat de GPU en zijn parallelle computermogelijkheden veel krachtiger zouden worden als ze werden geclusterd met andere GPU’s en in datacenters zouden worden geplaatst.

Terwijl Nvidia domineert op het gebied van verticaal geïntegreerde GPU-stacks, is Broadcom een ​​belangrijke speler geworden op het gebied van op maat gemaakte chipversnellers en snelle netwerktechnologie. Het bedrijf met een waarde van $ 1,7 biljoen werkt nauw samen met Google, Meta en, meer recentelijk, OpenAI, op het gebied van chips voor datacenters. Het loopt ook voorop op het gebied van siliciumfotonica. En vorige maand meldde Reuters dat Broadcom bereidt een nieuwe netwerkchip voor genaamd Thor Ultra, ontworpen om een ​​“kritieke link te bieden tussen een AI-systeem en de rest van het datacenter.”

Tijdens zijn winstoproep vorige week kondigde halfgeleiderontwerpgigant ARM plannen aan om het netwerkbedrijf DreamBig over te nemen voor $ 265 miljoen. DreamBig maakt AI-chiplets – kleine, modulaire circuits die zijn ontworpen om samen in grotere chipsystemen te worden verpakt – in samenwerking met Samsung. De startup beschikt over “interessant intellectueel eigendom… dat van groot belang is voor opschalings- en uitbreidingsnetwerken”, zei Rene Haas, CEO van ARM, tijdens de winstoproep. (Dit betekent het verbinden van componenten en het verzenden van gegevens op en neer in één chipcluster, en het verbinden van rekken met chips met andere rekken.)

Licht aan

Lightmatter-CEO Nick Harris heeft dat gedaan gewezen dat de hoeveelheid rekenkracht die AI nodig heeft nu elke drie maanden verdubbelt – veel sneller dan ooit De wet van Moore dicteert. Computerchips worden steeds groter. “Als je op de hoogte bent van de grootste chips die je kunt bouwen, komen alle prestaties daarna voort uit het aan elkaar koppelen van de chips”, zegt Harris.

De aanpak van zijn bedrijf is baanbrekend en is niet afhankelijk van traditionele netwerktechnologie. Lightmatter bouwt siliciumfotonica die chips met elkaar verbindt. Het beweert de ’s werelds snelste fotonische motor voor AI-chipsin wezen een 3D-stapel van silicium verbonden door op licht gebaseerde interconnect-technologie. De startup heeft de afgelopen twee jaar meer dan $500 miljoen opgehaald bij investeerders als GV en T. Rowe Price. Vorig jaar bereikte de waardering $4,4 miljard.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in