SAN FRANCISCO, 14. Juni (Reuters) – Amazon Web Services (AMZN.O), der weltweit größte Anbieter von Cloud Computing, erwägt den Einsatz neuer Chips für künstliche Intelligenz von Advanced Micro Devices Inc (AMD.O), hat dies jedoch noch nicht geschafft ein Ende. mit der Entscheidung, sagte ein AWS-Manager gegenüber Reuters.
Die Kommentare kamen während einer AMD-Veranstaltung, bei der das Chipunternehmen seine Strategie für den Markt für künstliche Intelligenz darlegte, der vom Rivalen Nvidia Corp (NVDA.O) dominiert wird.
AMD-Aktien stiegen im vorbörslichen Handel nach den Nachrichten um 1,7 %. Am Dienstag schloss das Unternehmen mit einem Minus von 3,6 %, nachdem AMD keinen Großkunden für einen später in diesem Jahr auf den Markt kommenden KI-Chip bekannt gab.
In Interviews mit Reuters skizzierte AMD-CEO Lisa Su einen Ansatz, um große Cloud-Computing-Kunden zu gewinnen, indem sie eine Liste aller Teile bereitstellt, die zum Aufbau der Art von Systemen für die Ausführung von ChatGPT-ähnlichen Diensten erforderlich sind, und den Kunden gleichzeitig die Möglichkeit lässt, eines davon auszuwählen . wollen, mit branchenüblichen Verbindungen.
„Wir wetten, dass viele Menschen eine Auswahl wünschen und die Möglichkeit haben möchten, das, was sie in ihrem Rechenzentrum benötigen, individuell anzupassen“, sagte Su.
Während AWS keine öffentlichen Zusagen gemacht hat, die neuen MI300-Chips von AMD in seinen Cloud-Diensten zu verwenden, sagte Dave Brown, Vizepräsident für Cloud Elastic Computing bei Amazon, dass AWS darüber nachdenkt.
„Wir arbeiten immer noch gemeinsam daran, wohin genau das zwischen AWS und AMD führen soll, aber daran arbeiten unsere Teams gemeinsam“, sagte Brown. „Hier haben wir von der Arbeit profitiert, die sie rund um das Design geleistet haben, das sich in bestehende Systeme integrieren lässt.“
Nvidia verkauft seine Chips stückweise, fragt aber auch Cloud-Anbieter, ob sie bereit sind, ein komplettes System anzubieten, das Nvidia in einem Produkt namens DGX Cloud entwickelt hat. Oracle Corp. (ORCL.N) ist Nvidias erster Partner für dieses System.
Brown sagte, AWS habe es abgelehnt, mit Nvidia beim DGX-Cloud-Angebot zusammenzuarbeiten.
„Sie haben sich an uns gewandt, wir haben uns das Geschäftsmodell angesehen, und es ergab einfach keinen Sinn“, sagte Brown angesichts der langjährigen Erfahrung des Unternehmens im Aufbau zuverlässiger Server und der vorhandenen Lieferkettenkompetenz für AWS.
Brown sagte, AWS bevorzuge es, seine Server von Grund auf selbst zu entwickeln. AWS begann im März mit dem Verkauf des H100-Chips von Nvidia, allerdings als Teil von selbst entwickelten Systemen.
Zusätzliche Berichterstattung von Stephen Nelis in San Francisco; Bearbeitung durch Kim Coghill
Unsere Standards: Thomson Reuters Trust-Grundsätze.
„Entdecker. Entschuldigungsloser Unternehmer. Alkoholfanatiker. Zertifizierter Schriftsteller. Möchtegern-TV-Evangelist. Twitter-Fanatiker. Student. Webwissenschaftler.
More Stories
JPMorgan geht davon aus, dass die Fed ihren Leitzins in diesem Jahr um 100 Basispunkte senken wird
Die Zahl der Bitcoin-Millionäre ist um 111 % gestiegen – warum, wie und werden sie jetzt reicher?
Die Aktien des Chipriesen für künstliche Intelligenz Nvidia gaben trotz seines Rekordumsatzes von 30 Milliarden US-Dollar nach