News Arm-Server-CPUs: Intels Xeon-Chef­ar­chi­tekt verstärkt ab sofort Qualcomm

Bunhy schrieb:
Imho eine sehr kurzsichtige Sichtweise. Einfach in die Vergangenheit schauen. Das gleiche hättest du vor ein paar Jahren über AMD im Enterprise CPU Bereich schreiben können. Da war es sogar weit weit extremer
ich würde mich freuen wenn es anders wäre! aber mehr als eine halbwegs OKe generation alle 2-3 generationen bringt amd leider nicht zu stande. geschweigedenn man ein flaggschiff dass NV haushoch schlagen würde - die zeiten sind leider vorbei. NV sitzt so fest im sattel. und dann noch die economys of scale von NV... ich sehe da schwarz für echte highend AMD GPUs.
Ergänzung ()

flatline1 schrieb:
Räusper 3dfx
Gab mal ne zeit da hätten viele das auch von 3dfx gesagt.
das waren ganz andere zeiten damals. kannst überhaupt nicht mehr vergleichen zu jetzt. damals war das völlig neu und es gab haufenweise konkurrenz und viele verschiedene standards. jetzt gibts. 2 kontrahenten und einer davon hat 90% marktanteil. da muss NV schon die nächsten 5 jahre KOMPLETT daneben hauen und AMD alles richtig machen und NV jedes jahr deutlich schlagen. kannst du mir verraten wie du dir das vorstellst wie das passieren soll? die wahrscheinlichkeit, dass DAS passiert, liegen vlt bei 5%.
Ergänzung ()

Neodar schrieb:
Als AMD mit der Bulldozer Architektur am Boden lag, sah es im CPU Bereich ebenso aus. Und heuer reißen die Gamer denen den 9800X3D nur so aus den Händen, während Intels Arrow Lake in den Händlerregalen vergammelt.
AMD war damals knapp vor dem Bankrott. Die hatten einen ganz anderen "Stress" damals. Und sorry, du kannst NV nicht mit Intel vergleichen. genausowenig wie du einen traktor mit einem sportwagen vergleichen kannst.
Ergänzung ()

BxBender schrieb:
na, ob das ein so guter Fang ist ? lief ja auch so gut bei Intel....

vielleicht dann noch Koduri für die Gamingsparte holen?

^^ ;-P
Ergänzung ()


oder dass AMD plötzlich besser wäre als Intel, un vor stell bar ^^ ;-P
intel hat 5 jahre stagniert mit 14nm++++++++ - das wird sich NV garantiert nicht leisten. das kannst du gift drauf nehmen. wie gesagt - traktor vs sportwagen.
 
Zuletzt bearbeitet:
Calid schrieb:
das waren ganz andere zeiten damals.
Jep, waren es. aber vom Grundprinzip ist es der einzige Fall der halbwegs vergleichbar ist ohne aus anderen bereichen zu zitieren.

Es ist nun mal so das es ob Große Reiche oder Große Firmen schon öfter in der Vergangenheit und bestimmt auch immer mal wieder in der Zukunft, unerwartet nicht bestehen oder stark zusammenschrumpfen.

Auch wenn es momentan nicht ersichtlich oder erwartbar ist, wäre es etwas vermessen, anzunehmen das Nvidia im Gegensatz dazu dagegen 100% gefeit vor so etwas wäre.
 
ja... trotzdem. es geht im endeffekt um wahrscheinlichlkeiten. NV wird was GPUs betrifft ziemlich sicher nicht von AMD "disruptiert" werden, genausowenig wie Apple bei Smartphones oder Laptops von irgend einem kleinen Player disruptiert wird. in 20 jahren schauts vlt anders aus - aber kurz und mittelfristig. no way. ich hoffe ich liege falsch!!!!!!!
 
Stimmt kurzfristig wird sich definitiv nix ändern.
Dafür ist Nvidia zu nah am Monopol und hat eine zu große Kriegskasse.
 
Calid schrieb:
wie oft habens das jetzt schon versucht?
Sie haben es einmal versucht, aber abgebrochen.
Calid schrieb:
ich glaube das wird der nächste große fail, nach snapdragon x elite. speziell in server cpus, sehe ich absolut nicht die kleinste change, dass jemand AMD das wasser reichen kann. Der zug ist abgefahren - genauso wie der zug für Intel abgefahren ist... und für AMD in grafik vs. NV. Winner takes most - in dem Fall AMD.
Ganz grundsätzlich sind sie auch bei Notebook-CPUs mittlerweile bei Versuch Nummer 3 oder 4, je nach Zählweise:
https://en.wikipedia.org/wiki/List_of_Qualcomm_Snapdragon_systems_on_chips#Mobile_Compute_Platforms
(also ob man die kommende dritte Generation Oryon als vierten Anlauf oder als Fortführung des dritten Anlaufes betrachtet)
 
CDLABSRadonP... schrieb:
Ich sehe nicht einmal, dass sie dadurch eine Chance hätten.
In dem Zusammenhang verstehe ich dann Deinen ersten Post nicht.
Wenn Du denkst Arm hat in der Berufung keine Chance, mit welcher Begründung sollte Arm gegen Qualcomm klagen?

Ich hatte mich unklar ausgedrückt, ich frage mich mit welcher Begründung Arm eine Berufung haben will.

CDLABSRadonP... schrieb:
Die Fakten liegen klar auf dem Tisch. Schon vor dem Prozess waren ihre Chancen gering,
Sagen wir es Mal so, nur wenn man die beiden Verträge kannte. Die kannte ich zum Beispiel nicht und war mir deshalb nicht sicher was da tatsächlich vorgeht. Ich hatte zwar beide Klageerwiderungsschriften von Qualcomm gelesen und fand die Klageschrift von Arm seltsam und die von Qualcomm überzeugend. Mir

Mit dem was durch den Prozess bekannt wurde frage ich mich allerdings, wie Arm so verrückt sein konnte
  • zu klagen,
  • zu den Kunden von Qualcomm zu gehen und denen zu erzählen Qualcomm hätte keine Lizenz und
  • Qualcomm die ALA zu kündigen mit der Begründung Vertragsbruch durch Qualcomm
CDLABSRadonP... schrieb:
doch Qualcomm hat sich erfolgreich gedemütigt.
Du meinst Qualcomm hat Arm erfolgreich gedemütigt oder Qualcomm hat sich selbst gedemütigt?

Meiner Meinung nach hat Qualcomm Arm vorgeführt und bloßgestellt.

CDLABSRadonP... schrieb:
Das sind mir deutlich zu harte Worte. Was ich unterschreibe ist, dass eine Berichterstattung zum Ausgang fehlt. Hast Du denn @Jan als generell verantwortlichen schon angeschrieben? Vielleicht ist nach der CES (und ihren Nachwehen) ja mal Raum für eine Komplettzusammenfassung...
Ein Update wäre das mindeste gewesen. Und das ist die Aufgabe des Verfassers des Artikels.

Aber ich habe das Gefühl, dass der falsche gewonnen hat und deshalb die Motivation fehlte über das Urteil zu berichten.
Calid schrieb:
wie oft habens das jetzt schon versucht? ich glaube das wird der nächste große fail, nach snapdragon x elite.
Ich wäre da vorsichtigt. Snapdragon X Elite war der erste Schritt.

Nuvia hat von Null angefangen einen Kern hochzuziehen und sie hatten nicht die Zeit einen perfekten Kern hinzulegen. Schauen wir Mal was die zweite Iteration bringt.
 
An alle die jetzt über die Person Sailesh Kottapalli herumhöhnen, weil Intel im Data Center Probleme hat, mag ich ein Zitat von Jim Keller aus dem Interview mit Ian Cutress bei AnandTech verweisen:
Alle dachten, das AMD-Team könne nicht geradeaus schießen, und ich war sehr fasziniert von der Möglichkeit, einen wirklich großartigen Computer mit dem Team zu bauen, von dem alle dachten, es sei überfordert. So wie niemand dachte, dass AMD ein großartiges CPU-Designteam hätte. Aber wissen Sie, die Leute, die Zen entwickelt haben, hatten 25 bis 30 Jahre Berufserfahrung bei AMD. Das war der Wahnsinn.

Übersetzt mit DeepL.com (kostenlose Version), https://www.anandtech.com/show/16762/an-anandtech-interview-with-jim-keller-laziest-person-at-tesla

stefan92x schrieb:
Mesh ist immer noch besser als Ringbus für diese Kernzahlen
Das ist so pauschal gesagt falsch.
Wenn es so wäre wieso sieht EPYC bei der effektiven Bandbreite (wenn mehrere Kerne Daten wollen) so viel besser als Sapphire Rapids aus? (siehe unten)

stefan92x schrieb:
Also unterm Strich sehe ich einfach wenige fundamentale Fehler in der Xeon-Architektur.
Dann musst Du besser hinschauen.

1736895070177.png


1736895119941.png


1736895173114.png

 

Anhänge

  • 1736898275807.png
    1736898275807.png
    8,8 KB · Aufrufe: 19
ETI1120 schrieb:
Wenn es so wäre wieso sieht EPYC bei der effektiven Bandbreite (wenn mehrere Kerne Daten wollen) so viel besser als Sapphire Rapids aus? (siehe unten)
Nutzt Epyc einen Ringbus, so wie Intel in seinen kleinen CPUs? Nein. Über Epyc habe ich gar keine Aussage getroffen.
ETI1120 schrieb:
Dann musst Du besser hinschauen.
Inwiefern? Ich schrieb doch, dass Intel bei der Einführung von Chiplets Fehler gemacht hat. Genau diesen Punkt hast du belegt (danke dafür).

Weitere Kritikpunkte scheinst du auch nicht zu haben (wobei ich vielleicht sogar noch das ganze Drama um AVX512 erwähnen würde, aber selbst das liegt zum Teil an den Fertigungsproblemen).
 
  • Gefällt mir
Reaktionen: MalWiederIch
Vermutung meinerseits: Qualcomm hat zwar eigene KI Beschleuniger entwickelt , allerdings bis dato kaum Abnehmer dafür gefunden.* Denn mit einem Beschleuniger alleine ist's ja nicht getan, neben dem Software Ökosystem braucht's auch noch CPUs, die helfen, die Bescheiniger zu füttern. Wenn Qualcomm jetzt eigene Server CPUs hat bzw hätte, könnten sie es wieder probieren.
*Liegt aber angeblich auch daran, daß sie hier nicht gerade für Kundenservice bekannt bekannt sind. Ob das so stimmt, weiß ich allerdings nicht.
 
stefan92x schrieb:
Nutzt Epyc einen Ringbus, so wie Intel in seinen kleinen CPUs? Nein. Über Epyc habe ich gar keine Aussage getroffen.
Du hast eine Pauschalaussage getroffen die so falsch ist. Das Beispiel dafür ist EPYC. Jedes CCDs hat einen doppelten Ringbus und der im IOD sind alle CCD, Memory Channels und IO über einen Ringbus angeschlossen.

stefan92x schrieb:
Inwiefern? Ich schrieb doch, dass Intel bei der Einführung von Chiplets Fehler gemacht hat.
Die Technologie der Chiplets ist in dieser Beziehung nicht das Problem, sondern die Architektur/Topologie mit der Intel die Kerne verschaltet.

stefan92x schrieb:
Weitere Kritikpunkte scheinst du auch nicht zu haben (wobei ich vielleicht sogar noch das ganze Drama um AVX512 erwähnen würde, aber selbst das liegt zum Teil an den Fertigungsproblemen).
Spielst Du auf das Throtteling an?

Ich kenne mich da zu wenig aus um mir ein Urteil zu erlauben ob Skylake im 14 nm Prozess Fertigungsprobleme hatte oder nicht.

Aber eines verstehe ich sogar als Laie: Dieser Joke hat nichts mit Fertigungsproblemen zu tun:
There is a lot of history here, but to summarize:

  1. Intel added AVX512-VP2INTERSECT to Tiger Lake. But it was really slow. (microcoded ~25 cycles/46 uops)
  2. It was so slow that someone found a better way to implement its functionality without using the instruction itself.
  3. Intel deprecates the instruction and removes it from all processors after Tiger Lake. (ignoring the fact that early Alder Lake unofficially also had it)
  4. AMD adds it to Zen5.
So just as Intel kills off VP2INTERSECT, AMD shows up with it. Needless to say, Zen5 had probably already taped out by the time Intel deprecated the instruction. So VP2INTERSECT made it into Zen5's design and wasn't going to be removed.



But how good is AMD's implementation? Let's look at AIDA64's dumps for Granite Ridge:

AVX512VL_VP2INTERSE :VP2INTERSECTD k1+1, xmm, xmm L: [diff. reg. set] T: 0.23ns= 1.00c
AVX512VL_VP2INTERSE :VP2INTERSECTD k1+1, ymm, ymm L: [diff. reg. set] T: 0.23ns= 1.00c
AVX512_VP2INTERSECT :VP2INTERSECTD k1+1, zmm, zmm L: [diff. reg. set] T: 0.23ns= 1.00c
AVX512VL_VP2INTERSE :VP2INTERSECTQ k1+1, xmm, xmm L: [diff. reg. set] T: 0.23ns= 1.00c
AVX512VL_VP2INTERSE :VP2INTERSECTQ k1+1, ymm, ymm L: [diff. reg. set] T: 0.23ns= 1.00c
AVX512_VP2INTERSECT :VP2INTERSECTQ k1+1, zmm, zmm L: [diff. reg. set] T: 0.23ns= 1.00c
Yes, that's right. 1 cycle throughput. ONE cycle. I can't... I just can't...



Intel was so bad at this that they dropped the instruction. And now AMD finally appears and shows them how it's done - 2 years too late.

Und noch Mal ganz deutlich: Die Geschichte fängt nicht mit 10 nm an. Sie fängt beim 8086 an. Die eigene Halbleiterfertigung von Intel hat großen Anteil daran, dass Intel sich mit dem Xeon im Data Center durchgesetzt hat. Intel hatte gute Architekturen Intel hatte schlechte Architekturen.
 
ETI1120 schrieb:
Jedes CCDs hat einen doppelten Ringbus und der im IOD sind alle CCD, Memory Channels und IO über einen Ringbus angeschlossen.
Ein Ring aus Ringbussen ist was anderes als EIN Ringbus.
ETI1120 schrieb:
Die Technologie der Chiplets ist in dieser Beziehung nicht das Problem, sondern die Architektur/Topologie mit der Intel die Kerne verschaltet.
Ja das ist natürlich richtig. Wir diskutieren hier über einen Architekten, natürlich ist die Architektur gemeint, wenn Fehler erwähnt werden.
ETI1120 schrieb:
Spielst Du auf das Throtteling an?
Ja. Mein laienhaftes Verständnis ist, dass das nicht unbedingt nötig gewesen wäre, wenn Intel die Prozess-Roadmap eingehalten hätte. Aber da kann ich mich auch irren.
ETI1120 schrieb:
Aber eines verstehe ich sogar als Laie: Dieser Joke hat nichts mit Fertigungsproblemen zu tun:
Oh ja, in dem Punkt hat Intel echt verkackt, da brauchen wir nicht drum herum reden.
ETI1120 schrieb:
Intel hatte gute Architekturen Intel hatte schlechte Architekturen.
So wie alle anderen eben auch. Trotzdem bleibt es Fakt, dass keine CPU-Serie ihren Markt jemals so dominiert hat wie Xeon zu besten Zeiten. Auch wenn dabei manche Fehler gemacht wurden, spricht das definitiv für den Chefarchitekten.
 
  • Gefällt mir
Reaktionen: MalWiederIch
ETI1120 schrieb:
In dem Zusammenhang verstehe ich dann Deinen ersten Post nicht.
Wenn Du denkst Arm hat in der Berufung keine Chance, mit welcher Begründung sollte Arm gegen Qualcomm klagen?

Ich hatte mich unklar ausgedrückt, ich frage mich mit welcher Begründung Arm eine Berufung haben will.
Das erste Posting sollte sich darüber lustig machen, dass ARM auch dann klagt, wenn es keine Grundlage für einen Sieg gibt. Ist anscheinend nicht so ganz gelungen.
ETI1120 schrieb:
Sagen wir es Mal so, nur wenn man die beiden Verträge kannte. Die kannte ich zum Beispiel nicht und war mir deshalb nicht sicher was da tatsächlich vorgeht. Ich hatte zwar beide Klageerwiderungsschriften von Qualcomm gelesen und fand die Klageschrift von Arm seltsam und die von Qualcomm überzeugend. Mir
Wir kannten die grundlegenden Lizenzmodelle, wir kannten die Art und Weise, in welchem Bezug Stock-Cores und wie custom wohl die Oryon-Cores sind, wir kannten die Schlagkräftigkeit von Qualcomms Rechtsabteilung, wir kannten also die grundlegenden Rahmendaten. In diesem Rahmen sehe ich zumindest keine realistische Möglichkeit, dass ARM gewonnen hätte.
ETI1120 schrieb:
Mit dem was durch den Prozess bekannt wurde frage ich mich allerdings, wie Arm so verrückt sein konnte
  • zu klagen,
  • zu den Kunden von Qualcomm zu gehen und denen zu erzählen Qualcomm hätte keine Lizenz und
  • Qualcomm die ALA zu kündigen mit der Begründung Vertragsbruch durch Qualcomm
Ganz genau.
ETI1120 schrieb:
Du meinst Qualcomm hat Arm erfolgreich gedemütigt oder Qualcomm hat sich selbst gedemütigt?
Ganz einfach, Autokorrekturfail. Da sollte sie statt sich stehen. Habe Teile des Postings
ETI1120 schrieb:
Meiner Meinung nach hat Qualcomm Arm vorgeführt und bloßgestellt.
Genau.
ETI1120 schrieb:
Ein Update wäre das mindeste gewesen. Und das ist die Aufgabe des Verfassers des Artikels.

Aber ich habe das Gefühl, dass der falsche gewonnen hat und deshalb die Motivation fehlte über das Urteil zu berichten. (...)
Ich würde mich zumindest über ein Update freuen. Wie gesagt, Sinn ergibt das erst nach Ende der Nachwehen der CES. Der erste Moment ist verpasst. Da war aber auch schon viel los. Wenn in einem Monat immer noch keines da ist, dann sollten wir darauf hinweisen.
 
Neodar schrieb:
Einzig der 285K hat einen gewissen Sprung nach oben gemacht. Das könnte aber auch eine simple Aktion der Händler sein, die sich sagen "Hey, wenn der 9800X3D von AMD so schwer zu bekommen und deshalb teuer ist, verlangen wir für den lieferbaren 285K als Intel Alternative ebenfalls mehr und holen uns von jenen, die nicht auf den 9800X3D warten wollen auf diese Weise etwas mehr Geld ab."
Macht nur überhaupt keinen Sinn, ein 285K hat doch mit seinen 24 Kernen deutlich mehr Rohleistung als ein 9800X3D, der mit seinen lediglich 8 Kernen eher eine reine Gaming CPU ist und im Bereich eines i5 landet:
IMG_0237.jpeg

Offensichtlich ist das Konkurrenzprodukt zum i9 285K bei nur 1% Differenz ein R9 9950X - und kein deutlich schwächerer R7/R5. Auch in Spielen und selbst beim Preis sind diese beiden CPUs nur 1% auseinander :p

Gab jedenfalls schon spannenderen Schlagabtausch bei den Topmodellen als aktuell …
 
Zuletzt bearbeitet:
MalWiederIch schrieb:
Offensichtlich ist das Konkurrenzprodukt zum i9 285K bei nur 1% Differenz ein R9 9950X
Das ist eine legitime Sichtweise, aber @Neodar liegt mit dem Vergleich auch nicht falsch. Denn sowohl der 285K als auch der 9800X3D sind die jeweils schnellsten Gaming-CPUs von Intel und AMD. Deshalb ist es absolut sinnvoll, die beiden zu vergleichen und festzuhalten: High-End Gaming ist in dieser Generation ein Desaster für Intel. Wo AMD zwei verschiedene Top-Produkte für verschiedene Märkte hat, hat Intel halt nur eines. Wirklich "fair" wird es dann voraussichtlich mit dem 9950X3D, der genau wie der 285K eine eierlegende Wollmilchsau wird.
 
Ja genau der 285k ist auch um wenige Prozent vor dem 9950x. Also von daher ein sehr enger Bereich und 5 % ist nicht die Welt. Bei Games da sieht es dann bei den Plätzen dann anderst aus. Das kann ich nur voll und ganz zustimmen. Wirklich von davon rennen kann man das ja nicht nennen.
 
CDLABSRadonP... schrieb:
Das erste Posting sollte sich darüber lustig machen, dass ARM auch dann klagt, wenn es keine Grundlage für einen Sieg gibt. Ist anscheinend nicht so ganz gelungen.
Sarkasmus ist für außenstehende nicht immer zu erkennen. No Problem.
CDLABSRadonP... schrieb:
Wir kannten die grundlegenden Lizenzmodelle, wir kannten die Art und Weise, in welchem Bezug Stock-Cores und wie custom wohl die Oryon-Cores sind, wir kannten die Schlagkräftigkeit von Qualcomms Rechtsabteilung, wir kannten also die grundlegenden Rahmendaten. In diesem Rahmen sehe ich zumindest keine realistische Möglichkeit, dass ARM gewonnen hätte.
Der Punkt ist, eine gute Rechtsabteilung weiß, wann man es auf eine Klage ankommen lassen kann und wann nicht. Deshalb war ich mir sicher, dass der Fall nicht so ganz klar für Arm ist, wie hier alle getan haben. Offensichtlich hatte Arm den Fall auch medientechnisch gut vorbereitet.

Deshalb habe ich mir die beiden Klageerwiderungsschriften von Qualcomm durchgelesen. Kernpunkte waren dass die Oryon automatisch auf die ALA von Qualcomm übergeht und das Oryon keine IP von Arm enthält. Mir war klar dass Qualcomm Argumente hat. Aber wie hieß es schon im alten Rom: Auf hoher See und vor Gericht ist man alleine in der Hand der Götter.

Übrigens das ist mir das untergekommen: https://www.reuters.com/technology/...nsidered-developing-its-own-chips-2025-01-13/
 
ETI1120 schrieb:
Sarkasmus ist für außenstehende nicht immer zu erkennen. No Problem.
Danke dir.
ETI1120 schrieb:
Der Punkt ist, eine gute Rechtsabteilung weiß, wann man es auf eine Klage ankommen lassen kann und wann nicht. Deshalb war ich mir sicher, dass der Fall nicht so ganz klar für Arm ist, wie hier alle getan haben. Offensichtlich hatte Arm den Fall auch medientechnisch gut vorbereitet.
Ja, medial haben sie groß die Werbetrommel gerührt, das stimmt.
ETI1120 schrieb:
Deshalb habe ich mir die beiden Klageerwiderungsschriften von Qualcomm durchgelesen. Kernpunkte waren dass die Oryon automatisch auf die ALA von Qualcomm übergeht und das Oryon keine IP von Arm enthält. Mir war klar dass Qualcomm Argumente hat. Aber wie hieß es schon im alten Rom: Auf hoher See und vor Gericht ist man alleine in der Hand der Götter.
Mit dem Zitat gehe ich nie so mit, das trifft nämlich vor allen Dingen Umstände, in denen mit einseitig bestechlichen (weil eine Partei kein Geld hat) Richtern oder zu inkompetenten Anwälten zu rechnen ist. Beides lag hier nicht vor.*
ETI1120 schrieb:
Ja, das habe ich auch schon gelesen. Und es passt auch mustergültig zu dem, was in letzter Zeit ARM öffentlich gemacht hat. Obendrein passt es aber auch zu einer anderen Linie. (die Idee stammt nicht von mir) Damit Softbank ihr Geld bekommt, gab es zwei Optionen: An Nvidia verkaufen oder an die Börse gehen. Sie haben sich für ersteres entschieden, es wurde (zu großen Teilen übrigens von Qualcomm) verhindert und dann sind sie letzteren Weg gegangen und gingen auf aggressiven Expansionskurs. Anscheinend ist bei dem aber der Menschenverstand auf der Strecke liegen geblieben.

Edit: *Nochmals hierzu, denn ich weiß nicht, ob es klar geworden ist: Ich mag die Faustregel. Aber ich halte sie nur in Situationen eines grundsätzlichen Ungleichgewichts oder bei kleinen Fällen für angemessen. Dicker Fisch vs dicker Fisch unter ähnlichen sonstigen äußeren Umständen halte ich für tatsächlich recht vorhersehbar. (ganz anders eben als Privatperson verklagt Millliardenkonzern, ausländischer Millionenkonzern verklagt inländischen Milliardenkonzern oder oder oder)
 
Zuletzt bearbeitet:
flatline1 schrieb:
Räusper 3dfx
Gab mal ne zeit da hätten viele das auch von 3dfx gesagt.
Naja... 3dfx war ein paar kurze Jahre vorne, war nie das 2t wertvollste Unternehmen der Welt und hat nicht 95% seines Umsatzes mit NON-Gamer-GPUs gemacht.
 
@floh668 Du hast vollkommen Recht, das kann man nicht vergleichen.

Aber etwas will ich noch anmerken: Nvidia macht den Umsatz im DataCenter nicht nur mit GPUs. Die Netzwerkcomponenten haben einen großen Anteil am Umsatz. Hier war der Kauf von Mellanox ein sehr wichtiger Schritt für Nvidia. Die Kombination von AI-Beschleunigern und Netzwerkkomponenten macht Nvidia im Data Center so stark. Wenn man Cluster mit zig tausenden AI-Beschleunigern aufbauen will muss man sie auch verbinden. Und gerade hier hat Nvidia einen vorteil. Es ist kein Zufall dass zur Zeit UA-Link und Ultra Ethernet als Standards entwickelt werden
 
NON-Gamer-GPUs -> Dir ist schon klar das ich damit AI Beschleuniger und den ganzen Rest meine ;)
 
Zurück
Oben