Bericht AMD MI300A & MI300X: Die neue Instinct-Serie ist ein Meilenstein in vielen Bereichen

Convert schrieb:
Mich auch. Es wird nichts dazu gesagt, außer den Ausführungen auf der Webseite. Was es kann, welche Vorteile es bietet und warum man es im Porfolio und für wenn hat.
Der absolute Witz war, dass Alevo V70 2 Minuten auf bei der CES Keynode 2023 dargestellt wurde pure Werte herunter geklatsch. Gar nicht verucht zu erklären ws man mit dm Teil kann etc.

Aber auf der Messe gab es einen Showcase wo man gesehen hat dass man mit dieser Karte z. B. Bildauswertung in echtzeit machen kann. Dazu haben sie einen Server vollgepackt und viele Monitore angeschlossen


Ein längeres Viedeo von Gigabyte zu einem Server voll mit Alevos

Convert schrieb:
Das ist mir klar. Das CDNA 3 gebraucht wird, hab ich ja auch nicht in bezweifelt, nur fehlt mir halt der "Alevo V70" oder "Versal AI" in Groß.
Wie gesagt auf das habe ich auch gewartet. Aber mit den Datentypen passt das nicht für Large Language Models im Data Center. Die Größe der Alevo 70 scheint für andere Use Cases wie live-Analyse von Videostreams ideal zu sein.
Convert schrieb:
Ah sieh an, ein Adaptive Soc auf Basis von Xilinx Versal AI für "Very large models" steht auch auf dem Plan von AMD.. Schade, dass es dazu von AMD keine Infos gab, wann dieser kommen soll, wenn überhaupt. Vielleicht dann nächstes Jahr?
Nun ist die Frage steht oder stand. Eine andere Frage ist was ist XDNA 2? Hat AMD nur die Rechenleistung hochgeschraubt oder auch den Support für FP8 eingebaut?

Eine neue Version der AIE könnte für LLMs-Inferencing interessant sein, und dann wäre eine größere Version sinnvoll. Aber die Frage ist auch ergibt es Sinn denselben Markt mit zwei Lösungen anzugehen? Wir müssen warten was XDNA 2 tatsächlich ist, dann wird die Kristallkugel ein bisschen klarer.

Viel mehr interessiert es wie es hier mit Zen 5 sowohl auf den Desktop als auch auf dem Server weitergeht. Nach dem FAD 2022 war für mich die Frage, auf dem CCD, auf dem IOD oder als XCD? Auf den Roadmaps am FAD 2022 war überall XDNA integriert. Aber die Aussagen von David McAffe bringen mich ins grübeln.

Aktuell gibt auch andere Statements von AMD die besagen, die AI Acceleratoren gehören nicht in die CPU sondern diskret in den Server. Damit antwortet AMD auf die Strategie von Intel bei Sapphire Rapids.

Haben sich die Pläne bei AMD geändert, oder es Geschwätz weil man momentan nicht liefern kann. Natürlich wäre eine AIE zu integrieren etwas ganz anderen als den CPU-Kern mit weiteren Instructionen vollzustopfen.

Convert schrieb:
Was auch noch fehlt ist ein Nachfolger für MI210.
Die MI210 kam auch eher still und leise hinterher.

Convert schrieb:
Also eine Mi310 als PCIe-Karte mit 300W. Wäre leicht realisierbar.
Es ist eine weitere GPU und muss als solches das volle Programm durchlaufen. So etwas bindet auch Resourcen.
Convert schrieb:
Einfach den Interposer halbieren, darauf zwei, statt vier IO-Dies drauf packen mit 4 statt 8 XCDs und mit 96 HBM3, statt 192 HBM3 und schon hat man die MI310 Karte mit 300W.
AMD kann das Teil nicht MI310 nennen.

Als Karte mit halbierten Interposer wäre sie für AMD relativ uninteressant, ein Nischenprodukt. Falls AMD die kleine MI300 so wie die MI200 mit EFB fertigen kann, wäre sie für AMD sehr interessant weil sie für alle denen 96 GByte ausreichen eine Option bieten kann, bei der der Hauptengpass in der Logistikkette entfällt.
Convert schrieb:
Die MI210 kam im März 2022 auf den Markt. Die MI310 müsste demnach spätestens in Q2 2024 erscheinen, wenn AMD genug Fertigungskapazitäten für Advance Packing bekommt...
Die MI210 ist die MI210. Die kleine MI300 wäre die 3. Variante und nicht die 2. Variante. Auch eine kleine MI300 bringt sich nicht selbstängig auf den Markt. Und AMD muss neben der MI300A jetzt ASAP die MI300X auf den Markt bringen.

Die MI250X wurde in den Frontier eingebaut und dann gab es erst Mal kaum Nachfrage. Da war die MI310 als weitere Option wichtig. Laut Q3 Call erwartet AMD mit MI300 in Q1 2024 ca. 400 Millionen Umsatz. Die dritte Option hat IMO momentan keine Prio bei AMD. Wenn die MI300A und MI300X rund laufen, wird die kleine MI300 fertig gemacht.

Ich wäre überrascht wenn eine kleine MI300 vor dem 2. Halbjahr kommt.
Ergänzung ()

Tzk schrieb:
Sehe ich auch so. Wobei natürlich immer die Frage ist wie komplex ein Chip sein muss um seine angedachte Aufgabe erfüllen zu können und wie die Generationen danach aussehen.
Es wird häufig so getan als wäre Intel bei Advanced Packing vorne dabei. Das stimmt aber nicht.

Das große Tara das Intel um die Glasinterposer gemacht hat, sollte auch verdecken, dass Intel kein Fanout kann. Und damit hat Intel eine wichtige Technologie zwischen Substrat und Silizium Interposer gefehlt.

An Glas Interposer forschen viele und Intel ist hier ganz sicher nicht der Pionier. Aber darauf kommt es nicht an, sondern ob man mit Glasinterposer eine Massenproduktion mit guter Ausbeute hinbekommt.

stefan92x schrieb:
Ok, jetzt verstehe ich den Widerspruch zwischen uns, da bin ich tatsächlich anderer Meinung. Wenn sich Lösungen für Intel als Luftschloss erweisen, die die Konkurrenz jetzt in den Markt bringen kann, kann das nicht gut für Intel sein.
Ich habe nicht gesagt dass die Situation gut für Intel ist. Ich habe gesagt es war eine gute Entscheidung.

Die Resourcen die diese Projekte gebunden hätten, stehen jetzt für andere Projekte zur Verfügung. Was sich heute für 2025 als schlecht erscheint kann sich 2027 als genialer Schritt erweisen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tzk
Skysnake schrieb:
Danke, ich werde mir die mal als Abendlektüre reinziehen
Und wenn Du dann noch etwas Zeit hast:

Die Foliensätze und Videos zu der Vorträgen der Hotchips 35 sind öffentlich verfügbar
https://hc2023.hotchips.org/

Ich habe mir bisher nur den Vortrag zu Ryzen 7040 reingezogen. Er ist ganz in Ordnung. Es werden hauptsächlich werden hauptsächlich die Folien vorgelesen.
Bei den Tutorials war ein Schwerpunkt UCI.
 
Ich hätte noch einen Foliensatz vom November.
https://www.eso.org/sci/meetings/2023/RTC4AO/01_03-foley_rtc4ao.pdf
Das meiste wurde schon einmal gezeigt, aber es sind 2 Folien die sehr aufschlussreich sind:

1702133247208.png


Off Package Cooper bedeutet 2 Chips auf dem Mainboard per Leiterbahn
On Package das ist 2 Chips auf dem Substrat per Leiterbahn (ab Zen 2)
Fanout (RDNA 3) oder Silicon Interposer (Vega und CDNA 1 und 3) oder Silicon Bridge (CDNA 2) laufen unter Advanced Packaging, die Werte von oben werden Silicon Interposer oder Silicon Bridge sein. Fanout ist AFAIK ein bisschen schlechter, aber immer noch deutlich besser als On-Package.
Mit 3D Stacked ist eigentlich Hybrid Bonding mit TSMC SoIC gemeint. Dabei ist Schlüssel zur hohen Effizienz dass TSV und Landing PAD nahtlos verschweißt werden. der zweite Aspekt ist die kürzere Signalführung. 3D Stacked sind der 3D V-Cache und beider MI 300 die Kombination aus IOD und XCDs bzw. IOD und CCDs.

Bei den wachsenden Datenmengen ist es unausweichlich, die HBM Stacks auf die GPU zu packen.

Die andere Folie:
1702135074576.png



Aktuell werden alle Probleme die bisher nummerisch bearbeitet wurden daraufhin geprüft ob man mit Algorithmen auf der Basis von AI vereinfachen kann.

Das ist kein Entweder Oder sondern kann, wie die Folie zeigt, auch beides bedeuten.
 
  • Gefällt mir
Reaktionen: LamaMitHut
Das mit sparsity finde ich interessant. Mir ist aktuell nur nicht klar, ob Siensparsity auch auf der RAM Seite endlich unterstützen. Da hat NVIDIA ja nen richtig guten move gemacht mit V100 war es glaub ich. Könnte mir vorstellen das das mit Patenten geschützt ist.

Last, the AMD Matrix Core Technology is now capable of efficiently handling sparse data to optimize machine
learning workloads using matrix INT8, FP8, FP16, BF16. In many neural networks, a high percentage of the
data will be zeroes - this is quite common in attention modules in transformer-based networks like most
LLMs and also in convolution-based networks. The Matrix Core can take advantage of situations where at
least two values within a group of four input values are zero (50%+ sparsity). The sparse non-zero data
is represented in a compact and dense form with additional metadata tracking the locations. The dense
representation of the data fits directly into the Matrix core pipeline and enables doubling the computational
throughput up to an incredible 8K operations per clock for a CU.
 
ETI1120 schrieb:
So bin durch.

Die 128Byte Cacheline Size finde ich noch interessant. Bin gespannt ob die CPU noch bei 64 Byte ist oder nicht.

Unterschiedliche Cacheline Sizes finde ich problematisch.

ETI1120 schrieb:
An Glas Interposer forschen viele und Intel ist hier ganz sicher nicht der Pionier. Aber darauf kommt es nicht an, sondern ob man mit Glasinterposer eine Massenproduktion mit guter Ausbeute hinbekommt.
Genau. Das einzig relevante ist die Massenfertigung.

Wenn es nur darum geht, was möglich ist sind wir an sich Jahrzehnte vor dem was auch im Massenmarkt technisch realisierbar ist.

Wenn es nach technischem machbaren Lösungen ginge hätten wir überall optische Verbindungen...

ETI1120 schrieb:
Die Foliensätze und Videos zu der Vorträgen der Hotchips 35 sind öffentlich verfügbar
https://hc2023.hotchips.org/
Danke, habe ich aus den Augen verloren. Da muss ich dann wohl mal drüber schauen.

ETI1120 schrieb:
Aktuell werden alle Probleme die bisher nummerisch bearbeitet wurden daraufhin geprüft ob man mit Algorithmen auf der Basis von AI vereinfachen kann.
Ja, das ist ja durchaus ein interessanter Ansatz, aber als Physiker bin ich da etwas skeptisch. Bei linearen gutartigen Systemen ist das ja alles ok. Aber das muss man erst beurteilen.

Im Prinzip wird da jetzt halt das gleiche wie mit den klassischen Simulationen gemacht. Geschaut wie weit man die Auflösung runter drehen kann um noch immer ein vernünftiges Ergebnis zu bekommen.

Das heißt aber, dass die neuen Simulationen die klassischen in der Breite ergänzen können, aber eben NICHT völlig ersetzen.

Ich sag mal so. Selbst nen bescheidenen Lüfter kann man mit TB von Daten für 2 Umdrehungen simulieren...
Ergänzung ()

ETI1120 schrieb:
Danke, das ist auch mal ne gute Zusammenfassung der Trends. Muss ich mal intern auf der Arbeit sharen. Das ist ja schon recht wichtig, wenn man jetzt in Zeithorizonten von 5-10 Jahren Plant.

Also z.b. beim Bau/Betrieb von Rechenzentren im MW Bereich.

100MW Rechenzentren wären doch mal ne nette Spielwiese :D
 
Zuletzt bearbeitet:
Skysnake schrieb:
Das mit sparsity finde ich interessant. Mir ist aktuell nur nicht klar, ob Siensparsity auch auf der RAM Seite endlich unterstützen. Da hat NVIDIA ja nen richtig guten move gemacht mit V100 war es glaub ich.


Ohne mich in der Sache genau auszukennen, würde ich sagen ja. Es steht doch ausdrücklich drin dass sie ein kompakteres Datenformat geschaffen haben und dass die Matrixcores direkt mit diesem Datenformat rechnen können.

The Matrix Core can take advantage of situations where at least two values within a group of four input values are zero (50%+ sparsity). The sparse non-zero data is represented in a compact and dense form with additional metadata tracking the locations. The dense representation of the data fits directly into the Matrix core pipeline and enables doubling the computational throughput up to an incredible 8K operations per clock for a CU.

Skysnake schrieb:
Könnte mir vorstellen das das mit Patenten geschützt ist.
Das mit den Patenten in den USA ist so eine Sache. Ich schätze die gültigen Patente in der Größenordnung von 10 % ein. Der Haken ist natürlich, dass vor Gericht Laien beurteilen, ob ein Patent gültig ist. Das amerikanische Patentwesen hat als Hauptfunktion den Lebensunterhalt von Anwälten zu sichern.

Bei der Faulheit der Mathematiker würde es mich wundern, wenn es nicht eine Vielzahl optimierter Notationen für Matrizen gibt. Wenn ich recht habe Nvidia könnte allenfalls eine neue noch nie verwendete Notation und das explizit verwendete Datenformat schützen lassen.


Meiner Meinung nach dienen die Patentanträge in den USA nicht in erster Linie zum Schutz des geistigen Eigentums sondern sind einerseits Handlungsmasse in Patenttauschabkommen und anderes eine Absicherung gegen Patentklagen. Jedes Patent was später als das eigene eingereicht wurde, kann leicht abgewehrt werden. In Europa würden schon die Patentanträge abgewiesen werden.

Ich beschäftige mich mit den Patenten von AMD zu Advanced Packaging weil die sehr gut beschrieben sind und da Details viel besser beschrieben sind als im White Paper oder in den Präsentationen.


Skysnake schrieb:
So bin durch.

Die 128Byte Cacheline Size finde ich noch interessant. Bin gespannt ob die CPU noch bei 64 Byte ist oder nicht.
Unterschiedliche Cacheline Sizes finde ich problematisch.
So wie es verstehe sind das die Caches in der GPU, mit diesen Caches wird die CPU nie direkt kommunizieren.
Skysnake schrieb:
Wenn es nach technischem machbaren Lösungen ginge hätten wir überall optische Verbindungen...
Einer der dümmsten Sprüche war immer "Nicht alles machen was technisch machbar ist". Besser konnte man sich nie als unwissend outen. Das meiste was technisch machbar ist wird nicht gemacht weil es besser Methoden gibt oder weil es zu teuer ist.

Skysnake schrieb:
Ja, das ist ja durchaus ein interessanter Ansatz, aber als Physiker bin ich da etwas skeptisch. Bei linearen gutartigen Systemen ist das ja alles ok. Aber das muss man erst beurteilen.

https://www.olcf.ornl.gov/wp-content/uploads/HPC-AI_Combination_UserMeeting_26Apr2023.pdf

Dass die AI-Leistung der MI300 so stark gestiegen ist, war eine Anforderung für El Capitan. Niemand baut heute einen Superrechner alleine für FP64.


Skysnake schrieb:
Danke, das ist auch mal ne gute Zusammenfassung der Trends. Muss ich mal intern auf der Arbeit sharen. Das ist ja schon recht wichtig, wenn man jetzt in Zeithorizonten von 5-10 Jahren Plant.
Lisa Su hat einen brillanten Vortrag zu Thema Zetta-Skala auf der ISSCC gehalten, aus diesem Vortrag stammen ein paar Folien.

Zum Thema Effizienz gibt es von Sam Naffziger ein paar sehr gute Vorträge.
Skysnake schrieb:
Also z.b. beim Bau/Betrieb von Rechenzentren im MW Bereich.

100MW Rechenzentren wären doch mal ne nette Spielwiese :D
So weit weg sind die nicht. Schau Dir Mal die Supercompter an. Die Rechenzentren haben ca 40 MW Elektrische Leistung.

https://mug.mvapich.cse.ohio-state....UG23_Tuesday_de_Supinski_4_MUG.distribute.pdf


Seiten 6 bis 10 zeigt die Infrastruktur, auch 23 bis 27 könnten Dich interessieren

Auch die Beschreibungen zu den Speicherlösungen könnten Dir gefallen.

Ein Video zur Infrastruktur
 
ETI1120 schrieb:
Ohne mich in der Sache genau auszukennen, würde ich sagen ja. Es steht doch ausdrücklich drin dass sie ein kompakteres Datenformat geschaffen haben und dass die Matrixcores direkt mit diesem Datenformat rechnen können.

The Matrix Core can take advantage of situations where at least two values within a group of four input values are zero (50%+ sparsity). The sparse non-zero data is represented in a compact and dense form with additional metadata tracking the locations. The dense representation of the data fits directly into the Matrix core pipeline and enables doubling the computational throughput up to an incredible 8K operations per clock for a CU.
Lese mal bitte nochmal den gesamten Text dazu. Es ließt sich für mich so, als ob die Metadaten auf L2 Basis vorgehalten werden. Sprich im Memory liegen die Daten wohl noch normal.

Wäre bezüglich MI300A sonst auch zwingend nötig die Sparsity auch in der CPU zu unterstützten.

ETI1120 schrieb:
So wie es verstehe sind das die Caches in der GPU, mit diesen Caches wird die CPU nie direkt kommunizieren.
Ja, ist aber auch egal. Mir geht es um die Zugriffsgranularität. Die CacheLine Size ist ne wichtige Größe und teilweise auch in Algorithmen eine explizite Größe die verwendet wird. Hatte z.b. mal nen Algorithmus bei dem die Array Struktur explizit von der CacheLineSize abgehängt hat.

ETI1120 schrieb:
So weit weg sind die nicht. Schau Dir Mal die Supercompter an. Die Rechenzentren haben ca 40 MW Elektrische Leistung.
Ich meinte nicht das es so was gibt, sondern das ich selbst so nen Teil betreibe bzw als Spielwiese habe ;)
 
ETI1120 schrieb:
Die Kiste mit den 4 APUs gefaellt Dir nicht so arg?
die scheint eher für hochintegrierte lösungen zu sein wo man CPU + GPU gleich verbindet und in tiles anordnet. das ist halt so weit weg von möglichen anwendungen meinerseits wie es nur sein kann.

2 CPU + 8 MI300X hingegen.. hehe :D
 
TigerherzLXXXVI schrieb:
Ich habe gerade eben die News gelesen, dass Microsoft für seine nächsten Rechenzentren auf MI300X setzen wird (Quelle: WinFuture).
Den Artikel finde ich ein wenig komisch. Nvidia interessiert es nicht.

AMD hat am Mittwoch deutlich gemacht, dass sie Aufträge von Cloudprovidern haben. Der von Microsoft ist nicht der einzige.

Microsoft nutzt intern seit Jahren AMD Instinct, wie Gopi Kumar neulich auf der Microsoft Ignite es vorgestellt hat:

Eine Kiste von Microsoft mit AMD Instinct MI250X ist im Bereich von Rang 15 der Top 500.
Die Kiste von Microsoft mit Nvidia H100 ist auf Rang 3.

Und so schätze ich auch generell das Engagement von Microsoft ein. Und auch der anderen Cloudprovider die sich committed haben. Interne Lasten gehen auf die MI300, dann haben sie mehr H100-Kapazität für die externen Kunden. Und wenn es intern läuft und Kapazität mit der MI300 frei ist, kann man es dem ein oder anderen Kunden zeigen.

TigerherzLXXXVI schrieb:
Das heißt einen Großauftrag hat AMD offensichtlich sicher. Hoffentlich werden noch weitere IT-Firmen diesem Vorbild folgen, um die Marktdominanz von Nvidia zu schwächen.
Es ist doch ganz einfach, wenn ein Unternehmen die erforderliche Anzahl von H100 von Nvidia bekommt, nimmt es die H100.

Wenn jemand ein System mit der MI300 bestellt und irgend etwas geht schief, ist erst Mal die MI300 schuld und die Person muss sich rechtfertigen. Es spielt keine Rolle, ob das Problem überhaupt mit der MI300 und dem Softwarestack zu tun hat.

Das führte in den 70iger Jahren des letzten Jahrhunderts zum Spruch, "Es wurde noch niemand dafür entlassen, einen Comptuter bei IBM gekauft zu haben". Seit Anfang der 2000 gilt dies mit "X86-Server bei Intel" Unternehmensservern für Intel und in den letzten Jahren gilt dies mit "AI-Acceleratoren bei Nvidia". Durch diese positive Grundhaltung der Enterprise-Kunden zu Intel, wird es Intel viel leichter haben Unternehmen AI-Lösungen zu verkaufen als AMD.
 
Skysnake schrieb:
Die Apu Version ist eher für klassisches HPC und legacy bzw Enterprise interessant.
HPC ist mir klar, aber was genau macht die MI300A denn für Enterprise interessant? Vom Bauchgefühl her hätte ich da gesagt, dass die Abweichung vom üblichen Design damit zu groß ist?
 
Nein genau das Gegenteil ist der Fall. Das Design ist VIEL näher an dem dran was man kennt. Nämlich SMP Maschinen. Also keine explizite Speicherverwaltung des Offloading targets. Ok man muss bei OpenMP syncs einbauen, das muss man je nachdem auch heute schon.

Das ist einfach mit OpenMP extrem nah an dem was die Leute von den reinen CPUs her kennen. Das ist nen riesen Vorteil. Zudem lohnt es sich schon früher, bzw man fällt nicht so leicht auf die Schnauze und wird langsamer als CPU only.

Das sind die größten Vorteile für die Bereiche und meiner Meinung nach auch wichtigere als ein bischen mehr Peak Performance. Das interessiert keine Sau am Ende vom Tag.

Mit dem echten unified Speicher eröffnet man komplett neue Problemfelder sie vorher unmöglich waren wegen den Latenzen.
 
  • Gefällt mir
Reaktionen: ETI1120
@ETI1120

AMD hat es am Hardware-Markt nicht leicht alteingesessene Strukturen und bestehende Vorurteile aufzubrechen. Selbst wenn sie die bessere Hardware und Software anbieten würden...

Für mich ist es ein Thema von Vernunft. Im Grunde genommen dreht sich alles in der Wirtschaft um Preis-Leistung. Wenn AMD bei diesen Aspekt auf Augenhöhe mit Nvidia ist (z.B. RTX 4000 vs RX 7000), warum kaufen die meisten Leute dennoch fast ausschließlich die Produkte des Marktführers? Dieses Verhalten ist für mich verrückt und ein Ausdruck für die generelle menschliche Verdummung. Im Jahr 2010 lag die Marktverteilung von Gaming-Grafikkarten noch bei gesunden 55:45 zwischen Nvidia und AMD... Ich frage mich daher zurecht, wie es zum heutigen Status Quo kommen konnte.
 
Zuletzt bearbeitet:
Artikel-Update: Eine Woche nach AMDs Präsentation hat Nvidia den vom Konkurrenten gezeigten Benchmarks, die auch Werte für die eigene H100-GPUs enthielten, widersprochen. Per öffentlichkeitswirksamen Beitrag im Nvidia Developer Blog wirft das Unternehmen dem Wettbewerber vor, H100 nicht auf für die Plattform optimierter Software getestet zu haben.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Wäre das der Fall gewesen, hätte das eigene Produkt den Benchmark im Large Language Model Llama 2 70B in 1,7 statt der von AMD genannten 3,6 Sekunden ausgeführt – was schneller und nicht langsamer als die von AMD für MI300X genannten 2,5 Sekunden ist. Eine Reaktion von AMD liegt bis dato nicht vor.

Dass Hersteller in ihren eigenen Benchmarks Best-Case-Szenarien abdecken, hat Tradition. Heutzutage beschränkt sich das oftmals auf die Wahl der Software und weniger auf Hardware-Einschränkungen. In dem jetzigen Fall lag ein wesentlicher Einflussfaktor Nvidia zufolge an der Schnittstelle zwischen Hardware und Software.

Nvidia wiederum nutzt den Anlass um den von AMD präsentierten Benchmarks eigene H100-Ergebnisse in – laut Nvidia – viel praxisrelevanteren Szenarien gegenüberzustellen. Die draus resultierenden wesentlich längeren Balken haben nichts mit dem von AMD genutzten Szenario zu tun, vermitteln beim schnellen Blick auf das Diagramm aber zweifelsohne eine haushohe Überlegenheit der Nvidia-GPU. Auch das dürfte kein Zufall sein.
 
  • Gefällt mir
Reaktionen: Millennial_24K und ETI1120
Am Ende interessiert es die tatsächliche Kundschaft herzlich wenig, wie sich die Gerätschaften in irgendwelchen Szenarios schlagen, wichtig ist, was sie in der jeweils eigenen Softwareumgebung zu leisten in der Lage sind.
 
  • Gefällt mir
Reaktionen: Millennial_24K
Da hat ja Nvidia eine ganze Weile gebraucht.

Und wenn ich es richtig verstehe ist das Argument dass, sie per Software optimieren können.

Also vergleichen sie ihre Hardware mit Software opmierungen mii einer Konkurrenz Hardware ohne Softwareoptimierung. Sobald das auch bei AMD bereit steht...
 
  • Gefällt mir
Reaktionen: Millennial_24K und Northstar2710
incurable schrieb:
Am Ende interessiert es die tatsächliche Kundschaft herzlich wenig, wie sich die Gerätschaften in irgendwelchen Szenarios schlagen, wichtig ist, was sie in der jeweils eigenen Softwareumgebung zu leisten in der Lage sind.

Nimmt man die laute Minorität hier auf CB als Maßstab, so ist cleveres Marketing eines DER Kaufargumente.

Amüsant.
 
  • Gefällt mir
Reaktionen: Millennial_24K und SpartanerTom
ETI1120 schrieb:
Da hat ja Nvidia eine ganze Weile gebraucht.

Und wenn ich es richtig verstehe ist das Argument dass, sie per Software optimieren können.

Also vergleichen sie ihre Hardware mit Software opmierungen mii einer Konkurrenz Hardware ohne Softwareoptimierung. Sobald das auch bei AMD bereit steht...
Was ist bitte spezielle Hardware ohne spezielle Software wert ?
 
Wow is der Fett! O_O

1702566708996.png


@Topic

ich wünsche AMD damit einen super Start. Attacke! Dann klappts vielleicht auch mal wieder mit mehr Geld im GPU Bereich Nvidia aufzuholen
 
  • Gefällt mir
Reaktionen: Dgini
zum Gegenschlag von Nvidia:
Die draus resultierenden wesentlich längeren Balken ...

Dat lob ick mir 👌 ✌️ jetzt tun se richtig aufeinander eindreschen.
Alles dabei...

Wer hat den Größeren 😂 herrlich, Bring it on, total cage fight 🤜😮‍💨
 
  • Gefällt mir
Reaktionen: Northstar2710
Zurück
Oben