News Quartalszahlen: AMD wächst im Server, wäh­rend Radeon stark einbüßt

duskstalker schrieb:
bei den boards hat doch keiner was davon wenn die doppelt so teuer sind. pcie gen5 ist komplett nutzlos - das geld und der aufwand, der in eine gen5 kompatible signalintegrität fließt, ist völlig verschwendet. die zwei chipsätze, die zwei zen IODs sind, sind auch komplett verschwendet - die werden da als pcie lane switch eingesetzt. dafür $40 silizium auf ein board kleben? völlig banane. und ein weiterer teurer teil ist eine spannungsversorgung, die knapp 1000w schafft (auf high end boards) und die beste am5 cpu verbraucht so 130w im peak, eher deutlich drunter. und mehr als 16 kerne werden es wohl auch nicht mehr.
man könnte am5 boardseitig kostenneutral auf 44 gen4 pcie lanes umstellen - die bisschen extrakosten für einen größeren sockel würden locker von dem wegfall der zwei völlig überzogenen chipsätze aufgefangen werden - dann reicht nämlich auch - wie bei x399 - ein $10 asmedia chipsatz für ein bisschen sata und usb und der rest ist direkt an die cpu angebunden.

wenn man dabei ist, könnte man auch single slot quad channel statt dual slot dual channel ddr5 einsetzen.

ich bemängle nicht den absoluten preis, sondern die abartig schlechte preis leistung bei den boards.

wegen mir können boards 300-400€ kosten, aber dann muss da auch ein bisschen mehr rumkommen als gpu+3 nvme ssds. teuer weil gut = ok. teuer weil teuer = nicht ok.

zumal mir aus endkundensicht letztendlich auch völlig egal ist, warum die boards so teuer sind. das angebot passt einfach nicht - das zeigt jede verkaufsstatistik. x670E ist ein totaler rohrkrepierer. warum amd für am5 gleich 5 chipsatzversionen braucht, erschließt sich mir auch nicht.



ja genau. dieses "x kerne reichen" hatten wir bei den dualcores und den quadcores schon. wir sind jetzt seit 2019 - also 5 jahren - bei 16 kernen auf dem desktop. das ist 1:1 die selbe situation wie mit den intel quadcores. und nächste generation zen kommen auch nur wieder 16 kerner.

der große knackpunkt bei amd sind die chiplets, und dass sie cpu+gpu+npu als chiplets anbieten könnten, die man nach unterschiedlichen anforderungen jeweils kombineren könnte.

jetzt hat amd mit am5 ein package, auf das maximal zwei 8 kern CCDs und ein kleiner IOD chip passen.
Was Du alles spekulierst...
Also Zen5 kommt mit 16 Kern CCDs und 32 Kern CCDs. Also für normalsterbliche sind wohl 16 Kerne auf einem CCD gut genug. Und für den Massenmarkt reichen 16 Kerne auch. Das wiederum sollte den Vorteil haben, daß bei den X3D diese halbgare Lösung bei 12 und 16 Kernern wegfällt, ergo die gesamte CPU bekommt mehr Cache.
Ob PCIe 5 Verschwendung ist, darüber kann man sich trefflich streiten. Es zwingt dich auch niemand ein Board mit 2 Chipsets zu kaufen. Und $40 für einen PCIe Switch ist eigentlich recht günstig. Ich erinnere mich noch an die PXE switches auf den Z97, X99 Boards. Das kostete ein solcher Chip sicher nicht weniger. Wenn man aber x8 Grakas desinged um Chipfläche zu sparen, dann macht PCIe 5.0 (demnächst 6) schon recht viel Sinn. Das Signalintegrätsproblem betrifft ja nicht nur PCIe, das betrifft auch DDR5. Du willst mir jetzt nicht erklären, daß das unsinnig wäre?
Was Strix Halo betrifft, das ist anscheinend klein genug, daß ein Stack Infinity-Cache (32MB) draufpasst. Das ist garantiert ein Chiplet. Die NPU ist entweder ein Funktionsblock in der CPU oder (wahrscheinlicher) ein Funktionsblock im I/O-Die und kein eigenes Chiplet, so wie die 2 CU Grafik ja auch im I/O-Die sitzen. Also diese Kombimöglichkeiten hat sicher auch AMD erwägt, aber es kostet alles Zeit und Geld und man kann nicht alles auf einmal machen.
Also 'mal abwarten und Tee trinken, zur Computex erfahren wir sicher alle mehr.
Ergänzung ()

kachiri schrieb:
Ne. Ernsthaft. In dem Segment, wo am Ende die Kinder entscheiden, was gekauft wird, gibt es von NV doch gar nichts großartiges. Von AMD aber auch nicht :x
Doch, da wäre mal die Switch, dann gibts die Playstation und wer's mag kann auch zu einer XBOX greifen, also ich denke, daß ist wohl eher bei Kindern vertreten vor allem die Switch :)
Ergänzung ()

Matthias B. V. schrieb:
Weil RDNA4 wieder nur Teilwerk ist statt ein komplettes Line-Up... Man muss ja nicht den Bereich der 5090 bedienen aber 5060 bis 5080 sollte man schon die Stirn bieten können. Und danach sieht es nicht aus!
Dem stimme ich so nicht zu. nVidia wird wieder massiv zulangen, also wenn eine 5080 1200€ kostet, dann ist das vollkommen Banane wenn man damit nicht konkurieren will, weil's bei den Stückzahlen wirtschaftlich keinen Sinn ergibt. Wenn man die Leistung einer 7900XT als 8800XT um 600€ bekommt, diesmal mit besserer RT Leistung reicht das für die Masse sicher aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm
Clonedrone schrieb:
Habe mir eine 7800 XT gegönnt, weil die dann doch 100€ billiger war wie die 4070. Aktionspreise bei Nvidia gibt es wegen hohen Nachfrage nie.

Das hat aber auch eine Kehrseite: Stabilere Preise = stabilerer Wiederverkaufspreis. Die Sache mit dem Wertverlust. RDNA2 gibts die RX 6800 aktuell z.B. für unter 400 Euro -- das ist lange Zeit eine ~600€-Karte gewesen. Auch die RX 6600 war nicht vom Start weg positioniert, wie sie jetzt dasteht. Tatsächlich stellte AMD sie 1:1 gegen die RTX 3060 (die mit 12GB) auf. Aber Computerbase fand ja damals schon im Test, dass sie im Vergleich zum restlichen RDNA2-Lineup abfiel, das stärker Druck machte (die extrem enttäuschende 6500XT mal ausgeschlossen, die trotz ihrer Namensgebung samt Kürzel ganz weit weg von der 6600er war -- und selbst ein Downgrade zu ihrem Jahre älteren Vorgänger 5500XT...)
 
Zuletzt bearbeitet:
MrHeisenberg schrieb:
Das ist für dich nicht nachvollziehbar?
Worin war Nvidia zu der Zeit denn besser als AMD? Mir fallen da ein paar Dinge ein:
  • RT und zwar massivst, auch heute noch
  • DLSS/FG
Aber daran wird es sicher nicht gelegen haben...
Erstens: DLSS war zu Beginn einfach schrecklich.
Zweitens: RT ist nachwievor nicht massenfähig. RT auf einer 4060 ist genauso unsinnig wie auf mancher AMD Karte. Wenn RT mal läuft, ohne daß es Leistungseinbrüche gibt, dann ist es massenfähig, bis jetzt ist es bei RT-heavy Titeln der 4090 vorbehalten eine sinnvolle Leistung rauszubekommen.
Drittens: FG funktionert bei AMD ausgesprochen gut, da gibt es kein Alleinstellungsmerkmal von nVidia. Man kann hoffen, daß FSR 3.1 auch endlich die reinen Upsampling Probleme angeht, die bei AMD vermehrt auftreten. Aber perfekt ist keine dieser Lösungen.
Ergänzung ()

incurable schrieb:
Sei Dir bitte im Klaren, dass AMD Dir Deine Treue durch nichts vergelten wird.
Doch, OpenSource Treiber im Linux Kernel, das ist einfach cool :)
 
  • Gefällt mir
Reaktionen: jonderson und eXe777
Apocalypse schrieb:
Mit Sicherheit, aber das meinte ich nicht, ich meinte das damals iirc die Straßenpreise generell deutlich unter MSRP waren.
Du versuchst doch bloß, mich dazu anzuspornen auf den Boden zu gehen und die inserierten Preise in der c't im 2. Quartal 2000 (das war die Phase, in der CuMine @1 Ghz außerhalb von OEM-Systemen ein Papierflieger war) nachzublättern. 🤣😉
 
  • Gefällt mir
Reaktionen: MalWiederIch und Apocalypse
Yosh1907 schrieb:
Was mich persönlich an den AMD Gpus stört ist dass ich kein CUDA bekomme. Ich benötige die aber für so unfassbar viele KI Programme also bleibt mir am Ende nichts anderes übrig als zu Nvidia zu gehen (obwohl ich deren Preispolitik eigentlich auf gar keinen Fall unterstützen möchte)

Hatte auf Zluda gehofft aber das wurde ja leider fallen gelassen.
1. nvidia hatte mit Zluda ein Problem. Ergo wurde es nicht von AMD fallengelassen.
2. Bist Du nur zu faul, Dich auf AMD HW einzulassen, erst kürzlich wurde ein neues Framework vorgestellt, daß CUDA auf AMD CPUs kompilieren kann: https://github.com/gthparch/CuPBoP-AMD Mehr technische Details gibts hier: https://dl.acm.org/doi/pdf/10.1145/3624062.3624185
Ergänzung ()

HAse_ONE schrieb:
Müsste ich jetzt eine Graka kaufen, würde es wahrscheinlich eine Nvidia werden.
Na wenn dich RT nicht interessiert ist eine 7800XT immer noch ein gutes Stück Hardware und mit der 8800XT sollte es noch besser werden :)
 
  • Gefällt mir
Reaktionen: Icke-ffm
aldaric schrieb:
AMD hatte in der Vergangenheit auch immer wieder konkurrenzfähige Produkte und war teilweise in verschiedenen Marktsegmenten sogar noch billiger und trotzdem hat ein Großteil der Kunden blind nVidia gekauft.
Naja, ich hatte eine 6900XT, war mit der Karte auch zufrieden vor meiner 4090.
Die Treibersuite war "nicht mein Fall" und etwas buggy.
Ansonsten ist es halt so, NV bleibt am Ball und liefert im jedem Zyklus in der Regel ab.
AMD bringt immer nur einen Achtungserfolg für eine Gen und dann lassen sie wieder alles gut sein...
Auch wenn RX7000 nicht gelaufen ist, hätte man jetzt weiter pushen müssen in RX8000 und nicht wieder in der Mittelklasse die abgefallenen Restekunden von NV aufsammeln müssen... denn so wird es laufen...
Desweiteren finde ich es einfach nur grausig, dass AMD immer den Heilsbringer mit offenen, schlechteren Features (FSR/FMF usw.) liefert anstelle mal alles Hardwaregebunden zu machen.
Gute Features, verkaufen Produkte, auch wenn sie nicht besser sind wie die Konkurrenz.
Siehe Apple, siehe NV.
Beide sind gut, weil sie natürlich gute Hardware liefern, aber die Software trägt dazu auch bei.
Und die ist halt bei NV viel besser als bei AMD....


Ich hoffe ja immer noch - wenn auch vergeblich - auf einen Monsterchip aus der Versenkung.
Mit einem Move, welchen NV nicht kommen sehen hat... (also für kommende Gen...).

Würde auch wieder AMD kaufen, ansonsten war ich ja zufrieden.
Wenn es Konkurrenz zur 5090 gibt ist die für mich sicher eine Option.

Andernfalls... hier Jensen, hast meine 3K€ ... vielen Dank, dass drauß kein AI Monstrum für 20K gemacht und verkauft hast...
 
Naja, für wen ist schon eine AMD-GPU interessant? Vielleicht für so Leute wie mich, die ne nette langlebige GPU unter Linux haben wollen und nicht so viel auf top Gaming-Performance legen (siehe meine inzwischen steinalten RX480). Vielleicht auch für so Mittelklasse-Leute. Aber das sind alles keine Kunden, die regelmäßig richtig Geld liegenlassen.
 
MrHeisenberg schrieb:
Bin da nicht so im Thema, aber laut Google geht das immer noch und es sieht für mich so aus, als würde man die Karten einfach nicht mehr Supporten, weil zu alt. Das es technisch nicht geht, kann ich da jetzt nicht sehen.
RTX Voice verwendet einfach keine Tensor-Cores also war das ne Ausrede und ein "Verkaufsargument". Das selbe mit FG, als ob eine RTX 2000 Karte das nicht auch hinbekommen könnte. Zum Glück hilft Euch dann AMD mit FSR 3.1 wo man auf "alten" Karten (also RTX 3000) DLSS mit AMD FG kombinieren kann, wenn es denn das Spiel unterstützt.
Das ist tatsächlich etwas, was nVidia unglaublich unsymphatisch macht. Immerhin haben sie es heuer geschafft dem alten XP Treiber GUI ein neues Gesicht zu geben :)
 
  • Gefällt mir
Reaktionen: jonderson
ETI1120 schrieb:
Intel hat sich eben dem Irrglauben hingegeben sie wären unschlagbar auch wenn sie auf der faulen Haut liegen.
Intel hat eine verlorene Dekade in der Prozessentwicklung erlebt. Und das ganz ohne dass da jemand faul gewesen wäre.

ETI1120 schrieb:
Apple hat es sogar geschafft die CPU Architekten zur Konkurrenz zu treiben.
Die haben auf ihren Lohnzettel geschaut und gesehen, dass sie ihr Wissen am besten mit einer Neugründung zwecks Aufkauf durch die Konkurrenz versilbern können.

Hat auch funktioniert. Also 👍
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch, MrHeisenberg und Apocalypse
Eli0t schrieb:
RTX Voice verwendet einfach keine Tensor-Cores also war das ne Ausrede und ein "Verkaufsargument".
Das war keine Ausrede. Die 1080 TI ist 7 Jahre alt. Du kannst nicht erwarten, dass du nach so langer Zeit noch Features geschenkt kriegst. Dass das technisch nicht geht, wird Nvidia wahrscheinlich nie behauptet haben.
Jede weitere Grakageneration, die Supportet wird, bedeutet mehr Arbeit/Kosten, deswegen kann ich das nachvollziehen.

Eli0t schrieb:
Das selbe mit FG, als ob eine RTX 2000 Karte das nicht auch hinbekommen könnte.
Nvidia hat nie behauptet, dass FG nicht auch auf 2000er Karten laufen würde. Das Gegenteil war sogar der Fall, aber die Erfahrung wäre nicht so toll wie auf Ada, deswegen wurde es gelassen. Das ist die offizielle Aussage seitens Nv.

Eli0t schrieb:
Immerhin haben sie es heuer geschafft dem alten XP Treiber GUI ein neues Gesicht zu geben :)
Das ist ein absolutes Luxusproblem. Wenn man nur die Optik der GUI kritisieren kann, dann hat Nv alles richtig gemacht.
 
  • Gefällt mir
Reaktionen: pietcux und MalWiederIch
Unti schrieb:
mit offenen, schlechteren Features (FSR/FMF usw.) liefert anstelle mal alles Hardwaregebunden zu machen.
FSR3 FrameGen ist lt Computerbase Tests auf Augenhöhe mit DLSS3 FrameGen.
Mit AMD Fluid Motion Frames - AFMF als treiberbasierte Lösung hat man etwas, was nur RX6000 und RX7000 Karten bieten am Markt.
 
  • Gefällt mir
Reaktionen: Eli0t, eXe777 und Unti
Matthias B. V. schrieb:
Naja so wenig Aufmerksamkeit wie man Radeon gibt ist dies neben der generellen Marktentwicklung auch selbst verschuldet…

AMD hatte sicherlich viel Wohlwollen da die Leute auf ein Gegengewicht zu Nvidia hofften aber wenn man nicht liefert und die Kunden mit durchschnittlichen Produkten sowie fragwürdigem Marketing und Preisen vergrault… Wird mit RDNA4 nicht besser wenn die Gerüchte stimmen.
Die RX 7900 XTX ist doch super, laut Testberichten. Nur inder Raytracingleistung hängt AMD hinterher.
Ergänzung ()

Unti schrieb:
Beide sind gut, weil sie natürlich gute Hardware liefern, aber die Software trägt dazu auch bei.
Und die ist halt bei NV viel besser als bei AMD....
Aber die NVIDIA Software ist ja so furchtbar hässlich und sieht veraltet aus. Was da denn besser?
 
Zuletzt bearbeitet:
Nooblander schrieb:
FSR3 FrameGen ist lt Computerbase Tests auf Augenhöhe mit DLSS3 FrameGen.
Mit AMD Fluid Motion Frames - AFMF als treiberbasierte Lösung hat man etwas, was nur RX6000 und RX7000 Karten bieten am Markt.
Ich weiß, und das ist auch gut so. Ändert nichts daran, dass NV im Thema Upscaling etc. dennoch weiterhin besser ist und die Entwickler mehr supportet (weil NV natürlich exorbitant mehr Geld und Manpower hat).
NV ist halt einfach aktiver was das alles angeht.
Ich selber find aber AMD dennoch gerade auf Augenhöhe (jaja auch wenn man keinen 4090 Konter hat).
Nur RX8000... da schauderts mich schon wieder... hoffentlich wird das alles nicht Wahr...
 
AFMF ist wirklich ein Feature das "nice to have" ist und bei NV unverständlicherweise fehlt. Nach dem Motto lieber Haben und selbst entscheiden ob man es nutzen möchte oder nicht.

FSR3 gibt es seit Oktober 23, zur Computex24 ist 3.1 angekündigt. Kann sich jeder selbst ausmalen wie lang und in welchem Umfang dann wieder entsprechende Implementierung dauern wird.

Hier die aktuelle Gegenüberstellung zu DLSS

AMD
Screenshot 2024-05-02 214330.png


NV

https://www.nvidia.com/en-us/geforce/news/nvidia-rtx-games-engines-apps/


Was aber bleibt und entscheidend ist was auch CB so schreibt

Zitat

Die Bildqualität​

Bei der Bildqualität zeigen sich zwischen DLSS und FSR Frame Generation keine praktischen Unterschiede. Sowohl AMD als auch Nvidia erreichen bei den künstlichen Bildern eine erstaunlich hohe Bildqualität, sodass in Bewegung eigentlich nie zu erkennen ist, welches Bild nun gerendert und welches generiert worden ist. Das ist schon durchaus beeindruckend.

Der optische Unterschied kommt durch Super Resolution​

Die grafischen Unterschiede entstehen beim Upsampling also nicht durch Frame Generation, wohl aber durch Super Resolution. Denn hier ist Nvidias DLSS AMDs FSR weit überlegen, je niedriger die Auflösung und je aggressiver der Modus, desto größer ist der Unterschied. Bezüglich des SR-Algorithmus muss AMD unbedingt Fortschritte erzielen, um konkurrenzfähig zu sein.
 
  • Gefällt mir
Reaktionen: Unti
Also ist die AMD Software doch besser, du magst nur lieber altmodisch.
Die Overclocking und Undervolting Funktion finde ich äusserst praktisch, je nach Spiel.
 
Eli0t schrieb:
1. nvidia hatte mit Zluda ein Problem. Ergo wurde es nicht von AMD fallengelassen.
2. Bist Du nur zu faul, Dich auf AMD HW einzulassen
1. Ich bezog mich auf diesen Artikel https://www.golem.de/news/ki-beschl...litaet-und-laesst-sie-fallen-2402-182149.html
2. zu faul? Du musst mal bisschen locker bleiben. Ich hab ein Dual PC Setup und in einem der Rechner ist eine 6900 Xt drin. Dennoch danke für den Link, ich werde es mal testen und schauen ob es funktioniert oder ich es zum laufen bringe.

Edit: Installation via Linux. Ja ne dafür bin ich dann am Ende tatsächlich zu faul.
 
  • Gefällt mir
Reaktionen: MrHeisenberg
Nooblander schrieb:
FSR3 FrameGen ist lt Computerbase Tests auf Augenhöhe mit DLSS3 FrameGen.
Mit AMD Fluid Motion Frames - AFMF als treiberbasierte Lösung hat man etwas, was nur RX6000 und RX7000 Karten bieten am Markt
Kann ich bestätigen. Es verdoppelt die fps und läßt sich ja mit Low Latency und dem Schärfeangleich kombinieren. Sieht gut aus. Ich habe bei WRC Generations keinen Unterschied erkannt zum nativen Modus.
Leider kann man ja die fps nicht begrenzen.
Ergänzung ()

Unti schrieb:
und hat keine Pfuschi Huschi Funktionen drin (Gamestreaming? / Appanbindung? / OC und Monitoringmüll - den jeder der was gscheites will über RTSS und Zusatztools nach eigenem Gusto einstellt + Afterburner).
Seit die Nvidia ersetzt wurde gegen AMD kann ich mir den Afterburner ersparen. Monitoring funktioniert auch problemlos. Keine Ahnung, was dein Problem ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snoop7676
Unti schrieb:
Nennt mich ewig gestrig, aber die NV Systemsteuerung (nicht die NV App oder das huren Geforce Müll Experience) funktioniert wenigstens gscheit und das seit Jahrzehnten.
Ich mag den Funktionsumfang und die nüchterne Oberfläche aber die Verzögerungen, die bei der Verwendung dieser Oberfläche entstehen sind eine Katastrophe.
 
Zurück
Oben