CrustiCroc schrieb:
Es muss wirklich schmerzen.
Langsam wird es langweilig.
Fanboytum ist auf beiden Seiten und generell schlicht Unsinn. Dass es möglichst für jeden ein passendes Produkt gibt, ist das einzige relevante Kriterium.
Der "Abstieg" AMDs, wie du es nennst, muss daher auch niemandem leid tun. Das passiert eben, wenn eine Firma in Entwicklung und Fokus falsche Entscheidungen trifft und zusätzlich dank kleineren Budgets in Sachen Features und Software dauerhaft hinterherhinkt.
Allerdings liegst du m.E. falsch, wenn du diese Entwicklung als eine kürzliche betrachtest. Im Prinzip fährt AMD seit den ersten DX10-Grafikkarten ein ständiges Auf und Ab und bekommt einfach keinen Fuß auf den Boden, der dort für mehr als 1-2 Generationen bleibt.
Die logische Konsequenz war und ist über Zeit schwindendes Kundenvertrauen und ein sich entsprechend entwickelnder Marktanteil, zumal Nvidia sich vergleichbare Aussetzer eigentlich nie geleistet hat. Ich meine, schauen wir doch mal auf den genannten Zeitraum zurück:
2007: Radeon HD 2000-Generation, absolut nicht konkurrenzfähig gegen Geforce 8, Ehrenrunde mit HD 3000 folgte. Daher keine Konkurrenz im High-End. Aufholjagd mit HD 4000, dann wohl eine der besten Radeon-Generationen mit HD 5000 in 2009. Auch dort allerdings konnte man die absolute Leistungsspitze nie erobern, die blieb bei Nvidia, die demnach auch synonym mit den schnellsten Grafikkarten blieben. Also: Keine Konkurrenz im absoluten High-End.
2011: Mit GCN in Gestalt der HD 7970 verpasste man den Sprung auf den "Big GPU"-Zug. Nvidia hielt daraufhin sein Flaggschiff zurück, brachte eine Mittelklasse-Karte als High-End (GTX 680) und molk das eigentliche Flaggschiff (Titan) über die GTX 700-Serie hinweg als erste 1000 €-GPU kräftig. AMDs Antwort (Hawaii, R9 290X) kam mit sehr starker Verzögerung, wodurch man im High-End monatelang die zweite Geige spielte.
2015: Nachdem man über sehr lange Zeit nichts anderes getan hatte als die alten GCN-Chips in verschiedenen Refreshes zu melken, kam mit den Fury-Karten endlich wieder etwas Neues - allerdings wieder sehr spät und mit wenig Speicher. Daher keine wirkliche Konkurrenz im High-End.
2017: Das legendär schlechte Vega-Marketing ist ja nicht ohne Grund ein Meme. Auch kamen Vega 64 und 56, obwohl ganz allgemein nicht schlecht, wieder sehr spät. Keine Konkurrenz im High-End.
2019: Erneuter Reboot mit RDNA, begleitet von Blackscreen-Berichten und co. Keine Konkurrenz im High-End.
2021: RDNA2 war die beste Radeon-Generation seit langem, aber extrem schlecht verfügbar. Diesmal war man an der Leistungsspitze zumindest nahe dran, aber trotzdem war Nvidia letztlich Leistungsführer.
2023: Mit RDNA3 stolperte man erneut und konnte in Sachen Effizienz und Leistung nur unzureichend an RDNA2 anknüpfen. Außerdem - oh Wunder, bot man erneut keine Konkurrenz am absolut oberen Ende an.
2025: RDNA4 liefert den nächsten Reboot ...
Diese unvollständige Darstellung zeichnet ja trotz Lücken ein recht eindeutiges Bild: Die Leistungsführerschaft hat man Nvidia im Prinzip seit bald zwei Jahrzehnten nicht mehr abringen können. Das hinterlässt Spuren bei der Kundschaft, die dadurch eben nicht selten von "Geforce" als Synonym für die schnellsten Grafikkarten hört. Das Effizienzrennen konnte man hin und wieder für sich entscheiden, aber eben auch nicht durchgängig - außerdem ist die Marketing-Zugkraft dieses Argumentes häufig viel kleiner.
Hinzu kommen häufig späte Releases (bei Hardware und Treibern im Übrigen, wobei letzteres sich in jüngerer Zeit zumindest verbessert hat), ein seit G-Sync stetig wachsender Feature-Rückstand, furchtbar inkonsistente Produktbezeichnungen (Radeon HD, R9, Fury, Vega, RX - 2900 XT, 3870, 56, 64, 5700 XT, nun 9070) und teils schwankende Qualität (und damit meine ich Dinge wie Rückschritte im Idle- und Multi-Screen-Verbrauch von RDNA2 auf RDNA3, lange ungefixte Treiberprobleme wie die Blackscreens bei RDNA und so weiter und so weiter ...).
Ich kann mich auf den Kopf stellen, aber mir fiele nicht ein, dass Nvidia mit vergleichbaren Inkonsistenzen gekämpft hätte (möglicherweise abgesehen von Thermi Generation eins). Viel von dem, was AMD da fabriziert hat, schreit schlechte Leadership, Konzeptlosigkeit und mangelnde Ressourcen / Investitionsstau. Nun waren die 2010er für AMD natürlich auch nicht die beste Zeit, weswegen mindestens letzteres aus Unternehmenssicht verständlich ist. Den Kunden interessiert das aber eben weniger. Der möchte sich beim Kauf eines Produktes auf gewisse Eigenschaften verlassen können. Und Nvidia ist hier eben der Anbieter, bei dem das eigentlich immer möglich war.
Ich sehe für AMD kein kurzfristiges Comeback oder einen Zen-Moment im GPU-Bereich kommen. Wenn überhaupt, müssen sie sich über ein Jahrzehnt hinweg hart zurück kämpfen. Aber dann müssen eben auch vier oder fünf Generationen hintereinander einfach mal passen. Und das ist die eigentliche Herausforderung, denn ich weiß ganz ehrlich nicht, ob das überhaupt schon mal geklappt hat, seit des Radeon-Grafikkarten gibt ...
daknoll schrieb:
Lüg dir doch nicht so in den Sack.
Cyberpunk und die andere Ray/pathtracing Games nuckeln in 4K die volle Leistung auch aus einer 4090. Und die Effizienz kannst du vergessen, effizient ist sie bei 450W auch, das tut aber nichts zur Sache. Es geht dabei nur um den Maximalverbrauch und die zugehörige Abwärme.
Der Gehäusemarkt hat sich nicht ohne Grund in Richtung verstärktem Fokus auf die GPU-Kühlung entwickelt. Auch diese Verlustleistung wird wegzukühlen sein. Wer sich eine High-End-Grafikkarte leistet, wird wohl auch für deren ausreichende Belüftung sorgen können, so dass das auch effizient geschehen kann. Wer das nicht tut ... nunja, selber schuld.