News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

Ich rechne und hoffe auf ne Weise auch auf einen Gleichstand. Am Besten mit Intel als Preisdrücker im Nacken. Ich denke, dass AMD hier den Vorsprung in klassischem Rendering weiter ausbauen können wird, da sie weniger "Ballast" mitschleppen. Gleichzeitig denke ich, dass die nVidias wieder davonlaufen, wenn der Ballast mal aktiv ist. Ich halte für denkbar, dass AMD im Raytracing bereich ordentlich aufholt, rechne aber damit, dass nVidia den Vorsprung ausbauen wird. Zudem hoffe ich auf eine immer bessere RTX Unterstützung, was schon für mich als 4k 144Hz Gamer ein absoluter Segen ist.
Am Ende des Tages freue ich mich drauf, dass ich mir wieder Hardware für ein paar Tausend € kaufe, über die ich mich dann freue, wenn ich mich nach ner viel zu langen Schicht nach Hause geschleppt habe um dann ne Netflix Serie zu schauen. PCs sind ein mieseres Pandemiehobby als man denkt. :D
 
Ich bin mal gespannt, werde mich dieses Mal aber aus dem Ansturm in den Online-Shops heraushalten. Ich habe nun meine RTX 3080 und bin mehr als zufrieden mit der Leistung. Wie immer, werde ich eine Generation überspringen und werde dann erst 2024 wieder bei der übernächsten Generation zuschlagen. Hoffentlich ist die Lage dann wieder entspannter, was Verfügbarkeit und Preise betrifft.
 
In den letzten zwei Jahren war Hardware einfach nur sexy. Ich finde es einfach nur geil, dass Intel,Nvidia und AMD komplett andere Wege bestreiten.

Ich bin extrem gespannt was der blaue Riese auf den Markt wirft. Sollten die Intel GPUs im ersten Wurf tatsächlich im Bereich einer 3080/6800XT liegen, hätte man damit eine gute Grundlage geschaffen.

Ich hoffe das Intel versteht, dass sie hier auch "late to the party" sind und Leistung anbieten werden, welche es von den Mitbewerbern seit über einem Jahr gibt.

Was hat Intel wirklich in der Hinterhand gegen Lovelace und RDNA3 und wie schnell wird Intel darauf reagieren können, wenn sie current gen erst in zwei bis drei Monaten auf den Markt bringen?

Ich vermute mal, dass sich Intel wie den Messiah feiern lassen wird. Ich gehe davon aus, dass die Intel Karten in etwa 3070Ti Performance haben werden, allerdings für 600€ statt knapp 900€.

Der Markt wird breiter und AMD/Nvidia müssen nachziehen. Intel ist es kack egal was Team Green und Red veranstalten. Intel ist so groß, die könnten AMD und Nvidia parallel aufkaufen. Der Markt wächst derzeit gigantisch und aus den Riesen werden jetzt Giganten.

Man merkt ja schon, dass sich bei Intel nun einiges verändert hat und dass der schlafende Riese gerade aufwacht. Das wird wirklich spannend.
 
  • Gefällt mir
Reaktionen: Colindo und Strahltriebwerk
Ich persönlich würde mir wünschen, sowohl AMD als auch Nvidia legen im Vergleich zu ihrer aktuellen Generation noch einmal deutlich zu und das ohne signifikant mehr Energie aufzunehmen.

Ein Kopf-an-Kopf-Duell wäre für uns alle wohl am lohnenswertesten. Dazu im unteren und mittleren Preissegment etwas Druck von Intel.

So oder so dürfte 2022 sowohl bei den CPUs als auch GPUs spannend werden.

Von der Rohleistung sehe ich AMD mit RDNA 3 und MCM vorne, in Sachen Featureset aber Nvidia.
 
  • Gefällt mir
Reaktionen: danyundsahne und evilhunter
Und weiter dreht sich die Welt; auch nächstes Jahr wird CB genug zu berichten und testen haben


 
Ich vermute, dass es letztlich wieder auf einen etwa Gleichstand hinauslaufen wird. Rein persönlich habe ich nach Matrox Millennium und diversen 3Dfx Voodoos in den 1990ern nur noch nVidia GeForces in meinem System gehabt und das wird auch so bleiben, wenn keine völlig unerwarteten Weltwunder geschehen.

Ich traue es AMD ehrlich gesagt nicht unbedingt zu, dass sie vom Start weg das MCM Design mit seinen potentiellen Kinderkrankheiten (z.B. Latenzen, die gerade bei stark parallelisierten GPU-Tasks noch mehr ins Kontor schlagen als bei CPUs) im Griff haben werden.

Ich könnte mir gut vorstellen, dass es Benchmarks/Spiele geben wird, in denen die Radeons "abschmieren" und ein gewisses anfängliches Treiberdesaster ist bei der Historie von AMD quasi schon fest anzunehmen. Gerade, was die Abwärtskompatibilität, also ältere Spiele, betrifft, wird es interessant.
Es wird meiner Erwartungshaltung nach eine ganze Zeit dauern bis der MCM-Ansatz so rund läuft wie AMD und die User sich das erhoffen.

Selbst wenn AMD hier ein kleines Wunder gelingen sollte und alles flutscht und sie zudem auch noch nVidia übertrumpfen könnten, sehe ich die Entscheidung von nVidia für ein monolithisches Design im Consumerbereich rein wirtschaftlich als wesentlich geschickter an.

nVidia werden den professionellen Hopper-Chip ja offenbar auch in einem MCM-Ansatz produzieren. Bei weiterhin generell knappen Kapazitäten erscheint mir die nVidia-Strategie erfolgversprechender. nVidia werden wesentlich mehr Chips pro Wafer produzieren können, wenn "nur" Hopper als MCM, aber Lovelace noch monolithisch daherkommen wird.

AMD werden für jede einzelne MCM Navi Consumer-GPU vergleichsweise viel Wafer "opfern" müssen. Bei weiterhin begrenzten Kapazitäten wird AMD sich deutlich genauer als nVidia überlegen müssen, wo die Prioritäten liegen sollten. Mit professionellen Navis macht man mehr Marge als mit Zocker-GPUs. Die logische Konsequenz hieraus sollte klar sein...

Ich sehe in Sachen Verfügbarkeit für den Consumerbereich bei AMD jedenfalls jetzt schon einigermaßen schwarz. Gerade dann, wenn die GPU richtig gut werden sollte, dann wird man sie quasi kaum kaufen können. Es gibt einen unglaublich hohen Nachfragestau und viele sitzen ja schon jetzt mit gewetzten Messern am Tisch, weil sie (unvernünftigerweise) glauben, dass mit Lovelace und RDNA 3 plötzlich alles wieder gut wird.

Das Gegenteil wird der Fall sein, weil sich "alle" um die begrenzten Karten kloppen werden. Die Klopperei wird umso größer, je besser Lovelace und RDNA 3 werden. Ich glaube, dass nVidia hierbei vor allem in Sachen Verfügbarkeit wieder knapp die Nase vorn haben werden.

Der MCM-Switch kommt bei AMD meinem Empfinden nach zu einem denkbar schlechten Zeitpunkt. Es scheint mir, dass nVidia hier erneut geschickter vorgehen, indem sie im Consumer-Bereich noch eine Generation abwarten, bis sich die Marktlage weiter entspannt hat. Im professionellen Segment werden sie mit Hopper einstweilen selbst MCM-Erfahrung sammeln, die dann in die nächste Consumer-Generation einfließen wird.

Hinterher sind wir immer alle schlauer, also schauen wir mal, wie sich das nächste Generation so entwickelt...
 
Fehlermeldung schrieb:
ich mich nach ner viel zu langen Schicht nach Hause geschleppt habe um dann ne Netflix Serie zu schauen. PCs sind ein mieseres Pandemiehobby als man denkt.
Netflix am PC? Für was gibt es Sofas und TVs?
 
Meine Hoffnung ist, das AMD mal so 20-30% vor nVidia liegt.
Damit diese auch mal ein wenig von Ihrer Marktmacht einbüßen und viele Käufer erst mal mitbekommen das die Radeons weit besser sind als ihr Ruf.

Realistisch betrachtet sehe ich AMD allerdings bei RDNA 3 vorerst im Nachteil.
Weil MultiChip in dieser Weise muss sich erstmal einspielen.
Bei CPUs haben sie es wirklich super gelöst.

Aber ob das nun einfach so auf GPU adaptierbar ist, muss sich zeigen.

nVidia hat die letzten Generationen gerne mal "auf Kante genäht". Sollte dies bei Lovelace weiter gehen, kommt der "Grünen" Faktor auch noch hinzu. Wobei Grün hier nicht für nVidia spricht.

Intel darf gerne den Low und Mid End Sektor mit bedienen. Damit dort die Preise wieder purzeln.
Ether sollte doch endlich mal umgestellt werden. Dann wird der Gebrauchtmarkt mit Mining Karten zugesch*ssen und die Retail Preise dürften ebenso purzeln.
 
  • Gefällt mir
Reaktionen: danyundsahne und Mcmeider
Welchem Hersteller traut ihr den größten Sprung bei den Next-Gen-GPUs im Jahr 2022 zu?

Es geht doch eher um die Mittel wie dieses erreicht wird, etwa brachial ohne Ruecksicht auf Verbrauch/Effizienz und daraus reasultierend Abwaerme (nVidia) oder per MCM-Design, jedoch voraussichtlich auch nicht wirklich nachhaltig trotz kleineren Noden mit groeserem Energieverbrauch (AMD/RTG).

Des Weiteren duerften die MCM-Designs fuer die ueberwiegende Mehrheit von Gamern keine Rolle in der ersten/RDNA3-Generation spielen, da diese vorausssichtlich (auch in der abgespeckten Dual-GPU-Variante) fuer die meisten (mit Ausnahme der Early Adopter und Hobby-Enthusiasten und einiger weniger (semi-)professioneller Content-Creator) wohl nicht erschwinglich sein duerften zu den noch deutlich hoeheren (im Falle der RX 7900XT wird eine UVP-Verdoppelung gegenueber der RX 6900XT als realistisch gehandelt) Preisen.

Hautpsache das Marketing passt, bis MCM-GPU-Design irgendwann in halbwegs erschwinglichen GPU-Preissegmenten ankommt, wird noch viel Wasser den Rhein herunter fliessen.

So gesehen werden sich in den dann noch halbwegs erschwinglichen Segmenten fuer die grosse Mehrheit wohl nur monolithische Architekturen gegenueberstehen, auch wenn hier im Artikel etwas anderes beschworen wird, aber vielleicht richtet sich die Umfrage auch vordergruendig eher an die alleszahlende Elfenbeinturm-Gamer-Fraktion, die diese Preispolitik gerne mittraegt, dann passt es natuerlich?

Im Endeffekt ist es doch egal, wer Ende 2022 hier mit 10% fps beim Halo-/Top-Modell vorne liegt (bspw. AMD/RT bei der Rasterisierungsleistung) und dort 10% fps hinten (bspw. AMD/RTG beim RT-Raytracing), letztendlich werden die Markenfans Ihre Marke versuchen als die vorne liegende zu propagieren und im Endeffekt ist das doch sowieso egal, der Trend geht - egal wer von den beiden Grosskonzernen vorne liegt - in die falsche Richtung (immer weniger Nachhaltigkeit, immer exorbitantere Preise, mehr unausgereifte Aufpreisfeatures, usw.) ... damit man vollwertiges 8K-Gaming und staerkere Leistung bei Nischenfeatures wie RT-Raytracing in einer Handvoll Spielen bewerben kann?

Nun ja, wer's braucht ...
 
Für uns Konsumenten wäre ein Kopf an Kopf Rennen die mit Abstand beste Option (bzw. ein Vorsprung für AMD um die Marktmacht von NVidia zu reduzieren und mehr Gleichgewicht zu bekommen).
 
Bei AMD wird es spannend inwieweit man bei Ray-Tracing endlich Anschluss findet, für mich einfach eine stechende, die normal sein sollte und ein bisschen wie bei alten Generationen der neue Standard für Beleuchtung wird.
Tricks und Filter für die Stimmung werden weiterhin zum Einsatz kommen.
Auch Anschluss bei den 3D Render Möglichkeiten auf nVidia Niveau wäre toll, es nervt halt, dass man für jede 3D Software eigentlich zu nVidia greifen muss.
In diesen zwei Punkten würde ich mir mehr von AMD wünschen.
Bei nVidia würde ich es spannender finden, wenn man irgendwie die Leistung nur minimal steigert aber den Stromverbrauch drastisch senken kann, die Leistung der 30XX reichen doch für viele 4K Sachen locker, es braucht keine noch größere, lautere und hungrigere Grafikkarten.
Für mich muss der Aufbau kleiner und intelligenter werden, damit ich mal wieder einen richtigen Fortschritt sehe.
Umso eher kann man auch bei der Leistung noch einen Sprung machen.

Von den Gerüchten her finde ich es ganz schwierig zu sagen, ob AMD auftrumpfen kann, wie oft sehen wir gute AMD Performane und Features die am Ende nicht in den Programmen und Spielen ankommt, da nicht unterstützt?

Und nVidia macht halt fast alle 2 Jahr dasselbe, ziemlich unaufgeregt 10-30% mehr Leistung aber auch mehr Verbrauch, größeres Design, mehr Lautstärke.

Ich hoffe das RDNA3 einfach überlegen sein wird, damit mehr Druck und Spannung rein kommt.
So bleiben die wirklichen Innovationen schon noch etwas auf der Strecke.
 
  • Gefällt mir
Reaktionen: danyundsahne
derbe schrieb:
Die Frage wird ehr sein wer kann liefern? Die am meisten am Markt Verfügbarkeit schaffen werden auch wohl am meisten umsetzen. Leistung spielt nur eine untergeordnete Rolle. Ich würde Intel nicht unterschätzen, die Schlitzohren haben immer was im Ärmel.
Ja, man hat es 2017 in der Schublade gesehen!.... Zuerst muss Intel liefern!

Ich traue AMD auch effizientere Karten zu, dass Nvidia sicher alles geben wird, ist aber so sicher wie ein Amen in der Kirche!
 
Bis auf Raytracing sind AMD und Nvidia ja jetzt schon quasi gleichauf. Die paar synthetischen Benchmark-Pünktchen reißen es ja wirklich nicht für Nvidia raus. Ich denke, dass das Multichip-Design auf lange Sicht die Nase vorne hat, aber als Erstlingswerk werden sie das nicht schaffen.
 
Nvidia wird wie immer die besseren Karten anbieten und sie werden Marktführer bleiben.
 
Ich vermute AMD wird mit dem MCM Desing in erster Generation auf die Nase fallen, und dann erst aus den Fehlern lernen. Die nächste Runde geht an Nvidia bis sich AMD wieder von Treiber und Kompatibilitätsproblemen erholt hat.
 
  • Gefällt mir
Reaktionen: RogueSix
DLSS fxr, raxtracing... Alles akademischer natur. Das einzige was zählt ist die Mining Performance. Das zweitwichtigste vielleicht noch MH/Watt
 
Der Preis wird weiterhin dermaßen enteilen, das der PC gegenüber den Konsolen in der Bedeutungslosigkeit verschwindet. Nicht mal Konsolenports werden sich für die Publisher rechnen, da es keinen stückzahlstarken Mainstream Markt bei PC's gibt.

Wer jetzt etwas Zeit investiert hat und irgendetwas zur UVP gekauft hat, kann sich zurücklehnen und dem PC als Gamingplattform beim Sterben zusehen.

Auf keinen Fall ergibt es irgendeinen Sinn, den doppelten bis vierfachen Preis einer aktuellen Konsole 2022 oder 2023 allein für eine Grafikkarte auszugeben.
Das alles in der Hoffnung, das es vielleicht dann doch noch den einen oder anderen Konsolenport auf dem PC mehr oder weniger lieblos umgesetzt geben sollte.

Mit der aktuellen Generation ist PC Gaming noch realtiv erschwinglich und man kann dem PC die nächsten zwei, drei Jahre in Sachen Gaming entspannt beim Sterben zusehen.
 
feris schrieb:
Der Preis wird weiterhin dermaßen enteilen, das der PC gegenüber den Konsolen in der Bedeutungslosigkeit verschwindet.
Der Untergang des PCs als Spieleplattform wird jetzt seit fast zwei Jahrzehnten mit den unterschiedlichsten Begründungen immer und immer wieder vorhergesagt.
Ich Wette auch dieses Mal dagegen.
 
  • Gefällt mir
Reaktionen: Strubbel99, CaptainPiett und PeriQue1337
Denke ohne RT werden die GPUs ähnlich sein.

Games die von der Konsole kommen werden Vorteile für AMD haben
RT wird auch weiterhin nicht die stärke von AMD sein
DLSS und kommende Version bringen Vorteile für NV

Wichtiger ist eher die Läutstärke und der Strombedradft bzw. wie gut optimiert die GPUs zum Kunden kommen.

Wenn man sich die aktuelle GPU Generation von NV anschaut ist dort sehr viel Potenzial verschenkt worden bei der GPU Spannung und somit dem Verbrauch.
Mit Undervolt laufen die GPUs schneller und brauchen teilweise 20% weniger Strom !

Beispiel meine RTX3090

Normal 1,063Volt für um die 1920Mhz und das Powerlimit begenzt und verursacht Schwankungen (420Watt)
Optimiert 0,962Volt konstant 2000Mhz und um die 330Watt
Mit erhöhten PL sind 2150Mhz möglich mit 1,043Volt bei 450Watt


Warum ist sowas nicht vom Werk möglich bzw. warum muss eine GPU soviel zuviel Vcore bekommen ?
 
HanneloreHorst schrieb:
Bei nVidia würde ich es spannender finden, wenn man irgendwie die Leistung nur minimal steigert aber den Stromverbrauch drastisch senken kann, die Leistung der 30XX reichen doch für viele 4K Sachen locker, es braucht keine noch größere, lautere und hungrigere Grafikkarten.
Witzbold.
Die Leistung ist insbesondere für High Quality VR Gaming viel zu gering.
Selbst nen Dual 3090 Setup reicht aktuell kaum um >4k pro Auge vernünftig umzusetzen und eigentlich braucht man noch ne ganze Ecke mehr um tatsächlich Bilder zu erzeugen, die einigermaßen realitätsnah sind.
Ergänzung ()

Berserkervmax schrieb:
Warum ist sowas nicht vom Werk möglich bzw. warum muss eine GPU soviel zuviel Vcore bekommen
Weil der Aufwand jedes Kühlsystem und die Stromversorgung exakt auf den einzelnen Chip abzustimmen zu hoch wäre und der Kunde sowieso keine großen Qualitätsschwankungen akzeptiert.

Stell dir Mal das Gejammer vor wenn rauskommt dass man Pech haben kann und es einfach Mal 30% Schwankungen bei Lautstärke, Temperatur und Energiebedarf bei einer 3090 bei default settings gibt. Also orientieren sich alle Settings an den schlechtesten Chips die verkauft werden und da Nvidia sich entschieden hat die Dinger ans Limit zu prügeln um vor AMD zu landen laufen die Karten eben entsprechend weit entfernt vom Sweet Spot.
 
  • Gefällt mir
Reaktionen: Innocience, bad_sign und Hatsune_Miku
Zurück
Oben