News Sonntagsfrage: AMD Radeon oder Nvidia GeForce für die Next-Gen?

Beide werden mindestens 100% mehr Leistung bieten, also ungefähr 3090 = 4070.

Das wird bestimmt lustig, ich denke die Preise der Vorgänger wird von jetzt auf gleich unter dem angepeilten UVP fallen.
 
  • Gefällt mir
Reaktionen: Strubbel99 und t3chn0
Ich traue AMD zu mit RDNA3 das interessantere Produkt auf den Markt zu bringen.Lovelace wird sicher top performen aber ich persönlich möchte einfach keine 400W+ Gpu im Rechner haben.Alle Gerüchte bisher deuten auf einen höheren Verbrauch bei Lovelace hin,da wäre mir auch die höhere Performance zu Ampere egal,bei Performance um jeden Preis bin ich raus.In der Effizienz hat AMD klar die Nase vorn.Ich erreiche mit meiner 6900xt bei einem PL von 250Watt mehr Performance als eine 3090 stock;mir persönlich ist das mehr Wert als Raytracing Effekte/Performance zumal der Anschaffungspreis auch deutlich für AMD spricht und eine 6800xt fast das Gleiche zu leisten im Stande ist die ja nochmals deutlich günstiger ist .Deshalb glaube ich dass sich das auch so bei RDNA3 vs. Lovelace darstellen wird und unterm Strich RDNA3 die interessantere Karte für den Verbraucher sein könnte wenn NV Nichts aus dem Hut zaubert und DLSS soweit pusht,dass 3090 Performance in der 3060 Klasse ankommt.Das allerdings sehe ich bisher nicht.
 
  • Gefällt mir
Reaktionen: Ernie75, Smartbomb, Orok91 und 10 andere
Die Frage wird ehr sein wer kann liefern? Die am meisten am Markt Verfügbarkeit schaffen werden auch wohl am meisten umsetzen. Leistung spielt nur eine untergeordnete Rolle. Ich würde Intel nicht unterschätzen, die Schlitzohren haben immer was im Ärmel.
 
  • Gefällt mir
Reaktionen: xRedF, GT200b und Strahltriebwerk
Jetzt haben wir mal ungefähr einen Gleichstand und die Verfügbarkeit spielt nicht mit. Ich hoffe das sich das mit der nächsten Gen ändert und dann ist mir auch egal, wer minimal schneller ist. Hauptsache Konkurrenz- und hoffentlich dann auch wieder Preisdruck!
 
  • Gefällt mir
Reaktionen: Strubbel99, simosh und Strahltriebwerk
DBJ schrieb:
Lasst den Fanboy-Krieg in den Kommentaren beginnen!

Nvidia > Amd
Ich finde es ein bisschen diskriminierend gleich in eine Ecke gestellt zu werden. Kann man sich nicht einfach mal Vorurteilsfrei austauschen?
 
  • Gefällt mir
Reaktionen: Pisaro und Czk666
Ich finde den Ansatz von AMD interessanter, denke aber trotzdem dass durch die Brechstange von Nvidia am Ende in etwa das gleiche Leistungsniveau herauskommen könnte.
 
  • Gefällt mir
Reaktionen: CableGuy82
Leistung mal schauen, aber das Effizienzrennen ist schon entschieden, mit nem Monolithen kann man einfach nicht mit extrem breiten Chiplet Designs mithalten.

Bin ganz ehrlich, wenn Intel wirklich Battlemage Anfang 23 raushauen kann (MLID sagt im Video von gestern, dass Intel mit Battlemage ins Highend Segement will), sehe ich Nvidia nur noch auf Platz 3, bis sie dann wohl mit den 5000ern auch auf Chiplets wechseln.

Der Vorteil von Chiplets ist einfach zu eklatant. Nvidia muss die Größe im Rahmen halten, dafür die im Vergleich wenigen Einheiten hoch takten, AMD kann über Chiplets extrem viele Shader draufpacken und alles im Sweetspot betreiben.

Dazu noch die aktuelle Sackgasse beim Speicher, GDDR7 noch lange nicht da und GDDR6X säuft ohne Ende. Intel wird wohl den AMD Weg gehen (siehe PVC mit unzähligen Chiplets und >400MB Cache.

Fazit: Ich fürchte Nvidia wird mit Lovelace bis auf die reine Leistung nicht glänzen können, eigentlich ähnlich wie bei Ampere. Nur denke ich, dass die 4000er effizienztechnisch noch schlechter dastehen.
 
  • Gefällt mir
Reaktionen: Ernie75, CableGuy82, Termy und eine weitere Person
Bezahlbar und moderater Verbrauch würde mir schon völlig langen, neue Features würde es gar nicht benötigen.
 
  • Gefällt mir
Reaktionen: fullnewb, schneeland, Innocience und 4 andere
Die sollten sich langsam mal auf Multichipkarten einarbeiten. Einen Die so groß wie eine Spielkarte zu haben, bringt alleine von der Abwärme, keinen Vorteil mehr
 
Der Multichip-Ansatz ist für die Zukunft sicherlich vernünftig und wird sich irgendwann™ etablieren. Die erste Generation wird es mMn aber schwer haben, allein weil die Software erstmal damit umgehen muss.
Wir alle wissen, wie viel "Unterstützung" nvidia den Entwicklern zukommen lässt. Ich sehe RDNA 3 daher als marktreifen Prototypen. Nvidia wird aber aus meiner Sicht beim nächsten Schlagabtausch voraus sein - leider.
 
Bis auf Raytracing hat AMD mit RDNA 2 auf ganzer Linie abgeliefert. Kann mich noch gut hier im Forum erinnern, wie manche meinten das die 6900xt wenn überhaupt an eine 2080ti ran kommt. Als dann die Benachmarks draußen waren und die 6900xt mit der 3090 auf Augenhöhe war, war die Überraschung groß.
 
  • Gefällt mir
Reaktionen: Ernie75, Ray Donovan, Strubbel99 und 17 andere
Ich bin durchaus gespalten was meine nächste GPU angeht. AMD würde für eine Heim-DAW jeder Zeit wieder meinen Zuschlag bekommen, da die Treiber meiner Erfahrung nach einfach wesentlich bessere Latenzen und weniger Probleme mit sich bringen. Da es hier aber ums Gaming geht, tippe ich eher auf nvidia, denn die Frage ist, wie sich das MCM-Design bezüglich Leistungsaufnahme und (imo viel wichtiger) Microruckler verhalten wird. Monströse 15k Shader klingen zwar gut, werden aber nicht ganz so leicht umzusetzen sein und ich werde mir sicherlich kein 400-500 Watt Monster zulegen. €dit: ich glaube aber nicht, dass nvidia da weniger verbrauchen wird.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Aus meiner Sicht wird nicht die Rohleistung entscheiden. Der Kaufgrund für meine 3070 war DLSS und der mittlerweile hervorragende Support. Dagegen kommt auch eine AMD Karte mit +20% Rohleistung nicht an.
Versteht mich nicht falsch, ich bin AMD Fan und auch auf den Ryzen 5900X gewechselt, aber DLSS ist z.B. in CoD und anderen Spielen ein Gamechanger.
 
  • Gefällt mir
Reaktionen: chrilliB, jdiv, schneeland und 3 andere
Mir egal wer erster wird, nehmen sich ja beide gerade kaum was, bis auf die Features (die ich aber kaum nutze, z.b. DLSS ist ne schöne Sache aber trotzdem hässlich, bevorzuge immer nativ), ansonsten wünsche ich mir mal wieder bessere Verfügbarkeit.
 
  • Gefällt mir
Reaktionen: Nuke8472, DarkerThanBlack, t3chn0 und eine weitere Person
Die große Frage ist ob und wie gut AMD die Schwierigkeiten eines Multi-Chip-Konzepts in den Griff bekommt.
Wenn das tatsächlich funktioniert, kann AMD zu viel geringeren Kosten als Nvidia produzieren und dabei weitestgehend problemlos nach oben skalieren.
Nvidias Maximalausbau ist hingegen durch die maximale Größe des Chips den sie aktuell designen bereits jetzt definiert.

Es kann natürlich auch sein, dass das Konzept von AMD bereits bei wenigen Chips Probleme mit den Timings und/oder der Auslastung bekommt und letztlich nicht vernünftig mit mehr Chips skaliert.

Wird sehr interessant...
 
  • Gefällt mir
Reaktionen: Ernie75 und Onkel Föhn
Ich gehe davon aus, dass AMD und Nvidia in etwa gleichauf liegen werden mit Effizienzvorteilen für AMD.
Wobei RDNA3 deutlich spannender ist, da Chiplets, umgebaute WGPs und 512MB Infinity Cache zum Einsatz kommen werden. Das Fragezeichen bleibt hier Raytracing.
Nvidia bohrt scheinbar einfach nur auf. Wobei ich gespannt bin, wie bei Lovalace die Speicheranbindung gelöst wird. 384bit + schnellen GDDR6X hat bereits die 3090(ti). Aber Lovalace hat 70% mehr ALUs. Aber ich glaube nicht, dass auf dem (vermutlich) riesigen Chip noch Platz für Cache bleiben wird.
2022 wird auf jeden Fall wieder spannend. Was ich mir wünsche, wäre eine gute Verfügbarkeit mit moderaten Preisen.
 
Zuletzt bearbeitet: (Rechtschreibkorrektur)
  • Gefällt mir
Reaktionen: Ernie75 und Onkel Föhn
china gpu karten sind 2022 der renner.
 
  • Gefällt mir
Reaktionen: konkretor
Vitali.Metzger schrieb:
Als dann die Benachmarks draußen waren und die 6900xt mit der 3090 auf Augenhöhe war, war die Überraschung groß.
Ich verstehe bis heute nicht wieso das für irgendwen eine Überraschung war.
In dem Moment als die ersten unabhängigen Tests für die Nvidia Karten draußen waren, war absolut klar, was Amd da in etwa leisten wird.
Kein Hersteller bringt ohne Not Karten wie die 3080 oder 3090 raus die so weit überm Sweet Spot betrieben werden und das auch noch zu geringerer UVP.
Nvidia hat sich doch nicht freiwillig die Ausbeute und die Marge beschränkt.
Es war völlig offensichtlich, dass Nvidia die Dinger da unter Druck über die Ziellinie geprügelt hat.
 
  • Gefällt mir
Reaktionen: Ernie75, Epistolarius, Onkel Föhn und eine weitere Person
Ich denke auch das AMD und Nvidia so ungefähr gleichartig liegen.
 
@SV3N
So soll es keine Compute Units mehr geben, stattdessen wird zukünftig alles in den Workgroup-Processors zusammengefasst
Ich bin mir jetzt auch nicht zu 100% sicher, aber ich glaube sie haben jetzt die "Dual CUs" wie sie es eigentlich eh schon bei RDNA schon gibt zu Workgroup zusammen getan.
Also 60 Workgroups oder eben 120 CUs.

Ich meine dass dieses mal AMD überholen wird. NV es aber nicht lange unbeantwortet lassen wird und dass früher oder später NV mit einer Technik (vergleichbar zu Infinty Cache, bzw MCM) kontern werden.
Wäre ja nicht so, als ob NV nicht hier und da bereits Innovationen auf Reaktion durch Radeon-Karten entworfen hätte. Man denke an Thermi und dessen Probleme im Vergleich zur Konkurrenz und wie man durch geschickte Änderungen Vorteile ziehen konnte. Und dieses mal denke ich dass AMD aus Lehren von damals einen Vorsprung haben wird, NV aber das sicherlich auch erkannt und wir das in kommenden Jahren sehen werden. Reaktionen kann hier eben nur Zeitverzögert passieren.

Das ist etwas was wir uns aber wünschen sollten. Ständiger Abtausch und Wettrennen tun uns Kunden gut.
 
  • Gefällt mir
Reaktionen: Ernie75, Onkel Föhn und Teeschlürfer
Zurück
Oben