News RX 6950 XT, 6750 XT & 6650 XT: Details und Benchmarks zu AMDs RDNA-2-Refresh

auch wenn die synthetischen Benchmarks nichts aussagen, aber irgendwie finde ich die angegebenen Ergebnisse seltsam. 22000 ist soweit im Graphics Score für eine 6950 dann gut?
meine 6800XT läuft doch schon bei 21000 Punkten im Graphics score
 
Benni1990 schrieb:
nVidia Fanboy Gefasel
Also nVidia kauft man sich nur, wenn man Geld zu verbrennen hat. AMD war vom Preis-/Leistungsverhältnis immer vor nVidia. Und ist mittlerweile auch nur noch knapp hinter nVidia. Demnächst kommt FSR 2.0, dann ist DLSS auch kein Argument mehr. Spiele mit Raytracing wie RE8 oder Guardians of the Galaxy spiele ich auch gut in 4k mit meiner 6900XT.

nVidia setzt die Trends? Nö. rBAR z. B. kam von AMD.

Mal abgesehen davon kann ich nicht verstehen, wie man sich geistig so auf eine Marke versteifen kann. Konkurrenz ist gut und hilft uns als Verbraucher in Punkto Fortschritt und Preis, daher bin ich froh, dass es beide (und zukünftig Intel) auf dem Grafikkartenmarkt gibt.

Aber bisher bekam man bei AMD unterm Strich einfach mehr für sein Geld.
 
  • Gefällt mir
Reaktionen: daknoll und Onkel Föhn
Linmoum schrieb:
Das ist auch nicht selbstverständlich momentan.
this!

In anderen Bereichen der Wirtschaft jammern die Unternehmen, aber die Gewinne steigen unverhältnismäßig.
(man brauchte ja nur mal nen Vorwand für Preissteigerungen)
 
Die Kaufkraft sollte in den kommenden Monaten weiter sinken .
Das Öl Embargo wird noch krasse Konsequenzen nach sich ziehen!
Wir stehen gerade noch am Anfang der Preiserhöhungen so meine Einschätzung!
 
  • Gefällt mir
Reaktionen: iceshield und D. ACE
Benni1990 schrieb:
Nvidia ist nun mal der Branchen Primus und hat das Monopol seit über 10-15 Jahren

Benutz doch so Begriffe wie Monopol nicht, wenn du keine Ahnung hast was sie bedeuten.
 
  • Gefällt mir
Reaktionen: Schinken42, Nore Ply, .Snoopy. und 4 andere
Artikel-Update: Ergebnisse der RX 6900 XT sind zu niedrig
In der Zwischenzeit hat sich dank tatkräftiger Unterstützung aus der Community auch aufgeklärt, weshalb Wccftech über einen so großen Unterschied zwischen der RX 6900 XT und RX 6950 XT berichtet hat.

Die Ergebnisse im 3DMark (Time Spy) sind durchschnittlich 10 Prozent niedriger als solche, die bisher für die Grafikkarte in der Datenbank der Benchmark-Suite hinterlegt sind.

Am Ende ergibt sich ein deutlich realistischeres Bild: Die Radeon RX 6950 XT liegt mit rund 22.000 zu 20.000 Punkten in etwa 10 Prozent vor ihrem direkten Vorgänger, was in Anbetracht der Spezifikationen letztendlich auch zu erwarten ist.

3DMark – Time Spy
  • AMD Radeon RX 6950 XT, ~ 22.000 Punkte
  • Nvidia GeForce RTX 3090 Ti, ~ 21.000 Punkte
  • AMD Radeon RX 6900 XT, ~ 20.000 Punkte
  • Nvidia GeForce RTX 3090, ~ 19.500 Punkte
  • Nvidia GeForce RTX 3080 Ti, ~ 19.000 Punkte
  • AMD Radeon RX 6800 XT, ~ 18.500 Punkte

Erstes Bildmaterial zu den RX 6950 XT von Sapphire

Währenddessen hat die Website VideoCardz aus eigenen Quellen auch das erste Bildmaterial zu den Modellen Nitro+, Nitro+ Pure und Toxic auf Basis der Radeon RX 6950 XT zugespielt bekommen.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Bei der Sapphire Radeon RX 6950 XT Nitro+ Pure handelt es sich um eine neue Serie, die mit einer überarbeiteten 3-Slot-Kühllösung ausgestattet wurde und über eine aufwendige ARGB-Beleuchtung verfügen soll.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Die Redaktion bedankt sich bei der Community für die zahlreichen Hinweise zu diesem Update.
 
  • Gefällt mir
Reaktionen: PietVanOwl, Onkel Föhn, Laphonso und 3 andere
Moetown schrieb:
nVidia setzt die Trends? Nö. rBAR z. B. kam von AMD.
OT:
Nicht ganz korrekt. Die grundlegende Technik ist in der PCIe Spezifikation hinterlegt.
nvidas Quattro nutzen direkten Speicherzugriff auch schon. Microsoft arbeitete sogar schon länger daran für die Konsolen (warum auch immer es nicht umgesetzt wurde, who knows?).

AMD hat es halt Mainstreamfähig gemacht.

P.S. kann man seinen eigenen Artikel in OT verschieben?
 
  • Gefällt mir
Reaktionen: DannyA4
Klingt schon realistischer mit 10%.
Am Ende ist es aber wahrscheinlich doch mehr ein Marketing-Schachzug vorm EOL der 6000er-Reihe.
 
  • Gefällt mir
Reaktionen: fox40phil
Also ich komm mit ein paar kleinen Anpassungen durch UV und OC im Adrenalin mit meiner 6900XT FE auf knapp 22k Punkte... bei <300W ASIC Power, und das ohne rumfummeln mit MPT :D
 
  • Gefällt mir
Reaktionen: DannyA4
Ardan Redburn schrieb:
Die wird sicher auch min.10-20% Optimierungspotential mitbringen
Da wär ich nicht so sicher. Gleiche Fertigung, vmtl einfach nur etwas besseres Binning als die XTXH, wenn überhaupt.

Läuft einfach nur ab Werk noch näher am Limit.

(Mit aggressivem UV schaff ich die 22k bei 320W)
Ergänzung ()

der_infant schrieb:
nach dem XT fehlt noch ein X
RX 6990X2 XTX MAXX wann?
Ergänzung ()

Benni1990 schrieb:
AMD hängt immer 1 Gen hinterher was neue Technologien angeht
Außer dann, wenn sie eine Technologie zuerst verwenden. Kommt auch oft genug vor, passt aber nicht in eure kindische Diskussion.
 
  • Gefällt mir
Reaktionen: Schinken42, DannyA4 und Hatsune_Miku
Moetown schrieb:
Demnächst kommt FSR 2.0, dann ist DLSS auch kein Argument mehr.
Oh doch. DLSS 3.0 wird kommen. Und wenn man sieht, was DLSS 2.2 und 2.3 bereits in Death Stranding oder NIOH 2 abgeliefert haben, ist die "optische"Meßlatte für FSR 2.0 bereits sehr hoch.
FSR 2.0 muss dazu auch erstmal das Ghosting Problem sichtbar lösen in den Tests in bewegten Bildern, nicht auf Screenshots...
Vorher wäre ich da sehr defensiv. Die temporale Komponente wird für FSR die Bürde, die DLSS erst ab 2.3 weitestgehend lösen (wenn auch noch nicht eliminieren) konnte.

Falls die 4090 + 4080 in Raytracing mit DLSS 3.0 optisch und fps technisch die 7900 und 7800 deutlich hinter sich lassen, ist genau das Gegenteil der Fall und dieses Paket ein Verkaufsargument für Lovelace.

Denn die "klassische" Raster&Render-fps-Krone wird dieses Mal AMD mit RDNA 3 gewinnen! (Also an der Spitze aller Gaming Raster Benchmarks stehen.)

Nvidia geht daher (meine These) all in mit Raytracing und DLSS. Die Raytracing fps Krone wird erfolgskritisch für Jensen, es ist das Lovelace Fundament.

Ich sehe nicht, wie RDNA 3 Raytracing Cores und FSR 2.0 das kontern soll, zumindest an der Spitze der Benchmarks und der besseren Rekonstruktion DLSS 3.0 > FSR 2.0. Nvidia hat hier immer noch die eine Generation Vorsprung.

Also, Tests abwarten. Die FSR 1.0 Matsche war genau so bescheiden wie DLSS 1.0. Generell sogar eher schlechter, das gibt ja sogar das AMD subreddit zu.

AMD zieht hier aber definitv nach, das treibt Nvidia akut wieder, und das ist top für uns alle.

Thema 6900/6950 und 3090/3090Ti:
Die 6950 und die 3090Ti werden die oberen Referenzwerte für die 7900 und 4090, damit wir eine Sicht auf die messbaren Leistungssprünge erhalten.
Die Hoffnung ist ja, dass man eine 4070 und eine 7700 irgendwann ab Herbst 2022 erwerben kann, die dann in etwa die 3090TI und 6950 Performance abliefern.
Ich bezweifle, dass das jeweils unter 700 bis 800 Euro (also Marktpreise! Nicht UVP Jokes) passieren wird; aber das ist erstmal losgelöst von der reinen fps Frage.

Für den Gebrauchtmarkt bvesteht sicher die Hoffnung, dass die Enthusiasten ihre 6900er, 6950er, 3090er und 3090Tis irgendwann verkaufen, so dass man hier einen "Schnapper" machen kann.

Dass das wieder analog der 450 Euro passiert wie die armen Opfer, die ihre 2080Ti auf den ebay Kleinanzeigen verschleudert haben, wage ich aber auch zu bezweifeln.
Die gebrauchten 3090er und 6900er werden sich an den 4070er und 7700er Preisen orientieren und dann ggf. 10-15% darunter landen mit dem "used" Abschlag, das wars aus meiner subjektiven Sicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MasterAK, DannyA4 und Benni1990
die Sapphire Radeon RX 6950 XT Toxic zeigt auf erschreckende weise wohin die Reise geht, 360er Radi zusätzlich zum Lüfter auf der Karte selbst :freak:
 
  • Gefällt mir
Reaktionen: fox40phil
unterhalb der 6650 wirds auch interessant mit ARC
 

Anhänge

  • ARC Price Leak.JPG
    ARC Price Leak.JPG
    24,9 KB · Aufrufe: 203
@Laphonso

Ich stimme dir voll und ganz zu was Dlss und Raytracing angeht

Wo ich aber anderer Meinung bin ist die Rohe Raster leistungskrone sollten es wirklich die besagten 90tflops oder sogar 90+ sein wird nvidia diesmal die 4090 als erste 8k60fps Karte vermarkten mit nativ Auflösung und nvidia wird sich nach so einer langen Zeit an der Spitze nicht die Butter vom Brot nehmen lassen und den Titel schnellste gaming gpu nehmen lassen
 
Genoo schrieb:
die Sapphire Radeon RX 6950 XT Toxic zeigt auf erschreckende weise wohin die Reise geht, 360er Radi zusätzlich zum Lüfter auf der Karte selbst :freak:
Hatte auch die 6900XT Toxic schon. Sagt selbst aber nur bedingt was aus, gibt ja auch 6900XT mit 120mm oder 240mm Radiator. Der Lüfter auf der Karte selbst kümmert sich nur um kühle Wandler.
Der 360 hilft der Toxic primär, niedrige Lautstärke bei niedrigen Temperaturen zu halten.

Ähnliche Custom Designs gabs übrigens schon vor 10 Jahren ;)
Ergänzung ()

Benni1990 schrieb:
sollten es wirklich die besagten 90tflops oder sogar 90+ sein
Werden sehr sicher wieder nur theoretische Leistung mit kombinierten FP32+INT32 Einheiten sein. So hats Nvidia auch schon bei den RTX 3000ern berechnet und angegeben. Und trotzdem ist eine 3090 (35 TF) in Raster Games kaum schneller als eine 6900 (23 TF). Von den 52% höheren TFlops sieht man bei der 3090 nur in sehr spezifischen Szenarien was.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Volvo480 und Hatsune_Miku
Benni1990 schrieb:
@Laphonso
und nvidia wird sich nach so einer langen Zeit an der Spitze nicht die Butter vom Brot nehmen lassen und den Titel schnellste gaming gpu nehmen lassen

Die Wette gilt ;-) Ich weiß nicht, wie Nvidia die >3 GHz (!!!) Clock der 7900 kontern soll.
AMD wird hier nicht zu knacken sein. Denke ich zumindest.
Nvidia wird alles aufs Raytracing setzen, mehr denn je.

Aber ja, ich muss dann ggf. den Besen fressen im Oktober so ^^
 
Laphonso schrieb:
wie Nvidia die >3 GHz (!!!) Clock der 7900 kontern soll.
Siehe Ampere vs RDNA2 müssen sie das ja nicht unbedingt. Takt ist nicht alles.

3GHz, geschweige denn >3, sind für die RX 7000 übrigens auch nur ein Gerücht.
 
  • Gefällt mir
Reaktionen: fox40phil
Laphonso schrieb:
Die Wette gilt ;-) Ich weiß nicht, wie Nvidia die >3 GHz (!!!) Clock der 7900 kontern soll.
Die 3ghz müssen sie ja auch nicht kontern sofern das Gerücht überhaupt stimmt mit den 3ghz es wird denk ich wieder ein Mix aus allem werden und da sehe ich nvidia einfach vorne weil sie das rundere und bessere packet haben werden
 
Laphonso schrieb:
Oh doch. DLSS 3.0 wird kommen. Und wenn man sieht, was DLSS 2.2 und 2.3 bereits in Death Stranding oder NIOH 2 abgeliefert haben, ist die "optische"Meßlatte für FSR 2.0 bereits sehr hoch.
FSR 2.0 muss dazu auch erstmal das Ghosting Problem sichtbar lösen in den Tests in bewegten Bildern, nicht auf Screenshots...
Vorher wäre ich da sehr defensiv. Die temporale Komponente wird für FSR die Bürde, die DLSS erst ab 2.3 weitestgehend lösen (wenn auch noch nicht eliminieren) konnte.

Falls die 4090 + 4080 in Raytracing mit DLSS 3.0 optisch und fps technisch die 7900 und 7800 deutlich hinter sich lassen, ist genau das Gegenteil der Fall und dieses Paket ein Verkaufsargument für Lovelace.

Denn die "klassische" Raster&Render-fps-Krone wird dieses Mal AMD mit RDNA 3 gewinnen! (Also an der Spitze aller Gaming Raster Benchmarks stehen.)

Nvidia geht daher (meine These) all in mit Raytracing und DLSS. Die Raytracing fps Krone wird erfolgskritisch für Jensen, es ist das Lovelace Fundament.

Ich sehe nicht, wie RDNA 3 Raytracing Cores und FSR 2.0 das kontern soll, zumindest an der Spitze der Benchmarks und der besseren Rekonstruktion DLSS 3.0 > FSR 2.0. Nvidia hat hier immer noch die eine Generation Vorsprung.

Also, Tests abwarten. Die FSR 1.0 Matsche war genau so bescheiden wie DLSS 1.0. Generell sogar eher schlechter, das gibt ja sogar das AMD subreddit zu.

AMD zieht hier aber definitv nach, das treibt Nvidia akut wieder, und das ist top für uns alle.
Naja, das ist alles immer noch Spekulatius, und wie groß der Unterschied schlussendlich ausfallen wird und ob es das wert ist, am Ende dann den Aufpreis dafür zu bezahlen wird dann jeder für sich selbst beantworten müssen. Mir war es nVidia bisher nicht wert, wie gesagt, bei AMD bekomme ich mehr für mein Geld. AMD muss man zudem zu Gute halten, dass FSR für alle Plattformen angeboten wird, DLSS nur für nVidia Karten.

Aber Konkurrenz ist gut für uns Verbraucher, da sind wir uns einig.
 
  • Gefällt mir
Reaktionen: Laphonso und daknoll
Daniel D. schrieb:
Mehr Leistung, mehr Verbrauch - wie oft hört man das die Tage. Ich wünsche mir, dass die neue Generation nicht so viel verbraucht wie angenommen und ich wieder eine gute Mittelklasse-Karte mit annehmbarem Verbrauch bekomme, wie meine GTX1070.
Du bekommst die Leistung deiner GTX 1070 heute deutlich (!) effizienter.

Welchen Namen die Karte trägt und ob diese der Mittelklasse zugeordnet wird oder nicht ist auf deutsch scheißegal - du bekommst selbst mehr Leistung bei weniger Verbrauch.

Wenn man natürlich nur 400W mit seiner GTX 1070 vergleicht wird man das nicht verstehen - mehr Verbrauch <> weniger effizient :rolleyes:

Was zählt sind FPS/Watt. Dann kann jeder nach Leistungsbedarf kaufen und ist effizienter unterwegs. High-End war schon immer recht ineffizient - aber wenn du von Mittelklasse sprichst, kann dir das ja egal sein - ist es den meisten auch, da die 10€ im Jahr da keinen bei den Preisen interessieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4, Bright0001, Onkel Föhn und eine weitere Person
Zurück
Oben