News RX 6950 XT, 6750 XT & 6650 XT: Details und Benchmarks zu AMDs RDNA-2-Refresh

Benni1990 schrieb:
Die 3ghz müssen sie ja auch nicht kontern sofern das Gerücht überhaupt stimmt mit den 3ghz es wird denk ich wieder ein Mix aus allem werden und da sehe ich nvidia einfach vorne weil sie das rundere und bessere packet haben werden
und abgerundet wird das supertolle Paket dann noch mit flockigen 600W Spitzenverbrauch und abrauchenden bzw abschaltenden Rechnern, deren Netzteile die Lastspitzen nicht verkraften...herrlich.
Denke es wird nicht wenige geben, denen die Mehrperformance in RT gegenüber AMD egal sein wird.. und ob DLSS 3.0 wirklich der Heilsbringer sein wird muß man auch noch sehen. Gibt dazu ja rein gar nichts. von FSR 2.0 gibt es immerhin Bilder und ein Video.
Der Monolithklumpen ist voll auf Kante genäht...kein schöner Gedanke
 
  • Gefällt mir
Reaktionen: DannyA4
Knut_Knudsen schrieb:
Der Shitstorm wäre groß, wenn AMD eine 350 Watt Karte raus haut, um eine Nvidia Karte, die 250 verbraucht, zu schlagen...
102E7A6E-2DD6-4BF4-A4FD-83D9EC0BCA56.jpeg

Wie groß war denn der Shitstorm, als AMD vor garnicht so langer Zeit eine 400W Grafikkarte brachte um eine 157W Grafikkarte von Nvidia zu kontern?

Die aktuellen Nvidia Grafikkarten mögen auch hohen Stromverbrauch aufweisen - sind im Gegensatz aber hoch effizient.
 
  • Gefällt mir
Reaktionen: hanjef und ThirdLife
@F4711

Was den Verbrauch angeht der spielt bei mir keine rolle weil der High End will muss mit High End verbrauch leben und ich habe die 600 watt mal mit meiner 3090 Simuliert und mein 850 watt NT hat nicht einmal abgeschaltet oder es kam zum crash oder Bluescreen und mein 12900k ist auch Max OC also da muss man erstmal sehen wie "Schlimm" die 600watt werden und ich will in UWQHD und RT max im 3 stelligen FPS spielen (vermutlich nur mit DLSS) und ich Bezweifel das AMD von einer Generation auch die Andere große sprünge machen wird was RT Performance geht weil wie schon erwähnt AMD immer 1 Generation zurück ist aber das sehen wir alles im Sep/okt
 
  • Gefällt mir
Reaktionen: Gast12345
Daniel D. schrieb:
Mehr Leistung, mehr Verbrauch - wie oft hört man das die Tage. Ich wünsche mir, dass die neue Generation nicht so viel verbraucht wie angenommen und ich wieder eine gute Mittelklasse-Karte mit annehmbarem Verbrauch bekomme, wie meine GTX1070.
Gibt es doch bereits ? Schau dir mal Benchmarks zu zB Far Cry 6 an in WQHD, da ist schon eine stinknormale 3060 Non-Ti doppelt so schnell. Selbst eine 3050 ist noch knapp 38% schneller, bei 20W weniger Verbrauch (und das ohne Optimierungen).

Warum solls das also bei der nächsten Gen nicht geben ?

Benni1990 schrieb:
Was den Verbrauch angeht der spielt bei mir keine rolle weil der High End will muss mit High End verbrauch leben und ich habe die 600 watt mal mit meiner 3090 Simuliert und mein 850 watt NT hat nicht einmal abgeschaltet oder es kam zum crash oder Bluescreen und mein 12900k ist auch Max OC also da muss man erstmal sehen wie "Schlimm" die 600watt werden und ich will in UWQHD und RT max im 3 stelligen FPS spielen (vermutlich nur mit DLSS) und ich Bezweifel das AMD von einer Generation auch die Andere große sprünge machen wird aber das sehen wir alles im Sep/okt

Das nehm ich dir nicht so ganz ab. Selbst ein gutes 850er Netzteil hat auch um die 10% Verlust, liefert also effektive 760-770W, mit 600+240 der CPU bist du weit drüber raus. Ergo: wars nicht unter Volllast oder eins von beidem (GPU/CPU) hat nie soviel gezogen.

Ich hatte mit der ersten 3080 auch noch ein Seasonic Prime Ultra Titanium 750er Netzteil und das hat mit dem 5950er OCed und der 3080 OCed und 450W EVGA BIOS regelmässig abgeschaltet wenn ich es wirklich voll ausgefahren bin. Sobald die CPU (im Gaming Betrieb) weniger gezogen hat ging es, aber wenn ich gleichzeitig AI Analysen fahre und die CPU zB zum Encoden verwende gingen die Lichter aus.

Der 12900K ist nochmals deutlich hungriger, deine GPU auch, aber da solls gehen ? Muss ja ein Wahnsinns Netzteil sein. :D

Abgesehen davon, wo sollen die 600W auf der GPU herkommen ? 3x 150W Stecker + 75 über den Slot machen bei mir 525W maximal.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DannyA4
Gast12345 schrieb:
Anhang anzeigen 1215320
Wie groß war denn der Shitstorm, als AMD vor garnicht so langer Zeit eine 400W Grafikkarte brachte um eine 157W Grafikkarte von Nvidia zu kontern?

Die aktuellen Nvidia Grafikkarten mögen auch hohen Stromverbrauch aufweisen - sind im Gegensatz aber hoch effizient.
Bei den leistungsstärkeren Karten liegt eher AMD vorne:

https://www.computerbase.de/2020-12...die_energieeffizienz_als_performance_pro_watt

Wie bereits gesagt wurde, was zählt ist FPS/Watt.
 
  • Gefällt mir
Reaktionen: Schinken42 und DannyA4
Benni1990 schrieb:
Die 3ghz müssen sie ja auch nicht kontern sofern das Gerücht überhaupt stimmt mit den 3ghz es wird denk ich wieder ein Mix aus allem werden und da sehe ich nvidia einfach vorne weil sie das rundere und bessere packet haben werden
Es wird vor allem mit sehr hoher Wahrscheinlichkeit das wesentlich teurere Paket werden.
 
Das ist so sicher wie das Armen in der Kirche das Nvidia wieder teurer wird als AMD aber sie bieten halt auch mehr als AMD und da sehe ich den Preis gerechtfertigt
 
GerryB schrieb:
Die Graka wirste aber net mehr zu dem Preis bekommen.
Darum geht's nicht. Es geht um den Preisunterschied im Handel zwischen einer 6750 und einer 6800, und wenn der so gering ausfallen sollte, wie es ein UVP-Unterschied von 30 Dollar suggeriert, wer soll dann bitte eine 6750 kaufen? Alleine die 4 GB mehr VRAM dürften in der Preisregion zwischen 700 und 1000 Euro den meisten locker 100 Euro wert sein.
 
ThirdLife schrieb:
Abgesehen davon, wo sollen die 600W auf der GPU herkommen ? 3x 150W Stecker + 75 über den Slot machen bei mir 525W maximal.
Dank des XOC 1000 watt Bios gibt es keine Begrenzung mehr und die GPU kann ziehen soviel sie will
 
Gast12345 schrieb:
Anhang anzeigen 1215320
Wie groß war denn der Shitstorm, als AMD vor garnicht so langer Zeit eine 400W Grafikkarte brachte um eine 157W Grafikkarte von Nvidia zu kontern?

Die aktuellen Nvidia Grafikkarten mögen auch hohen Stromverbrauch aufweisen - sind im Gegensatz aber hoch effizient.
Die Vega 64 war definitiv nicht so effizient wie die GTX 1080. Aber so schlimm dann auch wieder nicht.
Die Karte musste halt zwingend undervolted werden.
Auf 1v (statt den viel zu hohen standard 1,2v) lief die Karte mit 190w (asic).
Die Leistung stieg sogar noch dazu um 3%.
Also von 300/400w war die Karte dann weit entfernt. Waren vielleicht insgesamt mit Wandlerverlusten 220/230w oder sowas geschätzt.
Die Karte war einfach nur sehr schlecht voreingestellt und bedarf halt manueller Optimierung.

Wenn man freesync verwenden wollte kam man günstiger weg als bei Nvidia + gsync.
Die 100-150€ gsync Aufpreis für Monitore damals waren deutlich höher als die paar Watt mehr Stromverbrauch.

Aktuell hab ich die RX 6800. Das ist die effizienteste Karte. Braucht ungefähr gleich viel Strom wie meine alte Vega 64 bei gleichzeitig doppelter Leistung. Und Undervolting braucht man jetzt endlich auch nicht mehr zwingend.

Was Shitstorm angeht nehmen sich die beiden Hersteller nichts. Hatte die GTX 970 die ja auch einen großen Shitstorm erlebt hat, zurecht.
 
  • Gefällt mir
Reaktionen: Nore Ply und DannyA4
Benni1990 schrieb:
AMD hängt immer 1 Gen hinterher was neue Technologien angeht wenn RTX 4000 kommt mit RT 3.0 und DLSS 3.0 bin ich gespannt ob sie wieder nur die Rücklichter sehen werden
Mag ja sein, dass das kurzfristig sogar wahr ist. Nvidias "Technologien" sterben aber häufig mittelfristig aus weil sie proprietär sind (siehe PhysX und G-Sync). Ob sich das proprietäre DLSS also langfristig gegen das auf nahezu allen Karten nutzbare FSR durchsetzen wird steht noch in den Sternen, zumal FSR2.0 nochmals deutlich näher an DLSS heranrückt. Ein anderes Beispiel ist RTX, bei dem es schon absehbar ist, dass es wohl vollständig durch DXR verdrängt wird.

Des Weiteren gibt es auch genügend Technologien wo NVIDIA hinterher hängt/hing: Low Level API support (Mantle), Effizienter Cache statt breiter Speicherinterfaces (Infinity Cache), SAM und zukünftig wohl auch bei dem Einsatz von Chiplets im GPU Bereich.
 
  • Gefällt mir
Reaktionen: Wichelmanni, ThirdLife, DannyA4 und eine weitere Person
Gast12345 schrieb:
Wie groß war denn der Shitstorm, als AMD vor garnicht so langer Zeit eine 400W Grafikkarte brachte um eine 157W Grafikkarte von Nvidia zu kontern?
Groß !
Auch zu Recht ! Nur von denen hörst jetzt so gut wie gar nix mehr ... ;)

MfG Föhn.
 
  • Gefällt mir
Reaktionen: Schinken42 und bad_sign
SFFox schrieb:
https://www.computerbase.de/2018-10/assassins-creed-odyssey-benchmark-test/3/
Laut CB Test im Preset "extrem-hoch" bei Full HD schafft die RTX 2080 aber stolze 62fps im 99th Percentile. Dass es doch mal drunter fällt mag sein, aber das ist sicherlich extrem selten in FullHD, oder? :)
Waren dort alle addons installiert?
Hatte bei ac origins ähnliche Erfahrungen gemacht nach dem ich die addons nachgekauft ubd installiert habe
Ich schau mal was ich für Preset hab aber bestimmt alles auf full
 
Perdakles schrieb:
das auf nahezu allen Karten nutzbare FSR durchsetzen wird steht noch in den Sternen, zumal FSR2.0 nochmals deutlich näher an DLSS heranrückt. Ein anderes Beispiel ist RTX, bei dem es schon absehbar ist, dass es wohl vollständig durch DXR verdrängt wird.
I sag nur langfristig setzt sich Qualität durch. Deutlich näher wäre mir nicht genug wenn ich solche Summen für eine GPU ausgeben soll.
 
Tornavida schrieb:
I sag nur langfristig setzt sich Qualität durch. Deutlich näher wäre mir nicht genug wenn ich solche Summen für eine GPU ausgeben soll.
Ich sage nur: Langfristig setzt sich in der freien Wirtschaft nicht Qualität um jeden Preis durch sondern das Produkt, das das beste Verhältnis aus Qualität/Aufwand bzw. Qualität/Preis bietet. Und vor allem setzt sich das Produkt durch, das möglichst breiten Support erhält. Bestes Beispiel ist die TCP/IP Protokollfamilie, welche sich nicht durchgesetzt hat weil sie die effizienteste, schnellste oder in irgend einem anderen Bereich besonders gut war, sondern weil sie im Gegensatz zu konkurrierenden Protokollen zum damaligen Zeitpunkt auf allen gängigen Plattformen verfügbar war. Fällt dir da eine gewisse Parallele auf?

Oder um in der GPU-Welt zu bleiben: Warum hat sich FreeSync und nicht G-Sync durchgesetzt, obwohl G-Sync ja laut NVIDIA besser ist? Es liegt daran, dass man für G-Sync teure Lizenzen und HW kaufen musste, was die Akzeptanz bei den Herstellern schmälerte. Und selbst wenn G-Sync tatsächlich besser ist (höhere Qualität), ist es den Kunden den Aufpreis nicht wert. Es gibt einfach einen Punkt an dem es "gut genug" ist. Wenn man die Unterschiede zwischen DLSS und FSR2.0 mit der Lupe nur auf Screenshots erkennen kann, wird den meisten Leuten die bessere DLSS Qualität völlig egal sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schinken42, Xul, DannyA4 und 3 andere
Benni1990 schrieb:
Das ist so sicher wie das Armen in der Kirche das Nvidia wieder teurer wird als AMD aber sie bieten halt auch mehr als AMD und da sehe ich den Preis gerechtfertigt
Sehe ich nicht, aber das kann ja zum Glück jeder für sich selbst entscheiden.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Benni1990 schrieb:
Dank des XOC 1000 watt Bios gibt es keine Begrenzung mehr und die GPU kann ziehen soviel sie will
Ein XOC Bios funktioniert nicht auf jeder Karte... Spezielle OC Karten haben auch andere VRM Controller... Im schlimmsten Fall bleibt dann dein Bildschirm schwarz...

Letztendlich grätscht eh die Telemetrie dazwischen. Je nachdem wie das PCB aufgebaut ist, ist heutzutage nicht mehr jede Karte automatisch frei vom Verbrauch her bis zum erbrechen! Falls man es schafft die Karte (OC Bios / Shunt Mod etc) dauerhaft außerhalb den Spezifikationen zu betreiben, kann bei unzureichender Kühlung auch schnell mal was kaputt gehen,... ;)
 
@Perdakles

Natürlich muss das Ganze,die Qualität in dem Fall, in einem "vernünftigen" Verhältnis aus Kosten/Nutzen stehen. Wie Dieses aussieht bestimmt der Markt. Das ist ja in allen Bereichen so. Wenn ich A haben möchte werde ich mich mit B i.d.R. nicht zufrieden geben,kann man so stehen lassen denke ich oder?
 
  • Gefällt mir
Reaktionen: Perdakles
Zurück
Oben