News RDNA 4: Radeon RX 9070 (XT) setzt weiter auf den 8-Pin-PCIe-Stecker

MaverickM schrieb:

Na bei Grafikkarten allgemein, man bekommt nach einigen Jahren die Leistung der alten HighEnd Karten bei weniger Leistungsaufnahme.

Man muss nur mit gleichen Anforderungen vergleichen, hier auf die Schnelle (Quelle: gamestar.de), unten gibt es auch den Effizienzvergleich.
Wie man sehen kann steigt die Effizienz, das P/L Verhältnis ist eine andere Sache.

Fazit: Mit Abstand die schnellste Grafikkarte​


Die GeForce GTX 1080 Ti ist eine beeindruckende weil konkurrenzlos schnelle Grafikkarte. Die Mehrleistung gegenüber dem Vorgänger, der GeForce GTX 980 Ti, ist bei gleichem Stromverbrauch gewaltig... (Quelle: CB Test)

Nun nimm nochmal die 980Ti etc. und Vergleich die dann nochmal mit der 4060... das geht immer so weiter bis ich wieder bei meine Geforce 2 GTS Pro bin...

Wenn ich natürlich die Effizienzsteigerungen mit höheren Anfroderungen egalisiere, könnte ein falscher Eindruck entstehen.

Mit meinen alten FHD Monitoren konnte ich eigentlich immer öfter eine "kleinere" Karte kaufen und die Leistungsaufnahme weiter senken, bei gleichbleibenden Anforderungen, bis ich dann meine Anforderungen mit UWQHD und neuen Spielen gesteigert habe, das hat aber trotzdem (6700xt,6900xt,4090) bei vielen älteren Titel zu einem heftigen Leisstungsschub bei deutlich weniger Leistungsaufnahme geführt.

BF3 in FHD mit 7970 (immer unter 90 FPS) weit über 250W Gesamtsystem, mit der 4090 bei höherer Auflösung und gleichen Settings immer konstant 165 FPS und das bei 130W, lass es 150W sein, habe keine Lust das Strommeßgerät nochmal dran zu klemmen, sogar mein Monitor müsste leicht effzienter geworden sein, denn bei annähernd gleichem Verbrauch habe ich jetzt ein deutlich größeres Bild.

Der Unterscheid ist, ich habe jetzt 16 statt 4 Kerne und 24 GB statt 3GB VRAM, die CPU taktet auf dem x3d CCD sogar höher als die alte CPU mit max. OC...

Ich verstehe die Disskussion eh nicht, weil Mikroelektronik schon immer leistungsfähiger UND effizienter werden soll durch immer weiter vortschreitende Miniaturisierung, dass ist überhaupt der Grund für den Aufwand!
 
Grundsätzlich bin ich mit den 12V HighPower Anschlüssen bei Nvidia nicht unzufrieden. Sie halten, sind schlank und fordern nur einen einzelnen Kabelstrang vom Netzteil. Bei 300W Grafikkarten besteht auch keine Gefahr. Den Stecker habe ich bestimmt schon 20x raus und rein, bisher ohne Abnutzungserscheinungen. Solang man die Biegeradien einhält und alles gescheit einsteckt, passiert da nichts.

Ich denke, beide Lösungen haben noch ihre Daseinsberechtigung. Für die Netzteil-Hersteller wäre natürlich eine einheitliche Lösung besser.
 
  • Gefällt mir
Reaktionen: CadillacFan77
Nighteye schrieb:
Dass stimmt nicht. Laut Steam zocken mehr leute mit einer RTX 4090 als alle RX 7000 Modelle zusammen.
Es gibt auch keine RDNA 2 Karte die auch nur annähernd so häufig Verbreitet ist wie die RTX 4090.
Selbst die RX6800 (349€ hab ich damals bezahlt) und RX6800XT (389€ im Sommer) welche das Historisch beste Preis Leistungsverhältniss im Raster (Nicht Raytracing) hatte, ist auf Steam kaum vertreten.

Bilder entfernt

Ich halte die Steam Surveys für nicht besonders repräsentativ. Die Umfrage ist freiwillig und ich vermute, dass Highend Besitzer eher teilnehmen als andere. Das ist halt menschlich veranlagt: Etwas "Tolles" wird lieber präsentiert ;)

Genauso(oder noch mehr) betrifft das die Signaturdaten in HW Foren.
 
Nighteye schrieb:
Er muss nicht auf einer RTX 3060ti bleiben um bei seinem Wunsch von unter 200W zu bleiben.
Ich habe deutlich mehr FPS bei weit unter 200W, durch dass verändern zwei schlichter Reiter im Radeon Treiber.
Ich habe jetzt am Wochenende sogar einem Freund mit einer RX7900XTX beim Optimieren geholfen.
Könntest du mir helfen bei der 7900XTX? Egal was ich undervolted hatte, mein CoD/Warzone stürzte irgendwann immer ab, aber vielleicht liegt das auch am übersensiblen Spiel
 
  • Gefällt mir
Reaktionen: Nighteye
Simanova schrieb:
Ich denke, beide Lösungen haben noch ihre Daseinsberechtigung. Für die Netzteil-Hersteller wäre natürlich eine einheitliche Lösung besser.
Die meisten grösseren Netzteile sind ja modular . Man kann also easy ein 12V-2x6 und ein 2x 8 Pin Kabel beilegen.

@Quidproquo77
Meinst Du etwas die Optik? Ja, wenn das wichtig sein sollte kann es ein Vorteil des neuen Steckers sein.

Ich mags zwar aufgeräumt aber ganz so wichtig ist die Optik dann auch nicht. Finde runde, gesleevte Kabel auch deutlich einfacher im Handling, "Breitbandkabel" wie es die 12V-2x6 oft sind - gibt bestimmt auch Alternativen - sind schlecht zu verlegen.
 
iron_monkey schrieb:
man bekommt nach einigen Jahren die Leistung der alten HighEnd Karten bei weniger Leistungsaufnahme.

Und inwiefern ist das mehr Leistung bei gleichzeitig weniger Leistungsaufnahme? Wenn ich das schreibe ist natürlich gemeint: Von einer Generation zur nächsten und innerhalb der gleichen Preis-/Geräteklasse.
Ergänzung ()

iron_monkey schrieb:
BF3 in FHD mit 7970 (immer unter 90 FPS) weit über 250W Gesamtsystem, mit der 4090 bei höherer Auflösung und gleichen Settings immer konstant 165 FPS und das bei 130W

Ein seltsamer Vergleich. Die 4090 zieht trotzdem um ein vielfaches mehr als die 7970.
 
@MaverickM

Die GeForce GTX 1080 Ti ist derzeit absolut ohne Konkurrenz​


Sehr gut ist die Energieeffizienz der GeForce GTX 1080 Ti, die erneut eine große Verbesserung gegenüber Maxwell aufzeigt. So benötigt die Founders Edition genauso viel Energie wie die GeForce GTX 980 Ti, ist aber bis zu 75 Prozent schneller.

In dem CB Artikel hast du die 980Ti und die 1080Ti und das was angeblich nicht passiert, der Satz aus dem Fazit ist eindeutig.
Natürlich wird das nicht jede Generation/Klasse so eindeutig erreicht und die Motivation sinkt sicherlich mit dem Marktanteil.

MaverickM schrieb:
Die 4090 zieht trotzdem um ein vielfaches mehr als die 7970.

Nein, bei gleichen Anforderungen arbreitet die 4090 deutlich effizienter!

Was ist an einem Vergleich mit GLEICHEN Anforderungen seltsam? Warum möchte man überhaupt einen Vergleich mit gestiegenen Anforderungen anstellen?

Ich habe bei BF3 die gleiche Basis und damit gleichbleibende Anforderungen (Spiel und Einstellungen seit 10K Stunden gleich) und brauche für ein besseres Ergebnis (immer schwankend unter 100 Fps vs. konstant 165 Fps), bei sogar gestiegnen Anforderungen (FHD vs. UWQHD), deutlich weniger Energie.

Ihr definiert keine gleichbleibende Anforderung, vergleicht das neue Produkt mit deutlich gestiegenen Anforderungen (Spiel, Auflösung, Bildqualität) gegenüber dem alten Produkt und möchtet dann über scheinbar ausbleibende Effizienzsteigerungen reden.

Ich verstehe nicht wo euer Denkfehler liegt... man muss eigentlich nur die Rechenleistung und die TDP der Karten vergleichen um die Entwicklung zu sehen. Man bekommt seit Jahren immer mehr Rechneleistung bei sinkendem Energieverbrauch.

Bei einem Vergleich den Aufwand ins Verhätnis zum erzielten Ergebnis zu setzen und nicht einfach absolute Zahlen zu vergleichen, sehe ich als Schulwissen* an und sollte hier nicht mühevoll nachgeholt werden müssen.

*Das ist dieses nützliche Wissen, wenn man die große Packung eines Produktes kauft, abowhl der absolute Kaufpreis höher ist... weil man pro Einheit Geld mehr Ware erhält...

Wenn eure selbst gewählten Anforderungen überpropotional steigen und die Effizienzgewinne auffressen, ist das nur eure persönliche Entscheidung und ändert nichts an der Effizienzsteiegerung an sich.

Man kann heute in FHD Spiele von früher in schöner mit weniger Energieverbrauch spielen und das sogar für weniger Geld als damals (HighEnd vs. Einstiegsklasse/Mittelklasse).

Man kann aber nicht, früher auch nicht, auf einmal mit günstigen Einstigeskarten die neusten Spiele sofort
mit höchsten Anforderungen spielen...

Das wird nie passieren, egal wie sehr die Effizienz und Leistung steigt und das kommt daher, dass mit leistungsfähiger Hardware die Software nachzieht und die Anforderungen so auch immer steigen, sprich die Effizienzgewinne werden in bessere Optik etc. investiert.
 
iron_monkey schrieb:
In dem CB Artikel hast du die 980Ti und die 1080Ti und das was angeblich nicht passiert, der Satz aus dem Fazit ist eindeutig.

Dein eigenes Zitat widerspricht bereits deiner Aussage. Ich habe von mehr Leistung bei gleichzeitig weniger Verbrauch gesprochen, nicht einfach nur mehr Leistung. Und eben nicht nur Effzienz, sondern Gesamtverbrauch.

iron_monkey schrieb:
Nein, bei gleichen Anforderungen arbreitet die 4090 deutlich effizienter!

Ja, toll, wer hätte das gedacht, bei vielen Generationen Abstand... :rolleyes:
Das ist eine natürliche Entwicklung, und nicht wirklich eine besondere Effizienz-Steigerung.

Damit es klarer wird: Ich will auch bei Grafikkarten einen Schritt wie von Zen 4 auf Zen 5: Mehr Leistung bei noch weniger Leistungsaufnahme. Das hatten wir meines Wissens nach bei keiner GPU-Generation bisher.
 
MaverickM schrieb:
Dein eigenes Zitat widerspricht bereits deiner Aussage. Ich habe von mehr Leistung bei gleichzeitig weniger Verbrauch gesprochen, nicht einfach nur mehr Leistung.

So benötigt die Founders Edition genauso viel Energie wie die GeForce GTX 980 Ti, ist aber bis zu 75 Prozent schneller. (Quelle: CB Test)

Sag uns doch bitte, wie sich der Verbrauch der 1080Ti gegenüber der 980Ti verhalten wird, wenn die 1080Ti im gleichen Spiel 1FPS mehr erreichen soll als die 980Ti.

1. er wird höher sein als bei der 980Ti
2. er wird gleich hoch sein wie bei der 980Ti
3. er wird niedriger sein als bei der 980Ti

Habe ich das Rätsel gelöst?
 
MaverickM schrieb:
Damit es klarer wird: Ich will auch bei Grafikkarten einen Schritt wie von Zen 4 auf Zen 5: Mehr Leistung bei noch weniger Leistungsaufnahme. Das hatten wir meines Wissens nach bei keiner GPU-Generation bisher.

Kannst Du mir grob in Zahlen beziffern welche Effizienzsteigerungen du also erwartest zwischen zwei Generationen?
 
@iron_monkey
Maximal Boardpower runter, maximale Leistung rauf.

Würde mich da auch bspw. mit nur 10% Mehrleistung schon zufrieden geben, wenn es dafür auch 10% weniger Strom braucht.
 
MaverickM schrieb:
Würde mich da auch bspw. mit nur 10% Mehrleistung schon zufrieden geben, wenn es dafür auch 10% weniger Strom braucht.

Das hast du doch schon in dem Test der 1080Ti aus dem Link! Wenn du die 1080Ti statt 75% nur 30% schneller Rendern lässt, hast du auch einen deutliche geringeren Energiverbrauch, der ist bei 75% Mehrleistung der 1080Ti ja bei beiden Karten gleich.

Die maximale Leistung muss nicht abgerufen werden und jeder darf auch einfach den effizienteren Betriebsmodus nutzen.

Oder fährst du mit deinem Auto immer Höchstgeschwindigkeit und immer in höchster Drehzahl, beim Auto bevorzugt man auch niedertouriges fahren... spart Sprit.

Edit:

Ich muss Dir aber in dem Punkt recht geben, dass meine Aussagen sich eher auf das HighEnd Modell bezieht, die Klassen darunter erfahren die Steigerungen nicht in so deutlicher Form oder stellenweise gibt es keinen Sprung (Rebrand).
Hat beide aber nicht daran gehindert die Preise trotzdem immer weiter nach oben zu verschieben.
 
Zuletzt bearbeitet:
iron_monkey schrieb:
Das hast du doch schon in dem Test der 1080Ti aus dem Link!

Nein.

iron_monkey schrieb:
Die maximale Leistung muss nicht abgerufen werden und jeder darf auch einfach den effizienteren Betriebsmodus nutzen.

Das ist witzlos. Warum sollte ich eine Karte künstlich begrenzen wollen, wenn ich statt dessen auch eine Karte haben könnte, die bei maximaler Leistung trotzdem weniger braucht!?

Auf der kann ich ja dann immer noch Framelimiter oder UV nutzen, um noch mehr zu sparen.

iron_monkey schrieb:

Ich fahre Vollelektrisch. Der is sowieso abgeregelt.
 
MaverickM schrieb:
wenn ich statt dessen auch eine Karte haben könnte, die bei maximaler Leistung trotzdem weniger braucht!?

Was ist den maximale Leistung, das ist doch vom Herstellerwillen abhängig und wird durch diesen definiert (je nach Konkurrenz), wenn der Hersteller die 1080Ti also nur um 50% schneller gemacht hätte und dafür den Energieverbauch um 15% gesenkt hätte, wäre es deine Traumkarte?

Wenn er es nicht macht, einfach den Chip an der Kotzgrenze laufen lässt und dich selber den passenden Betriebsmodus wählen lässt, dann bist du aber unzuifrieden?
 
iron_monkey schrieb:
wenn der Hersteller die 1080Ti also nur um 50% schneller gemacht hätte und dafür den Energieverbauch um 15% gesenkt hätte, wäre es deine Traumkarte?

Es wäre ein Schritt in die richtige Richtung. Wir können es uns nicht leisten, die Leistungsaufnahme der Grafikkarten immer weiter zu steigern. Wir sind bei (theoretisch, Steckerstandard) 600W angekommen. Das wird absurd.
 
MaverickM schrieb:
Es wäre ein Schritt in die richtige Richtung.

Es wäre doch nur eine von Werk aus auf deine Bedürfnisse eingestellte Karte, da nehm ich lieber das Maxiumum und stelle mir die Karte für jedes Spiel ideal nach meinen Vorlieben ein.

MaverickM schrieb:

Nö, das bald erscheinende FSP Netzteil wird mir 2 von den 600W Steckern bieten, da passt das dann.
 
Zurück
Oben