4070 TI Super oder 7900XT Basierend auf Effizienz, Raumtemperatur, aktuelle Preissituation

Schick. Im Falle der 4080 vs 4080S ist die Performance fast identisch, während bei den anderen Super dieser Generation die Unterschiede deutlich größer sind. Ob die Kühllösungen der Karten taugen kann ich dir nicht sagen, da musste dann recherchieren.

E: Ach, Moment, du hast eine 6900xt. Wie in Beitrag #2: Ich würde da nüscht machen und die vorhandene Karte behalten.
 
Wie ist eigentlich die aktuelle Treibersituation hinsichtlich des Stromverbrauchs der 7900 xt im Windows und bei der Videowiedergabe (mit nur einem Monitor), gab oder gibt es da noch einen Fortschritt?

Zum Prime-Day gab es wiedermal eine 4070 ti Super für 750€, da hätte ich zuschlagen sollen. Die günstigste 7900 xt liegt jetzt bei 680€. Eigentlich würde ich ja AMD gern wieder eine Chance geben, aber wozu brauche ich jetzt 20 GB? Bis ich die brauche ist die Karte eh wieder veraltet bzw. zu langsam.
OK, besser haben als brauchen.
Die 7900 xt soll sich ja auch durch Undervolting und Ausschalten des Powerlimits hervorragend übertakten lassen, aber was bringt mir die gute Übertaktbarkeit, wenn ich dadurch einen Verbrauch von 400 Watt bekomme?
 
Deine Aussage vermischt da ein paar Dinge. Du sagst doch selbst: undervolten. Solange du das machst wird es eher schwer, den Verbrauch zu steigern. Man kann auch bei UV mit dem takt noch etwas hoch, aber das ist dann halt Ausloten dessen, was dann mit der Spannung noch geht.

Die 20GB VRAM wären für mich kein großes Argument, bei ähnlichem Preis würde ich auch eine 4070 TiSu vorziehen.
 
Ja, das ist möglich. Ich meine, ich hätte gelesen, dass die 7900 xt bei 15% OC über 440 Watt verbraucht.

Die 4070 ti Super ist auch deswegen interessant, weil die 5070 ja nur 12 GB bekommen soll, d.h. es wird auf absehbare Zeit keine günstigen Karten von Nvidia mit 16 GB geben.

Aber was bringt mir die gute Raytraycing-Performance der 4070 ti super, wenn ich sie aufgrund der zu geringen Rohleistung in 4K eh nicht richtig nutzen kann. Klar, wenn immer mehr Engines auf Raytraycing aufbauen, es man also gar nicht mehr abschalten kann, hat man dann vielleicht eine bessere Performance, als mit AMD?
 
Ich kann mir nur schwer vorstellen, dass ein dermaßen leistungsfressendes feature wie RT in naher Zukunft nicht mehr abschaltbar sein sollte. Die Spielehersteller wollen Spiele verkaufen, das muss also auf halbwegs vielen systemen laufen. Sollte man bei vielen hingerotzten VÖ anders wahrnehmen, aber mal so als Gedankengang...

Dass Grafikkarten (und viele CPUs) für wenige % mehr überproportional mehr verbraten ist ja anun auch kein geheimnis. Einfach nicht den Verbrauch erhöhen, sondern undervolten und gucken, wie hoch man die GPU dann noch getaktet bekommt.

Eine 4070 Ti Super sollte man gut auf 200W bekommen, mit etwas Speicher-OC sogar ohne Leistungsverlust.
 
xel_pr3p schrieb:
Aber was bringt mir die gute Raytraycing-Performance der 4070 ti super, wenn ich sie aufgrund der zu geringen Rohleistung in 4K eh nicht richtig nutzen kann.
Das Argument verstehe ich nicht, die RT Leistung ist doch in X-Titeln völlig ausreichend um das mit DLSS zu spielen. Klar vielleicht nicht immer alles auf ultra, aber das kann ja auch kein Anspruch sein.
xel_pr3p schrieb:
Klar, wenn immer mehr Engines auf Raytraycing aufbauen, es man also gar nicht mehr abschalten kann,
Mittlerweile gibt es 3-4 Spiele wo man es gar nicht mehr abschalten kann und in Zukunft wird es halt gar nichts mehr ohne RT geben. Wie lange das dauert? Weiß ich nicht, aber ich würde mal auf 5 Jahre tippen.
 
Naja, es ist auch kein richtiges Argument, sondern eher eine Milchmädchenrechnung. Ich schaue mir nur die Benchmarks von Cyberpunk an, kalibriere damit meine Glaskugel (unter Berücksichtigung der Aussagen jener Upperclass-Konsumenten, die meinen, man könne eine 4090 ja schon heute ihre Grenzen aufzeigen) und komme dann zu dem Schluß, dass ich die nächsten 5 Jahre weiterhin kein RT brauchen werde und mir eigentlich eine 7900xt reichen würde. Die 4070 ti super ist aber zweifelsfrei die bessere Karte zu der ich eher tendiere.
 
@ShodanN
Gibt kein stören hier :P

Die 7900xtx ist in der Regel ein paar % schneller (6%~) als eine 4080 non-Super: https://www.pcgameshardware.de/Graf...s/Rangliste-GPU-Grafikchip-Benchmark-1174201/
Verbraucht dafür aber 20-50w mehr.
bei der Preisersparnis kann man die Mehrkosten für den Strom aber vernachlässigen.
Temperatur evtl weniger, aber im Gesamtverbrauch beim ganzen PC wird das nur wenig ausmachen. Beide sollten natürlich Undervolted werden.


Mit Raytracing ist die Nvidia dann durchgehend besser.
Und hat das bessere Feature-Set. DLSS ist qualitativ besser als FSR, man kann aber dennoch FSR und XESS zusätzlich nutzen.

Klar macht's sinn eine nicht-super zu kaufen, gerade bei DEM Preis. Die Super ist ja im Prinzip nichts anderes als die genau gleiche 4000er Generation, nur mit einer anderen Shader-Anzahl, um die Lücken etwas aufzufüllen.
Ich vermute mal, weil der Yield bei der Produktion nun mehr Shader pro Chip zulässt als ausbeute.

Wenn dir Raytracing wirklich egal ist, und du in DLSS keinen Mehrwert siehst.. Kannst du dir den Aufpreis sparen. Sind immerhin 16% Aufpreis dafür, dass es nur mit Raytracing schneller ist und man weniger Speicher hat (wobei fraglich ist, ab wann sich 16gb vs. 24gb bemerkbar machen.

Für mich persönlich wär die Nvidia interessanter, weil ich noch einen G-Sync Monitor hab, und ich die ganzen nvidia Features mitnehmen kann.
Objektiv gesehen ist die 7900xtx aber der bessere Deal, was fps/Euro angeht.
 
Darkseth88 schrieb:
Verbraucht dafür aber 20-50w mehr.
nope. oft 100 watt und mehr weil die 4080 ihr pl seltenst ausschöpft die rdna 3 karten fast immer gerade die 7900er. custom rdna 3 dann sowieso mehr, wird immer nur die mba karte genommen obwohl die nur wenige kaufen weil überteuert.
 
@belive Das ist ja dann noch mehr als ich dachte :P
Das würde aber erklären, warum viele 4080(s) mit UV sich bei 200-220w Einpendeln, was gar nicht so weit weg von einer 4070s mit UV ist prozentual, als es die TDP-Unterschiede im Datenblatt suggerieren.

Woran liegt das denn eig? Weil die TDP im Datenblatt auch die RT Kerne etc mit einbeziehen, diese aber in der Praxis oft nicht nicht voll ausgenutzt werden?
PCGH kam bei der 4090 auch auf den Punkt, dass trotz der TDP die karte in der Praxis im Schnitt sich bei 350w einpendelt~
 
Average ja der sprung auf tsmc n5 fertigung hat wohl nvidia selber überrascht. Daher auch die vermuteten 600 watt testläufe. Aber bei blackwell wird ohne mehr an power nicht soviel gehen normalerweise.

Deswegen hoffe ich das rdna 4 da mal kräftig rauflegt bei der Effizienz zumindest ada stock verbrauch schafft.
Ergänzung ()

Darkseth88 schrieb:
Woran liegt das denn eig? Weil die TDP im Datenblatt auch die RT Kerne etc mit einbeziehen, diese aber in der Praxis oft nicht nicht voll ausgenutzt werden?
rdna3 verhält sich wie ampere nimmt was sie bekommen kann ohne Takt Verringerung geht bei rdna 3 fast gar nichts gerade auf den großen karten. während ada sich wie pascal und turing verhält beim undervolting. wobei ampere wahrscheinlich dem schlechten billigen samsung node geschuldet ist das die so gesoffen haben.

rdna 2 neu aufgelegt auf 5nm wäre rdna 3 nicht weit entfernt und wäre amd viel billiger gekommen das mcm design hat ihnen wohl mehr probleme bereitet als gedacht.
 
Zurück
Oben