Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

TheChris80 schrieb:
Übrigens macht AMD das mit seinen Einsteigerkarten auch so.
Ist also nicht so das ich Anti-NVIDIA bin.
Jo die 7600xt wird wohl auch nur 8 gb vram haben und die 7700xt hoffentlich 16 gb vram
TheChris80 schrieb:
Wenn ich eine 3080 hätte dann würde ich nicht upgraden schon allein weil ich sowas nicht unterstütze.
Hier geht es einfach nur um die Raffgier der Hersteller.
Die wollen halt auch ihren neustes zeug verkaufen, niemand wird gezwungen
 
Verak Drezzt schrieb:
knappe 20% wenn man mal dein OC mit einbezieht und von einer 3070 ausgeht, also kein wirklicher Grund aufzurüsten^^ - https://www.computerbase.de/artikel...chmarks_mit_und_ohne_raytracing_in_2560__1440
Ich fand es gab praktisch noch nie einen Grund auf das direkte Nachfolgemodell von irgendwelchen PC Komponenten/Handies/Notebooks etc. aufzurüsten. Ich weiß nicht warum das immer wieder extra erwähnt wird. Wenn dann wäre v der umgekehrte Fall erwähnenswert.
 
  • Gefällt mir
Reaktionen: BGnom
DJMadMax schrieb:
Update zum Stromverbrauch der RTX 3060 Ti (vermutlich mehrere RTX 3000er Karten) bei limitierten 144 FPS und den damit verfälschenden Vergleichswerten der CB-Benchmarks


Alternativ:
Wie sich ein "falsches" FPS-Limit auf dem Stromverbrauch auswirkt und welche FPS-Limits es gibt

@DJMadMax

Klasse! Danke für die Recherche. Wenn auch etwas (zu) Ausführlich für meinen Geschmack, aber an sich gut nachvollziehbar.

Das zeigt sehr deutlich, dass die Effizienzmessungen so nicht wirklich brauchbar sind.
Die performance per watt ist so jedenfalls nicht ermittelbar, egal wie man es betrachtet, das klappt einfach nicht. Dafür muss sich definitiv was besseres überlegt werden.


Betrachtet man es aber mal aus rein praxisorientierter sicht, sprich ich will die FPS limitieren, um Strom zu sparen und hab dann das Problem, dass nur bestimmte Methoden wirklich Wirkung zeigen, dann wäre ein Vergleich verschiedenster Limitierungsmethoden auch mit AMD Hardware angebracht.

Denn wenn das Limitieren z.B. bei AMD zu jeder Zeit Wirkung zeigen "würde", bei Nvidia aber nicht, dann wäre das ja tatsächlich ein Punkt, den man kritisieren könnte.


Soll heißen, selbst wenn man eine geeignete Methode findet, um die Performance per Watt zuverlässig zu bestimmen muss man ja dann trotzdem nochmal separat betrachten, welche Möglichkeiten man denn hat, um diese Effizienz auch in allen Spielen bei limitierten FPS zum Stromsparen auszunutzen.
Denn nur weil die Karte effizient ist und viel performance per Watt liefert, spare ich ja noch keinen Strom. Ich muss ja irgendwie den Verbrauch bzw. die FPS limitieren, um effektiv strom zu sparen. Wenn das kaum möglich ist oder nur mit Vsync zuverlässig funktioniert, muss das quasi "Punktabzug" geben und eben irgendwie erwähnt werden.

Das wäre wirklich was, worüber sich die Redaktion auch mMn. Gedanken machen sollte.
 
  • Gefällt mir
Reaktionen: BGnom, Volvo480, Neronomicon und eine weitere Person
FlasherXXL schrieb:
Oder halt "nur" 12 GB Vram, dafür die ganzen technischen Vorteile aber halt nicht zukunftssicher (laut vieler Mitglieder hier).

Aber ist das überhaupt so? Spiele auf 1440p und werde so schnell auch nicht auf 4K upgraden.

Also, was ist denn der "richtige" Weg? :/

Gefühlt ist jede Grafikkarte aktuell mit irgendwas Major-Negativen behaftet.
Die 4070 ti ist meiner Meinung gut genug für WQHD, was die Zukunft zeigt kein plan aber es gibt sonst keine alternative ausser du haust halt noch paar hunnies raus und holst die 4080 mit 16 gb vram die ist save
 
Mimir schrieb:
Soll heißen, selbst wenn man eine geeignete Methode findet, um die Performance per Watt zuverlässig zu bestimmen muss man ja dann trotzdem nochmal separat betrachten, welche Möglichkeiten man denn hat, um diese Effizienz auch in allen Spielen bei limitierten FPS zum Stromsparen auszunutzen.
Denn nur weil die Karte effizient ist und viel performance per Watt liefert, spare ich ja noch keinen Strom. Ich muss ja irgendwie den Verbrauch bzw. die FPS limitieren, um effektiv strom zu sparen. Wenn das kaum möglich ist oder nur mit Vsync zuverlässig funktioniert, muss das quasi "Punktabzug" geben und eben irgendwie erwähnt werden.

Das wäre wirklich was, worüber sich die Redaktion auch mMn. Gedanken machen sollte.
Ich merke immer wieder, dass ich trotz meiner Redegewandtheit in manchen Dingen einfach nicht in der Lage bin, mich verständlich auszudrücken.

Du hingegen hast das hier perfekt beschrieben, auch mit deinem Einwand betreffend AMD vs. nVidia in Bezug auf die verschiedenen Stromspar-Möglichkeiten.

Vielen Dank dafür, dem ist eigentlich nichts hinzuzufügen :)
 
  • Gefällt mir
Reaktionen: Volvo480, wei3nicht_T, Mimir und eine weitere Person
DJMadMax schrieb:
Von 85 Watt auf über 150 Watt, gleichzeitig 14°C höhere GPU-Temperatur und ein (nicht am Limit) laufender Lüfter, der zuvor unhörbar leise bzw. sogar im Zero Fan-Mode gearbeitet hat.

Horizon Zero Dawn habe ich deshalb auf die Schnelle zum Testen gewählt, weil es entgegen DooM 2016 und Eternal ingame die Möglichkeit besitzt, die FPS spieleseitig zu begrenzen. Das gleiche Verhalten mit ähnlich dramatischen Unterschieden in der Stromaufnahme lässt sich auf die Schnelle auch in Far Cry 5 nachstellen.
Sieht fast danach aus, als wenn der Ingame-Limiter (und auch der Rivatuner) einfach nur die "überschüssigen" Frame verwirft, statt die zu berechnenden Frames tatsächlich zu begrenzen. Wohingehen bei Treiber-Limitierung tatsächlich nur 60 FPS berechnet werden.

Könnte es die Tage ja mal mit meiner RX 6750 XT testen, wie das Verhalten bei AMD aussieht. Horizon Zero Dawn, Farcry 5 und Doom 2016 hätte ich jedenfalls auch.
 
  • Gefällt mir
Reaktionen: Volvo480 und DJMadMax
@Wolfgang
Bitte auch mal eine RTX 3080 mit 12GB testen.
Wäre, meine ich, interessant zu sehen, wie da das Leistungsverhältnis
zur RTX 4070, die ja auch 12GB hat, ist.
Danke :daumen:
 
  • Gefällt mir
Reaktionen: TheChris80
für mich entscheidend das ich nvidia kaufe sind folgende Gründe

viel weniger Stromverbrauch (auf 2 Jahre gerechnet spart sich da schon was zusammen)
ist viel leichter zu verkaufen am Gebrauchtmarkt da 80 % eben nivida kaufen und haben wollen
dlss ist einfach qualitativ besser

für AMD spricht nur der VRAM und die nativ Leistung bei gewissen Karten das reicht mir nicht, Vram 12 gb reicht sicher noch 1-2 Jahre in wqhd dann verkauf ich eh wieder wahrscheinlich eh schon nächstes Jahr
 
yamiimax schrieb:
Jo die 7600xt wird wohl auch nur 8 gb vram haben und die 7700xt hoffentlich 16 gb vram

Die wollen halt auch ihren neustes zeug verkaufen, niemand wird gezwungen
Will jeder aber alles hat sein Limit.
Leider sind viele So dumm und jammern aber sie kaufen trotzdem.Wobei ich mir sicher bin das es selbst enthusiasten gäbe die sogar 3k aufm Tisch knallen würden nur um das neuste zu haben.

Beispiel gefällig ? Ich kann mich noch an COD MW 2 erinnern. Alle jammern rum und schreien ganz laut das sie es unter diesen umständen nicht kaufen werden weil es keine Dedicated-Server mehr gab. Jetzt rate mal wie meine Freundesliste zum Release in Steam aussah? Richtig : "XXX spielt gerade Call of Duty Modern Warfare 2."
Mit Hardware oder anderen Dingen ist das nicht anders.
So lange der Michel sich verarschen lässt wird das sogar noch extremer.

Bleibt abzuwarten. Mal sehen wie die 7500 wird. 6 GB mit 96-bit? 😁
 
mibbio schrieb:
Sieht fast danach aus, als wenn der Ingame-Limiter (und auch der Rivatuner) einfach nur die "überschüssigen" Frame verwirft, statt die zu berechnenden Frames tatsächlich zu begrenzen. Wohingehen bei Treiber-Limitierung tatsächlich nur 60 FPS berechnet werden.

Das würde nicht klappen. Würde man irgendwelche Frames einfach so verwerfen, hätte man Lücken in der Bildabfolge. Also Ruckler. Selbst wenn man jetzt noch Framepacing betreiben würde, so dass die Frames sauber im gleichen Abstand kommen, würde der gerenderte Inhalt der Bilder als Abfolge keine gleichmäßigen Bewegungen mehr zeigen. Würde also trotzdem ruckeln.

Interessante idee, aber das kanns meiner Meinung nach nicht sein.


Wenn ich raten müsste, würde ich sagen, dass beim limitieren der FPS über den Treiber und über Vsync der Treiber "weiß" wie hoch die Framerate sein muss (Vsync wird vom Spiel über DirectX angefordert, da hängt der Grafiktreiber also definitiv mit drin).
Vermutlich kann der Grafiktreiber dann entsprechend aktives Powermanagement betreiben, um die Effizienz zu maximieren.

Limitiert man hingegen die FPS im Spiel selbst, dann wird der Grafiktreiber davon überhaupt nichts mitbekommen. Das Spiel sorgt dann einfach nur dafür, dass die CPU z.B. bei 60 FPS nur alle 16,6 ms der GPU den Trigger zum Rendern eines neuen Frames gibt. Das Framelimit ist dann also etwas was quasi in der Spiellogik festgelegt ist und nur CPU Seitig stattfindet. Es ist hier sicherlich deutlich schwerer für den Grafiktreiber, aktives Powermanagement zu betreiben, weil einfach keinerlei Informationen darüber vorliegen, welche Framerate gewünscht ist. Es muss stets davon ausgegangen werden, dass maximale Framerate erwünscht ist. Die GPU wird also kurzzeitig maximal boosten, sobald sie den Trigger zum Rendern eines Frames bekommt. Bei einem FPS Limit welches der Treiber hingegen kennt, muss womöglich nicht so hoch geboostet werden, weil man weiß, wie lange man sich für die Berechnung des Frames Zeit lassen kann. Geringerer Takt = höhere Effizienz, trotz längerer Berechnungsdauer.
Das würde aber auch bedeuten, dass sich der Grafiktreiber dann bei jedem Frame ansehen muss, wie lange er berechnet wurde, um dann stets den Takt so anzupassen, dass die richtigen Frametimes erreicht werden.

Mhmm, ob das wirklich so funktioniert? Ich weiß es nicht... Wäre dann aber wirklich im wahrsten Sinne aktives Powermanagement.

Wie gesagt, das hab ich mir jetzt nur aus meinem Halbwissen zusammengereimt. Wäre für mich aber mal ein erster Erklärungsversuch.
 
  • Gefällt mir
Reaktionen: BGnom und Volvo480
Mimir schrieb:
Das würde aber auch bedeuten, dass sich der Grafiktreiber dann bei jedem Frame ansehen muss, wie lange er berechnet wurde, um dann stets den Takt so anzupassen, dass die richtigen Frametimes erreicht werden.

Mhmm, ob das wirklich so funktioniert? Ich weiß es nicht...
Das müsste man dann theoretisch in Form von unruhigen Frametimes sehen können, da der Treiber den Takt ja immer erst nach einem zu langsam gerenderten Frame anpassen kann. Man würde also immer einen kleinen Spike in der Graph sehen, wenn von einem kurz zu niedrigen Takt wieder korrigiert wird, abhängig davon, wie schnell die Taktänderungen erfolgen.

Habe jetzt mal auf die Schnelle HZD getestet, weil es eh noch installiert war und mit meiner RX 6750 XT habe ich keinen Unterschied zwischen Ingame-Limitierung und Treiber-Limitierung (Radeon Chill Min & Max auf 60). In beiden Fällen ~130W und identische GPU-Auslastung, zumindest laut dem Overlay vom Treiber.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BGnom und Volvo480
Nicht unbedingt. Man kann ja trotzdem sagen: Bei 60 FPS hat man 16,6 ms Zeit. Man rendert den ersten Frame mit maximaltakt und erricht meinetwegen 10 ms (ausgabe des Bildes an den Monitor dann natürlich erst bei 16,6 ms). dann kann man den Takt ja schrittweise soweit runterregeln bis man bei z.B. 14 ms Berechnungszeit angekommen ist.

Sobald man dann merkt, dass man sich der 16,6 ms nähert, kann man frühzeitig mit dem Takt hochgehen, um zu verhindern dass ein Frame zu lange braucht.

Kann durchaus sein, dass der Grafiktreiber so vorgeht, dann eine ähnliche Technik gabs auch schon in Spielen, mit dynamischer Auflösung. Da konnte man ein FPS Limit einstellen und das Spiel hat dann die Auflösung dynamisch immer so angepasst dass man z.B. stets konstate 60 FPS erreicht hat. Dazu muss das Spiel auch laufend analysieren wie lange die Berechnungszeit eines Frames ist und dann mit einem gewissen Puffer immer die Auflösung so hoch oder niedrig halten dass man nie über die gewünschte Frametime kommt.

Also prinzipiell funktioniert das schon. Ich weiß nur nicht, ob der Grafiktreiber nach diesem Prinzip arbeitet. Falls ja wäre das wahrscheinlich schon die Erklärung für das Verhalten.
 
  • Gefällt mir
Reaktionen: BGnom
FlasherXXL schrieb:
Wer mehr Vram möchte, muss zu AMD greifen, die aber ohne DLSS, FG und TR-Performance daherkommen.
AMD hat FSR, FSR 3.0 mit Fluid Motion Frame und Motion Vector ist für 2023 mit "in Kürze" angekündigt und RT auf RX7000 Karten ist auch kein Problem und gut spielbar. Ja RTX4000 performt hier nochmal besser, der Unterschied ist aber bei Weiten nicht mehr so groß wie bei RX6000. Bis auf eine 4090 braucht selbst eine 4080 in hohen Auflösungen Upscaling für 60 FPS+. Das kann ich auch bei AMD machen wenn mir die FPS nicht reichen sollten. Zusätzlich hat man mehr VRam und ein breites Speicherinterface.
Frame Generation muss sich erst einmal verbreiten um ein wirklicher Kaufgrund zu sein. 10 Spiele reichen hierzu einfach nicht. Zudem Single Player ok aber Multiplayer Titel obsolet.
 
  • Gefällt mir
Reaktionen: herculesgott und daknoll
Lol die leistung einer 3080… bei gleichem uvp. Das ist so als ob man jetzt mögliches iphone 15 kaufen würde mit fast gleichen Eigenschaften wie iphone 12 aus dem Jahr 2020, zum gleichen UVP. mur mit längerer Akkulaufzeit da effizienter. :D
 
Purer Unsinn, sorry.
Die 3080 war das von Nvidia ernannte flagship der letzten Generation.
Diese Flagship Performance erhält man nun als 70er Serie der aktuelle Generation plus 2 GB VRAM und DLSS3 inkl. FG danke der OFAs.
Ja der Preis nervt.

Du vergleichst aber 4 iPhone Generationen mit 2 von Nvidia für eine konstruierte Pointe.Völlig Banane.

Manche Polemik wird halt nicht lustiger, wenn sie bullshittier wird, @baskervil77 ;)
 
  • Gefällt mir
Reaktionen: Connecto, Neubauten und Kenjiii
@baskervil77
Nur war die RTX 3080 nie für den Preis der UVP verfügbar, sondern eher für 900€+.
Abgesehen davon, kannst du ja mal die UVP der 3090 Ti von 1999$ zur 4090 mit 1599$ jetzt vergleichen, wenn die 4090 ca. 60% mehr leistet.............wenn du hier schon von Flagschiffen redest. ;)
 
  • Gefällt mir
Reaktionen: Connecto, DeMeP und Laphonso
Kenjiii schrieb:
Abgesehen davon, kannst du ja mal die UVP der 3090 Ti von 1999$ zur 4090 mit 1599$ jetzt vergleichen, wenn die 4090 ca. 60% mehr leistet.............wenn du hier schon von Flagschiffen redest. ;)
Allerdings war der 3090Ti Preis sehr offensichtlich so hoch angesetzt, um die 4090 dann wieder “darunter” zu platzieren. Daher wäre ich defensiv mit dem Vergleich.
Wir Enthusiasten machen den Quatsch ja mit. In der Region kauft man auch nicht rational oder nach Preis-Leistung.

Falls eine 4090Ti doch noch kommen sollte, wird die galant ebenso wieder 1999 Dollar MSRP kosten.
 
  • Gefällt mir
Reaktionen: BGnom, DagdaMor, Rockstar85 und eine weitere Person
Das einzige gute an dieser Karte für mich ist der niedrige Verbrauch, ansonsten führt der hohe Preis wenigstens dazu, dass ich noch einen guten Preis für meine rtx 3080 bekomme, wenn ich zu einer rtx 4090 wechsel (die einzige interessante rtx 4000 Karte in meinen Augen)
 
  • Gefällt mir
Reaktionen: Grundgütiger und fox40phil
Zurück
Oben