Test Nvidia GeForce RTX 4070 FE im Test: (Knapp) RTX-3080-Leistung und 12 GB für 659 Euro

@DJMadMax
Interessant. Hatte mich schon öfter gewundert, dass meine 3090 in alten Esportstiteln mit 25-40% Auslastung trotzdem 240-280W durchgezogen hat.
 
  • Gefällt mir
Reaktionen: DJMadMax
Connecto schrieb:
Dennoch habe ich nicht 16GB Speicher für die Grafik zur Verfügung, sondern vielleicht die Hälfte.
8GB sind für OS und den RAM jetzt nicht wirklich viel, auch wenn das ein abgespecktes OS ist.
nee, Du kannst der Grafik locker 12GB zuweisen, das ist NULL Problem.
Teile des PS5 OS könnten auch in der Firmware stecken.
Wie gesagt, ich kenne genug Linux Distris, die mit weit weniger als 4GB auskommen... das ist eigentlich überhaupt kein Problem. Das Problem heißt Windows was einfach ein großer Haufen 💩 ist. Weiters was braucht Sony großartiges? Ihre eigene GrafikAPI, I/O und sonst nix. Keine "Services" "Dienste" oder sonstigen Klimmbimm.
 
Taxxor schrieb:
Naja es ist ja nicht so, dass jemand der heute ne GPU kaufen will, mit der 3080 das gleiche bekommt wie mit der 4070. Es ist immerhin die selbe Leistung bei ~60% des Verbrauchs + der Hardware für DLSS3.

Und die 3080 hat damals auch so gut wie niemand für 699€ bekommen^^
Ne.

4070 hat 23 Prozent mehr Leistung als 3070!
Dafür kostet sie aber 20% mehr.

Man bekommt also 2023 die gleiche Leistung wie 2020. Es gibt keinen technischen Fortschritt, weil die Karte für das Geld einfach zu teuer ist. Wenn sie 499€ kosten würde (!) dann wäre das Fortschritt weil +23 Prozent mehr Performance für gleiches Geld.
 
Stromverbrauch klingt ja mal wirklich interessant. Die könnte auf dem Zettel landen.
 
Piecemaker schrieb:
Man bekommt also 2023 die gleiche Leistung wie 2020. Es gibt keinen technischen Fortschritt,
Also ignorierst du alles was ich geschrieben habe^^
Ich habe selbst gesagt dass man die gleiche Leistung bekommt. Technischer Fortschritt bemisst sich aber eben nicht nur an Leistung sondern z.B. auch daran, dass du diese Leistung 2023 mit 200W bekommst, während du 2020 320W dafür benötigt hast.
 
  • Gefällt mir
Reaktionen: Connecto, Volvo480 und Janami25
Eli0t schrieb:
Direct Storage müßte als IP Block entweder in der GPU oder CPU enthalten sein. Und wenn das AMD in Auftrag von Sony entwickelt hat, dann heißt das, daß das niemand anderer verwenden kann und AMD vielleicht mit Zen5.
Das was die PS5 nutzt, ist etwas ähnliches wie DirectStorage, aber nicht genau das gleiche. DirectStorage nennt sich die Umsetzung von Microsoft für DirectX 12 (Vulkan bekommt auch etwas vergleichbares). Alle Grafikkarten, die DirectX 12 Ultimate unterstützen, müssen eigentlich auch DirectStorage unterstützen. Es mangel auf dem PC also effektiv nur an der Nutzung durch die Spieleentwickler.

Wundert mich ja ein wenig, dass Nvidia da nicht hinterher ist, dass Spiel DirectStorage nutzen. Damit würde es ja weit weniger ins Gewicht fallen, dass die Speichermenge der Geforce-Karten oft sehr auf Kante genäht ist.
 
  • Gefällt mir
Reaktionen: JMP $FCE2
KlaasKersting schrieb:
Weil ein vollwertiger DDR5 DIMM mit Anbindung beider 32 bit Subchannels aus 8 ICs besteht und es keine 1 GB DDR5 ICs gibt, die kleinste Größe sind 2 GB.

Es gibt DDR5 DIMMs mit nur 4 ICs und 8 GB, diese sind jedoch nicht voll angebunden und haben recht deutliche Leistungseinbußen.
https://geizhals.eu/?cat=ramddr3&xf=1454_8192~15903_DDR5~253_16384~256_2x Genau, die gelisteten 16GB Kits bilde ich mir ein :) Du hast voll die Ahnung, Respekt! 👍
 
Taxxor schrieb:
Nein haben sie nicht, es gab damals auch noch keine genauen Informationen zu DLSS3.

Genau wie es aktuell keinerlei Informationen zu DLSS4 gibt, dennoch meint der werte Herr, dass es exklusiv für RTX 5000 kommen wird.

Ach, weil sie bei der letzten Generation nichts gesagt haben, sondern mutwillige ihre Käufer in die Feature-Falle haben laufen lassen um neu abzukassieren, ist das sie diesmal wieder nichts sagen der Beweis dafür, das Sie nicht wieder den selbst Mist machen?

Ich würde ja fast sagen, du bist sehr naiv.
Bei 16k Posts gehe ich dann aber von Vorsatz aus.
 
Zuletzt bearbeitet:
GreatEvil schrieb:
Ach, weil sie bei der letzten Generation nichts gesagt haben, sondern mutwillige ihre Käufer in die Feature-Falle haben laufen lassen um neu abzukassieren, ist das sie diesmal wieder nichts sagen der Beweis dafür, das nicht wieder den selbst Mist machen?

Es gilt immer noch, dass derjenige, der eine Behauptung aufstellt (in dem Fall dass DLSS4 mit RTX5000 kommt und dass es exklusiv darauf laufen wird), diese Behauptung belegen muss und nicht umgekehrt.

Es gibt keine Infos dazu also ist die Grundhaltung zu sagen "wir wissen es nicht".
Wenn nun aber jemand kommt und meint es zu wissen, dann muss er das auch belegen können.

Bei RTX2000 wurde im übrigen auch nichts gesagt, und es gab kein neues DLSS mit RTX3000 was mit den 2000ern nicht lief.
Also hatten wir nun einmal den Fall dass eine neue DLSS Version gekommen ist die exklusiv mit der neuen Gen verbunden ist, und einmal, dass es nicht passiert ist.
 
  • Gefällt mir
Reaktionen: Connecto
DJMadMax schrieb:
so verfälscht es das Ergebnis einfach extrem zu Gunsten der RTX 4000er Karten
auch wenn bisher immer mit den selben FPS-Limit Settings getestet wurde ?
 
Taxxor schrieb:
Es gibt keine Infos dazu also ist die Grundhaltung zu sagen "wir wissen es nicht".
Nicht bei einer Firma, die seit der 700er Serie mehrfach die Feature-Verarsche durchgezogen hat.

Jeder mit etwas Hirn geht da nach solch einem Leitsatz vor:

fool me once shame on you, fool me twice shame on me
 
Verak Drezzt schrieb:
auch wenn bisher immer mit den selben FPS-Limit Settings getestet wurde ?
Wenn du ein Spiel nimmst, das die eine Architektur stark bevorzugt, die andere wiederum nicht, dann könnte man das - auch wenn vielleicht gar nicht beabsichtigt - mit Cherrypicking gleichsetzen.

Wie erklärst du dir denn sonst, dass eine RTX 3080 mit ihrer deutlich größeren Anzahl an Shader-Cores interessanterweise viel mehr Strom benötigt als eine "lahme" 3060 Ti, um 144 FPS zu rendern?

Wenn man z.B. in den Charts hier in diesem Artikel schaut, so braucht die RTX 4070 in DooM Eternal für 144 FPS in 2560x1440 nur 134 Watt laut ComputerBase. Eine RTX 4090 braucht dafür - in ihrem initialen Test nachzulesen (keine Ahnung, wieso sie aktuell nicht mehr in den Charts mitgeführt wird) - sage und schreibe 244 Watt - das sind bombastische 82% mehr Strom. Ich sage nicht, dass die Werte nicht stimmen, ich sage lediglich, dass DooM Eternal offensichtlich ein schlechter Titel zum Testen ist, da nur die - wie in meinem eben geschriebenen Beitrag ermittelt - "schlechten" Möglichkeiten zur FPS-Limitierung bestehen, mit Ausnahme von VSync, welches ich mangels 144 Hz-Display leider nicht testen kann.

Um es anders auszudrücken:
Ich gehe JEDE WETTE ein, dass eine RTX 4090 in jedem anderen Spiel (entsprechende Grafiklast vorausgesetzt) mit VSync auf 144 FPS weniger Strom benötigt als eine RTX 3060 Ti - laut ComputerBase braucht sie aber 20% mehr Strom und DAS wurmt mich einfach, weil es falsch ist bzw. nur in diesem einen vermaledeiten Titel der Fall ist.


EDIT: Ups, jetzt bin ich bei der 4090 in die falsche Spalte gerutscht, sie braucht ja (zum Glück tatsächlich) weniger Strom als die RTX 3060 Ti im 144 FPS-Limit.

Es ändert aber nichts an der zuvor aufgedeckten Problematik, dass mit DooM Eternal (und 2016) scheinbar nur sehr schelcht greifende FPS-Limiter eingesetzt werden können, womit eben (ausser, die Architektur spielt mit Vulkan mit?! Ada Lovelace?!) keine guten bzw. aussagekräftigen Werte ermittelt werden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Verak Drezzt
JMP $FCE2 schrieb:
Trotzdem geht für BS, Programmcode des Spiels und Daten des Spiels RAM drauf, und ich bezweifle doch sehr, dass das weniger als 4 GB sind.
https://www.makeuseof.com/tag/linux-distro-space/
Guckst Du mal was so ein lightweight Linux verheizt... Also ich denke Sony ist so schlau und kann das ebenso für ihre Konsole optimieren wie manch Linuxianer die mit 256MB auskommen.
Ergänzung ()

mibbio schrieb:
Das was die PS5 nutzt, ist etwas ähnliches wie DirectStorage, aber nicht genau das gleiche. DirectStorage nennt sich die Umsetzung von Microsoft für DirectX 12 (Vulkan bekommt auch etwas vergleichbares). Alle Grafikkarten, die DirectX 12 Ultimate unterstützen, müssen eigentlich auch DirectStorage unterstützen. Es mangel auf dem PC also effektiv nur an der Nutzung durch die Spieleentwickler.

Wundert mich ja ein wenig, dass Nvidia da nicht hinterher ist, dass Spiel DirectStorage nutzen. Damit würde es ja weit weniger ins Gewicht fallen, dass die Speichermenge der Geforce-Karten oft sehr auf Kante genäht ist.
Was Sony benutzt IST direct storage wie man es verstehen sollte. Das was M$ macht ist quasi ein Workaround. Nicht zu vergessen, der PC muß über PCIe gehen, das spart sich Sony und diese Latenz ist schon ein ordentlicher Zeitfresser.
 
Eli0t schrieb:
Wenn es Linux Distros gibt, die am ruhenden Desktop knapp 700MB mit GUI verbrauchem kann man davon ausgehen, daß Sony wesentlich weniger verbraucht.

Da fehlen noch Programmcode und Daten des Spiels, die 8 CPU-Kerne müssen ja schließlich auch beschäftigt werden.

mibbio schrieb:
Wundert mich ja ein wenig, dass Nvidia da nicht hinterher ist, dass Spiel DirectStorage nutzen.

Die verdienen doch prächtig an der geplanten Obsoleszenz.
 
Verak Drezzt schrieb:
auch wenn bisher immer mit den selben FPS-Limit Settings getestet wurde ?

Das bezweifel ich ja schon seit den super "Teillastverbräuchen" der 4090.
Eine gehaltvolle Antwort dazu, hab ich weder in der deutschen- noch in der englisch-"Fach"presse gelesen.

Und die 4090 ist mehr als 6 Monate auf dem Markt.
 
  • Gefällt mir
Reaktionen: Verak Drezzt
Eli0t schrieb:
Nicht zu vergessen, der PC muß über PCIe gehen, das spart sich Sony und diese Latenz ist schon ein ordentlicher Zeitfresser.

Es reicht allemal aus, um Texturen vorausschauend zu laden.

Und selbst wenn nach einem unvorhersehbaren 180°-Flickshot eine Textur erst nach 100 ms durch die schärfere Version ersetzt wird, ist das immer noch um Welten besser, als wahlweise Stottern oder Dauermatsch wie bei TLoU.
 
Zuletzt bearbeitet:
Fps limits setze ich nur dann wenn es die game engine quasi erzwingt von denen 60fps auf 75fps wegen der Bildschärfe und Farbechtheit das geht genre mal in 35-235 über bei nen 6bit panel äka TN sieht man das nicht aber bei meinen va sehr deutlich.
gegen oled kommt nix ran aber hat Nachteile bei genaueren hinsehen wie kantenflimmern sowie text clearheit
Also demnach beste option bei Bildschirmen va und je mehr hz desto besser.
zurück zu spielen diese werden für die Konsole hin designt und diese richten sich an TV Ausgabe von 35-235 und oder oled.
Letztere nimmt man hin und haben den netten Nebeneffekt das man Beleuchtung nicht extra erhellen braucht.
Deswegen sind viele spiele mittlerweile eher dunkel und können bei falschen display recht grau wirken.
Siehe die letzten horror spiele. aufn ips und tn quasi unansehnlich.
Am ende kommt es sehr stark darauf an wie ein spiel designt wurde.
Vieles von alten spielen geht durch falsche kombi aus lcd und 6bit 8bit/10bit tn ips panels verloren
da hilft auch selbst HDR nicht da die pixel Organisation einfach nur eben 4 pixel sind mit 4 subpixel bei hdr sind es 2 subpixel also 12 pixel gesamt in reihe das erhöht lediglich den Farbraum aber nicht den kontrast der wesentlich wichtiger wäre in oled sieht das anders aus da sind es 5 pixel mit 5 subpixel.
Und demzufolge reale 10bit und nicht interpolierte 10bit
leider ist die ganze content darauf optimiert im internet auf 4 pixel demzufolge wird Schrifft unscharf bei oled.
Was das alles mit fps Begrenzung zu tun hat nun ich bemesse nicht nur die fps an sich sondern das Bild insgesamt die ideale Lösung ist derzeit sdr mit hohen hz und va am PC am Tv ist es oled
Demzufolge auch angepasst bei Video Bearbeitung in 10bit. HDR echtem hdr und nicht dem von ips panels.

Was den Strombedarf angeht ist das Simple einfach pt auf 65% und fertig ein fps limit setzt man sich nur wenn ein spiel mit mehr fps Probleme macht oft physik oder clipping Fehler.
Darum kaufe ich auch keine sku die mehr als 180w tbp hat.

Ada könnte so gute entry gpu bieten mit 40sm als rtx4060 12gb und nur 180w tbp
daraus wird nix da ad106 mit verkleinertem si und zu langsamen gddr6 18gbps kommt statt auf 22gbps zu setzen.
Dann wäre die gpu ne alternative mit 150w tbp 36sm 2,6ghz 16gb 479€ = 16,4tf äka rtx3070
 
Zurück
Oben