Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3
Banger
Fleet Admiral
- Registriert
- Aug. 2010
- Beiträge
- 39.448
Das heißt also auch, dass jede 4080 auch läuft, wenn sie nur 2 Stecker bekommt und der dritte vom Dreizack leer bleibt. Also bei Modellen, die keine Gamingpro von Palit sind. Wenn 2 Stecker zusammen 300W liefern und der Slot 75, reicht das da selbst, wenn man das Powertarget erhöhen will.
Was würdet ihr sagen ist eigentlich eine gute CPU als "Partner" für eine RTX 4090? Aktuell setze ich einen 5800X ein auf einem MSI B550-A Pro Mainboard und 32GB RAM DDR4 mit 3200MHz.
Tatsächlich ist der Verbrauch bei mir in Benchmarks auch schonmal 460W, aber nur für Sekunden. Normalerweise dümpelt die Karte bei 4k max details eher so bei 150W rum.
Ergänzung ()
tomcat66 schrieb:Ja, reichen. Aber "nur" bis 450 W. Wer die letzten 150 W auch noch braucht - für die Karten, die 600 W überhaupt unterstützen - der muss 4 Stecker anschließen.
Tatsächlich ist der Verbrauch bei mir in Benchmarks auch schonmal 460W, aber nur für Sekunden. Normalerweise dümpelt die Karte bei 4k max details eher so bei 150W rum.
Ganz einfach: Die schnellste! Denn rein technisch gesehen limitiert aktuell jede CPU die 4090. Ob du das auch merkst in deinen Spielen mit deinen Einstellungen, steht wieder auf einem anderen Blatt.laurooon schrieb:Was würdet ihr sagen ist eigentlich eine gute CPU als "Partner" für eine RTX 4090?
Die heißesten Kandidaten wären ja 7800X3D und 7900X3D, welche bereits im Februar erscheinen. Wenn du dein aktuelles System zu einem guten Preis los wirst und du die Kohle für neue CPU+Board+RAM übrig hast, dann los!
Oder schnallst den 5800X3D auf dein Brett. Mit dieser Variante hadere ich auch gerade.
Ich habe mal eine Frage zum Thema DLSS. Bei den Benchmarks wird ja immer nur nach den maximalen Frames gefragt, auch wenn 300 fps nicht immer sinnvoll sind, z.B. wenn das Display diese gar nicht wiedergeben kann.
Wenn ich also eine Ziel-fsp von 60 habe, kann ich dann durch DLSS noch effizienter, also "stromsparender" arbeiten? Ich müsste DLSS nicht akvieren, könnte aber. Dann müsste die Karte nur ca. 30 "echte" Frames berechnen, der Rest wäre Frame Generation. Verbraucht das weniger Leistung als 60 echte Frames zu berechnen?
Wenn ich also eine Ziel-fsp von 60 habe, kann ich dann durch DLSS noch effizienter, also "stromsparender" arbeiten? Ich müsste DLSS nicht akvieren, könnte aber. Dann müsste die Karte nur ca. 30 "echte" Frames berechnen, der Rest wäre Frame Generation. Verbraucht das weniger Leistung als 60 echte Frames zu berechnen?
t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.257
Kurzes Fanboy Gelaber, Nvidia bringt den nächsten Gamechanger auf den Markt:
Puh, da wird AI richtig nach vorne getrieben. Vor allem werden so die neuro networks weiter trainiert und verbessert...
Ich hoffe es in der Praxis nur halb so gut, dann wäre es wirklich krass.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Puh, da wird AI richtig nach vorne getrieben. Vor allem werden so die neuro networks weiter trainiert und verbessert...
Ich hoffe es in der Praxis nur halb so gut, dann wäre es wirklich krass.
Mal eine Verständnisfrage:
Warum senkt die Grafikkarte ohne GPU Limit nicht Takt und Spannung ?
Stelle ich es selbst im Curve Editior ein dann spart man ja deutlich Strom.
Ohne eigene Kurve macht es die Karte erst bei 50% Powerlimit von Alleine !?
Warum senkt die Grafikkarte ohne GPU Limit nicht Takt und Spannung ?
Stelle ich es selbst im Curve Editior ein dann spart man ja deutlich Strom.
Ohne eigene Kurve macht es die Karte erst bei 50% Powerlimit von Alleine !?
Zuletzt bearbeitet:
Hat 240Hz und läuft aktuell ohne Sync um zu schauen ob Tearing bei so hohen Hz noch relevant ist.
Mit der 3080 hatte ich in vielen Spielen trotz G-Sync das Problem, dass z.B. 90 FPS schlechter liefen
als 60FPS und perfekt war es immer erst wieder ab 110-115 FPS was irgendwie keinen Sinn ergab !?
Wollte eigentlich noch mit echtem G-Sync gegentesten aber solche Monitore sind selten geworden.
Mit der 3080 hatte ich in vielen Spielen trotz G-Sync das Problem, dass z.B. 90 FPS schlechter liefen
als 60FPS und perfekt war es immer erst wieder ab 110-115 FPS was irgendwie keinen Sinn ergab !?
Wollte eigentlich noch mit echtem G-Sync gegentesten aber solche Monitore sind selten geworden.
Zwar schon lange her, aber kann mich hier auch mit extremem Spulenfiepen bei einer TUF anschließen. Werde die Woche noch eine Gigabyte Gaming OC testen, mal sehen, ob es da besser ist.requiRe schrieb:Moin, kurze Frage: Hat deine TUF 4090 Probleme mit sehr starkem Spulenfiepen?
Update: Ja, die Gigabyte Gaming OC ist deutlich besser. Zuerst dachte ich gar kein Spulenfiepen zu hören, aber wenn man die Lüfter nur noch mit 1000 RPM drehen lässt und so bei 120 FPS ist, kann man doch ein bisschen was raushören. Aber kein Vergleich zu dem Düsenjet Spulenfiepen der TUF...
Zuletzt bearbeitet:
Schumi1984
Lt. Junior Grade
- Registriert
- Juli 2018
- Beiträge
- 371
Die Zotac Geforce RTX 4090 Trinity OC gibts auch aktuell für 1.999,95€ bei Kaufland.
Schumi1984
Lt. Junior Grade
- Registriert
- Juli 2018
- Beiträge
- 371
Sorry das hab ich jetzt nicht gesehen hab nur Kaufland gelesen und dachte kommt direkt von denen.
Schumi1984
Lt. Junior Grade
- Registriert
- Juli 2018
- Beiträge
- 371
Bei NBB gibts die Zotac GeForce RTX 4090 AMP Extreme AIRO heute für 1.999,00€
Ähnliche Themen
- Antworten
- 114
- Aufrufe
- 45.584