Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.967
Igor bestätigt die aussage sogar.. Ach ist es echt soo schwer mal Objektiv zu sein?Ragnarök88 schrieb:Ja, er zeigt dir, dass die Karten unter Vollauslastung (4K) unter Rasterbedingungen eine vergleichbare Effizienz aufweisen, während die EffizienzVorteile unter RT Bedingungen für Nvidia sehr groß sind.
Ich sagte ja, Lesen will gelernt sein..
cookie_dent
Commander Pro
- Registriert
- März 2017
- Beiträge
- 2.955
Evtl. liegt´s auch einfach nur am Preis?Ano_Dezimal schrieb:Irgendwie dachte ich das ich mehr gehyped bin. Ich glaube ich werde langsam zu alt für das alles.
Geht mir jedenfalls so.
Ano_Dezimal
Banned
- Registriert
- Juli 2019
- Beiträge
- 1.139
Ne der Preis ist mir egal und auch der Preisverlust der 3090 GPU beim eventuellen Verkauf. Ich glaube es ist einfach nur weil es halt doch nur eine Grafikkarte ist. Vermutlich werde ich trotzdem eine kaufen wenn die Karte die in Frage kommt lagernd ist.cookie_dent schrieb:Evtl. liegt´s auch einfach nur am Preis?
Geht mir jedenfalls so.
Banger schrieb:Das war auch meine Beobachtung, kurz vor dem Ende der Sync-Range Tearing. V-Sync an und Tearing weg. Niedriglatenzmodus auf Ultra noch rein und V-Sync-Inputlag weg, der sonst bei 144/144 aufgetreten wäre.
Deswegen macht man ja ein fps-cap rein, um eine gesunde Distanz zum Ende der Sync-Range zu haben. So bleibst du stets innerhalb der Range und vermeidest somit auch den Inputlag, der durch V-Sync Buffering bei fps>= Hz eintreten würde.
Der fps-cap bringt auch den Vorteil, dass du dich vom GPU-Limit entfernst (sofern deine gpu stark genug ist und mehr fps als Hz kann). Durch Vermeidung des GPU-Limits reduzierst du dann die Latenz wesentlich mehr als der Low Latency Mode es tut.
Mann hab ich mich erschreckt, als ich das erste Mal den Trümmer in den Händen einer Person gesehen hab. Da musste ich sofort an den Aprilscherz denken.superrocko schrieb:Da benötigte man eben keine 600 Watt mehr, aber die Kühler & Designs waren soweit fertig und bestellt, das man das nicht mehr stoppen konnte.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Seit Jahr und Tag muss ich den unnützen Kühler abbauen, wenn ich mal wieder aufrüste. Und da bin ich bestimmt nicht nur einer von wenigen. Möchte gar nicht wissen, was der überflüssige Klumpen auf der 4090 kostet.
Zuletzt bearbeitet:
Wer bei der Karte nicht zuschlägt ist selber schuld und alle die eine 3090 haben bekommen noch halbwegs gutes Geld und können mit knapp 1000€ auf eine 4090 umsteigen besser und Billiger geht es nicht
Ergänzung ()
Das Problem war als DP 2.0 verabschiedet wurde und Offiziell war gab es schon kein zurück mehr bei Nvidia daher 1.4 und sind wir mal ehrlich wer hat schon 8k 60hz und zockt darauf ?Rickmer schrieb:Displayport 1.4 ist ja mal ein heftiger Fail... eine Karte, die bei 4K hohe Bildraten schafft und dann kann sie die nicht ans Display weiter geben. DP2.0 wäre für mich ein musthave gewesen bei so einer Karte.
Hutzeliger schrieb:Wenn man sich mal die Tests und das Vid von Igor anschaut hauts einen um.
Diese Karte ist beim Gaming weit weg von 450 Watt! Nicht drüber sondern darunter!!!
Jo und mit undervoltung kann man auch nur gut was rausholen an Effizienz.
Aber anderes Thema. Deine Signatur. Ich hab fast einen Schlaganfall bekommen beim Versuch die zu lesen!
Hutzeliger
Banned
- Registriert
- Okt. 2021
- Beiträge
- 1.144
Thares schrieb:Reicht bei dem Biest eine 1000 Watt Netzteil in Kombi mit AMD 5950X ohne Wasserkühlung nur Luft bzw . mit 7 Lüftern Noctuah 140mm und zwei M2SSD.
Ja Dicke,
bitte schaut euch die Empfehlung von IGOR an! Wirklich, die realen Zahlen sind noch viel besser als hier dargestellt, der reale Gaming Verbrauch liegt deutlich unter 450 Watt.
WQHD: 321 Watt Average
Igor Empfiehlt ein 850 Watt NT.
Spannungsspitzen sind auch nicht relevant. Wahnsinns Stück Technik.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
TotoundHarry
Cadet 3rd Year
- Registriert
- Jan. 2021
- Beiträge
- 42
Interessant werden erst 4080 12 bzw. 16 gb
Jenergy
Rear Admiral
- Registriert
- Dez. 2008
- Beiträge
- 5.450
Ich hatte doch gar nichts von PCI-Express geschrieben...? Es geht aber auch um Zukunftssicherheit. Neue Mainboards kommen nunmal mit PCIe-5.0 daher. Da ist es doch ein Witz, wenn die "neue" GPU bereits wieder veraltet ist.ben12345 schrieb:Was genau soll den pci e 5 bringen wenn nicht mal bei 4 die lanes ausgereizt werden? Bringt doch absolut 0 Vorteile oder? Hab ich da was falsch verstanden?
Die Geduld, die so zu bauen, muss man erstmal habenAtnam schrieb:Aber anderes Thema. Deine Signatur. Ich hab fast einen Schlaganfall bekommen beim Versuch die zu lesen!
Wozu soll ich die kaufen die Spiele laufen super . Vielleicht in 1-2 Jahren wenn die Spiele nicht mehr flüssig laufen .Benni1990 schrieb:Wer bei der Karte nicht zuschlägt ist selber schuld
- Registriert
- Mai 2011
- Beiträge
- 21.350
Da siehst du die Sache aber von der falschen Seite aus.Jenergy schrieb:Es geht aber auch um Zukunftssicherheit. Neue Mainboards kommen nunmal mit PCIe-5.0 daher. Da ist es doch ein Witz, wenn die "neue" GPU bereits wieder veraltet ist.
Die GPU benötigt schlicht kein PCIe 5.0. Sie würde auch in 5 Jahren dadurch auf einem 5.0 Board nicht plötzlich schneller werden.
Wichtiger wäre es, dass man ein Board kauft, das in Zukunft eine GPU versorgen kann, die PCIe 5.0 benötigt, auch wenn die nächsten mindestens 2 Generationen dadurch noch keinen Vorteil haben werden.
- Registriert
- Feb. 2019
- Beiträge
- 6.016
Benni1990 schrieb:Das Problem war als DP 2.0 verabschiedet wurde und Offiziell war gab es schon kein zurück mehr bei Nvidia daher 1.4 und sind wir mal ehrlich wer hat schon 8k 60hz und zockt darauf ?
Naja, die Karte ist gerade rausgekommen und wird auch in einigen Jahren noch laufen. Auch jetzt gibt es schon 4k - 240hz Monitore. Mit DLSS3.0 erreicht man auch entsprechende Framezahlen. Schon Schade, dass da dann Displayport 1.4 limitiert. Benutzt man dann HDMI2.1 für den Spiele-PC?
PCIE5 oder 4 ist hingegen völlig egal, da die Grafikkarte auch mit PCIE4 die volle Leistung abruft. Auch in der Zukunft wird da niemals von PCIE5 profitiert. Das wird vielleicht bei der nächsten, schnelleren Grafikgeneration ein Thema.
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.980
Die Gerüchteküche hat für ordentlichen Absatz von Netzteilen, Lüftern und Airflowgehäusen geführt.
Nice und gut gemacht an alle, die darauf reingefallen sind.
Die GPU ist extrem nice.
Verfügbarkeit?
4080 16gb Test ist nun noch interessanter. AMD Release ebenso.
Nice und gut gemacht an alle, die darauf reingefallen sind.
Die GPU ist extrem nice.
Verfügbarkeit?
4080 16gb Test ist nun noch interessanter. AMD Release ebenso.
- Registriert
- Dez. 2014
- Beiträge
- 9.260
Jupp.zivilist schrieb:Spaß beim zocken kommt bei gut gemachten Games auf, nicht das man die maximale Auflösung und Detailgrad einstellen und hohe fps erreicht. Wenn die Spiele schlecht sind bringt auch eine schnelle GPU nichts.
Ich überspringe mal 3 Generationen.
Ich erlebe das gerade wieder mit the Witcher 3.
Ich hab zwar via Mods massiv was an der Grafik getan, aber selbst damit ist das Gameplay das wichtigste. Ob ich das jetzt auf meinem Laptop oder meinem Desktop zocke ist mir egal. Der einzige Unterschied ist, dass der lappi ne 1050ti hat und der Desktop ne 6800. Bockt macht's auf beiden 👍
Ähnliche Themen
- Antworten
- 114
- Aufrufe
- 45.626