Test Nvidia GeForce RTX 4090 im Test: Brachial schnell, auch mit weniger TDP und ohne DLSS 3

Uskok1530 schrieb:
Aus meiner Sicht ist das Thema zu wenig angesprochen worden. Ich habe die 4090 in einen Asus Helios. Dort gehen auch 190 mm CPU Kühler rein. Dürfte eines der breitesten Gehäuse vom Innenraum sein. Damit geht die Asus 4090 TUF "passabel" rein. Alles andere ist Mist. Die Karten sind zu hoch.
In mein Define R6 gehen 185mm CPU Kühler rein.
Für die FE oder Customs die bei ~140mm Höhe liegen, dürfte das gerade so ausreichen.
 
lucky_luke schrieb:
In meinem guten Gehäuse aus dem Jahr 2000 (ist immer offen):
Oha. Gerade so einer Hardware würde ich ein gutes Gehäuse spendieren, natürlich dann geschlossen mit einem guten Airflow ;)
 
Kann die TUF jetzt mal das WE selbst testen. Watt ein Brocken und die Performance ist wirklich uiiiii:freak: was ich bisher getestet habe. Karte ist top verarbeitet und rennt mit 60% PL immer noch wie hulle. Leider passt die Karte mit dem Adapter natürlich nicht in mein o11d ,hab also gar nicht versucht die Kabel zu knicken.

Würde die Karte denn vertikal reinpassen? Weiss das einer?

Also mit dem Zubehörteil?

https://lian-li.com/product/o11d-1/
 
Taxxor schrieb:
In mein Define R6 gehen 185mm CPU Kühler rein.
Für die FE oder Customs die bei ~140mm Höhe liegen, dürfte das gerade so ausreichen.
Da passen auch höhere Karten rein. Meine Windforce hat locker reingepasst und die hat 150mm Höhe.
 
mkay87 schrieb:
Da passen auch höhere Karten rein. Meine Windforce hat locker reingepasst und die hat 150mm Höhe.
Geht ja darum dass man noch ausreichend Platz für einen großen biegeradius der Kabel hat.

155mm Inkl Stromkabel steht für die GPU im Datenblatt des R6
 
Tornavida schrieb:
Würde die Karte denn vertikal reinpassen? Weiss das einer?

Das ist das falsche Set, das unterstützt nur bis PCI-E Gen 3. Es gibt noch ein Set mit Gen 4 Support, https://lian-li.com/product/o11d-1-vertical-gpu-bracket-kit-pci-e-4-0/

Das Kit erweitert ja um 4 Slots (beim Evo, Mini und XL verhält sich das anders), es sollte also passen. Allerdings entfallen dann sämtliche Lüfter am Boden ,die kursierenden Frickelösungen lassen die Graka frei schweben.

Ich habe dasselbe Gehäuse (weiß mit schwarzen Scheiben) und wusste vorher dass ich das Problem haben werde. Also nach neuen Gehäusen gesucht, aber das O11 ist für mich Maß der Dinge und durch nichts am Markt zu ersetzen, außer eben durch das breitere O11 Evo, welches ich nun kurzerhand bestellt habe (allerdings in grau, das weiße sagt mir nicht zu), da es noch weitere Vorzüge gegenüber seinem Vorgänger hat.

Das nimmt eine FE 3090 auf und sollte mit Winkeladapter auch eine horizontal verbaute 4090 (bei mir auch FE) aufnehmen können. Im Zweifel halt das Vertikal Kit, dass besser gelungen ist als beim O11 Dynamic.

Aktuell siehts bei mir richtig Assi aus :D

IMG_2531.JPG
 
  • Gefällt mir
Reaktionen: Kommando
@wickedgonewild

Danke für den Hinweis, hatte es nur schnell rausgesucht beim Posten. Natürlich ist das Kit mit dem PCI-E Gen4 Riser das Richtige für die Karte. Wichtig für Andere.

Die Lüfter am Boden würde ich schon gerne drin lassen und die Karte von unten abstützen.Die Tuf hat eine dünne magnetische Stütze ,die in den Freiraum zwischen meine Lüfter passt an den Ecken, da sie rund sind. Das sollte ja gehen wenn ich das Riser einfach frei einklicke an die Karte oder sind da Probleme zu erwarten? Auf einem You Tube Video sah das Riserkabel eigentlich recht solide aus und der Gute hat so eine Strix 3090 vertikal verbaut, auch mir allen drei Lüftern am Boden. Der Abstand zum Seitenfenster sollte ja passen und die Tuf ist ja eher eine der schmaleren 4090 ,sodass die Chancen vermutlich nicht schlecht sind dass es mit den Bodenlüftern kollidiert. So jedenfalls meine Überlegung. Bliebe noch der blöde Adapter,der dann wie ein P.... nach oben ragt.

Ich bestell das Teil einfach mal, Probieren geht über Studieren, weil anderes Gehäuse und/oder System auseinanderrupfen habe ich keine Lust.

PS: Meine 3090FE habe ich in das "normale" O11 easy verstaut bekommen, sah natürlich auch net so schick aus mit dem Adapter aber immerhin. Du meinst sicher deine 4090FE. Übrigens schickes System.
 
Tornavida schrieb:
PS: Meine 3090FE habe ich in das "normale" O11 easy verstaut bekommen, sah natürlich auch net so schick aus mit dem Adapter aber immerhin.
Je nach Netzteilhersteller gabs dafür (3090 FE) auch Adapter (12 Pin), ich habe zum Beispiel eines von bequiet eingesetzt, da konnte man das Kabel schön nach hinten wegführen.
Tornavida schrieb:
Übrigens schickes System.
Danke :).
 
Hm um wieviel wohl die rtx 4090 gegenüber einer rtx 3050 an Leistung beim videoumwandeln zulegt.
Ich habe es getestet gehabt, eine rtx 3050 gegenüber einer Gtx 1650. Die Leistung ist beim h264 irgendwie nicht mehr gestiegen. Ich muss wohl was falsch machen. Weil scheinbar gibt es da keine leistungs Steigerung mehr. Liegt also wohl an der verwendeter Software nicht wahr?

Na wenn das so ist dann kann ich es ja da warten bis die cpus auch auf eine unsichtbare Wand stoßen und dann sagen, die haben ihr maximum erreicht. So viel zu unendlicher Steigerung. Ich habe wohl zu hohe Erwartungen gehabt an die gpu oder was auch immer.
 
Da die 4090 aber zwei Encoder hat sollte es schneller gehen (sobald die Software dafür angepasst wurde). Erste Tests zeigen derzeit etwa 30% mehr Leistung beim Encoden. Sollten aber mal sicher bis zu 80 oder 90% mehr sein mit zwei Encodern in Zukunft.
 
Dann liegt es aber an den Encodern und nicht an der 4090. Also warten solche Karten auch 2 haben.
 
OK ich habe die gefunden gehabt die ich suchte. 44 % oder 27 % je nach dem welchen codec man umwandelt. Aber auch nur in extremen settings, in niedriger wird wohl der Abstand sehr viel weniger sein. Scheinbar kann man nur mit extremen settings hier noch den abstand erhöhen. Habe irgendwie mehr erwartet gehsbt das es auch nicht nur bei extremen funktionieren würde. Scheinbar ist irgendwann mal das Ende erreicht. Ich mache noch mehr Tests denn bisher finde ich es fraglich das zwischen Gtx 1650 und rtx 3050 keine leistungssteigerung gegeben hatte. Liniert nun etwa die software dann?
 
Zuletzt bearbeitet:
latiose88 schrieb:
Hm um wieviel wohl die rtx 4090 gegenüber einer rtx 3050 an Leistung beim videoumwandeln zulegt.
Ich habe es getestet gehabt, eine rtx 3050 gegenüber einer Gtx 1650. Die Leistung ist beim h264 irgendwie nicht mehr gestiegen. Ich muss wohl was falsch machen. Weil scheinbar gibt es da keine leistungs Steigerung mehr. Liegt also wohl an der verwendeter Software nicht wahr?
Ich kann nur empfehlen, da mal in Sachen Software nach links und rechts zu schauen. Ich hab auch jahrelang für Premiere Pro optimiert und liebäugel jetzt Davinci Resolve, was bei ein paar Probeprojekten einfach so 30% schneller war.
 
lucky_luke schrieb:
In meinem guten Gehäuse aus dem Jahr 2000 (ist immer offen):

Anhang anzeigen 1275136
Geil, so sah mein Schiff des Theseus vor zehn Jahren auch mal aus. Gehäuse im schönsten 90er-Beige war komplett geschlossen, 3.5"- und 5,25"-Floppy und DVD-Brenner funktionsfähig angeschlossen an der Front und drin wohnte seinerzeit der AMD-Quadcore mit GTX 560. Ein richtiger Sleeper. Aber mit GTX 4090 ist das noch viel besser. 🤣

Hatte allerdings die gelochte Öffnung für den 120mm-Gehäuselüfter komplett aufgeschnitten und ein richtiges Lüftergitter aus Draht montiert, danach war Airflow mit Papst 4412 kein Thema mehr, heute gibt's von Noctua besseres. Der Netzteil-Lüfter hatte schon problemlos die 350W-Brutto-Leistung allein aus dem Uraltgehäuse bekommen, mit Gehäuse-Lüfter wurde es dann sogar noch leise. Habe noch gelochte Slotblenden verwendet und das war es. Übrigens sind die Rasten unten rechts für Montageschienen gedacht, die eigentlich an Karten voller Baulänge dran sein sollten, um sie abzustützen. Damit wär's perfekt.
 
  • Gefällt mir
Reaktionen: lucky_luke
Odium schrieb:
Ich kann nur empfehlen, da mal in Sachen Software nach links und rechts zu schauen. Ich hab auch jahrelang für Premiere Pro optimiert und liebäugel jetzt Davinci Resolve, was bei ein paar Probeprojekten einfach so 30% schneller war.
Echt cool nen richtiger Experte in dieser richtung. Naja die software ist nicht ganz ideal weil ich immer xmedia recode verwenden. Und zwar immer die ältere Version weil die aktuellste mag zwar mehr Funktionen haben und auch bei gpu schneller sein als die ich immer verwende aber es macht Probleme. Es behält nicht alle settings bei die ich eingestellt hatte. So dauert es auch länger dies wieder zu aktivieren. Ja ich weiß das ist zwar meckern aber ich bin ein wenig faul.

Die anderen software haben das Problem mit dem dinterlacer. Die können alle nicht diesen Filter den ich brauche damit umgehen. Ständig hatte ich Probleme gehabt mit meinen videos also TV Aufnahmen. Die müssen von nen bestimmten Filter gerade gebogen werden weil sonst gibt es Probleme.
Das habe ich alles den TV Sendern zu verdanken. Ich kann also nicht jeden Filter verwenden weil dann kommen solche Sachen wie asyncron weil bild und Ton nicht mehr passt, Bild flackert oder es gibt hässliche Artefakte mitten bei dem ganzen video oder alle paar Sekunden verschwindet das Bild.

Ist zwar gut das so langsam mehr Einstellungen gibt aber die sind noch immer zu wenig. Diese würden aber helfen um noch weiter die Aufnahmen zu verkleinern. Da aber die gpus strunds dumm sind um in diese Lage so kommen geht das leider nicht.
Leistung wäre ja mehr als genug in der Lage um richtig gute Qualität. Weil es gibt ja inzwischen Codecs die fordern die gpu mehr als h264.
Zu entscheiden zwischen bildgröse oder Bildqualität und nicht einfach beides zu bekommen finde ich frustrierend.
Und ich war neugierig wenn schon nicht beides ob es da noch schneller geht.
Ich dachte echt je mehr Cuda cores ne gpu hat, desto schneller würde sie arbeiten.

Aber scheinbar kann ab einen gewissen Punkt die Hardware der Software nicht mehr beschleunigen. Mir sagte wer es gäbe kein Limit bei der leistungssteigerung nur die fertigung würde die Leistung limitieren. Aber es stimmt nicht, weil ab einen gewissen Punkt bringt auch die keine Leistungsteigerung mehr.

Das ist wie wenn ich h263 auf cpu nehmen würde und mich dann wundere warum da denn keine Steigerung mehr kommt. Und warum weil der codec einen 4 Kerne Limit hat. So wird es wohl auch bei gpu sein nicht wshr?
 
x264 ist jetzt aber auch relativ alt und wird wohl kaum noch Optimierungen erfahren. Bei x265 ist das sicher anders genau wie dem kommenden AV1.

Wenn du eh encodest auf der GPU, dann würde ich lieber was komplexeres wie h265 nehmen als 264 was schon auf der CPU ziemlich rasant läuft und bessere Resultate erzielt als über Hardware.
 
  • Gefällt mir
Reaktionen: up.whatever
naja will es halt überall Abspielen können,da habe ich mit x265 so meine Probleme gehabt.Von Ton ohne Bilder und auf Reciver wo nicht unterstüzte Codec gestanden ist.Und teilweise ruckelt es beim Abspielen mehr bei x265 als bei x264.Hat also seine Gründe.
Was ich auch schade finde,das man bei GPU auf x265 gehen muss um die Bildqulität wie bei CPU H264 zu erreichen.So der bringer ist es ja nicht.Wird wohl auch daran liegen,das es unter CPU Umwandeln mehr Einstelllmöglichkeiten gibt als bei GPU.
Die ist halt nur auf Einfach gemacht.Also egal ob low oder Highend,die GPU wird niemals den Stand einer CPU erreichen. Da hilfe auch 2x der Decoder der rtx 4090 auch nix mehr.
Und klar setzt ich auf einen Veraltetetn Codec,das ist mir bewusst.Ich hoffe allerdings noch immer das auch die GPU sich da was Verbessern wird.Also nur durch die Hardware.
Weil so wird irgendwann die CPU die GPu bei der Geschwindigkeit gleichgezogen haben.
Wenn also die GPU nicht mehr schneller wird,aber die CPU so weit,das sie gleich schnell ist,dann tendiere ich doch zu ner CPU.
Warum die braucht weniger Strom,ist Preiswerter und leichter zu Kühlen.
Und mir schon klar das zwischen niedrigste und höhere Settings nen Leistungsverlust herscht,selbst bei GPU ist das so.Und dann auch noch durch 2 gleichzeitig auch noch.

Ich gehe aber mal davon aus,die CPU wird es nicht ganz die Geschwindigkeit der einer GPU erreichen weil da schon etwas früher die Software Limitieren wird.Also rund 18 % fehlen der CPU zum Maximalen Limit.Dann gibt es keine Steigerung mehr.

Dann trennt CPU zu GPU nur noch rund 7 % Leistung.Es gibt dann nix mehr was sich noch beschleunigen lässt.
Ab da wird dann wohl auch die mit weniger Kernen,aufholen.So lange bis alle CPUS die gleiche Leistung erreichen.Dann hole ich mir das günstigste und fertig.
Bis dahin werde ich auch noch die selbe Version Unterwegs sein.
Software Entwickelt sich nur bei Games schneller weiter.Bei so Umwandlungs Software herscht ne andere Zeit.
Es vergingen 6 Jahre und Leistungs Mäßig hat sich nur sehr wenig getan.Ich könnte also ruhig weitere 10 Jahre damit untwerwegs sein und es wird sich nix mehr tuen.

Klar H265 wird besser und schneller oder AV1,aber sonst wird sich nix mehr tuen.

Ich freue mich also irgendwann am Limit bei h264 zu sein.Ich erlebe das noch im meinem Leben.Und wenn nicht erschlag ich einfach die Software so lange mit CPU Leistung bis ich wirklich mehrleistung haben werde.VIel hilft viel.Nur eben ne Grenze schon jetzt gefunden.Der Threadripper 3970x wollte irgendwie nicht richtig schwung holen,selbst mit abschaltung von SMT war nix mehr herauszuholen.

Darum sehe ich den heiligen Gral bei 16 Kernen und in Zukunft bei 8 Kernen.Noch haben die 8 Kerne nen Threaripper nicht geschlagen.Das wird dann bei Zen 6 aber anderst aussehen.
Intel hat mich aufgrund des zu hohen Stromhungers Entäuscht.Egal ob 12 oder 13 Gen.

Achja ich weis auch das sich extra wegen sowas sich ne neue Anschaffung nicht lohnt.Darum warte ich einfach ab,bis einer meiner PCs mal defekt geht.Das kann also ruhig noch Jahre dauern,dann wird dieser den 5950x bei weiten erschlagen.

Bis dahin kann ich mich auf ne Onbard GPU freuen die immer besser wird als heute möglich wäre.Vielleicht ändert sich ja was mit AM6 wer weis.


Ich selbst habe also nur nen 1650 und der meines besten Kumpels nen Rtx 3050.Kann also da dieser ja bei mir steht,auch noch weitere Tests machen.Ja mal sehen,zu hart Quälen werde ich die GPU nicht,ist ja nicht meine.Verwende mal die neue Software meines Programms,nur zum testen was man da noch herausqutschen kann.Will ja wissen ,wie weit man noch mit H264 kommen kann.


Achja ich renne jedem neuen Codec in Sachen Geschwindigkeit meilenweit davon. Geschwindigkeit ist halt mein Ziel.Je schneller man Fertig ist,desto weniger Watt verballert man am ende.Es heißt ja immer so und so viel Watt pro Stunde.ALso davon wenn man nur 30 Minuten braucht,hat man etwas Watt gespart.
Es heißt also bei mir immer Leistung pro Zeit.Je höher also der Stromverbauch deso schlechter das Ergebnis darin.Den Vorteil verliert wohl so langsam die GPU oder braucht die da auch nur 80 Watt dabei?
 
latiose88 schrieb:
Achja ich renne jedem neuen Codec in Sachen Geschwindigkeit meilenweit davon. Geschwindigkeit ist halt mein Ziel.Je schneller man Fertig ist,desto weniger Watt verballert man am ende.
bei deiner Rechnung musst du aber eine Einheit noch als konstant annehmen, sonst geht deine Aussage nicht auf ... rate mal welche?
 
Zurück
Oben