Weiß ich doch, aber Nvidia gibt PCI SIG ja auch Input was sie haben wollen, was der Stecker können soll etc. das ist ja nicht isoliert nur was PCI SIG will. Das war mit "sie" gemeint. Ich finde ja der einfachste Schritt wäre vermutlich einfach wie beim 8Pin Stecker 2 Stecker anzuschließen, dann belastest du nur jeden Stecker mit etwas mehr als 300W und könntest sogar bis 1000W hochgehen. Beim 8Pin Stecker hat man ja auch einfach die Anzahl erhöht von 1 auf 2 auf 3 etc.xexex schrieb:Nvidia ist nicht für das "anfertigen" neuer Stecker zuständig, auch wenn sie in der Vergangenheit einmal gemacht haben, es wäre die Aufgabe der PCI SIG.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test ROG GeForce RTX 5090 Astral im Test: Das 3-kg-Custom-Design mit 4 Lüftern
- Ersteller Jan
- Erstellt am
- Zum Test: ROG GeForce RTX 5090 Astral im Test: Das 3-kg-Custom-Design mit 4 Lüftern
Streaming ala Geforce Now wäre noch ne Idee.kelli schrieb:zum Zocken auf eine Konsole um
Kenne ich tatsächlich noch gar nicht, muss ich mal nachlesen.Banger schrieb:Asus benutzt ein Phasenwechsel-Pad.
- Registriert
- Aug. 2010
- Beiträge
- 40.086
Rockbreak schrieb:... muss ich mal nachlesen.
https://www.computerbase.de/forum/threads/ptm7950-die-kleine-waermeleitevolution-im-test.2207330/
DriveByFM schrieb:Wow es wird ja immer schlimmer, naja die Wakü Hersteller freuen sich. Denn Luftkühlung würde ich mir da ganz sicher nicht mehr antun. Dabei hatte ich Hoffnung das es nach der 4090 nun noch besser wird, ne ganz im Gegenteil.
Wieso? Es ist ein immersives Erlebnis, zumindest wenn man Flight Simulator spielt.
Stell dich hinter den PC und du fühlst dich, als würdest du direkt hinter der Turbine hängen!
Und auch die dröhnenden GPU-Lüfter simulieren ein wahrhaft episches Cockpitgefühl, du bekommst hier also quasi weitere Satellitenspeaker geliefert, die dein bestehendes Setup ergänzen, so rechnet sich das Ganze dann auch!
Millennial_24K
Lt. Commander
- Registriert
- Dez. 2021
- Beiträge
- 1.438
Tja, da hat es ASUS mit dem zusätzlichen Lüfter auf der Rückseite wohl etwas zu gut gemeint...
In der Praxis hat sich diese Push-Pull-Konstellation jedenfalls als klarer Designfehler erwiesen. Komisch, dass der Hersteller trotzdem darauf schwört. Denn das Geräuschproblem ist sicherlich den zuständigen Ingenieuren aufgefallen.
In der Praxis hat sich diese Push-Pull-Konstellation jedenfalls als klarer Designfehler erwiesen. Komisch, dass der Hersteller trotzdem darauf schwört. Denn das Geräuschproblem ist sicherlich den zuständigen Ingenieuren aufgefallen.
Pisaro schrieb:Kommt halt auf die Definition von "Auto" an . Nicht falsch verstehen. Bringt dich von A nach B, reicht den meisten denke ich. Ich will es dann aber für meinen Geschmack wenigstens ein bisschen "schicker", deswegen automatisch auch teurer.
Wobei es auch Leute gibt die bei meinem Auto sagen: Das ist ein "Auto"?
Versteh ich voll
Hatte ein neues Auto aber die ganze Elektronikseuche ging mir aufn Keks
Wenns wenigstens noch Werkstätten gibt die sich dem Problem annehmen...
Und das in der Garantiezeit.
Such gerade als 3. Auto ein "neues" für die Familie.
Mal abgesehen davon sind die Gebrauchtwagenpreise ja auch gestiegen.
Warum zum Geier baut ASUS einen derartigen Brocken, spendiert ihm dann aber gerade mal zwei Slots als Verankerung!? Warum nicht vier Slots, wenn die Karte eh vier Slots dick ist!?
Achja... Falls wer die Karte kauft, aber sein "Swag" nicht braucht... Ich nehm das Lineal und den Magnetsticker gerne ab.
Achja... Falls wer die Karte kauft, aber sein "Swag" nicht braucht... Ich nehm das Lineal und den Magnetsticker gerne ab.
Schlechter auf jeden Fall, aber teurer? Ich glaube du unterschätzt wie viel Geld nVidia in diesen Kühler und seine Entwicklung investiert hat, dagegen ist jeder 3rd Party Kühler ein echtes Billigteil. Allein die Herstellung der unterschiedlich gebogenen Kühlfinnen kostet ein Vermögen, nicht zu vergessen das selbst entwickelte Flachbandkabel für I/O und das 4-Platinen-Layout. Hätte man das Ding auf 3 Slots ausgelegt, würde bei ASUS ROG endgültig die Sonne untergehen. Darauf hat man ganz bewusst verzichtet, um den Small Form Factor einzuhalten. Das nVidia mit diesem verhältnismäßig winzigen Kühler die 600 Watt bei erträglicher Lautstärke wegschafft, ist tatsächlich eine beachtliche Leistung!Rockbreak schrieb:schlechteres und teureres Kühldesign
Millennial_24K schrieb:Das Geräuschproblem ist sicherlich auch den zuständigen Ingenieuren aufgefallen.
Und dann haben sie gemerkt, dass sie bei Asus arbeiten und gesagt "ROG-Stempel drauf und als Haloprodukt verkaufen" ;D
xXDariusXx
Lieutenant
- Registriert
- Mai 2017
- Beiträge
- 737
Ja weil die alten GK künstlich verteuert wurden damit die neue GK Generation einem günstiger vorkommt.Lindar schrieb:Nee, dann doch lieber die 5090
Die Leute, die sich letztes Jahr oder davor noch eine 4090 oder 4080s gekauft haben, können sich glücklich schätzen und die Generation einfach überspringen.
Tripleh84
Lt. Junior Grade
- Registriert
- Dez. 2008
- Beiträge
- 306
Hab die ganzen Tests gesehen und videos.. Also WTF.. Was ist das?
Ich wollt die 5090 unbedingt haben, aber die ist um die paar bilder nur schneller...
Die generation bekommen die kein geld von mir.. DLSS Mods 4.. Das wird nicht lange dauern.
Ich wollt die 5090 unbedingt haben, aber die ist um die paar bilder nur schneller...
Die generation bekommen die kein geld von mir.. DLSS Mods 4.. Das wird nicht lange dauern.
- Registriert
- Aug. 2010
- Beiträge
- 40.086
Capthowdy schrieb:
Stimmt, wieder diese absurden 4-Slot-Klopper! Wenigstens die Palit-Karte ein kleines bisschen kleiner.
Die 5080 kann man dann ruhig kleiner bauen, von der Höhe 2cm weg, von der Länge 5cm weg und dann 3 Slots dick.
Fighter1993
Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.399
Der Stecker kann 1000W durchschieben ohne Probleme. Die 600W sind halt Safe für den Alltag. Die Differenz ist die Sicherheit.Pyrodactil schrieb:Soll ja Leutz geben, die sich das 4090er Hof (2-Stecker) Bios mit 666 Watt auf ihre 1- Stecker PCB geflasht haben. Ich kanns auch kaum glauben das es dauerhaft läuft, ohne das der Stecker schmilzt.
Nihil Baxxter
Lieutenant
- Registriert
- Mai 2020
- Beiträge
- 647
...3kg, 600W und doch nur 30% schneller als eine 5070.
/s 😉
Props an CB für die unfassbar umfangreichen Tests, ihr seid absolut wahnsinnig! (Im positiven Sinne)
/s 😉
Props an CB für die unfassbar umfangreichen Tests, ihr seid absolut wahnsinnig! (Im positiven Sinne)
So - also mit 70/80% Power Target bzw. mit Undervolting - kann ich mir -technisch- eine 5090 sehr gut vorstellen.
Dann bleibt es leise im System und bei dann noch ~450 Watt dürfte auch die Kühlung noch funktionieren.
Eigentlich optimal - WENN da nicht der Preis wäre. Da liegen wir vermutlich nahe an den 3.000 EUR. Das ist schwer zu rechtfertigen.
Was mir noch fehlt ist ein Test mit UV.
Dann bleibt es leise im System und bei dann noch ~450 Watt dürfte auch die Kühlung noch funktionieren.
Eigentlich optimal - WENN da nicht der Preis wäre. Da liegen wir vermutlich nahe an den 3.000 EUR. Das ist schwer zu rechtfertigen.
Was mir noch fehlt ist ein Test mit UV.
Ruebennase
Lieutenant
- Registriert
- Sep. 2012
- Beiträge
- 854
Mir ist bewusst das ich mir vor 2 Jahren auch eine Karte für 2000 Euro gekauft habe, aber da war mir auch klar das sie Deutlich schneller als eine RTX 3090/TI war. Aber dafür ist der Leistung Zuwachs der RTX 5090 für denn Preis einfach zu gering.
Der Aufpreis von ca 300-700 Euro ist einfach zu hart für die bisschen mehr Leistung
Jeder soll mit sein Geld machen was er möchte und auch seine Meinung haben.
Der Aufpreis von ca 300-700 Euro ist einfach zu hart für die bisschen mehr Leistung
Jeder soll mit sein Geld machen was er möchte und auch seine Meinung haben.
machiavelli1986
Commander Pro
- Registriert
- Feb. 2008
- Beiträge
- 2.679
Ein weiterer Test, der mir die Lust an der 5090 verdirbt. Mal schauen. Hätte mehr erwartet. Aber die 5nm sind wohl die Grenze. Da noch mehr Geld als für die FE auszugeben ist ja lächerlich. Naja, so lange ich noch bei 3440x1440 bin, bleibe ich wo ich bin. Man wird halt nicht jünger wo man sich nochmal richtig Hardware gibt:-D Aber um alles in der Welt muss es auch nicht sein. Ich habe aber das Gefühl, dass in den nächsten 2 Jahren mir die 16GB auf die nerven gehen könnten und ein Bildschirmwechsel steht eigentlich mal an. Aber auch da, solange nix gescheites im 21:9 OLED-Markt kommt was über 3440x1440 bis 40" hat, ohne eine 800er Krümmung, hat sich das auch erledigt.
Hoffe auch, dass mit 3nm es dann nicht über 600W werden. Wer hat schon Lust auf zwei dieser Stecker, schaut und wäre ja lächerlich.
Hoffe auch, dass mit 3nm es dann nicht über 600W werden. Wer hat schon Lust auf zwei dieser Stecker, schaut und wäre ja lächerlich.