Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Nvidia GeForce RTX 5090 im Test: DLSS 4 MFG trifft 575 Watt im 2-Slot-Format
iron_monkey
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.381
Was eine Enttäuschung und die Customs pusten bisher scheinbar auch alle die 600W fast komplett ins Case... wäre bei mir zwar egal, könnte das Seitenteil tauschen und 4x140 Lüfter alles absaugen lassen aber nee lass mal Lederjacke, kannst behalten dein Praktikantenprojekt da.
cheyennne_hey schrieb:->Früher Enthusiasten Forum
Heute ->Verbitterte zumeinst ältere Menschen hier, die lange nicht mehr Zielgruppe sind.
Ich sehe nur verbitterte Enthusiasten, die "aus Prinzip" nur das Spitzenmodell akzeptieren wollen, und gar nicht merken, dass da nur immer mehr Overkill zu immer höheren Preisen draufgesetzt wird.
Und dass das Viertbeste heute eigentlich schon die Reserven bietet, die früher als Spitzenklasse vermarktet wurden.
Corpus Delicti
Lt. Commander
- Registriert
- Nov. 2016
- Beiträge
- 2.011
Am besten finde ich, das nVidia keine GPU-Hotspot-Temps mehr auslesen lässt.
Eine Sorge weniger.
Eine Sorge weniger.
Zuletzt bearbeitet:
Für mich das einzig interessante an dem Test: DLLS 4 SR ghosting Performance und die weiteren SR Verbesserungen, da ich es mir sehr gut vorstellen kann, dass ich in Zukunft auf einen OLED mit gut implementiertem BFI setzten werde, um endlich die gewünschte Kombination aus Bildqualität und Bewegungsschärfe zu bekommen (Aktuell den Asus OLED DMG im Auge). Und BFI geht leider meistens nur zuverlässig, wenn min. 100 oder gar 120 FPS anliegen. Kommt auf den Monitor an, manchmal bleibt es aktiv bis 85 oder gar 60/70 FPS runter...
Bei schnellen/competitive games hoffe ich, dass mir SR die von BFI erforderlichen frames liefert.
In langsameren, weniger kritischen Games könnte FG für mehr FPS sorgen, wenn der disconnect nicht stört...
Aber im Bezug auf BFI tendiere ich da eher auf SR als Lösung und würde auf FG/MFG verzichten wollen, denn als Ziel habe ich ja "nur die stabilen 100-120 FPS"...und FG/MFG könnte sich wiederum komisch anfühlen, wenn man diese frames aus weniger als 60-70 Grundframes generiert...
MFG ist imho noch eine Mogelpackung: gutes Feeling erst ab 60/70 grundframes, aber ab einer gewissen Anzahl an generierten frames ist der disconnect zwischen Latenz und Frames so hoch, dass es sich nicht mehr gut anfühlt: was bringt einem dann die großartige Bewegungsschärfe der hohen frames?
Könnte man den disconnect eliminieren/mitigieren indem man die generierten frames mit einem FPS limiter capt? Wohl kaum, da durch die weniger ausgegebenen frames die Latenz nach oben gehen müsste. Latenz steht doch in direkter Verbindung mit den auf dem Monitor ausgegeben frames. Da wäre ein FPS limiter kontraproduktiv...
Bei schnellen/competitive games hoffe ich, dass mir SR die von BFI erforderlichen frames liefert.
In langsameren, weniger kritischen Games könnte FG für mehr FPS sorgen, wenn der disconnect nicht stört...
Aber im Bezug auf BFI tendiere ich da eher auf SR als Lösung und würde auf FG/MFG verzichten wollen, denn als Ziel habe ich ja "nur die stabilen 100-120 FPS"...und FG/MFG könnte sich wiederum komisch anfühlen, wenn man diese frames aus weniger als 60-70 Grundframes generiert...
MFG ist imho noch eine Mogelpackung: gutes Feeling erst ab 60/70 grundframes, aber ab einer gewissen Anzahl an generierten frames ist der disconnect zwischen Latenz und Frames so hoch, dass es sich nicht mehr gut anfühlt: was bringt einem dann die großartige Bewegungsschärfe der hohen frames?
Könnte man den disconnect eliminieren/mitigieren indem man die generierten frames mit einem FPS limiter capt? Wohl kaum, da durch die weniger ausgegebenen frames die Latenz nach oben gehen müsste. Latenz steht doch in direkter Verbindung mit den auf dem Monitor ausgegeben frames. Da wäre ein FPS limiter kontraproduktiv...
Zuletzt bearbeitet:
Vielen Dank für das beruhigen meiner Nerven. Dachte schon hab einen Fehlkauf im September 24 gemacht. Erster Selbstbau nach 25 Jahren. War schon aufregend und zugleich beängstigend. Ging aber alles gut. Hab mir viel Zeit genommen.thuering schrieb:Das Hydro Pro ist ein Highend-Netzteil. Das wird problemlos funktionieren.
Das wird auch mit vielen hochwertigen 850W Netzteilen funktionieren. Vielleicht nicht mit allen, aber vielen. Da bin ich mir sicher.
Zuletzt bearbeitet:
Woody17 schrieb:Arme Wūrstchen, ihr spielt bestimmt auch Simracing noch auf 3 Monitorsetups obwohl es so geile VR Brillen gibt.
115 Beiträge seit 2006 und dann so was.
Wow, ... echt traurig.
Aber sei unbesorgt: Weder kaufe mir eine 5090, noch nutze ich ein Multimonitor Setup. Achja, Simracing zocke ich auch nicht.
VR warte ich noch ab. Die Performance, Gameauswahl sowie Features, Integration, Fortbewegung = Human Machine Interface, lässt zu wünschen übrig.
Wenn der ganze Kinderkram mal Fahrt aufnimmt (wenn ich es noch erlebe) und mal was gescheites bei rumkommt, werde ich mir auch was zulegen.
Topic 600W Karte auf 350W limitieren: Silent & Effizienz beginnt schon beim Kauf der Hardware. Hochgezüchtete Brechstangen Pixelschleuder gehört definitiv nicht zu meinen Kaufinteressen.
Mit dem Schrott kann Nvidia andere Bauern einfangen.
Viel Spaß beim Hype. Ich nutze selbst Nvidia Karten. Aber beäuge jede Gen neutral. Bin schon mit einer 3080 Ti auf die Schnauze gefallen. Solche Karte kauf ich nicht nochmal.
Wer weiß, vielleicht entsteht ja ein Muster wie bei Microsoft
Ein OS top, das nächste flop.
immer im Wechsel.
Ampere - Brechstange
Ada Lovelace - Effizient
Blackwell - Brechstange
??? - Effizient?
Wir werden sehen.
Wahrscheinlich weil die Karte sonst die ganze Zeit drosseln würde oder die Lüfter auf Anschlag laufen müssten.Corpus Delicti schrieb:Am besten finde ich, das nVidia keine GPU-Hotspot-Temps mehr auslesen lässt.
Boahr war das seltsam als ich von Team ROT auf Team GRÜN gewechselt bin:
GTX 970 ... einfach keine VRM Temps mehr. Und schon nur eine Gen später sind die abgebrannt (1080 Ti)
kA wie oft die Hersteller noch versagen wollen in ihrem tun.
Bin echt gespannt wie die Karten rumspacken und welche neue Fehlerbilder diese aufzeigen werden. (mit Garantie!)
Zuletzt bearbeitet:
HWUB stellt die MSI Supreme vor und seh ich das richtig, das die angeblliche 600W Schranke des 12 Pin Steckers permanent überschritten wird?
Abgesehen vom gigantischen Gwicht und der kolossalen Größe...
Die Dinger sind nicht länger GeForce - die sind Brute Force!
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
Abgesehen vom gigantischen Gwicht und der kolossalen Größe...
Die Dinger sind nicht länger GeForce - die sind Brute Force!
alkaAdeluxx
Lt. Commander
- Registriert
- Mai 2007
- Beiträge
- 1.341
Die wiederrum nur ~7% schneller wie eine 3060ti istxxMuahdibxx schrieb:und leider nicht wirklich schneller als eine 4060 ti sein ..
Ergänzung ()
wahrscheinlich genau das gleiche was mit einer 4090 unter Wasser passiert 🤔Maxminator schrieb:was passiert mit der Effizienz einer 5090 unter Wasser und dann wenn der Chip schön unter 45°C bleibt?
DerRico
Lt. Commander
- Registriert
- Nov. 2022
- Beiträge
- 1.659
Ich denke, die 600W sind nicht die technische Grenze. Aus einem 8PIN liessen sich auch locker 250, in manchen Fällen 300W ziehen. Miner wisssen, wovon ich rede Der Standard war auch x-Jahre alt und mit immer besseren Netzteilen / Kabeln und geringeren Toleranzen ging da eine Menge.Norebo schrieb:HWUB stellt die MSI Supreme vor und seh ich das richtig, das die angeblliche 600W Schranke des 12 Pin Steckers permanent überschritten wird?
Beim 16PIN ist das alles enger zusammen, das theoretische Maximum ist aber wohl eher bei 700W schätze ich. Dann hast Du bis zu 700W aus dem Stecker + die notorischen 75 (bzw. 65 und ein bissschen) aus dem PCI-Slot - da kann man schon man dauerhaft 750+ ein bisschen nuckeln wenn man voll ans Limit geht.
Wobei in den letzten Jahren ja eigentlich kein Hersteller mehr wirklich über den Slot viel Leistung gezogen hat.
Im Ergebnis hast Du natürlich trotzdem recht: Fette OC-Karten und die 6090 brauchen eigentlich 2 von den 16 PIN-Steckern - dann kann man wieder ordentlich arbeiten und hat warme Füsse!
HighPerf. Gamer
Lieutenant Pro
- Registriert
- Feb. 2019
- Beiträge
- 836
Geil meine RTX4080 ist somit noch absolut Up to date. Was ne miese Vorstellung RTX5090.
@HighPerf. Gamer Die 4080 sieht sogar total schlecht gegenüber der 4090 aus
HighPerf. Gamer
Lieutenant Pro
- Registriert
- Feb. 2019
- Beiträge
- 836
Erzähl nicht soviel blödsinn. Der Spieleentwickler würde um 80% des Martkes vorbei Entwickeln wenn man sich die RTX4090 als Referenzmodell nehmen würde.
2300€ 600 Watt und dann diese Vorstellung. Ich sehe die RTX5090 als schlecht und unnötig zum gaming an.
2300€ 600 Watt und dann diese Vorstellung. Ich sehe die RTX5090 als schlecht und unnötig zum gaming an.
Ano_Dezimal
Banned
- Registriert
- Juli 2019
- Beiträge
- 1.139
5080 meinst du sicher.nuestra schrieb:@HighPerf. Gamer Die 4080 sieht sogar total schlecht gegenüber der 4090 aus
@Ano_Dezimal Stehen beide schlecht da 4080 und 5080. Aber Preis Leistung sind die gut
AxelStu
Lt. Junior Grade
- Registriert
- März 2005
- Beiträge
- 473
Wenn man in Betracht zieht, dass gaming nur noch 10% des Umsatzes bei Nvidia ausmacht, kann man ja schon froh sein, dass die überhaupt noch Grafikkarten für Privatpersonen herstellen.
Produktionskapazitäten sind endlich und jedes Stück Wafer könnte eigentlich auch für ein Vielfaches mehr verkauft werden als an uns.
Traurige Entwicklung für Gamer, aber so ist das halt.
Und ganz ehrlich: Braucht man eigentlich so viel Leistung? Sie 40er Reihe bietet noch für alle passende Leistung. Vielleicht sehen wir einen Sprung mit der nächsten Konsolengeneration, aber auch da wird eher versucht werden mit Software "Tricks" mehr heraus zu holen als jetzt schon.
Als Gamer sehe ich eher Probleme bei den Spielen selbst, wenn ich mir Starfield, Dragons Dogma, Jedi Survivor, etc. anschaue.
Produktionskapazitäten sind endlich und jedes Stück Wafer könnte eigentlich auch für ein Vielfaches mehr verkauft werden als an uns.
Traurige Entwicklung für Gamer, aber so ist das halt.
Und ganz ehrlich: Braucht man eigentlich so viel Leistung? Sie 40er Reihe bietet noch für alle passende Leistung. Vielleicht sehen wir einen Sprung mit der nächsten Konsolengeneration, aber auch da wird eher versucht werden mit Software "Tricks" mehr heraus zu holen als jetzt schon.
Als Gamer sehe ich eher Probleme bei den Spielen selbst, wenn ich mir Starfield, Dragons Dogma, Jedi Survivor, etc. anschaue.
Mein innerer Monk feiert sich gerade. Das ist der 1300. Kommentar und wurde nach exakt 24 Stunden gepostet. Herzlichen glückwünsch.DerRico schrieb:Ich denke, da stimmen Dir fast alle zu hier im Forum.
Wenn die GPU schon nicht begeistern kann...
ArrakisSand
Lieutenant
- Registriert
- Dez. 2019
- Beiträge
- 919
Nvidia hat mich so enttäuscht, dass ich mich gestern in den Schlaf geweint habe.
Als ich allerdings erwachte und aus der Dunkelheit empor schritt, übermannte mich eine Vision
und ein strahlend helles Licht riss mich aus meinen Depressionen und das folgende erschien
vor meinen Augen.
Denn wie heißt es so schön: Jedes Game zählt, jeder Player zählt, jedes Watt zählt,
jedes Frame zählt und jedes nicht fake Frame zählt doppelt, dreifach, vierfach ............
Mit Nvidia ist es eben wie mit Fast Food.
Du wirst gemästet mit einem ganzen Haufen an Fake Frames bis dir der Knopf an den Hosen abfällt
und du mit bis zu 600W durch den Fußboden brichst.
Aber du fühlst dich dabei nicht satt, sondern du willst mehr da der Geiz an GDDR (5070 12GB)
dich nach mehr verlangen lässt.
Auch ist dieses Fast Food mittlerweile total überteuert und man könnte mit dem Geld auch
gediegen in einem feinen Italiener ein gutes Glas Rotwein (AMDs FineWine) trinken und die Mediterrane
Küche in vollen Zügen mit 16GB und schlanken 220W genießen.
Das atemberaubende FSR4 kommt noch als Sahnehäubchen oben drauf und als Bonus unterstütz man dabei den Underdog und macht dabei noch etwas gutes für ein ausgeglicheneres Verhältnis.
Als ich allerdings erwachte und aus der Dunkelheit empor schritt, übermannte mich eine Vision
und ein strahlend helles Licht riss mich aus meinen Depressionen und das folgende erschien
vor meinen Augen.
Denn wie heißt es so schön: Jedes Game zählt, jeder Player zählt, jedes Watt zählt,
jedes Frame zählt und jedes nicht fake Frame zählt doppelt, dreifach, vierfach ............
Mit Nvidia ist es eben wie mit Fast Food.
Du wirst gemästet mit einem ganzen Haufen an Fake Frames bis dir der Knopf an den Hosen abfällt
und du mit bis zu 600W durch den Fußboden brichst.
Aber du fühlst dich dabei nicht satt, sondern du willst mehr da der Geiz an GDDR (5070 12GB)
dich nach mehr verlangen lässt.
Auch ist dieses Fast Food mittlerweile total überteuert und man könnte mit dem Geld auch
gediegen in einem feinen Italiener ein gutes Glas Rotwein (AMDs FineWine) trinken und die Mediterrane
Küche in vollen Zügen mit 16GB und schlanken 220W genießen.
Das atemberaubende FSR4 kommt noch als Sahnehäubchen oben drauf und als Bonus unterstütz man dabei den Underdog und macht dabei noch etwas gutes für ein ausgeglicheneres Verhältnis.
Ano_Dezimal
Banned
- Registriert
- Juli 2019
- Beiträge
- 1.139
ändert nix daran das du einen Schreibfehler gemacht hast. Denn dein Satz ergab keinen Sinn. Wenn du nicht über deinen Schatten springen willst das zuzugeben ist es okaynuestra schrieb:@Ano_Dezimal Stehen beide schlecht da 4080 und 5080. Aber Preis Leistung sind die gut
Ähnliche Themen
- Antworten
- 440
- Aufrufe
- 35.473
- Antworten
- 568
- Aufrufe
- 40.453
- Antworten
- 2.303
- Aufrufe
- 182.443