News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

DevPandi schrieb:
ca. 750 kWh Verbrauch im Ganzen
Nur der PC nehme ich an?
Ansonsten lebst du wohl in einer Höhle, die von eben jenem beleuchtet und beheizt wird. :confused_alt:
 
Stanzlinger schrieb:
Das Verhältnis spielt hier gar keine Rolle. Egal ob 4:3 , 16:9 oder 21:10 - die Pixelanzahl ist nun mal höher. Aber ich habe einen Fehler gemacht, die Auflösung beträgt "nur" 5120 * 2160 was 11.059.200 Pixel entspricht und somit knapp 60% mehr sind. Und 60% mehr wäre somit gerade so der Sprung von einer 4090 zur 5090
LOL. Und Du unterstellst mir, dass ich nicht rechnen kann? 5120*2160 sind exakt 50% mehr wie bei mir mit 5120x1440. Und nochmal, der Leistungshunger skaliert nicht linear. Bei viermal so viel Pixel braucht man maximal 2-3mal so viel Leistung. Die meisten Spiele werden bei der zwei liegen. Wenn 200Watt für 5120x1440 für z.B. Hogwarts Legacy reicht, dann sollten 250Watt für 5K ausreichend sein. Bei Hogwarts Legacy sind es übrigens 80/100fps bei 4K zu FHD - also 20% weniger Leistung bei der vierfachen Anzahl an Pixel bei der 4070Ti Super. Siehe Computerbase Test.
 
Cassiopea schrieb:
.Warum rennen der Auflösung so viele Spieler hinterher? Ich habe nebeneinander auf dem Tisch 1 zu 1 nen 450€ 27 Zolll Asus 4K 120hz und ein 420€ 24 Zoll Acer FHD 180hz vergleichen können, mit Upscaling on sieht man zwar dennoch Unterschiede, ...........
Ich habe auch den Vergleich:
24fhd der halt nicht kaputt gehen will und 65"/4k Glanz Panel mit sehr gutem HDR.

Der Unterschied ist gewaltig, hier sind die Monitor Hersteller neben ihrem Besch..... Matt Anti Glare stark im Nachteil und können nicht das liefern was die Auflösung her gibt.

Beim 15er MBP fällt die höhere Auflösung auch sofort auf.

Oder würdest du noch ein Smartphone mit 480x270 kaufen und sagen der Unterschied zu den anderen Displays ist gering?
 
  • Gefällt mir
Reaktionen: Cassiopea und Pisaro
Manegarm schrieb:
Immer höherer Stromverbrauch ist aber ein Rückschritt
Naja, der Stromverbrauch geht ja immer weiter nach oben. Also immer nach "vorne". Kann man auch Fortschritt nennen :)

Ich denke allerdings das dass mit der 5090 so laufen wird wie mit der 4090: Die Partner bauen die Kühlung so das 600+ Watt gut abgeführt werden können, dann zeigt sich bei Release das die Karte wie die 4090, unter "normalen" Umständen, "nur" 400 - 450 Watt zieht.
 
DrPinguin schrieb:
Naja bei 600 Watt sind das halt 0,6kWh, bei einem durchschnittlichen Strompreis für Neukunden von zur Zeit 28ct, sind das knapp 17ct.

Bei durchschnittlich 3h am Tag zocken wären das im Jahr 184€ nur für den Strom der GPU. Also 15€ im Monat, was kostet noch gleich Cloudgaming?
Ein Shadow Power Cloud Gaming PC mit RTX 3070 ti kostet 50€ pro Monat.
Dann hast du aber das Latenzproblem.
 
Grundgütiger schrieb:
Oder würdest du noch ein Smartphone mit 480x270 kaufen und sagen der Unterschied zu den anderen Displays ist gering?


Sofern ich die Sicherheit einer konstanten Frametime habe die bei low Res. eine bessere Spielbarkeit garantiert ja. Und damit bin ich dann der wo Kreise um dich fährt, leider die Realität. Wegen HDR hat noch niemand competetive nen Win geholt. Sind halt meine Ansprüche bez. Anforderungen.
 
Cassiopea schrieb:
Wegen HDR hat noch niemand competetive nen Win geholt. Sind halt meine Ansprüche bez. Anforderungen.
Zum Glück Spiele ich keine competive Games. Der Unterschied von Full HD zu 4K ist im übrigen einfach enorm.
 
  • Gefällt mir
Reaktionen: Grundgütiger
Pisaro schrieb:
Zum Glück Spiele ich keine competive Games. Der Unterschied von Full HD zu 4K ist im übrigen einfach enorm.
Ja, richtig, keine Sorge, ich konnte schon einige Referenzen darüber in form von Vergleichen tätigen, ich verpasse schon nichts. Völlig egal wie viel HDR und Hohe Auflösung mir gegenüber steht, wenn ich HDR will brauche ich nur auf mein Xiaomi 13 Pro zu glotzen.

Solange WQHD nicht exakt 1 zu 1 die gleichen Werte wie jetzt Full HD (Bezahlbar, denn der OM642 kostet. Inkl. Gsync, am besten Native, schade das es eingestellt wird,) liefert bin ich raus. Bis das soweit ist kommt sowieso alles from Scratch neu, (Squadron 42) schätze mal Sommer 27, bis dahin immer Maxed out, DLSS OFF; und keine Kopfschmerzerei. Wichtig ist das jeder für sich das passende findet, sei es jedem gegönnt.
 
  • Gefällt mir
Reaktionen: Grundgütiger und Pisaro
Andi316 schrieb:
Wieso bringen die keine 5090, die exakt die gleiche Leistung hat wie die 4090? Nur eben mit deutlich weniger Stromverbrauch. Ich denke wenn eine 4090 450W zieht, dann könnte eine 5090 die gleiche Performance mit 300 oder 350W liefern.

Keiner hätte einen Schaden, da sowieso konkurrenzlos.

Machen sie doch, heißt dann 5080 oder 5070. Wo ist dein Problem?

Es gibt eine Zielgruppe, die aus welchen Gründen auch immer die Leistung aus einer Karte gerne hätte oder gar braucht. Ich gehöre z.B. zu der "braucht" Gruppe. Da ist eine GPU meist preiswerter als zwei und bei den derzeitigen Mainboards wird einem der Betrieb von zwei Karten eh fast unmöglich gemacht.

Ich habe es bereits geschrieben. Ich hatte zwei 2080 Ti im NVLink gegen eine RTX 3090 (die schneller war als die zwei 2080 Ti) getauscht. Aus der einen 3090 wurden wiederum zwei und dann bin ich auf die 4090 gewechselt. Die erneut nahezu die gleiche Leistung, wie die zwei 3090er erbingt und das bei deutlichst weniger Stromverbrauch. Die Systeme sind also jeweils sparsamer geworden, insbesondere der Schritt zur 4090.

Sas87 schrieb:
Stell der aktuellen Entwicklung mal z.B. den Fortschritt von einer GTX 980 zu einer GTX 1080 gegenüber. 40% Mehrleistung bei 9% mehr TDP und beim Strom quasi ohne realen Mehrverbrauch.
Und zu der Zeit waren auch noch nicht alle so stark im "Energiesparmodus" wie jetzt.

Ach, und wie lange braucht eine 1080 für ein Rendering in 4K? Gehen wir mal von 2 Stunden aus, die 4090 berechnet das gleiche Bild in 16 Minuten oder dank den Tensorcores in nur 6 Minuten. Rasteresation ist nicht alles und eh schon am Limit.

Die 1080 hat auch noch messbar mehr Strom gezogen, wenn man ein Video geschaut hat. Ich verstehe deine Argumentation, aber mit Architekturen ist es nicht ganz so einfach und wenn, dann sollte man alle Features vergleichen.

So oder so ist die 40xx Generation eben bei Energieverbrauch pro Frame im optimalen Lastbereich unschlagbar. Da hilft auch kein niedrigeres TDP einer 1080.

daVinci schrieb:
Ich finde es sowieso erschreckend, dass bei all der technologischen Entwicklung, die dahinter steckt, der Leistungszuwachs zwischen den Generationen auch einfach auf das "die shrinkage" runter gebrochen werden kann. Das ist natürlich ebenso eine naive Milchmädchenrechnung, die die ganzen technischen Details außer Acht lässt aber in manchen Fällen denkt man da schon, was leistet das Produkt da eigentlich, wenn der Zugewinn erstmal "nur" auf eine kleinere Fertigungsstruktur zurückzuführen ist. Aber das ist nur mein Eindruck als naiver Laie.

Du sagst selbst, wenn man "die ganzen technischen Details außer Acht lässt". Die Karten können eben heutzutage Dinge, davon konnte ein 1080 z.B. nur "träumen".

Die Diskussion gab es zu oft, die meisten wollen nur ihre gefestigte Meinung wiedergeben und das war es dann. Jede "billig" Karte ist heute schneller als das Topmodell vor einigen Generation und um Welten sparsamer und preiswerter, aber nee Flaggschiff flamen ist eben ein Sport.

Da wird auf den maximalen Verbrauch des Flaggschiffs geschaut, der erstens mehr oder minder theoretisch ist und für Ottonormalo schlicht keine Rolle spielt.

Auto Vergleiche hinken immer, aber nicht umsonst wird bei einem Auto ein "Durchschnittsverbrauch" angeben, denn nur der ist aussagekräftig. Möchtest du hören, dass dein Golf bei kaltem Motor Minusgraden etc. beim Anfahren für kurze Zeit so bei 120 Liter/100km liegt?
 
Unter 4K geht gar nix mehr. Ich liebe den Platz den mir das gibt.

Wer sich competitive noch FHD antun muss, tut mir echt leid. Aber jut, selbstgewähltes Leid ist ja nicht so schlimm. :)
 
Kommando schrieb:
Wer sich competitive noch FHD antun muss, tut mir echt leid.
Das ist dann aber auch falsch. Wenn du wirklich competitive spielen willst, also ernsthaft, musst du eigentlich schon die Auflösung etc runterstellen. Zumindest wenn es um Shooter geht.

Bei Rennspielen ist das allerdings natürlich Schwachsinn, außer man macht das wenn der eigene PC nicht stark genug ist und man unbedingt FPS XY braucht/ haben will.
 
Kommando schrieb:
Wer sich competitive noch FHD antun muss

Verstehe die Aussage nicht, "competitive" wird noch immer in den meisten Titeln in FullHD gespielt. Also ist das rein deine Entscheidung. Und so ein Herabreden auf andere geht schon mal gar nicht.

Und mehr Platz hast du nur auf dem Desktop, in Games macht 4K keinen unterschied beim Platz.
 
  • Gefällt mir
Reaktionen: Oudenstekelig und Pisaro
Myki schrieb:
Man muss als Familienvater ja auch mal die Vorteile genießen, dass man keine Zeit hat. So spart man sich teure Anschaffungen und den daran hängenden Rattenschwanz an Kosten. Das ist einfach nur noch krank, was die Teile verbrauchen und was sie in der Anschaffung kosten. Ich weiß, Fortschritt und so.
Ganz genau das sehe ich auch seit über nem halben Jahr. Zocke kaum noch... meine Hardware wird noch eine Weile bleiben. Gerade versuche ich sogar digitalen detox mit CB, weils mir zu viel geworden ist - und ich eh nicht in absehbarer Zeit upgrade etc.... versuche mich vom täglichen mehrmaligen gucken zu lösen^^.
 
  • Gefällt mir
Reaktionen: TheHille
Spawn182 schrieb:
in Games macht 4K keinen unterschied beim Platz.
Doch, das schon. Beispiel bei ARPGs wie Grim Dawn etc: In 4K hast du ein "weiteres" Sichtfeld und kannst auch weiter rausscrollen, eben weil das Bild "kleiner" ist.

Das Bild ist nicht "kleiner", mir fällt das richtige Wort nur gerade nicht ein. Ihr wisst denke ich was ich meine.
 
  • Gefällt mir
Reaktionen: Spawn182 und Kommando
Pisaro schrieb:
Bei Rennspielen ist das allerdings natürlich Schwachsinn, außer man macht das wenn der eigene PC nicht stark genug ist und man unbedingt FPS XY braucht/ haben will.

Vollkommen richtig, alle Racing Titel schließt das ein, bis auf das in echtzeit berechnete BeamNG.drive. Über die Vulkan API fordert es die GPU schon sehr, und ja es ist Benchmark, immerhin basieren die Simulatoren von div. Fahrzeug Herstellern auf dem Grundspiel, nur halt angepasst für den jeweiligen Kunden. Forza, Gran Tourismo und den ganzen Rest kann man zu keinem vergleich mehr heran ziehen. Und wer jetzt sagt das BeamNG kein Rennspiel ist, dann sage ich:
Steamstat.jpeg


Der Neue Aktive Dynamik Simulator Prüfstand von HWA (Was? ja, Hans Werner Aufrecht---> Aufrecht Melcher Großaspach ---> ///AMG), entwickeln alle GT3 Rennfahrzeuge für MB) zb. nutzt einen angepassten Build, Kosten: über eine Million Euro.
Wer sich competitive noch FHD antun muss, tut mir echt leid. Aber jut, selbstgewähltes Leid ist ja nicht so schlimm. :)
Das zum Thema Competetive.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
fox40phil schrieb:
Gerade versuche ich sogar digitalen detox mit CB, weils mir zu viel geworden ist - und ich eh nicht in absehbarer Zeit upgrade etc.... versuche mich vom täglichen mehrmaligen gucken zu lösen^^.

Ich finde die Entwicklung trotzdem spannend, auch wenn ich nicht dran teilnehme. Mein nächste Hardware wird, wenn überhaupt, die PS5 Pro. Wobei die ja auch mit 700€ taxiert ist.
 
Spawn182 schrieb:
Verstehe die Aussage nicht, "competitive" wird noch immer in den meisten Titeln in FullHD gespielt. Also ist das rein deine Entscheidung. Und so ein Herabreden auf andere geht schon mal gar nicht.

Und mehr Platz hast du nur auf dem Desktop, in Games macht 4K keinen unterschied beim Platz.
Die Aussage war: wer competitive spielt und sich somit FHD antun muss, tut mir leid. War vielleicht auch anders zu verstehen, aber nicht anders gemeint. 😉

Herabreden sehe ich da nicht. 🤷‍♂️

4K ist überall einfach unglaublich schön. Zum Genießen. 🥰
 
  • Gefällt mir
Reaktionen: Spawn182 und HeinzNeu
Zurück
Oben