News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

Vielleicht kommt dann noch eine Dual Karte. So mit weit über 1000W. Aber 8% mehr Frames bei Spielen.....
Merkt niemand was da schiefläuft?
 
muli0815 schrieb:
Witzig, diejenigen die noch vor einigen Monaten bei Fridays for future rumgeschrien haben bzgl. Klimaschutz und Nachhaltigkeit, sind jetzt schon ganz gierig wg. der neuen Grafikkarten mit 600W.
Verkehrte Welt, super Doppelmoral. Jedes elektrische Gerät wird auf Effizienz getrimmt, nur die Amis interessiert das Null und wir hecheln vor lauter Gier diesem Wahnsinn hinterher.
Ich würde Grafikkarten per Gesetz auf 400 W begrenzen und die Hersteller zwingen effizienter zu entwickeln, anstatt über die pure Leistung.
Mir ist meine Umweltbilanz tatsächlich wichtig und darum habe ich kein Auto (früher aus finanziellen Gründen, heute könnte ich mir dieses ohne Probleme leisten) und fahre mit den ÖPNV auf die Arbeit. Nein, ich wohne nicht in einer Großstadt sondern ländlich und bin daher ein gutes Stück länger unterwegs.

Nur um dies mal zu vergleichen, selbst wenn du jeden Tag inkl. WE immer 3 Stunden täglich spielst (bei voller GPU Auslastung) was ich definitiv nicht tue produziert eine 600W GPU im deutschem Strommix weniger CO2 innerhalb einer Woche als der durchschnittliche (neuangemeldete) PKW an einem Tag wenn ich einfach nur auf die Arbeit und zurück fahren würde (ca 20km). Ich habe aber auch keinen durchschnittlichen Strommix sondern einen Ökotarif.

Und natürlich reden wir hier ja auch nicht mal von 600W vs 0W, sondern von 600W vs wie du es forderst 400W.

Fleischkonsum, Kleidungskonsum, Häufigkeit von Urlaubsreisen, Geschäftsreisen..., einfach mit dem Finger auf Leute zu zeigen die in einem Aspekt einen Mehrverbrauch haben ohne das Gesamtbild zu beobachten oder zu kennen bringt uns absolut nicht weiter.

Jedes elektrische Gerät wird auf Effizienz getrimmt, nur die Amis interessiert das Null und wir hecheln vor lauter Gier diesem Wahnsinn hinterher.

Sag mir das du keine Ahnung hast ohne..., ja du kennst das ja.

GPU's machen teils große Sprünge bezüglich Effizienz mit wirklich jeder Generation. Eine RTX 4070 Ti Super zum Beispiel ist 20 bis 25% schneller als eine 3080 (von zusätzlichen Features der Hardware mal ganz abgesehen), obwohl diese nur 285W statt 350W verbraucht.

Wie, du kaufst dir gar keine neuen Grafikkarten, welche die gleiche Leistung wie deine alte haben, nur damit du deinen Energieverbrauch senken kannst? Wie, du lässt deine neue GPU praktisch immer auf maximaler Leistung laufen anstatt dich je nach Spiel selbst einzuschränken um deinen Energieverbrauch zu senken? Was, du nutzt nicht mal Frame Generation obwohl du es bei über 100 fps die du rendern lässt es ohne Probleme könntest?

Aber ja, Umweltschutz ist ja nur was für die da oben...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cohen
Calid schrieb:
"Veröffentlichung noch 2024 unwahrscheinlich" > ja logisch! nvidia hat praktisch keine konkurenz! macht überhaupt keinen sinn die karte 2024 noch zu bringen. die können sich EWIG zeit lassen damit. von AMD kommt ja sowieso kein highend. und wenn wird das trum mal schaun müssen, obs überhaupt in 4090er spähren kommt.
Und wenn der release 2024 ist, was ist dann der grund?
Vielleicht brauchen sie ja dich um noch erfolgreicher zu werden...
 
600W wäre mir noch zu wenig. Hoffe da um ein vielfaches mehr, damit ich endlich mein Kontinuumtransfunktionator als Energiequelle nutzen kann, dessen Macht nur durch seine Rätselhaftigkeit übertroffen wird
 
Egal wieviel Watt, einfach her damit! Egal wenn ich ein privates Kraftwerk bauen muss, nur um meinen PC zu betreiben! Hauptsache Leistung 🚀
 
Warum ich hier einen Kommentar abgebe, ich weiß es nicht…

Ich behaupte mal, dass die wenigsten Personen, welche sich über die 450 W bei der RTX 4090 „beschweren“ so eine Karte besitzen.

Die Karte ist extrem effizient und wie von einigen bereits geschrieben, kann die Karte mit FPS-Limitierung extrem sparsam sein, kommt dann noch UV dazu wird alles unterboten.

Ich darf wie in jedem Vergleich keine Äpfel mit Birnen vergleichen, das Szenario muss identisch sein!

Mal abgesehen vom Benchmark nimmt meine nie 450 W an Leistung auf, je nach Game in 4K zwischen 80 - 380 W Peak. Bei den 380 W sind sämtliche Regler bei 4k am Abschlag inkl. RT.

GZW benötigt mit UE 5 Engine auch „nur“ 280 W bei 100 % Auslastung der GraKa.
 
  • Gefällt mir
Reaktionen: frames p. joule und Laphonso
Matthias80 schrieb:
Wird mal wieder Zeit das es in die andere Richtung geht. Gab es ja schon mal, Kepler zu Maxwell.

Der maximale Verbrauch ist aber eben ohne Effizienzbetrachtung kein aussagekräftiger Wert. Der größte Kepler Chip und der größte Maxwell Chip hatten im übrigen die gleiche 250 Watt TDP. Der Sprung von Kepler auf Maxwell war was die Effizienz angeht aber z.B. kleiner, als zwischen RTX30 und 40 Serie.

1725460993630.png


Es ist wesentlich effizienter das maximal wirtschaftlich mögliche an Chip zu bauen. Der verbrauch skaliert mit der Anzahl der verwendeten Transistoren.

Ja es wäre einfach, wenn Nvidia einen kleinen 200mm² Chip einfach 5090 nennt und der dann nur 180 Watt verbraucht, aber was hat man davon? In aktueller Fertigung kann man eben 600mm²+ Chips mit 20+ Milliarden Transistoren bauen. Was hätte der markt gewonnen, wenn sich die Hersteller selbst beschränken? Außer das es halt maximal Mittelklasse GPUs gibt.

Wenn man nur etwas mehr Leistung braucht und weniger Verbrauch will, einfach einen kleineren Chip kaufen. Gibt ja nicht nur 80er und 90er Karten bei Nvidia.

Abgesehen vom Gaming sind weniger große Chips zudem effizienter und Ressourcenschonender als mehr kleine.

Matthias80 schrieb:
Nicht immer noch mehr verbrauch. Gerne nur mehr Leistung in sachen fps. Was eine enorme Effizienz Steigerung wäre!

Gaming ist nicht der Hauptfokus bei der Entwicklung neuer GPU Architekturen. Aber wenn du so willst, war DLSS der extremste Sprung was die Effizienz in Spielen angeht, seit langem. Größer als alles was man in einem Architektursprung schaffen könnte.

Ich verstehe dieses krankhafte fokusieren auf die TDP der größten Chips nicht. All das geforderte, mehr FPS bei gleicher Leistungsaufnahme, mehr Effizienz etc. wird jede Generation geboten. Die Existenz von Chips die darüber liegen. Ändert doch nicht, dass es all das gibt.

Wenn man maximal 250 Watt wie früher bei den Oberklassekarten möchte, kauft man sich halt heute statte wie früher einer 780TI, 980Ti, 1080Ti, 2080Ti etc, eben eine 4070 Super. Hat sogar nur 220 Watt und bietet die geforderte bessere Leistung bei weniger Stromverbrauch und viel mehr Effizient im Gaming bietet sie auch.
 
  • Gefällt mir
Reaktionen: RogueSix, Laphonso und -HeLo-
Nordbadener schrieb:
Meine alte 4090FE mit UV/0,875V@2520MHz mit einem FPScap@120 ist die effizienteste Grafikkarte, die ich je hatte.
Macht das Sinn?
Eine High End Karte kaufen und die so weit herunterdrosseln, damit der Stromverbrauch im erträglichen Rahmen bleibt?
Dann müsste man die 5090 vermutlich auf 0,4 - 0,5V und 2GHz beschränken, um die ganze Geschichte im sozialverträglichen Fenster zu halten.
Ergänzung ()

FreedomOfSpeech schrieb:
Weshalb? Durch die erneuerbaren Energien braucht man kein schlechtes Gewissen zu haben und die Kosten sinken und sinken und sinken.
Solange Du tagsüber oder nur bei Wind zockst, gebe ich Dir recht.
Davon abgesehen, von sinkenden Kosten merke ich noch nichts.
 
Ich warte nur darauf, dass Doc Brown irgendwann auf einer "RTX9090Ti Super Titan Extreme OC" gereist kommt und Müll in den "Tank" wirft, um die 1.21 Gigawatt zu erreichen, die man zum betreiben der Karte benötigt. Great Scott......
 
OZZHI schrieb:
Leistungskrone Ja. Aber wie kann man 4K mit DLSS und FG mit 60FPS gutheissen? Insbesondere bei so tiefen FPS ist FG unspielbar. Der Upsampling & Fake FPS Wahn macht die Spielehersteller nur noch Fauler bei der Optimierung. Siehe Wukong.
In Star Wars Outlaws reicht es mir z.B. vollkommen aus. In Black Ops 6 komme ich auch so auf 120 FPS. Hängt halt vom Spiel ab...
 
der verbrauch einer graka wird im großen und ganzen nur in zwei themenbereichen für manche relevant:
1. die abwärme durch verlustleistung ist nicht ganz so easy in den griff zu bekommen
2. man braucht ein argument um die eine bestimmte gpu oder gleich das ganze porftfolio eines herstellers "schlecht" aussehen zu lassen...


den ansonsten interessiert der verbrauch eher einen kleinen teil der gamer wirklich, welche dann mit undervoltimg und limits versucht das optimum bezüglich effizienz rauszuholen - bei allen anderen heißt es: feuer frei was die gpu hergibt!

ps: ich wette 95% der gamer haben keinen blasen schimmer wieviel an stromkosten ihre gpu bedingt und es interessiert sie auch nicht wirklich...
 
Dr. MaRV schrieb:
Gleich geht das Geheule über Stromverbrauch, Leistungsaufnahme und Effizienz wieder los und natürlich über den zu erwartenden Wucherpreis oder Preiswucher.
Ich will dich nicht enttäuschen:

5080: 1,1fache Leistung der 4090 und selber Preis. :D
Ergänzung ()

Shoryuken94 schrieb:
Ansonsten bin ich ja gespannt, welcher Hersteller das sein soll, der die Lücke super effizienter Grafikkarten übernehmen soll. Bislang erreichen weder AMD noch Intel überhaupt die aktuelle Effizienz von Nvidia.
Die RX7900er waren ja auch effizienter als die RTX2000er. Wenn man das von der Perspektive aus betrachtet, sind die jetzt auch nicht so weit voneinander entfernt. Eine Generation halt...
 
Shoryuken94 schrieb:
Der maximale Verbrauch
wir reden aneinander vorbei.
Shoryuken94 schrieb:
Der größte Kepler Chip und der größte Maxwell Chip hatten im übrigen die gleiche 250 Watt TDP.
genau deswegen habe ich das angesprochen!
Shoryuken94 schrieb:
All das geforderte, mehr FPS bei gleicher Leistungsaufnahme, mehr Effizienz etc. wird jede Generation geboten.
wirklich? ich seh mehr Verbrauch. Ja auch mehr FPS was in besserer Effizienz mündet. Aber wie lange soll das Spiel so weitergehen?
Das es auch positive Modelle gibt, Entwicklungen will ich gar nicht abstreiten.

Das der Verbrauch seit langem steil nach oben geht! steht ja wohl außer Frage.
Das auch die Leistung gestiegen ist und die Effizienz damit gestiegen ist. top und wäre ja auch schlimm wenn nicht! neuer Chip, mehr Verbrauch aber weniger FPS?? nicht logisch. Es seit den gleiche FPS und halber Verbrauch? 🤨
Aber der Verbrauch steigt weiter und weiter! Auch in den unteren Klassen. Das ist ein Problem. Ok vielleicht nicht für alle weil es nun mal nicht alle interessiert.
Puh und bei DLSS bin ich jetzt raus. Nur ein Feature was erfunden wurde um ein weiteres feature zu haben um noch teurer zu werden. Niemand braucht 500 FPS.
4K nativ, geile Grafik bei immer niedrigerem Verbrauch und vielleicht so 150 FPS. Das könnte man Entwickeln. Aber weil es ja 500 FPS und dann 600 und dann 700 sein müssen, braucht man halt solche Spielereien! Das schafft man nicht ohne mehr Verbrauch.
 
Und ich will endlich einfach News zur 5070 haben... :^D
 
Intel flog auch auf die Fresse, mit ihrer Brechstange.

Zwar traue ich Nvidia zu, 600W zu händeln, ohne das der Chip kaputt geht.
Dennoch ists der falsche Weg.

AMD versucht einen auf effizient zu machen, gleiche Leistung bei erheblich weniger Verbrauch und was passiert? - Sie werden von der Community abgestraft. (Was ich, mit Verlaub, unter aller Sau finde)

Wenn ich 100h in einem Game verbringe, mit allem drum und dran und wirklich die 600W ausreitze, kostet mich nicht nur das Spiel 79€, sondern es kommen allein von der GPU nochmal 60khw dazu. - Sprich ca. 20€
60KWh..

Vielleicht sollte man mal wieder nen Gang rückwärts machen, in Spielen Zeit und Fleiß investieren und diese zu optimieren.
Ach ich könnt noch weiter ausholen.

Am Ende wird nur das versucht zu liefern, was der Kunde sich wünscht.
Wie sind selber Schuld.
 
  • Gefällt mir
Reaktionen: Matthias80
Tornavida schrieb:
600W ? WTF Nvidia? Glaube ich erst wenns so kommt.

Ist doch eigentlich nix besonderes. Einige custom Designs der RTX 4090 gehen ja auch schon bis 600W. nVidia würden die FE also nur an bereits bestehende Designs angleichen.

Freue mich schon auf die RTX 5090, aber schade, dass der große Wurf wohl wegen "veralteter" Fertigung ausbleiben wird.
Natürlich kann man es nVidia in Anbetracht der derzeitigen Lage nicht verübeln, wenn sie ihre 3nm Kapazitäten zu 100% für das viel profitablere AI/Datacenter Geschäft verwenden, aber bedauerlich ist es schon, dass im Consumer-Segment dann neben der neuen Blackwell-Architektur nur über höhere Leistungsaufnahme ein Fortschritt zu verzeichnen sein wird.

Würde Blackwell gleich in 3nm gefertigt werden, dann würde man mutmaßlich die 4000er TDPs beibehalten und trotzdem mindestens dieselben Leistungssteigerungen erreichen können.
 
ThomasK_7 schrieb:
Vernünftige Gamer werden hoffentlich erkennen, das man solche Grafikkarten gar nicht für echten Spielspaß am PC dringend braucht!
Shadow86 schrieb:
Richtige Gamer werden hoffentlich erkennen, dass man Hochleistungskerne und Hochleistungsgrafikkarten für echten Spielspaß am PC dringend braucht!

Also sind vernünftige Gamer keine richtigen, oder die richtigen Gamer sind nicht vernünftig.

Lasse das mal so stehen.
 
  • Gefällt mir
Reaktionen: Oudenstekelig und ThomasK_7
Zurück
Oben