News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

ds212+ schrieb:
Ich frage mich jedesmal was an einer 512 Bit Anbindung bei der Grafikkarte besonders sein soll?
Abgesehen davon, dass es kaum eine heutige Konsumer-Grafikkarte beherrscht, meine zig Jahre alte ATI Radeon HD 2900 XT (habe ich tatsächlich immer noch im Keller liegen) hat es schon damals gehabt... 😁
Das liegt wohl daran, dass unter anderem deine genannte Karte damals nicht gerade bekannt für ihre Effizienz war und als ein Grund dafür immer wieder das breite Speicherinterface genannt wurde. Das hat sich heutzutage natürlich vollkommen geändert. Das mit Abstand meiste verbraucht ohnehin der Grafikchip selbst, und im Idle geht man mit dem Speichertakt halt soweit runter, dass dieser eben auch nicht mehr relevant ist. Ich finde die 32 GB @ 512 bit auch nice to have, wobei 36 GB @ 384 bit (mittels den neuen 3 GB Speicherbausteinen) auch ganz interessant gewesen wären.
 
Dr. MaRV schrieb:
Wann war das? 1970? Das ist genau so ein Blödsinn wie die Fantasiereichweiten bei E-Autos und die Aufnahme der kommenden 5090.
Seit es immer mehr IoT, immer mehr Arbeit von zu Hause und immer mehr Work-Life-Balance mit mehr Life als Work gibt, sind 2500 kWh/Jahr nichts weiter als ein Fantasiewert.
Ich verbrauche zwischen 16 & 18 kWh/Tag. Ist eben so, interessiert mich nicht.
Es gibt Verbraucher, die kann man nicht drosseln und schon gar nicht abschalten.
Wenn dir dein Hobby zu teurer wird, such dir ein anderes. Oder lebe es weniger exzessiv aus, man muss nicht das Spitzenmodell haben, auch wenn es dem Ego noch so guttut.
Ich weiss nicht was du alles bei dir zuhause hast das du auf 18 bis 19 kWh verbrauchst.
Aber ich komme im Home Office und 4 Personen ohne E Auto auf 3200 KwH im jähr dicke aus genauso wie der Durchschnitt.
 
Sie: Schatz, mir ist kalt, drehst Du die Heizung auf?
Er: OK, ich geh zocken.
 
  • Gefällt mir
Reaktionen: Oudenstekelig, Weyoun und Lazo53
Wichelmanni schrieb:
Was fällt dir auf?
Die UVP der 4080 Super liegt derzeit bei 1100€ (Markt unter 1000€), die der 4090 bei 1800€ (Markt 1800€+). Dadurch ist die 4090 64% teurer bei 68% mehr Schader und effektiv ~30% Mehrleistung.

Der N4 war damals sehr teuer, das hat auch den Preis des 80er Chips nach oben gezogen. Nun haben sie die UVP der 4080 Super auf 1100€ gesetzt, wiederspricht das nicht deiner Argumentation?

Die 4080 ist der Konter zu AMD und soll auch etwa in diesem Preisbereich spielen. Passt doch ungefähr.
 
Simanova schrieb:
Battlemage soll nur mit 32XE Cores kommen,
64 und 8192 Compute Units meine ich gelesen zu haben.
 
Zuletzt bearbeitet:
Kling spaßig. Wär nen upgrade wert. Mein 1000 Watt Dark Power 13 wäre auf jeden fall bereit. Wobei ich hab bei meiner Grafikkarte noch nie 400 Watt aufwärts gesehen.
 
Krik schrieb:
Hast du keine Hamster? :evillol:
Die habe ich diese Woche leider alle schon aufgegessen. :schluck:
Ergänzung ()

doctorzito schrieb:
Ich würde sagen es reicht.
Da man immer auch Worst Case berücksichtigen sollte (CPU mit kurzzeitig 200 Watt oder mehr plus Mainboard-Grundverbrauch inkl. RAM plus weitere Verbraucher im PC wie 10 GBit Ethernet-Karte, Soundkarte, mehrere PCIE5.0 SSDs, zusätzliche Verbraucher über USB-C oder Thunderbolt oder was auch immer) würde ich sagen, dass man mindestens ein 1.000 Watt Netzteil einplanen sollte, wenn alleine die GraKa mit bis zu 600 Watt angegeben ist. Glücklicherweise haben die bei niedriger Auslastung einen nur unwesentlich höheren Verbrauch als 800 Watt Netzteile.
Ergänzung ()

calippo schrieb:
In Zukunft hat man variable Strompreise und dann wirft man Spül- und Waschmaschine an und zockt ne Runde, wenn der Strompreis gerade günstig ist.
Sagen wir mal so: Die Wasch- oder Spülmaschine kann ich notfalls (falls künftig alles dauer-online ist) von der Arbeit aus per App einschalten (oder wenn der Wechselrichter der PV-Anlage mehr als 3kW erzeugt sogar vollautomatisch starten lassen), aber Zocken kann ich immer nur nach Feierabend und das ist selten vor 18 Uhr. ;)

Oder wie erkläre ich es meinem Chef, dass ich gerade nicht kommen kann, weil der Strompreis gerade niedrig ist und ich zocken muss? :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Ich seh bei diversen Titeln auf der RTX 4090 häufiger 400W im Verbrauch, manchmal sogar 430. Das kommt immer dann vor, wenn die FPS unbegrenzt laufen (in diesem Fall 144). Ich hab das zum Beispiel bei Titeln wie Pathalogic 2 gesehen oder bei Falbedom und beide Spiele können auch problemlos mit 60 FPS laufen ohne wirklichen Unterschied.

Ich schätze, wenn jetzt die 5000er Generation kommt und man wirklich mit 500-600W im Spielealltag rechnen muss, wär es nicht blöd, wenn man nebenher den Verbrauch im Blick hat. So als Beispiel: Bei 15 Stunden die Woche kosten 500W statt 100W schon 109€ mehr im Jahr (35ct/kwh). Das ist schon nicht unerheblich, besonders wenn gewisse Titel keinen FPS-Begrenzer drin haben und absolut keinen Sinn macht den Nvidia-Hengst am Limit zu prügeln.
 
SaschaHa schrieb:
Das liegt wohl daran, dass unter anderem deine genannte Karte damals nicht gerade bekannt für ihre Effizienz war und als ein Grund dafür immer wieder das breite Speicherinterface genannt wurde.
@SaschaHa
Der Grund für den damaligen Kauf dieser Grafikkarte war für mich die Tatsache, dass man diese damals lediglich per Treiberpatch zu einer wesentlich teureren AMD FireGL V8600 mutieren lassen konnte, welche dann tatsächlich z.B. mit SolidWorks prima funktioniert hat... 😉
 
  • Gefällt mir
Reaktionen: SweetOhm und SaschaHa
Muntermacher schrieb:
Sie: Schatz, mir ist kalt, drehst Du die Heizung auf?
Er: OK, ich geh zocken.
Wer kennt ihn nicht, den Badezimmer-Heiz-PC mit Nvidia 5090 im Triple-SLI-Verbund, damit die Frau nach dem Aussteigen aus der Dusche nicht friert. :D
 
  • Gefällt mir
Reaktionen: Oudenstekelig, SweetOhm, schneeland und 2 andere
@ds212+
Selbiges habe ich damals mit meiner HD 6950 gemacht, die sich durch einen BIOS-Hack zur wesentlich teureren HD 6970 freischalten ließ :D Vielleicht nicht ganz vergleichbar, aber ähnliches Prinzip.
 
  • Gefällt mir
Reaktionen: SweetOhm und ds212+
Dedenne1987 schrieb:
Wobei ich hab bei meiner Grafikkarte noch nie 400 Watt aufwärts gesehen.
Dann spielst du die falschen Spiele :D

The Outer Worlds_4k+120fps_2023-03-12 193227.jpg
 
  • Gefällt mir
Reaktionen: SweetOhm
Weyoun schrieb:
Oder wie erkläre ich es meinem Chef, das ich gerade nicht kommen kann, weil der Strompreis gerade niedrig ist und ich zocken muss?
Werd Dein eigener Chef, dann kannst Du Dir das selbst aussuchen ;)

Ich verstehe halt das Gejammer nicht, alle wollen immer mehr Leistung, Auflösung und FPS, aber die Konsequenzen wollen sie nicht tragen oder ggf. nach Lösungen suchen.

Bei einer PV-Anlage kann man sich noch einen Speicher dazu kaufen, wird auch immer billiger.

Oder man gibt sich halt mit einer kleinere Karte zufrieden und spielt die Games ein paar Jahre später, wenn die Grafikleistung der kleineren Klassen ausreicht.
 
  • Gefällt mir
Reaktionen: RogueSix und Toni_himbeere
calippo schrieb:
Werd Dein eigener Chef, dann kannst Du Dir das selbst aussuchen ;)
Und wie erkläre ich dann meinen Kunden, die mein Luxus-Leben finanzieren, dass ich gerade nicht kann, weil der Strom zum Zocken aktuell günstig ist? ;)
calippo schrieb:
Bei einer PV-Anlage kann man sich noch einen Speicher dazu kaufen, wird auch immer billiger.
Der Speicher nützt im Winter leider wenig, da er während der kurzen Tage nicht mal bei viel Sonne vollgeladen wird. Wir haben lange gerungen, ob bei uns eine Vergrößerung von 9,6 auf 15 kWh Sinn macht. Im Sommer ja, im Winter nein und aufs Gesamtjahr gerechnet auch nicht wirklich.

Mehr Sinn macht da schon eher V2x (z.B. V2G), wenn man das E-Auto nachts als Stromquelle anzapft. Aber das steckt leider noch in den Kinderschuhen.
 
Welche Schnittstellen soll denn die 5090 haben? DisplayPort 2.1? TB5?
 
Weyoun schrieb:
Reichen die mit 16A-Absicherung oder doch eher die mit 32A pro Phase? Meine Wallbox kann nur 16A. :D
Nein, es muss die 32er sein. Die 16A sind bei Stock-Volllast schon grenzwertig und werden bei OC definitiv überschritten.
 
  • Gefällt mir
Reaktionen: SweetOhm und Weyoun
S.Kara schrieb:
Die UVP der 4080 Super liegt derzeit bei 1100€ (Markt unter 1000€), die der 4090 bei 1800€ (Markt 1800€+). Dadurch ist die 4090 64% teurer bei 68% mehr Schader und effektiv ~30% Mehrleistung.

Der N4 war damals sehr teuer, das hat auch den Preis des 80er Chips nach oben gezogen. Nun haben sie die UVP der 4080 Super auf 1100€ gesetzt, wiederspricht das nicht deiner Argumentation?

Die 4080 ist der Konter zu AMD und soll auch etwa in diesem Preisbereich spielen. Passt doch ungefähr.

Auch hier muss ich widersprechen.
  1. Es geht um die Einführungspreise der neuen 5000er Generation und nicht um die Preise der gerade im Abverkauf befindlichen Generation. Das Preisgefüge wird bei Einführung immer anders sein, als am Lebensende.
  2. Der Fertigungsprozess ist im Vergleich zu 2022 noch teurer geworden. TSMC hat die Preise seitdem angehoben. Der prognostizierte Ausbau des GB203 deutet ja eindeutig daraufhin, dass nVidia nicht auf die ~5% Marge verzichtet sondern lieber die Chips immer weiter kastriert.
  3. Die RTX 4070 sollte ursprünglich die 4080 sein - nVidia hat nur wegen dem extremen Shitstorm ein Rückzieher gemacht.
Was ist daran zu schwer einzugestehen, dass nVidia versucht uns PC-Spieler mit versteckten Mitteln (fällt ja nur Leuten auf, die sich die technischen Datenblätter überhaupt anschauen) möglichst hart auszunehmen? Aus dem Debakel mit der ursprünglichen 4080 (einem Chip relativ so groß zum Maximalausbau, es hätte eine 4060 sein können) gelernt und verkleinert einfach gleich den Chipentwurf. So kann man ja sagen, geil man bekommt bei der 5080 den Vollausbau!

Immer daran denken - Bezeichnungen wie GB203 oder RTX 5080 sind nur Marketingnamen. Einzig was zählt ist, was bekomme ich für mein Geld.
 
  • Gefällt mir
Reaktionen: thom_cat und SweetOhm
Zurück
Oben