News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

XPS schrieb:
Stimmt und mein 77er OLED Läuft mit Luft und Liebe an der PS5 :hammer_alt: - mit dem Sound System komme ich da auch auf 600 - 700W
Immer diese Sinnigen Vergleiche mit Konsolen... :D
Der PC kommt ohne Bild und Ton aus?

Die Peripherie kommt doch in beiden Szenarien noch dazu. Der Vergleich bleibt also schon sinnig.
 
  • Gefällt mir
Reaktionen: Tapion3388
als ob das eine neue Entwicklung wäre, seit jeher wird die Brechstange ausgepackt wenn ein Hersteller versucht am anderen dran zubleiben.
Wer es sich nicht leisten kann, sollte sich halt was kleineres kaufen, ist beim Auto ja auch so.
Wenn die Gerüchte stimmen, liegt AMD mit RDNA3 15-20% vor NVIDIA und benötigt dafür 100W weniger.
Wird interessant, alles verändert sich, war auch mal Zeit...
 
mytosh schrieb:
Der PC kommt ohne Bild und Ton aus?

Die Peripherie kommt doch in beiden Szenarien noch dazu. Der Vergleich bleibt also schon sinnig.
Das ist richtig, da jetzt aber die Wenigsten am PC nen OLED nutzen sonder eher als TV für ne Konsole ist der Verbrauch eines OLED im vergleich zum Monitor um einiges höher.
 
600W nur für vermeintlich realistischere Grafik oder ein paar FPS mehr. Im Sommer daneben vermutlich ein Klimagerät, dass die 600W Wärmeabgabe wieder runterkühlen muss. Was ein Irrsinn. Als würden Spiele dadurch besser. Braucht niemand wirklich, reines Statussymbol-Gepose und völlig aus der Zeit gefallen. Nach dem Motto "Ich will Spaß, ich geb Gas", koste es was es wolle, mir egal. Da kann man nur hoffen, dass viele Karten einen vorzeitigen Hitzetod sterben.
 
  • Gefällt mir
Reaktionen: Tapion3388 und Max007
Schön zu sehen, dass mein aktuelles Netzteil gerade so reicht um die GPU zu befeuern...
Vor nicht allzu langer Zeit hat man Leute noch belächelt, wenn sie sich in ein Single GPU Setup ein 1000 Watt Netzteil verbaut haben.

Im Vergleich zu den ganzen Elektroautos, die hier demnächst rumfahren sollen sind die paar Gamer doch vernachlässigbar.
Ich mache mir eher Sorgen, wie viel Strom die Mining-Farmen dann in Zukunft ziehen werden.
 
@XPS
Gut, der Vergleich geht nicht, weil die Meisten...
Aber einfach mal 700 Watt Surround Sound als Standard setzen ist völlig legitim. =D

Eigentlich ist es mir auch total egal, welche Hardware mehr verbraucht. Die Entwicklung ist einfach scheiße. Gefühlt sehen viele Spiele auch nicht geiler aus und brauchen komischerweise trotzdem immer mehr Leistung.
 
Zuletzt bearbeitet:
XPS schrieb:
-Komplettzitat entfernt-
"Und ja mir ist es auch sch... egal..." genau die Haltung, die ich beschrieben habe. Danke für die Bestätigung.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: ComputerJunge, Tapion3388, downforze und eine weitere Person
XPS schrieb:
Aber so Menschen wie dich muss es nun mal auch geben, kannst ja weiter im Wald mit Stöckern Spielen gehen....ist auch gut für die Umwelt :daumen:
Ist jetzt nicht böse gemeint aber es gibt mehr als Schwarz und Weiß. Man kann Geld ausgeben und gerne zocken aber die Entwicklung hin zu immer mehr Verbrauch für kaum Mehrleistung dennoch anzweifeln.
 
  • Gefällt mir
Reaktionen: Tapion3388, DevPandi und downforze
Känguru schrieb:
600W nur für vermeintlich realistischere Grafik oder ein paar FPS mehr. Im Sommer daneben vermutlich ein Klimagerät, dass die 600W Wärmeabgabe wieder runterkühlen muss. Was ein Irrsinn. Als würden Spiele dadurch besser. Braucht niemand wirklich, reines Statussymbol-Gepose und völlig aus der Zeit gefallen. Nach dem Motto "Ich will Spaß, ich geb Gas", koste es was es wolle, mir egal. Da kann man nur hoffen, dass viele Karten einen vorzeitigen Hitzetod sterben.
Das sind doch nur Peanuts und die kleine Anzahl solcher Grafikkarten wird Deutschland schon aushalten. Dafür gibt es doch jetzt die krassen Klimaaktivsten mit ihren staatlich geförderten 11.000 Watt Wallboxen und Elektroautos. Der "kleinste" Tesla hat ~325PS. Das ist die ökologische Zukunft. Also was soll die Aufregung um eine exotische 0,6 KW Grafikkarte?
 
  • Gefällt mir
Reaktionen: Gast12345 und XPS
Die absolute Masse spielt laut Steam in FullHD. Ich hatte eigentlich vor eine Karte mit maximal 200 Watt zu kaufen. Das dürfte wohl unmöglich werden, wenn ich keine Performance verlieren will.
 
mytosh schrieb:
Ist jetzt nicht böse gemeint aber es gibt mehr als Schwarz und Weiß. Man kann Geld ausgeben und gerne zocken aber die Entwicklung hin zu immer mehr Verbrauch für kaum Mehrleistung dennoch anzweifeln.
Es ging um die Aussage das sich sowas nur Gekauft wird wegen einem Status Symbol und das ist einfach total Schwachsinn.
 
  • Gefällt mir
Reaktionen: Gast12345, Laphonso und mytosh
Youngtimer schrieb:
Das sind doch nur Peanuts und die kleine Anzahl solcher Grafikkarten wird Deutschland schon aushalten. Dafür gibt es doch jetzt die krassen Klimaaktivsten mit ihren staatlich geförderten 11.000 Watt Wallboxen und Elektroautos. Der "kleinste" Tesla hat ~325PS. Das ist die ökologische Zukunft. Also was soll die Aufregung um eine exotische 0,6 KW Grafikkarte?
Stimme Dir zu, ein 325PS-Tesla ist genauso wenig "öko" wie ein E-SUV und viele Hybrid-Geschosse. Es geht mir eher generell darum: wer braucht das wirklich ? Ginge es nicht auch mal eine Nummer kleiner ? Klar, muss jeder letztlich für sich entscheiden. Aber es schadet sicherlich nicht sich mit der Frage hin und wieder zu beschäftigen. Und sollte sich die Antwort darauf nicht 100% gut anfühlen, gibt es dafür ja vielleicht Gründe.
 
  • Gefällt mir
Reaktionen: Youngtimer und downforze
Känguru schrieb:
Es geht mir eher generell darum: wer braucht das wirklich
Ich habe noch eine Reihe Spiele von 2014 und 2015 installiert und sehe zu heutigen Spielen quasi gar keine Verbesserung. Cyberpunk 2077 habe ich auch auf Ultra gespielt.
Stattdessen geht es nur noch um immer höhere Auflösungen. Als wenn ein normaler Mensch auf nem 22" Monitor den Unterschied zwischen 4k und FullHD in bewegten Szenen erkennen könnte.
Einzig Raytracing würde mich interessieren, aber damit reduziere ich die fps ja direkt um 50 bis 70%. Danke, aber nein Danke.
 
  • Gefällt mir
Reaktionen: Känguru
seas888 schrieb:
Vermutlich an einer anderen Definition von "erheblich" als du sie ansetzt. Ampere hatte schon nur eine Steigerung von ca. 8% im Vergleich zum direkten Vorgänger. Alles an Mehrleistung was darüber hinausging ging einher mit dem Anheben der Leistungsaufnahme.
Also laut CB hat eine 3090 +15% Performance pro Watt gegenüber einer 2080Ti. Und wie du schon sagst, wir die an der Kotzgrenze bertrieben. Eine 3070 steht mit +28% in der Tabelle.
Also ich sehe da mehr Effizienz.
Und dazu kommen noch zwei Node Sprünge bei der Fertigung bei der nächsten Generation.
TSMC gibt von 10 nm (entspricht etwa 8LPP) auf 5nm -60% Power bzw. +38% Performance bei gleicher Power an. Es ist also völlig utopisch anzunehmen, dass die Effizienz nicht nennenswert steigt. Selbst ohne Verbesserungen in der Architektur.

seas888 schrieb:
Nvidia hat hier die Jahre lang aufgebaute Führung über AMD in einer Generation aufgegeben, AMD hat in einer Generation von einem Rückstand von 19% gleichziehen können und stellt jetzt mit der RX6800 das Maximum an Effizienz da.
Zwei Punkte. Nvidia taktet die Spitzenmodelle weiter weg vom Sweetspot und was noch viel wichtiger ist, AMD setzt auf N7 während Nvidia noch auf einen 10 nm (8LPP) Prozess setzt.
Da liegen durch die Fertigung schon erhebliche Unterschiede.
seas888 schrieb:
Daraus ergibt sich genau eine logische Schlussfolgerung: Preis anheben F&E niedrig halten und Marge vergrößern.
Nein, wie ich schon erklärt habe, ist diese Schlussfolgerungen nicht logisch.
Erstens dauert eine GPU Entwicklung länger. Zu dem Zeitpunkt war das Ausmaß der Nachfrage noch gar nicht klar.
Zweitens reduziert kein Hersteller F&E. Wie stellst du dir das vor? Sie feuern die Belegschaft und nach ein paar Jahren holt man wieder neue, die natürlich keine Einarbeitungszeit brauchen? F&E ist eine permanente Sache, Entwicklungen kommen teils erst Jahre später auf den Markt. Man kann auch nicht einfach ein paar Jahre aussetzen und dann irgendwan urplötzlich weiter vorne weiterentwickeln. Die Jahre fehlen dir einfach.
 
Schaby schrieb:
Der Verbrauch sagt doch erstmal nichts über die Leistung aus. Sollte die Karte wirklich 70%+ mehr Leistung bringen, sind das gut angelegte 100W/h.

Also ca. 30% mehr Verbrauch bei +70% Leistung.
Das ist schon lange nicht mehr der Fall und dazu kommt, dass die Top-Modelle nie die Effizienzwunder sind.

Die Frage wird sein, sind 450 Watt schon aufgebohrt (um den längsten Balken zu haben) oder erst der Anfang allen Übels!
 
Im Winter kann man da sicherlich etwas an Heizenergie woanders einsparen, aber im Sommer setze ich mich dann nicht mehr vor so eine Heizung. Selbst mit der 3080 ist es alles andere als angenehm, wenn man im Sommer abends eine Runde spielen will. Vielleicht muss ich beim Vermieter aber auch nur einen Ausgang nach draußen beantragen ähnlich einer Dunstabzugshaube. Oder ich erschaffe mir eine Heiß-Kaltzone wie beim Server, wo mein Wohnraum in zwei Teile getrennt wird und mein Rechner die Warme Luft in die Wand jagt.
 
Die wenigsten User werden eine RTX 4090 kaufen. Viel interessanter wird es im mittleren Preissegment werden, also bei den 4060/70ern. Wenn es effiziente Grakas gibt im Zweislotdesign, die in mein Kleingehäuse passen, könnte ich gut mit einem solchen Pixelbeschleuniger leben.
 
  • Gefällt mir
Reaktionen: Cohen und DaHell63
Plasma81 schrieb:
Falls doch = zu viel Zeit fürs Gaming und die Stromrechnung ist egal (Eltern, Erbe, E-Sport, sonstiges). Oder die Person ist arbeitslos und kann sich die Karte damit (so hart es klingen mag) sowieso nicht leisten, womit das Thema vom Tisch ist.
Als Leistungsträger mit viel Arbeit und Familie sowie anderen Hobbys der sich eine 3090 leisten kann kauft man sich das häufig erst gar nicht - da keine Zeit vorhanden ist um diese zu nutzen. Und wenn man es tut, dann bereut man es. Ich bin daher aktuell mit meiner 6700XT mehr als bedient, habe auch noch eine PS5. Da ich privat teils noch Fortbildungen machen muss habe ich teils gar keine Freizeit. Machen wir uns mal ehrlich, die meisten haben unter der Woche 1-2 Stunden zum zocken und das wars.

Ich werde hier nicht mit dem Finger zeigen aber als ich noch Schüler war und auch hier im Forum und anderswo häufiger mitgelesen habe sind mir schon diverse Leute aufgefallen die von morgens bis abends im Forum online sind und so viel lesen / schreiben das es definitiv auffällt das diese keine geregelte Tätigkeit oder soziales Umfeld zu bedienen haben. Komischerweise haben genau diese Leute meist High-End Hardware. Es scheint also doch zu gehen, es gibt ja auch genug Leute mit Hartz 4 die sich trotzdem die Zigaretten oder das saufen finanzieren können. Ich kannte schon zu Schulzeiten Leute denen eine Tüte Chips über den Tag reichte und eben sehr genügsam sind. Ich kenne einen der seit Jahren arbeitslos ist und das quasi ausnutzt zum zocken. Muss jeder für sich selbst wissen. Ich habe für mich entschieden das ich in Zukunft arbeitstechnisch etwas verändern möchte (keine 50h+ mehr) denn Lebenszeit ist definitiv am wichtigsten und was bringt es am Ende so viel Geld zu haben, wenn man gar keine Zeit hat dies zu nutzen. Wo ich hier schreibe frage ich mich warum ich eigentlich so viel Geld raus haue für Zeugs wofür ich keine Zeit habe, hier steht z.B. auch noch ein teures Notebook und anderes Zeugs welches ich genauso zum zocken nutzen könnte, aber es fehlt einfach die Zeit....

Zum Thema Stromverbrauch:
Das ist primär in Deutschland das Problem. Andernorts wird teils gar nicht erst auf die Stromrechnung geschaut, da kaum relevant. Ich war mal in Asien, dort hast du so gut wie überall eine Klimaanlage und die Stromkosten sind dennoch kaum relevant. In Deutschland guckst du da nach einem Sommer auf die Rechnung und sagst dir okay in Zukunft vielleicht nicht durchlaufen lassen :)))
Ich würde hier aber die These aufstellen das selbst in Deutschland Gamer sich das leisten können selbst bei geringem Einkommen oder sogar Hartzer. Warum? Wer solche Hardware aktiv nutzt hat das als primäres Hobby und macht anderswo Abstriche. Vielleicht kennt jemand uhr444 von youtube, das ist echt der Hammer. (Wobei der glaube ich zuletzt sogar einen Job hatte, aber mehr als 10 Jahre arbeitslos und sogar Special-Edition von Games kaufen, wtf) Grafikkarten kommen maximal jährlich raus, darauf kann man sparen und die Stromkosten kriegt man auch gebacken. Allgemein zum Thema Kosten für Gaming kann ich nur sagen, das war noch nie "günstig" allerdings war es noch nie so easy im Einstiegsbereich unterwegs zu sein (Gaming-Notebooks bekommt man schon mal unter 1k) Wer braucht zwingend 4k und 120 FPS? Wer mit weniger zufrieden ist kann alles zocken, zudem spart man sich extrem viel Geld wenn man Games nicht zum Release kauft (eh eine blöde Idee) so viele Sales wie heutzutage gabs noch nie, man muss nicht mal mehr vor die Türe um Games zu kaufen. Man kann sich immer alles schön oder schlecht reden. Gearscht ist doch wie immer nur die Mittelschicht, so der typische Familienvater mit kaum Zeit und Geld, aber für den bringt auch eine 3090 nichts und ist keine Zielgruppe.

Ich versuche den Verbrauch vom PC nicht großartig über 300 Watt gehen zu lassen, da ich trotz Klimaanlage im Sommer natürlich irgendwo noch bedenken muss wie stark diese laufen muss (Thema Lautstärke) da geht es nicht nur ums Geld. Ich würde mir definitiv keine 600 Watt Karte rein bauen. Ich finde alles über 300 Watt (nur die GPU) schon über grenzwertig, da würde ich Wakü verbauen.
 
  • Gefällt mir
Reaktionen: iceshield, Gamecollector und Venatoris
Zurück
Oben