News Nvidia Ada: Die GeForce RTX 4090 soll mit 2.520 MHz Boost takten

Powl_0 schrieb:
Das waren aber Dual GPUs. Sondermodelle, quasi zwei Karten in einer.
Und? Es waren Karten für Enthusiasten, genau wie die 4090 auch oder glaubst du, dass der Großteil in diesem Forum so viel Geld für eine Graka ausgeben würde? Die Wengisten kaufen sich so eine Karte und die meisten "Kritiker" würden sie sich sowieso nicht kaufen, egal wie hoch der Verbrauch wäre.

Powl_0 schrieb:
Bald verbrät dann eine Karte/GPU allein so viel.
Haben sie schon immer.

Powl_0 schrieb:
Die damaligen Single GPU Flaggschiffe verbrauchten so viel wie heute die Mittelklasse bei Nvidia.
Was tut das zur Sache? Ob ich eine GPU mit 1 oder 2 Chips kaufe, ist mir als Konsument doch egal?
 
owned139 schrieb:
Da bewegt sich nichst, denn es gab schon immer solche Karten: R9 295 X2 - 560W (https://www.pcgameshardware.de/Graf...80/Tests/Radeon-R9-295X2-Test-Review-1116145/)
Und die 2,3 und 4 Way CF/SLI sind auch noch mal ne ganz andere Geschichte.

Damals hat es niemanden interessiert, aber heute gibt es für euch kein anderes Thema mehr.

Oh doch damals haben genug Leute hier im Forum auch schon gemeckert bei den hohen Verbrauch. Bei Vega damals und bei AMD HD7000 Reihe, bei Nvidia Fermi (Thermi). Das war schon immer ein Streit Thema. Bin seit 2007 auf CB
 
  • Gefällt mir
Reaktionen: fullnewb
Shinigami1 schrieb:
Es ist ja nicht so das die Karte 24/7 in Betrieb ist und die volle Leistung zieht.
Wenn man z.B. 4 Stunden am Tag zockt, 6 Tage die Woche, sind das in einem Jahr (4x6x52) 1284 Stunden. Bei 400W für die Grafikkarte sind das (0,4x8760) 499 kW/h. Grob 500 kW/h für Hardcorezocker, also 150.- Strom im Jahr (bei 30 Cent pro kW/h).
Die 150.- im Jahr sind die Kosten für die aktuelle Grafikkarte unter Volllast. Nicht der Aufpreis der Differenz zwischen der alten und der neuen Karte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, Aldaris und Cool Master
@v_ossi

Oder einfach die Settings runter schrauben? Das vergessen wohl viele, dass das am PC ja super geht und früher eigentlich der Standard war.
 
  • Gefällt mir
Reaktionen: poolk
owned139 schrieb:
Haben sie schon immer.
Nö. Wann gabs vor Ampere ne Single GPU mit 350W Verbrauch ab Referenz?
Wanns gabs eine Referenz GPU mit 400+ wie bei Ada?

Bei Fermi gabs nen Aufschrei wegen 220W, das galt als zu stromhungrig. Bei 250W gabs Diskussion über den heftigen Verbrauch. Oder bei den 300W von Hawaii, Fiji oder Vega erst, meine Güte wurde da jeweils auf AMD eingedroschen.

Deine Behauptung, dass damals sich niemand beschwert hätte, ist einfach willentliche Ignoranz.
 
  • Gefällt mir
Reaktionen: fullnewb, Innocience, Wan900 und 3 andere
Kloin schrieb:
Die Kausalkette ist also folgende: Der Kunde will Mehrleistung und der Hersteller liefert einfach ohne Rücksicht auf alles. Bravo, Gehrinwäsche war erfolgreich.

Wieso Kausalkette? Tesla liefert den S bei Bedarf mit 1020 PS. Kraft kommt von Kraftstoff und beim E-Auto aus dem Kraftwerk. Wenn eine Grafikkarte nicht voll ausgelastet wird, verbraucht sie auch deutlich weniger. Hier sind auch die Softwareentwickler gefragt, die mittlerweile mit Kanonen auf Spatzen schießen und bei Konsolen-Ports den Feinschliff vermissen lassen.
 
  • Gefällt mir
Reaktionen: FreedomOfSpeech
owned139 schrieb:
Der Preis rechtfertigt also absurden Verbrauch? Okay.

Wieso gabs eine Titan dann nicht mit 350W von Nvidia? Enthusiast heißt nicht gleich Stromschleuder in diesem Ausmaß.
 
Shinigami1 schrieb:
Ich freu mich auf die 4090. Wird nen mega Upgrade. Der erhöhte Stromverbrauch interessiert mich nicht. Auf der Stromrechnung macht das sich sowieso so gut wie gar nicht bemerkbar. Viele Leute übertreiben immer maßlos. Es ist ja nicht so das die Karte 24/7 in Betrieb ist und die volle Leistung zieht.
Also ein Rechner der knapp 800W an Leistung beim Zocken braucht und man gerade 37 Cent je kWh bezahlt merkt man schon ... für jede Stunde die zu täglich zockst, zahlste aufsummiert 100 Euro im Jahr. Da hat sich ne Grafikkarte aber ganz schnell amortisiert, die nur die Häfte an Strom braucht ;)
 
HighPerf. Gamer schrieb:
Mir gefällt der Weg mit dem Energieverbrauch auch nicht, ich habe schon bei der RTX3080 Zähneknirschend ein Auge zugedrückt. Und oh mein Gott ich merke den Unterschied alleine an der Raumtemperatur (nicht nur in der Geldbörse) sehr sehr deutlich, was teils unangenehm werden kann wenn es draussen mal 23 grad oder mehr sind. Wenn ich abends Nachhause komme nach nem längeren Tag, arbeit und bissl Radfahren, ist es im Sommer halt immernoch sehr warm. Meine Grafikkarten hatten davor alle eine TDP von max rund 200 Watt.
Lässt du deinen PC tagsüber immer laufen, während du auf der Arbeit bist? Sind ja dann locker 10 Std.
Im Standby oder arbeitet die Kiste dann auch? Weil soviel Abwärme dürfte die Karte im Standby doch nicht produzieren?
 
Powl_0 schrieb:
Nö. Wann gabs vor Ampere ne Single GPU mit 350W Verbrauch ab Referenz?
Wanns gabs eine Referenz GPU mit 400+ wie bei Ada?
Warum fixierst du dich so auf das "single GPU"? Wären die 450W in Ordnung, wenn es 2 Chips auf einer Karte wären? Es ist völlig egal, ob es ein oder zwei Chips sind. Du baust dir eine Karte in den PC die 450W bzw. 560W verbrät.
Zumal es falsch ist, dass die GPU die 450W verbrät, denn es ist das ganze Board inklusive VRAM. Genau so verbraucht das gesamte Board der 295X2 inkl. VRAM 560W.

HighPerf. Gamer schrieb:
Oh doch damals haben genug Leute hier im Forum auch schon gemeckert bei den hohen Verbrauch. Bei Vega damals und bei AMD HD7000 Reihe, bei Nvidia Fermi (Thermi). Das war schon immer ein Streit Thema. Bin seit 2007 auf CB
Schau dir mal die Diskussion im verlinkten Beitrag an. Es ist ein ganz anderer Ton als hier und die wenigsten bis niemand beschwert sich über den Verbrauch.
 
60% mehr ALUs + 60% mehr Takt hören sich nach ordentlich Leistung an.
Mit sonstigen Optimierungen könnte theoretisch in 4k+RT die 2-3-fache Leistung anliegen.

Zum Stromverbrauch:
Habt ihr keine anderen Probleme mehr? Kauft die Karten halt nicht und fertig.
Wenn meine GPU 1h/Tag ihre 400 Watt zieht fällt das neben Staubsauger, Herd/Backofen und Waschmaschine kaum auf.
Ist zudem ein Hobby und das darf auch etwas kosten. 20 Cent pro Tag werden kaum jemanden arm machen.
 
  • Gefällt mir
Reaktionen: Maggolos und GERmaximus
owned139 schrieb:
Warum fixierst du dich
Warum ignorierst du das Kontra zum Punkt "damalige Diskussion über Verbrauch"?

Aber gut, bei deinem Avatar ist eh schon klar, dass man rationale Unterhaltung vergessen kann.
 
hahaqp schrieb:
Weil schon wieder das Geheule wegen Strom/Umwelt losgeht, wie immer beim Thema GPUs, hier ein paar Fakten:

2. Wir werden auch bei Ada (wie schon bei Ampere vs. Turing) eine verbesserte Effizienz sehen, sprich, bei gleicher Leistungsaufnahme wird Ada mehr Performance liefern.
3. Niemand zwingt euch eine 4090 zu kaufen, sowohl NVIDIA als auch AMD bieten unterschiedliche Modelle mit unterschiedlicher TDP an.

Und trotzdem wäre der richtige Weg nicht den Stromverbrauch inkl. Leistung zu erhöhen, sondern die gleiche Leistung bei weniger Verbrauch zu liefern. Wer mehr Leistung braucht, baut sich dann eine zweite oder dritte Karte ein.
 
Powl_0 schrieb:
Deine Behauptung, dass damals sich niemand beschwert hätte, ist einfach willentliche Ignoranz.

Klar haben sich die Leute beschwert aber es ist nun mal einfach normal der Verbrauch geht hoch weil die Architektur am Ende ist kommt eine neue geht es wieder runter. Das war bis jetzt immer so.
 
Cool Master schrieb:
kommt eine neue geht es wieder runter.
Sehen wir bei Nvidia jetzt aber nicht.

Nach Pascal gings bisher nur aufwärts im Verbrauch.
 
owned139 schrieb:
Warum fixierst du dich so auf das "single GPU"? Wären die 450W in Ordnung, wenn es 2 Chips auf einer Karte wären? Es ist völlig egal, ob das ein oder 2 Chips sind. Du baust dir eine Karte in den PC die 450W bzw. 560W verbrät.


Schau dir mal die Diskussion im verlinkten Beitrag an. Es ist ein ganz anderer Ton als hier und die wenigsten bis niemand beschwert sich über den Verbrauch.

Der Unterschied ist, weil es sich vielleicht auch um eine Dual GPU Karte handelt. Da ist es logisch das sie sehr viel Strom zieht. Aber unabhängig von Dual GPU oder nicht, es gab genug Leute auch vor 10 Jahren die hohe Stromverbräuche angeprangert hatten. Aber natürlich Entwickelt sich auch die Gesellschaft und die Welt weiter und neue Themen werden wichtiger als noch vor 10 Jahren und deshalb wirst auch mehr Menschen heute finden denen das Stinkt als damals.
 
  • Gefällt mir
Reaktionen: Fenkel und Otsy
Powl_0 schrieb:
Warum ignorierst du das Kontra zum Punkt "damalige Diskussion über Verbrauch"?
Du kannst mir gerne Tests und Threads dazu verlinken. Mir ist eben bei der 295X2 aufgefallen, dass sich dort so gut wie niemand beschwert hat. Wieso auch? Die Karte werden sich die wenigsten gekauft haben und genau so wird es auch bei der 4090 sein.

Powl_0 schrieb:
Aber gut, bei deinem Avatar ist eh schon klar, dass man rationale Unterhaltung vergessen kann.
Genau deswegen habe ich den Avatar, damit User wie du mich für einen Fanboy halten.
Never judge a Book by its cover ;)

HighPerf. Gamer schrieb:
Der Unterschied ist, weil es sich vielleicht auch um eine Dual GPU Karte handelt. Da ist es logisch das sie sehr viel Strom zieht. Aber unabhängig von Dual GPU oder nicht, es gab genug Leute auch vor 10 Jahren die hohe Stromverbräuche angeprangert hatten.
Aber anders bzw. weniger. Du findest im Thread Kommentare wie "Der Verbrauch ist schon ordentlich hoch. Das ist nichts für mich". Das ist jetzt anders. Es wird teilweise nach Verboten geschrien und ich frage mich wirklich: "warum?". Die 4090 ist das highend Produkt und wird dementsprechend auch niedrige Stückzahlen haben. Wieso fixiert man sich also auf das Produkt, was sowieso nur eine Niesche bedient? Wie gesagt würden die meisten diese Karte, unabhängig vom Verbrauch, eh nicht kaufen.

HighPerf. Gamer schrieb:
Aber natürlich Entwickelt sich auch die Gesellschaft und die Welt weiter und neue Themen werden wichtiger als noch vor 10 Jahren und deshalb wirst auch mehr Menschen heute finden denen das Stinkt als damals.
Der Klimawandel existiert nicht erst seit gestern und wir wissen auch nicht erst seit 10 Jahren, dass wird den Planeten mit unserem Verhalten zerstören.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: GERmaximus
@Cool Master
EVtov2PWAAE6vKk.jpg


Dass das überhaupt nicht der Punkt ist, den ich machen wollte, ist dir hoffentlich bewusst.

Wer wirklich nicht mehr als 200 Watt verbrauchen will, scheint demnächst einfach 'hinten runter zu fallen'.

Finde ich einfach... falsch, wenn eine (dann) 3 Jahre alte Konsole in älterer Fertigung komplett mit ~350 Watt auskommt.
 
owned139 schrieb:
Never judge a Book by its cover ;)
Keine Angst, deine Aussagen passen zum Avatar.

Klar wurde sich auch damals schon beschwert. Das kannst du noch so oft leugnen, passiert ists trotzdem.
Heute gibts noch mehr Beschwerden über hohen Verbrauch, weil a) mehr Gamer, b) noch höherer Verbrauch, c) Klimaschutz und Effizienz wichtigere Themen geworden sind.
 
Zurück
Oben