News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

blende11 schrieb:
Dann sollte man diese Leute auch entsprechend zur Kasse bitten,
Du meinst deine Mitmenschen? Der Staat erhebt doch auf alles mögliche Steuern?
blende11 schrieb:
Wer verursacht, bezahlt für die entstehenden Folgeschäden!
Wer oder was reguliert den Schaden der durch die RTX 5090 enstanden ist?.
 
Im Sommer heizt meine 4090 schon ordentlich auf, und im Winter brauch ich keine Heizung anmachen, wenn ich zocke.

Ich werde allein deswegen keine 5090 ordern. Das sind nochmal 175watt extra Wärme. Ich frage mich wirklich wo das hinführen soll.
 
  • Gefällt mir
Reaktionen: baskervil77, Clutch04, bogge101 und eine weitere Person
Einfach mal abwarten, was uns letzendlich wirklich vorgesetzt wird. Eigentlich bin ich mit meiner 4080ig vollkommen zufrieden, aber irgendwo besteht auch der Basteldrang nach was Neuem :rolleyes:
 
  • Gefällt mir
Reaktionen: bogge101 und shaboo
Matziking schrieb:
Im Sommer heizt meine 4090 schon ordentlich auf, und im Winter brauch ich keine Heizung anmachen, wenn ich zocke.
Wie lebt ihr denn alle ? In einem Dixie Klo ? In meiner Wohnküche mit ca. 65qm merke ich exakt gar nix davon selbst nach acht Stunden daddeln. Zumal die Karte bei mir eigentlich nur mit vielleicht fünf Games mehr als 300-320W zieht.

NATÜRLICH spielst du NUR DIESE Games. Rein ZUFÄLLIG. 🤣
 
  • Gefällt mir
Reaktionen: MalWiederIch
Matziking schrieb:
Im Sommer heizt meine 4090 schon ordentlich auf, und im Winter brauch ich keine Heizung anmachen, wenn ich zocke.

Ich werde allein deswegen keine 5090 ordern. Das sind nochmal 175watt extra Wärme. Ich frage mich wirklich wo das hinführen soll.

So ergeht es mir schon bei meiner 1070, dass es im Winter recht warm war bei den Füßen😁
Frage mich auch wohin das führen soll, bald kann man mit der Grafikkarte das Haus heizen.

1735945627873.webp


@ThirdLife
Kommt doch auf den Raum an, bislang hatte ich immer ein extra Zimmer für den PC und nun im Haus sowieso.
 
  • Gefällt mir
Reaktionen: Sam Miles
ThirdLife schrieb:
Wie lebt ihr denn alle ? In einem Dixie Klo ? In meiner Wohnküche mit ca. 65qm merke ich exakt gar nix davon selbst nach acht Stunden daddeln. Zumal die Karte bei mir eigentlich nur mit vielleicht fünf Games mehr als 300-320W zieht.

NATÜRLICH spielst du NUR DIESE Games. Rein ZUFÄLLIG. 🤣

Hier mein Beispiel:
  • 110 m² Wohnfläche Haus
  • Vollwärmeschutz
  • 3-Fach-Verglasung Fenster
  • Für 22°C mittlere Temperatur braucht die Wärmepumpe ca. 14 kWh pro Tag bei der aktuellen Wetterlage
  • D.h. im Mittel braucht die Wärmepumpe pro Stunde 580 Watt ;)

Mein System dürfte durchnittlich bei 350 Watt laufen im Gaming 4K mit 100 FPS Limiter, also Board + CPU + 272 Watt Limit GPU + Rest, der Bildschirm um die 110 Watt (LG OLED 55").
Schalte ich die Heizung dazu nicht aus gewinnt der Gaming-Raum (ca. 45m² Wohnzimmer) pro Stunde um ca. 1°C, wenngleich es natürlich irgendwann sättigt, aber hohe 24 / niedrige 25er sehe ich schon manchmal im Zimmer nach einer Gaming Session (wenn Heizung an).

Aber das gute ist, normalerweise denke ich dran die Heizung auszuschalten und dann nutze ich die Abwärme durchaus ein bisschen sinnvoll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ThirdLife, baskervil77 und eyefinity87
Ganz ehrlich, ich verliere langsam die Lust auf das neueste Zeug. Bin 79er Baujahr und diese extreme Preisentwicklung gefällt mir nicht, neue Hardware ist mittlerweile unverhältnismäßig teuer geworden. Noch kann ich es mir leisten und will mir dieses Jahr nen neuen PC mit einer 5080 bzw. 5090 zusammenstellen aber in mir brodelt es irgendwie, es ist offensichtlich nur noch reine Gier seitens der Hardware-Hersteller. Der VK der neuen Nvidia Karten wird mit Sicherheit alles bisherige sprengen.

Ich bin kurz davor einen Schlussstrich zu ziehen und nur noch altes Zeug zu zocken, mit Emulatoren, alte DOS/Win Games, usw.
 
  • Gefällt mir
Reaktionen: AlanK
w1ldr3dx schrieb:
es ist offensichtlich nur noch reine Gier seitens der Hardware-Hersteller

Wobei man hier schon ein bisschen differenzieren muss. Aus den AMD Geschäftsberichten und der Auftrennung der Business Units kann man deren Margen ganz gut Einschätzen. Im Mittel werden die um die 15% machen mit der für Gaming relevanten Hardware, bei den High-End CPU sicher ein bisschen mehr als das dafür bei GPU und einfacheren CPU eher weniger. Das sehe ich persönlich jetzt nicht als unfair an, dass Unternehmen braucht ja auch massig Geld für R&D der nächsten Chip Geneationen.
Hohe Margen um die 30% +X kann AMD auch erlösen, aber nur im Datacenter oder Embedded Bereich.

Da sowohl AMD als auch NVIDIA auf ähnliche Zulieferer-Ketten zurückgleichen bekommt man damit auch ein Gefühl für die NVIDIA Margen entwickeln wenn man ähnliche Modelle vergleicht. Im Mittelklasse Segment sind das dann vielleicht 20% - 30%, bei einer 80er und 90er dann aber gerne 50% + X.

Ich beziehe mich dabei auch diese Zahlen:
https://www.pcgameshardware.de/Wirtschaft-Thema-238882/News/AMD-Umsatzrekord-1458604/
 
Zuletzt bearbeitet:
Ich glaube, für die RTX 5090 braucht man jetzt einen Rauchmelder und eine Sprinkleranlage im Gehäuse :lol:
 
  • Gefällt mir
Reaktionen: baskervil77
w1ldr3dx schrieb:
Ganz ehrlich, ich verliere langsam die Lust auf das neueste Zeug. Bin 79er Baujahr und diese extreme Preisentwicklung gefällt mir nicht,
IMG_0686.jpeg

Wir reden über High End GPUs.
Inflationsbereinigt hat PC Gaming Anfang der 90er für top high end Grafik damals auch 4000 Euro gekostet, und nach 3 Jahren waren die Kisten low end.
Mein Voodoo2 SLI High End System hat umgerechnet nach heutigen Preisen 2600 Euro gekostet und war 4 Jahre später Sperrmüll.

Einige hier zocken hier aktuelle Games auf Hardware mit Komponenten, die 6, 7 oder 8 Jahre laufen.
Ich verstehe das Gejammer nicht.

Man kann gute casual Gaming Systeme bauen für 1500 Euro.
Oder kauft sich eine PlayStation für ein paar hundert Euro.

Man braucht keine 5080 oder 5090 fürs Gaming….
 
  • Gefällt mir
Reaktionen: [SM]Valen, Ciraxis, Crazy_Chris und 5 andere
DeadMan666 schrieb:
Wobei man hier schon ein bisschen differenzieren muss...
Naja bei Nvidia waren es knapp 30 Milliarden Nettogewinn alleine im Jahr 2024. Ist ja nicht so, dass die zudem auf der Bank nichts liegen haben um entwickeln zu können.

Das liegt eher am streben nach ewigen Wachstum aka Profitgier eines Börsennotiertes 4 Billionen Dollar Unternehmen, aber solange die Leut' zahlen.

Für mich persönlich ist es nicht mehr verhältnismäßig und bin wie gesagt schwer am grübeln ob ich das noch länger mitmachen möchte.
 
  • Gefällt mir
Reaktionen: danyundsahne
DarkStarXxX schrieb:
Dieser Stromverbrauch geht leider in die Komplett falsche Richtung.
Das ist nur für uns in Europa und vor allem in Deutschland relevant. Für den Rest der Welt ist Strom wesentlich günstiger und daher den Leuten fast völlig egal.
 
  • Gefällt mir
Reaktionen: MalWiederIch und w1ldr3dx
w1ldr3dx schrieb:
Das liegt eher am streben nach ewigen Wachstum aka Profitgier eines Börsennotiertes 4 Billionen Dollar Unternehmen, aber solange die Leut' zahlen.

Ich habe NVIDIA in meinem Post Ja klar mit höheren Und speziell für die 80 / 90 Klasse ungesunden Margen benannt, aber auf der anderen Seite die veröffentlichten AMD Zahlen genannt als Baseline. Preisgünstiger als ein AMD System (zB 76003D oder 7500F gepaart mit 7800XT oder bald 9070XT) wird es nicht werden, selbst wenn NVIDIA aus Barmherzigkeit auf Marge verzichtet.
Der Gamer hat dann die Entscheidung zu AMD zu gehen wo das Produkt realistischer bepreist ist (aber bei GPU Leistungsmäßig suboptimal), auf Konsole zu gehen wo Hardware teils 0 oder sehr wenige % Marge fährt ( also noch fairer bepreist ist aber noch mehr Kompromiss nötig ist) oder halt zu resignieren.

Und dann muss man bei NVIDIA ebenfalls differenzieren. Mit dem Gaming Segment machen die sowas wie 10 bis 12 MRD pro Jahr Umsatz.

Die enormen von Dir genannten Zahlen werden ja vom Datacenter Geschäft dominiert, in dem sowohl Marge als auch Umsatzhöhe noch mal höher liegt, gerüchteweise bis 70% Marge. Das bezahlen aber nicht die Gamer, sondern Tesla, Microsoft, die AI Industrie, usw.
Das mit diesen Umsätzen das Gaming Geschäft nicht quer subventioniert wird ist ja wohl selbsterklärend.
Das würde ein Unternehmen vielleicht machen um sich Marktzugang zu erkaufen, dann subventionieren die mal eine Sparte für einen gewissen Zeitraum.

Es gibt für den Gaming Markt aber praktisch nur 2 Möglichkeiten zur Erholung, NVIDIA versteuert sich komplett und setzt 2 bis 3 Generation in den Sand als Intel, Oder die AMD / Intel Mittelklasse Strategien gehen auf und nehmen NVIDIA nennenswert Marktanteil.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und Catrovacer
Laphonso schrieb:
Wir reden über High End GPUs.
Inflationsbereinigt hat PC Gaming Anfang der 90er für top high end Grafik damals auch 4000 Euro gekostet....

Das war damals ein Highend "komplett" System. Für den Preis bekommst heutzutage bei Neu-Release wennst Glück hast die entsprechende Highend Grafikkarte für ca. 2200€ und ein Highend Mainboard ca. 500€ ohne die restliche notwendige Hardware. Die Inflationsbereinigung bei diesem Betrag beträgt grob und großzügig ca. 200€ (DM/1990->EUR/2025).

Meine 2080S ist jetzt auch lowend nach 4 Jahren, schenkt sich nichts im Vergleich zu damals.

Konsolen hab ich aufgegeben, meine PS4 sowie PS4Pro waren zu laut und die Spiele teuer im Vergleich.
Ergänzung ()

DeadMan666 schrieb:
Das mit diesen Umsätzen das Gaming Geschäft nicht quer subventioniert wird ist ja wohl selbsterklärend.
Nein ist nicht selbsterklärend, die GPUs werden über verschiedene Geschäftsbereiche incl. Datacenter hinaus subventioniert entwickelt und künstlich entsprechend von Nvidia limitiert bzw. etwas adaptiert. Das war bereits damals bei GeForce(Game) und den teuren Quadro(CAD/DCC) so, deswegen gab es Treibermods wie SoftQuadro(Guru3D), Firmware hacks oder VendorID bzw. DeviceID Änderungen mittels umlöten "eines einzigen" Resistors um aus einer GeForce eine vollwertige Quadro zu machen. Das ist Heute in Zeiten von AI und Crypto-Mining nicht großartig anders.

Yep, mich treibt es langsam in die Resignation rein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: RAZORLIGHT, cookie_dent und dohderbert
Herrlich absurd.

Und das alles nur, um ein paar Pixel zu schubsen... :stacheln:
 
  • Gefällt mir
Reaktionen: legenddiaz
ThirdLife schrieb:
Wie lebt ihr denn alle ? In einem Dixie Klo ? In meiner Wohnküche mit ca. 65qm merke ich exakt gar nix davon selbst nach acht Stunden daddeln. Zumal die Karte bei mir eigentlich nur mit vielleicht fünf Games mehr als 300-320W zieht.

NATÜRLICH spielst du NUR DIESE Games. Rein ZUFÄLLIG. 🤣
Alter Falter... so schlecht, dass man sich eigentlich Fremdschämen möchte.... Sollen wir jetzt mit solchen Diskussionen anfangen, wie: "Du spielst nicht wirklich in einer "Küche", wie das riechen muss (gerade bei einer Mahlzeit mit Fisch...) und dass bei deiner Fertigpizza, den der Ofen bei 220 C° eine Halbestunde den Raum aufgewärmt hat, du nichts mehr von deiner Graka merkst... ja ne ist klar.... Maaaan ey, jeder der einen separaten Raum, aka Büro oder Daddelzimmer (bei uns beides..) besitzt, oder ein "Kinderzimmer" oder einen Hobbyraum, wird dir bezeugen können, ja die Dinger machen eine "Riesen" Abwärme. Klar merkt man das im Sommer (negativ) und im Winter (da gar nicht so schlecht).

Dixi Klo.... sagt mir wer mit Wohnküche... Lächerlich diese gesamte Aussage!

Meine 50 Cent
 
  • Gefällt mir
Reaktionen: FLCL, danyundsahne, Leeway und eine weitere Person
Woody17 schrieb:
Worüber ich mir persönlich Sorgen mache ist die Grösse der 5090. Habe meine PNY 4090 gerade so diagonal ins Gehäuse eindrehen können und noch Front FANs ausbauen müssen.

Bei 600W wechsel ich ggf. das linke Seitenteil, auf das ohne Sichtfenster mit Lüfterplätzen und entlüfte direkt auf Höhe der Karte mit zwei 140er Lüftern zusätzlich :--)

Meine 4090 passt fast 2 mal von der Länge/Breite ins Gehäuse, daher macht mir die Größe neuer Karten keine Sorgen.

Du hast sozusagen das/den "Worst Case", Platz schaffen und größeres Case besorgen, also quasie das Best Case :D
 
  • Gefällt mir
Reaktionen: Woody17
Solange die Performance pro Watt steigt, ist mir die TDP sowas von egal.

Wer ein Problem mit 575W TDP hat, kann dann ja zur 5080, 5070Ti oder den diversen weiteren 50er-Modellen greifen. Keiner zwingt einen, ne 575W-Karte zu kaufen - es sei denn, das eigene Ego ist für die fehlende 90 zu klein. :evillol::daumen: Aber dann ist nicht die Grafikkarte das Problem.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Zurück
Oben