News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

DaBas schrieb:
dann sieht man doch deutlich, wie das mittlerweile aus dem Ruder gelaufen ist. So eine absurde Preisexplosion ist weder durch Inflation und auch nicht mit den gestiegenen Produktskosten zu begründen. Nicht in dem Maße.

Erklär mir bitte, an welcher Stelle du ANGEBOT und NACHFRAGE nicht verstehst?
Ergänzung ()

Laphonso schrieb:
Dass wegen der Inflation alles teurer wird betrifft ja alle Hobbys.

Das hat doch bei Grafikkarten den kleinsten Einfluss, die Nachfrage ist durch einen deutlich gößer gewordenen Kundenkreis (AI, Auto, Minig) deutlich gestiegen.

Dazu kommt noch, dass AMD/Intel momentan kein Konter zur HighEnd Karte von Nvidia haben...

Es ist so lustig, wie man immer wieder hört, wie sich aufgeregt wird, wenn was verkauft werden soll und der Käufer einen kleineren Preis verlangt... (CB Marktplace gab es etliche 50 Cent Disskussionen bzgl. Deal)

Aber auf Gewinn ausgelegte Unternehmen sollen, bei zu wenig Produkten und zu hoher Nachfrage, die Preise senken, weil man günstig HghEnd haben möchte, weil war mal so vor Jahren... ich möchte auch deren Kraut bitte...


P.s.:

Ich finde hoche Preise auch nicht schön aber ich habe scheinbar verstanden wie es im Kapitalismus abläuft und verkneife mir die Erzählungen von komischen Fantasiewelten wo Firmen kommunistisch agieren sollen und nur Kunden kapitalistisch agieren dürfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
DaBas schrieb:
dann sieht man doch deutlich, wie das mittlerweile aus dem Ruder gelaufen ist. So eine absurde Preisexplosion ist weder durch Inflation und auch nicht mit den gestiegenen Produktskosten zu begründen. Nicht in dem Maße.
Du kommst nicht oft aus deinem Keller glaube ich. Das ist ja echt eine wilde Aussage. Und wahrscheinlich schreibst du das sogar in vollster Überzeugung.
 
Und wenn das Klo Papier auf einmal wegen mangelnder Verfügbarkeit teurer wird versteht es jeder
 
]
MiniM3 schrieb:
575w ist schon traurig....die 360 w der 5080 kann man noch schönreden.
eigentlich nicht, die 5080 ist der halbe Chip der 5090 mit dem halben VRAM und braucht aber über 62% der Energie.
Die Kernfrage ist, ob die 5090 die doppelte Leistung auch in FPS umsetzen kann. Die 4090 konnte das nicht, hatte aber dementsprechend kaum Leistung verloren wenn man den Strom Hunger gedrosselt hatte.
Ich bezweifel dass die neue Generation in der Effizienz schlechter ausfällt als die 4000er. Bis dato war die Effizienz mit jeder neuen Generation immer besser, selbst bei den schlechten Samsung Chips der 3000er Karten.
 
FU_long schrieb:
Natürlich wäre es BESSER, wären die Karten effizienter. Alles fließt in die Summe. Aber den ganz großen Umwelthammer kann man bei High-End Grafikkarten stecken lassen.
Der Beitrag war als Satire gemeint X-)
 
Laphonso schrieb:
Die hat Dich keine tausende Euro gekostet.
Die 4090 hat hier im Forum jemand vor ein paar Tagen für 1700 Euro verkauft.
Ja, die hat mich keine tausende gekostet, dennoch verhältnismäßig mit 1.3k zuviel, wegen dem ganzen Crypto-Mining Hype waren die Preise allgemein zu meinem "leider notwendigen" Upgradezeitpunkt jenseits von gut und böse. Die zum gleichen Zeitpunkt releaste 3090, die ich eigentlich kaufen wollte, schwankte zwischen 3500-4000Euro und einige Modelle sogar drüber.

NVIDIA hat durch den Crypto-Mining Hype gelernt, dass die Schmerzgrenze ihrer Kundschaft viel weiter oben liegt und sich das Wirtschaftlich zunutze gemacht. Das die gebrauchte 4090 für 1700 über die Theke ging, bestätigt dies nur. Das kannst Du aber beim Neukauf einer Hardware nicht 100% mit in Betracht ziehen, sondern nur darauf spekulieren, und das eine Grafikkarte kaputt gehen ist gar nicht mal so selten.

Aber um Nvidia etwas in Schutz zu nehmen, diese neue Preisabsurdität zieht sich auch durch andere Bereiche wie z.B. andere PC Komponenten, Peripherien, Autos, Mobiltelefon, usw. Aber wie gesagt, solange es die Leut' zahlen, wird sich nichts ändern.
 
nuestra schrieb:
Und wenn das Klo Papier auf einmal wegen mangelnder Verfügbarkeit teurer wird versteht es jeder
Klar, weil es "eigentlich" jeder braucht. Während man bei einer Grafikkarte nicht den Faktor "brauche ich" sondern "will ich" in Betracht zieht.

Wer möchte nicht das beste im PC haben und dabei sogar noch Geld sparen. Aber so läuft die halt nichtmehr, 2025 schon garnicht
 
  • Gefällt mir
Reaktionen: ThirdLife und Cyberbernd
Taxxor schrieb:
Natürlich, du brauchst ja ein Spiel was besser aussieht oder besser läuft um überhaupt beurteilen zu können dass es mit dieser Optik viel besser laufen könnte.
Natürlich braucht man das nicht. Ist eigentlich nur logisch. Mal ein Beispiel: Wenn Tetris auf meinem PC mit 4 FPS läuft, es aber optisch nichts besseres gibt in dem "Tetris Genre" (gibt es das überhaupt? :) ), ist mir doch sofort klar das Tetris damit dann schlecht optimiert/ programmiert wurde bei 4 FPS und der Optik.
 
Pisaro schrieb:
Natürlich braucht man das nicht. Ist eigentlich nur logisch. Mal ein dummes Beispiel: Wenn Tetris auf meinem PC mit 4 FPS läuft ist mir doch sofort klar das Tetris damit dann schlecht optimiert/ programmiert wurde bei 4 FPS und der Optik.
Alleine die Bewertung „bei der Optik“ benötigt ja schon einen Vergleich, also ein Spiel mit besserer Optik.

Wenn es keine besser aussehenden spiele als Tetris gäbe, die dazu auch noch besser laufen, wäre dir eben nicht klar, dass es schlecht optimiert ist, weil du überhaupt nicht weist, ob bessere Optik und Performance mit deiner Hardware möglich wäre.

Dass Tetris mit 4FPS schlecht programmiert ist, erkennst du überspitzt gesagt erst daran, wenn du mit der gleichen Hardware ein Cyberpunk startest und dort auch 4FPS bekommst.
Dann kann man sagen, wenn ich hier 4 FPS bekomme, dann müssten es im Vergleich zur Optik von Tetris dort viel mehr sein .
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und shaboo
Quidproquo77 schrieb:
Physx wurde durch Chaos Physics ersetzt usw. Es sind also wie so oft technische Gründe.
Du nennst es "technische" Gründe, im Endeffekt ist es aber eine schlechte Optimierung ;) Liegt es dabei nicht an den DEVS, dann an der verwendeten Engine.
Ergänzung ()

Taxxor schrieb:
Alleine die Bewertung „bei der Optik“ benötigt ja schon einen Vergleich, also ein Spiel mit besserer Optik.

Wenn es keine besser aussehenden spiele als Tetris gäbe, die dazu auch noch besser laufen, wäre dir eben nicht klar, dass es schlecht optimiert ist, weil du überhaupt nicht weist, ob bessere Optik und Performance mit deiner Hardware möglich wäre.
Dass ist doch vollkommen falsch. Ich verstehe wirklich nicht wie man auf sowas kommt. Ich habe doch Augen im Kopf und sehe: "Hrm, das Spiel sieht nur okay aus". Und kann dann sagen: für die Optik nur XY FPS? Was ist das denn für ein Müll.

Ergibt für mich wirklich keinen Sinn wie man auf deine Denkweise kommen kann, sorry.
Ergänzung ()

Taxxor schrieb:
Dass Tetris mit 4FPS schlecht programmiert ist, erkennst du überspitzt gesagt erst daran, wenn du mit der gleichen Hardware ein Cyberpunk startest und dort auch 4FPS bekommst
Das erkenne ich schon alleine daran wenn ich mir beide Spiele einfach angucke...
 
Pisaro schrieb:
Ich habe doch Augen im Kopf und sehe: "Hrm, das Spiel sieht nur okay aus". Und kann dann sagen: für die Optik nur XY FPS? Was ist das denn für ein Müll.
Und wenn du jemandem, der noch nie in seinem Leben ein Spiel gesehen hat, also nicht weis, was optisch möglich ist, dieses Spiel vorsetzt, wird er diese Bewertung nicht machen können, weil er nichts besser aussehendes kennt und daher nicht bewerten kann, ob die Performance für diese Optik gut oder schlecht ist.
Pisaro schrieb:
Ergibt für mich wirklich keinen Sinn wie man auf deine Denkweise kommen kann, sorry.
Und ich verstehe nicht wie du beurteilen kannst ob etwas auf einer bestimmten GPU gut oder schlecht läuft wenn du überhaupt nicht weist wie gut etwas auf dieser GPU potenziell laufen könnte
Ergänzung ()

Pisaro schrieb:
Das erkenne ich schon alleine daran wenn ich mir beide Spiele einfach angucke...
Aha! BEIDE Spiele angucken, also wenn du einen Vergleich mit einem besser aussehenden Spiel und dessen Performance hast.
Genau das sag ich doch.

Erst wenn ich weis, dass meine GPU zu Optik X imstande ist, kann ich bewerten ob Optik Y bei gleicher Performance gut oder schlecht ist.

Also wenn du ein Spiel in der Art von Frostpunk 2 kennst, welches besser aussieht und besser läuft, könnte man anfangen zu fragen warum Frostpunk 2 so schlecht läuft „bei der Optik“.
Solange du aber keines kennst was besser aussieht und besser läuft, ist es Unsinn einfach zu behaupten es wäre schlecht optimiert und müsste besser laufen, denn du kannst das überhaupt nicht beurteilen ohne entsprechend besser laufende Spiele zu kennen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und shaboo
iron_monkey schrieb:
Das hat doch bei Grafikkarten den kleinsten Einfluss,
Die Mehrkosten kommen aber von überall
1.) Die TSMC Preise muss auch Nvida zahlen und gibt sie weiter.
Das waren 22 % Aufschlag alleine 2023. Und für 2025 sind wieder 10% on top. Das sind alleine Mehrkosten NUR durch TSMC im Einkauf.
2.) Und Nvidia sind die ersten, die GDDR7 in die Masse bringen, wir haben dort nur Samsung, SK und Micron als Produzenten.
Ich habe bei einem der "leaker" gelesen, dass alleine die 32 GB GDDR7 VRAM Bestückung (also Produktionskosten) pro 5090 so dermaßen teuer ist derzeit und netto bei rund 400 Dollar liegen, darauf kommt der Rest der Kosten und dann folgt erst noch der Rest der Achitektur.

Und die Alternative "outside" Produktion ist keine:
https://www.techspot.com/news/102696-chips-manufactured-west-cost-more-tsmc.html

"[...]that the company faces increased costs associated with its international expansion plans. These elevated expenses are attributed to factors such as inflation, energy costs, and other operational considerations.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wilfriede, Quidproquo77 und nuestra
w1ldr3dx schrieb:
NVIDIA hat durch den Crypto-Mining Hype gelernt, dass die Schmerzgrenze ihrer Kundschaft viel weiter oben liegt
Ja aber wo sind denn die ganzen Gaming GPUs von Intel, AMD, Apple oder den big playern der tech branche?
Die lernen das nicht?
Wo ist AMD, wenn es doch so leicht ist, die Kundschaft auszunehmen? ;-)

Wieso bekommen wir nur von Nvidia die 4090 oder 5090 mit 32 GB VRAM?

Bei dem Preiswahnsinn vergisst man, dass Nvidia sich erst in die Position gebracht hat.
Dass wir überhaupt die 5090 fürs Gaming bekommen, war in meinen Augen nicht mal sicher.
Nvidia verdient sich dumm und dämlich mit AI Chips im Forschungs- und Businessumfeld und wird mit Blackwell Milliarden Kipplasterweise abholen.

Dass sie dem GeForce brand treu bleiben und überhaupt noch absolutes next gen Top End bereitstellen, bezahle ich dann auch bewusst, weil nur Nvidia mir die Kaufoption anbietet, Richtung 4K ultraweit PC Gaming mit RT/PT etc. Also für mein (vergleichsweise sehr günstiges) tägliches PC Gaming Hobby.

Dass die 4090 jetzt den großen Batzen der 5090 "Anzahlung" übernimmt, ist eben auch etwas, wovon wir profitieren, weil die Schmerzgrenze auch auf ebay höher liegt als jemals zuvor.
Wir alle, IHR alle profitiert seit Jahren mit Euren Wiederverkäufen der Nvidia GPUs. Just saying ^^
Ergänzung ()


EDIT:
Bevor einige wieder tilten: Ich habe hier mehrfach geschrieben die letzen Monate, dass ich es feiern würde, wenn ALLE PC Gamer die 4090 Performance für 500 Euro maximal kaufen könnten.
Leider ist das ein Traum und unrealistisch...
nuestra schrieb:
pssst er hat geheime Sonderkonditionen
haha! :-D 😝
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: shaboo
Ich werde diese Generation wohl auslassen und darauf hoffen, dass die Effizienz bei der 6000 Series deutlich besser wird... Die Performance der 4080 wird eh noch ne ganze Weile ausreichend sein bei 1440p Gaming.
Mittlerweile isses echt unsexy was die Kiste aus der Dose zieht... trotz AMD Cpu und gpu undervolting ;)
 
  • Gefällt mir
Reaktionen: shaboo
Von 4080 auf 5080 wäre ja - wenn die Prognosen zu den technischen Daten eintreffen - auch ziemlicher Unsinn, und 5090 ist halt preislich schon wieder 'ne ganz andere Liga. Außerdem wird sich mit der 4080 ja wohl mindestens noch die nächsten zwei Jahre super zocken lassen. Ich könnte mir gut vorstellen, dass - von den Super-Enthusiasten abgesehen, denen ihre 4090 jetzt schon wieder viel zu langsam ist - viele Besitzer einer 4070Ti Super, 4080 oder 4090 wenig Grund zum Aufrüsten sehen werden.
 
Supie schrieb:
@Morpheus101 Zur Kenntnis genommen......
Ok, Spässchen sind hier nicht erlaubt....... erhobenen Zeigefinger gesehen.
Schon klar, kaum gibt es etwas Gegenwind wird in die Opferrolle gekrochen. Keiner versteht dein 'Spässchen', der war doch so harmlos, der kleine Niedliche. Was für eine böse Welt.
Supie schrieb:
Abgesehen davon, werden Frauen sehr oft genau SO behandelt, muss ja nicht heissen, das ich es auch so mache.
Frauen mit Milchvieh zu vergleichen, das einmal im Jahr besamt werden muss, um dem Halter Ertrag zu liefern, ist nun wirklich kein Schenkelklopfer. Selbst wenn man im deliriumnahen Vollsuff das erheiternd finden sollte, könnte man auf die Idee kommen, seine Denkschemata zu überprüfen.
 
  • Gefällt mir
Reaktionen: Meduris und RedDragon83
aid0nex schrieb:
Da bin ich dann einfach raus. Meine GTX 1080 zieht 180 Watt und das reicht. Ich kaufe keine GPU die über 200 Watt zieht, erst recht nichts in diesen Sphären. Ich habe immer mehr Spiele zuletzt auf meiner Xbox Series X gespielt (die übrigens maximal gesamt so etwas über 200 Watt zieht) und dann wird das für mich halt die Zukunft sein, dann werde ich wieder Konsolero. Dann hat es sich mit dem PC Gaming halt für mich erledigt.
Ist jetzt nicht so, als dass du dann nicht nach unten hin noch massig andere Optionen hättest und die mit deiner persönlichen Wunsch-TDP laufen lassen könntest. ;)

Ist schon ein sehr eigener Fatalismus hier. "Wenn ich keine 5090 mit 100W bekomme, dann lass ich das Gaming halt !!" 🤣
 
  • Gefällt mir
Reaktionen: Wilfriede und shaboo
DLSS4 wurde mittlerweile durch https://x.com/kopite7kimi/status/1875039748122878433 bestätigt !

Der auch auf dem Post zu dem Screenshot reagierit hat.

Wenn die 4090 immer noch gut für 1.7 - 2.0 k geht.

Und die 5080 auf 4090 Niveau ist mit DLSS4 ! -> Passt 1699€ perfekt.

1699€ -> Asus Aufschlag da wir nicht wissen ob es Strix/Prime oder Tuf whatever is rechnen wir mal 200€ Aufschlag.

Wäre:

1500€ FE für 5080 customs bis 1800€ wahrscheinlich

Dann würde 5090 bei 2.5k€ mindestens liegen für die FE. und customs bis 3000€



ich denke das sind die preise auch
 

Anhänge

  • GgS_vJdXEAAKJtz.png
    GgS_vJdXEAAKJtz.png
    293,3 KB · Aufrufe: 12
Zurück
Oben