News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr

Der Moment wo die einzelne Grafikkarte mehr Strom zieht als 90% aller Komplett-PCs unter Volllast. đŸ˜”â€đŸ’«
 
  • GefĂ€llt mir
Reaktionen: Wintermute
Vermutlich wird die 4090 mit um ca. 20% gesenktem Powerlimit wieder im effizienten Bereich laufen. Bin gespannt.
 
hongkongfui schrieb:
Habe seit 5 Jahren eine 1050ti, die immer noch gut ihren Dienst tut.
Auf eine Karte, die 3x so schnell ist, bei unter 100W, kann ich wahrscheinlich noch 10 Jahre warten.
Womöglich wird es irgendwann eine APU werden.
Im Moment wĂŒrde es (bei Defekt) eine 6600 werden, wobei die auch schon doppelt so teuer ist.

Hm, ist etwas merkwĂŒrdig formuliert: Die 6600 mit 100 W ist ja schon ca. 2,5x so schnell wie deine Karte. Deine Prognose, dass es dementsprechend noch 10 Jahre dauert, bis es eine mit 100 W gibt, die 3x so schnell ist, ergibt doch dann kaum Sinn oder? Vermutlich kommt die entsprechende Karte dann schon mit der nĂ€chsten Generation...
 
  • GefĂ€llt mir
Reaktionen: calippo
Laphonso schrieb:
Zumal diese "Wer zahlt denn 2000+ Euro fĂŒr eine 4090?!?!!" Rechnung auch ignoriert, dass viele ihre aktuelle GPU ja verkaufen.
Die 3080er, 3080Tis und 3090er bringen derzeit immer noch AB (!) 650-1000 Euro auf Ebay + Kleineinzeigen.

Das sind dann immer noch viele Euroscheine, aber 2000-2400 Euro fĂŒr eine 4090 FE oder 4090 custom minus 900 fĂŒr eine 3090 z.B. macht....1100 bis 1500 Euro.
Das ist immer noch scheisse viel Geld, aber hat mit den 2K Euro nix zu tun.
Das ist das was die meisten einfach vergessen wer eine 3090 hat kommt "Relativ" glimpflich weg mit einer 4090 da man im schnitt ca 900-1000€ nur draufzahlt

aber soll mit nur recht sein um so weniger sich eine 4090 kaufen umso grĂ¶ĂŸer ist meine Chance am Release Tag eine zu bekommen :evillol:

Daher alle die eine 4090 am Release Tag bekommen sag ich es mit Shakespeare Worten
We few, we happy few, we band of brothers
 
  • GefĂ€llt mir
Reaktionen: LĂŒbke82 und theGucky
Laphonso schrieb:
HĂ€ngt sehr von den Customs ab. Die 3090 Strix z.B. knackt jedes Mal noch die 1100 Euro bei den nicht-Sofort Kaufen EndGeboten.
Ernsthaft? Warum kauft man sich mit dem neuen Kram vor der TĂŒre eine 3090 Strix fĂŒr 1100 Euro? In nur 0,1% der mir vorstellbaren Situation ergibt das Sinn. Mitte November werden die Preise noch weiter purzeln und vermutlich gibt's zu dieser Zeit um das Geld minimum eine neue Karte, die mit der 3090 den Boden moppt oder zumindest auf Augenhöhe agiert.
 
  • GefĂ€llt mir
Reaktionen: Chilisidian und Laphonso
Benni1990 schrieb:
Daher alle die eine 4090 am Release Tag bekommen sag ich es mit Shakespeare Worten
We few, we happy few, we band of brothers
đŸ€Ł Ok das ist ein wenig viel Pathos fĂŒr eine sinnloses Spielzeug wie ein Grafikkarte, aber der Hype nimmt einen ja doch mit.
Und ich hoffe sehr, dass AMD mit RDNA3 echt was auf Parkett zimmert. Nicht nur, um Nvidia irgendwie noch in Schach zu halten mit Performance (die Preise macht Nvidia eh wie sie wollen), sondern weil RDNA3 auch ein Vorbote auf die next Gen Konsolenchips wird.

@Wintermute Ja, wie @Chilisidian schon sagte, ist das nun das letzte Zeitfenster fĂŒr diese Preise.
 
  • GefĂ€llt mir
Reaktionen: Gortha und Wintermute
Das die Karten 600W können, heißt nicht das die auch alle 600W nutzen.
Im Vorfeld wurden die KĂŒhler und der DIE eigentlich fĂŒr 600W entwickelt, aber die Effizienz fiel besser aus als gedacht und so wurden es 450W GPUs.
Es gibt auch Leute die eine 3090Ti mit 600W nutzen oder eine 3090 mit 500W...
Benni1990 schrieb:
Das ist das was die meisten einfach vergessen wer eine 3090 hat kommt "Relativ" glimpflich weg mit einer 4090 da man im schnitt ca 900-1000€ nur draufzahlt

aber soll mit nur recht sein um so weniger sich eine 4090 kaufen umso grĂ¶ĂŸer ist meine Chance am Release Tag eine zu bekommen :evillol:

Daher alle die eine 4090 am Release Tag bekommen sag ich es mit Shakespeare Worten
We few, we happy few, we band of brothers
Genau dasselbe mache ich auch.
 
  • GefĂ€llt mir
Reaktionen: Laphonso
ShiftyBro schrieb:
Hm, ist etwas merkwĂŒrdig formuliert: Die 6600 mit 100 W ist ja schon ca. 2,5x so schnell wie deine Karte. Deine Prognose, dass es dementsprechend noch 10 Jahre dauert, bis es eine mit 100 W gibt, die 3x so schnell ist, ergibt doch dann kaum Sinn oder? Vermutlich kommt die entsprechende Karte dann schon mit der nĂ€chsten Generation...
Die 6600 wĂ€re mir natĂŒrlich schnell genug, braucht aber mehr Watt (CBTest 135W), das ist rund das doppelte meiner 1050ti. Und ein Jahr nach Release immer noch doppelt so teuer (288€ Geizhals).
Da sehe ich nun nicht den großen Fortschritt.
Edit:
FĂŒr die 3050 gilt dasselbe: doppelter Stromverbrauch bei doppelten Preis haut mich nicht vom Stuhl.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: ShiftyBro
SaschaHa schrieb:
Ich wĂŒrde es genau umgekehrt machen: Powerlimit auf 300 Watt, dann noch etwas UV, und schon hat man eine effiziente und superschnelle Karte, ohne allzu viel Leistung zu verlieren.
Ja, wuerde ich auch, aber als Kunde ist man dann schon der Verlierer, da die Karten ab Werk eben nicht auf Undervolting ausgelegt sind und die Entwickler oder deren Boardpartner die Karten maximal uebertakten ohne viel Ruecksicht auf Effizienz, um fuer die uebertaktete Mehr-/Benchmark-/Marketingleistung auch mehr Geld verlangen zu koennen, nur damit man diese dann im nachhinein undervoltet werden muessen, um noch eine akzeptable Effizienz zu haben, was die Entwickler/Hersteller aus Profitgruenden nicht vorsehen.

Man bezahlt am Ende so den gleichen Preis fuer deutlich weniger Leistung, aber der Preis wird eben an der frisierten Leistung deutlich ueber dem Sweet Spot der Karten angesetzt und nicht an der effizienzoptimierten Leistung nach Undervolting, das war frueher noch ausgewogener ;).

Mittlerweile ist RX 6900XT in der TUF Einsteigervariante von ASUS uebrigens aktuell schon fuer unter 740 Euro zu haben, so dass AMD/RTG eigentlich immer mehr Spielraum haetten fuer die RDNA3 Preise, ohne dass sich alte und neue Karten preis-leistungs-technisch zwingendermassen in die Quere kommen muessten und somit eben nicht solche frisierten Preise wie bei den Ada Lovelace dGPUs zum Marktstart der RDNA3 Pendants von AMD/RTG angesetzt werden muessten.

ASUS TUF RX 6900XTjpg.jpg


Nur, ob AMD/RTG dass auch wirklich machen werden (aggressive Preispolitik von RDNA3 Produkten ab Marktstart) ist die grosse Frage, ich habe da eher Zweifel und selbst wenn es so kaeme, wuerden mindestens 699 USD fuer eine (bisher nicht in Geruechten gehandelte) RX 7800 16GB, also umgerechnet in vermutlich mindestens in 849 Euro (ohne Versandkosten) bei deutschen Haendlern oder den Referenzkarten auf der AMD Webseite/im AMD Online-Shop resultieren, was (im evt. denkbar besten Fall zum RDNA3 Markstart) mir eigentlich schon zu viel Geld (nicht mehr lohnend) fuer eine Grafikkarte waere.

In Geruechten gehandelte (also ohne einen fuer eine RX 7800er notgedrungen zweifach abgespeckten Chip) RX 7800XT und RX 7900XT Grafikkartenmodelle werden natuerlich schon laenger als Marktstartprodukte gehandelt.
Ich faende es zwar komisch, wenn AMD nur mit 2 angekuendigten RDNA3 Modellen zur Marktstartpraesentation kaeme, aber eine RX 7900 (non-XT) und gar eine RX 7950 (non-XT) waeren ja auch noch denkbare Optionen zum Markstart, auch wenn m.E. eine RX 7800 (non-XT) deutlich mehr Sinn machen wuerde (als vorher gelaunchtes AMD Pendant zu einer moeglichen RTX 4070Ti, aber nur mit abgespecktem AD 104er Chip).
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: janer77, Wintermute und Laphonso
hongkongfui schrieb:
Die 6600 wĂ€re mir natĂŒrlich schnell genug, braucht aber mehr Watt (CBTest 135W), das ist rund das doppelte meiner 1050ti. Und ein Jahr nach Release immer noch doppelt so teuer (288€ Geizhals).
Da sehe ich nun nicht den großen Fortschritt.
Edit:
FĂŒr die 3050 gilt dasselbe: doppelter Stromverbrauch bei doppelten Preis haut mich nicht vom Stuhl.
TatsĂ€chlich zieht die erst 130W mit extra neu geflashtem BIOS. Habe neulich eine gebrauchte fĂŒr nen Freund zum Geburtstag gekauft, die nimmt nur 100W und hat die Leistung gegenĂŒber seiner alten 1060 trotzdem ~verdoppelt.

EDIT: Ich sehe auch gerade, dass die 1050 Ti ja sogar nur 60% der Leistung einer 1060 hat.. Dann kann man die 6600 bestimmt sogar auch mit den gleichen 60 Watt der 1050 Ti betreiben und kriegt noch den Faktor 2,5 an Leistung raus. 😅 Beim Preis gibt's natĂŒrlich den bekannten Anstieg ĂŒber alle Klassen, aber ich sprach jetzt auch nur von dieser FPS/Watt Geschichte, die du ursprĂŒnglich angestoßen hast.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Die 4090er werden brachiale 4K GPUs, und die 4K Transition lÀuft weiter an.
Du wirrst Dich, nein, wir werden uns alle wundern dass die wie geschnitten Brot verkauft werden.
Die 3090 und 3090 Ti sind auch schon gute 4K GPU`s, ich glaube nicht, das sich die ADA Grafikkarten so verkaufen werden, wie das noch bei Ampere der Fall war. Dagegen sprechen zu eindeutig die hohe Inflation wie auch die anstehende schwere Rezession.
Laphonso schrieb:
Zumal diese "Wer zahlt denn 2000+ Euro fĂŒr eine 4090?!?!!" Rechnung auch ignoriert, dass viele ihre aktuelle GPU ja verkaufen.
Wenn aber viele Ihre jetzigen RTX 3080/3090 [Ti`s] auf den Markt werfen und verkaufen wollen, dann werden die Preise schon deutlich sinken und man muss immer noch deutlich ĂŒber 1000,00 Euro fĂŒr eine RTX 4090 bezahlen, vor allem bei den Custom Design`s.

Was aber das ganze erschweren dĂŒrfte ist, das man seine gebrauchte Grafikkarte dann erst mal loswerden muss, wenn alle anderen auch verkaufen. Im Moment halten sich viele mit einem Kauf bei einem Preis ĂŒber 500,00 Euro deutlich zurĂŒck, weil keiner weiß, was jetzt demnĂ€chst noch alles kommt.

Schließlich haben sich ja alle GrundbedĂŒrfnisse verteuert und nicht nur einzelne Bereiche, wie z:B. Strom und Gas. Und hĂ€tte ich eine RTX 3080/3090 [Ti], wĂŒrde ich mir schon ĂŒberlegen, ob ich diese dann verramsche, nur um Nvidias Marketing zu folgen, man braucht immer sofort die neuste Hardware, weil man ja mit der alten Hardware ĂŒber Nacht plötzlich nicht mehr zocken kann.
 
  • GefĂ€llt mir
Reaktionen: ThePlayer und Tornavida
fraqman schrieb:
Über 600W.. ich hoffe, die Effizienz geht in den nĂ€chsten Generationen nach oben.
Am Ende geht der Trend zum Zweitnetzteil, nur fĂŒr die Karte.. Und das bei den heutigen Strompreisen 😏
Dazu muss man aber auch sagen...das sich Hersteller bestimmt nicht an den Energie Irrsinn von Deutschland irgendwas diktieren lassen. Wir haben die höhsten Strompreise der Welt und das liegt an einer völlig verfehlten und ideologie getriebene Politik. Darauf wird weder NVidia oder sonst noch wer acht geben. Wir sind halt die Lachnummer der Welt geworden
 
  • GefĂ€llt mir
Reaktionen: Mister-Knister und RogueSix
Laphonso schrieb:
weil ich nicht weiß, ob die 5090 FE dann ab 2399 Euro startet?
Hm ja, denke eh das es eher 3000 Euro mindestens sein werden.
Mir und anderen wird das aber vermutlich zu blöd.
Wer entwickelt auch dafĂŒr?
Das P/L muss halt besser werden, sonst sehe ich fĂŒr PC Triple AAA langfristig Probleme.

Meine AnsprĂŒche sind trotz 4k 120Hz OLED nicht so hoch. Das liegt halt auch an meinen bevorzugten Genres.
Sollte ich aber doch mal wieder ernsthaft ein MMO spielen, könnte ich schnell in arge "Nöte" kommen.

Laphonso schrieb:
dass wir jemals wieder eine overall Top End GPU von Nvidia unter 1500 Euro bekommen.
Unmöglich ist eine 1500€ "4080 TI", welche aber nah in Hardware bei der 4090 ist, eigentlich nicht.
Etwas KaufzurĂŒckhaltung und weitere Miningkartenflutschwemme + Lager immer noch voll, dann könnte es schnell rutschen. NVIDIA will ja auch (hoffentlich?) erstmal die "early Adopters" zu entsprechenden Preisen abgreifen. HĂ€ngt halt auch vom Schlagabtausch mit AMD und deren Performance ab.
Vielleicht im Sommer nÀchstes Jahr.

FĂŒr NVIDIA ist es besser 10x 1500€ statt 3x2000€ zu bekommen.
Man wartet halt nur gerade einfach mal ab, ob es nicht einfach 10x 2000€ werden-.-
 
  • GefĂ€llt mir
Reaktionen: Wintermute und Laphonso
MPQ schrieb:
Ich persönlich glaube, die High-End Karten werden total floppen. FĂŒr mich ist das komplett am Markt vorbei entwickelt. Riesige teure Chips mit enormen Verbrauch, wer leistet sich sowas?
Die GPUs werden nicht ausschließlich, vielleicht nicht mal mehr Primar fĂŒr den Gamerbereich konstruiert, sondern fĂŒr den Professionellen. Es ist nichts ungewöhnliches mehr, dass Supercomputer mehrere 1.000 GPUs haben. Und da nimmt man wohl lieber eine GPU mit 450 W, statt 2 GPUs mit jeweils 225 W mit derselben Leistung, da es Platz spart.

NatĂŒrlich ist es dann langsam Abgehoben, dies auch fĂŒr den Privaten Gamerbereich anzubieten. Denn langsam wirkt es so, wie ein Actros zu fahren, da der GLS zu klein ist.
 
Draco Nobilis schrieb:
FĂŒr NVIDIA ist es besser 10x 1500€ statt 3x2000€ zu bekommen.
Man wartet halt nur gerade einfach mal ab, ob es nicht einfach 10x 2000€ werden-.-
Woher weißt Du das? Wenn wenig da ist, ist 3x2000€ besser. Angebot und Nachfrage und so...
 
  • GefĂ€llt mir
Reaktionen: Laphonso
1665148758629.png

Gerade bei Newegg gesehen. Da kann man mal vorbestellen :daumen:
 
Laphonso schrieb:
.... Das Featureset kauft man eben auch mit.
Ganz klar. Auch ich habe aufgrund von Raytracing nur Ampere gewollt, auch wenn die 6800 und 6800XT P/L mĂ€ĂŸig in reinen Rasterizern die besseren Pferde sind.
Es ist einfach so, dass die AMD Karten da (Raytraycing) nichts zu sagen haben.
 
Gortha schrieb:
Es ist einfach so, dass die AMD Karten da (Raytraycing) nichts zu sagen haben.
Stimmt auch nicht ganz.. ich habe kĂŒrzlich eine neue Karte fĂŒr 450€ gebraucht gekauft. Das war so mein Budget. Da gab es entweder die RTX 3070 oder die RX 6800. Dann bin ich mal kurz in die CB-Benchmarks rein, da gibts halt das:

1665149589702.png

Und jetzt hab ich mir halt die 6800 geholt. Also deine Aussage ist zu stark vereinfacht, finde ich.

BONUS EDIT: Die 6900 XT is auf Geizhals auch schon ~60€ gĂŒnstiger als die 3080. Da kriegt man also auch ca. die gleiche RT-Performance pro €.
 
Zuletzt bearbeitet:
Laphonso schrieb:
Ich sehe das (den 4090 Kauf) nicht mal als "Risiko", denn ich glaube einfach nicht mehr, dass wir jemals wieder eine overall Top End GPU von Nvidia unter 1500 Euro bekommen.

Ich hoffe sehr, dass ich mich irre, denn massenweise hochperformante Raytracing Karten helfen der Evolution der Grafikengines und Weiterentwicklung.
Aufgrund der Dollar- und noch stĂ€rkeren Euroentwertung wirst du damit auch recht haben. Wohin das dann auch immer mit dem WĂ€hrungen selber fĂŒhrt, wird es erstmal immer weniger fĂŒr die selbe nominale Summe an Euro geben.
 
ZurĂŒck
Oben