Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchfĂŒhren oder einen alternativen Browser verwenden.
News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr
L
lalelu
Gast
Vermutlich wird die 4090 mit um ca. 20% gesenktem Powerlimit wieder im effizienten Bereich laufen. Bin gespannt.
ShiftyBro
Lieutenant
- Registriert
- Sep. 2018
- BeitrÀge
- 765
hongkongfui schrieb:Habe seit 5 Jahren eine 1050ti, die immer noch gut ihren Dienst tut.
Auf eine Karte, die 3x so schnell ist, bei unter 100W, kann ich wahrscheinlich noch 10 Jahre warten.
Womöglich wird es irgendwann eine APU werden.
Im Moment wĂŒrde es (bei Defekt) eine 6600 werden, wobei die auch schon doppelt so teuer ist.
Hm, ist etwas merkwĂŒrdig formuliert: Die 6600 mit 100 W ist ja schon ca. 2,5x so schnell wie deine Karte. Deine Prognose, dass es dementsprechend noch 10 Jahre dauert, bis es eine mit 100 W gibt, die 3x so schnell ist, ergibt doch dann kaum Sinn oder? Vermutlich kommt die entsprechende Karte dann schon mit der nĂ€chsten Generation...
Das ist das was die meisten einfach vergessen wer eine 3090 hat kommt "Relativ" glimpflich weg mit einer 4090 da man im schnitt ca 900-1000⏠nur draufzahltLaphonso schrieb:Zumal diese "Wer zahlt denn 2000+ Euro fĂŒr eine 4090?!?!!" Rechnung auch ignoriert, dass viele ihre aktuelle GPU ja verkaufen.
Die 3080er, 3080Tis und 3090er bringen derzeit immer noch AB (!) 650-1000 Euro auf Ebay + Kleineinzeigen.
Das sind dann immer noch viele Euroscheine, aber 2000-2400 Euro fĂŒr eine 4090 FE oder 4090 custom minus 900 fĂŒr eine 3090 z.B. macht....1100 bis 1500 Euro.
Das ist immer noch scheisse viel Geld, aber hat mit den 2K Euro nix zu tun.
aber soll mit nur recht sein um so weniger sich eine 4090 kaufen umso gröĂer ist meine Chance am Release Tag eine zu bekommen
Daher alle die eine 4090 am Release Tag bekommen sag ich es mit Shakespeare Worten
We few, we happy few, we band of brothers
Wintermute
Fleet Admiral
- Registriert
- Feb. 2003
- BeitrÀge
- 14.361
Ernsthaft? Warum kauft man sich mit dem neuen Kram vor der TĂŒre eine 3090 Strix fĂŒr 1100 Euro? In nur 0,1% der mir vorstellbaren Situation ergibt das Sinn. Mitte November werden die Preise noch weiter purzeln und vermutlich gibt's zu dieser Zeit um das Geld minimum eine neue Karte, die mit der 3090 den Boden moppt oder zumindest auf Augenhöhe agiert.Laphonso schrieb:HĂ€ngt sehr von den Customs ab. Die 3090 Strix z.B. knackt jedes Mal noch die 1100 Euro bei den nicht-Sofort Kaufen EndGeboten.
đ€Ł Ok das ist ein wenig viel Pathos fĂŒr eine sinnloses Spielzeug wie ein Grafikkarte, aber der Hype nimmt einen ja doch mit.Benni1990 schrieb:Daher alle die eine 4090 am Release Tag bekommen sag ich es mit Shakespeare Worten
We few, we happy few, we band of brothers
Und ich hoffe sehr, dass AMD mit RDNA3 echt was auf Parkett zimmert. Nicht nur, um Nvidia irgendwie noch in Schach zu halten mit Performance (die Preise macht Nvidia eh wie sie wollen), sondern weil RDNA3 auch ein Vorbote auf die next Gen Konsolenchips wird.
@Wintermute Ja, wie @Chilisidian schon sagte, ist das nun das letzte Zeitfenster fĂŒr diese Preise.
theGucky
Lt. Commander
- Registriert
- Dez. 2020
- BeitrÀge
- 1.466
Das die Karten 600W können, heiĂt nicht das die auch alle 600W nutzen.
Im Vorfeld wurden die KĂŒhler und der DIE eigentlich fĂŒr 600W entwickelt, aber die Effizienz fiel besser aus als gedacht und so wurden es 450W GPUs.
Es gibt auch Leute die eine 3090Ti mit 600W nutzen oder eine 3090 mit 500W...
Im Vorfeld wurden die KĂŒhler und der DIE eigentlich fĂŒr 600W entwickelt, aber die Effizienz fiel besser aus als gedacht und so wurden es 450W GPUs.
Es gibt auch Leute die eine 3090Ti mit 600W nutzen oder eine 3090 mit 500W...
Genau dasselbe mache ich auch.Benni1990 schrieb:Das ist das was die meisten einfach vergessen wer eine 3090 hat kommt "Relativ" glimpflich weg mit einer 4090 da man im schnitt ca 900-1000⏠nur draufzahlt
aber soll mit nur recht sein um so weniger sich eine 4090 kaufen umso gröĂer ist meine Chance am Release Tag eine zu bekommen
Daher alle die eine 4090 am Release Tag bekommen sag ich es mit Shakespeare Worten
We few, we happy few, we band of brothers
hongkongfui
Commander
- Registriert
- Jan. 2009
- BeitrÀge
- 2.345
Die 6600 wĂ€re mir natĂŒrlich schnell genug, braucht aber mehr Watt (CBTest 135W), das ist rund das doppelte meiner 1050ti. Und ein Jahr nach Release immer noch doppelt so teuer (288⏠Geizhals).ShiftyBro schrieb:Hm, ist etwas merkwĂŒrdig formuliert: Die 6600 mit 100 W ist ja schon ca. 2,5x so schnell wie deine Karte. Deine Prognose, dass es dementsprechend noch 10 Jahre dauert, bis es eine mit 100 W gibt, die 3x so schnell ist, ergibt doch dann kaum Sinn oder? Vermutlich kommt die entsprechende Karte dann schon mit der nĂ€chsten Generation...
Da sehe ich nun nicht den groĂen Fortschritt.
Edit:
FĂŒr die 3050 gilt dasselbe: doppelter Stromverbrauch bei doppelten Preis haut mich nicht vom Stuhl.
Zuletzt bearbeitet:
Chismon
Admiral
- Registriert
- Mai 2015
- BeitrÀge
- 8.668
Ja, wuerde ich auch, aber als Kunde ist man dann schon der Verlierer, da die Karten ab Werk eben nicht auf Undervolting ausgelegt sind und die Entwickler oder deren Boardpartner die Karten maximal uebertakten ohne viel Ruecksicht auf Effizienz, um fuer die uebertaktete Mehr-/Benchmark-/Marketingleistung auch mehr Geld verlangen zu koennen, nur damit man diese dann im nachhinein undervoltet werden muessen, um noch eine akzeptable Effizienz zu haben, was die Entwickler/Hersteller aus Profitgruenden nicht vorsehen.SaschaHa schrieb:Ich wĂŒrde es genau umgekehrt machen: Powerlimit auf 300 Watt, dann noch etwas UV, und schon hat man eine effiziente und superschnelle Karte, ohne allzu viel Leistung zu verlieren.
Man bezahlt am Ende so den gleichen Preis fuer deutlich weniger Leistung, aber der Preis wird eben an der frisierten Leistung deutlich ueber dem Sweet Spot der Karten angesetzt und nicht an der effizienzoptimierten Leistung nach Undervolting, das war frueher noch ausgewogener .
Mittlerweile ist RX 6900XT in der TUF Einsteigervariante von ASUS uebrigens aktuell schon fuer unter 740 Euro zu haben, so dass AMD/RTG eigentlich immer mehr Spielraum haetten fuer die RDNA3 Preise, ohne dass sich alte und neue Karten preis-leistungs-technisch zwingendermassen in die Quere kommen muessten und somit eben nicht solche frisierten Preise wie bei den Ada Lovelace dGPUs zum Marktstart der RDNA3 Pendants von AMD/RTG angesetzt werden muessten.
Nur, ob AMD/RTG dass auch wirklich machen werden (aggressive Preispolitik von RDNA3 Produkten ab Marktstart) ist die grosse Frage, ich habe da eher Zweifel und selbst wenn es so kaeme, wuerden mindestens 699 USD fuer eine (bisher nicht in Geruechten gehandelte) RX 7800 16GB, also umgerechnet in vermutlich mindestens in 849 Euro (ohne Versandkosten) bei deutschen Haendlern oder den Referenzkarten auf der AMD Webseite/im AMD Online-Shop resultieren, was (im evt. denkbar besten Fall zum RDNA3 Markstart) mir eigentlich schon zu viel Geld (nicht mehr lohnend) fuer eine Grafikkarte waere.
In Geruechten gehandelte (also ohne einen fuer eine RX 7800er notgedrungen zweifach abgespeckten Chip) RX 7800XT und RX 7900XT Grafikkartenmodelle werden natuerlich schon laenger als Marktstartprodukte gehandelt.
Ich faende es zwar komisch, wenn AMD nur mit 2 angekuendigten RDNA3 Modellen zur Marktstartpraesentation kaeme, aber eine RX 7900 (non-XT) und gar eine RX 7950 (non-XT) waeren ja auch noch denkbare Optionen zum Markstart, auch wenn m.E. eine RX 7800 (non-XT) deutlich mehr Sinn machen wuerde (als vorher gelaunchtes AMD Pendant zu einer moeglichen RTX 4070Ti, aber nur mit abgespecktem AD 104er Chip).
Zuletzt bearbeitet:
ShiftyBro
Lieutenant
- Registriert
- Sep. 2018
- BeitrÀge
- 765
TatsĂ€chlich zieht die erst 130W mit extra neu geflashtem BIOS. Habe neulich eine gebrauchte fĂŒr nen Freund zum Geburtstag gekauft, die nimmt nur 100W und hat die Leistung gegenĂŒber seiner alten 1060 trotzdem ~verdoppelt.hongkongfui schrieb:Die 6600 wĂ€re mir natĂŒrlich schnell genug, braucht aber mehr Watt (CBTest 135W), das ist rund das doppelte meiner 1050ti. Und ein Jahr nach Release immer noch doppelt so teuer (288⏠Geizhals).
Da sehe ich nun nicht den groĂen Fortschritt.
Edit:
FĂŒr die 3050 gilt dasselbe: doppelter Stromverbrauch bei doppelten Preis haut mich nicht vom Stuhl.
EDIT: Ich sehe auch gerade, dass die 1050 Ti ja sogar nur 60% der Leistung einer 1060 hat.. Dann kann man die 6600 bestimmt sogar auch mit den gleichen 60 Watt der 1050 Ti betreiben und kriegt noch den Faktor 2,5 an Leistung raus. đ Beim Preis gibt's natĂŒrlich den bekannten Anstieg ĂŒber alle Klassen, aber ich sprach jetzt auch nur von dieser FPS/Watt Geschichte, die du ursprĂŒnglich angestoĂen hast.
Zuletzt bearbeitet:
Zotac2012
Admiral
- Registriert
- Apr. 2012
- BeitrÀge
- 7.769
Die 3090 und 3090 Ti sind auch schon gute 4K GPU`s, ich glaube nicht, das sich die ADA Grafikkarten so verkaufen werden, wie das noch bei Ampere der Fall war. Dagegen sprechen zu eindeutig die hohe Inflation wie auch die anstehende schwere Rezession.Laphonso schrieb:Die 4090er werden brachiale 4K GPUs, und die 4K Transition lÀuft weiter an.
Du wirrst Dich, nein, wir werden uns alle wundern dass die wie geschnitten Brot verkauft werden.
Wenn aber viele Ihre jetzigen RTX 3080/3090 [Ti`s] auf den Markt werfen und verkaufen wollen, dann werden die Preise schon deutlich sinken und man muss immer noch deutlich ĂŒber 1000,00 Euro fĂŒr eine RTX 4090 bezahlen, vor allem bei den Custom Design`s.Laphonso schrieb:Zumal diese "Wer zahlt denn 2000+ Euro fĂŒr eine 4090?!?!!" Rechnung auch ignoriert, dass viele ihre aktuelle GPU ja verkaufen.
Was aber das ganze erschweren dĂŒrfte ist, das man seine gebrauchte Grafikkarte dann erst mal loswerden muss, wenn alle anderen auch verkaufen. Im Moment halten sich viele mit einem Kauf bei einem Preis ĂŒber 500,00 Euro deutlich zurĂŒck, weil keiner weiĂ, was jetzt demnĂ€chst noch alles kommt.
SchlieĂlich haben sich ja alle GrundbedĂŒrfnisse verteuert und nicht nur einzelne Bereiche, wie z:B. Strom und Gas. Und hĂ€tte ich eine RTX 3080/3090 [Ti], wĂŒrde ich mir schon ĂŒberlegen, ob ich diese dann verramsche, nur um Nvidias Marketing zu folgen, man braucht immer sofort die neuste Hardware, weil man ja mit der alten Hardware ĂŒber Nacht plötzlich nicht mehr zocken kann.
Amiga500
Vice Admiral
- Registriert
- Dez. 2005
- BeitrÀge
- 6.564
Dazu muss man aber auch sagen...das sich Hersteller bestimmt nicht an den Energie Irrsinn von Deutschland irgendwas diktieren lassen. Wir haben die höhsten Strompreise der Welt und das liegt an einer völlig verfehlten und ideologie getriebene Politik. Darauf wird weder NVidia oder sonst noch wer acht geben. Wir sind halt die Lachnummer der Welt gewordenfraqman schrieb:Ăber 600W.. ich hoffe, die Effizienz geht in den nĂ€chsten Generationen nach oben.
Am Ende geht der Trend zum Zweitnetzteil, nur fĂŒr die Karte.. Und das bei den heutigen Strompreisen đ
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- BeitrÀge
- 2.943
Hm ja, denke eh das es eher 3000 Euro mindestens sein werden.Laphonso schrieb:weil ich nicht weiĂ, ob die 5090 FE dann ab 2399 Euro startet?
Mir und anderen wird das aber vermutlich zu blöd.
Wer entwickelt auch dafĂŒr?
Das P/L muss halt besser werden, sonst sehe ich fĂŒr PC Triple AAA langfristig Probleme.
Meine AnsprĂŒche sind trotz 4k 120Hz OLED nicht so hoch. Das liegt halt auch an meinen bevorzugten Genres.
Sollte ich aber doch mal wieder ernsthaft ein MMO spielen, könnte ich schnell in arge "Nöte" kommen.
Unmöglich ist eine 1500⏠"4080 TI", welche aber nah in Hardware bei der 4090 ist, eigentlich nicht.Laphonso schrieb:dass wir jemals wieder eine overall Top End GPU von Nvidia unter 1500 Euro bekommen.
Etwas KaufzurĂŒckhaltung und weitere Miningkartenflutschwemme + Lager immer noch voll, dann könnte es schnell rutschen. NVIDIA will ja auch (hoffentlich?) erstmal die "early Adopters" zu entsprechenden Preisen abgreifen. HĂ€ngt halt auch vom Schlagabtausch mit AMD und deren Performance ab.
Vielleicht im Sommer nÀchstes Jahr.
FĂŒr NVIDIA ist es besser 10x 1500⏠statt 3x2000⏠zu bekommen.
Man wartet halt nur gerade einfach mal ab, ob es nicht einfach 10x 2000⏠werden-.-
CCIBS
Commander
- Registriert
- Sep. 2015
- BeitrÀge
- 3.064
Die GPUs werden nicht ausschlieĂlich, vielleicht nicht mal mehr Primar fĂŒr den Gamerbereich konstruiert, sondern fĂŒr den Professionellen. Es ist nichts ungewöhnliches mehr, dass Supercomputer mehrere 1.000 GPUs haben. Und da nimmt man wohl lieber eine GPU mit 450 W, statt 2 GPUs mit jeweils 225 W mit derselben Leistung, da es Platz spart.MPQ schrieb:Ich persönlich glaube, die High-End Karten werden total floppen. FĂŒr mich ist das komplett am Markt vorbei entwickelt. Riesige teure Chips mit enormen Verbrauch, wer leistet sich sowas?
NatĂŒrlich ist es dann langsam Abgehoben, dies auch fĂŒr den Privaten Gamerbereich anzubieten. Denn langsam wirkt es so, wie ein Actros zu fahren, da der GLS zu klein ist.
PHuV
Banned
- Registriert
- MĂ€rz 2005
- BeitrÀge
- 14.219
Woher weiĂt Du das? Wenn wenig da ist, ist 3x2000⏠besser. Angebot und Nachfrage und so...Draco Nobilis schrieb:FĂŒr NVIDIA ist es besser 10x 1500⏠statt 3x2000⏠zu bekommen.
Man wartet halt nur gerade einfach mal ab, ob es nicht einfach 10x 2000⏠werden-.-
Gortha
Captain
- Registriert
- Jan. 2017
- BeitrÀge
- 3.830
Ganz klar. Auch ich habe aufgrund von Raytracing nur Ampere gewollt, auch wenn die 6800 und 6800XT P/L mĂ€Ăig in reinen Rasterizern die besseren Pferde sind.Laphonso schrieb:.... Das Featureset kauft man eben auch mit.
Es ist einfach so, dass die AMD Karten da (Raytraycing) nichts zu sagen haben.
ShiftyBro
Lieutenant
- Registriert
- Sep. 2018
- BeitrÀge
- 765
Stimmt auch nicht ganz.. ich habe kĂŒrzlich eine neue Karte fĂŒr 450⏠gebraucht gekauft. Das war so mein Budget. Da gab es entweder die RTX 3070 oder die RX 6800. Dann bin ich mal kurz in die CB-Benchmarks rein, da gibts halt das:Gortha schrieb:Es ist einfach so, dass die AMD Karten da (Raytraycing) nichts zu sagen haben.
Und jetzt hab ich mir halt die 6800 geholt. Also deine Aussage ist zu stark vereinfacht, finde ich.
BONUS EDIT: Die 6900 XT is auf Geizhals auch schon ~60⏠gĂŒnstiger als die 3080. Da kriegt man also auch ca. die gleiche RT-Performance pro âŹ.
Zuletzt bearbeitet:
Gortha
Captain
- Registriert
- Jan. 2017
- BeitrÀge
- 3.830
Aufgrund der Dollar- und noch stĂ€rkeren Euroentwertung wirst du damit auch recht haben. Wohin das dann auch immer mit dem WĂ€hrungen selber fĂŒhrt, wird es erstmal immer weniger fĂŒr die selbe nominale Summe an Euro geben.Laphonso schrieb:Ich sehe das (den 4090 Kauf) nicht mal als "Risiko", denn ich glaube einfach nicht mehr, dass wir jemals wieder eine overall Top End GPU von Nvidia unter 1500 Euro bekommen.
Ich hoffe sehr, dass ich mich irre, denn massenweise hochperformante Raytracing Karten helfen der Evolution der Grafikengines und Weiterentwicklung.
M
Maike23
Gast
Das hast du gerade nicht ernsthaft in einem Computer-Forum geschrieben - oder doch ?Kloin schrieb:Es gibt auch ZustÀnde zwischen "AN" und "AUS"