News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr

Ich sehe das sowieso entspannt. Ich werde am Ende vermutlich sogar weniger Strom verbrauchen, da die Last sinken wird.
 
DevPandi schrieb:
Ich bin ehrlich: Mich juckt die 4090 in den Fingern, aber auch nur um zu sehen, was sie dann bei 300 Watt leisten kann.

Ist ungefähr so als würde man mit einem Porsche in der 30er Zone zum Briefkasten fahren.
 
  • Gefällt mir
Reaktionen: p4z1f1st und Youngtimer
Ich persönlich glaube, die High-End Karten werden total floppen. Für mich ist das komplett am Markt vorbei entwickelt. Riesige teure Chips mit enormen Verbrauch, wer leistet sich sowas?

Es müsste echt einfach mal ein dritter Hersteller kommen, eine Billo-RTX3060-Leistungs-Chip in 5nm mit 140W und 200€ baut, dann wären plötzlich alle Grafikkartenhersteller weg vom Fenster. Kein Mensch würde mehr die teurern, hochgezüchteten Dinger kaufen. Ich hatte bisschen auf Intel gehofft, aber die hängen leider hinterher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: PcFliege und pfreampfl
SaschaHa schrieb:
Nein. Dank der fiesen Lastspitzen dürfte es für 750 Watt sehr eng werden, insbesondere wenn es kein ATX 3.0-Netzteil ist. Zudem ist es nicht gerade empfehlenswert, das Netzteil an der absoluten Kotzgrenze zu betreiben. 1000 Watt müssen es nicht zwangsläufig sein, aber unter 850 Watt würde ich für diese Ungetüme nicht empfehlen.
Die Peaks sind deutlich geringer als bei der 3090 TI durch die mehr Phasen die verbaut wurden.
 
  • Gefällt mir
Reaktionen: SaschaHa
Kloin schrieb:
Okay, du willst es nicht verstehen, ist so in Ordnung, akzeptiere ich ;-) Allein schon die Formulierung "für diejenigen" spricht Bände.
Du willst ne Karte mit 4090 Performance und 1050 Verbrauch. Die gibt es nicht, gab es nie und wird es auf Jahre auch nicht geben. Du verstehst es nicht.
 
Dr. MaRV schrieb:
Du willst ne Karte mit 4090 Performance und 1050 Verbrauch.
Nein, ich verstehe aber das du es absichtlich so übertreibst um meinen "tatsächlichen" Punkt als lächerlich abzutun.
Dr. MaRV schrieb:
Die gibt es nicht, gab es nie und wird es auf Jahre auch nicht geben. Du verstehst es nicht.
Es gibt auch Zustände zwischen "AN" und "AUS"
 
  • Gefällt mir
Reaktionen: Reglohln und Laphonso
MalzM schrieb:
Mh... Ich stimme dir zwar zu dass es krank ist, aber ich kann nicht erkennen welche Grundlage die EU hätte so etwas zu verbieten?
In diesen Zeiten braucht es keine Grundlagen mehr, um Eingriffe in die Lebenssituation von Leuten zu rechtfertigen. Wie war das mit dem Beheizen von privaten Pools nochmal? Wenn es keine Grundlage gibt, wird eine geschaffen. Gibt ja auch die ein oder andere Coronamaßnahme, die sich nachweislich als Blödsinn erwiesen hat und kein anderes Land mehr so umsetzt...
 
fraqman schrieb:
Über 600W.. ich hoffe, die Effizienz geht in den nächsten Generationen nach oben.
Am Ende geht der Trend zum Zweitnetzteil, nur für die Karte.. Und das bei den heutigen Strompreisen 😏
Die Effizienz geht doch auch bei der Generation deutlich nach oben. 🤷🏻‍♂️
 
Bulletchief schrieb:
Die Effizienz geht doch auch bei der Generation deutlich nach oben. 🤷🏻‍♂️
Die Leute meinen leider oft was anderes. Mal ein kleines Rechenbeispiel ohne Zusammenhang zur 4000er Serie, sonst kommt wieder jemand mit "Tests abwarten" um die Ecke obwohl sich das in vielen Generationen in ähnlicher Weise abgespielt hat.

Beispiel:
GEN X brachte eine gewisse Spieleleistung mit 300W Realverbrauch und GEN Y als Nachfolger braucht bei gleicher Spieleleistung 20% weniger el. Energie, also eigentlich 240W und das wäre weniger Verbrauch durch gestiegene Effizienz. Wenn GEN Y aber so aufgedreht wird das sie 350W verbraucht um nicht nur 25% schneller zu sein (bei 300W durch Eff. Steigerung) als GEN X sondern sogar 40% dann stört das viele.

Und man fragt sich unweigerlich wie lange das noch so laufen soll und zwar über alle SKUs hinweg, nicht nur aufs Topmodell bezogen. Die Technische Entwicklung ist in "diesem" Bereich imho nicht in der Lage mit den steigenden Anforderungen mitzuhalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: danyundsahne und ThePlayer
Entweder macht die Effizienz einen deutlich Sprung nach vorne oder wir gewöhnen uns daran.

Was war das ein Aufruf wo Karten 2x8pin Stecker nötig hatten und heute ist das schon nix mehr.
 
johnieboy schrieb:
Der Stromverbrauch entwickelt sich seit Generationen in die Falsche Richtung.
johnieboy schrieb:
Diese Entwicklung wird sich auch nicht ändern, es seit denn der Verbraucher ändert sein Kaufverhalten (unwahrscheinlich) oder der Gesetzgeber schreitet ein und macht verbindliche Vorgaben.
Mehr Polygone und Effekte = mehr Rechenleistung.
Immer effizientere Fertigungsverfahren, effizientere GPU-Architektur sowie intelligentere logische Verfahren in 3DEngines sowie Treiberseitig können nur in einem gewissen Maß dieses Mehr an notwendiger Rechenleistung ausgleichen.
Also wird in erster Linie mit immer mehr Transistoren (wenn auch immer Kleineren und weniger Leistungshungrigen) dieses Mehr an benötigter Rechenleistung bereitgestellt.
Diese sehr große Masse an Transistoren benötigt dann halt entsprechend viel Strom.

Was aber ein jeder selber machen kann - und was auch mit einem Zweitbios oder Treiberseitig als Einstellungsmöglichkeit von Herstellern immer zur Verfügung gestellt werden sollte - ist eine effiziente GPU-Taktung bei entsprechendem UV/niedriger Spannung. Dies wird heute von vielen selber per Hand z.B. via MSI Afterburner erledigt und wirkt wahre Wunder.
So bekommt man auch z.B. eine RTX 3000 Serie bei selber Leistung(WaTT) wie eine RTX 2000 selber Klasse auf ein gutes Stück mehr Grafik-Leistung(FPS) bei selber Leistung(Watt).
 
Bulletchief schrieb:
Die Effizienz geht doch auch bei der Generation deutlich nach oben. 🤷🏻‍♂️
Das wird sich erstmal zeigen müssen. Es ändert halt nichts an der Tatsache, dass wir da wirkliche Monsterverbräuche haben - und damit mein ich nicht nur nVidia.
 
Bin so gespannt auf Eure Tests der 4090 Monster , liebe CB Redaktion. 🤩

RDNA 3 vs. Ada Lovelace wird ein Gemetzel an mehreren Fronten (Preis, Effizienz, Leistung oldschool Raster, Leistung RT + Featuresets etc). Händereib
 
  • Gefällt mir
Reaktionen: Einfallslos^99 und danyundsahne
Kloin schrieb:
sonst kommt wieder jemand mit "Tests abwarten" um die Ecke obwohl sich das in vielen Generationen in ähnlicher Weise abgespielt hat.
nenene DU meintest das der größte Perf. Gewinn hauptsächlich durch den gestiegenen Verbrauch erreicht wird. Was du einfach so pauschal nicht sagen kannst. Natürlich gehen die powertargets hoch, was nicht heißt dass die Karten weniger effizient sind. Wenn du es sparsamer haben willst setze wie gesagt ein 80% Powerlimit und du hast laut deinen Ausssagen deine perferkte Graphikkarte. Lass den Rest die wollen doch ihre 20% mehr Strom verbrauchen.
 
MPQ schrieb:
Ich persönlich glaube, die High-End Karten werden total floppen.
Werden sie nicht, sie werden weggehen wie warme Semmeln.
MPQ schrieb:
Für mich ist das komplett am Markt vorbei entwickelt. Riesige teure Chips mit enormen Verbrauch, wer leistet sich sowas?
Viele, laut Umfrage hier alleine 536 Leute.
 
Geforce2front schrieb:
Entweder macht die Effizienz einen deutlich Sprung nach vorne oder wir gewöhnen uns daran.
Genau dort sind Ansätze wie DLSS/FSR/XeSS und jetzt das neue "Frame-Generation" sehr interessant, da sie massive Performance und damit auch Effizienz Gewinne ermöglichen.
Bin mir sicher das solche Technologien in den nächsten paar Jahren so weiterreifen, dass sogut wie jedes grafisch Aufwendige Spiel diese Unterstützt. Spätestens mit PS6 und neXtBox wirds wahrscheinlich ein Standard Feature.
 
  • Gefällt mir
Reaktionen: Youngtimer und Kloin
Galarius schrieb:
nenene DU meintest das der größte Perf. Gewinn hauptsächlich durch den gestiegenen Verbrauch erreicht wird. Was du einfach so pauschal nicht sagen kannst.
Du scheinst dich angesprochen zu fühlen und ja mit "hauptsächlich" werde ich wohl daneben liegen, das stimmt. Das Beispiel ist davon allerdings nicht betroffen.
Galarius schrieb:
Natürlich gehen die powertargets hoch, was nicht heißt dass die Karten weniger effizient sind.
Das stimmt natürlich und deswegen beziehe ich mich explizit auf den "Realverbrauch" des fiktiven Beispiels um deutlich zu machen was ich genau meine und dann lässt sich in Tests sehr genau feststellen welcher Anteil der Spieleleistung durch Effizienzsteigerung und welcher durch simplen Mehrverbrauch bewirkt wird.
Galarius schrieb:
Wenn du es sparsamer haben willst setze wie gesagt ein 80% Powerlimit und du hast laut deinen Ausssagen deine perferkte Graphikkarte.
Klar kauf dir Auto mit nem fetten Motor und lass den dann nur maximal auf die Hälfte der Drehzahl hochgehen. Aber bezahle bitte den vollen Preis fürs Kfz. Klar, ergibt total Sinn. Ich kann auch n Ryzen 7000 auf 3GHz festpinnen und mich über den Effizienz Sweetspot freuen, ist genauso sinnvoll.

Galarius schrieb:
Lass den Rest die wollen doch ihre 20% mehr Strom verbrauchen.
Warum reagieren eigentlich immer alle reflexhaft so, als ob man ihnen was wegnehmen will? Wenn die 20% Mehrverbrauch nicht wären und die Karte genausoviel leisten würde dann hat trotzdem jeder was er will :-D Ich verstehs echt nicht....
 
Zuletzt bearbeitet:
MPQ schrieb:
Für mich ist das komplett am Markt vorbei entwickelt
Wer ist denn "der Markt"?
Das sind absolute High End Enthusiastenkarten.

Der ersten 3 Ada Lovelace GPUs sind für liquide DLSS3 OFA early adopters und UWQHD und 4 K Gamer.
DAS ist der Markt. Hat der Nvidia CEO letztlich auch genau so klassifziert.

Man kann wunderbar mit RDNA2 und Ampere - angesichts der fallenden Preise und Abverkäufe und Schwemme im second hand Markt- grandiose GRafikkarten für 1080p und 1440p kaufen, das sind über 80% des Mainstream PC Gaming Marktes.

Die offiziellen 4060er und 4070er ersetzt die 3080er und 3070er.

Mal sehen wie und wo AMD die RNDA3 platziert und on Nvidia dann kaufen muss.

Dazu:
Wenn das Spitzenmodell 7900XT in Cyberpunk einen traurigen Platz 4 (Plazz 5 sobald die 4080Ti kommt) der Benchmarks belegt dank des DLSS 3 OFA Jokers, hat AMD sowieso direkt den Großteil der liquiden Ethusiasten an Nvidia verloren. Ich zahle doch nicht 1200 Euro für eine GPU, die nicht mal einen der ersten Benchmarkplätze belegt.

Wer direkt Schaum vorm Mund hat und getriggert ist: So war es bereits bei Ampere. Vergleicht mal die 3080+3090 Signaturen hier und bei PCGH vs 6900XT und 6950XT.
In meinem Umfeld dominiert Ampere trotzdem die 6900XT eine superbe GPU ist und die 6800XT die vielleicht beste P/L GPU dieser Generation hat

Das Featureset kauft man eben auch mit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schokolade, Gortha und Sturmwind80
quakegott schrieb:
Das ist eine Entwicklung die ich nicht unterstützen werde. Hier wird mit alles Macht versucht den längsten Balken zu haben ohne Rücksicht auf Verluste. Von mir aus kann die der Leistungssprung in einer Generation bei 0% liegen wenn die Effizient deutlich steigt. Bei diesen Energiepreisen schraub ich lieber an der Bildqualität. Optik sollte nicht alles sein was ein Game ausmacht!

Welches Energiepreisen? Die du als Endverbraucher zahlst oder dein Versorger? Denn seit paar Tagen liest nur, dass die Einkaufspreise für Gas sinken.

https://www.n-tv.de/wirtschaft/Auf-Verbraucher-rollt-Preiserhoehungswelle-zu-article23633655.html

Am Ende ist der Endverbraucher der gute, der hier alles finanziert.
 
Zurück
Oben