News Nvidia Ada: Die GeForce RTX 4090 soll mit 2.520 MHz Boost takten

Das scheint so das Nvidia wie damals zur GTX 480 Zeiten,wieder ein rückschritt macht was stromverbrauch angeht.
 
Bullz schrieb:
Ich weiß Glaskugel
Eben. Was sollen wir da schon sagen? Es gibt bisher nicht mehr als Gerüchte was Leistung und Verbrauch angeht. Möglich dass die 4080 doppelt so schnell läuft bei gleichem Verbrauch. Genau so gut möglich, dass du nur 30% Performance gewinnst und dafür fett draufzahlst.

Bullz schrieb:
Würde meine graka verkaufen jetzt wieviel. Sollte ich dann drauf zahlen müssen maximal für wieviel Performance Gewinn?
Jetzt deine Grafikkarte verkaufen ist vermutlich genau so eine gute Idee wie zum Release der 3000er Generation. Mit etwas Glück stehst du dann Monate ganz ohne GPU da.
 
  • Gefällt mir
Reaktionen: Zocker1996 und derSafran
Wenn es stimmen, dass die 4070 die Leistung einer 4090ti sollte wäre die 4070 wohl meine Wahl wenn die 10GB nicht kommen. Für Wqhd und konstante 144 fps in den meisten Game dann kein Problem :)
 
Ich bin sehr gespannt welchen Kurs RDNA3 im Kontrast zur Konkurrenz einschlagen wird.

Sollte sich der Oktober für beide Hersteller als zutreffend erweisen, so könnte das ein spannender Monat werden. Gerade auf den Effizienzvergleich beider Architekturen bin ich sehr gespannt.
 
  • Gefällt mir
Reaktionen: E2K3, CableGuy82, mojitomay und 3 andere
@Cl4whammer!
Bei nen Chinaböller NT ja.
Meine jetzige GPU kommt schon auf 375w peak. Da ists nicht mehr so weit hin zur RTX4090.
 
  • Gefällt mir
Reaktionen: guillome und Leereiyuu
Ganz ehrlich, man merkt langsam, dass die Hersteller nicht mehr wirklich weiter kommen. Es läuft mittlerweile bei jeder neuen Gen irgendwie nach dem Motto: 30% der Mehrleistung ohne Mehrverbrauch durch Architekturverbesserung und 70% der Mehrleistung in dem einfach nur hart der Stromverbrauch erhöht wird damit mehr Takt geht. Völlig an der Welt vorbei was Energieverbrauch angeht und das nicht erst seit dem Konflikt von dem Irren im Osten.
 
  • Gefällt mir
Reaktionen: Zocker1996, HaZu, fullnewb und 10 andere
Ich finde die ständige Diskussion mit dem Stromverbrauch ehrlich gesagt etwas nervig.
  • RTX 4070 -> 300 Watt vs 450 Watt <- RTX 3090 Ti, beide gleich schnell.
  • RTX 4090 -> 450 Watt vs 450 Watt <- RTX 3090 Ti, erstere vermutlich >60% schneller.
Letztendlich hat sich "oben" einfach nur eine neue Klasse an Karten gebildet. Wer die Leistung nicht braucht, kauft einfach eine kleinere Karte oder limitiert das Powerlimit, wodurch die Karten massiv effizienter werden, da sie dann im Sweetspot laufen. Bei der RTX 3080/90 konnte der Stromverbrauch um 20% gesenkt werden, wodurch lediglich 4% Leistung verloren gingen. Mit UV waren sogar 20% Einsparung so gut wie ohne Leistungsverlust möglich. Man hat also durchaus einige Stellschrauben, wenn einem der Verbrauch zu viel ist.
 
  • Gefällt mir
Reaktionen: Gipz, Framue_, Flyerdommo und 13 andere
b3nb0hne schrieb:
Wenn es stimmen, dass die 4070 die Leistung einer 4090ti sollte wäre die 4070 wohl meine Wahl wenn die 10GB nicht kommen. Für Wqhd und konstante 144 fps in den meisten Game dann kein Problem :)
Warum nicht? Geplante Obsoleszenz wie damals bei der 970
 
  • Gefällt mir
Reaktionen: kgrosser, fox40phil, b3nb0hne und eine weitere Person
3090ti Leistung mit 10gb vram?
Das ist ja wie 2080ti Leistung mit 8gb vram (3070)

Die damals so interessanten 70er Karten verkommen zu highend 1080p Speicher krüppel, wenn das so kommt.

Dabei gabs 2 Generationen mal die selbe 8Gb Bestückung wie die 80er Karten (1070 und 2070, jeweils mit 8Gb, so wie die 80er Karten)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zocker1996, up.whatever, RaptorTP und 7 andere
Sieht ganz so aus als würde man die 4070 künstlich beim Speicher beschneiden, damit man eine größere Lücke zu den High End / Enthusiast Segmenten hat.

Wird dann halt doppelt teuer, weil man ein passendes Gehäuse / Kühlung / usw. benötigt. Hoffentlich fliegen die damit auf die Fresse, diese Strategie gefällt mir gar nicht.
 
  • Gefällt mir
Reaktionen: PunGNU, CableGuy82, lubi7 und 11 andere
Ich glaub ich werde meine 3090 noch laaaaaaaaaaaaaaaaaaaaaange behalten.
 
  • Gefällt mir
Reaktionen: TobiD79, Unnu, OldZocKerGuy und eine weitere Person
Next Gen. werde ich mit grosser Sicherheit auslassen. Da wegen der Hitzeentwicklung sowieso keine 4080/4090 oder so wie es aussieht auch eine RDNA3 in Frage kommt würde es eh eine Midrangekarte werden. Soviel Innovation kann gar nicht kommen, dass ich mir das freiwillig antue wenn man schon eine grössere Karte aktueller Gen hat. Aus Leistungssicht kann man dann auch gleich bei 3080/6900xt/6800xt bleiben. Und für FHD reicht eine aktuelle Karte ala 6600xt 3060ti noch lange aus. Wenn wird die next Gen. eher für 4k Gamer & Miner interessant oder Leute die richtig altes Zeug haben. Ich lasse mich aber gerne positiv überraschen.
Muss natürlich jeder selber wissen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tritom73
4070 knapp so schnell wie eine 3090 Ti?... never ever - AUßER, das Konkurrenzprodukt von AMD ist so schnell und NV weiß das und MUSS die Performance entsprechend so hochhalten... "von selbst" würde NV sowas nie machen (siehe die Zeit, in der die AMD-Produkte keinerlei Konkurrenz für Maxwell und Pascal dargestellt haben... da gab es nur Stillstand bei NV).
 
  • Gefällt mir
Reaktionen: Zocker1996 und Unnu
Mein 680 w Netzteil macht eine 4080 endgültig nicht mehr mit denke ich.
Eh ein Wunder, dass die 3080 noch ohne Probleme lief. Noch dazu nochmal schlimmerer Stromverbrauch....

Scheint eine performance-mäßig sehr starke Serie zu werden, aber ich warte wohl ein paar Jahre und mach dann alles neu... 😞
 
Axxid schrieb:
Hoehere Taktraten bei wesentlich hoeherem Verbrauch. Klingt nicht sonderlich innovativ...

Sehe ich völlig anders. Wenn die 4070 auf 3090Ti Niveau ist, sollten auch bei diesen beiden Karten die Verbäuche verglichen werden.

An aller Nörgler bzgl. Verbrauch, Strompreisen, etc. Wer kauft denn bitte Karten einer neueren Generation, die nicht schneller als die vorhergehende Serie sind. Bzw. wird dies vom überwiegenden Teil der Käuferschicht vorrausgesetzt. Höhere Leistung geht selten ohne höherer Verbrauch einher.
 
Dai6oro schrieb:
Ich glaub ich werde meine 3090 noch laaaaaaaaaaaaaaaaaaaaaange behalten.
Ich würde fast drauf wetten dass du das nicht tust. 😉
 
  • Gefällt mir
Reaktionen: Dgini, Blackvoodoo, Qyxes und 3 andere
Eine merkwürdige Überlegung die ich letztens hatte:

Was passiert, wenn die Inflation/Teuerungsrate der Grafikkarten längerfristig höher ausfällt als die generationsbedingte Mehrleistung per Euro?
Selbst bei Mehrleistung = Mehrkosten werden wir doch "bald" selbst in der Mittelklasse bei Autopreisen landen. Wie sieht da das Zukunftskonzept aus?

Ab dem Fall, würde der Grafikkartenmarkt für neue Karten doch beinahe komplett kollabieren.
Klar sehen wir selbiges durch Mining/Corona schon, aber wenn es quasi offiziell Normalität wird?

Neue Karten werden ja in Hauptsache nur für 4k fällig, weil man wirklich altes Zeug hat oder >60 fps haben will. Kaputt geht recht selten was.
 
  • Gefällt mir
Reaktionen: rentex
cyberpirate schrieb:
Ich würde dann wohl erstmals eine Klasse unter den Top Modellen kaufen. Ist mir sonst einfach zu heftig mit dem Verbrauch.

Leider keine Option für Menschen die schon eine RTX3080 oder schneller haben. Die allgemeine Entwicklung ist leider was den Energieverbrauch angeht irgendwie aus dem Ruder gelaufen.
SaschaHa schrieb:
Ich finde die ständige Diskussion mit dem Stromverbrauch ehrlich gesagt etwas nervig.
  • RTX 4070 -> 300 Watt vs 450 Watt <- RTX 3090 Ti, beide gleich schnell.
  • RTX 4090 -> 450 Watt vs 450 Watt <- RTX 3090 Ti, erstere vermutlich >60% schneller.
Letztendlich hat sich "oben" einfach nur eine neue Klasse an Karten gebildet. Wer die Leistung nicht braucht, kauft einfach eine kleinere Karte oder limitiert das Powerlimit, wodurch die Karten massiv effizienter werden, da sie dann im Sweetspot laufen. Bei der RTX 3080/90 konnte der Stromverbrauch um 20% gesenkt werden, wodurch lediglich 4% Leistung verloren gingen. Mit UV waren sogar 20% Einsparung so gut wie ohne Leistungsverlust möglich. Man hat also durchaus einige Stellschrauben, wenn einem der Verbrauch zu viel ist.

Dein ganzer Text basiert auf Gerüchten zu der Leistung ... Dann solte man sich eventuell nicht ganz so weit aus dem Fenster lehnen. Soll kein hate sein nicht falsch verstehen. Nur halte ich die Stromverbrauch Diskussion schon für notwendig in der heutigen Zeit
 
  • Gefällt mir
Reaktionen: Zocker1996, Flyerdommo, ThePlayer und 3 andere
Capthowdy schrieb:
Ich würde fast drauf wetten dass du das nicht tust. 😉
Wie kommst du drauf? die RTX2xxx hatte ich auch ausgelassen mit einer 1080ti. Die nächste Gen lohnt meist eh nicht.
 
Zurück
Oben