News Nvidia Ada: Die GeForce RTX 4090 soll mit 2.520 MHz Boost takten

TigerNationDE schrieb:
BTT : Wenn ne 4070 wirklich die Leistung einer 3090 Ti hätte, wäre das nen recht angenehmer Sprung um upzugraden. Dann dürfte ne 4080 dieses Jahr mehr als interessant sein.
Ich würde dann eher auf eine 4060 gehen. Bei meinen Spielen reicht die dicke. (z. Zeit überwiegend Mahjongg). Ich mache da ja gerade mal so zehn Minuten am Stück.
 
Bin gespannt wie weit das Powertarget für die Strixx und die FTW freigegeben wird und ob das für noch mehr Takt dann reicht so 2,8 GHZ mit OC z.b

Auch bin ich gespannt was AMD dagegen setzen wird !
Freue mich schon sehr auf die neue Gen.
Mit meinem 1200W NT hab ich damals zu Release der RTX 3000 und 6000 Serie wohl gut entschieden um die Babys anzutreiben .
 
XPS schrieb:
Im Sommer muss dafür dann die Klima Laufen um das ganze wieder runter auf 20c° zu drücken, was die Lautstärke angeht
Bau deine GPU auf Wasser um und mach dir (falls Eigentum wovon ich jetzt mal ausgehe) einen externen Radiator.
Dann führst du den Großteil der Wärme direkt raus und muss nicht gegen klimatisieren.
Im Winter dann nutzt du deinen zweiten internen Radiator
Ergänzung ()

Visualist schrieb:
Bin gespannt wie weit das Powertarget für die Strixx und die FTW freigegeben wird!
Ich kann mir Vorstellen das wir da dann die 600 Watt sehen werden.
 
Ich denke es wird wie mit jeder Generation sein die 4070 wird so schnell sein wie die 3080. Hoffe allerdings dass die Gerüchte stimmen und es diesmal ein größerer Sprung wird aber die Realität holt einen dann doch immer wieder ein bei Release...
 
GERmaximus schrieb:
Bau deine GPU auf Wasser um und mach dir (falls Eigentum wovon ich jetzt mal ausgehe) einen externen Radiator.
Dann führst du den Großteil der Wärme direkt raus und muss nicht gegen klimatisieren.
Im Winter dann nutzt du deinen zweiten internen Radiator
Ergänzung ()


Ich kann mir Vorstellen das wir da dann die 600 Watt sehen werden.
Jup wobei das wohl noch zu knapp sein wird um die voll auf Drehzahl zu bringen mit OC !
 
Was mich stutzig macht, ist der annähernd selbe Verbrauch (420Watt zu 450Watt) zwischen 4080 und 4090, bei doch recht großen Chip Abweichungen.
Der Chip der 4090 ist ja deutlich größer als die 30 Watt suggerieren.

Ob die 90er OC Modelle dann evtl. doch von noch mehr als 600Watt profitieren @Visualist ?
 
Steht doch im Text, 4080 mit deutlich höherer Taktrate. Der Stromverbrauch steigt mit der Taktrate nahezu proportional an.
 
Chilisidian schrieb:
4080 mit deutlich höherer Taktrate.
Ja richtig.
Im Umkehrschluss wird die 90er Karte also ihr volles "Potential" nur mit massiv mehr Powertarget entfalten
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Visualist
Ich mache das ganze nicht mehr mit. Ich möchte keinen PC der 600Watt und mehr zieht. Da lasse ich die Entwicklung eben aus und lasse das zocken sein oder spiele eben ältere Titel mit meiner alten Karte. Aber in Sachen effizient sind wir mittlerweile ganz hinten angelangt. Zumindest, wenn es so weiter geht wie beschrieben
 
Dann dürfte UV bei einer 4080 mehr bringen als bei der 4090, da die 4080 mit höherem Takt für die gebotene Leistung unverhältnismäßig mehr verbraucht als die 4090.
 
  • Gefällt mir
Reaktionen: GERmaximus
Skidrow1988 schrieb:
. Aber in Sachen effizient sind wir mittlerweile ganz hinten angelangt.
Nein, die neuen Karten werden die effizientesten Karten die es je gab.

rufst du 1:1 die FPS mit den Settings die du jetzt nutzt, mit einer 4000er Karte ab, wirst du deutlich WENIGER verbrauchen!

Und nun der Höhepunkt:
Nutzt du 1:1 den Verbrauch den du jetzt hast, wirst du deutlich mehr FPS haben!
 
GERmaximus schrieb:
Nein, die neuen Karten werden die effizientesten Karten die es je gab.

Du wirst bei selben Verbrauch (Beispiel 300 Watt) mehr Leistung haben als jetzt = effizienter
Ergo wirst du bei gleicher Leistung (FPS) wie jetzt = weniger Verbrauch haben und somit effizienter.

Und nun der Höhepunkt: rufst du 1:1 die FPS mit den Settings die du jetzt nutzt, mit einer 4000er Karte ab, wirst du WENIGER verbrauchen!
Nein, ich möchte bei z.B. 170Watt mehr Leistung haben und das bei ungefähr gleichen Preis und nicht zum 2, 3 oder gar 4 fachen.
 
  • Gefällt mir
Reaktionen: JanMH und Wichelmanni
Skjöll schrieb:
Ich würde dann eher auf eine 4060 gehen. Bei meinen Spielen reicht die dicke. (z. Zeit überwiegend Mahjongg). Ich mache da ja gerade mal so zehn Minuten am Stück.
Denke wir bewegen uns für Hoch und Ultra Bereiche dann sicherlich irgendwie so :

1080p/1440p - 4060
1440p UWQHD - 4070
2160p - 4080+

Aber das halt auch nur, wenn die Leaks mit der Leistung stimmen. Ansonsten kannste die GPU einfach eins runter setzen. Dank DLSS und FSR faken sie uns aber inzwischen ja eh gott weiss wie viel Leistung vor :D
 
Skidrow1988 schrieb:
Nein, ich möchte bei z.B. 170Watt mehr Leistung haben
Hast du bis jetzt in jeder Generation bekommen und wirst du auch wieder.
Der einzige Unterschied ist, das früher eine 170Watt Karte eine 1070/1080war und nun eine deutlich niedrigere Klasse (Name).

Habe das Gefühl das du das mit der Effizienz nicht ganz verstehst, oder es kommt falsch rüber!
170 Watt mit einer 1000er Karte, liefert nur ein Bruchteil an Leistung, wie eine 3000 oder 4000er Karte mit 170Watt. Du musst dir halt nur wieder eine 170Watt Karte kaufen und dich nicht vom Namen blenden lassen

Skidrow1988 schrieb:
und das bei ungefähr gleichen Preis und nicht zum 2, 3 oder gar 4 fachen.
Hätte ich auch gern, so wie Benzin wieder für 1,2€ den Liter
 
@latiose88

also wenn hier eine einstellung daneben ist dann ist das ja wohl deine, nicht jeder hat bock in 720p Pixelbrei rumzukrebsen und sich dann noch was drauf einzubilden wie sparsam er sei. Es gibt Leute die haben Anspruch UND die Kohle diesen auch umzusetzen und daran ist absolut nichts verwerflich. Wenn diese Leute 1000 oder 2000 Watt verballern wollen dann ist das ihre Sache. Oder bist du in Wahrheit nur neidisch, weil du dir entsprechende hardware und Stromrechnung gar nicht leisten kannst? na?

@topic
Für meinen usecase reicht die 4060 dicke aus, finde die viel spannender als die 90er modelle. Schade dass wohl zuerst die dicken karten released werden sollen
 
TigerNationDE schrieb:
1440p UWQHD - 4070

mit 10gb Vram?
Also die 12 GB meiner GPU werden des Öfteren mit 10-11GB belegt (3440x1440)
Weis nicht, ende 2022, eine neue Generation, mit Speicher voll am Limit?

Hoffentlich kommt was gutes von AMD.

Übrigens, diejenigen die den Verbrauch kritisieren:
Die AMD Generation ist in Sachen Effizienz vor Nvidia, evtl. mal beim nächsten Kauf mal ins andere Lager gucken :)
 
owned139 schrieb:
Damals hat es niemanden interessiert, aber heute gibt es für euch kein anderes Thema mehr.
Heute wird mir vorgerechnet, was 1W im Jahr kostet...
Ergänzung ()

GERmaximus schrieb:
evtl. mal beim nächsten Kauf mal ins andere Lager gucken
Ich gucke immer ins andere Lager...
 
Laphonso schrieb:
Und in den Nuancen immer noch besser als Freesync, daher finde ich Dein Urteil...kurios 😅
Vor 5 Jahren vielleicht... Inzwischen ist das zum Glück nicht mehr kurios.

Wenn ich mal hier schaue:
https://geizhals.de/?cat=monlcd19wide

Da findet man unter "Variable Synchronisierung" (Anzahl in Klammern):
Die "G-Sync Compatible" kannst Du direkt abziehen, das ist ist einfach nur FreeSync/Adaptive Sync, welches von nVidia als "ok" tituliert wurde. Da ist kein G-Sync Modul verbaut.

Bleiben noch 45 G-Sync und 12 Ultimate. Nene, G-Sync ist tot und das ist gut so.
 
  • Gefällt mir
Reaktionen: Alphanerd
Ich bleibe bei meiner 3070. Sie hat sich derletzt durch einige Zickigkeiten implizit geoutet als nichtbinäre Transfrau, und ich traue mich nun nicht mehr, sie gegen eine GPU jüngeren Baujahres zu wechseln. Sonst würde ich vielleicht aus Steam gecancelt.
 
  • Gefällt mir
Reaktionen: Kommando und Leon_FR
Skidrow1988 schrieb:
Nein, ich möchte bei z.B. 170Watt mehr Leistung haben und das bei ungefähr gleichen Preis und nicht zum 2, 3 oder gar 4 fachen.

????
https://www.computerbase.de/2020-12...die_energieeffizienz_als_performance_pro_watt


699$ UVP (1080 Ti) vs 399$ (3060 Ti)
250 W (1080 Ti) vs 200 W (3060 Ti)
100% Leistung (1080 Ti) vs. 120+% Leistung (3060 Ti)

Bei beiden Karten kann man sogar noch undervolten, die 3000er Generation liegt aber auch da etwas vorn.

Klar du musst dann eben von einer "xx80er" Karte "downgraden" damit haben tatsächlich einige Leute Probleme, aber wenn man den Schritt gemacht hat, kann man das erweiterte Featureset, die Mehrleistung, die kühlere Umgebungstemperatur und die bessere Effizienz auch genießen.
 
  • Gefällt mir
Reaktionen: Bright0001 und GERmaximus
Zurück
Oben