News Nvidia Ada: Die GeForce RTX 4090 soll mit 2.520 MHz Boost takten

Die 4070 würd ich nehmen mit 300 watt grade so vertretbar. Aber nu hat sie ja doch nur 10GB -.- Jetzt muss es eine 4080 werden weil zukunftssicher aber der verbraucht nervt hart
 
elwu schrieb:
Ich bleibe bei meiner 3070. Sie hat sich derletzt durch einige Zickigkeiten implizit geoutet als Transfrau,
Nein als TransRam.
Es ist eine 3090er Seele im PCB einer 3070 gefangen
 
  • Gefällt mir
Reaktionen: latiose88 und elwu
Irgendwie fürchte ich das die 4060 weder ~200 Watt noch 10GB VRAM hat...
 
  • Gefällt mir
Reaktionen: Convert und Leon_FR
Skidrow1988 schrieb:
Ich mache das ganze nicht mehr mit. Ich möchte keinen PC der 600Watt und mehr zieht. Da lasse ich die Entwicklung eben aus und lasse das zocken sein oder spiele eben ältere Titel mit meiner alten Karte. Aber in Sachen effizient sind wir mittlerweile ganz hinten angelangt. Zumindest, wenn es so weiter geht wie beschrieben

mal gucken was wir machen, wenn die ersten Konsolen raus kommen, die 600 Watt und mehr benötigen 🥳
 
CiX schrieb:
und das weißt du woher, oder bist du einfach nur grundsätzlich ein pessimistischer Mensch? oder hast du wider erwarten doch eine belastbare Quelle, außerhalb deiner schwarzen Glaskugel?
Nvidia hat seit mehreren Generationen Mehrleistung auch zum Mehrpreis verkauft.
Aktuell gibt es überall Probleme mit Lieferketten und Inflation.
Dazu kommt, dass im Gegensatz zu den späten 90gern, Anfang 2000er keine Entwicklung bei der Auflösung gibt.
FullHD, WQHD und 4K existieren seit langer Zeit parallel.
Es gibt keinen marktwirtschaftlichen Grund die Preise niedrig zu halten.

Wir werden es ja sehen.

Die 3000er Serie wäre von der Preis/Leistung ein Wahnsinn gewesen und dann:
Nicht verfügbar!
Mit der niedrigen, aber irrelevanten UVP wurden lediglich gute Reviews produziert, die Karten zum UVP einfach extrem gut waren.


Sind sie diesmal verfügbar, dann werden wir Mondpreise sehen.
 
  • Gefällt mir
Reaktionen: MjrTom80, GERmaximus und Bright0001
n3xtrem schrieb:
Allein der GPU Kühler hatte mehr Kupfer intus als mein Kühlsystem jetzt.
Der Trend alles immer dünner machen zu wollen ist der reinste Mist.
Ich will wieder lieber so 5-6 cm Bomber haben, gern so 3,5-4Kg für 17 zoll. Dann aber im allen was geht in Sachen Flüssigmetall, Vapor chamber und massig Kupfer.
Kommt wohl stark aufs Model an. Mein MSI hatte nur eine Heatpipe und nur einen Lüfter. Mein jetziges mit 2 Lüftern und 2 Heatpipes und kühlt dadurch wesentlich besser.
So dicke Monster gibts heute auch noch:
Hat 4 Lüfter und zig Heatpipes und kühlt auf Dauer 75 Watt auf der CPU +165 Watt auf der GPU weg. Im maximalem Stress-Test natürlich sehr laut, würde mir Tests wünschen welche die Lautstärke auch in mittlerer Last messen oder während Gaming, da dort eigentlich keine 100% Auslastung von CPU und GPU dauerhaft vorliegt.
Alternativ gibts auch Wasserkühlung im Laptop, auch wenn das die Portabilität etwas drückt.

Hat halt Vor- und Nachteile, aber ich finde insgesamt haben sich Gaming Laptops in den letzten 10 Jahren doch eher sehr positiv entwickelt.

Btw, cooles Profil-Bild!
 
Intruder schrieb:
mal gucken was wir machen, wenn die ersten Konsolen raus kommen, die 600 Watt und mehr benötigen 🥳
Wird wohl wieder auf bestes FPS/Watt-Verhältnis hinauslaufen, also maximal 200Watt. Trotzdem ist das Thema mit der XSX für mich durch.
 
Für mich wirds wohl die 4060 werden, die hoffentlich 12 GB RAM hat, und höchstens 200 Watt verballert (man wird ja noch träumen dürfen :-)).
 
GERmaximus schrieb:
Ja richtig.
Im Umkehrschluss wird die 90er Karte als ihr volles "Potential" also nur mit massiv mehr Powertarget entfalten
So schaut es zumindest aus das Gehäuse wartet nur drauf 800W kein Thema.
F06DCC7F-B968-4B46-A424-AE00CD612565.jpeg
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus
GERmaximus schrieb:
Hast du bis jetzt in jeder Generation bekommen und wirst du auch wieder.
Der einzige Unterschied ist, das früher eine 170Watt Karte eine 1070/1080war und nun eine deutlich niedrigere Klasse (Name).

Habe das Gefühl das du das mit der Effizienz nicht ganz verstehst, oder es kommt falsch rüber!
170 Watt mit einer 1000er Karte, liefert nur ein Bruchteil an Leistung, wie eine 3000 oder 4000er Karte mit 170Watt. Du musst dir halt nur wieder eine 170Watt Karte kaufen und dich nicht vom Namen blenden lassen


Hätte ich auch gern, so wie Benzin wieder für 1,2€ den Liter
Also soll ich mir diesen Speicherkrüppel kaufen, da die Mittelklasse jetzt die Unterklasse ist? Nein danke! Ich weiß ganz gut was Effizienz bedeutet, nur gehört da auch mehr dazu. Ich weiß auch, was Inflation bedeutet und das Sachen teurer werden, ich verstehe aber auch, das wenn die Gewinne, bei ca. gleicher Anzahl an Verkäufen, verdrei oder gar vervierfacht wurden, das die Marge gestiegen ist. Das kann ich aber nur erreichen, wenn ich mehr nehme als das was durch die Inflation hinzugekommen ist.
 
  • Gefällt mir
Reaktionen: Fenkel und GERmaximus
GERmaximus schrieb:
mit 10gb Vram?
Also die 12 GB meiner GPU werden des Öfteren mit 10-11GB belegt (3440x1440)
Weis nicht, ende 2022, eine neue Generation, mit Speicher voll am Limit?

Hoffentlich kommt was gutes von AMD.

Übrigens, diejenigen die den Verbrauch kritisieren:
Die AMD Generation ist in Sachen Effizienz vor Nvidia, evtl. mal beim nächsten Kauf mal ins andere Lager gucken :)
Bei welchen Games denn bitte? Hab aktuell ne 3090 drin diese Woche und find kaum Titel die über die 10GB gehen. Selbst Cyberpunk will in den höchsten Einstellungen keine 12GB VRam haben. Ich hatte auch immer diese befürchtung, aber je mehr Spiele ich mit der 3090 aktuell Teste, umso unsinniger wird die Karte für 1440p Gamer. Und für 4K ist die Leistung halt immernnoch nicht ausreichend imo (ohne DLSS).

Es kommt halt immer auch auf die Engine an die genutzt wird, jedoch sehe ich für (U)WQHD kaum nen bedarf von über 12GB.
 
DieSacknase schrieb:
Jaja...ich weiß ...der Vergleich Golf / Porsche - diese exorbitant teuer erkaufte (PC-)Version ist aber kein Porsche mehr, sondern völlig überbezahlter Stromfresser mit Mehrwert im Homöopathischen Bereich.
Weil eine Konsole und nen Guter OLED in 65 Zoll+ ja auch so viel Günstiger ist als ein PC :daumen:
Aber auf dem 40 Zoll LCD von vor 10 Jahren sieht das alles bestimmt auch Super aus in 720p - 1080p :hammer_alt:
 
DieSacknase schrieb:
Ziemlich traurig bis erbärmlich - Ich stecke das Geld lieber in nachhaltigeres wie Betongold. Daher... herzliches Beileid :p (jaja...wir wissen ja alle das du anderweitig ausgesorgt hast .... )
Ich würde drauf wetten wir finden bei dir auch irgendwas verschwenderisches.

In meinem Bekanntenkreis sind die, die ständig über Stromverschwendung reden z.B. die größten Autotuner. Das halte ich dann im Gegenzug für totale Verschwendung, vorallem wenn es in Richtung höheren Spritverbrauch etc. geht bei den Preisen

Das ist halt immer das Problem mit dem eigenen Wert :D
Ergänzung ()

DieSacknase schrieb:
Ziemlich Salty... Klingt eher wie die heimische Schilderung :freaky:
Hat er denn unrecht? PS5 oder XBSX 500€ Nen Budget 4K TV der einigermaßen Gametauglich is ab 50" aufwärts kostet nochmal das gleiche. Dann vielleicht nen gutes Headset oder entsprechende Audiolösung wo der Preis quasi nach oben unendlich is. Also ich finds gar nicht so abwegig. Dann bist mit ner "Budget" Ausstattung bei ca 1200€. Qualität nach oben mit OLED etc. biste schnell bei 2000€.
 
TigerNationDE schrieb:
Bei welchen Games denn bitte? Hab aktuell ne 3090 drin diese Woche und find kaum Titel die über die 10GB gehen.
Welche Auflösung?

Arma 3
Ultimate Epic Battle 2
No Mans Sky
Hell let loose (?)
neben den anderen Bekannten.
Bei 3440x1440
Und da ich gerne DSR nutze (1.78 und 2.25) komme ich auf eine "5k" Auflösung.
Ergänzung ()

TigerNationDE schrieb:
Es kommt halt immer auch auf die Engine an die genutzt wird, jedoch sehe ich für (U)WQHD kaum nen bedarf von über 12GB.

Ja, aber du kaufst doch nicht nur für die Games von heute?!
 
GERmaximus schrieb:
Hoffentlich kommt was gutes von AMD.

Übrigens, diejenigen die den Verbrauch kritisieren:
Die AMD Generation ist in Sachen Effizienz vor Nvidia, evtl. mal beim nächsten Kauf mal ins andere Lager gucken :)
In der Aktuellen Generation hat AMD auch den Fertigungsvorteil TSMC 7nm vs Samsung 8nm. Nächste Generation setzten beide auf TSMC 5nm. Aber Unabhängig davon: Es lohnt sich immer zu warten bis man Produkte beider Hersteller vergleichen kann um die Karte zu kaufen, welche am besten die persönlichen Ansprüche bedient.
 
Creeper777 schrieb:
Hab so ein ähnliches Setup und es reicht für 4k bei weitem für 60FPS nicht aus.
Hast recht, hab mir grad paar PS5 Videos angesehen, in den meisten Games waren es 30 FPS in UHD, aber paar wie Modern Warfare mit 60 FPS in UHD waren zumindest dabei. Aber wie gesagt, hier geht es um Nvidia 4xxx Karten und die PS5 liegt halt auf 2080 Niveau
und wenn einem das reicht ist doch Top, kann man sich gut Geld sparen, kann man aber mit einem PC mit Hardware aus 2018 auch. Passt irgendwie nicht hierher so ein Vergleich^^
 
Zuletzt bearbeitet:
GERmaximus schrieb:
Und da ich gerne DSR nutze (1.78 und 2.25) komme ich auf eine "5k" Auflösung.
Ergänzung ()



Ja, aber du kaufst doch nicht nur für die Games von heute?!
1. mit DSR kriegst du alles klein.
2. Ich kaufe nicht für Games von morgen, da niemand weiß was kommt.

Idr. kaufe ich jede Generation eh neu. Aus mehreren Gründen.
1. Du bist auf dem neusten Stand.
2. Du kannst deine Karte noch zu nem guten Kurs verkaufen.
3. Du hast idr. nach 2 Jahren noch keinerlei Verschleißerscheinungen und hast idr. noch nicht den unbedingten muss die Karte zu reinigen, vorausgesetzt du hast kein Rechnerinnenleben das einer Müllkippe gleicht und wie in meinem Fall nen Nichtraucherhaushalt (Keine Thermalpaste tauschen etc.)


Mit der 30er Serie fiel das für mich erstmals weg, weil ich (Gott sei dank) die Möglichkeit hatte mehrere Karten zu testen und niemand erahnen konnte das die Preise und seinerzeit die Verfügbarkeit so dermaßen unterirdisch sind :D
 
  • Gefällt mir
Reaktionen: XPS
Kommando schrieb:
Nene, G-Sync ist tot und das ist gut so.
Um es zu pointieren: Alle 1:1 Tests gewinnt GSync. Oder anders formuliert: Es gibt nicht einen Test, in dem eine Freesync Lösung der Gsync Technik 1:1 ebenbürtig oder gar überlegen ist. Andersherum stimmt es.
GSync>Freesync, und es steht jedem frei die dafür erforderliche Deluxe Gebühr für die nur in Details bessere Lösung zu zahlen.

Der Nachteil ist zweifellos, dass man sich hier in das Nvidia Korsett einkauft. Das weiß man aber vorher. Dafür gibts halt noch des Rest des Featuresets on top.

Wenn ich also eine 4090 kaufe, haue ich die an 2 vollwertige GSync Monitore, as it fits best.
 
DieSacknase schrieb:
Warum soll sich der 5k€ PC Inhaber nicht auch noch den 5k€ OLED gönnen, oder warum muss der 500€ Konsolenbesitzer mit selbigem die entartete Schönrechnung des PC-Tarts unterstützen?
Ich bin hier einfach froh, das ich große Bildschirme echt nicht mag. Ich hab aktuell nen 31+ UWQHD am PC und bin mit dem Ding für Spiele schon mega unzufrieden, empfand 27" immer für ideal. (Wie im übrigen auch die meisten competetive Spieler, die agieren nahezu alle auf 24-27")

Am Ende kommt es aber sicher auch auf die Spiele an. Rennspiele sind auf größeren Bildschirmen immer geiler und sicher auch kein Problem, bei anderweitigen competetives oder so sieht es dann deutlich anders aus.

Muss am Ende jeder für sich entscheiden, ich find jedoch dieses Konsole v PC Thema immer total lächerlich. Beide können ihr Geld mit Zuberhör verbrennen wenn sie wollen
 
Zurück
Oben