News GeForce RTX 4090 & RTX 4080: Details zu GPU und TGP der ersten drei GeForce RTX 4000

|SoulReaver| schrieb:
Wenn es eine 4080 12 GB für 700€ gibt, dann geb ich noch Trinkgeld.
Tut mir leid, aber eine 4080 mit 192bit und 12GB wäre lächerlich und gehört nicht belohnt.
 
  • Gefällt mir
Reaktionen: danyundsahne, PulsarS, Stellarix und 6 andere
Tornavida schrieb:
@danyundsahne

das ist ja mal Unsinn, von wegen gleichwertig, die NV Karten sind nun mal grösstenteils besser gewesen,
Wo genau waren die NV Karten jetzt nochmal besser?
Tornavida schrieb:
dazu die erheblich bessere Miningleistung was der Hauptgrund des höheren Absatzes war/ist.
Mining hat für mich nichts mit Gaming zu tun, weiß nicht was du dir da aus den Fingern saugst.
Mining zähle ich nicht zur Verbreitung unter Gamern. Sorry
 
Die RTX 4080 16GB klingt schon reizvoll als Aufrüstoption für meine alternde GTX 1080Ti (die ein großartiger Griff war). Allerdings nur, wenn es eine Version geben sollte, die höchstens 3 Slots belegt und sich bei geringem Leistungsverlust undervolten lässt. Ansonsten eignet sich die Karte nicht für einen Umzug meines Builds vom Ghost S1 ins FormD T1 V2. Interessant dürfte auch die Frage werden, wie gut die RTX 4080 12GB trotz der Beschneidungen performt. Diese Karte käme für mich ebenfalls in Frage und eventuell wird es auch 2-Slot-Varianten geben, die ins Ghost S1 passen.
 
Ich finde es lustig, dass viele hier von einem 'mörderischen Run' auf die Karten, insbesondere auf die 4090, ausgehen.

Ich denke die paar, die NV zum Launch hat, werden sich schon verkaufen, aber wenn sich die Preise jenseits der 2000 € bewahrheiten- wer kann das denn in der kommenden Krise bezahlen?
Wer soll denn die Mengen an Karten kaufen, wenn es um Tankrabatte und das Absinken der Mittelschicht geht?

Durch diese Preise wird das Spielen am PC nur noch nischiger als bisher, ich kann das nahende Ende schon sehen.
Wir können alle fleißig schon mal mit dem Controller üben oder uns an die Mobile Games gewöhnen. Ich jedenfalls kann und werde keine 2 Riesen locker machen für ein Hobby, was zunehmend durch schlechter werdende Ports immer mehr monetären Einsatz fordert um angenehm zu bleiben.

Schade!
 
  • Gefällt mir
Reaktionen: FLCL und Cordesh
OZZHI schrieb:
Tut mir leid, aber eine 4080 mit 192bit und 12GB wäre lächerlich und gehört nicht belohnt.
Sowas gehört endlich mal boykottiert. Was anderes kann man schon gar nicht mehr sagen.

Aber die Wahrheit ist, dass die Kundschaft wie Lemminge ihr Geld Nvidia in den Rachen werfen. Fast egal was die machen...egal wie dreist die Preise erhöht werden...NV macht Rekordgewinne seit Jahren.
 
Endlich eine neue Heizung im PC
 
  • Gefällt mir
Reaktionen: Queediab und qmanone
@puppy123

oder man spielt einfach seine Games die man gerne hat mit Freunden weiter und hat weiterhin Spass. Darum gehts doch letztendlich. Auf schlechte Zeiten folgen Gute.
 
  • Gefällt mir
Reaktionen: puppy123
Es war (und ist) eigentlich schon seit jeder Tradition, dass die mittlere Karte ziemlich genau die Hälfte der High-End Karte hat und dafür mit nen 6er gekennzeichnet wird:

Ati Radeon 9600 50% vs Radeon 9800 100%
Nvidia 1060 50% vs Nvidia 1080Ti 100%
usw. usf.

Schlussfolgend müsste die kleine 4080 eigentlich ne 4060 sein.
--
Falls das nicht möglich ist, plädiere ich dafür:

4090 = Ti4600
4080 16GB = Ti4400
4080 12GB = Ti4200
Darunter = MX460 - MX420
 
Gimli2k schrieb:
Eventuell doch wakü mit wirklich nur dem was nötig ist?
Also alles ausser CPU Block und evtl einem Radiator. Wird bestimmt total günstig ;-)
 
  • Gefällt mir
Reaktionen: TobiD79
Ich denke, dass es Nvidia mit der 4000er Generation sehr schwer haben wird, selbst wenn es gute Karten werden:
  1. Der Markt ist durch den irrsinnigen Krypto-Hype und die Corona-Zeit (in der ohnehin jeder Zocker seine Hardware aus Langeweile aufgerüstet hat) der letzten beiden Jahre noch gut gedeckt.
  2. Es gibt keine neuen "PC-Systemseller-Spiele", die den Kauf einer neuen 500+€ Karten rechtfertigen würden und es ist auch nichts am Horizont diesbezüglich erkennbar. Wer jetzt ne gute Karte hat, braucht nicht aufzurüsten.
  3. Durch Zukunftsängste (Inflation, Kriege, sonstige Krisen) wird die Kaufbereitschaft für neue Karten beim Kunden stark reduziert sein, zumindest in Europa.
 
  • Gefällt mir
Reaktionen: PulsarS, Floeffy, Nordbadener und 2 andere
puppy123 schrieb:
Durch diese Preise wird das Spielen am PC nur noch nischiger als bisher, ich kann das nahende Ende schon sehen.
Wir können alle fleißig schon mal mit dem Controller üben oder uns an die Mobile Games gewöhnen. Ich jedenfalls kann und werde keine 2 Riesen locker machen für ein Hobby, was zunehmend durch schlechter werdende Ports immer mehr monetären Einsatz fordert um angenehm zu bleiben.

Schade!
Bevor ich dauerhaft an die Konsole gehe werde ich gar nicht zocken und Handy ist zwar der größte Markt, aber das sind mehrheitlich Dulligames mit Pay to Win.
 
Finde ich nicht gut dass die RTX 4800 12G so benamt wird. Wenn der Chip ggü. der 4800 16G beschnitten ist muss das meiner Meinung nach an der Modellnummer erkennbar sein, also RTX 4700 oder ähnliches. Warum macht Nvidia das? Zahlen und Kürzel wären ja wahrlich genug vorhanden ...
 
just_fre@kin schrieb:
Es gibt keine neuen "PC-Systemseller-Spiele", die den Kauf einer neuen 500+€ Karten rechtfertigen würden und es ist auch nichts am Horizont diesbezüglich erkennbar.
Auch wenn ich dir in den anderen Punkten zustimme, dabei nicht.
Erstens kommt es mal darauf an, was man bereits verbaut hat und wie lange die neue Karte halten soll und zweitens gibt es immer AAA Spiele, die nicht groß und lange vorher angekündigt werden.
Vor dem Hintergrund ist besonders die neue UE5 ein Faktor, der viele eher alte Karten schreddern wird. Kaum ein Spiel bisher nutzt die Engine und der Sprung wird ziemlich groß nach allem, was ich bisher gesehen habe. Außerdem fallen mir schon jetzt einige Spiele ein, die eine 4000er sicherlich ausreizen werden.
 
Hatsune_Miku schrieb:
Und schon habe ich wieder keine lust mehr auf ne nvidia Karte. Das durcheinander von der 30x0er reihe soll wohl bei der 40x0er reine eins zu eins so weitergehen. Alleine schon wegen der tatsache das nvidia eine 3080 mobile mit 16GB hat sollte einem doch zu denken geben wie der laden die kunden !an der nase herumführt" ums mal nett auszudrücken.
Wie dem auch sei 12GB für eine 4080 sind und bleiben viel zu wenig. Ich spiele hier und da games da sind dann auch mal 12gb und mehr von meinen 16 belegt. Bisher komplett ausgereizt das sogar windows den Ram zum auslagern nutzen musste schaffte ich bisher nur in HL-Alyx und VRchat.
Ich hoffe AMD bringt wieder das interessantere produkt auf den markt.
Zock mal FS2020 in 4K mit maxed out Settings. Da bekomme ich die 16GB easy voll und bereue jedes Mal den Verkauf meiner 3090.
 
Meine Vorahnungen gehen in die Richtung das mit straffem UV in Regionen wohl von 280 bis 350w zu Rechnen ist, und wie üblich die selbst bei "Popelspielen" voll verbraucht werden, allein schon vom Vram der seine Power will. Für Normalspieler völlig unbrauchbar, wer will für Minecraft oder Fortnite solche Stromfresser haben, wo die Spielstunde bald "zusammengespart" werden muss.

Oder man begrenzt neben UV wieder auf 60hz, was daß ganze noch paradoxer macht. Ich denke die 4000er werden selbst vielen Hardcorer am Hintern vorbeigehen, nicht nur wegen den wieder absurden Preisen und dem enormen Stromverbrauch der bei vielen längst an der "Schmerzgrenze" durch ist. Der Markt wird erstmal mit dem ganzen Überangebot der 3000er Reihe, die bald masssiv im Preis fallen werden vorerst gesättigt werden. Hier in der EU, besonders im StromlosdurchdieNachtGermany werden die Absatzzahlen wohl eher sehr bescheiden sein.

Immer mehr Kunden fragen längst nicht mehr nach Leistung, sondern nach Effizienz und Stromsparend, und das zunehmend intensiver. Kein Wunder, bei sagen wir im Schnitt 500W [Gaming] allein für die Grafikkarte sind in 2 Stunden Gaming schon ne Kilowattstunde weg.

Ich glaube also nicht das mit der neuen Gen das Lemminge - Verhalten erneut zu Tage tritt, zudem gar keine Games für die neue Gen vorhanden oder in Sicht sind. Bedenkt man wie allein der Spielemarkt verschoben wurde durch Corinna, ist bis dahin längst neue Technik da, die sich, wie ich vermute, dann durch die Energiekriese [die sich Global ausweiten wird] eher in Richung Effizienz als an Leistungssteigerungen orientiert.
 
Zuletzt bearbeitet:
MasterWinne schrieb:
Immer mehr Kunden fragen längst nicht mehr nach Leistung, sondern nach Effizienz und Stromsparend, und das zunehmend intensiver. Kein Wunder, bei sagen wir im Schnitt 500W [Gaming] allein für die Grafikkarte sind in 2 Stunden Gaming schon ne Kilowattstunde weg.
Wow ganze 22 Cent, 31 Cent ab Dezember bei mir. Selbst wenn es 40 Cent bei den meisten sein werden, im Verhältnis zu Anfangs 2000€ für die Karte, dürfte das kaum eine Rolle spielen.
 
NVidia baut mit dem AD102 wahrlich einen Monster-Chip, der neue Maßstäbe setzt, keine Frage. Da er monolithisch gefertigt und sehr groß ist, macht ihn das aber auch entsprechend teuer.

AMD wird mit dem Chiplet-Ansatz preislich locker mithalten bzw. günstiger produzieren können.
Insofern ist es spannend inwieweit Navi31 auch leistungsmäßig wird dagegen halten können. Rein technisch steigt die Compute-Leistung bei den AMD-Chips ja wohl sogar stärker als bei Ampere:
*Compute Units:
AD102 16384 vs GA102 10496 => x1.56
N31 12288 vs. N21 5120 => x2.40
*Taktrate:
AD102 2.520 vs GA102 1.695 => x1.48
N31 >=2.700(?) vs. N21 2.435 => x1.11

=> Compute-Leistung
AD102 vs. GA102: x2.33
N31 vs. N21: x2.66
(Quelle: techpowerup.com)

Sollte die Taktrate bei Navi31 gar die gemunkelten 3Ghz überschreiten, würde die Compute-Leistung sogar um den Faktor 2.95 steigen.
Das allein sagt natürlich noch nichts über die tatsächliche Render/Raster/Raytracing-Performance aus, ist aber ein erster Fingerzeig, dass AMD sich nicht fürchten muss.
Und auch beim Stromverbrauch wird es interessant sein zu sehen, ob die 450 Watt der 4090 angemessen sind, oder ob die Konkurrenz eine höhere Perf/Watt wird bieten können.

Kaufen werde ich keine der Karten, finde die rasante Entwicklung auf dem Sektor aber spannend zu verfolgen.
 
  • Gefällt mir
Reaktionen: danyundsahne
mein Netzteil hat nur 450W :D

das heizt so richtig schön den Raum auf... viel Spaß damit🔥


Habe mir letztens erst eine 3070 FE gekauft und mich gegen eine 3060ti entschieden. Bei gleichem Verbrauch (undervoltet) läuft die 3070 doch noch schneller :) (530€ custom 3060ti vs 555€ 3070FE stand zur Wahl)
 
  • Gefällt mir
Reaktionen: danyundsahne und Vitec
die großen monolithen auf diesem fertigungsprozess sind halt nicht billig, wird man sehen müssen. zum preis kam ja nich nichts.

das labeln mit gleichem namen und verschiedenen ausbauten bleibt sicherlich nicht so. evtl sehen wir hier die 70(ti) und die 80. wer weiß. überschneidungen in datenbanken sind jedenfalls nichts ungewöhnliches vor release. besonders wenns vorher noch keine vorstellung gab
 
Zurück
Oben