News GeForce RTX 4090 & RTX 4080: Details zu GPU und TGP der ersten drei GeForce RTX 4000

scootiewolff22 schrieb:
Ich will doch einfach nur eine Geforce 4060 mit 12GB Vram
Wenn du in der Leistungsklasse 12 GB willst, brauchst du nur bei Team rot zu kaufen.

NVidia bringt diese Leistungsklasse erst in ca. einem halben Jahr und in anderthalb Jahren der Leistung entsprechenden Speicher in Form von Ti oder Super. Das hat uns ja die 3000er-Serie gelehrt!
Ergänzung ()

r3ptil3 schrieb:
Wetten dass die Info mit der RTX 4080 12Gb falsch ist und das stattdessen ganz einfach die RTX 4070 ist?
Selbst dann ist die Karte mit einer kolportierten Rohleistung einer 3090 ein Speicherkrüppel.
 
  • Gefällt mir
Reaktionen: PulsarS
r3ptil3 schrieb:
Wetten dass die Info mit der RTX 4080 12Gb falsch ist und das stattdessen ganz einfach die RTX 4070 ist?
Gehe ich auch von aus. Eine X080 nur mit einem 104er Chip wäre ziemlich strange (Wenngleich nicht das erste mal). Auch die restlichen Specs lassen eher auf ne 70er schließen
 
Ich muss mal wieder lachen über die wer schimpft der kauft Beiträge....

Nun mir reicht eine 4080 12GB und ich werde abwarten was Asus und Noctua in der Hinsicht bauen. Da habe ich dann wenigstens ein gutes Gesamtpacket und muss mir nicht wieder einen Custom Kühler drauf schnallen, weil die Karten Eier braten können.
 
iSteven schrieb:
Damals wurde die 3090 ja als Arbeitskarte beworben...
Das ist falsch. Mit PR Videos haben Marques und Linus die 3090 als Gaming GPU inszeniert und präsentiert.

Ja, was die 3090 auch war: Eine Offerte für die Prosumer.
Hier im Forum und generell haben wir fast ausnahmslos Beiträge zur 3090 im Kontext Gamimg.
 
Capthowdy schrieb:
Meine Glaskugel sagt dazu folgendes:
4080 12 GB: $699 --> Man kann einerseits behaupten man hätte den Preis bei der xx80er Serie gehalten, verkauft anderseits aber eine um $200 teurere xx70er
Wenn es eine 4080 12 GB für 700€ gibt, dann geb ich noch Trinkgeld.
 
  • Gefällt mir
Reaktionen: schneeland und Kloin
HerrRossi schrieb:
Ich bin eigentlich nur auf die Preise gespannt.

Meine Vermutung:
4090: $1999
4080 16GB: $1299
4080 12GB: $999
Vielleicht denkt man sich im Marketing von nV folgendes:

4080 ist bis zu xx% schneller und die 4080 startet ab dem gleichen PReis wie die 3080 - 699 USD netto.

Das dürfte dann die 12GB 4080 sein. Die "eigentliche" 4080 liegt dann bei 999 USD netto.
Die 4090 dann bei 1799-1999 USD netto.

Das würde dann in Deutschland / Europa zu folgenden ca. brutto Preisen in Euro führen:

4080 12GB - 699 USD netto - ca. 850 Euro brutto
4080 16GB - 999 USD netto - ca. 1250 Euro brutto
4090 24GB - 1799-1999 USD netto - ca. 2250-2500 Euro brutto

Die RTX 3070 kann man dann weiterhin für rund 600-650 Euro (bzw. 500 USD netto) abverkaufen bzw. die kleineren RTX Karten entsprechend dann für unter 600 Euro.

So kann man die 70er im Preis auf 699+USD erhöhen => einfach eine 80er Karte daraus machen ^^


Anfang 2023 kommt dann die 4070 aka eigentlich 4060 Ti für 499 USD netto und die 4060 Ti aka eigentlich 4060 für 349 USD netto. Bei uns dann ca. 620 Euro bzw. 440 Euro brutto.

Die 4050 Ti, die dann 4060 heußt, liegt dann bei 279 USD bzw. 350 Euro bei uns.


Die Frage lautet da natürlich, wie viel Mehrperformance man erhält.

Von der 2070 zur 3070 waren es ca. 50% (in 2020 zum Launch).
Zur 3060 Ti jedoch "nur" rund +25-30%.

Wenn nV jetzt die Karten eine Klasse höher benennt, dann würde man bei z.B. 3070 zu 4070 eben nicht mehr den großen Performanceplus haben. Da wird man wohl im Marketing hoffen, dass die 4090 so krass positiv aufgenommen wird, dass sich das bis zur kleinsten Karte abfärbt.

AMD sehe ich recht unproblematisch für nV. Selbst wenn AMD (was sie aber eher nicht tun werden) mit "günstigen" Preisen bei RDNA3 daherkommt, sie könnten gar nicht so viel liefern, um dramatisch an Marktanteilen zu gewinnen. Und AMD macht nicht den Eindruck wie damals bei der HD 4000 Serie mit einem aggressiven Preis daherkommen zu wollen. Die wollen auch nur ihre Marge verbessern.

In 6 Tagen sollten wir zumindest etwas schlauer sein :)
 
  • Gefällt mir
Reaktionen: HerrRossi
Wenn ich mir die Kommentare hier so durchlese, wittere ich einen mörderischen Run auf die 4090er.
Alle ausgehungert.
 
bondki schrieb:
Nur für UWQHD absoluter overkill
Witzbold. :D
Meine 3090 wird durch Metro Exodus, Cyberunk und RDR2 eine unter 60 fps GPU, bisweilen eine down to 45 fps drops lahme und überforderte Schnecke.
Das sind bereits 2-3 Jahre (!) alte Games.

Gibt zahlreiche andere Games, das ist die 3090 unter UWQHD bereits nur noch bei 70 oder 75 fps.

Die 4090 wird endlich mal eine angemessene Ultra Settings fps Schubse für meine UWQHD Sessions :)
 
  • Gefällt mir
Reaktionen: t3chn0 und Pisaro
|SoulReaver| schrieb:
Wenn es eine 4080 12 GB für 700€ gibt, dann geb ich noch Trinkgeld.
700 Euro netto, nicht brutto! Der Eurokurs ist einfach brutal abgeschmiert. Dieses Euro zu USD im 1:1 Verhältnis funktioniert nicht mehr. Jetzt kann man grob sagen => USD = NETTO Europreis. Plus die Mehrwertsteuer, die da noch drauf kommt.

Das wird noch, gerade in Deutschland, für viel Frust und Verwunderungen sorgen.
 
  • Gefällt mir
Reaktionen: feris
W0dan schrieb:
Die 4060 wird es kaum schaffen die 3060ti zu schlagen, dafür ist die 4090 doppelt so schnell wie die 3090.
Das sehe ich auch so kommen.

Der große Sprung, den diese Generation bietet wird im Enthusiasten-Bereich sein, wo man die Preise nochmal deutlich anzieht und bei den Karten für die Masse werden die Preise wohl stabil, dafür aber die Leistungssprünge nur moderat werden. Für ein lohneswertes Upgrade muss man dann eine Preisstufe höher gehen (also von 3060 auf 4070 etc.).

Eine 4060 müsste ja schon irgendwo bei < 30 SM liegen
 
Kommen die Karten eigentlich schon mit PCIe 5.0 oder noch mit 4.0? Oder ist das noch nicht raus?
 
maximus...
Nun mal sehen wie die Preise dann wirklich sind. Meine 1080 Elite geht noch gut. Ja ein Schub wäre wieder mal ned schlecht muss man schon ehrlich sein. Aber nach der langen Zeit habe noch eine andere 1080 TI würde ich sagen kann man wieder mal schauen ;)
 
Redirion schrieb:
Das ist doch nichts neues. In der noch aktuellen Generation gibt es das bei der RTX 3080, davor gab es das bei der RTX 2060 und davor wiederum bei der GTX 1060 und GTX 1050.
Wäre mir neu, dass bei den letzten paar Generationen namentlich gleiche Modelle gab, die aber unterschiedliche Ausbaustufen des Grafikchips verbaut hatten.
Die letzte Generation, bei der ich mich an sowas erinnere, war die GTX 200er, wo es von der GTX 260 zwei verschiedene Modelle gab - einmal mit 192 Streamprozessoren + 64 Textureinheiten (GT200) und einmal mit 216 + 72 (GT200b).
 
  • Gefällt mir
Reaktionen: bulldozer1
Hoffentlich haben die Karten dann auch eine anständige Hashrate. Oder habt ihr gedacht die neue Kartengeneration ist für Gamer oder Leute, die die beruflich brauchen:evillol::evillol::evillol::evillol::evillol::evillol::evillol::evillol::evillol:.
HerrRossi schrieb:
Kommen die Karten eigentlich schon mit PCIe 5.0 oder noch mit 4.0? Oder ist das noch nicht raus?
Hatte ich weiter oben auch schon gefragt. Wird wohl 4.0 sein.
 
super Bursche 😁 immer her mit den Infos.

Dat gibt einen deftigen shootout mit den Roten, NV packt schon mal das schwere MG aus 👍👌
 
  • Gefällt mir
Reaktionen: MuhKalb
engineer123 schrieb:
Dat gibt einen deftigen shootout mit den Roten, NV packt schon mal das schwere MG aus 👍👌
Wo siehst das fette MG?
Ich seh nur die Fake Wasserpistole....

@mibbio

RTX3080 10GB und 12GB hatten unterschiedliche Shader und Speicherinterface ausbauten.
Wenn auch nur minimal.
 
4080 12GB: 699-799€
4080 16GB: 999-1099€
4090: 1699€ - 1899€
 
Die Namensgebung wird immer konfuser.
Ne 4080 mit 2 sehr unterschiedlichen Leistungsklassen.

Besser wäre man beim Schema: Titan, 4090, 4080 geblieben, statt 4090, 4080Schnell, 4080Langsam.
 
Kazuya91 schrieb:
Da muss ich dir recht geben. AMD hat sowas nicht abgezogen.

6600XT: 8GB VRAM
6700XT: 12GB VRAM
und ab 6800 16GB VRAM.
So muss es sein. Diese psychologischen Spielchen sollten boykottiert werden.

Grundsätzlich fand ich die RAM-Bestückung bei AMD auch viel sinnvoller gewählt... und dann haben sie alles mit einem getarntem mobilen Chip mit 4GB RAM im Jahr 2022 vermasselt.
 
Zurück
Oben