News Nvidia: Riesiger Kühler der GeForce RTX 3090 FE fotografiert

Trinoo schrieb:
Erste Ankündigung
Neue KarteNachfolger vonSpeicherausbauSpeicherinterfaceErscheinungsdatum
RTX Titan (2nd Gen)RTX Titan (1st Gen)24 GB GDDR6X384 BitZweite Septemberhälfte
RTX 3090RTX 2080 Ti20 GB GDDR6X320 BitErste Septemberhälfte
RTX 3080RTX 208010 GB GDDR6X320 BitErste Oktoberhälfte
RTX 3070RTX 2070 8 GB GDDR6X256 BitZweite Oktoberhälfte
RTX 3060RTX 2060 8 GB GDDR6X256 Bitmarch 2021
Macht soweit schon Sinn, bzw. klingt plausibel. Allerdings sehe ich noch folgendes "Problem": Die 3080 und 3090 würden hier auf ein identisches 320 Bit SI setzen. Wenn sie dabei auf den selben Chip setzen, ist die 3090 nur eine übertaktete Variante der 3080. Bei der 3080 mehr Ausführungseinheiten zu deaktivieren, das SI aber wie bei der 3090 lassen hört sich nicht nach optimaler Ausnutzung an. Die 3090 wäre also die 3080 20GB Edition. Da dann noch eine 3080 Ti mit 16GB im Sommer dazwischen schieben?!
Außerdem hätte man dann 1070, 2070 und 3070 mit 8GB RAM, wüsste nicht wann man das über drei Generationen mal beim gleich großen Speicherausbau belassen hat. Erschwerend kommt da noch hinzu, dass eine 3070 wohlmöglich deutlich teurer als eine 1070 damals sein wird. Wenn man von 650€ inkl. Steuern für die 3070 ausgeht, sind das gut 40-50% mehr als eine 1070 vor 4 Jahren. Leistungsmäßig würden einer 3080 wohl gut 16GB RAM stehen, einer 3070 wohl eher 12GB. Das ist natürlich jetzt sehr spekulativ, da die Rohleistung natürlich noch nicht bekannt ist. Lassen wir uns überraschen, es wird spannend. Vor allem auch wenn AMD ein paar Infos preis gibt.
 
  • Gefällt mir
Reaktionen: Trinoo
Wadenbeisser schrieb:
@IXI_HADES_IXI
Ich wäre mir aber nicht so sicher das du die ca. 20% Differenz per OC rausholst denn bei der 2070 Super erhöhte man nicht nur den Takt sondern wechselte auch noch vom TU106 der 2070 auf den TU104 der 2080, wenn auch in stärker beschnittener Form.

Ist mir bekannt. Ich nehme jetzt einfach mal den CB Benchmarktest als Vergleich.

Normale 2070:
2070.jpg


Die unteren 2070 Super Ränge:
2070 Super.jpg


Quelle

Die Topkandidaten erreicht man natürlich nicht, logisch, aber eine "normale" 2070 Super durchaus. Die 2080 Super und die normale unterscheiden sich kaum, da die 2080 eine stärkere Bremse von der Anbindung her hat...

Wie gesagt, interessanter finde ich wo sich die neue 3070 einordnen wird.
 
@IXI_HADES_IXI

Ja die 2080 und die 2080 Super trennten in den Benchmarks nur ca. 5% allerdings lagen zwischen den beiden "Super" Variationen auch nur noch ca. 13%. Die ursprünglichen Modelle trennten hingegen ca. 30%.
Genau deshalb passt auch die Ursprüngliche aussage " RTX 2070 ungefähr auf Höhe der 1080 TI ... " nicht weil das nur auf die "Super" Variante zutrifft.


@Midium

Da sehe ich kein sonderliches Problem denn die Breite vom Speicherinterface sagt herzlich wenig darüber aus wie sehr der Rest vom Chip beschnitten wurde.
 
Also so knapp der doppelte Speed eine 1080ti mit der 3090. Für den doppelten Preis einer 1080 Ti. Klingt nach wahnsinningem Fortschritt. Wenigstens gibts viel Kühler und weniger Stromverbrauch fürs Geld.
 
  • Gefällt mir
Reaktionen: ahuev0, Mracpad und OR4LIFE
Trinoo schrieb:
Ich denke auch das die 24 GB sicher der neuen Titan vorbehalten sein werden, denn niemals springt Nvidia von 11 GB (RTX 2080 Ti) auf 20 GB oder von den bisherigen 8 GB (RTX 2080) auf 20 GB...
Bis zu Turing wurde beim Big Chip immer eine Verdopplung des Speichers durchgesetzt. Turing war nur die Ausnahme bzw. das Equivalent zum Standgas. Sie haben ja keine Konkurrenz.

Wenn man die Geschichte ansieht hätte die 2080 Ti 22GB haben müssen. Deshalb wird es langsam Zeit, dass hier Bewegung rein kommt. Mit oder ohne AMD.
 
  • Gefällt mir
Reaktionen: OR4LIFE
OZZHI schrieb:
Wenn man die Geschichte ansieht hätte die 2080 Ti 22GB haben müssen. Deshalb wird es langsam Zeit, dass hier Bewegung rein kommt. Mit oder ohne AMD.

Denke mit minimum 10 bis maximal 16 GB ist man heute immer noch relativ gut aufgestellt in UHD. 22 GB wären Overkill gewesen für Games. Nicht alle Games sind so VRAM-hungrig wie zum Beispiel Horizon Zero Dawn.

Zumal wäre Turing wahrscheinlich nochmals um einiges teurer geworden als sie es ohnehin schon sind/waren.
 
IXI_HADES_IXI schrieb:
Mittlerweile ist in vielen Spielen eine 2080 durchaus etwas schneller als eine 1080 TI.

Die Pascal GPUs haben zunehmend an Boden verloren unter DX12.
Das hatten wir aber ja alle schon erwartet.
Ich erinnere mich an den The Division 2 als die 1080TI direkt mal 10 bis 12% auf die 2080 verloren hatte, und es gibt bestimmte Games, da packt die 1080Ti nicht mal mehr die 2070 Super fps.
 
If recent rumours are to be believed, Nvidia's RTX 3090 will feature 24GB of GDDR6X memory, though 12GB models are not out of the question.

Eventuell heben sie sich diese 12GB Version für AMD auf, falls die doch etwas Gutes und vor allem etwas günstigeres im Petto haben sollten mit vergleichbarer Leistung. :D

Heißt bei Release Vollgasmelken und falls billigere Konkurrenz kommt, dann doch etwas im Hinterhalt haben um den Preis senken zu können...
 
IXI_HADES_IXI schrieb:
Eventuell heben sie sich diese 12GB Version für AMD auf, falls die doch etwas Gutes und vor allem etwas günstigeres im Petto haben sollten mit vergleichbarer Leistung
ich hab das son gefühl das alle die sich in einigen wochen eine 3070 mit 8? gb ram kaufen kurz nach amd´s graka release in den a*** gef*** werden....
weil nvidia dann eine 3070 mit 12 gb raushaut die nahezu genauso teuer ist wie die 8gb version :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Hardwarious und Cpt.Willard
Wadenbeisser schrieb:
Genau deshalb passt auch die Ursprüngliche aussage " RTX 2070 ungefähr auf Höhe der 1080 TI ... " nicht weil das nur auf die "Super" Variante zutrifft.
Heute sind das nur noch gut 10% Rückstand, keine 20% mehr, wie zum Launch. Es ist nur eine Frage der Zeit wann die 1080 Ti hinter 2070 und 5700XT zurückfällt.
 
@KlaraElfer

Problem ist das sich kaum noch Testergebnisse mit der normalen 2070 finden lassen, ich glaube deren Platz hatte die wohl 2060 Super eingenommen.
Bei einigen neuen Spielen ist die 1080Ti bereits hinter die VII und 5700XT zurück gefallen.
Hier habe ich den Eindruck als wenn Vega und Co. auch dort profitiert wo Turing sich von Pascal absetzen kann.
 
https://www.pcgamer.com/msi-registers-nvidia-ampere-graphics-cards/

"MSI has just registered 29 Nvidia Ampere graphics cards"

Bedeutet nicht, dass sie wirklich auch 29 verschiedene Ampere GPUs im Portfolio haben werden, vieles sind Platzhalter:

"Now, while there are 29 different codes in this listing—14 for V388, 11 for V389, and just four for V390—that doesn't automatically mean that MSI is going to be dropping 29 different Nvidia Ampere cards at launch next month. It's likely that MSI is simply registering the codes now in preparation for further launches down the line, as well as the initial RTX 3090, RTX 3080, and RTX 3070 releases in September."
 
Rumguffeln schrieb:
ich hab das son gefürhl das alle die sich in einigen wochen eine 3070 mit 8? gb ram kaufen kurz nach amd´s graka release in den a*** gef*** werden....
weil nvidia dann eine 3070 mit 12 gb raushaut die nahezu genauso teuer ist wie die 8gb version :D

Die Frage, die ich mir stelle: Wieviel dedizierter Grafikspeicher wird für die nächste Gen wirklich benötigt?
Soweit ich das sehe gibt es aktuell eigentlich keinen Titel der wirklich mehr als 6 GB VRAM benötigt (in 4K wohlgemerkt - ohne Mods natürlich).
Ist es wirklich sinnvoll mehr als 10-12 GB zu kaufen, nur weil Konsolen insgesamt 16 GB shared Ram haben?
 
IXI_HADES_IXI schrieb:
Denke mit minimum 10 bis maximal 16 GB ist man heute immer noch relativ gut aufgestellt in UHD. 22 GB wären Overkill gewesen für Games. Nicht alle Games sind so VRAM-hungrig wie zum Beispiel Horizon Zero Dawn.
Berechtigter Einwand. Hat im High End jedoch keine Bedeutung, wie ich finde. Für die Midrange Karten wie der 3060 kann man das gerne so handhaben und optimalerweise Speichererweiterungen für 50-150€ verkaufen. Wurde ja früher auch gemacht.

Besser haben und nicht brauchen als umgekehrt. Aktuell habe ich sehr oft 10-11GB belegten Speicher und muss mich deshalb bei jedem Framedrop fragen, ob es mit 20-24GB nicht passiert wäre.

Aktuell weiss ich aber nicht was ich glauben soll. Gut möglich, dass die höchste Karte eine Titan wird und die 3080 mit 10/20GB einen auf GTX 780 macht. :)
 
nein, alles über 12 GB... gut, sagen wir maximal 16 GB, ist für den "ganz normalen" Gamer absolut unnötig, wobei 16 GB schon echt unnötig ist eigentlich.
Die Spiele werden für die Masse produziert und nicht für die 2% Gamer die nen Pixelschubster jenseits der 1k Euros haben... also müssen sie auch auf der durchschnittlichen Gpu laufen. Selbstverständlich kann man HD und UHD Texturen als DLC oben drauf packen, ich bezweifle jedoch stark das es Texture Packs geben wird die aus 8 GB Verbrauch plötzlich 16 GB oder gar 20 GB Verbrauch zaubern.

Die Käufer verlangen eben viel Vram, also wird er drauf gepackt... nicht weil es nötig ist, sondern weil Menschen immer mehr und mehr haben wollen. Brauchen tun sie es nicht, es ist möglich und bringt zusätzliches Geld ein, deshalb wird die Gier bedient.

Sieht man ja an der Kernanzahl bei Intel vs AMD... ob nen Spiel davon profitiert oder nicht, kaum sehen Spieler "ey Digga, der hat ja 2, nee sogar 4 Kerne mehr Alter! take my moneeeeeeeeey "... schaltet das Hirn ab und es wird gekauft. Dass das Spiel am Ende genauso gut oder sogar schlechter läuft ist ja egal, denn man hat ja mehr Kerne!

Jetzt kommt gleich wieder irgendwer der nen 8k Monitor hat, mit dem Stuhl aus echten Angora T-Rex-Leder hin und herrollen muss um das ganze Bild einsehen zu können, die 64 GB System Ram voll auslastet und trotz der 2 RTX Titans nur 27 Fps in Game XY hat... schön und gut, juckt nur keinen, denn es geht um die Kunden mit der stärksten Kaufkraft... nicht um dich ;)
 
  • Gefällt mir
Reaktionen: xexex
Trinoo schrieb:
nein, alles über 12 GB... gut, sagen wir maximal 16 GB, ist für den "ganz normalen" Gamer absolut unnötig, wobei 16 GB schon echt unnötig ist eigentlich.
Kommt drauf an wie man das betrachtet. Da 16GB mit 320 oder 384bit nicht möglich sind, muss man zwangsweise höher gehen. Wenn sie das nicht tun und bei den mickrigen 8 & 12GB für die "nomralen" Karten bleiben, haben wir drei Generationen lang einen technischen Stillstand. Ich verstehe nicht wie man sowas zelebrieren kann.

Erinnert mich ein wenig an Bill Gates und seinen ewig aussreichenden 640KB Arbeitsspeicher. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnnyTexas
Trinoo schrieb:
Die Käufer verlangen eben viel Vram, also wird er drauf gepackt... nicht weil es nötig ist, sondern weil Menschen immer mehr und mehr haben wollen. Brauchen tun sie es nicht, es ist möglich und bringt zusätzliches Geld ein, deshalb wird die Gier bedient.
Was die Kunden / Käufer wollen hat doch Nvidia nie interessiert. Man hat nur den Grafikkarten mehr VRam spendiert, weil es AMD damals vorgemacht hat. Bei Nvidia bin ich damals mit meiner GTX 970 und 3,5 GB VRam unterwegs gewesen, da hatte AMD schon 8GB VRam bei den Grafikkarten. Und je mehr Zeit ins Land zog, hat sich immer deutlicher gezeigt, wer wenig VRam mitgekauft hat, kauft zweimal!

Trinoo schrieb:
Sieht man ja an der Kernanzahl bei Intel vs AMD... ob nen Spiel davon profitiert oder nicht, kaum sehen Spieler "ey Digga, der hat ja 2, nee sogar 4 Kerne mehr Alter! take my moneeeeeeeeey "... schaltet das Hirn ab und es wird gekauft. Dass das Spiel am Ende genauso gut oder sogar schlechter läuft ist ja egal, denn man hat ja mehr Kerne!
Hätte AMD nicht mit Ryzen endlich Intel mal in den Arsch getreten, was Kerne bei den CPUs angeht, würden wir heute doch immer noch mit 4 und 6 Kernen mit oder ohne HT durch die Gegend laufen.

Und was "take my moneeeeeeeeey" angeht, da ist ja Intel immer noch der absolute Primus, da kaufen die Kunden ja sogar ein MB mit einer CPU, die eigentlich überhaupt nicht dafür gemacht ist. Nur um die Zeit zu überbrücken, bis die richtige CPU Verfügbar ist, so lange kann man dann ein MB mit stillgelegter Hardware nutzen, weil die CPU nicht über die benötigten Lanes verfügt. Das muss man auch erst mal hinbekommen, da hat das Hirn bei den verantwortlichen bei Intel schon lange abgeschaltet!
 
  • Gefällt mir
Reaktionen: Trinoo
Zurück
Oben