News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Nvidia kann sich bei Turing nicht dazu herablassen, auch nur ein MB VRM draufzupacken und nun gleich so ein großer Schritt? Das ist strange...
 
  • Gefällt mir
Reaktionen: Pulsar77 und Exit666
edenjung schrieb:
Eine Mischung aus Bauchgefühl, der entwicklung der letzten Jahre und meiner Quelle Katalog Glaskugel.
Ansonsten sind die Zahlen nur so ein Richtwert. So +/- 200Euro.

Die letzten Jahre haben den ganzen Markt massiv verteuert. Und bei so einer ausstattung sehe ich die preise in die höhe schnellen.

Danke für die Aufklärung. :)
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Zergra schrieb:
Quark, das geht so einfach gar nicht. Die Titan ist der GA102 Vollausbau mit 48GB Speicher.

Und die wird dann bei >2k angesiedelt sein. Entgegen mancher Aussgen, bezweifel ich, dass die 3080ti bei 2k angesetzt wird. Ich schätze irgendwas zwischen 1,5k-1,9k.
 
Immer diese Speicherdiskussion. In meinem ganzen Leben hatte ich noch nie den Fall, dass der Speicher auf meiner Grafikkarte ausgegangen wäre. Vorher geht immer der GPU die Luft aus! Vielleicht bei Frameraten von unter 20 kann dann zusätzlich der Soeicher knapp werden, aber dann hat man eh andere Probleme. Die ganzen AMD Karten mit doppelt so großem Speicher waren dann doch immer langsamer als das entsprechende Nvidia Gegenstück. Speicher bringt halt keine Performance. Selbst mit meiner 970 konnte ich viele Jahre ohne Probleme spielen und habe nie etwas von den „fehlenden“ 500 MByte gemerkt.
Und Machine Learning lass ich nicht gelten als Argument - dafür holt man sich keine Consumerkarte wenn man das ernsthaft macht.

Also ich bin schon gespannt auf die Benchmarks und prophezeihe, dass es keine Performance Unterschiede geben wird zwischen den Karten mit oder weniger Speicher - vielleicht ist das in 3-4 Jahren relevant aber bis dahin gibt es eh 1-2 neue Generationen und Features (wie RT) die man benötigt um die volle Leistung abzurufen.

Auf der anderen Seite wäre es ja langweilig wenn man sich nicht mehr über Speicherkrüppel aufregen kann 😅
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, CrustiCroc, cmok und 5 andere
Linmoum schrieb:
GA102 soll 84SM haben, N21 80CU. RDNA und Turing sind bereits rohleistungsnormiert auf einem identischen Niveau. Naheliegend ist daher durchaus, dass sich das mit RDNA2 und Ampere auch fortsetzt.


Schwierig zu sagen. Denn es ist nicht gesagt, dass die Architekturen auch gleich gut über die Shaderanzahl skalieren. AMD hatte bisher bei jeder generation Probleme Chips mit vielen Shadern auch vernünftig auszulasten. Das das mit Big Navi anders sein wird, den beweis sind Sie und bislang noch schuldig. Rein von den Shadern hern würde ich nicht auf die finale Leistung schließen. besonders nicht mit einer neuen Generation, IPC Verbesserungen und eventuellen Taktverbesserungen.
 
  • Gefällt mir
Reaktionen: MrNejo und SoDaTierchen
Ich bin echt gespannt auf die neuen Grafikkarten. Erstmals kommen für mich auch wieder Nvidia Grafikkarten in Frage. Bisher waren die pauschal ausgeschlossen, da AMD unter Linux halt einfach deutlich einfacher und besser läuft, dank OS Treiber und AMDs Linux-Support. Da ich nun aber auf ein virtualisiertes Windows umgestiegen bin und sowieso zwei Grafikkarten (1x Host-, 1x Gast-GPU) verbaut habe, ist es nun egal, vom welchen Hersteller die Gast-GPU ist. Einziger Nachteil von so einem Mix ist, dass ich unter Linux kein GPU Offloading nutzen kann - soweit ich weiß.

Dieses Jahr wird teuer. :)
 
  • Gefällt mir
Reaktionen: rolandm1
Zuletzt bearbeitet:
nr-Thunder schrieb:
Die Preise können gar nicht so sehr steigen, bzw müssen auch irgendwo "tief" anfangen. Wenn eine RTX 3070 8GB mehr als 600€ kostet, gibt Nvidia die Mittelklasse auf. Man hat ja bereits die Produktion der 2XXX gestoppt.

Der Produktionsstopp war eine Fehlinfo, aber in der News-Kopierära hat das schnell die Runde gemacht.

Die Mittelklasse ist keine xx70 mehr, schon lange nicht, die Mittelklasse ist 300-400€, und die Karten kommen alle erst 2021.
 
Bin mal auf das entry-level Programm gespannt, also besonders 50/Ti/60 - alles andere ist mir zu teuer für den Mehrwert. Gerade die 60er sind aber mit der Anhebung durch "Super" so dermaßen übertrieben gewesen vom Preis, da wirds einem ganz anders.
 
  • Gefällt mir
Reaktionen: psychotoxic, Pulsar77, -> m1 <- und eine weitere Person
Leon_FR schrieb:
irgendwie komme ich mir dumm vor vor nem monat ne 2070s gekauft zu haben :- /
Ich bezweifle das es zum Release der 3000er mehr Leistung für weniger Geld geben wird... und da Du nicht das teuerste gekauft hast was es gab, hattest Du wohl ein Budget in dessen Rahmen Du die bestmöglichste Karte gekauft hast... Generell erstmal kein Fehler ;-). Interessant werden die Preise vermutlich erst wenn die neuen ATI ähm AMD Karten draußen und ausreichend Verfügbar sind und da hast Du dann schon 6 Monate Spaß mit deiner Karte gehabt ;-).
 
  • Gefällt mir
Reaktionen: psychotoxic, Onkel Föhn und Leon_FR
Shoryuken94 schrieb:
Schwierig zu sagen. Denn es ist nicht gesagt, dass die Architekturen auch gleich gut über die Shaderanzahl skalieren. AMD hatte bisher bei jeder generation Probleme Chips mit vielen Shadern auch vernünftig auszulasten. Das das mit Big Navi anders sein wird, den beweis sind Sie und bislang noch schuldig. Rein von den Shadern hern würde ich nicht auf die finale Leistung schließen. besonders nicht mit einer neuen Generation, IPC Verbesserungen und eventuellen Taktverbesserungen.
Das hatte bei AMD in der Vergangenheit nichts mit Shadern zu tun, das war schlicht GCN-bedingt. Eine Architektur, die jetzt nicht mehr fürs Gaming zum Einsatz kommt, sondern abgekoppelt in CDNA für Compute und Co. aufgeht.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Die Aufteilung in 2 Modelle mit unterschiedlichem Speicher ist ja nicht neu und auch sinnvoll.
Allerdings war das zuletzt nur bei kleineren Modellen der Fall (siehe GTX 1060 3GB/6GB).

Vor einigen Jahren gabe es das aber auch schon bei der Oberklasse. Die 8800GTS z.B. gab es auch als 320MB und 640MB-Version.
Da hat also nVidia mal wieder eine alte Schublade mit Ideen aufgemacht.

Wer z.B. nur in FHD spielt, braucht weniger VRAM also ein Spieler in 4k.
Die Rohleistung soll aber trotzdem da sein, daher teilt sich da die Käuferschicht.
 
  • Gefällt mir
Reaktionen: angband1, DefconDev und Onkel Föhn
ZeroStrat schrieb:
gleich so ein großer Schritt?
Hat man sich wohl aufgespart, um die Preise weiter auszuloten. Bei Turing kam ja schon RT und Tensor als Bonus, da gleich den VRAM aufzustocken wäre der Preissprung wohl zu groß geworden. Man muss ja erst an neue Preise gewöhnen, bevor weiter aufgestockt wird.
Man muss natürlich die Preise abwarten.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Die Mimik hat etwas von der originären Titan Abgrenzung
In rot mal mein take, pure Spekulation aus Spaß! meinerseits, ist klar! :)

Die Nomenklatur kann auch 3090 = 3080 und 3080 = 3070 sein in der Tabelle und die PG190-10 eine 3060.
Nvidia würfelt da ja gerne ;)


Board IDAmpere ModellReplacement ClassvRAMBus WidthLaunch Schedule
PG132-10Titan Ampere2080 Ti24 GB384 bit2H Sept.
PG132-203090Ti2080 Super20 GB320 bit1H Oct.
PG132-3030902080 Super10 GB320 bitMid. Sept.
PG142-03080Ti2070 Super16 GBTBDTBD
PG142-1030802070 Super8 GB256 bit2H Sept.
PG190-1030702060 Super8 GB256 bitTBD
 
Linmoum schrieb:
das war schlicht GCN-bedingt
Trotzdem muss AMD erst einmal beweisen, wie gut RDNA mit hohen Shaderzahlen skaliert, besser als bei GCN, höchstwahrscheinlich, aber wie viel besser? Das wissen wir eben noch nicht.
 
  • Gefällt mir
Reaktionen: McBluna, Hardware_Hoshi und Shoryuken94
Laphonso schrieb:
Die Nomenklatur kann auch 3090 = 3080 und 3080 = 3070 sein in der Tabelle und die PG190-10 eine 3060.
Nvidia würfelt da ja gerne
Das halte ich persönlich für unwahrscheinlich. Der 2070 Nachfolger in 2 Versionen klingt plausibler.
aber wer weiß.
 
Hm, ich bin da mal etwas vorsichtig bei den Angaben. Und falls sie stimmen, mal schauen was die Preise sagen.

Cohen schrieb:
Sich zu diesem Zeitpunkt noch eine GPU ohne Raytracing-Möglichkeiten zu wünschen, finde ich schon recht seltsam. In einem oder zwei Jahren ist dann das große Gejammer, weil "plötzlich" interessante neue Spiele erscheinen, die Raytracing-Kompatibilität voraussetzen.

Eher 5-6 Jahre. Es gibt viel zu viele Spieler, die noch alte Karten haben und die auch sehr lange behalten. Die als Spieleentwickler komplett auszuschliessen ist gefaehrlich. Mich wuerde es sogar nicht mal wundern, dass es so lange optional bleibt bis die integrierten GPUs das auch koennen. Raytracing only ist keine technische, sondern eine finanzielle Frage.

letsdoscience schrieb:
Für's Deep Learning wären 24GB VRAM schon recht nice... Hoffentlich werden die Tensor-Cores für die Consumer-GPUs nicht zu arg verkrüppelt. Wobei ich mich mit Optimismus erstmal dezent zurückhalte, da kommt wahrscheinlich ein Preisschild dran, das einem den Boden unter den Füßen wegreißt xD

Da bin ich auch mal gespannt wie die sich schlagen. Aber ich erwarte da auch erstmal nicht all zu viel, vor allem im Verhaeltnis zum Preis.

Bin in der Hinsicht aber auch auf AMD gespannt. Mittlerweile gibt es ja Frameworks die AMD unterstuetzen.

Ozmog schrieb:
Ich denke, die werden im Gegensatz zur aktuellen Generation noch erhöht. Immerhin werden die beispielsweise für DLSS genutzt (ab 2.0)

Naja, kommt drauf an was von den professionellen Karten uebernommen wird. Kann durchaus sein, dass manche Features beschnitten oder gesperrt sind. Oder aber nur fuer DLSS genutzt werden koennen. Zutrauen wuerde ich es Nvidia.

Ozmog schrieb:
Beo solchen Speicherausbau bekommt Nvidia wohl wieder eine Preissteigerung gerechtfertigt, 24GB ist schon ne Ansage und 20GB für eine 3080 ist auch mächtig. Bin auf die Preise schon gespannt, mehr als auf die Karten selbst. Ich kaufe ja eh kein High-End bei Grafikkarten.

Die Preise sind wirklich das spannendste. Aber ich befuerchte leider auch, dass es alles aber garantiert nicht billig wird.
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Weniger als 16GB würde ich auch nicht kaufen.
Wenns nicht weniger als die 24GB jetzt sind .... Nobrainer für mich.
 
  • Gefällt mir
Reaktionen: Laphonso
Zurück
Oben