News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Deathless schrieb:
Nö, mit RTX lassen sich die Kunden besser melken
Ich glaube es bleibt wie es ist, RTX ab ~300€, GTX darunter. Ich find RT zwar geil, brauche es aber nicht.

Mir würde es schon reichen, wenn die Mittelklasse durch die Bank 6/8GB@256Bit GDDR6 bekommt
statt 4/6 und 128Bit und GDDR5/6 Mischmasch. Das würde einen großen Unterschied bei geringem
Aufpreis und Strom-Mehrverbrauch bedeuten für die 1080p/60fps Fraktion (iirc 2/3 aller Gamer).
In 2021 wäre das überfällig, sobald mehr next Gen Titel kommen durch die XSX und PS5.
 
CrustiCroc schrieb:
sondern eher damit das nicht mal Nvidia weiter beim Vram knausern kann.
Die Zeit für mehr ist einfach gekommen.

VRam war bei Nvidia IMMER ein Thema. Sie haben immer nur gerade so viel auf den Markt geworfen wie unbedingt nötig. Egal ob es die gtx 680 war, die gtx 780, die gtx 970, die gtx 2080 ... und weitere Beispiele. Immer gerade so genug Ram für den Augenblick.
Ja es gab einige dieser Modelle später auch mit mehr Ram zu kaufen ... aber eben für extra Geld.

Nvidia ändert sich nicht plötzlich zum Wohltäter und schreit "Ram für alle".
 
  • Gefällt mir
Reaktionen: russianinvasion, GRiNGO73, Stalin Orgel und 2 andere
Marc53844 schrieb:
VRam war bei Nvidia IMMER ein Thema. Sie haben immer nur gerade so viel auf den Markt geworfen wie unbedingt nötig. Egal ob es die gtx 680 war, die gtx 780, die gtx 970, die gtx 2080 ... und weitere Beispiele. Immer gerade so genug Ram für den Augenblick.
Ja es gab einige dieser Modelle später auch mit mehr Ram zu kaufen ... aber eben für extra Geld.

Nvidia ändert sich nicht plötzlich zum Wohltäter und schreit "Ram für alle".
Gebe dir da komplett Recht !
 
ToKnight schrieb:
Meine Wunschvorstellung:
  • ca. 70% mehr Leistung als meine 1070
  • 16GB Speicher
  • unter 225 Watt
  • unter 500€

Mal sehen ob nVidia oder AMD liefert und vor allem wann. Ich kann warten.

die Eierlegende WollMilchSau
 
Bitte eine Graka mit max 75 Watt und 8 GB Ram....danke. Wenn es geht noch dieses Jahr. Träumen darf man ja noch.^^

Genoo schrieb:
Hm.. Ryzen 5000 und RTX 3080 mit 20GB .. Ich glaub mich juckts in den Fingern zum upgraden

Für was? Für den nächsten schlechten Multi Port oder buggy Game?^^
 
borizb schrieb:
Mir würde es schon reichen, wenn die Mittelklasse durch die Bank 6/8GB@256Bit GDDR6 bekommt
statt 4/6 und 128Bit und GDDR5/6 Mischmasch. Das würde einen großen Unterschied bei geringem
Aufpreis und Strom-Mehrverbrauch bedeuten für die 1080p/60fps Fraktion (iirc 2/3 aller Gamer).
In 2021 wäre das überfällig, sobald mehr next Gen Titel kommen durch die XSX und PS5.

ist vielleicht doch etwas zuwenig an vram, aber das ist ein toller kommentar - denn eigentlich sollten wir es alle wissen, dass diese "große" zahl für vram bei einer graka nicht viel über die performance sagt.
die graka sollte ein ausgewogenes produkt sein dass für die 2-4 jahre nutzdauer angemessen im preis ist.

jemand schrieb es bereits irgendwo zu anfang hier im thread (sinngemäß): lieber habe ich performante 10gb vram als lahme 16gb.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: domian und borizb
Mir scheint dass lediglich die Nachfolger der 2060 mit dann 16GB VRAM und der Nachfolger der 2070 mit ebenfalls 16GB VRAM wirklich attraktiv werden, wobei der Nachfolger der 2070 mit lediglich 8GB womöglich über den Preis punkten kann.
Die beiden Nachfolger der 2080 wirken nicht so attraktiv. Die Variante mit nur 10GB VRAM, ist halt etwas wenig VRAM für die voraussichtliche Preis und Leistungsklasse und die Variante mit 20GB VRAM... ich will nicht wissen, wie da der Aufschlag beim Preis aussehen wird.
Der Nachfogler der 2080TI mit 24GB VRAM... naja... wer die Kohle hat... nur zu
 
Leereiyuu schrieb:
Wow, du bist ein echt netter Bruder!

Nun ja, der "Kleine" ist jetzt auch schon über 30 und hat mich nie im Stich gelassen wo andere dann plötzlich dringende Termine oder Magenverstimmung hatten. Ist schon okay so. :)
 
  • Gefällt mir
Reaktionen: dohderbert, Biervampyr, Wow4ikRU und 2 andere
Laphonso schrieb:
Holla die Waldfee, die neue 3000er Nvidia Generation und die folgenden AMD GPUs sind vielleicht der dann größte Impuls für die Transition weg von Full HD und hin zu zu 2560×1440 und den 3440×1440 curved Monitoren.
DLSS 2.0 schon gesehen. Diese Raytracing Kerne bringen momentan verdammt viel GPU-Computing, was einem schon heute einiges bringt. An so einer Karte hätte ich sicherlich kein Problem auf einem 4K Fernseher zu spielen.
RTX-Voice nutze ich momentan auch sehr gerne, wenn auch noch mit deutlichen Einbußen auf der 1080.
 
Da bin ich mal auf den Preis gespannt. Vor allem für 4K Gamer wirds richtig teuer bei 24GB Speicher.

für ne FullHD Karte wie ich sie nenne mit 8 GB biste ha schon 400-600€ los. Denke 24GB wird nix unter 1000€ werden.
 
Thor-75 schrieb:
Denke 24GB wird nix unter 1000€ werden.

Das wird wohl so sein. Alles andere würde mich angesichts der aktuellen Preise für eine 2080 Ti jedenfalls sehr erstaunen.
 
Discovery_1 schrieb:
Es gibt Menschen, die können nicht mal eben so 400€ für eine Grafikkarte hinblättern.
Dafür kommt ja neben der neuen schnellen Xbox auch noch eine günstige Xbox.
Das die Karten für hohe Mittelklasse bis High End gedacht sind, war doch klar.
Es beschwert sich doch auch niemand, dass ein Porsche deutlich mehr kostet als ein Golf, der wiederum deutlich mehr kostet als der 6 Jahre gebrauchte Asiate...
Wenn dir das zu teuer ist, gehörst du einfach nicht zum Kundenkreis für diese Karten.
Es werden sicherlich auch kleinere Karten folgen und es gibt dann auch wieder gebrauchte 2000er RTX Karten zu kaufen.

Ich bin mir jedenfalls ziemlich sicher, dass "Big Navi" auch deutlich oberhalb von 500€ landen wird.
Das sind keine einfachen Chips mehr, wie vor 10 Jahren auf einem einfachen PCB mit einfacher Elektronik drumrum und einem Aluprofil draufgeschraubt.
 
Cyberskunk77 schrieb:
Das wird wohl so sein. Alles andere würde mich angesichts der aktuellen Preise für eine 2080 Ti jedenfalls sehr erstaunen.


Wen man bedenkt was man nur für ne Karte hinlegt ist Gamen richtiger Luxus geworden. Wenn in 4K spielst ist so ne Karte natürlich herzlich willkommen aber der Preis für das man auch ein Auto bekommt können die wenigsten hinlegen. Ergo bleibt dir nur die Mittelklasse Karten mit 8GB oder wenn dann 10GB und gespielt wird dann in FullHD. Was dann auch erklärt warum so viele 1080P spielen. Für fullHD brauchste ja teils schon 8GB und die Karten kosten ja auch schon 500€.
 
Die Thematik/RTX Amperevarianten mit mehr Speicher wurden hier und anderenorts ja schon (ausufernd) diskutiert, aber ich lasse dann auch etwas Senf dazu hier:

Board-IDNachfolger vonSpeicherausbauSpeicherinterfaceErscheinungsdatum
PG132-10RTX 2080 Ti24 GB384 BitZweite Septemberhälfte
PG132-20RTX 2080 Super20 GB320 BitErste Oktoberhälfte
PG132-30RTX 2080 Super10 GB320 BitMitte September
PG142-0RTX 2070 Super16 GB??
PG142-10RTX 2070 Super8 GB256 BitZweite Septemberhälfte
PG190-10RTX 2060 Super8 GB256 Bit?

Es gab das Geruecht, dass die Varianten mit doppeltem Speicherausbau auch einfach nur Ampere Quadro-Versionen sind, aber das passt irgendwie nicht zu einer Gaming-GPU-Vorstellung (es sei denn Jen-Hsun's Vorstellung beinhaltet eben auch professionelle Grafikkarten).

Dann gaebe es wie hier angekuendigt die Moeglichkeit diese Varianten fast zeitgleich/kurz hintereinander auf den Markt zu bringen, wie zu Kepler GPU-Zeiten.

Allerdings boete sich m.E. eher an, die Doppelspeichervarianten als Quasi-(Instant-Speicher-)Refresh anzubieten, um AMD/RTG GPUs direkt nach deren Marktstart aggressiv aus zu kontern, wenn - aber nur wenn - dort 12 und 16 GB bei der roten Konkurrenz i.d.R. verbaut werden, so dass man sich die Doppelspeicheroption in der Hinterhand behaelt und die Speicher-Joker-Karte nur zueckt, wenn AMD/RTG mit Big Navi sonst deutlich mehr GPU-Speicher bietet.

Dann koennte man diese gruenen Doppelspeicher-Karten auch als "Ti"-Versionen anbieten, wobei mich ehrlich gesagt erstaunt, dass angeblich/laut diesem Leak keine 12GB RTX Ampere Karten auf den Markt kommen sollen, was fuer mich nur begrenzt Sinn macht (bei der gehandelten RTX 3090 mit GA102 Vollausbau, soll es also nur eine 24GB Version auf aktuellem Titan RTX Niveau geben?).

Somit koennte die Doppelspeicher (20 GB) GA102 GPU (PG132-20) einfach als RTX 3080Ti kommen mit schnellerem GDDR6X anstelle von GDDR6 bei einer 10GB RTX 3080 Version (PG132-30) und analog dazu die Doppelspeicher (16 GB) GA-104 GPU (142-0) auch mit GDDR6X und/oder einem 512Bit Speicher-Interface als RTX 3070Ti und dann eine GTX 3070 Version basierend auf einfachem 8GB Speicherausbau (PG142-10).

An ebenfalls gehandelte RTX on und RTX off Ampere-Kartenvarianten basierend auf dem Speicherausbau glaube ich nicht, denn evt. bis zur RTX 3050Ti hinunter (oder gar weiter?) duerften die RTX Features Einzug halten in der Ampere GPU-Generation.

Insgesamt faende ich es positiv, wenn nVidia also GPUs mit verdoppeltem Speicher anbieten wuerde, wobei ich einzig die "oben getaufte" RTX 3070Ti mit 16GB fuer sinnvoll halte (selber in Betracht ziehen wuerde, auch mangels Aussicht auf nVidia 12GB Modelle und 8GB waeren mir jetzt definitiv zu wenig), weil alles darueber auch laengerfristig wenig lohnender Speicheroverkill sein duerfte und sich die Entwickler (auch wegen der maximal mit 16GB gehandelten RDNA2 AMD/RTG Karten) als 16GB als neuem Minimalmaximum orientieren duerften (zumal eine deutlich groessere Kaeuferschicht dort zugreifen duerfte als bei den Doppelspeicher RTX 3080 und 3090 Modellen, da letztere deutlich weniger erschwinglich waeren und fuer Nicht-Enthusiaten oder Nicht-Early Adopter insgesamt wohl weniger Mehrwert bieten duerften).

Wie sehr sich nVidia eine Speicherverdoppelung allerdings preislich vergolden lassen duerfte, ist auch fraglich, denn erst oberhalb einer "RTX 3070Ti mit 16GB" haette man das (vermutlich relativ unnuetze) Alleinstellungsmerkmal von 20(+)GB Gaming-GPUs, welches dann noch einmal in einem hoeheren Aufpreis resultieren koennte.

Man sieht also schon, dass AMD/RTG (mangels Spezifikationen-Leaks) nVidia mit Big Navi RDNA2 ganz schoen in schwitzen bringt, denn dort tappt man noch im Dunkeln, aber scheint sich ueberall hin absichern zu wollen, auch wenn man u.U. relativ sinnlose Varianten dann auf den Markt bringen werden wird des Prestiges wegen (Geld macht man dort aber trotzdem genug auch wegen der billigeren Fertigung/hoeheren Margen als bei AMD/RTG und vermutlich ist diese Kartenmodellflut schon in die neuen Kartenpreisen von nVidia mit einkalkuliert und der nVidia-Kaeufer darf auch dafuer in der Relation mehr zahlen als bei AMD/RTG).

Und die Moral aus der Geschicht' ist, dass man durch Kauf von AMD/RTG (RDNA2 (Big Navi)) Grafikkarten den Druck auf nVidia weiter erhoehen kann, da AMD/RTG dann zunehmend mehr Marktanteile zurueck gewinnen duerften und konkurrenzfaehiger werden (aehnlich wie seinerzeit bei den RyZen CPUs gegenueber den Intel Core CPUs), was im Endeffekt im Sinne des Kunden sein sollte, da dann nVidia keine Mondpreispolitik mehr fahren kann und wohl keine so massiven Preissteigerungen insgesamt wohl mehr zu erwarten waeren in den kommenden Jahren (insbesondere, falls Intel Xe dann auch noch irgendwann/in den kommenden Jahren halbwegs konkurrenzfaehig werden sollte im Gaming-GPU-Bereich) ;).

Zu Guter Letzt moechte ich aber noch kurz erwaehnen, dass bspw. das kolportierte nVCache Feature wohl eher gegen Doppelspeicher-RTX Ampere Varianten spraeche oder aber ueberbewertet werden koennte hinsichtlich der Nuetzlichkeit/Implementierung … warten wir es ab, bis zum 9.September ist es ja nicht mehr lange hin und das wird bestimmt auch nicht das letzte RTX Ampere Geruecht … sorry, Leak natuerlich, gewesen sein :).
 
  • Gefällt mir
Reaktionen: Yibby
Gute Nachrichten für Spiele-Entwickler, kann zukünftig noch schlampiger programmiert werden.
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, icetom, legenddiaz und 3 andere
@ragnaroek666
Es wird ausschließlich für Konsole, also die Lead-Plattform entwickelt und am PC bekommst du lediglich einen Port, weswegen die Anforderungen meist höher sind und die Optimierung deutlich schlechter.

Deine Karte ist ein Witz im Vergleich zu dem was die Next-Gen Konsolen können, die 400 Euro hast du leider zum Fenster raus geschmissen... aber immerhin wirst du ab nächstem Jahr dann immer noch alte Games zocken können, ist doch auch was?

Was hier viele nicht checken, der Big-Step kommt nicht zum Spaß, ohne diesen Fortschritt wäre man hinter den Konsolen. Diese haben sowieso die bessere Speicherarchitektur.
 
SavageSkull schrieb:
Tendiere Richtung PG132-20 als Nachfolger für meine 1080.

Ich auch. Aber mal bei den Preisen und den Leistungsabstufungen schauen. Würde aber für doe PG132-20 schaon mit 1000€ rechnen.

Thor-75 schrieb:
Wen man bedenkt was man nur für ne Karte hinlegt ist Gamen richtiger Luxus geworden.

Jedes Hobby ist Luxus. Gaming ist da aber doch eher noch ein günstiges Hobby. Es gibt viele Möglichkeiten günstig zu zocken und das ganze zu skalieren. Mit steigenden Ansprüchen steigt auch der Preis für das ganze. Aber wo ist das nicht so. Der Golf GTI kostet auch weniger als der Porsche Turbo. Nur weil es teure Optionen gibt, ist ja nicht das ganze Hobby selbst auch teuer. AM PC ist die Preisspanne gigantisch. Und dann gibts da ja auch noch die Konsolen. Gaming ist 2020 nicht mehr Luxus als es vor 10 oder 20 Jahren war.

Thor-75 schrieb:
aber der Preis für das man auch ein Auto bekommt können die wenigsten hinlegen. Ergo bleibt dir nur die Mittelklasse Karten mit 8GB oder wenn dann 10GB und gespielt wird dann in FullHD. Was dann auch erklärt warum so viele 1080P spielen. Für fullHD brauchste ja teils schon 8GB und die Karten kosten ja auch schon 500€.

Wobei man für ~1000-2000€ auch nicht sonderlich viel Auto bekommt. Natürlich kostet alles über Full HD Geld. Keine Frage. Aber mit angepassten Settings kann man heute die meisten Spiele problemlos mit Mittelklassehardware in 1440p spielen. Viele beliebte Multiplayer Games theoretisch sogar in 4K. Aber die beliebtesten PC Spiele sind eSports titel, die eh nicht von hohen Auflösungen viel profitieren. Zumal enorm viele Notebooks hinzukommen.

Ein 15,4 Zoll Notebookdisplay mit 1080p ist schon in etwa so scharf, wie ein UHD 32 Zöller und deutlich schärfer als ein 27 Zoll 1440p Display. Daher ist im mobilen bereich die nachfrage da auch recht gering.
 
  • Gefällt mir
Reaktionen: Cyberskunk77
Für den Preis der kommenden 3090 einfach mal den Preis der TITAN RTX ansehen und dann mal ganz grob die Differenz der Chipflächen zum Abzug bringen. Wenn eine TITAN RTX 2.800€ kostet, dann wird eine 3090 mit 24GB keine 1.200€ kosten. Ist einfach illusorisch. Günstiger als die TITAN sollte sie werden, doch im Vergleich zur 2080ti teurer.
 
freezer255 schrieb:
@Chillaholic
Schon klar,ich würde eher sagen weil die Leute es nicht besser wissen und oft keine bessere Option haben, da amd bei vielen einen schlechten Ruf hat.
@Malikos : Weil gerade der Trend zu hohen Auflösungen und RTX geht und beides benötigt viel vram. Außerdem werden die Konsolen deutlich über 8gb vram haben
Und genau hier liegt das Problem, Trend.... viele fühlen sich "gezwungen" den Trend zu folgen weil so suggeriert wird..."4K Monitor ist Supergut=Kaufen, RTX bessere Effekte hat aber einen hacken, ihr musst RTX Karte kaufen und sorry aber RTX reicht nicht ihr musst mit viel VRAM kaufen also noch mehr Geld ausgeben. oh wir hatten vergessen wenn ihr richtig cool sein wollt dann alles mit Bling Bling..."

Traurig

Hört und liest sich alles so an als Leute die keine hunderte oder tausende von Euro für 4K, VRAM und Bling Bling ausgeben, nicht mehr oder nur mit schlechte Grafik spielen können, dazu sind dabei nicht Cool weil kein Bling Bling haben...

Traurig

Mein System läuft immer noch mit 24 Zoll FHD/144Hz, i7-4790k, 16GB RAM, RTX 2070 Super (gekauft weil Angebot und meine alte GTX 970 den Geist aufgegeben hatte) und kein Bling Bling und dabei kann ich sehr gut und schön spielen.
 
Zurück
Oben