Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an
- Ersteller Wolfgang
- Erstellt am
- Zur News: GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.056
Revan1710 schrieb:Zu deinem 1070 Vergleich: Da ist es nämlich genau nicht so wie nun bei der 3070, weil es da nicht die Option gab 1070 mit 4 GB oder 8 GB bspw. - es gab den Speicherausbau in der Basisvariante und nicht nur, wenn ich nochmal extra draufzahlen muss.
Es wäre auch etwas anderes, wenn es die 3070 als 10 und 20 GB Modell gäbe - dann hätte man in jedem Fall einen Fortschritt beim Speicherausbau und immernoch die Option auf zusätzlich VRam.
Das stimmt schon. Nvidia könnte natürlich auch nur den großen ausbau anbieten und einpreisen. Angesichts dieser ganzen "Man braucht eh nicht mehr als 8GB" Diskussionen in vielen Foren finde ich es gar nicht mal so verkehrt, wenn man entsprechende kleine Modelle anbietet. Wer wirklich der Meinung ist ihm reicht das why not.
Letztlich kommt es halt auf den tatsächlichen Preis an, den wir stand heute nicht kennen. Wir wissen heute auch nicht, was eine 3070 leisten wird und ob sie wirklich 8GB hat oder ob es überhaupt eine 16GB Version geben wird. Zu Maxwellzeiten gab es auch genug Gerüchte, dass es die GTX 980 auch mit 8GB geben wird. Gekommen sind die Karten am Ende nie. Schlauer sind wir erst, wenn wir die finalen Daten sehen. Stand heute sind Preise, Speicherausstattungen, Shaderzahlen etc. alles eh nur Gerüchte. Evtl. heißt es zum Präsentationsauftakt ja mal wieder, dass alle Gerüchte falsch waren,, ähnlich wie bei Turing. Wir werden es in einigen Wochen dann sehen.
Du bekommst mehr Leistung für dein Geld. Es gibt garantiert genug Kunden die sich die Speicherausstattung anschauen und sich fragen, wieso denn jetzt 16GB auf der 3070 sein müssen und sie dafür den Aufpreis berappen sollen, obwohl ihnen 8Gb reichen würden.
Hardware_Hoshi
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.481
Croftout90 schrieb:Eigentlich ziemlich bekloppt was Nvidia macht, falls es so kommt.
Ist es das? Vielleicht hat es auch technische oder wirtschaftliche Gründe? Test abwarten klärt das sicher!
Croftout90 schrieb:Entweder du nimmst eine GPU mit knappen Speicher wie die RTX 3080 10 GB oder man nimmt für nen ordentlichen Aufpreis das Doppelte, was für einen Gamer halt aktuell keinen Sinn macht.
Bei der Definition von "knappem Speicher" wäre das Szenario interessant zu wissen. Ansonsten stimmt die Aussage! Einzige Frage ist wieso die Spieler unbedingt mehr Speicher fordern, gleichzeitig dafür aber nichts bezahlen wollen.
Croftout90 schrieb:Wieso nicht einfach eine RTX 3080 mit z.b. 14 GB Vram und fertig. Damit wäre jeder zufrieden und der Preis wäre nicht übertrieben hoch.
Weil Nvidia das eventuell technisch gelöst hat?
Gerüchten Zufolge wurde die Architektur stark aufgebohrt. Man spricht davon, die Tensorkerne könnten jetzt eine neue Art von Speicher- und Texturkompression. Die Quellen berichten von bis zu 40% Speichergewinn.
Das hieße physische xGB hat demnach xGB virtuell:
8GB -> 11,2GB
10GB -> 14GB
11GB -> 15,4GB
12GB -> 16,8GB
16GB -> 23,54GB
Das passt auf einmal sehr gut zu den angeblichen Leistungsklassen. Wer dennoch mehr möchte, soll halt die ungeführ 160-200€ Aufpreis für die physikalischen Speicherverdopplungsmodelle zahlen.
Allerdings ist sind diese Speicherkompressionstechniken elleganter als Bruteforce Lösungen. Theoretisch sollten damit sogar die Preise leicht fallen! Für den ein oder anderen kann das sogar ein Kriterium sein die nächst höhere Klasse zu wählen.
Croftout90 schrieb:@Oneplusfan dann eben Standard 16... Wieso sollte 14 nicht gehen, wenn man 8, 10 und 11 haben kann?
Keine 7nm/16GB Karte wurde je unter 700€ in Masse verkauft. Die RAdeon VII hatte AMD mit Verlust angeboten und schnell wieder vom Markt genommen. Diese Preisklasse ist für die Mehrheit eifnach zu teuer und daher uninteressant.
Es gibt außerdem mehr als genug Spieler, denen die ~8-12GB je nach Modell völlig ausreichen. Denen ist die Rohperformance oft wichtiger.
Linmoum
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.447
Kenn ich. Das ist dann gerne mal die "hab da immer so doofe Ruckler aber 90fps das kann doch eigentlich gar nicht sein"-Fraktion.Hardware_Hoshi schrieb:Es gibt außerdem mehr als genug Spieler, denen die ~8-12GB je nach Modell völlig ausreichen. Denen ist die Rohperformance oft wichtiger.
Hardware_Hoshi
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.481
Linmoum schrieb:Kenn ich. Das ist dann gerne mal die "hab da immer so doofe Ruckler aber 90fps das kann doch eigentlich gar nicht sein"-Fraktion.
Pfff, könnte auch an etwas völlig anderem liegen. Entweder unterdimensionierte CPU, zu wenig Arbeitsspeicher oder ... oh Wunder ... kein G-Sync / Freesync und dadurch Mikroruckler.
Aber wer selbst bei grob 2080 Ti Niveau sprichwörtlich zu blöd ist die Regler anständig zu bedienen, verdient eh kein Mitleid!
@Hardware_Hoshi Das vergessen auch einfach viele das die Vega VII bloß als Consumer Karte verkauft wurde damit man auf dem Markt präsent bleibt...
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Möglich wäre auf jeden Fall einfach eine fixe Speicherbelegung von:
GA 102 3090 24
GA 102 3080 20
GA 104 3070 16
GA 104 3060 16
GA 106 3050 12
GA106 3040 6
Nur wollen/können halt nicht alle User den Aufpreis bezahlen , weil viele eben auch mit 1080p und 2k Texturen zufrieden sind, wenn das Game Spass macht.
GA 102 3090 24GB
GA 102 3080 TI 20GB (für späteren Release im Vollausbau mit schnelleren Speicher evtl. auch als ablöse für die super)
GA 102 3080 super 20GB
GA 102 3080 20GB (langsamer Speicher und shader veringern)
GA 102 3070 TI 16GB (für späteren Release im Vollausbau mit schnelleren Speicher evtl. auch als ablöse für die super)
GA 104 3070 Super 16GB
GA 104 3070 16GB (langsamer Speicher und shader verringern)
GA 106 3060 Ti 12GB (für späteren Release im Vollausbau mit schnelleren Speicher evtl. auch als ablöse für die super)
GA106 3060 Super 12GB
GA106 3060 12GB
GA 108 3050 6GB
GA 108 3040 ( Meinetwegen auch nur mit 3gb vram für reine Bildausgabekarten )
GA 102 3090 24
GA 102 3080 20
GA 104 3070 16
GA 104 3060 16
GA 106 3050 12
GA106 3040 6
Nur wollen/können halt nicht alle User den Aufpreis bezahlen , weil viele eben auch mit 1080p und 2k Texturen zufrieden sind, wenn das Game Spass macht.
GA 102 3090 24GB
GA 102 3080 TI 20GB (für späteren Release im Vollausbau mit schnelleren Speicher evtl. auch als ablöse für die super)
GA 102 3080 super 20GB
GA 102 3080 20GB (langsamer Speicher und shader veringern)
GA 102 3070 TI 16GB (für späteren Release im Vollausbau mit schnelleren Speicher evtl. auch als ablöse für die super)
GA 104 3070 Super 16GB
GA 104 3070 16GB (langsamer Speicher und shader verringern)
GA 106 3060 Ti 12GB (für späteren Release im Vollausbau mit schnelleren Speicher evtl. auch als ablöse für die super)
GA106 3060 Super 12GB
GA106 3060 12GB
GA 108 3050 6GB
GA 108 3040 ( Meinetwegen auch nur mit 3gb vram für reine Bildausgabekarten )
Hardware_Hoshi
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.481
Shelung schrieb:@Hardware_Hoshi Das vergessen auch einfach viele das die Vega VII bloß als Consumer Karte verkauft wurde damit man auf dem Markt präsent bleibt...
Ganz genau!
Komischerweise verlangen dieselben schrägen Kandidaten, man sollte doch gefälligst Monate lang auf AMD warten. Sie könnten ja trotz ewigem Hinterherhecheln jetzt endlich wieder etwas vernünftiges liefern. Argument wird dann immer die angeblichen 16Gb von BigNavi genannt.
Sorry Leute, da gibt es echt andere Kriterien. Mein Geld ist mir zu schade für die Träume von Fanboys, sowie Realitäts- und Qualitätsverachter.
Vitec schrieb:Möglich wäre auf jeden Fall einfach eine fixe Speicherbelegung von:
GA 104 3060 16
GA 106 3050 12
GA 108 3040 6 ( Meinetwegen auch nur mit 3gb vram für reine Bildausgabekarten )
Macht nur leider null Sinn!
Eine 3060 wird Leistung auf etwa 2080/Super liegen. Die Rohleistung reicht bei weitem nicht aus, um die 16Gb anständig zu bedienen. Gerade bei einer Massenkarte wie der x60 soll der Preis nicht höher als 250-400€ liegen.
Den Unterschied macht meistens die Höhe des verbauten vRAMs aus. Eine Verdopplung erhöht nur unnötig die Koksten!
Ich denke er wollte lediglich aufzeigen, was Nvidia in Zukunft machen könnte mit dem Ampere. 16GB halte ich bei den 3060 abwärts auch für zu viel. Kann mir gut vorstellen, dass es bei der 3060 keine Wahl beim Speicherausbau gibt. Der Leak deutet ja auch darauf hin, falls er stimmt.
Hardware_Hoshi
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.481
orlof schrieb:Ich denke er wollte lediglich aufzeigen, was Nvidia in Zukunft machen könnte mit dem Ampere. 16 und 12GB halte ich bei den 3060 abwärts auch für zu viel. Kann mir gut vorstellen, dass es bei der 3060 keine Wahl beim Speicherausbau gibt.
Oh, das denke ich doch!
Die GTX 1060 hatte ebenfalls verschiedene vRAM Modelle. Die 3Gb war zwar nicht ideal,dennoch gut genug fürs Budget. Kenne genug Spieler, die trotz allen Unkenrufen sehr zufrieden damit sind.
Das Problen sehe ich eher darn, wie versnobbt wir in der PC-Masterrace werden. Da wird sich wegen Kleinigkeiten übermäßig aufgeregt. Ironischerweise hat mir der Umstieg auf einer moderne NVME SSD mehr gebracht als irgendwelche vRAM Verschwörungstheorien behaupten.
Revan1710
Captain
- Registriert
- März 2012
- Beiträge
- 3.304
Gegen Auswahl spricht im Grunde ja auch nichts, die Optionen sind meiner Meinung nach nur eben unstimmig. Das ist für mich in etwa das gleiche, als hätte es eine RTX 2060 wahlweise auch mit 12 GB gegeben für vlt. ~80 € mehr, wo doch 8 GB hier eine sinnvolle Bestückung gewesen wäre und der Aufpreis für die Speicher-Verdoppelung so viel ist, dass eine 2070 schon wieder mehr Sinn macht.Shoryuken94 schrieb:Angesichts dieser ganzen "Man braucht eh nicht mehr als 8GB" Diskussionen in vielen Foren finde ich es gar nicht mal so verkehrt, wenn man entsprechende kleine Modelle anbietet. Wer wirklich der Meinung ist ihm reicht das why not.
Letztlich kommt es halt auf den tatsächlichen Preis an, den wir stand heute nicht kennen. Wir wissen heute auch nicht, was eine 3070 leisten wird und ob sie wirklich 8GB hat oder ob es überhaupt eine 16GB Version geben wird.
Stimmt schon, dass das alles auch erstmal auf den Preis und letztendlich auch auf die Leistung ankommt. Ist ja auch nicht ausgeschlossen, dass die normale 3070 zwar keinen Riesen-Sprung zum Vorgänger macht, dafür aber etwas günstiger wird als die 2070 ihrer Zeit. Das würde den Aufpreis für die 16 GB Version teilweise auch relativieren.
Da glaube ich, dass der Großteil auf Nummer sicher gehen wird, und nochmal deutlich mehr für die 16 GB Variante hinlegt, weil sie es schlicht nicht einschätzen können (mir wäre das vmtl. auch zu unsicher mit 8 GB + RT und 4K-tauglicher Leistungi). Bei 10 oder gar 12 GB auf der Basis-Variante sähe das schon anders aus und wirklich nur ein Bruchteil würde wohl zur teuren Variante greifen.orlof schrieb:Es gibt garantiert genug Kunden die sich die Speicherausstattung anschauen und sich fragen, wieso denn jetzt 16GB auf der 3070 sein müssen und sie dafür den Aufpreis berappen sollen, obwohl ihnen 8Gb reichen würden.
IXI_HADES_IXI
Commodore
- Registriert
- Apr. 2006
- Beiträge
- 4.256
ragnaroek666 schrieb:G-Sync funktioniert mit Glück auch auf Freesync Monitoren aber auch dort nicht auf jedem.
Meistens wenn man Pech hat flackert es mit Gsync... Beim neuen Samsung Odyssey G7 32 zum Beispiel schiebt Samsung die Schuld auf Nvidia, bzw deren Treiber... Gut darüber lässt sich streiten, aber Flackern in Verbindung mit Nvidia bei Freesync hört man relativ oft...
Ist halt einfach Scheiße wenn es 2 Große gibt die unterschiedliche Techniken verfolgen. Klar Nvidia will von Gsync nicht ablassen, verdienen schließlich einen Haufen Kohle für so eine kleine lächerliche Platine im Monitor.
>_<
Lieutenant
- Registriert
- Aug. 2011
- Beiträge
- 539
Ja gut, dann nehmen wir eben mal (großzügigerweise nur) den doppelten Aufpreis. Im Automobil-Bereich z.B. der Golf 6 (20k) und der 8er (27k) haben in Anstieg um 35 % - sry, aber doppelten Aufpreis kann man nur im Monopolmarkt machen!Shoryuken94 schrieb:In der generation hat zum Start das Single GPU Flaggschiff übrigens auch 500€ gekostet. [..] inflationsbereinigt auch weit über 800€ heute gekostet hätte.
Shoryuken94 schrieb:Ganz zu schweigen davon, das du heute mit einer High end Karte über Jahre Ruhe hast, während eine GTX 295 innerhalb kürzester zeit ziemlich veraltet war.
Das liegt einfach nur an den Spielehersteller -gute Grafik bedeutet hohe Ausgaben - Daher gibt es ja die ganze Flut von "Indie games". Würde der Spielemarkt proportional zur Technik mitziehen, müsstest du auch wieder häufiger Upgraden.
F
Fuchiii
Gast
Die Zeit wird erst noch zeigen wie haltbar RT bleibt - natürlich wird es jetzt wieder als Heiliger Grahl dargestellt.
Wenn ich da überlege wie viele unverzichtbare neue Grafiktechnologien an uns vorbeigerannt sind - Physix*hust*.
Das NV nun jeweils 2 MOdelle auf den Markt wirft - ist doch auch nur wieder abzocke. In dem klaren Bewusstsein, dass keiner ne 3070 mit 8Gb Vram haben will, muss man dann für 16Gb gleich kräftig in die Tasche greifen.
Gekauft wird sie dann dennoch - haben sie ja schon bei der 1060 (3/6GB) so gemacht...
Ich bin über meine 5700XT froh und bin mir sicher dass die wenigstens eine Generation überstehen wird
Wenn ich da überlege wie viele unverzichtbare neue Grafiktechnologien an uns vorbeigerannt sind - Physix*hust*.
Das NV nun jeweils 2 MOdelle auf den Markt wirft - ist doch auch nur wieder abzocke. In dem klaren Bewusstsein, dass keiner ne 3070 mit 8Gb Vram haben will, muss man dann für 16Gb gleich kräftig in die Tasche greifen.
Gekauft wird sie dann dennoch - haben sie ja schon bei der 1060 (3/6GB) so gemacht...
Ich bin über meine 5700XT froh und bin mir sicher dass die wenigstens eine Generation überstehen wird
Hardware_Hoshi
Lt. Commander
- Registriert
- Jan. 2008
- Beiträge
- 1.481
>_< schrieb:Ja gut, dann nehmen wir eben mal (großzügigerweise nur) den doppelten Aufpreis. Im Automobil-Bereich z.B. der Golf 6 (20k) und der 8er (27k) haben in Anstieg um 35 % - sry, aber doppelten Aufpreis kann man nur im Monopolmarkt machen!
Luxusprodukte wurden allgemein in den letzten 1-2 Jahrzehnten teurer. Besonders die Mikroelektronik hat dies wegen zunehmender Komplexität. Bei Autos ist der Kostentreiber die zunehmd benötigten Sicherheits- und Subsysteme.
Bei PCs sind es die immer kleineren Fertigungsverfahren, deren Forschung und Entwicklung enorme Summen verschlingt. Man kann nicht die beste Technik auf höchsten Niveau erwarten, gleichzeitig aber nichts dafür zahlen wollen.
Einziger Bereich der wirklich günstiger ist als jemals zuvor ist bei Fernsehern. Da ist aber ein so starker Konkurrenzkampf, das zu viele der Hersteller kurz vor der Pleite sind.
>_< schrieb:Das liegt einfach nur an den Spielehersteller -gute Grafik bedeutet hohe Ausgaben - Daher gibt es ja die ganze Flut von "Indie games". Würde der Spielemarkt proportional zur Technik mitziehen, müsstest du auch wieder häufiger Upgraden.
Jein!
Sieh dir nur einmal AAA-Titel an. Groß aufgeblasen mit hunderten Millionen in der Entwicklung und Videosequenzen überall. Gleichzeitig sinkt das Gameplay und der Spielspaß. Bei Konsolen hat man inzwischen nur noch "clicktime events" innerhalb interaktiven Filmen, verkauft als Videospiel.
Grafik entwickelt sich stets weiter, leider auch der Aufwand dies darzustellen. Nvidia war immer für neue Grafiktricks bekannt. Falls sie das diesmal wieder schaffen und sogar die Messlatte nach oben legen, spielt vRAM unter Umständen eine untergeordnete Role.
Auf Kostenseite sicherlich! Falls da wirklich 17-21Gbps GDDR6(X) verbaut ist, kostet jedes zusätzlich Gigabyte vRAM wesentlich mehr!
Zuletzt bearbeitet:
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 9.056
>_< schrieb:Ja gut, dann nehmen wir eben mal (großzügigerweise nur) den doppelten Aufpreis. Im Automobil-Bereich z.B. der Golf 6 (20k) und der 8er (27k) haben in Anstieg um 35 % - sry, aber doppelten Aufpreis kann man nur im Monopolmarkt machen!
Schwierig verschiedene Produkte zu vergleichen. Schau die Beispielsweise einfach mal die Entwicklung der Stahlpreise der letzten Jahre an und wie sich die Kosten für einen belichteten Wafer von 32nm zu 7nm entwickelt hat. Berücksichtigen das GPUs heute einen weitaus höheren Einsatzzweck haben, als reine Spielgeräte, trotz sinkenden fertigungsgrößen sehen wir enorme Zuwächse bei den Die größen. Der hersteller entfernt die Möglichkeit mehrere Karten zu nutzen und beschränkt den sinnvollen nutzen so von potentiell 4 Stück auf eine.
Und noch mal. Es gibt zahlreiche Generationen an karten, die deutlich über 500€ lagen. Z.B. nicht lange vor der GTX 280 die legendäre 8800 Ultra. Die hat 700€ gekostet. Inflationsbereinigt sind dies ca. 850€ nach heutiger Kaufkraft. Rechnen wir da mal fix 35% drauf. Hoppla da sind wir ja auch bei 2080Ti Preisen.
>_< schrieb:Das liegt einfach nur an den Spielehersteller -gute Grafik bedeutet hohe Ausgaben - Daher gibt es ja die ganze Flut von "Indie games". Würde der Spielemarkt proportional zur Technik mitziehen, müsstest du auch wieder häufiger Upgraden.
Ja gute Grafik kann teuer sein. Das ist aber weniger der Grund für Indiegames. Da sind eher Faktoren wie die mittlerweile freie Verfügbarkeit und Dokumentation von Grafikengines ein Faktor. Es gäbe ja rein Technik nicht mal ein weg häufiger upzugraden, da auch Grafikhardware der normalen Entwicklung der Halbleiterbranche unterliegen. Hier wird es zunehmend schwerer und teurer Fortschritte zu erlangen, weshalb hier die entwicklung seit jahren langsamer wird und selbst Giganten wie Intel ins Straucheln geraten.
Neronomicon
Captain
- Registriert
- Dez. 2009
- Beiträge
- 3.222
Also ich würde ich freuen über mehr Grakaspeicher. Gerade bei dem Nachfolger der 1650 wären 8 Gb schon nice. Oder unterschiedliche Bestückung wie es die schon einmal gab ist doch auch i.O. Für jeden was dabei.
Man sollte einfach abwarten und sehen was kommt. Und die Streiterei ob nun 10 oder 20 GB ist etwas....^^
Man sollte einfach abwarten und sehen was kommt. Und die Streiterei ob nun 10 oder 20 GB ist etwas....^^
Vitec
Commodore
- Registriert
- Okt. 2006
- Beiträge
- 4.920
Sogar die Geforce 3 Ultra, damals noch in ÖS/DM und co hat umgerechnet 600€ gekostet.Shoryuken94 schrieb:Und noch mal. Es gibt zahlreiche Generationen an karten, die deutlich über 500€ lagen. Z.B. nicht lange vor der GTX 280 die legendäre 8800 Ultra. Die hat 700€ gekostet. Inflationsbereinigt sind dies ca. 850€ nach heutiger Kaufkraft. Rechnen wir da mal fix 35% drauf. Hoppla da sind wir ja auch bei 2080Ti Preisen.
Das Problem sehe ich eher in der 5K und 6K Reihe von ATI/AMD, da hier einfach für 1-2 Generationen quasi Leistung "verschenkt" wurde.
Es bleibt auch bei Nvidia abzuwarten wie das ganze nun auch intern aufgebaut ist, da Ampere ja doch ein grösserer Schritt Architekturmässig sein sollte. Mit den Tensor Cores und DLSS 2.0 kann man durchaus in Zukunft ,wenn man hier den Support vorantreibt , jetzt wo es einigermassen funktioniert ein paar MB an Vram einsparen.
Auch interessant wird wie Ampere nun in Dx12 vs. dx11 abschneidet, da könnte für Nv auch noch ein wenig was zu holen sein und man mit Ampere einen Schlussstrich unter die DX11 Optimierung ziehen.
Dazu auch die sehr guten Gerüchte das die RT Leistung um einiges gesteigert werden soll und somit RT ohne große Einbußen Verbreitung finden kann.
Ampere wird teuer, aber hat auch potential ein ordentliches Leistungspaket abzuliefern. Und wem es zu teuer ist, warum nicht auf dem Gebrauchtmarkt dann die jetzige Gen abgreifen. Nur weil Ampere kommt sind die jetzt ja nicht unbedingt Altmetall. Zumal die RTX Karten evtl. auch noch von Optimierungen bei RT und DLSS profitieren können eine Zeitlang.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 3.705
- Antworten
- 188
- Aufrufe
- 39.080