News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Herdware schrieb:
Und nein, eine Zukunft, in dem es zeitgemäße Videospiele nur noch auf Konsolen gibt, halte ich nicht für verlockend. Für mich als jahrzehntelangen PC-Hobbyisten würde das wohl bedeuten, dass ich mich in die Retro-Ecke zurückziehe und nur noch alte Schätzchen spiele, gemischt mit ein paar F2P-Online-Games.

Dafür benötigt man aber auch keine 10GB 3080 und erst recht kein raytracing ;)
 
  • Gefällt mir
Reaktionen: v_ossi und Laphonso
d3nso schrieb:
Kann das Speichergeheule nicht nachvollziehen, hab die 8GB meiner 2080 noch nie voll bekommen in 1440p :freaky:

Und ich sitze hier schaue mir den Crysis Remastered Trailer an, welches mit 8K Texturen wirbt. Da wird deine Karte einfach komplett sterben und mit unter 16GB braucht man sicherlich nicht mal versuchen 8K Texturen zu aktivieren.
 
  • Gefällt mir
Reaktionen: -Overlord-
Iguana Gaming schrieb:
Die Regler im Spiel sind nicht umsonst da und oft sehen Ultra Einstellungen nicht viel besser als wie unter High aus. Meist oder generell hab ich bei mir nur die Texturen auf Ultra und der Rest wird auf medium-high eingestellt und komme damit meist nicht über 5-6GB im Schnitt, oft sogar noch drunter, selbst unter WQHD.

Vor allem hat ne 16GB R7 als Beispiel nicht mal die Leistung um den Speicher vollzubekommen. Genauso wie bei einer R9 390, RX480/580 um jenseits der 60FPS in high/ultra Details zocken zu können. Weswegen es bei letzteren Karten auch 6GB getan hätten. Außer die Spiele sind halt entsprechend scheiße programmiert sodass diese den Vram voll machen.

Also bevor ich damals meine GTX 1060 6GB geholt hatte, haben viele von dem "Speicherkrüppel" abgeraten. Aber jetzt muss ich sagen, dass es keine falsche Entscheidung war. Wie erwartet mangelt es heute eher an Performance als an VRAM.

Auch beim sogenannten Speicherfresser HZD sehe ich hier im Benchmark von CB, dass die 1060 mit ihren 6GB vollkommen in FullHD ausgereicht hätte. Wobei sie selbst da mit einer unrealistischen Kombi aus Ryzen 3900XT gekoppelt lediglich 32 fps schafft.

https://www.computerbase.de/artikel.../#abschnitt_8_gb_speicher_reichen_nicht_immer

Jeder muss ungefähr einschätzen können, was er für die nächsten Jahre am VRAM erwartet. Es wird nicht weniger, aber aus meiner Sicht vermutlich auch nicht viel mehr. Der 16 GB unified RAM der Konsolen geben ja die Richtung vor. Eine RTX 3080 mit 16 VRAM hätte aber sicherlich einen deutlichen Kaufanreiz gehabt und alle "Special-Case-User" zufrieden gestellt.
 
  • Gefällt mir
Reaktionen: t3chn0, Sophisto, xexex und eine weitere Person
domian schrieb:
Mensch jetzt zweimal falsch geschrieben, das juckt in den Augen: proprietär bitte.

Ich bitte um Entschuldigung. Aber irgendwie war es hoffentlich trotzdem noch verständlich. 😉

Für Leute, die sehr empfindlich auf schlechte Rechtschreibung und Grammatik reagieren, ist so ein Forum wie dieses sicher sehr unangenehm. Hier treiben sich viele Menschen herum, bei denen das Interesse (und Talent) weniger in Richtung Sprachen geht und mehr in Richtung Technik und Naturwissenschaften.

Wie viel wurde vor Jahren über magere 8GB Speicher gejammert. Welcher Titel läuft denn bitte gnadenlos in ein Speicherlimit bzw. wenn, sind die Folgen dann so problematisch?

Vor ein paar Jahren hätte ich dir noch Recht gegeben. Da konnte man den Speicher aktueller High-End-Karten nur mit extremen Einstellungen und oft sogar nur mit inoffiziellen HD/4K-Textur-Mods überfordern. Aber die Zeiten haben sich radikal geändert. 8GB ist schon jetzt oft das offizielle Minimim für die höchsten Qualitätseinstellungen und manchmal reicht es dafür sogar schon nicht mehr.
Klar, kann man die Qualität immer runter drehen, aber wenn ich für eine nagelneue Grafikkarte eine 4-stellige Summe ausgeben soll, erwarte ich, dass sie wenigtens 1-2 Jahre für ein optimales Spielerlebnis ausreicht.
Solche Kompromisse sollten eher für Mittelklasse und Low End gelten.

Man braucht kein Prophet zu sein, um vorauszusehen, dass die 10GB der 3080 schon zu Begin ihrer Nutzungszeit zu einem limitierenden Faktor werden.

strempe schrieb:
Dafür benötigt man aber auch keine 10GB 3080 und erst recht kein raytracing ;)

Das wäre ja auch der Sinn dieses Rückzugs. 😁
Wobei, World of Warships mit Raytracing... das hätte schon was.😍
 
  • Gefällt mir
Reaktionen: Gsonz, GERmaximus und strempe
Iguana Gaming schrieb:
Die Regler im Spiel sind nicht umsonst da und oft sehen Ultra Einstellungen nicht viel besser als wie unter High aus.

Ich kauf mir super gerne 1000€ Grafikkarten um dann gleich Grafikeinstellungen runterzudrehen...

Iguana Gaming schrieb:
Vor allem hat ne 16GB R7 als Beispiel nicht mal die Leistung um den Speicher vollzubekommen. Genauso wie bei einer R9 390, RX480/580 um jenseits der 60FPS in high/ultra Details zocken zu können.

Das ist doch blödsinn. Texturen kosten so gut wie keine Rechenleistung. Eine Grafikkarte kann von der Rechenleistung vielleicht nicht ausreichen um 1440p und max Details zu stemmen, aber mit viel VRAM könnte man zumindest die Texturen auf max machen. Und wie ich schon geschrieben hab, sind mMn sehr gute Texturen mir zumindest deutlich wichtiger als irgendwelche Lichteffekte etc.
 
  • Gefällt mir
Reaktionen: dohderbert, GINAC, Gnah und 2 andere
Herdware schrieb:
Deswegen finde ich es richtig und wichtig, dass darüber diskutiert und deutliche Kritik geäußert wird.

Die Kritik kommt um über spezielle Szenarien, die nur eine Kleinstgruppe betreffen.

Die Gamedevs fokussieren sich auf den mainstream, und niemand wird die 90% der Gamer ausschließen, die 4-8 GB VRAM besitzen.
Wir haben noch immer nicht die Transition von Full HD zu 1440p überhaupt durch, 70 % aller Gamer spielen immer noch auf 1920*1080/1200.

Laut steam survey spielen 3 % (lol) auf 4K oder 3440*1440 34 Zoll.

Welches große Tech und Gaming Mag hat denn zuletzt angedeutet, dass Gaming demnächst unter 12 oder 16 GB VRAM nicht machbar ist?

Ich finde, dass es nachwievor eine bisweilen hysterische Scheindebatte ist.
 
  • Gefällt mir
Reaktionen: t3chn0, Beero84, Cpt.Willard und 5 andere
Laphonso schrieb:
Wer einen usecase hat von zweistelligen VRAM utilizing Szenarien, die oder der kauft dann wohl die 3090 oder das AMD Pendant.

johnieboy schrieb:
Meine nächste Karte wird definitv 16GB VRAM oder mehr haben.

Wer sich diesen vermutlich 1000€ teuren Speicherkrüppel in den Rechner setzt hat es nicht besser verdient.
Spiel Spaß beim runterdrehen der Texureinstellungen.
 
  • Gefällt mir
Reaktionen: dohderbert und Gsonz
Laphonso schrieb:
weil er schrottig optimiert worden ist?
Und es gab ja auch noch nie ein "schrottig optimiertes Spiel" und jene mit ihren Grafikmods, sind eh weltfremde Gestalten...
Einzelfall / Einzelschicksal wird nie wieder vorkommen / nie zur Norm werden, aber erklären dass Leute bereit sind bewusst für ihr Hobby einen dicken Bündel Geld auf den Tisch zu legen und sich dann verbitten, dass die auf den Tische legende Person Ansprüche an die Spezifikationen stellen, weil einem selber deren Ansprüche nicht konform scheinen, besser gesagt, weil ein favorisierter Anbieter diesen gesteigerten Anspruch seit Jahren konterkariert, indem die Produkte durch die Bank nur gerade ausreichend VRAM mitbringen. Zugegeben, für den 08/15 Gamer, der noch wie zur Jahrtausendwende nach spätestens 18 Monaten eine neue Grafikkarte kauft (da die GPU an Sich bereits nach 12 Monaten spürbar an ihrem Limit angelangt ist), reicht das, aber wer abseits des 08/15 Gamer Pfades wandelt und womöglich die Hardware auch 3 bis 4 Jahre nutzen möchte, der fährt mit diesen auf Kante ausgerüsteten Karten nicht gut und wir alternativ zu dem einen Topmodell getrieben, für dass er dann wieder doppelt und dreifach zahlen darf.

Da muss ich wohl doch glatt von dir in dem Abschnitt sprechen, den du in deinem Beitrag zuvor von mir zitiert hast... Sachen gibt es, die gibt es doch gar nicht
 
Herdware schrieb:
Man braucht kein Prophet zu sein, um vorauszusehen, dass die 10GB der 3080 schon zu Begin ihrer Nutzungszeit zu einem limitierenden Faktor werden.
Damit würde man, wenn das Minimum-Anforderung wäre, alle vorherigen Karten ins Abseits schießen... daher glaube ich das nicht. Selbst eine aktuell noch drittplazierte 2070 Super wäre mit "nur" 8 GB dann ja schon Elektroschrott.
 
  • Gefällt mir
Reaktionen: Laphonso
Laphonso schrieb:
Wir haben noch immer nicht die Transition von Full HD zu 1440p überhaupt durch, 70 % aller Gamer spielen immer noch auf 1920*1080/1200.

Wenn ich so argumentiere, dann kann ich auch einer 2080Ti die Existenzberechtigung absprechen.
 
johnieboy schrieb:
Wer sich diesen vermutlich 1000€ teuren Speicherkrüppel in den Rechner setzt hat es nicht besser verdient.
Spiel Spaß beim runterdrehen der Texureinstellungen.
RDR2 schreddert auf 4K eine 2080Ti.

Den "fps Krüppel" Radeon VII selbst unter unter Vulkan braucht man da trotz 16 GB VRAM gar nicht ansetzen, die initiale Benchmarkszene eiert mit 30er fps.

Wir benötigen von Nvidia und AMD überhaupt erstmal GPUs, die einen fetten min 60 fps Overhead haben unter 4K, denn da geht bisher allen GPUs die Puste aus.

Wie es aussieht packt auch nicht mal die 3090 das, und RDR2 ist last gen.

Aber ja, VRAM ist Problem Nummer 1 ;)
Ergänzung ()

strempe schrieb:
Wenn ich so argumentiere, dann kann ich auch einer 2080Ti die Existenzberechtigung absprechen.
Mache ich ja selbst oft genug, weil ich sie bereits unter 1440p in zig Games Richtung und unter 60 fps easy prügeln kann. Aber es gibt keine Alternative, da sind wir wieder beim Thema.

Für mich ist nicht mal die 2080Ti eine lupenreine 1440p GPU in meiner Definition.

Aber ich bin fps @ Ultra Settings Enthusiast und NICHT der Maßstab.

Ich wünsche mir mehr Performance an jeder Front.
 
  • Gefällt mir
Reaktionen: hahaqp, gesperrter_User, Recharging und eine weitere Person
Laphonso schrieb:
Die Kritik kommt um über spezielle Szenarien, die nur eine Kleinstgruppe betreffen.

Diese Aussage von mir bezog sich auf Kritik über die Preisgestaltung neuer Grafikkartengenerationen. Das hat nur indirekt mit der VRAM-Größe zu tun.

Wobei es natürlich durchaus ein Grund sein könnte, warum es (vorerst) keine 20GB 3080 zu geben scheint. Viel schneller Speicher ist teuer und der Preis der 3080 dürfte auch so schon für viele jenseits der Schmerzgrenze liegen.

Aber da müsste man dann halt darüber diskutieren, was falsch läuft, dass selbst Karten mit für aktuelle Anforderungen eher knappem VRAM schon so extrem teuer geworden sind. Liegt es an den Entwicklungs- und Produktionskosten der immer komplexer werdenden Chips? Oder doch eher nur daran, dass die Kunden halt einfach bereit sind, so viel zu bezahlen?

Vielleicht kamm man auch beides auf die gemeinsame Ursache der fehlenden Konkurrenz zurückführen? Man sieht z.B. an Intel, wohin es führen kann, wenn man jahrelang unangefochten an der Spitze ist. Es ist nicht genug Druck da, immer nach alternativen Wegen zu suchen und man bleibt lieber ewig auf dem eingeschlagenen Pfad, bis der sich dann doch irgendwann als Sackgasse herausstellt.

Gäbe es noch ein halbes Dutzend GPU-Hersteller, wie früher einmal, wäre da vielleicht der eine oder andere dabei gewesen, der ein revolutionäres Chipdesign mit unschlagbarem P/L-Verhältnis rausbringt, das alle anderen ebenfalls zwingt neue Wege einzuschlagen und nach effizienteren Designs zu suchen.
Je weniger Konkurrenten es noch gibt, um so seltener kommt sowas halt vor. (Immerhin hat AMD es im CPU-Bereich zuletzt geschafft.)
 
  • Gefällt mir
Reaktionen: dohderbert und Laphonso
@GERmaximus Den zukünftigen VRAM Bedarf kann dir wohl niemand zuverlässig vorhersagen. Gerade Sony macht ja massiv 'Werbung' für seine SSD Implementation und die Möglichkeit Assets und Texturen quasi 'von der Platte' zu streamen. Die Konsequenzen der neuen Generation würde ich also erst mal abwarten.

Zumal man am PC auch weiterhin davon ausgehen muss, dass nur ein Bruchteil der Spieler mehr als 8GB hat. Entsprechend laufen Spiele auch in 3 oder gar 5 Jahren noch mit 8GB.

Generell finde ich die Diskussion etwas albern. Ich kann mir nicht 2020 eine GPU kaufen in der vagen Hoffnung, damit auch 2022 noch gut bedient zu sein. Fast nichts im Hamsterrad Computerhardware ist jemals zukunftssicher gewesen.

Der komplette Ampere Start ist ne Luftnummer, wenn man nicht wenigstens auf den Vergleich mit Big Navi/RDNA 2 wartet.

Aktuell (eigentlich die letzten Jahre) spielt NVidia nur geschickt seine Position an Markt aus und lotet aus, was die Leute zu zahlen bereit sind.

DarkerThanBlack schrieb:
Manche Leute vertragen eben die Wahrheit nicht. Ist dies nun mein Problem? Ich denke nicht.🤔

7605hep.jpg
 
  • Gefällt mir
Reaktionen: Sophisto, d3nso, Recharging und eine weitere Person
Wenn die Leistung stimmt aufjedefall genial.
Aber bevor ich mir ne neue GPU kaufe, steig ich lieber wieder um auf 2x Full HD statt 2 WQHD Monitore.
 
Für 4K Gamer wird 10 GB Zu wenig sein aber wie sieht's für WQHD Spieler aus?

Werden dort 10GB für Spiele wie Battlefield 6 auf Ultra reichen? Wenn ja kann man bedenklos zugreifen ansonsten muss man wohl warten.

12 GB wäre der bessere Kompromiss.
 
catch 22 schrieb:
, weil einem selber deren Ansprüche nicht konform scheinen
Das kanst Du ganz einfach lösen, catch: Nicht kaufen bzw Konsumverweigerung.

Du musst aber damit leben, dass die "Konsumenten", die stets immer wieder die neue GPU Generation kaufen, dieses Geld investieren.
Ich diskutiere nicht gegen Deine Ansprüche, das ist subjektiv und ich verstehe Deine Position!

Ich diskutiere nur gegen Deine "Bewertung" der Situation.

Ich erwähnte schon, dass ich privat Leute im SGB Bezug kenne. Einer davon ist Anfang 40, EU Rentner, kann nie mehr arbeiten.
Der hat nur seine Rente, und dem habe ich vor einigen Wochen einen 1600 Euro PC zusammengestellt für den MSFS.
Will sagen: Wir sind hier in den HOBBY- und Spiele- (im doppelten Wortsinne) Ausgaben.

Und da sind wir wieder bei dem Anspruch und dem der anderen Konsumenten, catch :)
 
  • Gefällt mir
Reaktionen: gesperrter_User
DarkSoul schrieb:
Selbst eine aktuell noch drittplazierte 2070 Super wäre mit "nur" 8 GB dann ja schon Elektroschrott.

Ja, dem ist auch so wenn man entsprechende Auflösung und Anforderung hat. Wer in FullHD spielt und sich auch ohne 4K Texturen begnügt, wird sicherlich glücklich werden. 4K Auflösung und entsprechende Texturen aktivieren und die Welt sieht schon ganz anders aus.
3080 wird eines von zwei Flagschiffen sein (im Gaming Bereich) und da darf man entsprechend auch brauchbare VRAM Größen erwarten. 2080 und Ti waren der Einstieg in 4K Gaming. Die 3080 wird da nicht halt machen und wird dem entsprechend auch mehr VRAM benötigen. Cyberpunk in 4K mit Raytracing und entsprechenden Texturen? Wird sicherlich mit der 3080 ohne Mikro- und Nachladeruckler schwierig.
Selbst bei 3440x1440 ohne 4K Texturen bin ich schon öfters bei 10-11GB. Klar es gibt auch anspruchslose Spiele, die brauchen dann nur 5GB.
 
Herdware schrieb:
Diese Aussage von mir bezog sich auf Kritik über die Preisgestaltung neuer Grafikkartengenerationen.

Da bin ich auch durchaus bei Dir, auch wenn ich die PReisdebatte etwas differenzierte sehe.
Und ich stimme Dir auch zu, wir sind auch aus meiner Sicht immer wieder im Dilemma , dass wir nur 2 Anbieter haben.
 
Lediglich 10GB in einer 3080 wären mir persönlich zu wenig, dafür das die Karte wohl um die tausend Euronen kosten wird.
Hab mich damals schon für die 1080ti entschieden als Tests der 2000er raus kamen, da 8GB in einer 2080 schon mehr als grenzwertig sind und wenn ich mir so anschaue was die Spiele mittlerweile an Speicher fressen (CoD WQHD keine maximalen Einstellungen schon 8,5GB) war es die richtige Entscheidung.
 
Herdware schrieb:
Mit G-Sync sind sie ja auch schon auf die Nase gefallen und letztlich umgeschwenkt.
Wobei man an dieser Stelle erwähnen müsste, dass wie so vieles von Nvidia (Cuda, Nvenc, Raytracing, DLSS, 3D Vision als es noch beliebt war) die bessere Lösung angeboten wird. ;)

Bei dem Rest stimme ich dir zu. Verstehe nicht, warum die Leute eine 10GB High End Karte verteidigen.
 
  • Gefällt mir
Reaktionen: Herdware
Zurück
Oben