News GeForce RTX 3000: Deutlich mehr Grafikspeicher kündigt sich an

Das könnte ja nun tatsächlich das erste mal seit langem sein, dass AMD mal in der gleichen Klasse weniger VRAM als Nvidia bietet.
Waren ja für Big Navi bisher nur 12 oder 16GB im Gespräch, steht man dort nun gegen 20 und 24 GB.
 
cypeak schrieb:
zum anderen kann man nach dieser argumentation ja zumuten dass game-/engine-entwicker jede beliebige menge an vram vorraussetzen können - aber sie müssen sich nach der durchschnittlichen kunden richten um eine entsprechende reichweite bei den kunden zu haben.


Kann der Entwickler gerne machen, wenn er keine Spiele mehr verkaufen möchte.

Dann kann Nvidia auf einer 1000€ Grafikkarte deiner Meinung nach auch nur 4GB Speicher verbauen? Damit läuft auch jedes heutige Spiel irgendwie. Muss man halt die Einstellungen runterschrauben.

Es geht einfach darum, dass Nvidia dem Preis angepasste Ausstattungen liefern soll. Nichts anderes. Für Preis XY hat man gewisse Erwartungen. Wenn ich für 6000€ erster Klasse fliege, dann möchte ich auch nicht das Fischstäbchen aus der Mikrowelle essen wie die Leute die 400€ bezahlt haben. Für einen gewissen Preis muss es einen gewissen gegenwert geben.

cypeak schrieb:
aber sie müssen sich nach der durchschnittlichen kunden richten um eine entsprechende reichweite bei den kunden zu haben.

Richtig. Und trotzdem gibt es auch immer wieder ausnahmen und Leute mit dem Budget für eine 1000€ Grafikkarte spielen auch nicht in der Auflösung der durchschnittlichen Kunden (1080p) womit hier schnell wieder andere Anforderungen herrschen.

Wenn Ich natürlich auf der einen Seite nicht mit mainstreamsettings spiele, auf der anderen Seite kaum mehr als der Mainstreamkunde an Speicher bekomme, ergibt sich hier schnell eine Diskrepanz.
 
Wird auch mal Zeit das sich nach 4 Jahren endlich mal beim VRAM was tut. Meine nächste Karte wird mit Sicherheit 16 GB haben. Falls das so kommt wird es nicht mehr lange dauern und 8 GB werden das absolute Minimum sein.
 
  • Gefällt mir
Reaktionen: cyberpirate und Stalin Orgel
Cyberskunk77 schrieb:
Mein kleiner Bruder wäre höchst erfreut meine 2080 Ti übernehmen zu können... (...)

Wow, du bist ein echt netter Bruder!
 
  • Gefällt mir
Reaktionen: Speedy, Biervampyr, Onkel Föhn und eine weitere Person
Ich denke auch das 8 GB bei Next-Gen Games das absolute Minimum sein werden.
Vielleicht reicht sogar selbst das nicht, da der PC eine schlechtere Architektur als die Konsolen besitzt.
Sobald auf den RAM ausgelagert werden muss gibt es Hänger und das lässt sich bei voll gelaufenem VRAM eben nicht vermeiden.
Die Konsolen werden den schneller angebundenen Speicher definitiv voll ausnutzen und leider werden Ports sicher wieder mal mehr Leistung benötigt.
Wenn so ein Horizon von 2017 bei 8 GB VRAM bereits alles voll laufen lässt (12-15 GB RAM) und dann anfängt zu ruckeln, weiß man in welche Richtung das gehen wird...
 
PS828 schrieb:
Es geht mir rein um das Ergebnis. Die können auch zum Mond Fliegen damit. Und optisch betrachtet fehlt der Mehrwert zum nativen und die Verbreitung.
Ok, halten wir erst einmal fest, dass es sich dabei NICHT um einen Kantenglättungsalgorithmus handelt - denn diese Falschaussage versuchst du hier gerade per Goalpost-Verschiebung auszublenden. Und wenn du behauptest, dass da "optisch betrachtet der Mehrwert fehlt", dann hast du wahrscheinlich keinen einzigen Benchmark betrachtet. Nicht nur, dass es besser aussieht, du kriegst sogar einen Haufen FPS dazu obendrauf. Wir sind aktuell bei 17 Spielen, die es unterstützen (werden - noch dieses Jahr) und wissen nicht wie die Verbreitung in 1-3 Jahren aussieht (und darum geht es wenn man sich eine GPU kauft). Die Verfügbarkeit in aktuellen Engines ohne großen Aufwand für Spieleentwickler ist JETZT schon da.

Chillaholic schrieb:
Das ist ausschließlich der Microsoft-Store-Relaunch den keiner spielt, weil man ihn nicht modden kann.
Der wurde ja extra in DX12 relaunched und hatte schon länger RT-Implementierung.
Hat für mich übrigens auch absolut keine Relevanz.

Meine Glaskugel? Du bist doch derjnige der die Performance noch vor der Ankündigung kennt. 🤷‍♂️
Nice, wie du nur auf zwei Dinge eingehst.

1. Wenn Microsoft so ein Game (was angeblich keiner spielt, weil man es nicht modden kann) so umbauen kann, dann kann das auch jedes andere Spielestudio. Man muss dafür auch einfach nur eine Engine nehmen, die es schon beherrscht. Wenn ein Indiestudio eine eigene Engine entwickelt, dann kann es DLSS 2.0 dort einbauen - das ist weder Hexenwerk noch muss man es alleine machen; nVidia ist bereit dabei zu unterstützen laut deren Webseite.

2. Du bist derjenige, der behauptet hat RT wird weiterhin unbedeutend bleiben. Ich habe logische Konsequenzen aus Mutmaßungen angestellt - du hingegen hast direkt Tatsachenbehauptungen geliefert, die völlig diametral zu dem stehen was wir in Next-Gen-Konsolen, -GPUs und -Games sehen.
 
  • Gefällt mir
Reaktionen: dohderbert
Meine Wunschvorstellung:
  • ca. 70% mehr Leistung als meine 1070
  • 16GB Speicher
  • unter 225 Watt
  • unter 500€

Mal sehen ob nVidia oder AMD liefert und vor allem wann. Ich kann warten.
 
  • Gefällt mir
Reaktionen: dohderbert
@Chiaki richtig DLSS macht mehr als das. War ungünstig formuliert. Aber ändert Nichts daran dass das Endergebnis (die positiven FPS gewinne mal ausgeklammert, das ist ja alles schön und gut) sich mit Sachen wie TAA und FXAA und nicht zuletzt dem unveränderten Bild messen muss. Und hier sehe ich den Mehrwert überhaupt nicht. Es ist nicht besser, manchmal schlechter, schwer zu implementieren und bedarf bisher einer teuren GPU. Nvidia sollte das ganze mit DLSS in den Treiber verschieben und von den Entwicklern abkoppeln, sonst verschwindet es so schnell wie es gekommen ist.
Es ist kein Zustand dass der GPU Hersteller selbst mit den Entwicklern interagieren muss um die eigenen proprietären Standards, welche lange Zeit weit weg von "It just works" waren, in die spiele zu integrieren damit sie wie vorgesehen Funktionieren und das wohlgemerkt erst jetzt wo bereits die nächste Generation bevor steht. Damit bin ich zu dieser Thematik auch raus.
 
Shoryuken94 schrieb:
Kann der Entwickler gerne machen, wenn er keine Spiele mehr verkaufen möchte.
warum? weil dann die masse an kunden sich beschwert wenn es mit niedrigen anforderungen funktioniert??

diese vram diskussion ist nichts neues - nvidia/amd bieten produkte an von denen sie ausgehen dass diese attraktiv genug sind gekauft zu werden - überraschung: man muss diese nicht kaufen!
wenn einem die karte für das geld nicht genug performance bringt oder man meint, dass es zuvenig vram ist für den abgefragten preis, ist das die gebotene konsequenz.

ansonsten reden wir von erwartungshaltung, die subjektiv ist: dem einen sind 10gb genug und er gibt das geld aus, dem anderen sind 10gb vram nicht gut genug...
 
ToKnight schrieb:
  • ca. 70% mehr Leistung als meine 1070
  • 16GB Speicher
  • unter 225 Watt
  • unter 500€


Wenn ich schätzen sollte, dann musst du dich wohl mit 3 der 4 Punkte begnügen :) 70% Mehrleistung bei 225 Watt sollte kein Thema sein. Das liefert die RTX 2080 schon in etwa. 16GB Speicher dürfte es auch geben. Nur bei den 500€ bin ich noch sehr skeptisch. Aber wäre in der tat eine super Mittelklasse. Würde sehr hoffen, dass wir was in die Richtung sehen.
 
Abwarten und Tee trinken.
Wenn sie gescheit sind bieten sie die Karten billig an, so machen sie extrem viel Umsatz und es gibt dann quasi keine Konkurrenz.
 
cypeak schrieb:
überraschung: man muss diese nicht kaufen!
wenn einem die karte für das geld nicht genug performance bringt oder man meint, dass es zuvenig vram ist für den abgefragten preis, ist das die gebotene konsequenz.

Richtig und darf in Foren seine meinung dazu äußern. Wenn genug nicht kaufen, dann kommt da eventuell auch mal Bewegung in den markt. Hat früher auch mal ganz gut geklappt. Wenn man natürlich gleich so anspruchslos ist und alles stillschweigend hinnimmt, dann tut sich da nie was.

cypeak schrieb:
warum? weil dann die masse an kunden sich beschwert wenn es mit niedrigen anforderungen funktioniert??

nein, weil du mit der Willkür genau das gegenteil beschrieben hast. Aber die Diskussion führt eh zu nichts. Soll sich jeder kaufen, was er möchte. Und jeder sollte frei äußern können was er von einem Produkt erwartet und was nicht. Die Deutsche Autoindustrie ist da ein Paradebeispiel von "man bekommt für immer mehr geld immer weniger geboten" und es wird von vielen auch so akzeptiert. Ist ja auch okay. Man sollte anderen nur gestatten hier Kritik zu äußern. Nichts anderes wurde hier getan.
 
  • Gefällt mir
Reaktionen: v_ossi und Revan1710
Chiaki schrieb:
Wenn Microsoft so ein Game (was angeblich keiner spielt, weil man es nicht modden kann) so umbauen kann, dann kann das auch jedes andere Spielestudio.
Ja, weil jedes Entwicklerstudio das Geld hat, mal eben Mojang Studios aufzukaufen und das gesamte Spiel in DX12 neuzuentwicklen. Merkst selber, oder? Sowas können sich nur AAA-Studios leisten, gerade kleine Studios greifen auf Engines und APIs zu mit denen sie was anfangen können und die man sich leisten kann. Wenn du ausschließlich AAA-Titel und Konsolen-Ports zockst sieht das für dich natürlich anders aus.

Chiaki schrieb:
Nice, wie du nur auf zwei Dinge eingehst.
Im Rest der Antworten hast du mir ja quasi Recht gegeben. Was soll ich da groß zitieren?
 
24 GB Ram? Geil, damit bringe ich mein Full HD Monitor zum glühen😂
Spaß bei seite, wird wohl mal zeit für 4K bei mir.
 
HisN schrieb:
Du bist der erste Mensch den ich kenne, der alle Spiele hat.
Aber Du bist nicht der erste, der die leere Floskel "max Details" benutzt.

Ich sag da gerne max Settings zu. Und das sieht bei einer 2080TI z.b. so aus: 13 FPS in FHD.
Anhang anzeigen 953323

Und braucht trotzdem 13GB VRAM.
OK dann habe ich mich schlecht ausgedruckt^^
Mit alle Spiele sind die Spiele gemeint die ich habe und "max Setting" ist genauer :-)
(Max Setting trifft nicht 100% zu, manche Spiele machen grafisch kein Unterschied zwischen, z.B.,Ultra und Sehr Hoch...)
Bei RDR2 brauche ich nicht alles hochschrauben, das Spiel sieht ja mit der Standard Einstellungen schon sehr gut aus.
Trotzdem komme ich mit 24 Zoll FHD/144Hz bisher ganz gut zurecht und es wird sich nicht so schnell ändern und ja ich lege wert auf eine schöne Grafik^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: s0UL1
legenddiaz schrieb:
Natürlich wird es mehr Leistung für weniger geld geben. Wie kommt man auf so ein Blödsinn?

Ansonsten würde nur die Ti Sinn Machen. Die 3080 müsste also nach deiner Theorie genau so viel kosten wie die 2080ti... ernsthaft?

Und was die Leute hier schreiben... Die 3080 für 1000€+ , dass glaube ich niemals. Dann bin ich raus und sehr viele andere auch. Da bin ich mir sicher und das bringt Nvidia dann auch nix..

Die werden eher die Bombe krachen lassen!
Gleiche Preise ungefähr für verdammt viel Leistung, Speicher und Raytracing und alle drehen durch...

Aus Erfahrung ;-), zum Release der 2080 für 849€ gab es die 1080 TI für 700€ also 21% Preisaufschlag für 5-8% mehr Leistung, Quelle https://www.computerbase.de/artikel...t_beide_geforce_rtx_setzen_sich_an_die_spitze
Das mit der Bombe gab es in den letzten Jahren so nur zum Release der 1080, also ziemlich unwahrscheinlich...
Ohne passende ATI Karten gibt es auch keine "Preisleistung", bis die da sind wird abkassiert...
 
Zuletzt bearbeitet: (Optik)
  • Gefällt mir
Reaktionen: Onkel Föhn
7hyrael schrieb:
klingt ja erstmal gut, solange sich nVidia nicht wieder irgendwelche 970er-Spirenzchen einfallen lässt, stehn dann hier demnächst 24GB VRAM unterm Tisch, da würde ich nicht klagen.
Na ja, wenn es explizit "Basis-Varianten" und welche mit verdoppeltem Speicher geben wird, fragt sich eben auch, wie groß der Aufpreis ist. Wenn die Dinger dann nur in der kleinen Variante brauchbare Preise haben sollten, wäre es trotzdem etwas enttäuschend.
Aber ich bin froh, dass mir meine 1080 noch reicht. Meine Glaskugel sagt mir irgendwie, dass weder AMDs noch Nvidias nächste Gen attraktive Preise haben werden und das wird in Zukunft vmtl. auch nicht besser werden. Da muss man seine HW länger behalten. Immerhin ist der Fortschritt auch nicht mehr so schnell, dann tut's die alte HW auch noch länger.
 
Zurück
Oben