News RTX 3080 Ti und 3070 Ti: Nvidia soll einmal mehr am Grafikspeicher sparen

Wenn du mehr Richtung 780_non_TI Release schielst dann sah das auch noch anders aus.
Und heutige Mittelklasse hat sogar 12 GB (3060 und 6700XT, wobei letztere mMn. nicht mehr ganz MK ist)

Und ja Turing sind finstere Zeiten gewesen:( Navi 1 war auch nicht toll
 
KenshiHH schrieb:
auf ein mal sind 8 und 10GB VRAM absolute krüppel
In der Preisklasse 500€ und aufwärts? Ja, genau das.
Das ist nicht mehr Zeitgemäß und hat maximal in der Mittelklasse etwas zu suchen. 8GB gabs schon 2015.

In 2021 darf und sollte an mehr erwarten bei Grafikkarten im oberen Drittel.

Aber da ja alles gekauft wird, selbst wenns kaum VRAM hat und das 3 fache der UVP kostet... :rolleyes:
Ergänzung ()

KenshiHH schrieb:
nur weil x GB benutzt/reserviert werden, heißt es nicht dass auch soviel gebraucht wird
Mal als Beispiel Resident Evil 2 - es war mit 8GB nicht möglich alles zu nutzen - das Spiel gibt bei mir jetzt 10Gb Verbrauch an.

Es gibt bereits Spiele die mehr als 8GB benötigen, wenn man die Texturen aufdrehen will.
 
bad_sign schrieb:
Wenn du mehr Richtung 780_non_TI Release schielst dann sah das auch noch anders aus.
Und heutige Mittelklasse hat sogar 12 GB (3060 und 6700XT, wobei letztere mMn. nicht mehr ganz MK ist)
Aber wir haben ja von der 780Ti gesprochen :) die Non Ti war auch ein gutes Stück langsamer. Da sieht man aber auch sehr gut, wie fix es damals voran ging, dass 3GB vom Oberklassebereich in die Mittelklasse gekommen ist.

Die 3060 kam auch deutlich später als die 3080, genauso wie die 6700xt. Mittlerweile ist aber eh alles durcheinander und die Speicherinterfaces schlagen auch deutlich durch. 6GB Karten kannst du nicht wirklich mehr anbieten, 12GB übersteigt die Oberklasse.

Da lobe ich mir den Ansatz bei AMD aktuell etwas mehr. Da passt der Speicher zur GPU Klasse... in allen Klassen.
 
  • Gefällt mir
Reaktionen: Fuchiii
SavageSkull schrieb:
Selbst von der 1080Ti sind es immer noch 94%
Er hat immer von der 1080ti gesprochen. Also waren seine geschätzten 85% sehr gut. Du hast dich da nen Bissel ins abseits gestellt.

Mfg
Ergänzung ()

Dodo Bello schrieb:
Lustig das einige denken da wäre irgendwas echt. Wenn die in den Sack hauen... Streiten ect. Teilt sich da eine Gruppe ab... Oder wenn das Minen mit gpu unrentabel wird.. . Zack wird ne neue "Währung" ins Leben gerufen. Da fällt ja selbst nen blinden auf das es alles nur fake ist. Aber macht ruhig weiter. Es sind schon ganz andere mit weit mehr an der Nase herungeführt worden. Zum Schluss haben ganz wenige abkassiert. Ganz viele ganz viel verloren. Möchte sogar behaupten das einige Hobby miner ihren Stromzähler gar ned richtig auf dem Schirm haben. Die Abrechnung kommt ja nur einmal im Jahr. 😂

Mfg
 
Zuletzt bearbeitet:
Ich frage mich was das jetzt bringen soll? Als Interessent steht man dann vor der Entscheidung:

Nehme ich eine 3080 die nicht lieferbar ist oder nehme ich eine 3080ti welche nicht lieferbar ist? Ah Moment bei eBay ist gerade eine für 3k verfügbar.

Heute erst wieder bei Kleinanzeigen gesehen: Tausche RTX 3080 Modell xyz gegen 2-3 3070 Karten 🤣
 
Fuchiii schrieb:
In der Preisklasse 500€ und aufwärts? Ja, genau das.
Das ist nicht mehr Zeitgemäß und hat maximal in der Mittelklasse etwas zu suchen. 8GB gabs schon 2015.

In 2021 darf und sollte an mehr erwarten bei Grafikkarten im oberen Drittel.

Es sollte das sein, was technisch und vor allem auch preistechnisch am meisten Sinn macht. Karten einfach mit Videospeicher vollzuknallen, weil es einige wenige Extrema gibt, ist für den Kunden im Normalfall (bei ausreichend hohen Stückzahlen) mit Mehrkosten verbunden. Kosten, die gerade die preissensiblen Kunden nicht bereit sind zahlen zu wollen.
Auf der anderen Seite gibt es auch stets Verbesserungen bei den Komprimierungsverfahren, sodass am Ende nicht unbedingt mehr Speicher benötigt wird. GPUs mit viel Videospeicher im Privatkundenmarkt sind für die meisten Nutzer einfach nicht sinnvoll, auch wenn es technisch kein Problem darstellt. Das sind dann am Ende Ressourcen, die nicht genutzt werden und einfach brachliegen.

Aus diesem Grund wäre eine 3080 Ti mit 12GB zum Start statt der 3090 mit 24GB auch für viele die sinnvollere Option gewesen und Nvidia hätte pro Karte 50% an Speicherchips einsparen können.

Fuchiii schrieb:
Mal als Beispiel Resident Evil 2 - es war mit 8GB nicht möglich alles zu nutzen - das Spiel gibt bei mir jetzt 10Gb Verbrauch an.

Es gibt bereits Spiele die mehr als 8GB benötigen, wenn man die Texturen aufdrehen will.

Immer diese Resident Evil Beispiele und jedes Mal muss ich mir die Frage stellen woher die Leute ihre Werte beziehen. Die Ingame-Anzeige für die VRAM-Nutzung stimmt hinten und vorne nicht. Wenn ich mir die VRAM-Nutzung im Afterburner anzeigen lasse unter 5120x1440p mit maximalen Texturen, dann stehen da 8,3 GB (und das ist nur der genutzte VRAM, nicht der vom Spiel allokierte Speicherbedarf). Triple-A Titel von Ubisoft mit AnvilNext Engine benötigen noch weniger - Capcom ist mir ihrer REngine da eher ein Ausreißer als die Norm.

Außerdem darf die VRAM-Nutzung von Nvidia und AMD nicht gleichgesetzt werden. AMD-Karten haben schon in der Vergangenheit prozentual immer mehr VRAM "benötigt" als das Nvidia-Pendant. (Nvidia hat einfach die bessere Speicherkompression).
 
  • Gefällt mir
Reaktionen: BorstiNumberOne und Klever
Fuchiii schrieb:
Mal als Beispiel Resident Evil 2 - es war mit 8GB nicht möglich alles zu nutzen - das Spiel gibt bei mir jetzt 10Gb Verbrauch an.

Es gibt bereits Spiele die mehr als 8GB benötigen, wenn man die Texturen aufdrehen will.

Maxed out belegt es bei mir knapp über 6 GB in 1440p.

Die Angaben im Spiel sind einfach komplett falsch.
Und ja, es gibt Warnungen, wenn die Anzeige in den Grafikeinstellungen die menge des verbauten VRAM überschreitet, aber die Settings können trotzdem übernommen werden und haben auch Auswirkungen im Spiel.

Wobei das Spiel trotzdem perfekt mit z.B. 4GB spielbar ist. Bei Texturen auf "hoch" gibt es mehrere Abstufungen die definieren, wie viel VRAM genutzt werden soll. Wenn man das entsprechend etwas reduziert, sinkt der VRAM bedarf mal eben um 2GB bei nur minimalsten Unterschieden bei den Texturen.

Erst wenn man die Texturen auf Medium oder auf niedrig runter regelt, sieht man deutlichere Unterschiede.
Aber bei "High" Texturen macht es fast keinen Unterschied ob man "High 0,5 GB" einstellt oder "High 8 GB".
Auf mittlere Entfernungen gibts ein paar dezente Unterschiede, aber die Detailauflösung von näheren Texturen bleibt identisch.

Mach einfach mal Screenshotvergleiche und lass dir die VRAM Belegung im Afterburner einblenden.


EDIT:
Mal zum Vergleich, was in 1080p mit leicht optimierten Settings möglich ist. (nur um zu demonstrieren, dass das auch auf alten 4GB Karten super laufen würde) Ich hab mal TAA deaktiviert, damit man die Texturen besser beurteilen kann

Zuerst Maxed Out 1080p.
5,5 GB VRAM Belegung
RE2_max.png

Und hier nur Schatten von Max auf High gesetzt und Texturen von "High 8 GB" auf "High 0,5 GB"
3,7 GB VRAM Belegung
RE2_optimized.png


Und jetzt soll man sich ständig anhören, dass erst 10 GB für dieses Game reichen sollen?
Also da muss ich dann auch mal sagen: Fake news!
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BorstiNumberOne, XashDE und Klever
B3nutzer schrieb:
Maxed out belegt es bei mir knapp über 6 GB in 1440p.
Ich weis ja nicht was du für Einstellungen hast, aber wenn man hochdreht ist das deutlich merh VRAm-Auslastung. Habs erst ausprobiert, war bei 63% GEsamtlast, von 16GB.

B3nutzer schrieb:
Aber bei "High" Texturen macht es fast keinen Unterschied ob man "High 0,5 GB" einstellt oder "High 8 GB".
Ah.. und weil du meinst für dich lohnt sich das nicht brauchts auch niemand - schon klar.. :freak:
 
@Fuchiii

Sorry, ich kann auch nicht mehr machen, als alles auf maximum zu stellen.
Aber dass bei AMD etwas mehr belegt wird wurde ja schon erwähnt.


Ach ja übrigens, wer es schafft, die restlichen Regler auch noch zu bedienen, der kann den Speicherbedarf auch auf unter 3 GB drücken... dann natürlich mit leichten grafischen einbußen. Wobei die Unterschiede nüchtern betrachtet immernoch lächerlich gering sind...

Aber ich weiß schon, das will hier keiner hören :lol::lol:

re2_2021_03_23_18_42_13_232.png
2,95 GB



Fuchiii schrieb:
Ah.. und weil du meinst für dich lohnt sich das nicht brauchts auch niemand - schon klar.. :freak:

Im vorherigen Post von mir siehst du den Vergleich zwischen Maxed Out (Texturen "High 8GB") im Vergleich zu Texturen "High 0,5GB".
Sag du mir, ob es sich für dich lohnt bzw. ob und wo du hier Unterschiede siehst.

Also ich tu mich da schon schwer...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: BorstiNumberOne und Klever
VRAM ist egal. 12 GB reichen locker für die nächsten 2-3 Jahre. Ja, man wird nicht alles auf ULTRA spielen können, aber wo sieht man bitte im Spiel wirklich Unterschiede zwischen MAX und ULTRA. Die Unterschiede sind doch meist so klein, dass man schon Screenshots machen muss und selbst im Vergleich nur minimalste Änderungen sieht, die einem während des Spielens nie auffallen würden.

Aber die ganze Diskussion ist eh müßig. Oder glaubt jemand, die Karte wird es, außer in Homöopathischen Dosen, bis Ende des Jahres zum UVP zu kaufen zu geben? Und dann kommt schon der Nachfolger....
 
Shoryuken94 schrieb:
Ganz so simpel scheint das ganze nicht zu sein, da hier vor allem der Cache Algorithmus wichtig ist und optimiert werden kann. Hier gibt es bereits einige Erkennstnisse, so dass man schwierig sagen kann, Ab da reicht der Cache nicht mehr aus. Hier kommt es auf den Anwendungszweck an.

Eine valide Anmerkung deinerseits, und sicherlich ist IC eine gute Entwicklung bringt es doch für AMD eine Möglichkeit bei einem niedrigeren Memory Bus als Nvidia für eine vergleichbare Performance in Spielen (RT ausgenommen) zu sorgen, in produktiven Anwendungen gerät diese Lösung in einen Nachteil, was du erwähnst, je nach Implementierung bzw Anpassung des Algorithmus kombiniert mit der in der Architektur verankerter Rechenleistung der FP ALUs (AMD haben aber bereits gesagt, dass es da eine generalisierte Performance geregelt durch die Treiber gibt, obwohl die wohl an einer Möglichkeit arbeiten den IC eventuell spezifischer in den Treibern anpassen zu können).

Ich finde es allerdings schwierig bzw nicht gerade berechtigt, den von Nvidia verbauten Speicher wie bei manchen im Forum verbreitet nur unter dem Aspekt der Größe zu kritisieren und die Karten schlechter darzustellen, als sie sind. Wenn man Vergleiche zieht, steht ein schneller 350-380 Bit Bus dem IC in nichts nach, wie die Tests inklusive Benchmarks von z.B. einer 6700 XT mitsamt 192 bit Bus und einem 96 MB IC im Vergleich zu einer 2080 Ti mit 352 Bit zeigen, oder einer 6800XT mit 128 MB IC bezüglich der 3080 mit einem 320 Bit Bus, in Anwendungen hat ein konstant hohe Bus-Bandbreite aber denselben Vorteil, den SAM vs DLSS hat, bei Cross-Vergleichen - es ist immer an (unabhängig von Cache Größe oder anderen Faktoren), und im schlimmsten Fall bringt es nichts, im besten Fall hat man damit Vorteile, wie man u.a. auch an produktiven Anwendungen bezüglich besserer Leistung von Turing/Ampere im Vergleich zu RDNA 1.0/2.0 sieht.

Shoryuken94 schrieb:
Ich glaube nicht das es sinnvoll ist hier jetzt alle Errungenschaften aufzulisten und zu vergleichen. RDNA2 und Ampere sind Grund verschieden und gehen andere Ansätze und haben auch ganz andere Entwicklungsziele und andere Probleme.

Bezüglich den Unterschieden bei den Ansätzen gebe ich dir Recht, Entwicklungsziele sind z.T. aber durchaus vergleichbar, mitsamt der in der Realität umgesetzten Leistung in diversen Szenarien. Es ist auch ein Teil von Vergleichen, die seit Anbeginn der technischen Entwicklung gemacht werden, bei Grafikkarten sowieso. ;)

Ist ja auch nichts anderes, als was hier größtenteils besprochen wird, weil man meint dadurch sein Kaufverhalten entweder herausfinden zu können oder verteidigen zu müssen. Die gesamte Speicherdiskussion ist ja ein Teil davon, da sind andere in der Architektur umgesetzte Aspekte wie die besagten Tensor-Kerne auch ein valider Teil, geht es doch um die Unterschiede bei der verbauten Hardware.

Shoryuken94 schrieb:
Nvidias KI Bestrebungen sind ohne Frage extrem Innovativ. Hier müssen Sie sich aber auch mit anderen Konkurrenten wie Google messen, die hier auch auf eigene Hardware setzen.

Im professionellen Bereich je nach angestrebter Anwenderlösung durchaus, wobei Nvidia mit CUDA da für professionelle Anwender schon lange eine passende Platform anbietet, die für mannigfaltige Anwendungsziele von wissenschaftlicher Analyse zu medizinischen Chemie- und physikalischen Berechnungen an den Universitäten, Design & Engineering von CAD bis Berechnung von Fluid dynamics etc alles anbietet (mit Konkurrenz von Google und HP in bestimmten Bereichen).

Im Gaming Bereich steht Nvidia allerdings mit ihrer früher Implementation von Deep Learning Systemen bis jetzt ziemlich unangefochten da, was auch nicht verwunderlich ist da sie auf diesem Gebiet bedingt durch eine frühe Forschung technologisch führend sind.

Shoryuken94 schrieb:
Gleichzeitig arbeitet AMD auch an CDNA. Diese Architektur hat einen größeren Compute Ansatz und hat mit der neuen Matrix Core Engine einen ähnlichen Ansatz wie Nvidia mit den Tensor Cores, allerdings weniger spezialisiert und mit leicht anderem flexibleren Ansatz. (Ähnlich wie die AMD Lösung für die integrierten RT Cores über die TMUs

Das ist nur zu begrüßen, AMD hat gesehen dass Nvidia Ansatz Vorteile bringt und wenn sie eine Alternative anbieten, ist es gut für den Markt. Damit einhergehend können sie mit der Implementierung der neuen Architektur den Rückstand in dem Gebiet verringern, bedeutet allerdings auch dass man bis zur Umsetzung sich gedulden muss und es dann erst mit der neuen Architektur möglich sein wird, ähnliche Berechnungen die für Deep Learning wichtig sind durchführen zu können, im Gegensatz zu den Vorgänger-Gen (wird wahrscheinlich ähnlich verlaufen wie der Umstieg von Turing zu Pascal).

Shoryuken94 schrieb:
Anders als bei Fahrzeugen ist die Kategorisierung doch eh immer relativ persönlich. Was der eine als Mittelklasse Bezeichnet, bezeichnet der andere als Oberklasse. Mittlerweile gibt es die GPUs in so kleinen Abstufungen, dass es auch enorm viele Klasseneinteilungen gibt. Eine feste Definition wie bei Fahrzeugen durch das KBA gibt es

Dem kann ich einerseits beipflichten (der eine ist schon mit einer GTX 970 zufrieden, für den anderen sind Karten unter einer 6900 XT/3090 nicht einer Betrachtung würdig), andererseits würde ich dazu noch anmerken dass es ja trotzdem eine mehr oder minder genaue Aufteilung in Leistungskategorien gibt, wie Einstegerklasse, Mittelklasse, Oberklasse/Highend und Enthusiastenklasse. Jeder definiert es für sich selbst natürlich abweichend, bei den meisten Reviewern gibt es da allerdings einen mehr oder minder großen Konsensus meiner Erfahrung nach, und als die 5700 XT rauskam, haben viele Reviewer die ich kenne, wie HWU, PCGH etc die 5700 XT der Oberklasse bzw High end zugeordnet (wo sie meiner Meinung nach auch hingehört hat mit einer Rasterleistung vergleichbar mit einer 2070 Super bzw einer 1080 Ti).

Auf Mainstream bzw Mittelklasse war eher die 5600XT gerichtet, gemäß z.B. PCGH bei der Übersicht über die Marktsegmentierung, zur gehobenen Mittelklasse (da ist sie, eine von dir angesprochene Unterteilung die wir dem breiten Angebot auf dem Markt verdanken bzw verdankt haben, mittlerweile ist ja wenig lieferbar zu unmöglichen Preisen die die Unterteilung schwieriger gestalten) lässt sich eventuell noch die 5700 non-XT zählen, die größere Schwesterkarte war aber ein Tier höher.
 
wenn NV keine normalpreise und vernünftige VRam-ausstattung aufn markt bringen will, dann brauchen sie mein geld halt einfach nicht. ich bekommen in 4K den V-Ram meiner 2070s ziemlich voll und da ich auf 4K aufrüsten werde, was die bildschirme angeht, brauche ich wohl 12 oder noch besser 16GB. also entweder ich nehme die nächste generation von ATI oder ich warte - gewinnen wird NV dabei gar nichts außer verärgerte kunden.
 
B3nutzer schrieb:
Auf mittlere Entfernungen gibts ein paar dezente Unterschiede, aber die Detailauflösung von näheren Texturen bleibt identisch.

Aber wie soll man dem Mainstream verständlich machen wie "Texturstreaming" funktioniert !?
Bei Mextro Exodus bekomme ich auch "nur" max. 7GB voll in 4K Extreme mit Ray Tracing Ultra
weil die Engine relativ gut optimiert ist und halt nur im nötigen sichtbaren Bereich scharf stellt.
 
Zuletzt bearbeitet:
B3nutzer schrieb:
Ach ja übrigens, wer es schafft, die restlichen Regler auch noch zu bedienen, der kann den Speicherbedarf auch auf unter 3 GB drücken...
Ich wollte ganz und garnicht sagen das Spiel sei nicht spielbar mit weniger VRAM. Natürlich isses das, und ich dreh auch an den Reglern.

Auch die ~60% sind eher ne Spitzenlast, wenn ich alles hochdreh^^
(Außerdem schließ ich nichts beim Gaming. Daher auch der nutzen eines 12cores. brauch man das?..nein.. isses praktisch wenn ein Spiel 8cores nutzt und noch 4 weitere da sind? - auf jeden Fall)

Aber - ab einer gewissen Preisklasse, möchte ich mir da auch schlicht keinen Kopf mehr machen müssen.
Ist also mehr eine Frage des Prinzips:

Ich erwarte eine angemessene Hardware ab Preis X in 2021. Es kann einfach nicht sein dass man mit 8GB VRAM abgespeist wird, obwohl das schon längst überholt ist.

Schau dir die 2080Ti an, 11GB VRAM - und die 3070(Ti) bekommt wieder nur 8GB? Das ist doch völlige ******.

Dass eine 3060(Ti)/6600(XT) usw jetzt nicht mit übermäßig VRAM kommen ist mir schon klar.
Ab 3070(Ti)/6700(XT) gehören aber mMn 10GB+ auf ne Karte.

Im Bereich 3080(Ti)/6800(XT) sind 16GB zurecht zu erwarten.

Aber vermutlich ist das vergebene Liebesmüh hier, schließlich hat man ja auch die 6GB Speicherkrüppel der letzten Generation gekauft. Daher besteht aus Herstellersicht ja auch kein Grund irgendwas zu ändern.
 
Wer sich die RAM Auslastung im Spiel anzeigen lässt, sollte wissen das dies nicht der aktuelle verbrauch des VRAMS ist, sondern die reservierung des VRAMS ist ! Dieses ständige rumgehupe 8GB wären zu wenig ist völliger Nonsens, und würde nur zutreffen in auflösungen jenseits von 1440p und mit aktiviertem RayTracing, wie CB ja auch schon gezeigt hatt.

Auch die aussage zukunftssicherheit ist immer wieder amüsierend, gerade auch in der hinsicht das sich die meisten Gamer wohl eh alle 2Jahre eine neue Grafikkarte kaufen. Die AMD Karten haben 16GB VRAM, ist ja ganz toll, nur sollte der Zeitpunkt kommen in Spielen wo die wirklich benötigt werden, ist der Chip bereits zu langsam und eine neue GPU generation am Markt, also wirklichen sinn ausser Marketing im Gamingbereich haben die 16GB nicht, einzigst sinnvoll im Workstationsbereich, aber da kauft man sich keine Gamingkarte sondern wohl eher eine "echte" Grafikkarte aus dem Prfessionellem bereich.

Hier und jetzt nehme ich lieber mehr power mit als sinnlos dazugeknallten VRAM der mich dann 200 oder 300 euro kostet und vielleicht in 1 oder 2 Spielen sinn machen würde, also finde ich die entscheidung richtig von NVIDIA, den speicher schneller werden zu lassen, anstatt sinnlos zu erweitern.
 
  • Gefällt mir
Reaktionen: Klever, Laphonso und Zach
Wenn man sich nur das holen würde was man braucht, wären die PCs in unseren Signaturen deutlich anders. Meinst du nicht auch :)
 
Konnte mit meiner 3080 bisher noch keinen Performance-Mangel durch zu wenig Speicher feststellen. Aber für die Clickbait-News und die "Ich bin arm, brauche aber eine Ausrede"-Nicht-Käufer natürlich eine willkommene Ausrede.
 
Fuchiii schrieb:
Aber vermutlich ist das vergebene Liebesmüh hier, schließlich hat man ja auch die 6GB Speicherkrüppel der letzten Generation gekauft. Daher besteht aus Herstellersicht ja auch kein Grund irgendwas zu ändern.
Seit Turing plappern das unglaublich viele Leute nach, dass man plötzlich weniger oder genauso viel VRAM braucht wie 2016. "Spezialisten" wie Gamers Nexus machen da sogar auch mit. Mit Ampere hat es nochmal nen ordentlichen Schub bei der Propaganda gegeben.
 
  • Gefällt mir
Reaktionen: Fuchiii
Zurück
Oben