News GeForce RTX 3080: Benchmark nennt Taktraten und 10 GB Grafikspeicher

Exit666 schrieb:
Ich frage mich manchmal, wie einige Spiele es schaffen, den VRAM voll zu machen, wo ich rel. wenig Grund dazu sehe und andere Spiele gut damit hausieren. Ich mag HZD sehr gerne, gefällt mir richtig gut das Spiel. Aber in Full HD 7,5-7,6 GB VRAM, da frage ich mich, wofür?

Ich habe eben mal zum Spaß den Hexer angeworfen. HD Reworked Mod (also fast alle Texturen in höherer Auflösung), 4K Gras Mod. Dazu Sichtweite + Grasdichte auf mehr als Ultra (angepasste ini) und DSR @2160p. Frames sind da natürlich nicht mehr so schön, aber es war schwierig über 6GB zu kommen.

Ok, ich bin absoluter Laie, was die Technik dahinter angeht, interessant finde ich es dennoch. :)

Anhang anzeigen 955926Anhang anzeigen 955927Anhang anzeigen 955928

Ist halt schlecht optimiert, daher nur 6GB. 😂.. alles andere ist bombastisch optimiert, Matschepampe und 8GB+, der neue Standard.

So werden die Käufe für mehr VRAM angekurbelt, ich gehe sogar so weit und behaupte, dass intern Geld geflossen ist. Ist ja quasi eine win-win Situation.
 
Zuletzt bearbeitet von einem Moderator:
Also eine neue Karte mit "nur" 10 GB VRAM werde ich nicht kaufen. Wenn dann jetzt aber ordentlich VRAM drauf, dann hält die Karte auch paar Jahre.
 
  • Gefällt mir
Reaktionen: Öcher Tivoli
ragnaroek666 schrieb:
Das macht er bei einem Händler 2-3 mal, dann bekommt er dort gar nix mehr. Wenn das sein Ziel ist, OK.

Abgesehen vom besagten Fernabsatzgesetz muss er das Geld für die Grakas auch jedes Mal vorstrecken, wenn er nicht 1-2 Wochen auf die Erstattung des Geldes warten möchte (Amazon mal ausgenommen). In welchem Maße er das kann, hängt von seinen zur Verfügung stehenden finanziellen Mitteln ab.
 
Lübke82 schrieb:
@Fliz

Na dann kauf doch die mit 20 oder mehr GB. Wo ist da das Problem?
Werd ich auch machen, ich versuch nur den Sinn hinter der 10 GB Version zu sehen..
 
@Fliz

Das gibt es doch aber nicht zum ersten Mal. 10GB sind die kostengünstigeren Alternativen. Will ja nicht jeder in 4k zocken. Für High-Fps-Gamer in FHD reichen 10GB erstmal allemal, mMn.
 
  • Gefällt mir
Reaktionen: GERmaximus, Chismon und Pisaro
Ich gehe nach wie vor davon aus, dass die kolportierte 3090 eine TITAN ist und eben keine GeForce RTX. Eine TITAN im Vollausbau mit gleicher Speicherausstattung und geringerer Durchsatzrate als es bei der ominösen 3090 der Fall sein soll, ergibt für mich keinen Sinn. Es sieht für mich eher viel mehr danach aus, als hätte NVIDIA massiv an den Signalwegen gearbeitet und evtl. auch noch die Speicherkompression weiterhin verbessert. Die Durchsatzraten fallen im Vergleich zu den Vorgängergeneration überdurchschnittlich hoch aus. GDDR6X alleine wird dafür nicht ausreichend gewesen sein. Eine 3080ti mit 320-bit Speicherinterface und 20GB VRAM passt da besser ins Bild. Das würde gleichzeitig auch die Kosten für Nvidia senken.

Eine TITAN für 2.000€ statt 2.750€ und eine 3080ti mit nahezu verdoppeltem VRAM zum gleichen Preis wie bisher klingt plausibler als am Ende noch eine Karte on top zu setzen, die sich nur durch ein paar mehr Recheneinheiten absetzen kann. Da müsste schon eine TITAN auf Basis von Big Ampere und HBM aufkreuzen wie damals mit der TITAN V unter Volta. Mit den Chips wird NVIDIA allerdings im Prosumer Segment wesentlich mehr verdienen können.
 
  • Gefällt mir
Reaktionen: .Sentinel., Luxmanl525 und Lübke82
Ich muss sagen selbst mit 4k und nur 6GB bin ich eig immer im grünen Bereich aktuell. Mich hatte das schon gewundert mit den Vram Gerüchten.

Logisch wären doch eigentlich nur 24GB Titan, 11 oder 12 GB die 3090/3080 TI, 10GB die 3080.

Passt auch zu Nvidias "Art"
 
  • Gefällt mir
Reaktionen: Luxmanl525
Ko3nich schrieb:
@kaxi-85
Das hängt wahrscheinlich davon ab wie die neuen Konsolen mit VRAM umgehen. Die Xbox hat wohl 10GB VRAM mit voller Geschwindigkeit und 3,5 etwas langsamer. Wenn das von genutzt wird könnte man schnell ins Limit laufen und das tut dann sehr schnell ordentlich weh.

Wenn die X-Box 10GB VRAM hat, dann reichen doch auch 10GB bei der Desktopkarte. die 3,5 GB etwas langsamen Speicher kann die Karte im Desktop sich auch vom Arbeitsspeicher holen. PCIe 4.0 hilft da schon, wenn der VRAM mal leicht ausgeht, siehe hier:

https://www.computerbase.de/2020-02/amd-radeon-pcie-3.0-4.0-test/

Gut, muss man sich halt ein AMD-System zulegen. Intel hat ja nur PCIe 3.0....
 
Das VRAM-Argument wird häufig dann angewandt, wenn Titel aufkreuzen, die unverhältnismäßig viel VRAM belegen. Die Frage in den Fällen ist aber eher, warum andere Titel, die teilweise viel größere Spielwelten beinhalten, mit weitaus weniger VRAM auskommen. Tendenziell haben AMD-Karten in der Vergangenheit auch immer mehr VRAM belegt als passende NVIDIA-Gegenstücke. NVIDIAs DCC dürfte hier immer noch überlegen sein. Wenn das also weiterhin Bestand haben sollte und die zukünftigen Konsolen, gerade um die PS5 herum, mit 10-13GB VRAM daherkommen, NVIDIA hier aber auch mit weniger VRAM gegenhalten kann, dann ist doch die Frage warum NVIDIA den VRAM bei ihren Gaming-Karten so extrem in die Höhe treiben sollte. Das ist schließlich ein privatwirtschaftliches Unternehmen und wird nur das tun, was nötig ist, um weiterhin am Markt bestehen zu können. Es wird aber nicht das machen, was möglich ist, nur um einige wenige zufriedenstellen zu können.
 
  • Gefällt mir
Reaktionen: Recharging
Die Leute tun ja fast so als hätte so ein Computer gar keine Speicherverwaltung und würde alles planlos in dem Ram/Vram schmeißen...

Nix gegen mehr RAM(Werden sich AMD und Nvidia gut bezahlen lassen) aber glaubt ihr ernsthaft 10GB Vram werden ab diesem Jahr das Pendant zur 3GB 1060?
Wenn dem so ist, sagt mir was ihr Raucht und wo man das kaufen kann :)
 
  • Gefällt mir
Reaktionen: .Sentinel. und Smartin
Hallo zusammen,

@ Fliz
Fliz schrieb:
Wenn dann jetzt aber ordentlich VRAM drauf, dann hält die Karte auch paar Jahre.
Mit deiner Darlegung implizierst du regelrecht, daß VRam wichtiger als die GPU selbst ist. Völlig irrational. Es gibt vielleicht eine Handvoll Spiele, wo 6-8 Gbyte VRam zu Problemen führen können bzw. kann. Und wenn, liegt es bei den meisten dieser Games sogar noch an der eher mauen Programmierung Respektive schlechter Konsolen-Portierung, als an sonst irgend etwas.

Und das beste, in der Regel reicht es dann sogar, den Detailgrad in auch nur irgendeiner Stufe um lediglich einen Schalter zu reduzieren. Wenn ich dann die meisten Spiele dann so sehe in den höchsten Detailstufen und den jeweilig ersten direkt darunter, kann man den Unterschied noch nicht einmal in den meisten Fällen erkennen, höchstens mit der Lupe. Dabei macht es sich dann Überproportional dafür in deutlich gewachsener Performance bemerkbar.

Ehrlich, ich habe das nie verstanden, wie für manche die Welt regelrecht untergeht in dem Bezug. Dabei vergessen genau diese Leute, die nach immer mehr und mehr VRam Rufen, daß man den VRam immer voll bekommen kann, wenn man es nur will. Und zwar völlig egal wie groß derselbe ist. Wie gesagt, völlig absurd diese regelrechte "VRam-Vergötterisierung" - so will ich es mal Nennen -.

So long...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Recharging, .Sentinel. und efgw3e62346wert
Exit666 schrieb:
Ich mag HZD sehr gerne, gefällt mir richtig gut das Spiel. Aber in Full HD 7,5-7,6 GB VRAM, da frage ich mich, wofür?

Das liegt schlichtweg am schlechten Konsolen Port. Auf der Konsole gibt es nun mal keinen Unterschied zwischen RAM/VRAM also lädt man schlichtweg alles in den Speicher und anscheinend hat man den Port mit so wenig Aufwand wie möglich erstellt, um auf dem PC noch schnell etwas Geld zu verdienen.

Man kann aber auch durchaus behaupten, dass die ehemaligen PlayStation exklusiven Spiele allesamt nur schlecht umgesetzt wurden. Ob es daran liegt, dass die Hersteller wenig Erfahrung mit DirectX haben, wenig Lust an der Portierung, oder die Spiele stark an die PS4 APIs und Hardware optimiert wurden, wissen wohl nur die Studios.

Shelung schrieb:
Nix gegen mehr RAM(Werden sich AMD und Nvidia gut bezahlen lassen) aber glaubt ihr ernsthaft 10GB Vram werden ab diesem Jahr das Pendant zur 3GB 1060?

Nö! Dafür sind die Einsatzzeiten von GPUs schlichtweg zu lang. Bis heute lassen sich fast alle Spiele auch mit 6GB VRAM gut spielen und selbst wenn dieses Jahr die Konsolen mit viel RAM auf den Markt kommen, so hat die neue Xbox Series X letztlich auch "nur" 10GB schnelles RAM. Bis dann 8GB irgendwann den Stellenwert von 6GB bekommt und bei einigen Spielen zu wenig sein werden, dürften mindestens 2-3 Jahre vergehen und bis dahin werden viele Enthusiasten sich längst schon wieder nach einer neuen GPU umsehen.

Die Situation ist aber eigentlich für alle gut. Mit 8-10GB VRAM bedient man den Massenmarkt, der noch viele Jahre problemlos damit auskommt. Mit den 20-24GB Karten schröpft man Enthusiasten, die meinen was "für die Zukunft" zu kaufen. Am Ende ist aber eine Wahl zu haben immer gut und es wird bestimmt auch Leute geben, die selbst die 20GB irgendwie schon vollkriegen, sei den nur um sich selbst zu beweisen die "richtige Wahl" getroffen zu haben.

Der Punkt ist aber natürlich auch, jeder nutzt eine GPU unterschiedlich lang. Wer meint mit der neuen Grafikkarte vielleicht 5-6 Jahre auszukommen, dürfte wohl eher einer Variante mit viel Speicher liebäugeln. entscheidend wird hier nun mal der Preis sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Chismon
Also für FullHD und ohne Raytracing sind 10GB RAM ok, für alles darüber ein absolutes No-Go, das wäre so, als wenn man sich selber die Eier abschneidet. macht doch auch keiner freiwillig, oder? Nur so ein Tipp von mir.
Eine 2080 Ti ist in UHD schon am Limit angelengt udn kann ans Stottern gebracht werden.
Was passiert dann wohl mit einer noch schnelleren 3080, mit nur 10GB, die dann demnächst noch anspruchsvollere Spiele beschleunigen soll? Na, na, na? 500 Euro Frage bei Günther Jauch.
Ich spreche aus 25 Jahren Erfahrung mit Computern.
Immer ist es so gewesen, dass die Hardware mit halben RAM auch nur halb so lange gelebt hat.
Die vorletzte grüne Karte die ich hatte war ne 8800GT, natürlich hatte die nicht viel RAM (woher kennt man das heute nur?), zack musste schon relativ schnell danach eine 4850 mit doppelt RAM her, und plötzlich lief alles wieder ohne Mikroruckler und doppelt Frames. Mein Bruder spielte mit einer AMD (ATI?) 3850 mit der höheren RAM Ausbaustufe (ich hatte ja dazu gelernt!) mindestnes 5 Jahre jedes Spiel, auch wenn er am Ende die Grafik auf Mittel und Niedrig zurückschrauben musste. Aber es lief flüssig. Hat mich echt gewundert. lol
Und es gibt massig Videos von Fachmagazinen, die diese Zusammenhänge von zu wenig RAm auch auf aktuellen Karten genauestens beschreiben udn beweisen.
Als Beispiel sei das desaströse Abschneiden einer 2060 6GB unter Wolfenstein genannt, das waren etwa 20+ zu 70+ an Frames gegenüber einer 2070, die eigentlich kaum schneller sein sollte.
Und genau das passiert wieder mit der 3000er Serie, wenn man sich die Karten mit zu wenig RAm kauft.
Das fiese ist übrigens, dass aktuelle Streaming-Engines es lange Zeit so aussehen lassen, als wäre die KArte noch schnell genug.
Aber in Wirklichkeit wird bereits im Hintergrund massiv an Details eingespart und alle erdenklichen Kniffe verwendet (entfernung von Objekten etc., LOD), um noch spielbare Ergebnisse zu liefern.
Einige Spiele sidn zumindest so fair und verweigern ihren Dienst ohne entsprechende Ausstattung.
Ich habe euch gewarnt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Öcher Tivoli, Cpt.Willard und Chismon
BxBender schrieb:
Und genau das passiert wieder mit der 3000er Serie, wenn man sich die Karten mit zu wenig RAm kauft.

Die Frage ist wann und ob einen ein Ruckler hier und dort überhaupt jucken. Manche tun hier so als würde gleich die Welt untergehen, wenn ein Spiel mal Texturen nachladen muss und irgendwo was ruckelt.

Ich habe gut 10 Jahre MMOs gespielt, da waren "Ruckler" bei Raids ein Dauerzustand und niemanden hats interessiert, es gibt auch Leute die ohne VSync spielen und denen Tearing absolut egal ist. Wer meint immer die höchsten Settings und immer das "perfekte" Bild haben zu müssen, der kann ja gerne tiefer in die Tasche greifen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82 und .Sentinel.
Fliz schrieb:
Also eine neue Karte mit "nur" 10 GB VRAM werde ich nicht kaufen. Wenn dann jetzt aber ordentlich VRAM drauf, dann hält die Karte auch paar Jahre.
habe ich auch so gemacht :D
 
Bin gespannt auf den Sinn.
Aktuelle Generation. Konsole und gpu...
Da waren ja 8gb irgendwie so, was man haben sollte...
Die neue xbox soll ja 10gb schnellen RAM haben. (vram?) und 6gb "langsamen" als Arbeitsspeicher?
Bin gespannt wie AMD ihre Karten mit ram bestückt...
Ob wirkliche die breite Masse (durch die neuen Standard Grafik-Engines) mehr als 8gb braucht...

Mfg
 
Zuletzt bearbeitet:
Es geht bestimmt noch mehr...
1597712251604.png
 
Die neuen nVidia Karten hypen mich leider wirklich nicht.
Wieder zu Teuer ...
zu unattraktiv ...

Ich bin EHRLICH gespannt auf die RDNA 2 Karten.
Ich hoffe auf Killer Preis/Leistung
und ORDENTLICH Druck auf nVidia.
( Einfach eine ausbalancierte Konkurrenz )

der neue vRAM Boom dürfte
schon der Einfluss von AMD sein
( ähnlich der Kerne bei den CPUs )
 
BxBender schrieb:
Also für FullHD und ohne Raytracing sind 10GB RAM ok, für alles darüber ein absolutes No-Go, das wäre so, als wenn man sich selber die Eier abschneidet.

Wie kann mein Kumpel nur jeden Titel in WQHD mit einer RTX 2060 6GB spielen und sogar Raytracing mit DLSS aktivieren? Hab jetzt gar nicht gesehen, dass dem die Eier fehlen. :D

BxBender schrieb:
Immer ist es so gewesen, dass die Hardware mit halben RAM auch nur halb so lange gelebt hat.

Kenn jemanden, der lebt mit seiner r9 290 4GB immer noch ausgesprochen gut und die 8GB Version des Nachfolgers hätte ihm bis heute wenig bis gar nichts gebracht.
Der V-ram Bedarf wird steigen, aber 11GB einer 2080Ti haben nur in den aller seltensten Fällen jemals limitiert, somit werden auch die 10GB für eine 3080 noch 4 oder gar 5 Jahre ohne größere Probleme reichen.

Die Konsolen bekommen für OS, GPU und Systemspeicher zusammen 16GB, nicht für die GPU alleine.

BxBender schrieb:
Als Beispiel sei das desaströse Abschneiden einer 2060 6GB unter Wolfenstein genannt, das waren etwa 20+ zu 70+ an Frames gegenüber einer 2070, die eigentlich kaum schneller sein sollte.

Du ziehst dich an unsinnigen Einzelbeispielen hoch und übertreibst völlig.

BxBender schrieb:
Aber in Wirklichkeit wird bereits im Hintergrund massiv an Details eingespart und alle erdenklichen Kniffe verwendet (entfernung von Objekten etc., LOD), um noch spielbare Ergebnisse zu liefern.

Wenn du eine 7870 2GB verwendest, dann ja. Ob da die Leistung für spielbare Frameraten aber noch ausreicht?
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben