News Ampere: Nvidia nährt Gerüchte um GeForce RTX 3080 mit 20 GB

Zuletzt bearbeitet:
ich finde die Speicherausstattungen relativ mittelmäßig.
ne 3070ti mit 10/12 gb und ne 3080ti mit 16 würde meiner meinung mehr sinn machen
aber wer bin ich schon
 
  • Gefällt mir
Reaktionen: Aquilid und Hektor26
Hektor26 schrieb:
Jo warscheinlich hast du selbst noch nie skyrim gemoddet bei einer Texture mod reicht vllt 6gb lass es einfach !
Ich verstehe Dein Argument und Geflame nicht.
Wenn DU in DEINEM Szenario, welcher/welches einen usecase von einem Promillesatz der Gamer Gesamtheit darstellt, mit Absicht Tonnen an Mods installierst, dann kauf Dir eine GPU, die das erfüllt? Wo ist das Problem? Sitzt da vor dem Monitor, würde ich sagen.

Eine 3090 wird man auch mit absurd vielen Mods überlasten können, das ist nur 0% Beleg für irgendwas.

Jeden SUV kann man überladen, nur normal sitzen da 1 oder 2 Personen drin oder bis zu 5 als usecase.

Nicht 7 oder 9 = Brechstange außerhalb des zweckmäßigen Einsatzes. Dann kauf Dir einen Bus.

Ein 4K und 8 K Mod erfordert wie in dem Beispiel oben nicht mal mehr als eine olle 6 GB VRAM Karte aus 2015.
Und die hatte nichtmal den Durchsatz eines GDDR6x.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GreyPrinceZote, monitorhero und rentex
  • Gefällt mir
Reaktionen: Laphonso und bluecolored
  • Gefällt mir
Reaktionen: zonq, monitorhero und Laphonso
  • Gefällt mir
Reaktionen: Aquilid
Hektor26 schrieb:
Ich hab gerade einen Bericht gesehen mit Crysis Remasterd da ist der Vram bei der 3080 permanent VOLL

Nennt sich Allokation, überlichweise ist das VRAM immer "voll", das sind Parkplätze für Ungenutztes.
Wäre VRAM Größe generell erfolgskritisch, wäre die 16 GB VRAM Radeon VII in allen Tests vorne.
Die Realität kennst Du dazu ja, die sieht eine 2080Ti mit dem Fernglas, trotz 5 GB VRAM mehr.
Weil das so eben nicht funktioniert.
VRAM usage und Allokation verwechseln in diesem Forum gefühlt 90% aller aktiven Foristen.
 
  • Gefällt mir
Reaktionen: monitorhero, Garack, McTheRipper und 3 andere
Laphonso schrieb:
Ich verstehe Dein Argument und Geflame nicht.
Wenn DU in DEINEM Szenario, welchen einen usecase von Promille der Gamer Gesamtheit darstellt, mit Absicht Tonnen an Mods installierst, dann kauf Dir eine GPU, die das erfüllt? Wo ist das Problem? Sitzt da vor dem Monitor, würde ich sagen.

Eine 3090 wird man auch mit absurd vielen Mods überlasten können, das ist nur 0% Beleg für irgendwas.

Jeden SUV kann man überladen, nur normal sitzen da 1 oder 2 Personen drin oder bis zu 5 als usecase.

Nicht 7 oder 9 = Brechstange außerhalb des zweckmäßigen Einsatzes. Dann kauf Dir einen Bus.

Ein 4K und 8 K Mod erfordert wie in dem Beispiel oben nicht mal mehr als eine olle 6 GB VRAM Karte aus 2015.
Und die hatte nichtmal den Durchsatz eines GDDR6x.


Das ist echt paradox, da bezeichnen sich viele in den Foren als erfahrene Hardcore User, aber bezieht das im Grunde nur auf die stupide Vorstellung von brachial Performance und Tonnen an Speicher.
Für was machen sich eigentlich die Entwickler bei NV und AMD die Mühe, Techniken wie DLSS, RTX und RTX IO (beim Konkurrenten heißen sie halt anders) zu entwickeln, wenn man im Grunde nur Leistuung benötigt.
Dann will man auf biegen und brechen, Karten übertakten, obwohl es bei der FE z.B. schon am Maximum läuft und der Zugewinn mit einem überbordenden Verbrauch einhergeht. Das die Custom nicht mehr hergeben, scheint man ebenfalls zu ignorieren.
 
  • Gefällt mir
Reaktionen: Laphonso
rentex schrieb:
Für was machen sich eigentlich die Entwickler bei NV und AMD die Mühe, Techniken wie DLSS, RTX und RTX IO (beim Konkurrenten heißen sie halt anders) zu entwickeln, wenn man im Grunde nur Leistuung benötigt.
Das Problem ist, dass die devs leider wenig Einsichten geben in der Art und Weise, wie ihre Engine oder das Game auf den Engines das SPeicherhandling betreibt.
Die Ressourcen sind da, die Ausreden mit GDDR6x ziehen nicht mehr, zogen sie schion bei GDDR6 nicht mehr.

Suboptimal laufende Games kann man nicht mehr so einfach auf die Architektur der GPU schieben, denn dann hätten wir seit Jahren schon Kaufwarnungen für 8 GB VRAM oder Startprobleme oder Freezes oder Diashows.
Das ist nicht der Fall. Es fallen jedoch immer nur die üblichen Verdächtigen auf.

Witzigerweise hat techspot den Flaschenhals schon 2019 beim RAM ausgemacht, NICHT beim VRAM:

https://www.techspot.com/article/1770-how-much-ram-pc-gaming/

Das Fazit lautet, dass man 32 GB RAM braucht, um die 11 GB VRAM der 2080 TI effektiv zu nutzen.
Der Flaschenhals sitzt, wie so oft, woanders.
Und passenderweise zeigen alle Benchmarks, dass die 3080 die CPU Limits forciert. Und das auch beim 10900K!

Weitere Entlastung neben der pornösen GDDR6x Speicherbandbreite sind die Kompressionsverfahren, I/O etc. sowie die Bordmittel von Vulkan und DX12, dazu gibts Tonnen an devblogs und Foren.

Also bitte, stoppt die VRAM Hysterie und den VRAM Marketing Hype.

Lasst uns lieber mal mit den devs reden, die offensichtlich die RAM, CPU und VRAM Swapping+Streaming-Korrespondenz nicht sauber hinbekommen, denn auch 4K sind ein non Faktor bei 8 GB und erst recht bei 10 GB VRAM.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Atlanx, rentex, lubi7 und 2 andere
Hektor26 schrieb:
Ich hab gerade einen Bericht gesehen mit Crysis Remasterd da ist der Vram bei der 3080 permanent VOLL
https://www.pcgameshardware.de/Crys...-Grafik-auf-RTX-3080-und-Ryzen-3900X-1358317/
Ergänzung ()


Nennt man Marketing damit die Leute die Kastrierten Karten kaufen.
Jo der VRAM ist auch immer voll bei meiner 1080ti, das heißt aber nicht dass das Spiel auch alles benötigt. Crysis Remastered würde wohl auch 16 GB vollladen wenn es das könnte. Ist doch bei normalen RAM nicht viel anders, hast du genug System RAM Reserven gönnt sich das Spiel / das System mehr, nur weil es es einfach kann.
 
  • Gefällt mir
Reaktionen: monitorhero, McTheRipper, bluecolored und eine weitere Person
Atlanx schrieb:
Ich dachte der Videoram ist nicht mehr so wichtig wegen PCI Express 4.0 und dem neuen Direkttransfer der Texturdaten ohne CPU-Beteiligung....

http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf
PCIe hat mit ~1000ns viel höhere Latenz vs. GDDR mit ~50ns. Deiner Logik folgend bräuchten GPUs gar kein Videoram ausser für Framebuffer vielleicht. Tun sie aber und das aus einem guten Grund. Schalte bei einer dGPU dedizierten Speicher komplett auf System RAM um und du wirst es sehen
 
  • Gefällt mir
Reaktionen: Aquilid und JohnnyTexas
Atlanx schrieb:
VRAM usage und Allokation verwechseln in diesem Forum gefühlt 90% aller aktiven Foristen.

Aber hallo, nicht das die Marketing Abteilungen von nVidia und AMD arbeitslos werden. ^^
 
  • Gefällt mir
Reaktionen: Wintermute und Laphonso
Atlanx schrieb:
Ich dachte der Videoram ist nicht mehr so wichtig wegen PCI Express 4.0 und dem neuen Direkttransfer der Texturdaten ohne CPU-Beteiligung....

http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf
Zur Info: CUDA = Compute Unified Device Architecture
Warum sind sie relevant:

https://www.dignited.com/65417/cuda-cores/

"So how does all of these affect gameplay? Well, many graphics settings require a lot of calculations to be carried out simultaneously. Most notably, lighting, shadows, game physics, etc. It’s also instrumental for some types of anti-aliasing and ambient occlusion. All of these functions do benefit greatly from a high CUDA core count."

Daher relevant:
https://developer.nvidia.com/blog/cuda-refresher-cuda-programming-model/

https://developer.nvidia.com/blog/introducing-low-level-gpu-virtual-memory-management/

CUDA 10.2 introduces a new set of API functions for virtual memory management that enable you to build more efficient dynamic data structures and have better control of GPU memory usage in applications.

Es gibt einen ganzen Part zur effizienteren Allokationshandlung über die Instruktionen.
Auszug:

As you can see, not pre-reserving your VA range scales harshly for cuMemAlloc and cuMemAllocManaged. As you double the size of the array, you have to do a lot of these memcpy calls to reallocate the VA range to a larger one. The cuMemMap function avoids memory copies and is clearly more efficient.

Die Ressourcen und Mittel sind da, nun gilt es sie zu nutzen.

Das "VRAM wird knapp" Gejammer ist heute bei 4 GB VRAM natürlich plausibel, bei 10 GB GDDR6x aber nicht mehr, mit Verlaub. Es offenbart nur lazyness.
Ergänzung ()

bluecolored schrieb:
Aber hallo, nicht das die Marketing Abteilung von nVidia arbeitslos wird. ^^
Und die von AMD ;)
 
  • Gefällt mir
Reaktionen: mylight und bluecolored
Ist wie immer: egal wie Mans macht es finden welche schlecht. Packt Nvidia gleich 20gb rauf wird wegen 900 euro preis gejammert. Bleiben sie bei 10gb wird wegen zu wenig Speicher gejammert.

Das einzige was man hätte machen können: die große gleich mitankündigen.
 
  • Gefällt mir
Reaktionen: JohnnyTexas, Cyberbernd, stevefrogs und 2 andere
steve81 schrieb:
Nach all den Informationen erscheint mir eine RTX 3070 16 GB die vernünftigste Karte zu werden. Die 3080 10GB hat einfach für "Next Gen" zu wenig Videospeicher.
Und welche Preise erwartest du für die RTX 3070/16, wenn die RTX 3070/8 bereits 499 € kostet?

Für 100 € Aufpreis wird es die zusätzlichen 8 GB vermutlich nicht geben, eher um 150 - 200 €. Und dann sind wir bereits in RTX 3080/10 Regionen.

Jetzt stellt sich die Frage, ob man sich für 700 € besser die RTX 3070/16 GDDR6 oder die RTX 3080/10 GDDR6x kauft. Und da würde ich die schnellere GPU mit dem flotteren Speicher und der höheren Speicherbandbreite bevorzugen, denn 99,9x% meiner bereits bestehenden Spiele-Sammlung kommt nicht an die 10-GB-Grenze.

Und da ich Spiele nur selten zum Vollpreis kaufe und bei manchen Serien ein oder mehrere Jahre "hinterherhinke", muss ich mir auch für die nächsten zwei Jahre keine Sorgen machen... dann zocke ich überwiegend die 2018 - 2020 erschienenen Spiele mit hohen fps, die auch noch kein Problem mit der 10-GB-Grenze haben dürften. Auch die meisten 2021 - 2023 Spiele dürften flotter auf einer RTX 3080/10 GDDR6x als auf einer RTX 3070/16 GDDR6 laufen, meinst du nicht?

Wenn es dann vereinzelte Spiele geben sollte, bei denen die 10 GB mit maximalen Texturen knapp werden, spiele ich die halt erst auf der nächsten Grafikkarte. Oder ich stelle die Texturen eine Stufe niedriger ein, wenn es ein heißersehnter Titel ist, bei dem ich nicht warten möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
fox40phil schrieb:
Also doch keine TI/Super. Das ist doch schon mal gut. Sonst würde man für mehr Einheiten (Leistung) auch zusätzlich mehr zahlen müssen als nur für mehr Speicher.

ist das auch ein Indiz, dass es eine 20GB FE geben wird?

Die 3090 ist doch eigentlich die 3080Ti, mit 20% mehr Leistung gegenüber der 3080 von der Hardware her.
Den ungefähr gleichen Abstand hatte die 2080Ti gegenüber der 2080.
Der enorme Speicherausbau ist die auffälligste Änderung.
Aber wenn eine 3080 mit 20GB nur max 150 Euro mehr kostet als 10GB (Spekulation), dann dürfen sich die 3090 Käufer verarscht fühlen mit dem doppelten Preis der 3080.
Mal abwarten.
 
eXtra schrieb:
Ist das Gleiche wie bei Kondomen: Lieber haben und nicht brauchen als umgekehrt.

Kennst du das neue Verhütungsmittel nicht? nennt sich "Timing" man muss es spannend halten baby 😂

Ps: ernsthafte kommentare dazu kann man sich schenken 😉
 
Cohen schrieb:
Und welche Preise erwartest du für die RTX 3070/16, wenn die RTX 3070/8 bereits 499 € kostet?

Für 100 € Aufpreis wird es die zusätzlichen 8 GB vermutlich nicht geben, eher um 150 - 200 €. Und dann sind wir bereits in RTX 3080/10 Regionen.

Jetzt stellt sich die Frage, ob man sich für 700 € besser die RTX 3070/16 GDDR6 oder die RTX 3080/10 GDDR6x kauft. Und da würde ich die schnellere GPU mit dem flotteren Speicher und der höheren Speicherbandbreite bevorzugen, denn 99,9x% meiner bereits bestehenden Spiele-Sammlung kommt nicht an die 10-GB-Grenze.

Und da ich Spiele nur selten zum Vollpreis kaufe und bei manchen Serien ein oder mehrere Jahre "hinterherhinke", muss ich mir auch für die nächsten zwei Jahre keine Sorgen machen... dann zocke ich überwiegend die 2018 - 2020 erschienenen Spiele mit hohen fps, die auch noch kein Problem mit der 10-GB-Grenze haben dürften. Auch die meisten 2021 - 2023 Spiele dürften flotter auf einer RTX 3080/10 GDDR6x als auf einer RTX 3070/16 GDDR6 laufen, meinst du nicht?

Wenn es dann vereinzelte Spiele geben sollte, bei denen die 10 GB mit maximalen Texturen knapp werden, spiele ich die halt erst auf der nächsten Grafikkarte. Oder ich stelle die Texturen eine Stufe niedriger ein, wenn es ein heißersehnter Titel ist, bei dem ich nicht warten möchte.
Es gilt wohl als sicher, dass es eine 3070 Super/Ti geben werden. Nvidia wird die schon preislich einordnen. Hängt ja auch bissel davon ab, was AMD an den Start bringt. Ich werde noch bis Februar 2021 mit meiner ollen GTX 1060 spielen. Da ich derzeit bei den Spielen 2017 angekommen bin, reicht die für FHD auch noch locker.
 
  • Gefällt mir
Reaktionen: Aquilid
Zurück
Oben