News Ampere: Nvidia nährt Gerüchte um GeForce RTX 3080 mit 20 GB

Chismon schrieb:
Naja, eine RTX 1070Ti war von der Leistung auch nur unwesentlich langsamer als eine GTX 1080 und wurde als Konkurrenzprodukt zur RX Vega56 gebracht, die einer GTX 1070 wohl dann ab einem bestimmten Zeitpunkt meist etwas voraus war in der Leistung.
Das Problem dabei ist, die 1070Ti und die 1080 basierten beide auf dem GP-104 und waren daher nur unwesentlich voneinander entfernt. Die RTX 3080 basiert jetzt aber (endlich) wieder auf dem großen Chip. Rein von der verfügbaren Rohleistung ist die RTX 3080 50% schneller als die RTX 3070. Setzt man eine 100%ige Skalierung der Rohleistung (FP32) voraus landet man bei folgendem Ergebnis:

RTX 2080Ti: 100% (13,4 TFLOPS Turing)
RTX 3080: 131% (29,8 TFLOPS Ampere)
RTX 3070: 90% (20,4 TFLOPS Ampere)

Ich sehe nicht, wie eine RTX 3070 eine RTX 2080Ti schlagen soll und wie eine potentielle RTX 3070Ti auch nur annähernd in die Richtung der 3080 geht.
 
Thaxll'ssillyia schrieb:
Es war schon immer so und wird auch so bleiben dass die Bildschirmauflösung keinen nennenswerten Einfluss auf den VRAM Verbrauch hat.

Das sieht gta5 aber anders
 
Gandalf2210 schrieb:
Das sieht gta5 aber anders
Ein 7 Jahre altes Game, dass noch nie toll optimiert war. Und das sind Sonderfälle die nur einen Bruchteil der Menschen interessieren wird. Nvidia wird bei bei den 10Gb schon etwas vorausschauend gedacht haben. Hat auch seine Gründe, warum GamersNexus GTA V aus seinen Benchmarkliste geworfen hat ;)
 
monitorhero schrieb:
Ein 7 Jahre altes Game, dass noch nie toll optimiert war. Und das sind Sonderfälle die nur einen Bruchteil der Menschen interessieren wird. Nvidia wird bei bei den 10Gb schon etwas vorausschauend gedacht haben. Hat auch seine Gründe, warum GamersNexus GTA V aus seinen Benchmarkliste geworfen hat ;)
Weil es eines der am meisten verkauften PC Spiele ist, uns nicht ihrem "hohe Auflösungen brauchen nicht mehr vram" narrativ entspricht, lel
 
  • Gefällt mir
Reaktionen: Aquilid
McLovin14 schrieb:
RTX 2080Ti: 100% (13,4 TFLOPS Turing)
RTX 3080: 131% (29,8 TFLOPS Ampere)
RTX 3070: 90% (20,4 TFLOPS Ampere)

Ich sehe nicht, wie eine RTX 3070 eine RTX 2080Ti schlagen soll und wie eine potentielle RTX 3070Ti auch nur annähernd in die Richtung der 3080 geht.

Ob man die 3070 nun Ti oder S(uper) nennt ist dabei irrelevant, aber dass man noch an der Leistung drehen wird (ob nun Speicher Gbps, SI, dem Chipausbau), ist nicht unwahrscheinlich, zumal nVidia sicherlich einen Konter gegen die RDNA2 Modelle im 1.Halbjahr 2021 auffahren duerfte, wie auch in einem PCGH Artikel in Aussicht gestellt und m.E. durchaus plausibel.

Ganz interessant ist, dass die Modelle allesamt mit S gekennzeichnet sind, was potenziell auf den Super-Zusatz hinweisen könnte. Ob es dann Super oder Ti oder einfach nur Speicherzusätze werden, wird man abwarten müssen. Laut Gerüchten sollen die finalen Produktbezeichnungen noch nicht entschieden sein. Ein Release im laufenden Jahr ist auch eher unwahrscheinlich, aber im ersten Halbjahr 2021; insbesondere nach dem Release der Radeon RX 6000 denkbar und naheliegend.
Für Kunden bedeutet das: Wer das Gefühl hat, dass ihm die aktuelle Speicherausstattung zu gering ist, der geduldet sich besser noch etwas. Laut unseren Tests reichen 10 GiByte zwar aktuell gut aus, aber das kann sich in den kommenden Monaten ändern. Auch gut ist, dass Nvidia offenbar bei der Geforce RTX 3060 8 GiByte anbietet, was man wohl heute als gesetzten Mindeststandard ansehen darf. Karten darunter sollten wohl nur noch in Betracht gezogen werden, wenn das Budget nicht für mehr reicht.

Nur doppelten Speicher einer einfachen RTX 3070 oder 3080 zu bieten, koennte da zu wenig sein um RDNA2 auszukontern und vielleicht gibt es ja eine Umstellung auf TSMC 7nm Fertigung (zusammen mit einer RTX 3080Ti zwischen einer RTX 3080 und RTX 3090 positioniert), wer weiss?
 
monitorhero schrieb:
Nvidia wird bei bei den 10Gb schon etwas vorausschauend gedacht haben
Nvidia hat doch sogar klare Designanforderungen gehabt, die umgesetzt wurden für GDDR6x, hat Micron im Blog doch wunderbar erklärt, der usecase Gaming und VRAM waren hier u.a. Impulsgeber (nicht nur), und Micron bringt diese Technologie nun in die Industrie.

Einige glauben ernsthaft, dass eine erklärte 4K Flaggschiff GPU, released im Herbst 2020, ein "VRAM Problem" haben wird 🤣😂
Und nutzen dafür als "Grund": 1.) Hobby gfx Modder Ergebnisse 2.) unoptimierte Engines/Games :lol:
 
  • Gefällt mir
Reaktionen: Cohen und monitorhero
Texturen brauchen VRAM punkt. Und wer in 4K mit keinen matschigen Texturen spielen will wie z.B: ein RDR2, der wird mit steigender Spielgröße in den kommenden Monaten eines besseres belehrt werden. 10 GB sind halt einfach zu knapp bemessen und weniger als eine 2080 TI. Und somit ist das kein Upgrade, sondern ein Downgrade. Ob die 10 GB ausreichen muss für sich jeder selber entscheiden. Es ist ein allgemeiner Trend dass die Texturen und Assetanzahl größer werden und da richten sich die Entwickler nicht unbedingt an einer 3080 mit 10 GB, sondern was bei maximalen Einstellungen auf dem Markt verfügbar sein wird, wie z.B: eine 3070 mit 16 oder 3080 mit 20 GB.
Aber alle Kommentare die hier behaupten 10 GB wäre in allen Auflösungen mehr als ausreichend und das auch in den kommenden zwei Jahren sind absoluter Nonsens. Was sogar heute nicht zutreffen ist. Die Ausrede mit den angeblich schlecht optimierten Spielen langweilt nur noch. Dann wäre ja jedes Spiel schlecht optimiert was eine frei erfundene und gesetzte Grenze von z.B. 8 GB überschreitet.
Die 3080 ist übrigens kein Topmodell, das ist eher obere Mittelklasse für WQHD. Das Topmodell wird die 3080 mit 20 GB werden, mal von der 3090 als Titan Nachfolger abgesehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aquilid
Coenzym schrieb:
Nehmt doch die 3090, dann haben sich die RAM Diskussionen erledigt :-)

Will ich ja auch, wenn nicht irgendwelche Arsc...wieder alle aufkaufen, um se teurer zu weiterzuverkaufen.
Ergänzung ()

Laphonso schrieb:
Nvidia hat doch sogar klare Designanforderungen gehabt, die umgesetzt wurden für GDDR6x, hat Micron im Blog doch wunderbar erklärt, der usecase Gaming und VRAM waren hier u.a. Impulsgeber (nicht nur), und Micron bringt diese Technologie nun in die Industrie.

Einige glauben ernsthaft, dass eine erklärte 4K Flaggschiff GPU, released im Herbst 2020, ein "VRAM Problem" haben wird 🤣😂
Und nutzen dafür als "Grund": 1.) Hobby gfx Modder Ergebnisse 2.) unoptimierte Engines/Games :lol:

Das glaubt auch ein Raff von PCGH!
 
  • Gefällt mir
Reaktionen: Aquilid
Duke711 schrieb:
Texturen brauchen VRAM punkt. Und wer in 4K mit keinen matschigen Texturen spielen will wie z.B: ein RDR2, der wird mit steigender Spielgröße in den kommenden Monaten eines besseres belehrt werden. 10 GB sind halt einfach zu knapp bemessen und weniger als eine 2080 TI. Und somit ist das kein Upgrade, sondern ein Downgrade. Ob die 10 GB ausreichen muss für sich jeder selber entscheiden. Es ist ein allgemeiner Trend dass die Texturen und Assetanzahl größer werden und da richten sich die Entwickler nicht unbedingt an einer 3080 mit 10 GB, sondern was bei maximalen Einstellungen auf dem Markt verfügbar sein wird, wie z.B: eine 3070 mit 16 oder 3080 mit 20 GB.
Aber alle Kommentare die hier behaupten 10 GB wäre in allen Auflösungen mehr als ausreichend und das auch in den kommenden zwei Jahren sind absoluter Nonsens. Was sogar heute nicht zutreffen ist. Die Ausrede mit den angeblich schlecht optimierten Spielen langweilt nur noch. Dann wäre ja jedes Spiel schlecht optimiert was eine frei erfundene und gesetzte Grenze von z.B. 8 GB überschreitet.
Die 3080 ist übrigens kein Topmodell, das ist eher obere Mittelklasse für WQHD. Das Topmodell wird die 3080 mit 20 GB werden, mal von der 3090 als Titan Nachfolger abgesehen.
Kein Entwickler besitzt eine 3070 mit 16 Gb. Ein Spiel wird ca. 2-3 Jahre entwickelt. Also optimieren die Entwickler gerade für 16 Gb Texturen? Nein.
Aktuell ist die 3080 das Topmodell. Also wird sich an den Anforderungen in 3 Jahren kaum etwas ändern. Was ist das für eine Argumentation die völlig aus der Luft gegriffen ist? Tut mir Leid, wenn du von Fakten gelangweilt bist.
 
  • Gefällt mir
Reaktionen: GreyPrinceZote, Laphonso und xexex
monitorhero schrieb:
Kein Entwickler besitzt eine 3070 mit 16 Gb. Ein Spiel wird ca. 2-3 Jahre entwickelt. Also optimieren die Entwickler gerade für 16 Gb Texturen? Nein.

Wa Du anscheinend alles so wissen tust, solltest Dich mal als Hellseher bewerben. Die 3090 mit 24 GB gibt es übrigens schon, übrigens auch eine Gamerkarte.
 
  • Gefällt mir
Reaktionen: Asghan
rentex schrieb:
Das glaubt auch ein Raff von PCGH!
Hat mit Glauben nix zu tun, kann man nachlesen bei Micron selbst ;)
" Working closely with NVIDIA on its Ampere generation of GPUs "

Im Investor Press-Release zu GDDR6x wird Nvidia direkt ein Dutzend Mal genannt.
Nvidia war hier Quelle des Anforderungsmanagements im GDDR6x Designprozess!

"Developed in Close Collaboration with Nvidia

New types of memory are developed not only with certain applications in mind, but with certain customers in mind, too. Nvidia was the first company to use GDDR5X and GDDR6 (as well as GDDR2 and GDDR3 back in the early 2000s), so it's not particularly surprising that it engaged with Micron early for the GDDR6X project, too. In fact, according to Micron, Nvidia asked Micron for a discrete memory solution that could offer higher performance than GDDR6.

"Of course, […] you have to collaborate with the customer," said Ebert. "You have to identify a customer to work with and, ideally, rely on a close business and technical collaboration that has been established for many years. [We've got to make sure that] the product works in the application right from the beginning."

Nvidia had to develop an all-new memory controller and PHY for GDDR6X since PAM4 signaling changes how memory subsystems work in general. Based on the fact that no IP design houses have announced their GDDR6X offerings to date, it looks like Nvidia has designed everything in-house."


Die Zusammenarbeit mit Nvidia war sogar so eng, dass Micron sich sogar genötigt sieht festzustellen, dass Nvidia nicht der einzige oder exklusive Kunde sein soll:

"Nvidia is Micron's only GDDR6X launch partner, but Micron stresses that it didn't design the new type of memory exclusively for the GPU developer. The DRAM maker plans to offer GDDR6X to other companies, too."

Also ja, GDDR6x ist dem Grunde nach originär ein mit Hilfe und auf Anforderung von Nvidia entstandenes Produkt.

Quelle 1: click
Quelle 2 : click
Quelle 4: click
Quelle 3: click
 
Duke711 schrieb:
Wa Du anscheinend alles so wissen tust, solltest Dich mal als Hellseher bewerben. Die 3090 mit 24 GB gibt es übrigens schon, übrigens auch eine Gamerkarte.
Wo gibt es diese Karte zu erwerben? Wer kann sie sich leisten? Das hat nichts mit Hellsehen zu tun, sondern mit Vernunft und Verständnis für Spieleenwicklung und Game Engines. Kein Spiel heute oder dass in den nächsten 2 Jahren erscheint wird mit dem Ziel von 10 Gb oder mehr VRAM entwickelt oder für die 1% die sich eine 3090 leisten können. Du möchtest dein Spiel schließlich an möglichst viele Endnutzer verkaufen und einen großen Markt abfangen. Aber ich bin nicht hier um dich zu überzeugen. Beobachten wir das Thema einfach mal und sprechen in 2 Jahren wieder. Ich bin jedenfalls in der Lage Fehler einzugestehen, wenn ich falsch liegen sollte.
 
Duke711 schrieb:
Es ist ein allgemeiner Trend dass die Texturen und Assetanzahl größer werden und da richten sich die Entwickler nicht unbedingt an einer 3080 mit 10 GB, sondern was bei maximalen Einstellungen auf dem Markt verfügbar sein wird, wie z.B: eine 3070 mit 16 oder 3080 mit 20 GB.

Die dürften sich eher an den Next-Gen-Konsolen orientieren - mit begrenztem Speicher, dafür schnellem SSD-Swapping. Eine PCIe 4.0-SSD könnte wichtiger werden, als eine weit über den verbreiteten Standard hinausgehende VRAM-Ausstattung.
 
Laphonso schrieb:
Hat mit Glauben nix zu tun, kann man nachlesen bei Micron selbst ;)
" Working closely with NVIDIA on its Ampere generation of GPUs "

Im Investor Press-Release zu GDDR6x wird Nvidia direkt ein Dutzend Mal genannt.
Nvidia war hier Quelle des Anforderungsmanagements im GDDR6x Designprozess!

"Developed in Close Collaboration with Nvidia

New types of memory are developed not only with certain applications in mind, but with certain customers in mind, too. Nvidia was the first company to use GDDR5X and GDDR6 (as well as GDDR2 and GDDR3 back in the early 2000s), so it's not particularly surprising that it engaged with Micron early for the GDDR6X project, too. In fact, according to Micron, Nvidia asked Micron for a discrete memory solution that could offer higher performance than GDDR6.

"Of course, […] you have to collaborate with the customer," said Ebert. "You have to identify a customer to work with and, ideally, rely on a close business and technical collaboration that has been established for many years. [We've got to make sure that] the product works in the application right from the beginning."

Nvidia had to develop an all-new memory controller and PHY for GDDR6X since PAM4 signaling changes how memory subsystems work in general. Based on the fact that no IP design houses have announced their GDDR6X offerings to date, it looks like Nvidia has designed everything in-house."


Die Zusammenarbeit mit Nvidia war sogar so eng, dass Micron sich sogar genötigt sieht festzustellen, dass Nvidia nicht der einzige oder exklusive Kunde sein soll:

"Nvidia is Micron's only GDDR6X launch partner, but Micron stresses that it didn't design the new type of memory exclusively for the GPU developer. The DRAM maker plans to offer GDDR6X to other companies, too."

Also ja, GDDR6x ist dem Grunde nach originär ein mit Hilfe und auf Anforderung von Nvidia entstandenes Produkt.

Quelle 1: click
Quelle 2 : click
Quelle 4: click
Quelle 3: click

Darum ging es aber nicht🙄
 
  • Gefällt mir
Reaktionen: Aquilid
rentex schrieb:
Darum ging es aber nicht🙄
Sorry, das ist das Dilemma bei Komplettzitaten :D
Und was Raff glaubt oder nicht, ist erstmal egal. Wir hatten hier mehrfach schon Tech Youtuber und Redakteure verlinkt, welche die Afterburner Mem Allokation als used fehlinterpretiert haben.
 
  • Gefällt mir
Reaktionen: rentex
KCX schrieb:
Ob das Upgrade lohnt muss jeder für sich entscheiden. Leider kann meine Frau nix mit meiner Karte anfangen 😅 Außerdem ist die 3080 Strix auch noch ein paar Euro teurer. Wie siehts denn beim Thema OC bei dir aus? OC Bios flashen und Feintuning können schon helfen. Die darf sich dann auch 310W gönnen. Kannst ja mal im Bench Thread aus meiner Sig vorbeischauen und die Leistung deiner Karte überprüfen falls noch nicht bekannt.
habe noch nie eine Graka übertaktet, da es früher mehr Probleme als mehr FPS dafür gab. Habe es dann über Jahre nicht mehr gemacht.
 
Duke711 schrieb:
Die 3090 mit 24 GB gibt es übrigens schon, übrigens auch eine Gamerkarte.

Wirklich? Wo kann ich sie kaufen? Wann erreicht die Verbreitung dieser Karte ungefähr eine kritische Masse von 20% beim Endkunden? Nie? Siehste!

Kein Mensch steckt auch nur einen Tag in die Entwicklung eines Spiels ein, wenn er damit nur ein paar Freaks bedient die sich für 3000€ eine Titan oder 1500€ eine 3090 gekauft haben.
 
  • Gefällt mir
Reaktionen: monitorhero
Hektor26 schrieb:
ist einfach falsch wenn man zb viele Texture Mods laufen hat bei spielen braucht man mehr speicher da reichen 10 Gb nicht auch in Wqhd nichtmal 4k
Find ich spannend, wo ist dass denn so? Weil ich habe z.B. in Avengers die High Res Texturen an, Crysis Remastered läuft auch mit 8k Texturen und als ich damals groß Skyrim gemoddet habe mit den ganzen High Res Texturen kam ich auch nie über 10 GB VRAM. Einzig Crysis Remastered gönnt sich nach der Zeit dann mal 10,5 GB aber nicht weil ers muss, sondern durch die 1080ti kann.
Achso btw ich spiel in 3440x1440.
 
  • Gefällt mir
Reaktionen: Laphonso
Raidr schrieb:
Find ich spannend, wo ist dass denn so? Weil ich habe z.B. in Avengers die High Res Texturen an, Crysis Remastered läuft auch mit 8k Texturen und als ich damals groß Skyrim gemoddet habe mit den ganzen High Res Texturen kam ich auch nie über 10 GB VRAM. Einzig Crysis Remastered gönnt sich nach der Zeit dann mal 10,5 GB aber nicht weil ers muss, sondern durch die 1080ti kann.
Ciathyza hatte damals mit Tamrelic Textures (?) 4K und 8K Texturen für Skyrim bereitsgestellt, und erklärt, das man hier aber, Achtung...20 GB VRam haben sollte. 😲
.....Halt, nein, er meinte 16 GB VRAM..?
Stop, das waren 12 GB VRAM...?

Nein! Ciathyza erklärte, dass man eine GPU mit 6 GB VRAM braucht.
Genau. 6. Nicht mehr.
Für 4K und 8K Texturen.

Aber ja, die 10 GB VRAM auf schnellster GDDR6x streaming und swapping Basis werden GANZ bestimmt ein Problem 😂
 
Laphonso schrieb:
Nein! Ciathyza erklärte, dass man eine GPU mit 6 GB VRAM braucht.
Genau. 6. Nicht mehr.
verbreite doch nicht so einen Mist ich habe noch eine 980ti mit 6Gb und die Läuft gnadenlos voll in Skyrim mit Modds Du verbreitest schlicht weg unwarheiten !
Vllt wenn man nur EINE 4k Textur installiert aber wer macht das den
 
Zurück
Oben