CyberdyneSystem schrieb:
Nachtrag:
Also ich komme je nach Level/Umgebung selbst @1080p&Max-Settings auf über 7GB Vram...
Besitzt du das spiel überhaupt?
Hast du das Video in meinem letzten Beitrag nicht gesehen oder wolltest du es nicht sehen?
Mit 1080P Auflösung habe ich es noch nicht versucht, würde aber zur Diskussion über den "zu gering dimensionierten VRAM" auch nichts beitragen.
Bin selbst auch bei 7GB@1440P, ändert nichts daran, dass 8GB für 1440P selbst beim Spiel mit den wohl am schlechtesten komprimierten Texturen völlig ausreichend sind.
Weshalb du bei beinahe der halben Auflösung die selbe VRAM Auslastung hast, kann ich dir nicht erklären, da frägst du wohl lieber bei Crystal Dynamics oder Square Enix nach.
Sofern AMD keine Grafikkarte für Spieler mit mehr als 8GB vorstellt, ist die Diskussion aber sowieso völlig überflüssig.
Wie bereits gesagt, warum sollten Entwickler Texturen erstellen, welche mehr VRAM benötigen als die Grafikkarte mit dem meisten VRAM (11GB)?! Hier hätte bestimmt keiner etwas gegen einen Vega Nachfolger mit 16GB HBM, da das vor 2020 jedoch nichts mit der aktuellen Realität zu tun hat, ist es für 2018 völlig irrelevant.
Nizakh schrieb:
Ich habe deinen Beitrag mal korrigiert.
Korrigiert? Eher das Zitat, auf das ich von XXX94 eingegangen bin erweitert, aber in Ordnung ...
Ändert nicht viel an den Grafikkarten, die ich von XXX94 zitiert hatte.
680 2GB&4GB vs 7970 3GB&6GB
690 2x2GB vs 7990 2x3GB
760 2GB&4GB vs R9-280 3GB
770 2GB&4GB vs R9-280x 3GB&6GB
780 3GB&6GB vs R9-290 4GB
780Ti 3GB vs R9-290X 4GB&8GB
970 3,5GB+0,5GB vs R9 390 8GB
980 4GB vs R9-390X 8GB
1060 3Gb&6GB vs RX 480 4GB&8GB
Hier nochmal dein Beitrag "korrigiert" auf die Grafikkarten in denen AMD mehr VRAM hat.
Aktuell nur in der Mittelklasse, in der keiner hohe oder maximale Texturen bei flüssigen FPS nutzen kann ...
3GB könnte bei manchen Spielen knapp werden, aber um mehr als 6GB bei einer Mittelklasse Grafikkarte zu benötigen, muss man schon gerne bei 30 FPS spielen ...
Bei der GTX 980 liegt AMD klar vorne, nichtsdestotrotz hat sich die GTX 980 öfter verkauft. Woran das liegt kann ich dir auch nicht sagen. Spontan würden mir nur das deutlich besseres OC Potential und das Stromfresser Problem der R9 290X / 390X einfallen.
Die GTX 970 ist wohl das einzig wirklich gute Beispiel. Einfache Lösung: nicht kaufen.
Genau das selbe passiert mit AMD wenn man keine gute Konkurrenz darstellt:
https://wccftech.com/nvidia-amd-discrete-gpu-market-share-q2-2018/
Nicht einmal die Hälfte des Marktanteiles von Nvidia kommen nicht ohne Grund zustande.
Über Grafikkarten mit einem Release Date vor über 5 Jahren brauchen wir doch nicht über VRAM diskutieren ...
Von mir kamen die Vorschläge der Grafikkarten die ich zitiert habe übrigens nicht, die kamen von XXX94, der nicht einmal Stellung dazu nimmt, dass die von Ihm genannten Grafikkarten, bis auf die GTX
Shoryuken94 schrieb:
DX12 Schrott oder mal wieder eine Nvidia Architektur, die mit aktuellen API nicht wirklich gut zurecht kommt
Wenn es an DX12 liegen würde, müsste es ja auch AMD betreffen.
Aber Hey, nur 7,8GB von 8 belegt, da ist noch lange Luft nach oben
Vielleicht streichen sie ja nächstes mal sogar Vram. Findet dann bestimmt auch Leute, die das verteidigen. 1000€ 6Gb GDDR6(x) auf der 3070, leistung eine 1080Ti. Mehr braucht doch eh keiner
XXX94 bleibt bei seinem Motto ein Beitrag dämlicher als der andere ...
Bist du nicht der Held, der sich bei Nvidia bei einer 1440P über 8GB bzw. bei 4K über 11GB beschwert, während AMD im Topmodell nur 8GB bietet? Nochmal: AMD HAT KEINE GRAFIKKARTE MIT ÜBER 8GB IM ANGEBOT.
Eine AMD Grafikkarte mit 16GB HBM und identischen Leistung einer RTX 2080 Ti zu einem günstigeren Preis wäre sofort bestellt. Aber solange das nur Träume sind, bringt das keinem etwas. Nochmal für die, die es immer und immer wieder nicht verstehen möchten: Aktuell hat keine Grafikkarte von AMD mehr als 8GB (schon gespannt wann der erste Held eine Radeon Pro erwähnt ...).
Shoryuken94 schrieb:
DX12 Schrott oder mal wieder eine Nvidia Architektur, die mit aktuellen API nicht wirklich gut zurecht kommt
Wenn es an DX12 liegen würde, müsste es ja auch AMD betreffen.
Aber Hey, nur 7,8GB von 8 belegt, da ist noch lange Luft nach oben
Vielleicht streichen sie ja nächstes mal sogar Vram. Findet dann bestimmt auch Leute, die das verteidigen. 1000€ 6Gb GDDR6(x) auf der 3070, leistung eine 1080Ti. Mehr braucht doch eh keiner
Wieder beim Motto? Ohne die geringste Ahnung wird bei einer Grafikkarte, die erst wenige Tage auf dem Markt ist, wieder spekuliert woran es liegen mag, dass ein 3 Jahre altes Spiel Probleme macht ...
Wenn wir schon spekulieren wollen, sind voraussichtlich Treiberoptimierungen notwendig, so wie das nach dem Release aller Grafikkarten, ob Nvidia oder AMD, notwendig ist.
Sollen wir mit Spielen anfangen, die auf AMD Grafikkarten Probleme machen bzw. bei selber Leistung deutlich schlechter laufen? Besser nicht ...
Tatsächlich, der niedrige Marktanteil liegt nicht an den ganzen Käufern mit den Lederjacken, wie sich das "rote Lager" das immer vorstellt. Es sind Grafikkarten, konzentriert euch auf die Fakten, es handelt sich hier nicht um ein Produkt wo die Geschmäcker auseinander gehen können.
Zu behaupten NUR Nvidia bzw. NUR AMD würde gute Grafikkarte herstellen zeugt nicht gerade von Intelligenz.
Fakt ist die "bessere" Grafikkarte wird sich besser verkaufen. "Besser" kann in diesem Fall das Preis-/Leistungsverhältnis, die Energieeffizienz oder einfach die bessere Leistung in Spielen sein.
Bist du übrigens auf einem Auge blind oder hast du die Hälfte meiner Beiträge überlesen?
Shadow of the Tomb Raider bei 3440x1440 bei maximalen Einstellungen (inkl. maximalen Texturen!
) = 7,5GB VRAM.
Behauptungen ohne Belege/Quellen interessieren doch keinen.
Während ich es belegt habe, dass es so ist, soll ich euch einfach glauben dass es so ist ... Typisch in einer sinnlosen Diskussion.
Bei mir läuft Shadow of the Tomb Raider bei 4K inkl. DSR und maximalen Einstellungen und verbraucht nur 2GB VRAM, nur Quelle oder Belege habe ich dafür keine ... *Sarkasmus Ende* ...
Ach und nochmal, damit du es ja nicht überliest:
Solange AMD nicht mehr als 8GB VRAM anbietet, brauchen wir uns bei Nvidia nicht über 11GB beschweren.
Hätte AMD eine Vega mit 16GB VRAM im Angebot (nein, Workstation Grafikkarten zählen leider nicht), wäre die Kritik angebracht, so leider nicht.
-
Hier nochmal ein Beitrag zu deinem heiligen HBCC
:
https://www.gamestar.de/artikel/rad...t-high-bandwith-cache-controller,3318564.html
"Bevor wir uns die Messungen genauer ansehen, außerdem noch ein Hinweis: Selbst in 4K und bei fast maximalen Details belegt nur einer unserer Benchmark-Titel (Rise of the Tomb Raider) überhaupt den kompletten regulären VRAM der Vega-Karte. Das heißt einerseits nicht, dass wirklich so viel VRAM für ein reibungslos flüssiges Spielerlebnis benötigt wird. Andererseits könnte HBCC aber auch unabhängig von einem überfüllten Videospeicher Vorteile bieten.
Im Rahmen unserer aktuellen Messungen mit dem regulären Grafikkarten-Testsystem ist das allerdings nicht der Fall. Der Blick auf die Einzelergebnisse zeigt in Total War:Warhammer praktisch keine nennenswerten Unterschiede zwischen aktiviertem und deaktiviertem HBCC, auch in Rise of the Tomb Raider und The Witcher 3
fallen sie unter WQHD und in 4K sehr gering aus.
Rise of the Tomb Raider ist dabei das einzige Spiel, dass überhaupt die Grenze der regulären 8,0 GByte VRAM mit aktivierten HBCC überschreitet, in 4K sind es knapp 9,0 GByte. Performance-Vorteile durch HBCC resultieren daraus aber nicht."
Sprich bis auf Rise of the Tomb Raider @ 4K, welches wohl besonders platzsparende Texturen hat, bringen einem mehr als 8GB VRAM in einer Grafikkarte, die 4K nicht einmal bei maximalen Einstellungen flüssig darastellen kann überhaupt nichts. Mal davon abgesehen, dass die 4GB mehr an Speicher mit HBCC nur in den Ram ausgelagert werden und somit nicht ansatzweise die notwendige Geschwindigkeit bieten.
Wegen einen einzigen Spiel, dass nur in 4K mehr als 8GB benötigt nun 22GB in einer Consumer Grafikkarte anbieten?
Das hier wäre übrigens auch ein interessanter Artikel um dein Wissen zu bereichern, entschuldige zu "korrigieren" :
https://www.pcwelt.de/a/grafikkarten-gddr6-schneller-als-hbm2,3451036
"Auf einer Grafikkarte mit einem 256 Bit breiten Speicherinterface würden sich dann Geschwindigkeiten von 640 Gigabyte pro Sekunde ergeben.
HBM2 kommt auf maximal 652,8 Gigabyte pro Sekunde."
Shoryuken94 schrieb:
Es ist nur GDDR Speicher und kein HBM
Shoryuken94 schrieb:
GDDR6 ist weder schneller noch langsamer es kommt auf das Interface an. GDDR6 an einem 32 Bit Speichercontroller ist ziemlich lahm, ab 512Bit ziemlich schnell.
32 Bit, welche Grafikkarte soll das sein? ...
Die vorhandenen 352 Bit der RTX 2080 Ti sollten ausreichend sein und HBM2 selbstverständlich übertreffen.
16GB mit 512 Bit wären auch in Ordnung gewesen, aber solange der Speicher schneller und größer als bei der Konkurrenz ist, sind mehr aus Sicht von Nvidia wohl nicht notwendig.
Zum Preis:
“The HBM2 memory is probably around $150, and the interposer and packaging should be $25.”
https://www.gamersnexus.net/guides/3032-vega-56-cost-of-hbm2-and-necessity-to-use-it
"GDDR6 @ 14 Gbps8 Gbit (1 GByte) GDDR6 @ 3500 MHz QDR (14 Gbps)$26.36 €22.51"
https://www.reddit.com/r/hardware/comments/8y9iup/gddr6_memory_prices_compared_to_gddr5/
HBM2 8GB (VEGA 56) = 175$
GDDR6 8GB (RTX 2080) = 210.88$
In welcher Realität soll HBM2 nochmal teurer sein?
lalelu schrieb:
Wird schon wieder ein Vortrag .... schönen Feiertag.
Amen.
XXX94 genug für diesen Thread, ich kann nicht weiter jede Behauptung von dir widerlegen ...
Diskutieren wir weiter, wenn AMD es schafft mehr als 8GB in eine Grafikkarte zu packen
Dann macht das ganze Geheule über zu wenig VRAM bei Nvidia vielleicht auch Sinn ...