Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestDoom Eternal Update 6 im Test: Hohe FPS mit Raytracing wollen viel Grafikspeicher
Wer langfristig gut aufgestellt sein will - und wir machen uns über die Fehlplanung a priori immer lustig, siehe 8 GB VRAM GPUs aus 2015 - hat die 3090 bereits längst gekauft, denn das ist die einzige GPU dieser Generation aus dem AMD und Nvidia Warenkorb, die konkurrenzlos alles mitbringt und für das "Längerfristige" taugt:
Warum wir der längerfristige Nutzungszeitraum eigentlich hauptsächlich am Speicherbedarf festgemacht.
Die Texturqualität macht doch zwischen Mittel und Ultra bei den meisten Spielen kaum irgendeinen optischen Unterschied.
Auf meiner GTX 1070 merke ich auch auf Texturpool low keine Veränderung zu ultra nightmare.
@Laphonso Ja alles richtig was du sagst Problem ist halt man hat aktuell nur die Wahl zwischen Pest und Cholera. Kaufe ich mir eine RTX3070 mit wenig VRAM aber DLSS und RT oder kaufe ich mir eine RX68XX und lebe ohne RT.
Beides ist mit Risiko behaftet: Steigt der VRAM verbrauch in Games weiter wird die RTX3070 nicht lange durchhalten. Steigt die für RT gebrauchte Leistung ins unermessliche so das ich in 2 Jahren mit einer 3070 kein RT mehr anschalten kann war die Karte wohl ein Fehlkauf.
Genau das Gegenteil ist bei AMD der fall: Werde ich die 16GB VRAM nie benötigen habe ich die "umsonst" gekauft und bleibt die für RT benötigte Leistung gleich hätte man wohl eher zur RTX3070 greifen können.
Das Problem was ich hier sehe (und AMD einfach zu gute halten muss) die entscheiden halt nicht die GPU aufgrund von zu knappen RAM künstlich zu beschneiden. NV macht das schon und das nicht zum ersten mal.
Warum wir der längerfristige Nutzungszeitraum eigentlich hauptsächlich am Speicherbedarf festgemacht.
Die Texturqualität macht doch zwischen Mittel und Ultra bei den meisten Spielen kaum irgendeinen optischen Unterschied.
Auf meiner GTX 1070 merke ich auch auf Texturpool low keine Veränderung zu ultra nightmare.
Warum wußte ich bloß, dass Du die Speicherpolitik von NV wieder einmal bis auf letzte verteidigen wirst? Ach ja, aus unserer letzten diesbezüglichen Diskussion. Wow! Wie üblich kommt @Laphonso wieder mit Whataboutism und Strohmännern vom feinsten. Es geht nicht um eine 6 Jahre alte AMD-Karte, nicht um DLSS und alles andere BlaBla, mit dem Du von dem Thema ablenken wilst.
Es geht um die aktuelle NV-Generation. Und nur um die, nicht darum, was AMD kann oder nicht kann. Die 3er Generation ist noch nicht einmal ein ganzes Jahr alt und kommt jetzt schon an die Grenze ihres VRAM und das bei einem Spiel, dass als sehr gut optimiert betrachtet wird. Und das findest Du nicht traurig? Ich schon, vor allem für die, die so früh zugeschlagen und darauf vertraut haben, dass das für die nächsten 3 bis 4 Jahre reicht.
Nein, das findest Du das natürlich nicht traurig, schließlich kackt ja eine 6 Jahre alte AMD-Karte bei Doom auch ab. Na dann ist ja bei NV alles super, und Kritik kann man mit vollkommen belanglosen Nicht-Argumenten abwatschen. Weißt Du, Du kannst ja NV gerne super finden. Deswegen muss man berechtigte Kritik nicht als Anti-NV, Gebashe oder sonstwas abtun. Das ist nicht nur respektlos dem Diskussions"partner" gegenüber, sondern diskreditiert einen selbst.
@xXGerryxX Weil die Vergangenheit gezeigt hat das der benötigte VRAM immer weiter durch bessere Texturen ansteigt. Nun fressen Texturen aber kaum GPU-Power ergo kann es im Lebenszyklus einer GPU mit wenig VRAM auftreten das das Game trotz noch ausreichender GPU-Power nicht mehr gut Läuft da der VRAM voll ist und immer wieder nachgeladen werden muss was immer wieder zur Ruckeln führt (trotz Ausreichender Average FPS 1% bzw 0,1% Low ist hier das Zauberwort).
@Laphonso Ja alles richtig was du sagst Problem ist halt man hat aktuell nur die Wahl zwischen Pest und Cholera. Kaufe ich mir eine RTX3070 mit wenig VRAM aber DLSS und RT oder kaufe ich mir eine RX68XX und lebe ohne RT.
Also die RDNA 2 RT Rückstände sind sichtbar aber nicht sehr "groß", denn auch die 3090 würde in Cyerpunk in UWQHD bereits verrecken ohne DLSS, da haben wir keine Illusion.
Der Raytracing Unterschied zwischen AMD und Nvidia ist nur diese eine Generation und braucht schon die 3080 für sichtbaren Abstand (= ein-zwei Hände voller Frames).
Wie bei Nvidia mit DLSS steht und fällt es bei AMD mit FSR.
FSR fehlt (noch) in den ganzen fps killer Games, das ist eher die Unbekannte.
Wenn Du es aushälst, ware auf die nächsten GPUS im Herbst 2022, ja, auch wenn es nochmal 15 hin Monate sind.
Deine selektive Wahrnehmung ist fehl am Platze, ich wurde hier vor Monaten als Nvidia hater etikettiert.
Ich bin gefühlt, der einzige hier im Forum, der AMD und Nvidia und Intel für das lobt und kritisiert, was Lob und kritik verdient.
Aus diesem Grunde prallt das an mir ab, was Du mir da in die Schuhe schieben willst, das Differenzieren legen die meisten hier bei der VRAM Hysterie ab. Warum auch immer.
PS: Meine letzten PCs hatten alle AMD, Intel und Nvidia verbaut, ich bin also völlig branding immun. DIe Fanboy Debatten hier strengen an.
@Laphonso Ja mal schauen. Denke aber das mich das neue BF und STALKER in WQHD an den Rand des machbaren mit meiner GTX1070 bringen. Ansonsten würde ich definitiv noch warten. Bin schon sehr gespannt auf die wohl hoffentlich kommenden Chiplet AMD GPUs.
Nützt Dir halt nur dann leider nichts, wenn die Rechenleistung der Grafikkarte dann später nicht ausreicht, um die hohen Auflösungen zu betreiben, für welche man die Karten mit größerem VRAM kauft....
Wie gut soll denn die aktuelle RDNA Serie altern, wenn sie in RTRT Szenarien deutlich Federn lässt?
Bis auf die 3090 gibt es am Markt derzeit einfach keine Karte, die vollumfänglich als einigermaßen zukunftssicher einzustufen ist. Da stimme ich Laphonso zu.
@Laphonso Ja mal schauen. Denke aber das mich das neue BF und STALKER in WQHD an den Rand des machbaren mit meiner GTX1070 bringen. Ansonsten würde ich definitiv noch warten. Bin schon sehr gespannt auf die wohl hoffentlich kommenden Chiplet AMD GPUs.
ICH würde definitiv jetzt waren, wir haben bereits knapp die Hälfte des üblichen ~ 2 Jahres-Zyklus' rum.
Wenn es kein Game gibt, das Dich dringlich Frust verspüren lässt durch die Einschränkungen grafisch oder in den fps, dann halte das noch eine Weile aus.
Das ist doch bei jedem Game so mit den „richtigen“ Einstellung.
Dennoch empfinde ich es als ungünstig schon direkt Textur settings reduzieren zu müssen, bei einer so starken Karte wie die 3070ti.
Gerade weil Textursettings keine Bzw. marginal Leistung kosten.
Diese völlig vermurkste Speicherbestückung der Ampere Generation ist einmalig.
Da bin ich mal auf nextgen Speicherbedarf gespannt.
Nützt Dir halt nur dann leider nichts, wenn die Rechenleistung der Grafikkarte dann später nicht ausreicht, um die hohen Auflösungen zu betreiben, für welche man die Karten mit größerem VRAM kauft....
Nützt Dir halt nur dann leider nichts, wenn die Rechenleistung der Grafikkarte dann später nicht ausreicht, um die hohen Auflösungen zu betreiben, für welche man die Karten mit größerem VRAM kauft....
Wie gut soll denn die aktuelle RDNA Serie altern, wenn sie in RTRT Szenarien deutlich Federn lässt?
Bis auf die 3090 gibt es am Markt derzeit einfach keine Karte, die vollumfänglich als einigermaßen zukunftssicher einzustufen ist.
Du triffst den Nagel mit deiner Aussage auf den Kopf siehst das ganze aber nur einseitig. Was nützt dir eine RTX3070 wen ihr trotz DSLL für WQHD der Speicher ausgeht? Ich sag nur Stichwort Texturmods usw.
Weiterhin was passiert wenn RT immer und immer mehr Leistung frisst und du dann mit der RTX3070 kein RT mehr verwenden kannst.
Richtig genau dann wäre wohl eine RX6800er die bessere Wahl gewesen.
Und jetzt frage ich dich wie kann man es Verteidigen das NV dann nur 8GB VRAM auf der RTX3070 verbaut und 10GB auf der RTX3080?
Jeder kann ja kaufen was er will aber den 8GB VRAM Ausbau bis aufs Blut verteidigen WIRKLICH?
Edit: Jeder der eine RTX3070 sein eigen nennt sollte halt genau wissen das Probleme auf ihn zu kommen könnten weil NV zu geizig beim VRAM war bzw. die GPU für den geboten VRAM einfach zu schnell ist und das es für NV kein Problem gewesen wäre 16GB zu verbauen (man tauscht die 1GB Module einfach geben 2GB Module).
Die hatte 4 GB VRAM, nur fürs Protokoll
Der Skandal war die Kommunikation undf Nvidias Verlogenheit nach der PR Panne, siehe der Ars Technica Artikel, weniger das Limit.
Die 970 hatte trotzdem in den Benchmakrs alles außer der 980 rasiert.
Ergänzung ()
Sahit schrieb:
Was nützt dir eine RTX3070 wen ihr trotz DSLL für WQHD der Speicher ausgeht? Ich sag nur Stichwort Texturmods usw.
Also wenn Du zielgenau Gaming Szenarien hast, die bei Dir 8-12 GB VRAM benötigen, dann ist doch die 3070 längst raus? Jedem, der so im GPU Forum ein Modell sucht, würde man genau das sagen.
Dein usecase grenzt doch schon die möglichen Modelle ein..oder aus, Sahit?
Und jetzt frage ich dich wie kann man es Verteidigen das NV dann nur 8GB VRAM auf der RTX3070 verbaut und 10GB auf der RTX3080?
Jeder kann ja kaufen was er will aber den 8GB VRAM Ausbau bis aufs Blut verteidigen WIRKLICH?
Ich hatte es vorher schonmal geschrieben.
Die Bestückung der Grafikkarten geschieht in Abstimmung mit den Einschätzungen von Spieleentwicklern.
Eine Segmentierung geschieht hier mit voller Absicht. Eine 3060 ist einfach keine 4K karte. Und diesbezüglich setzt NVIDIA einfach die Rechenleistung in ein vernünftiges Verhältnis zur Speichergröße.
Da muss man auch garnichts verteidigen. Der User an sich will immer mehr für sein Geld. Das ist schon klar.
Aber wie gesagt- So funktioniert eine vernünftige Leistungsstufensegmentierung nicht.
Bezüglich einer 3060 mit 24GB VRAM würden viele Leute zurecht den Kopf schütteln. Der Speicher spielt ja in der Preiskalkulation auch eine Rolle...
Ist ein extremes Beispiel, sollte aber zeigen, was ich meine.
@Laphonso also ich mäße mir nicht an zu beurteilen wie viel VRAM zukünftige Spiele benötigen werden. Mein Usecase ist die Karte auf 3-5 Jahre behalten zu können damit bei WQHD das beste raus zu bekommen. Und ja aus diesem Grund wird es bei mir keine Karte mit 8GB mehr geben.
Die Konsolen haben beide immerhin 16GB DDR6 RAM (für GPU und CPU). Ich bin gespannt wann bzw. ob es dazu kommen wird das aufgrund Textur + Auflösung in Verbindung mit Multiplattformentwicklung der PC mehr als 8GB VRAM braucht.
@.Sentinel. Ich wiederhole gerne nochmal mein Rechenbeispiel (bestimmt nicht wissenschaftlich korrekt aber hier wird ja Speicher immer wieder an der Auflösung fest gemacht)
Achja und jetzt mal ne Frage an alle die sagen RTX3070 ist für WQHD da reichen 8GB VRAM.
Meines Erachtens nach ist ne RTX3060 ne FullHD Karte warum reichen für FullHD 6GB nicht mehr aber für WQHD 8GB noch locker. Merkt ihr was?
FullHD : 2.073.600 Pixel/6GB VRAM = 345.600 Pixel je GB RAM
WQHD: 3.686.400 Pixel/8GB VRAM = 460.800 Pixel je GB RAM
Ich bin der Meinung du lügst dir da selbst in die Tasche.....
Genauso hätte es ja auch absprachen bei der GTX1070 geben müssen die ja auch 8GB VRAM hat und aber nur die hälfte der Leistung. Warum hat NV dann keine GTX1070 mit 4GB gebracht (wie bei der GTX1060 mit 3 und 6GB)
Achja und jetzt mal ne Frage an alle die sagen RTX3070 ist für WQHD da reichen 8GB VRAM.
Meines Erachtens nach ist ne RTX3060 ne FullHD Karte warum reichen für FullHD 6GB nicht mehr aber für WQHD 8GB noch locker. Merkt ihr was?
FullHD : 2.073.600 Pixel/6GB VRAM = 345.600 Pixel je GB RAM
WQHD: 3.686.400 Pixel/8GB VRAM = 460.800 Pixel je GB RAM
Diese Rechnung sagt nichts aus. Die unterschiedlichen Auflösung des internen Renderings sind unabhängig von der Ausgabeauflösung. Ebenso die Speicherfresser schlechthin: Texturen.
Die größeren Framebuffer durch eine höhere Auflösung schlagen verhältnismäßig gering ins VRAM- kontor.
@Laphonso also ich mäße mir nicht an zu beurteilen wie viel VRAM zukünftige Spiele benötigen werden. Mein Usecase ist die Karte auf 3-5 Jahre behalten zu können damit bei WQHD das beste raus zu bekommen. Und ja aus diesem Grund wird es bei mir keine Karte mit 8GB mehr geben.
Die Konsolen haben beide immerhin 16GB DDR6 RAM (für GPU und CPU). Ich bin gespannt wann bzw. ob es dazu kommen wird das aufgrund Textur + Auflösung in Verbindung mit Multiplattformentwicklung der PC mehr als 8GB VRAM braucht.
Allen, die eine Transition Richtung UWQHD und 4K planen, und denen es wichtig ist, also Prio 1, dass das maximale Texturenpaket und die RT Zusatzandforderungen und ggf. sogar gfx Mods "über Jahre" laufen, wartet jetzt das eine Jahr noch ab auf das RDNA3 und Ampere 3 lineup.
Wenn es "jetzt" etwas sein muss und körperliche Schmerzen entstehen, weil man die Texturen eine Nummer reduziert, holt sich eine RDNA2 GPU, weil ein Nvidia Featureset maximal Prio 2 hat.
Es gibt in meinen Enthusiastengruppen genau aus diesem Grunde auch das Ergebnis, dass die 3090 abgewählt wurde, weil eine Handvoll mehr Raster fps und Mods mit 12-14 GB VRAM unter 4K wichtiger waren, da gab es dann die 6900XT, und das war die beste Wahl.
Den jüngeren Kids in meinem Freundeskreis (~ 14-17 Jahre =Fortine und Call of Duty only....ohne Worte) unter Full HD empfehle ich bedenkenklos die 3070, da sind die Nvidia GPUs quasi gesetzt mit dem DLSS fps output.
@.Sentinel. Ja und warum machst du dann in #220 Speicher an der Auflösung fest. Ach komm hör auf.....
Ich find dazu jetzt echt keine Worte mehr. Erst wird Speicher an der Auflösung fest gemacht und in der nächsten Äußerung wird gesagt ne das ist gar nicht so und wieder wird sinnlos NV Politik der Speicherkrüppel verteidigt.
@Laphonso Ja ich sag ja auch Garnichts dagegen jeder muss abwägen und du hast ja selbst gesagt das die NV Karten bis auf die RTX3090 alle zu wenig Speicher haben. Mit dieser Einstellung bin ich 100% gleich auf.