News GeForce RTX 3070 16 GB: Modder verdoppelt den Grafikspeicher für mehr FPS

pacifico schrieb:
Die 2070 Super hat die Performance einer 2080.

Die 2080 wurde hier im Forum durchgängig für die 8GB RAM kritisiert.
Darum war die 2080 auch ein mieser Deal und die 2070S ein guter. Erstere sollte 800+ kosten und letztere gabs um die 500-550 Steine rum. Ergo passt das doch.
 
Also ich komme mit meinen 10GB wunderbar aus, bisher noch keine Probleme gehabt. Ich gehöre aber auch nicht zu der "Alles auf Anschlag" Fraktion, sondern lege Wert auf einen Kompromiss von FPS/Grafik.
Es ist wie immer alles eine Einstellungssache.
 
scuba2k3 schrieb:
Wer jetzt noch was neues unter 16GB kauft um damit länger auf Ultra zocken zu wollen dem ist nicht mehr zu helfen.
Mimimi:"Wer nicht das kauft was ich kaufe ist ein Fanboy."
scuba2k3 schrieb:
Aber NV fanboys werden sich das schon irgendwie schön reden
Wer heute eine 12GB Karte kauft, wird entweder früher aufrüsten und davon nie was mitbekommen oder muss eben in was weiß ich wie vielen Jahren in typischen Auflösungen mal einen Regler nach links schieben.
Daran wird man auch nicht sterben müssen, dafür haben Nvidia Karten andere Vorteile.
 
  • Gefällt mir
Reaktionen: Vitec
Klever schrieb:
Das DLSS geplante Obsoleszenz ist stimmt aber gar nicht
DLSS upscaling mag kein obsolzenz Feature sein.

Das DLSS Frame Generation geplante obsolzenz für die Vorgänger ohne diese Funktion ist, lässt sich nicht weg diskutieren.

Lies dir bei Wikipedia die Artikel zu Obsolzenz durch. Dann verstehst du vielleicht besser was unter diesem Begriff verstanden wird.
 
schkai schrieb:
sondern lege Wert auf einen Kompromiss von FPS/Grafik. Es ist wie immer alles eine Einstellungssache.
Ist ja okay wenn das für dich so passt, aber realistisch gesehen, ist das einfach eine "Sollbruchstelle" seitens des Herstellers. Die Karte könnte länger Max Details abliefern, wenn sie mehr RAM hätte, aber man will ja einen Anreiz schaffen, möglichst schnell die nächste Generation oder eine höher Stufe zu verkaufen. Mit anderen Worten: geplante Obsoleszenz
 
ThirdLife schrieb:
Darum war die 2080 auch ein mieser Deal und die 2070S ein guter. Erstere sollte 800+ kosten und letztere gabs um die 500-550 Steine rum. Ergo passt das doch.
Das passt eben nicht weil die Leistung nicht zum verbauten Speicher passt...

Aber egal, die eingefleischten Nvidia Boys und influencer werden sicherlich auch das schlechteste Produkt bis aufs Messer verteidigen.
 
  • Gefällt mir
Reaktionen: C0rteX
ThirdLife schrieb:
Also in CP2077 PT/RT liegt sie gut 50% vor einer 7900XTX. Soviel dazu. ;)

Aber ja. Hält "fast" mit. Wenn 50% weniger noch als "mithalten" bezeichnet werden können.🤔
Wie oft denn noch mein grüner Freund. CP2077 ist der mit Abstand ungeeignetste Vergleich für die Raytracing-Performance zwischen Nvidia und AMD. Bei der extremen Optimierung für RTX-Karten...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1 und C0rteX
TigerherzLXXXVI schrieb:
Nur ein weiterer Beweis dafür, dass Nvidia eindeutig beim Videospeicher geknausert hat. Vielleicht sogar das Projekt eines Fans, der nun versucht die Ehre seiner RTX 3070 zu retten.
Was ich mir frage: Wieso sind diese Debatten hier so dermaßen aufgeblasen. Die Ehre einer Grafikkarte wird nicht daran zerbrechen mal Regler nach links zu schieben.
TigerherzLXXXVI schrieb:
Auf der einen Seite wollen sie die Triebkraft der Technik schlechthin sein (siehe CP2077), auf der anderen Seite haben zu viele ihrer Grafikkarten am Markt einfach zu wenig VRAM für ihre Leistungsklasse.
Was momentan ja nur auf die 3070 und in Teilen auf die 3080 10GB zutrifft und man eben Regler bedienen muss, sollte der Speicher limitieren. "Zu wenig" für ultra Details. Okay. Sollte man mal etwas differenzierter sehen, vielleicht wäre die Debatte dann nicht ganz so aufgeheizt?
TigerherzLXXXVI schrieb:
Nvidia-Jünger...
Ok.
pacifico schrieb:
Das DLSS Frame Generation geplante obsolzenz für die Vorgänger ohne diese Funktion ist, lässt sich nicht weg diskutieren.
Frame Generation gab es erst zum Launch der 4000er Generation. Geplante Obsoleszenz ist da ganz was anderes. Ob das Feature zuverlässig auf der 3000er Generation laufen würde, weißt du nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever und ThirdLife
Komische Story die hier mal wieder redaktionell erzählt wird.
Was ist denn der Sinn der Übung?

Ne Mittelklasse Grafikkarte aus 2020 hat >2,5 Jahre nach Release in Titeln aus 2023 mit maximalen Details in höheren Auflösungen Probleme - ja und? Wo ist das denn der Anspruch?? Ich versteh es nicht... Wer erwartet von einer so alten Hardware, dass sie in 2023 noch maximale Details abzuliefern in der Lage ist?


Und nein, das heißt sicher nicht, dass zu wenig VRAM gut ist. Aber ist 8GB absolut zu wenig? Ne, ist es nicht. Die Karte hat doch nicht den Anspruch maxed Out Settings entsprechend ohne jeglich auftretenden Probleme abdecken zu wollen. Da spielt auch die Auflösung nur bedingt eine Rolle. In höheren Auflösungen ist das Ding eh viel zu langsam für entsprechende FPS. Mit aktivem RT noch viel schlimmer. Aber man hängt sich jetzt auf VRAM auf? Mir erschließt sich der Punkt nicht.


Btw. wenn man das mal anders herum überlegt. Einerseits wird die VRAM Menge kritisiert, andererseits die Verschwendung durch die Entwickler. Was meint ihr denn, was passiert wenn man den VRAM auf der GPU Seite jetzt erhöhen würde? Würde dann nicht im selben! Atemzug der Bedarf durch die Entwickler auch deutlich steigen? Was soll das am Ende denn wirklich bringen?
Es geht aktuell in der Masse der Titel noch halbwegs gut, weil der Spagat zwischen TopEnd (24GB) und Mittelklasse (8GB) eben existiert und die Entwickler ihre Presents auf auch solche Modelle hin ausrichten. Hätten alle 8GB Karten jetzt 12 oder 16GB, würde sich nichts ändern an der Lauffähigkeit, weil zu 100% sicher der Bedarf entsprechend mit anziehen würde. Erst durch Modelle am unteren Rand gibt es auch den Bedarf der Entwickler, diese zu berücksichtigen.
Gefühlt denkt man aber hier, wenn man nur genug VRAM verbaut, halten die Entwickler die Füße still...
 
  • Gefällt mir
Reaktionen: ThirdLife und Fallout667
pacifico schrieb:
Die 2070 Super hat die Performance einer 2080.

Die 2080 wurde hier im Forum durchgängig für die 8GB RAM kritisiert.

Bereits 1080ti mit der gleichen Leistung hatte 11GB
Für diese Ansicht im Forum kann ich nichts. Die RTX 2080 kam im Herbst 2018 auf den Markt und die RTX 2070 Super im Sommer 2019, heute haben wir immerhin schon Frühjahr 2023. In Anbetracht dieser Zeitspanne geht das schon in Ordnung, zumal erst jetzt die Next-Gen so richtig Fahrt aufnimmt.
 
bartio schrieb:
Zufälle gibt es, gerade Heute gesehen, wie Jemand eie Voodoo2 von 8MB (ja MB nicht GB ;D) auf 12MB aufgerüstet hat :)
Die gab es ja seinerzeit glaube ich auch mit 2 verschiedenen Ausbaustufen.
Ich hatte sogar die 12 MB und das ganze noch als SLI. Meine Güte, Flight Unlimited war damit ein Traum. Lang, lang ist's her ...
 
  • Gefällt mir
Reaktionen: bart1983, ThirdLife und BornBad
tensai_zoo schrieb:
Was ich so von Entwicklern gehört habe, hätten die gerne bis zu 32GB VRAM für die UE5.
Die hätten auch gerne RTX 4090 Leistung und den fettesten 16Kerner in jedem Rechner um ihre Neuauflage von Tetris nicht optimieren zu müssen.

Ändert nichts an der Tatsache, dass man sich für 1080p mit 10GB geteiltem RAM der Xbox Series zufrieden geben muss und die stärkeren standard Konsolen (PS5, Series X) 4K mit ca. RTX 2080 Leistung und 16GB geteiltem RAM darstellen sollen.
Genauso kauft sich auch nicht jeder PC-Spieler plötzlich eine RTX 4080, der großteil der Kundschaft ist noch mit Lastgen Karten aus der R(G)TX X060 Leistungsklasse unterwegs.

Die fetteste super-duper Grafik wird es nur mit Highend Karten geben, wenn ich hier aber lesen muss, dass die Leute Panik schieben ob eine 8GB Karte in den nächsten Jahren noch für 1080p reichen wird, kann ich nur mit dem Kopf schütteln. Wer nicht alle Regler ohne Sinn und Verstand aufdreht wird damit sicherlich prima auskommen.
(Das soll natürlich keine Verteidigung Nvidias sein, die 3070 hätte von Anfang an mit 16GB erscheinen sollen.)
 
  • Gefällt mir
Reaktionen: Klever und ThirdLife
Also, ich will erst mal die Tests mit guten AAA Spielen sehen, die mehr als 8GB VRAM brauchen.
Die Tests mit schrott Konsolen-Klons sagen mir gar nichts. Es ist ja kein Kunst die Ressourcen ineffektiv zu verbrauchen
So lange solche Schönheiten und Ressourcenfresser, wie RDR2 und Cyberpunk gut mit 8GB VRAM auskommen, halte ich das alles für unprofessionelle gehypte Gerede.
Und wer in 4K spielen will und viel VRAM brauchen kakann, der wird es nicht mit einer Graka mit 8GB können.
Es ist ok für verschieden Youtube Kanäle, die ohne Verständnis und Analyse ganz schnell ein FPS Vergleichsvideo drehen und mit einem Klickbait Titel publizieren.

vram.png


vram (1).png
 
  • Gefällt mir
Reaktionen: Recharging, Klever und ThirdLife
Taxxor schrieb:
Was soll man dazu schon sagen? 8GB sind zu wenig für RT >1080p und es hat auch niemand was anderes behauptet.

Mit der Pathtracing Unterhaltung hat das auch überhaupt nichts zu tun, zumindest habe ich dort nie über den Speicher geredet.
Mir geht es hier vielmehr um die Argumentationsweise von euch Nvidia-Hardcoreanhängern. Ihr seid einfach nicht in der Lage dazu sich objektiv mit eindeutigen Kritikpunkten an RTX-Grafikkarten auseinanderzusetzen, sondern weicht ständig aus bzw. kommt gezielt vom Thema ab. Wenn Nvidia ein offizielles Fanforum hat, dann seid ihr dort Vollzeit aktiv.
Ergänzung ()

tolstoj schrieb:
Also, ich will erst mal die Tests mit guten AAA Spielen sehen, die mehr als 8GB VRAM brauchen.
Die Screenshots sind keine guten Quellen. Wie sieht es mit den allgemeinen Grafiksettings aus? Läuft CP2077 hier mit aktivierten Raytracing?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX
TigerherzLXXXVI schrieb:
Wie oft denn noch mein grüner Freund. CP2077 ist der mit Abstand ungeeignetste Vergleich für die Raytracing-Performance zwischen Nvidia und AMD - bei der extremen Optimierung für RTX-Karten...
Das ist nicht "für nVidia optimiert" sondern einfach ein Hochlastszenario. Und RDNA kann momentan nur mithalten wenn partiell in einer geringen Dichte Strahlen verschossen werden.

Es ist also für Ray-Performance ganz klar der geeignetste Vergleich, zeigt er doch auf wieviel rohe Leistung in so einem Szenario zur Verfügung steht.

Vmax testet man auch nicht in einer 30er Zone mit zwei Sportwagen und entscheidet sich dann für den potentiell langsameren Wagen weil er ja da noch gut mithält.
 

"Besseres speichermanagement"xD

NV so: "wir lassen die texturen erst gar nicht laden"
 
  • Gefällt mir
Reaktionen: bullit1, modena.ch, Scheinriese und 5 andere
ThirdLife schrieb:
Bist du bereit auch dafür zu bezahlen ? Ah, ich sehs kommen:

Scheints nicht. Beggars can't be choosers. Du bist nicht bereit Preissteigerungen hinzunehmen aber du forderst immer mehr für dich selbst ein. So funktionierts halt nicht. 🤷‍♂️

Und zu guter Letzt: du kannst ja AMD kaufen gehen, die haben doch alle gut VRAM. Ist doch geil oder nicht ?
Ich bin bereit für die Karten zu bezahlen. Auch die Inflation bezahle ich gerne. Aber Preissteigerungen von 200-300% nehme ich nicht hin.
Auch bei AMD nicht. Das ist ein Grund für mich, warum ich mich entweder aus dem Gaming zurückziehe oder zu einer Konsole greife.

Technischer Fortschritt muss nicht immer bedeuten, dass die Preise auch steigen müssen, passiert bei anderer Hardware ja auch nicht.
Ram, SSDs, CPU bleiben ähnlich teuer oder haben noch Inflationsanpassungen.
Einzig GPUs kennen nur einen Weg.

Von mir aus, können die Grafikkarten auch bei 1000€ los gehen, wird mich nicht stören, bin dann einfach nicht die Kundschaft dafür.
 
  • Gefällt mir
Reaktionen: Vitec und C0rteX
Wan900 schrieb:
Im Video wird meiner Meinung nach deutlich:
Wenn 12GB bei Nvidia knapp werden, reichen bei AMD auch keine 16GB.

meine 3080 10 GB hat auch noch nie 12 gb vram ge(ver)braucht ;)


nee, mal ernsthaft an der speicherauslastung kann man nur begrenzt dinge ablesen, entscheident dürfte sein, wie schnell das spiel läuft (fps) und ob alles so dargestellt wird wie es soll.
 
  • Gefällt mir
Reaktionen: bullit1
pacifico schrieb:
DLSS upscaling mag kein obsolzenz Feature sein.

Das DLSS Frame Generation geplante obsolzenz für die Vorgänger ohne diese Funktion ist, lässt sich nicht weg diskutieren.

Erfundene Kriterien untermauern aber keineswegs deine aufgestellte Behauptung. Zum einen ging es um DLSS 2, welches weiterhin für DLSS unterstützende GPUs entwickelt wird, da gibt es gar keine Obsoleszenz und dies lässt sich nicht wegdiskutieren. Zum zweiten, laut deiner Logik wären jetzt schon alle AMD GPUs plötzlich obsolet, weil sie keine Frame Generation bieten? Und AMD hat die somit genauso ohne FG für geplant Obsoleszenz auf den Markt gebracht? Solche Logik funktioniert in beiden Fällen nicht.

Nur weil ein Feature dazukommt (welches auch noch "nice to have"´ist und nicht entscheidend was die meisten Spiele angeht), verlieren andere Karten ohne FG plötzlich nicht an Leistung.
 
  • Gefällt mir
Reaktionen: ThirdLife
fdsonne schrieb:
Ne Mittelklasse Grafikkarte aus 2020 hat >2,5 Jahre nach Release in Titeln aus 2023 mit maximalen Details in höheren Auflösungen Probleme - ja und? Wo ist das denn der Anspruch?? Ich versteh es nicht... Wer erwartet von einer so alten Hardware, dass sie in 2023 noch maximale Details abzuliefern in der Lage ist?
Alle erwarten sich für 299€ ne 4K240Hz Karte für Ultra Details, ist doch immer so hier. Dann wird Bezug drauf genommen "aber früher war doch" und gerne vergessen, dass FRÜHER bestimmte Titel nur für eine einzige Schnittstelle kamen auf der sie sauber liefen (3dfx Glide).

Wer da bestmögliche Performance wollte hat sich zwei GPUs in den Rechner stecken müssen (Voodoo und ne D3D Karte) und dann je nach Titel einsetzen. Heute reicht es FSR oder DLSS zu wählen. Und selbst da wird wieder gewimmert. Und wenn man was dagegen sagt ist man automatisch Fanboy. Ich hab das Gefühl, manche wollen einfach nur Trollen oder sind einfach zu jung um zu wissen wie es früher wirklich war. 😂
 
  • Gefällt mir
Reaktionen: Fallout667
Zurück
Oben