News RTX 3080 Ti und 3070 Ti: Nvidia soll einmal mehr am Grafikspeicher sparen

GERmaximus schrieb:
Nutz doch die Gunst der Stunde und rüste auf einen "besseren" Monitor, der Beides kann
Aus den anderen genannten Gründen werde ich sowieso keine AMD Karte kaufen. Und WQHD 165hz hat der Monitor schon. 4K will ich nicht, weil einfach viel zu leistungshungrig.
 
Auch mal positiv sehen zur Abwechslung;für FHD dürfte wohl fast jede Karte ab Pascalzeit schnell genug sein und genügend Vram haben. Ich bin immer wieder erstaunt wie geil die 1080ti heute noch mithält.Von aktuellen Karten gar nicht erst zu reden.Solang der Monitor nicht riesig ist sieht es auch gut aus.Je nach Schmerzgrenze kann man da schon bis 27 Zoll gehen mit genug Helferlein die das Bild verbessern.
 
  • Gefällt mir
Reaktionen: Klever und pietcux
Innocience schrieb:
Schon erstaunlich wie preiseffektiv die späten Polaris Karten waren. RDNA kam gerade so an dessen Preis-Leistung ran.
Karten wie 1080Ti oder die RX400 und RX500er Serie sind leider Ausnahme statt Regel.
Ich hab eine Vega 56 für 230 Euro neu gekauft 2019.
OC + UV und Timings optimiert. Im Time Spy leicht über einer GTX 1080@Stock.
In manchen Games über einer GTX1080 und in machen unter einer GTX1070. Genau da liegt die Karte jetzt.
Zocke damit auf WQHD und ich kann die Regler der Games "bedienen" was zu viele einfach überhaupt nicht können :D
 
Capthowdy schrieb:
Dann verstehe ich beim besten Willen dein Gejammer nicht? Offensichtlich nutzt du deine Karten sowieso bloß bis zur nächsten Generation (max. zwei Jahre), also wo ist dein Problem mit den 12GB? Die werden die nächsten 2 Jahre genauso wenig Probleme machen, wie die 10 GB der 3080.

Nur weil ich jede Gen mitnehme, bedeutet dies nicht das ich die Firmenpolitik billige.
Zudem bin ich ja nun auch umgestiegen

Edit: Eine Produkteigenschaft kritisch zu sehen ist mMn auch kein gejammere
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dai6oro
Ardenda schrieb:
Das ist doch ein Witz... Gestern Monster Hunter World in 3840 x 1200 laufen lassen. Meine 3070 sagt die VRam Auslastung ist bei 7.5GB. Bei Resident Evil 3 hatte der VRAM nicht mal mehr gereicht. In Virtual Reality ist es das gleiche Thema. Wie sollten da 12GB langfristig gesehen reichen, wenn man eine Grafikkarte im schnitt 4 Jahre nutzt? Es wird ja nur durch DLLS weniger
In niedrigeren auflösungen reichen such die 8gb. Finde es eher witzig das nvidia ksrten mit mehr ram ankündigen obwohl sie jetzt nicht mal liefern können
 
Schöne Karten, die 3080 Ti wird wie geschnitten Brot weggehen. Die 3070 Ti ebenso.
 
  • Gefällt mir
Reaktionen: Klever
Baya schrieb:
Mich reißen die ganzen 3.000er nicht vom Hocker, selbst bei "normalen" Preisen...
Zu wenig Leistungszuwachs zu meiner 1080ti. Wart mer mal auf die 4.000er oder schauen was sich bei AMD tut.

Das sehe ich auch so. Ich habe es immer so gehandhabt: Eine neue Grafikkarte wird gekauft wenn ~100% mehr
Leistung geboten wird, und bisher bin ich damit immer gut gefahren. Ich warte auch ab was sich dann mit "Hopper" oder vielleicht einem (immerhin möglichen...) Äquivalent von AMD tun wird.
 
  • Gefällt mir
Reaktionen: Baya
GERmaximus schrieb:
Nur weil ich jede Gen mitnehme, bedeutet dies nicht das ich die Firmenpolitik billige.
Zudem bin ich ja nun auch umgestiegen
Das ändert doch aber nichts daran das eine 3080 Ti mit 12 GB bis zur 4080 Ti genauso gereicht hätte. Ob die nun 10, 12, 16 oder 20 GB hat wird bis zum Release der 4080 Ti null Unterschied machen.

Das ewige Gejammer wegen dem Speicher kommt dann auch noch von Leuten wie dir, die sowieso jede Grafikkartengeneration wegen mehr Leistung mitnehmen. Mache ich nicht anders, aber ich jammere auch nicht rum.

Wenn nVidia & AMD nun nächstes Jahr neue Karten mit "nur" 12 GB Speicher aber 30-50% mehr Leistung bringen würden, würdest du dann nicht kaufen? Lass mal, ich kenne die Antwort.
 
  • Gefällt mir
Reaktionen: ThommyDD und Heschel
Von der Staffelung her, macht das ganze auch PR technisch sinn: 8GB < 10GB < 12GB.

Bis man den Blick unterhalb der 3070 wagt. Spätestens bei der 3060 ist der Kunde verwirrt oder fehlgeleitet. Ich frage mich langsam ob Nvidia nicht einfach nur spart, sondern einfach keinen Speicher beigeschafft bekommt.
 
  • Gefällt mir
Reaktionen: dohderbert
Sind wir mal ehrlich. GTX970 mit 3,5GB war optimal für FHD und RTX3070 mit 8GB ist optimal für WQHD.
Ich zocke mit RTX3080 in UHD 120Hz und das Problem wird nie der VRam sein sondern die GPU Leistung
denn die ist bereits jetzt zu schwach für 120FPS also ich bräuchte eine RTX4080 und gerne mit nur 10GB :D
 
  • Gefällt mir
Reaktionen: Heschel
Was bin ich froh das ich ne 3090 gekauft habe und das als die GKs noch nicht übertrieben teuer waren .-))
 
  • Gefällt mir
Reaktionen: nurfbold und cru5h3r
Capthowdy schrieb:
Das ewige Gejammer wegen dem Speicher kommt dann auch noch von Leuten wie dir, die sowieso jede Grafikkartengeneration wegen mehr Leistung mitnehmen. Mache ich nicht anders, aber ich jammere auch nicht rum.

Ich habe dich eben schon gefragt. Was hat das missbilligen einer Produkteigenschaft mit Jammern zu tuen?
Darf man sich nicht bedenklich äußern?
Bzw. zitiere doch mal mein "jammern"
 
  • Gefällt mir
Reaktionen: Zwirbelkatz
SKu schrieb:
Schöne Karten, die 3080 Ti wird wie geschnitten Brot weggehen. Die 3070 Ti ebenso.
Das war jetzt nicht so schwer, das vorauszusehen. 😉
 
Hexxxer76 schrieb:
12GB bei der Ti wäre eine Option gewesen, aber so wird das nix! Verstehe da Nvidia nicht!

Naja, Nvidia verschiebt Ihre Käufergruppen recht ordentlich hin und her. Wer viel VRAM will, springt von ner 3080 TI lieber gleich auf ne 3090. Oder ich, ich wäre ein potentieller Käufer einer 3070 TI. Wegen der Speicherausstattung käme jetzt aber nur noch die 3080 TI in Frage. Zack, haben se mich in ne höhere Preisklasse gedrängt.

Durch die aktuelle Situation spielt das aber keine Rolle, ich hab jetzt ne 6900XT. Das Verkaufsaufargument von AMD war: Sie kostet "nur" 999€ :D
 
  • Gefällt mir
Reaktionen: Pro_Bro, GERmaximus, Zwirbelkatz und 2 andere
Ardenda schrieb:
Wie sollten da 12GB langfristig gesehen reichen, wenn man eine Grafikkarte im schnitt 4 Jahre nutzt?
Wie 4 Jahre?
Der klassische CB-Forist/Pro-Gamer-Experte kauft doch mindestens einmal im Jahr das neue Top-Modell. Deine Armut und dein Geiz kotzen mich an!*



*Dieser Beitrag kann Spuren von Sarkasmus und Ironie enthalten
 
  • Gefällt mir
Reaktionen: Kiwifloo, Amiga500, Mracpad und 3 andere
latiose88 schrieb:
Also klatschen wir doch am besten gleich 100 gb auf ner GPU drauf weil es sonst ja zu wenig wäre.Damit es ja auch ausreichen wird weil es sonst hinten und vorne nicht reichen würde.
Ne, dann meckert der Mob das die Karte zu schwach ist und sowieso alles Schwachsinn ist.
 
Fürs Mining braucht man nicht mehr, clever gespart. Sie wissen wer und was für die Rekordumsätze sorgt
 
  • Gefällt mir
Reaktionen: GERmaximus
ich bin raus , ich schau mir das delämmer lieber von der ferne an , ich haben genug andere Hobbys die nicht ansatzweise soviel kosten wie ne neue GK , Gott sei dank bin ne Ältere Gen . und brauch nicht diesen RUN auf GK`s nicht .Ich bin mal gespannt wo das hinführt ....
 
  • Gefällt mir
Reaktionen: tom77 und dohderbert
Naja ich hab auf wqhd oft genug gesehen das die 11gb meiner 1080ti schon sehr gut gefüllt waren .

Bei meiner 6800xt war das höchste was ich bisher in wqhd gesehen habe so 13GB auslastung

8gb für die 3070 ist in meinen Augen einfach zu wenig..

Auch 10gb für die 3080 ist in meinen Augen einfach sehr grenzwertig..

Mit 12 GB wäre die Karte wesentlich runder abgemischt.. aber eigentlich bräuchte sie 16gb um für mich als rundes Produkt da zu stehen..

Was dlss angeht.. das ist ne schöne Sache und ich Hoffe das AMD bald nach zieht.

Aber den raytracing Hype kann ich so ehrlich gesagt nicht nachvollziehen.
Für ein bisschen anders Schatten und Beleuchtung Mal eben die Hälfte an FPS einbüßen..
In nem singelplayer Game kann ich es noch verstehen.. aber bei so shootern wie COD oder Battlefield geht man eher Richtung high FPS und schaltet den Kram eh aus.

Zumal es für mich nicht immer eindeutig besser aussieht... Meistens sehe ich keine Unterschiede (bis auf die halbierung der FPS) ob on oder Off..
Da sorgt bei mir ne ordentliche HDR Einbindung wesentlich mehr für einen WOW Effekt als raytracing.
 
  • Gefällt mir
Reaktionen: Kiwifloo, modena.ch, GERmaximus und eine weitere Person
Blackfirehawk schrieb:
Naja ich hab auf wqhd oft genug gesehen das die 11gb meiner 1080ti schon sehr gut gefüllt waren .

Man sollte schauen, ob das "gefüllte" VRAM dann auch tatsächlich gebraucht wird. Wie schon vorher angemerkt, Reservierung ist nicht dasselbe wie Nutzung.

Blackfirehawk schrieb:
8gb für die 3070 ist in meinen Augen einfach zu wenig..

Auch 10gb für die 3080 ist in meinen Augen einfach sehr grenzwertig..

Für WQHD meiner Ansicht nach ausreichend, insbesondere was die 3080 angeht. Und bis vor einem Jahr war das AMD Flagschiff der Navi 1.0 Gen auch nur mit 8 GB VRAM zu kaufen, 1,5 Jahre nach Erscheinung einer Highend-Karte ist irgendwie wenig, für eine Limitierung.

Ausgehend aus einer längerer Nutzung, versteht sich. Wer sowieso jede neue Gen seine Grafikkarte wechselt, hat sowieso keine Probleme bezüglich Speicher, bei beiden Herstellern.

Darüber hinaus haben Konsolen ca maximal 9 GB an Videospeicher aus dem kombinierten RAM zur Verfügung, mWn, mit einer Rechenleistung die in Bereich RT ungefähr einer 2060 Super/2070 entspricht (mit entsprechenden Grafikeinstellungen auf Middle-Low). Da reicht es mit einer 3070 für eine erheblich bessere Grafikqualität als auf den Konsolen allemal, inklusive Raytracing (wo AMD bis jetzt nicht aufschliessen konnte, mal sehen wie gut die künftige Entwicklung bei der Implementierung wird).


Blackfirehawk schrieb:
Für ein bisschen anders Schatten und Beleuchtung Mal eben die Hälfte an FPS einbüßen..

Dafür hast du ja DLSS (mit der Beschränkung auf die unterstützenden Spiele, wobei diese immer mehr werden), dass dir die FPS bei RT (sowie je nach Einstellung auch ohne RT) erhöht, durch das Deep Learning AI entwickelt von Nvidia einhergehend mit hardwareseitig in den Chip integrierten Tensor-Cores ab der Volta Gen, die als erste mit der neuen Technologie auf den Markt in 2017 rauskamen, falls ich mich nicht täusche.

Geforscht wurde daran aber mindestens seit 2013.

Blackfirehawk schrieb:
Zumal es für mich nicht immer eindeutig besser aussieht... Meistens sehe ich keine Unterschiede (bis auf die halbierung der FPS) ob on oder Off..

Für mich kann ich nur sagen, dass ich durchaus erhebliche Unterschiede bei Beleuchtung sowie Spiegelungen und Verzerrungen durch durchsichtige Flächen bei Raytracing feststellen kann, die die Grafikqualität aus meiner Sicht erheblich aufwerten.

Darüber hinaus, ist ja DLSS 2.0 schon so weit dass Antialising Artefakte damit beseitigt werden, in unterstützenden Spielen, was wiederum eine bessere Image Quality mit sich bringt.
 
  • Gefällt mir
Reaktionen: Tornavida und Zwiebelsoße
Zurück
Oben