News RTX 3080 Ti und 3070 Ti: Nvidia soll einmal mehr am Grafikspeicher sparen

Na dann bin ich froh von einer GTX 1070 auf eine RX 6800XT mit 16GB zu UVP umgestiegen zu sein.
 
Aktuell bete ich nur das meine 1070 mich nicht im Stich lässt. Der Markt war bzw. ist lächerlich und wird mit der Miner Ti nochmal gefüttert.
 
  • Gefällt mir
Reaktionen: tunichgut und dohderbert
Baya schrieb:
Mich reißen die ganzen 3.000er nicht vom Hocker, selbst bei "normalen" Preisen...
Zu wenig Leistungszuwachs zu meiner 1080ti. Wart mer mal auf die 4.000er oder schauen was sich bei AMD
rtx 3090 zu wenig leistungszuwachs zu deiner 1080ti?Würde mal sage mehr als doppelt so schnell was willste mehr?
 
  • Gefällt mir
Reaktionen: GERmaximus, Shoryuken94, Reihensechser und eine weitere Person
Vitali.Metzger schrieb:
Der Speicherbedarf wird doch bei den ersten richtigen Next Gen Triple-A Games doch eher steigen als gleich bleiben. Wie lange haben wir schon 8 GB im Mainstream? Genau fast 5 Jahre und jetzt kommt mal wieder NVIDIA um die Ecke und bringt die 3070ti mit nur 8 GB. Da kann man doch nur mit Kopf schütteln.
Sampler Feedback.
 
  • Gefällt mir
Reaktionen: foo_1337 und B3nutzer
Jap, nachdem Nvidia jetzt wieder so geizt trotz der Kritik und obwohl AMD 16 GB bietet, bin ich fast schon sicher dass Nvidia Sampler Feedback und DX12 Ultimate im Hinterkopf hat.

Speicherknappheit von GDDR6X kann ich mir nicht vorstellen, sonst hätte man bei der 3070ti nicht den 6X genommen sondern weiterhin den 6er.

Wird spannend was es dann wirklich bringt.
Wenn Sampler Feedback wirklich so viel Speicher spart wie angekündigt, dann kann man sich eher bei AMD „bedanken“ dass sie auf Bauernfang gegangen sind... Dann wären die Karten mit üppigen Speicher als Verkaufsargument ins Rennen gegangen, obwohl er am Ende gar nicht gebraucht wird??
Gleiches gilt natürlich für die 3090.

Kann natürlich Nonsens sein. Das weiß ich selbst. Ich erwarte von Sampler Feedback jetzt auch keine Wunder. Aber ich bin trotzdem extrem gespannt wie sich die Sache am Ende entwickelt. Noch liegen nicht alle Karten auf dem Tisch.

Ich tu mich eben schwer, zu glauben dass Nvidia zu wenig Speicher verbaut und das Risiko eingeht, dass die Karten 2021/2022 in den Benchmarks massiv gegen AMD abstinken, wenn der VRAM ständig ausgeht.
So dumm kann Nvidia nicht sein.. Oder doch? :freak:
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: CaptainPiett und XashDE
Pana schrieb:
Wie kommst Du auf solchen Schwachsinn?
Nochmal die von mir humorvoll kommentierte Aussage: "Es findet eine gewaltige Wertschöpfung bei digitalen Währungen statt". Kurz Hirn an und auf den Punkt Wertschöpfung fokussieren.
 
  • Gefällt mir
Reaktionen: ZeroStrat und Matthias80
B3nutzer schrieb:
Speicherknappheit von GDDR6X kann ich mir nicht vorstellen, sonst hätte man bei der 3070ti nicht den 6X genommen sondern weiterhin den 6er.

Ich nehme an, die Größe der GDDR6X-Speicherchips spielt dabei eine Rolle. Die 2GB-Chips (wie bei 3090) scheinen sehr knapp zu sein. Bei den 1GB-Chips (3080 und kleiner) ist es vielleicht nicht ganz so schlimm und mehr auf dem Niveau der normalen GDDR6.
 
Dai6oro schrieb:
Bis auf die 3090 ist Ampere wirklich ein Witz. Und das sage ich nicht weil ich eine habe, sondern...

Tja, da hat NVidia ja alles richtig gemacht. Mit schlechten "günstigen" Angeboten dich dazu getrieben ihnen das übermäßig teurere Produkt abzukaufen. Jetzt im Nachhinein meckern macht NVidia auch nicht mehr ärmer.
 
  • Gefällt mir
Reaktionen: Inxession
Herdware schrieb:
Aber die GDDR6X-Speicher-Chips, speziell die 2GB-Varianten, scheinen derzeit ein großer Flaschenhals in Sachen Lieferbarkeit zu sein.
Also hat NV wohl entschieden, trotzdem lieber doppelt so viele Karten mit halbem VRAM zu verkaufen. Bei der derzeitgen Marktsituation wird ihnen eh alles aus den Händen gerissen.
Vor allem da beim Mining ja viel eher die Speicherbandbreite interessiert als die Speicherkapazität. Zumindest in den Größenordnungen, von denen wir hier sprechen.
 
GHad schrieb:
Tja, da hat NVidia ja alles richtig gemacht. Mit schlechten "günstigen" Angeboten dich dazu getrieben ihnen das übermäßig teurere Produkt abzukaufen. Jetzt im Nachhinein meckern macht NVidia auch nicht mehr ärmer.
Ich hab mir Anfang Dezember die 3090 gekauft weil es keine andere zu kaufen gab. Ich habe es versucht bei AMD aber zu dem Zeitpunkt keine Chance. Hätte kein Problem gehabt zu wechseln trotz Gsync Monitor. Ich Nachhinein stellt sich die Karte für 1600€+ 200€ Fullcover als Schnäppchen dar.
 
  • Gefällt mir
Reaktionen: GHad
In welcher Welt sind 1800€ für ne Grafikkarte ein Schnäppchen?

Wenn du dir jetzt ne 3080 kaufen willst, nen Preis von 1500 siehst um am nächsten Tag bei 1400 kaufst redest du dann auch von Schnäppchen?

Ich sag mal so... alles über UVP kann eigentlich kein Schnäppchen sein.
Sehr seltsame Sichtweise.

Schnäppchen sind für mein Verständnis eher bei UVP -30 bis 50%.
Aber gut ist vielleicht Ansichtssache
 
  • Gefällt mir
Reaktionen: bulli008, Hatch, Grundgütiger und 4 andere
@VW4Ever
Vielleicht, wenn ich endlich mal CP2077 durchspiele wofür das Ganze eigentlich gedacht war. :D

Aber mit Patch 1.2 fange ich jetzt wirklich an. ;)
 
mac_skull schrieb:
Ich glaube, dass Nvidia sich die Doppelte-Speicher-Karten für den Refresh ("Super") aufspart.
Unwarscheinlich. Viel mehr kommt es auf die Workstationableger an welche auch Ausbauten haben welche eben dem doppelten der consumerkarten entsprechen.

Hier gibt's ja dann auch große Verträge mit OEMs usw welche man einhalten muss.

Die haben dann sowieso Priorität einfach aufgrund ihrer Marge.

Ich fürchte wenn ein Super refresh kommt ist der genauso sparsam mit dem VRAM wie jetzt auch.

Mehr Speicher gibt's frühestens mit Nvidia bei next Gen.

Die Bestückung der Karten ist halt nicht mehr ganz zeitgemäß. Muss jeder selbst entscheiden ob er sich das für hohe Auflösungen nochmal antut. Jeder wechselt ja auch in anderen Zeiträumen.

Abseits der 3060 hat eigentlich jede Karte zu wenig VRAM. Es gibt Sogar Rückschnitte wenn Karten wie die 3050 vorgestellt werden welche ähnlich start wie eine 1070 sein dürften welche aber damals schon 8 GB hatte und jetzt 4 GB bekommt.
 
Verstehe die Politik von NVIDIA nicht: Warum bringen die nicht von jeder Karte 2 Varianten heraus, einmal mit 1 GByte Chip und einmal mit 1,5 GByte Chip. So könnte sich jeder überlegen, ob er für einen kleinen Aufpreis 50% mehr Speicher haben möchte oder nicht.
 
Ich zock hier mit meiner Intel 620HD. Bei Interesse PN lel. Ohne Witz, Hearthstone und StarCraft2 laufen prima damit auf FHD. Und hab ich halt mehr Zeit zum proggen und RL :)
Dass einige sich wegen zu wenig Speicher aufregen, ok. Aber es wird den kleinsten Teil betreffen wenn man sich mal ansieht, was auf welcher Auflösung gespielt wird.
Browsergames oder meistens irgendwelche günstigen Indie Spiele und wenn überhaupt dann LOL, CS:GO, Valorant, Call of Duty, Fortnite, Dota 2, Apex Legends, Minecraft, Hearthstone, WoW.
Es sind einfach Businessentscheidungen die Nvidia trifft. Niemand will jemals den Nerd glücklich machen.
Stand Feb2021 auf Steam:
1616416569657.png
 
  • Gefällt mir
Reaktionen: ErbarmeHesse, Der Paule und XashDE
Faust2011 schrieb:
Richtig, da geht es um RT und DLSS ist eine Performanceoptimierung dafür. Dein Vorschlag, die Performance zu optimieren, indem man es einfach abschaltet, ist halt nicht gerade das Gelbe vom Ei ;) Und man sieht den Unterschied zwischen RT on und off sehr wohl. Ich habe schon selbst Ambient-Occlusion Algorithmen analysiert und weiß, dass man im Screen-Space einfach nicht alle Infos zur Hand hat, um damit realistische Effekte abzubilden. RT ist einfach ein Schritt weiter.

Und Nvidia liefert mit der zweiten Iteration von RTX in der 3000er Serie und einem weiterentwickelten DLSS ein gutes Gesamtpaket. Da kann AMD einfach (noch) nicht mithalten.
Man sieht angeblich auch den Unterschied zwischen DLSS on und off. Und manche Darstellungen mit DLSS on fand ich jetzt nicht so das gelbe vom Ei. DLSS ist für mich auch nur eine Krücke, weil die Hardware bei nativen Auflösungen mit RT viel zu langsam ist.
Und mein Vorschlag war ein temporärer Workaround den man nach Verfügbarkeit der DLSS-Alternative von AMD wieder verwerfen kann. Was ich auch geschrieben habe. Die Grafikkarte wird weiterhin nur 8GB oder 10GB VRAM haben. Da kannst Du dann nur neu kaufen....sofern Du die Kohle hast.
Wenn ich also nicht jedes Jahr eine Karte kaufe, weil ich die Kohle nicht habe, dann wüsste ich, was ich kaufen würde, wenn die Gefahr besteht, dass Speicher immer wichtiger wird.
Abgesehen davon frage ich mich schon manchmal, wie man bis vor 2 Jahren überhaupt ohne RT zocken konnte wenn man so manchen Kommentar liest. Aber die Ansprüche wachsen zur Zeit schneller als die Hardware Performance zulegt.

Cunhell
 
Tornavida schrieb:
12 GB sind besser wie 10 GB,ganz einfach.

Natürlich ist es objektiv/messbar gesehen "besser". Dass stand aber auch nie zur Debatte.
Nur bestätigt deine Aussage danach ja exakt meine Frage: welche Zielgruppe hat die 12GB 3080Ti denn?
Du selbst sagst ja auch "ah, da wird was kommen, also AMD". Und dann kommt was und dass ist einfach mal 1/3 schlechter in Sachen VRAM als die direkt Konkurrenz.

Wer also soll sich denn für die 12GB Version interessieren?
1080Ti Nutzer? Die haben 11GB, für die ist es quasi egal, wie du in disem Thread X mal lesen kannst.
2080 Ti Nutzer? Da ist weder der Leistungssprung nicht groß genug.
Leute, die bisher keine 3080 gekauft haben weil zu wenig VRAM? Für die sind die 2GB extra im Vergleich zur normalen Karte auch furz-egal.
usw.

Mir ist wirklich schleierhaft, wer die Zielgruppe sein soll: klar wird es Spieler geben, die sie kaufen, nur im Gesamt-Kontext der Spieler ist diese Gruppe so verdammt winzig, dass eine 3080 Ti eigentlich keinen Sinn macht, da man dafür ja wieder Fertigung leicht umstellen, Treiber unterhalten usw. machen muss.
 
  • Gefällt mir
Reaktionen: Mcr-King
Experte18 schrieb:
Selbst Schuld! Jeder der sich ein bisschen mit Hardware auskennt,weiß das 8 GB heute schon zu wenig sind. Eine 3070 würde ich nichtmal für 500 Euro kaufen.. und mit DLSS steigt sogar der vram Bedarf. Viel Spaß beim runterregeln der Texture Details in nächster Zeit. Aber sowas sollte man ja wissen..:(
Ich hab sie für 800€ gekauft fürUWQHD🤪.. denn was mach ich wohl wenn meine 1080ti das zeitliche senken.. nicht mehr zoggen😱
 
Zurück
Oben