News RTX 3080 Ti und 3070 Ti: Nvidia soll einmal mehr am Grafikspeicher sparen

Herdware schrieb:
Die 2GB-Chips (wie bei 3090) scheinen sehr knapp zu sein. Bei den 1GB-Chips (3080 und kleiner) ist es vielleicht nicht ganz so schlimm und mehr auf dem Niveau der normalen GDDR6.
Die 3090 hat 24x 1 GB. Vorder- und Rückseite jeweils 12 Stück. Hab selbst nachgezählt beim Umbau auf Wasser :D
 
  • Gefällt mir
Reaktionen: Hatch, owned139, GERmaximus und 4 andere
Mal abgesehen davon, dass man sie kaum kriegen können wird und die Preise in keinem Verhältnis zur gebotenen Leistung mehr stehen, zwei absolut uninteressante Karten, weil beide Speicherkrüppel.

Sind die Karten besser als ihre non-Ti-Varianten? Ja
Sind sie gegenüber AMD die eindeutig bessere Wahl? Nein, weil sie Speicherkrüppel sind.

Vor allem die 3070Ti überrascht mich, falls die wirklich so kommt. Bisher ist zwar alles, was Kopite7kimi vorausgesagt hat, eingetroffen, aber er hat seine Aussagen zu diesen beiden Karten nun auch schon häufiger geändert.

Eine 3070Ti mit GA104-Vollausbau, GDDR6X und 16GB davon hätte ich toll gefunden, besser als die zuletzt häufiger kolportierte Varante mit GA103, 58SM und 10GB GDDR6X, aber mit 8GB ist das ganze dann wieder sinnlos.

Ja, es sind nur einige spezielle Games, die mit RTX in WQHD oder UHD dann soviel Speicher fressen, dass die 3060 mit 12GB dann schneller als die 3060Ti und 3070 ist, aber es gibt mir langsam zuviele Szenarien, in denen man feststellen kann, dass 8-10GB nicht reichen. Da kann es nicht mehr lange dauern, bis das häufiger der Fall ist.

Auch eine 3080Ti mit 12GB wird in aktuellen Tests bis rauf zu UHD in 90% der Fälle fast eine 3090 sein, aber wie schon die 3080 und die 2080Ti wird man schon heute Szenarien produzieren können, in denen 12GB nicht reichen und damit ist es dann wahrscheinlich, dass das bald auch in UHD häufiger der Fall ist.

Wenn es so kommen sollte, kann das nur zwei Dinge für den GA103 heißen: Entweder es gab ihn nie bzw. nur in der Planungsphase und die Gerüchte über einen Einsatz auf der 3070Ti waren komplett falsch, oder es gibt ihn und er kommt erst beim Refresh als Geforce RTX 4000.

Was auf keinen Fall sein kann ist, dass er weitgehend fertig entwickelt und nun wie eine heiße Kartoffel fallengelassen wurde. So funktioniert das nicht, Nvidia steckt nicht soviel Entwicklungsaufwand in einen Chip, der Waferfläche sparen und die Marge maximieren soll, um ihn dann kurzfristig kurz vor oder nach Vollendung aufzugeben "um durch die Reduzierung der Chipvarianten Waferfläche zu sparen".

Eine solche 3070Ti wird nur etwas besser gegen die RX 6800 stehen, trotzdem aber in der Mehrzahl der Titel zurückliegen.
 
Zuletzt bearbeitet:
Iceman021 schrieb:
Die 3090 hat 24x 1 GB.

Aha. Danke für die Info. 🙂
Dann gibts die 2GB bisher wohl nur in Profi-Karten.

Aber meine Annahme könnte trotzdem noch passen, denn um die kleineren Karten mit mehr als 12GB zu bestücken, bräuchte Nvidia trotzdem 2GB-Chips. Es sei denn, die 3080er- und 3070er-PCBs hätten auch unbestückte Plätze für Chips auf der Rückseite.
 
  • Gefällt mir
Reaktionen: Mcr-King
Also ich persönlich habe das Spielen von Brakepoint eingestellt, da meine 2080 ins VRam Limit läuft.
Texturen 1 runtergestellt, und es sieht halt nach Matsch aus.
Das Game ist halt nen Grafikkracher, und dann will ich auch Grafik!
Spiele nun halt solange ältere Games, bis es wieder was brauchbares für unter 1k€ gibt.
 
  • Gefällt mir
Reaktionen: Grundgütiger, GERmaximus und Experte18
irgendwann wenn Corona und der aktuelle MiningHype vorbei ist lachen wir über diese Preise
 
Was ihr für Probleme ihr habt, ich zocke mit ner RTX 3080 Suprim 10G in 3840x1600. Selbst 4k war alles locker. 12GB reicht doch Locker hin.

Aber die Preise für ne RTX 3080 z.b. 2500€ sind schon Abartig. Ich habe 1210€ oder so bezahlt. Wenn ich bei Ebaykleinanzeigen den Preis für ne Gebrauchte mit 2500€ sehe, da streuben sich mir die Haare.

Der Verkäufer findet das auch noch normal, traurige Entwicklung.

Gab es mal für ca 999€

https://www.ebay-kleinanzeigen.de/s...-gaming-x-trio-gebraucht-/1705257688-225-3810
 
Ich bin ein Käufer von Grafikkarten die dann auch 4-6 Jahre benutzt werden, ausgereizt mit OC versteht sich.
Wichtig sind im Endeffekt genau zwei Dinge.

1. Wie schnell ist die schnellste Karte bis maximal 300Euro
2. Wieviel VRAM hat Sie

Das sind meine zwei Vorgaben

Aktuell ist es daher für mich unmöglich eine neue Karte zukaufen denn unter 16GB werde ich nicht gehen und die neue Karte sollte schon 50% mehr Leistung mit bringen als meine alte sonst lohnt das Update nicht.

Ich muss also bis mindestens 2022-2023 warten, dann ist meine jetzige Karte genau 5-6Jahre alt.

(Und nein ich könnte mir locker ne 3090 hohlen, das scheitert nicht an der Kohle)
 
  • Gefällt mir
Reaktionen: Vitec, Zwirbelkatz und Mcr-King
MehlstaubtheCat schrieb:
Ich bin ein Käufer von Grafikkarten die dann auch 4-6 Jahre benutzt werden, ausgereizt mit OC versteht sich.
Wichtig sind im Endeffekt genau zwei Dinge.

1. Wie schnell ist die schnellste Karte bis maximal 300Euro
2. Wieviel VRAM hat Sie
Nach diesen Vorgaben habe ich bisher auch meine Grakas gekauft. dann kam der erste Minung Boom es gab einfach nix. dann kommt endlich wieder eine brauchbare AMDun und ich benutze immer noch eine HD7970. sie sollte eigentlich gegen eine RX6000 Serie ersetzt werden aber die verfügbarkeit und die Preise sind mir zu absurd
 
  • Gefällt mir
Reaktionen: Mcr-King
Wunderbar. 12GB reichen mir locker aus für die nächsten 2 Jahre, dann kommt sowieso eine neue Grafikkarte.



Wer natürlich jetzt einmal von seinem Erbe eine Grafikkarte erwerben möchte, die dann auch für die nachfolgenden Generationen ausreichend sein soll, dem reichen die 12GB natürlich nicht...
 
Zudem vergessen hier viele eines:

Es ist keine bestätigte Aussage sondern nur eine Vermutung!

Aber selbst wenn es so kommt, mit TSF sinkt der RAM Bedarf massiv:

Texture Sampler Feedback: TSF is something MS is really stressing on. In simple words, it keeps a track of the textures (MIP Maps) that are displayed in the game and which are not. Consequently, the unused ones are evicted from the memory, resulting in a net benefit of 2.5x to the overall VRAM usage.
Quelle

Also erst Mal abwarten und Tee trinken!
 
  • Gefällt mir
Reaktionen: Caffenicotiak, Mcr-King, GERmaximus und eine weitere Person
Haaase schrieb:
Also ich persönlich habe das Spielen von Brakepoint eingestellt, da meine 2080 ins VRam Limit läuft.
Texturen 1 runtergestellt, und es sieht halt nach Matsch aus.
Das Game ist halt nen Grafikkracher, und dann will ich auch Grafik!
Spiele nun halt solange ältere Games, bis es wieder was brauchbares für unter 1k€ gibt.

Nur so als Tip.
Schatten und Objektsichtweite brauchen meistens auch massiv viel VRAM.

Hatte bis zuletzt nur 4GB, und oft waren die Texturen das letzte was ich runterstellen musste.

Dass nur die Texturen viel VRAM brauchen ist eine Annahme die nicht immer zutrifft.

XashDE schrieb:
Zudem vergessen hier viele eines:

Es ist keine bestätigte Aussage sondern nur eine Vermutung!

Aber selbst wenn es so kommt, mit TSF sinkt der RAM Bedarf massiv:



Also erst Mal abwarten und Tee trinken!

Faktor 2,5... O.O
Weißte Bescheid....

Noch ist das letzte Wort noch nicht gesprochen.
 
Ich hab mir letztes Jahr gesagt: Ich will entweder die 6800 XT oder eine 3080 ti.

Bei mir ist es jetzt als Kompromiss die 6900 XT geworden... :D
Ergänzung ()

Werretaler schrieb:
Wer bis 3 zählen kann, wird sich eine 6900 XT bei AMD für ungefähr 1000€ bestellen und seine alte Vega64/1080/2060 für locker 500€ bei ebay verkaufen.
Genau das hab ich gemacht, echt verrückt das ich meine 4 Jahre alte 1080 ti mit nur ~150€ "Verlust" verkaufen kann...
 
  • Gefällt mir
Reaktionen: Werretaler
Wishezz schrieb:
Also doch ne 3090... aber was sag ich.... die Founder ist ja eh nirgends lieferbar.......

solang du kein raytracing brauchst oder rendering betreibst nimm halt die 6900 xt?
 
  • Gefällt mir
Reaktionen: Hi-Fish, GERmaximus und Experte18
DonDonat schrieb:
Natürlich ist es objektiv/messbar gesehen "besser". Dass stand aber auch nie zur Debatte.
Nur bestätigt deine Aussage danach ja exakt meine Frage: welche Zielgruppe hat die 12GB 3080Ti denn?
Du selbst sagst ja auch "ah, da wird was kommen, also AMD". Und dann kommt was und dass ist einfach mal 1/3 schlechter in Sachen VRAM als die direkt Konkurrenz.

Wer also soll sich denn für die 12GB Version interessieren?
1080Ti Nutzer? Die haben 11GB, für die ist es quasi egal, wie du in disem Thread X mal lesen kannst.
2080 Ti Nutzer? Da ist weder der Leistungssprung nicht groß genug.
Leute, die bisher keine 3080 gekauft haben weil zu wenig VRAM? Für die sind die 2GB extra im Vergleich zur normalen Karte auch furz-egal.
usw.

Mir ist wirklich schleierhaft, wer die Zielgruppe sein soll: klar wird es Spieler geben, die sie kaufen, nur im Gesamt-Kontext der Spieler ist diese Gruppe so verdammt winzig, dass eine 3080 Ti eigentlich keinen Sinn macht, da man dafür ja wieder Fertigung leicht umstellen, Treiber unterhalten usw. machen muss.

Also ich finde die 2GB machen einen großen Unterschied für jemanden, der von einer 1080 oder 1070 kommt mit 8GB.

Das sind immerhin 4GB mehr jetzt und reicht für die nächsten 5 Jahre auf 1440p.
Aber wahrscheinlich werde ich noch mal auf die nächste Generation warten.
Warten ist man ja gewohnt
 
  • Gefällt mir
Reaktionen: Xes und Mracpad
Wir schreiben den 07. Februar des Jahres 2019. Eine Radeon VII mit 16GB HBM2 Speicher
wird für 729€ angeboten und im Fazit steht: Zu teuer (aber nicht weil der RAM zu wenig war).

Heute prügeln sich manche auf Ebay um 8 oder 12GB Karten für das gleiche Geld oder mehr.
2021er Modelle werden mit 8/10/12 GB angekündigt. Als Zeitreisender wäre ich jetzt verwirrt.
 
  • Gefällt mir
Reaktionen: modena.ch, Balikon, GHad und 4 andere
Baya schrieb:
Mich reißen die ganzen 3.000er nicht vom Hocker, selbst bei "normalen" Preisen...
Zu wenig Leistungszuwachs zu meiner 1080ti. Wart mer mal auf die 4.000er oder schauen was sich bei AMD tut.

Dich ja - du hast eine funktionierende Graka.

Aktuell geht es darum IRGENDEINE Graka kaufen zu können, damit man zocken kann.
Da wird alles genommen. ^^
 
  • Gefällt mir
Reaktionen: Baya und R O G E R
Werretaler schrieb:
solang du kein raytracing brauchst oder rendering betreibst nimm halt die 6900 xt?
wer spricht denn in der Liga von "brauchen"?! ^^
Ich WILL Raytracing und mehr VRAM.
Wann ich dann endlich mal zum Videoediting komme steht auf einem anderen Blatt.
Ich habs also eh nicht eilig.
 
EcOnOmiC schrieb:
Nein danke, warte auf 2022. 4070 oder 4080 mit 16Gb
Ich habe keine Lust zu warten. Habe mir eine RX 6900 XT mit 16 GB VRAM geholt.
 
  • Gefällt mir
Reaktionen: DirtyHarryOne und Haaase
Zurück
Oben