Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsZotac: Hersteller bestätigt RTX 3070 Ti mit großem Chip auf Diät
Wahrscheinlich weil es nicht genug Teildefekte Chips für die ganze Welt gibt und weil ed dort den Leuten egal ist was für Chip verbaut ist und nicht rummeckern wie wo anders
Da bin ich sooo bei dir. Wie oft habe ich gehört dass die 3060 empfohlen wurde "weil die ausreichend VRAM hat". Wofür? Es gibt meines Wissens nach absolut kein Szenario in dem man in FHD (ja, die 3060 ist eine FHD Karte) 12GB VRAM benötigt. Und für die wo man diese Menge brauchen könnte, hat die 3060 GPU einfach nicht genug Rohpower.
Aber das Gefühl für Verhältnismäßigkeit geht bei den Kunden sowieso langsam vor die Hunde...
Bin gespannt, was man letztendlich kaufen kann und was dabei heraus kommt, an Verbrauch, Leistung und natürlich Preis.
Beim Preis sicherlich nichts gutes (für mich).
Im Grunde könnte NV auch Restbestände der voll funktionsfähigen GA102 Chips umlabeln und als "RTX 4060" verkaufen, dann habt ihr eure neue Mittelklasse. Später dann bestückt mit dem Ausschuss der großen Lovelace Chips, entsprechend teildeaktiviert.
Nein eben nicht. RTX 4000 hat DLSS3 und das funktioniert auf den alten karten nicht weil es ihnen an bestimmten Recheneinheiten für die Zwischenbildberechnung mangelt.
DLSS 3 hat wohl noch Probleme und ist nicht richtig sauber. Eigentlich lohnt sich DLSS 3 wohl erst, wenn man mit normalem DLSS zumindest schon 60 fps erreicht. >(wegen Bildqualität und Reaktionszeit)
Das wird ja immer lächerlicher, was da abgeht. Hätte man mit den Chipresten nicht trotzdem 4000er Chips machen können? Zumindest für die unterste Klasse - eine gtx 4030 oder 4040. Ob mit oder ohne Raytracing wäre da auch egal gewesen. Hätte bei passendem Preis genügend Abnehmer gefunden.
Nein eben nicht. RTX 4000 hat DLSS3 und das funktioniert auf den alten karten nicht weil es ihnen an bestimmten Recheneinheiten für die Zwischenbildberechnung mangelt.
Eine 3070 oder 3070Ti hat doch beim derzeitigen Preisgefüge am Markt keine Existenzberechtigung. Da wischen die herabgesetzten 6800XT doch den Boden mit denen.
Das nVidia-Lineup wird halt immer verkorkster.
Man hätte gleich folgende VRAM-Ausstattung bei der 3000er-Serie bringen sollen, dann wäre viele (ja, nicht alle) zufrieden(er):
RTX 3090 (Ti): 24 GiB
RTX 3080 (Ti): 20 GiB
RTX 3070 (Ti): 16 GiB
RTX 3060 (Ti): 12 GiB
RTX 3050: 8 GiB
Vor allem die RTX 3070 (Ti) ist und bleibt der absolute Witz der 3000er-Serie.
Und wer behauptet, dass 8 GiB aktuell "in den meisten Fällen" ausreichend sind, mag aktuell noch recht haben. Das beste Gegenargument hat meine Frau mit der GTX 770 4 GiB im Rechner. Die standardmäßigen 2 GiB der GTX 770 waren zum Erscheinungszeitpunkt auch ausreichend, aber nicht viel später schon ziemlich unbrauchbar. Mit der 4 GiB-Variante konnte meine Frau die Tomb Raider-Reboot-Trilogie noch mit 40+ FPS/1200p problemlos und schön anzusehen spielen, mit der Speicherkrüppel-Standard-Variante wäre dies nicht möglich gewesen.
Das verkleinerte SI ist da letztlich auch kein Problem, weil der Speicher genauso schnell läuft, wie auf der 12G-Variante... Es fallen halt die 64 Bit der weggefallenen 4 GB VRAM weg.
Das stimmt eben leider nicht. Die Bandbreite sinkt dadurch. Diese ergibt sich aus Busbreite und Speichertakt. Ich vermute mal, dass sich das in FHD noch nicht so sehr bemerkbar machen wird, aber dann in WQHD. Ist technisch durchaus in Ordnung, aber das Preisschild sollte dementsprechend angepasst sein und eine 3050ti hätte vom Namen besser gepasst.
Der 3070ti hätte man am größeren Chip auch mal 12GB spendieren können und ein zumindest ein paar Recheneinheiten. Daher schade, dass der Leaker da komplett richtig lag, das einzige kleine Upgrade gabs dann aber nur für die 3060ti und die Lücke zwischen neuer 3060 und 3060ti ist vergleichsweise riesig.
Wieso hätte 3050 Ti besser gepasst? Das ist exakt derselbe Chip ohne Beschneidung wie bei der 3060 12G. Der Unterschied ist der VRAM und eben die passende Beschneidung des SI.
Die Speicherbandbreite dürfte sich in FHD kaum bemerkbar machen. In WQHD sieht das sicher was anders aus: Aber Fakt ist halt auch, mit einem 192-Bit-Interface wäre die 8G-Karte auch nicht schneller.
Die Alternative wären halt die 6G gewesen. Da ist halt die Frage, was ist besser: 6G an 192-Bit oder 8G an 128-Bit
Zumal die 3050 halt auch mit 8G an 128 kommt. Da eine 3060 6G zwischenzuschieben mit 192-Bit wäre auch Quark. Am Ende ist die Bezeichnung doch auch egal. Solange der Speicher nicht limitiert, dürfte die Leistung relativ identisch zur 3060 mit 12G sein... Wenn man nicht gerade in WQHD mit hohen Detailgraden unterwegs ist (was mit der 3060 auch mit 12G schon eine Herausforderung ist...)
Professionalisierung der Resteverwertung der noch vorhandenen Chips..nich mehr oder weniger.. nur ma schauen was das Ding kosten soll.
Katzenjoghurt schrieb:
Der Gamer kriegt wohl noch ‘ne Weile Ampère… die 4090 ist erst mal Reviermarkierung und die wenigen verfügbaren Karten werden zum gehobenen Preis an gelangweilte Enthusiasten verkauft.
Solange die Preise weiterhin so hoch bleiben, interessiert mich das herzlich wenig. Nvidia will Resteverwertung zu den derzeitigen hohen Neupreisen. Wer da zugreift ist selber schuld.
Hätte eine 3075(TI) sein können mit gleicher Leistung wie 3070TI oder mittig zwischen dieser und 3080, dafür aber mit 10GB in beiden Fällen. Und vorallem 1 Jahr früher.