Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia GeForce RTX 4070: Gerüchte sprechen von 5.888 ALUs und 250 Watt TDP
Die 2070 war leicht vor der 1080
Die 3070 war leicht vor der 2080
Wenn die 4070 leicht vor der 3080 landet, wäre die Bezeichnung doch eigentlich richtig? Zudem hätte erstmals die 70er Serie mehr RAM als die letzte 80er Serie.
Aber nicht vergessen, dass der preis dann nicht >= der 3080 ausfallen sollte.
Richtig wäre wohl 3070-Preis vor C19, chipmangel und miningboom + inflation.
Die 3070 war leicht vor der 2080 TI!!! Das ist schon ein Unterschied, da gab es die absolute High-End Leistung der Vorgängergeneration fürs halbe Geld. DAS war ein Fortschritt, denn da war die nachfolgende 70er auch massiv billiger als die vorherige 80er.
Das gleiche Geld für die gleiche Performance wäre einfach nur Stillstand und peinlich (3080-Leistung und Preis angenommen). Wer das schönredet, versteht die Gesetze des Halbleitermarktes der letzten 20 Jahre nicht.
Oder anders: Man bekommt die gleichen Features nur auf einem neuen Fertigungsprozess und daher mit weniger Strom. Und da man eben auch viel weniger Chipfläche bekommt, ist es eigentlich eine Preiserhöhung. Aus Konsumentensicht einfach ein "Shrink" bei Prozess und Namen
Ergänzung ()
Laphonso schrieb:
Ich prognostiziere 1500 Euro 7900XTX Modelle bereits als Listenpreis bei Scalpernate und Cascalpeking.
Man kann sich ja die Benchmarks bereits ansehen. Auf Raster ist die 7900xtx minimal schneller als die 4080. Teurer wird sie daher nicht werden, da mit Konsumentenbrille die 4080er die Karte mit mehr Prestige ist.
Da die 4080 Richtung 1300 geht, wird die 7900xtx wohl maximal 1200 kosten
Das ist auch anzunehmen, nur wuerde ich eigentlich mit mehr SPeichergeiz bei der normalen RTX 4070 rechen (gekuerzt auf 10GB anstatt 12 GB wie bei der RTX 4070Ti), aber gut, das kann man ja auch ueber den angesetzten Verkaufspreis regeln und evt. kommt die 10GB Option noch bei einer RTX 4060Ti (mit noch weniger Shadern) zum Einsatz, wer weiss?
Die gleiche Bandbreite bei beiden Karten (RTX 4070 Ti und nicht-Ti) ist wohl das, was mich am meisten skeptisch macht an diesen Spezifikationen, aber gut, moeglich waere es schon, da es einfacher ist einfach nur die Shaderanzahl deutlich zu beschneiden.
Ob so eine RTX 4070(Ti) das Warten lohnt wegen etwas besserer Effizienz und DLSS3 Feature, welchem dann ein deutlicher Aufpreis gegenueber den Ampere Modellen mit aehnlicher Leistung zum Martkstart gegenueber stehen duerfte?
Gut, dass ich erst einmal ueber Jahre (mit einer 16GB RDNA2 Karte von AMD/RTG) versorgt sein duerfte, so dass ich mir ueber den Kauf einer nVidia 70er Karte lange Zeit keine Gedanken mehr machen muss.
Wen interessiert das. Nach 2 bis 3 MOnaten Markteintritt und erreichen einer gewissen Marktverfügbarkeit, dann sind die Preise interessant. Und da steht NVidia wahrscheinlich stand jetzt, richtig schlecht da.
Wenn die 4070 leicht vor der 3080 landet, wäre die Bezeichnung doch eigentlich richtig? Zudem hätte erstmals die 70er Serie mehr RAM als die letzte 80er Serie.
In meiner Welt gibt die Zahl eine Einstufung innerhalb einer Generation an und bei gehörigem Abstand sind die Zahlen verschieden, bei geringem Abstand wird der Unterschied mit einem Buchstabenzusatz erkennbar gemacht...
Was hat die Vorgängergeneration mit der Namensindung zu tun?
Zumindest nicht zu diesem Preis. Ich hoffe blauäugig darauf, dass das bei diesen absurd frechen Preisen auch viele tun werden und die Dinger ohne die Mining-Abnehmer in den Regalen liegen bleiben.
Evtl. wird RTX 5000 dann wieder etwas maßvoller bepreist.
Bis dahin komme ich noch mit der RTX 3070 prima aus. Es kommt ja gerade irgendwie auch eh nichts an Spielen heraus, was bei mir den "muss ich auf Ultra-Grafik spielen können"-Kaufreiz erweckt.
Fast alle AAA-Titel der letzten drei Jahre auf die ich mich vorab gefreut habe, waren zum Release maximal mäßig gut, da brauche ich auch keine vierstellig teure Grafikkarte, wenn ich die meisten Spiele eh nach 30min gelangweilt schließe und lieber auf Youtube oder in Foren abhänge...
Naja, nicht dass ich die Preisgestaltung für gut halte, aber wenn man bedenkt, dass damals 2013 die Titan schon 1000€ gekostet hat und jetzt die 4090 2000€ kostet, ist das gar nicht mal so schlimm bzw. wird auch bestimmt nicht so schlimm wie du vermutest in so kurzer Zeit , die 4090 leistet auch ca. 5x so viel.
Diese Flaggschiffe benötigen inzwischen viel mehr Ressourcen und sind viel größer, ganz so vergleichen lassen sich die Preise nicht einfach. Bei den Handys ist es auch nichts anderes, oder Vergleiche mal dein neues Samsung / Iphone zu einem Phone vor 10 Jahren.
Wenn man noch bedenkt, dass wir momentan eine extrem hohe Inflation und zusätzlich schwachen € & starken $ haben.
Die 3070 war leicht vor der 2080 TI!!! Das ist schon ein Unterschied, da gab es die absolute High-End Leistung der Vorgängergeneration fürs halbe Geld. DAS war ein Fortschritt, denn da war die nachfolgende 70er auch massiv billiger als die vorherige 80er.
Naja, dafür hatte die 2080ti 11GB und die 3070 nur 8GB. Die 3080 hatte nur 10GB und die 4070 sogar 12GB. Ganz ehrlich? Der Sprung von 8GB auf 12GB bei der 70er Serie war lange überfällig, wenn man die 1070 mit 8GB noch betrachtet.
Wäre mir auch wichtiger als 10% mehr oder weniger Leistung in dem Bereich. Am Ende wollte ich auch einfach nur ausdrucken, dass die 4070 eben schon 4070 heißen darf und keine 4060er Karte ist.
Interessante (per 4K Leistungsindex und GeekBench 5) Tabelle:
Dass nVidia jetzt schon Presie senkt (zumal der CEO dort ja grossspurig behauptet hat, das wuerde mangels Moor'schem Gesetz in Zukunft nicht mehr passieren), ist eher unwahrscheinlich.
In meiner Welt gibt die Zahl eine Einstufung innerhalb einer Generation an und bei gehörigem Abstand sind die Zahlen verschieden, bei geringem Abstand wird der Unterschied mit einem Buchstabenzusatz erkennbar gemacht...
Was hat die Vorgängergeneration mit der Namensindung zu tun?
Wenn jemand sagt, dass die 4070 eigentlich 4060 heißen müsste, muss ich ja irgendwie argumentieren und dann sah es eben in der Vergangenheit ähnlich aus vom Leistungszuwachs. Kannst natürlich auch agumentieren das die 4070ti zu weit weg ist, aber ist sie ja nicht.
Ach das ist wieder nur eine Kurs-Anpassung an den -erneut- erstarkten Euro... N__O__T__!
Auch wenn Nvidia seine Käufer gerne für Vollidioten verkauft, denke ich, dass nun selbst die eingefleischtesten Fanboys den ganzen Müll der Firma nicht mehr abkaufen.
Perfektes Beispiel dafür, dass wenn jeder mit seinen Kaufgewohnheiten mit Vernunft umgeht --> werden die Preise ganz schnell nach unten korrigiert.
Aber selbst für 1330 sind das noch Mindestens (mit großem M) 600 zu viel. Und selbst dann würde mich noch das hier richtig stören:
Bin wirklich auf die Verkaufszahlen bei AMD gespannt. Spart man sich bei über 1000€ für eine Grafikkarte die letzten 100-200€ wirklich oder gibt man lieber 10-20% mehr aus um eine Nvidia-Grafikkarte im System zu haben?
Auf den ersten Blick scheint AMD das bessere Angebot zu haben, aber
A) wer kauft überhaupt in dem Preisbereich eine Grafikkarte?
B) wer greift in dem Bereich zu einer AMD?
Ich bin gespannt und könnte mir auch vorstellen, dass sich weder 4080, noch RX7900 gut verkauft im aktuellen Umfeld.
@Ayo34 guck mal in deine Signatur, dann weißt du wer in diesem Preisbereich überhaupt eine Grafikkarte kauft. 🤣
Aber ich gebe dir Recht, ich würde bei 10%-20% mehr auch eher zu Nvidia greifen, da die einfach x-mal besser mit den Treibern sind und ich da noch nie Probleme hatte.