News Zwei Wochen nach Marktstart: Nvidias GeForce RTX 4070 fällt unter die 600-Euro-Marke

ThePlayer schrieb:
Und ich meine ja auch das wir nächstes Jahr ein ähnliches Video sehen 4070tivs7900xt wo die 12GB VRAM der 4070/ti einfach zu wenig sein werden um in wqhd zu zocken.

Vielleicht sehen wir auch ein Video wo die 16GB VRAM ebenfalls zu wenig sein werden um in WQHD zu zocken. Und dann?
 
  • Gefällt mir
Reaktionen: Klever und Gortha
steve127 schrieb:
Sehr cool eine 4060 (sic!) Für 600 Euro. Danke NVIDIA.
Oh Gott schon wieder dieser Quark. Zeig mir die gesetzlichen Regelungen die festlegen wann eine Nvidia GPU ein 60er Modell ist. Gibt es nicht, tja dann ist die 4070 auch ne 4070 wenn Nvidia das so sagt. Die dürfen ihre Karten nennen wie sie wollen. Und es gibt auch keinerlei feste Regelungen oder auch nur Regelmäßigkeiten in den Generationen die eindeutig zeigen wie eine 50er, 60er, 70er oder 80er Karte auszusehen hat. Nvidia hat das immer munter durchgewechselt, da gibt es keine Regelmäßigkeit.

Und wenn es wirklich eine 4060 wäre, dann würde es AMD aber so richtig schlecht dastehen lassen. Dann ist die mickrige 4060 ja schon fast so schnell wie AMDs Top Karten. Da hat AMD dann aber so richtig Müll rausgehauen diese Generation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Ich habe 2020 für meine Asus TUF 3080 854€ bezahlt. Ich bin tatsächlich erstaunt, wie gut sich diese Karte gehalten hat, auch preislich.
 
DocWindows schrieb:
wo die 16GB VRAM ebenfalls zu wenig sein werden
Du meinst die 16 GB AMD VRam^^ :D

Sorry, nicht das einer denkt, ich sei ein AMD Gegner. Bin absolut pro AMD aber NVIdia hat nunmal die etwas bessere Technik.
 
Schade, was in CB Foren mittlerweile los ist. Ich kann natürlich verstehen, dass viele diese Preise nicht mitmachen wollen. Aber es wirkt halt sehr oft so, wie Kinder, deren man das Spielzeug weggenommen hat. Gleichzeitig wird sich darüber aufgeregt, dass die 4070 nur 12GB VRAM hat, im selben Atemzug, hat man aber nur eine 8GB Karte von 2015 oder 2016 im PC.

Beweise, sehe ich übrigens auch nicht, dass 12GB VRAM jetzt schon, oder in 1-2 Jahre nicht ausreichen sollte. Aber der "Mob" regt natürlich gerne über Sachen auf, die er sich eh nicht leisten will oder kann. ^^
 
  • Gefällt mir
Reaktionen: ErbarmeHesse, trailrider, Pro_Bro und 6 andere
@Gortha Weiß nicht wie groß der Einfluss der Texturkompression sein wird. Derzeit ist es in Ausnahmefällen wohl 1GB bis 1.5GB mehr bei AMD. Kann nicht abschätzen ob sich das in Zukunft erhöht, oder ob evtl. eine neue Kompressionstechnik kommt. Ich lass das mal außen vor.

Ich meine nur, dass niemand so genau weiß wie der nächste Sprung in der Speichernutzung aussehen wird.
Wenn heute Max. Texturen in einem Spiel so 8 bis 12 GB VRAM verlangen, kann es durchaus sein dass beim nächsten Sprung nach oben auch 16GB nicht mehr reichen. Vielleicht braucht man dann schon 20GB um alles auf Max stellen zu können.
 
  • Gefällt mir
Reaktionen: Gortha
Gortha schrieb:
zuerst kommt das Low-End, mit absolut ungenügenden Leistungen und 8 GB AMD-VRam^^
Was die dinger irgendwann Mal vielleicht leisten oder auch nicht ist absolut Banane. Die Frage ist was das am Ende kostet.

Die 4070 ist keine schlechte Karte da sind sich alle einig sie ist nur zu teuer.
 
  • Gefällt mir
Reaktionen: DerFahnder und Tritom73
Naja also mir wäre es nicht egal. Wenn ein Produkt schon bei Erscheinen quasi EOL ist dann kaufe ich das einfach gar nicht, na gut evtl für 5-10€. Aber alles darüber ist dann doch nur rausgeworfenes Geld. Und ob ich jetzt 300 oder 500€ zum Fenster raus werfe macht die Sache nicht wirklich besser.
Wenn man also konsequent ist dann kauft man einfach nichts mehr unter 12 oder 16 GB Speicher. Und alles darunter ist dann quasi nutzlos.
 
Eorzorian schrieb:
Ich will jetzt nicht Feuer ins Öl schmeißen, aber die Lederjacke macht immer noch "bestimmt" guten Gewinn.
Ja, Nvidia hat eine Bruttomarge von 43,7 Prozent. Letztes Jahr waren es um die 65%
Der Gewinn pro Grafikkarte ist schon gewaltig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever, Eorzorian und steve127
Eorzorian schrieb:
Wirf mal einen Blick darauf und sag mal wie die Käufer sich fühlen sollen:
Ah, der Typ bei dessen AMD-Reviews immer teils deutlich bessere Zahlen rauskommen als bei anderen Reviewern.
Ein inkompetenter Betrüger...
 
  • Gefällt mir
Reaktionen: Gortha
jak80 schrieb:
Darüber hinaus kostet Sie bei ca. 80% Performance und 70 % Stromverbrauchs einer 4090 auch deutlich weniger.
Naja. Es sind eher 75 % Performance und den Stromverbrauch kannst du bei der 4090 auf das gleiche oder ein besseres Niveau drücken. Preis/Leistung der 4090 ist ebenfalls kaum schlechter.

Samuelz schrieb:
Beweise, sehe ich übrigens auch nicht, dass 12GB VRAM jetzt schon, oder in 1-2 Jahre nicht ausreichen sollte. Aber der "Mob" regt natürlich gerne über Sachen auf, die er sich eh nicht leisten will oder kann. ^^
Über die 10 GB der 3080 wurde auch reichlich gejammert und was war die zwei Jahre bis zu den 40x0er Karten? Nicht mal eine Hand voll kaum nennenswerter Spiele wo die 10 GB in 4K nicht gereicht haben, teilweise musste man noch extra High-Res Texture Packs installieren um ins Limit zu laufen. Da hatten dann die 3090 Käufer ein paar wenige Möglichkeiten, stammtischmäßig loszupoltern wie zukunftssicher ihre Karten zum mehr als dopplelten Preis doch sind. Zwei Jahre später kann die Gurke nicht mal einer 4070 Ti das Wasser reichen und neue Features wie DLSS 3.0 sucht man vergeblich.
 
  • Gefällt mir
Reaktionen: Gortha und trailrider
Gortha schrieb:
???:mussweg:

... 12 GB VRam (NVidia VRAM 12GB nach PCGH Rechnung 13-14GB AMD Vram) werden bei WQHD ewig reichen.
Das emoji zu benutzen aus Ignorant ist ziemlich peinlich, ich rede nicht von Theorie oder Spekulation oder irgendwas sondern von Dingen die Spiele machen wenn der VRAM Knapp wird laden die Spiele schlechtere Texturen nach das machen verschiedene Spiele aber hier eines als Beispiel:

So hat die GeForce RTX 4070 Ti zum Beispiel in Ultra HD und DLSS Quality bei ansonsten voller Grafikqualität zwar keine Performance-Probleme, aber bei manchen Objekten werden die Texturen nicht geladen, andere verschwinden kurzfristig völlig, da die Engine vermutlich versucht, die Situation irgendwie noch zu retten.
https://www.computerbase.de/2023-02...itt_erst_ab_16_gb_ist_man_wirklich_sorgenfrei

Gut in dem Beispiel ists sogar noch schlimmer da werden Texturen teils gar nicht geladen, aber in anderen Spielen werden "Fake" Texturen (oder halt schlechtere) geladen und die normalen dadurch ersetzt.

Gut sprachst von WQHD aber auch das ist nicht richtig:
vram-2023-wqhd_6227543.jpg

https://www.gamestar.de/artikel/hat-eure-grafikkarte-genug-vram-benchmarks,3392742.html
Und da fehlen einige andere Titel wo das auch der Fall ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MiroPoch und steve127
@blackiwid er sprach explizit von WQHD und du zitierst eine Aussage über UHD...

blackiwid schrieb:
Gut sprachst von WQHD aber auch das ist nicht richtig:
Klar stimmt seine Aussage, siehst du auf deinem Bild doch selbst: Durchschnitt liegt bei gerade mal 9 GB. Nur weil ein Spiel gerne mehr VRAM belegt, heißt das nicht automatisch dass es mit weniger VRAM sichtbar schlechter läuft, das hat man hier bei CB auch schon in diversen Tests festgestellt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha und Pro_Bro
Connecto schrieb:
Mit der Performance der Karten spielst du in erster Linie kaum auf UHD Nativ, weil du immer DLSS oder mit Abstrichen FSR zuschaltest.
Das aendert nichts daran das du bei Nvidia dann eben auf Medium schalten musst oder Raytracing aus machen und bei AMD das an lassen kannst wenn der Nvidia der Vram aus geht.
Ergänzung ()

Capthowdy schrieb:
Klar stimmt seine Aussage, siehst du auf deinem Bild doch selbst: Durchschnitt liegt bei gerade mal 9 GB. Nur weil ein Spiel gerne mehr VRAM belegt, heißt das nicht automatisch dass mit weniger sichtbar schlechter läuft, das hat man hier bei CB auch schon in diversen Tests festgestellt.
Fuer was machen die dann Vram messungen wenn das eh komplett egal ist laut dir? Und wieso versuchst mit dem Durchschnitt ab zu lenken, wenn jedes Spiel das 13gb reserviert doch eh perfekt auf ner 12gb Karte läuft?

Auch das Ausklammern von UHD finde ich spannend als ob 100% der 4070 in den naechsten Jahren nur 1440p Monitore besitzen werden. 99% der Konsolenspieler haben 4k Monitore aber die PC Spieler spielen lieber mit 480p? Na wenn das der Anspruch an ne 600 Euro Grafikkarte ist...
 
Zuletzt bearbeitet:
blackiwid schrieb:
Fuer was machen die dann Vram messungen wenn das eh komplett egal ist laut dir? Und wieso versuchst mit dem Durchschnitt ab zu lenken, wenn jedes Spiel das 13gb reserviert doch eh perfekt auf ner 12gb Karte läuft?
Vielleicht lenkst du nicht ab und zeigst die Tests her die der 4070 Ti in Hogwarts Legacy attestieren, zu wenig VRAM für WQHD zu haben? Nicht anhand von Messungen, sondern anhand von spürbaren Fakten: schlechte Frametimes, aufpoppende Texturen etc., dann unterhalten wir uns weiter.

blackiwid schrieb:
Und wieso versuchst mit dem Durchschnitt ab zu lenken, wenn jedes Spiel das 13gb reserviert doch eh perfekt auf ner 12gb Karte läuft?
Von den 11 Spielen aus deinem Screenshot sind es genau zwei die mehr als 12 GB belegen, eines nur 200 MB mehr, also wer lenkt jetzt ab mit seinem "wenn jedes Spiel 13 GB reserviert"? Das andere ist Call of Duty MW II, wo selbst der Hersteller nur 10 GB für UHD empfiehlt: https://support.activision.com/de/m.../pc-system-requirements-for-modern-warfare-ii
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Wenn man mal ein paar Basisdaten vergleicht, dann könnte man auf die Idee kommen, dass der Vorgänger der 4070 nicht die 3070 ist, sondern die 3060. Und die kostete zum Launch 329 Euro. Die 4070 nun 659 Euro UVP.

Diese hier als 4060 für 400 bis 450 Euro und alle wären begeistert gewesen trotz Preiserhöhung. Aber für 659 Euro? Ne, nicht wirklich. ;)
 
Jetzt nochmal halbieren und die Preise haben sich wieder normalisiert. :)
Eine 9600GT bot für 140€ ~75% der 8800 Ultra, damals die absolut schnellste Karte am Markt. Die 4070 bietet heute für 600€ ~55% der 4090, heute die schnellste Karte am Markt. Und die wundern sich, warum niemand die Teile kaufen will. Das ist quasi ne 4050ti zum Preis einer 4080, zumindest für alle, die schon länger als 6 oder 7 Jahre spielen. Nee, muss nicht sein.

Aber bezeichnend, dass nVidia anscheinend schon die Produktion zurückfährt und TROTZDEM die Preise fallen. Mit den 4000ern haben sie sich ganz schön in die Nesseln gesetzt. Naja, hab absolut kein Mitleid. Wenn sie immer noch nicht einsehen, dass sie sich damit am Ende nur ins eigene Fleisch schneiden...
 
Zurück
Oben