News Zwei Wochen nach Marktstart: Nvidias GeForce RTX 4070 fällt unter die 600-Euro-Marke

Fallout667 schrieb:
Wie Realitätsfremd kann man bitte sein. Am besten bezahlt dich Nvidia noch wenn du die Karte nimmst, so als Schmerzensgeld.
Was kostet der Chip? 70$? Und du zahlst mit Speicher und PCB dann 600... Sag mir, dass das ein vernünftiger Preis ist...
 
  • Gefällt mir
Reaktionen: Legalev und FGA
Die
McLovin14 schrieb:
Was kostet der Chip? 70$? Und du zahlst mit Speicher und PCB dann 600... Sag mir, dass das ein vernünftiger Preis ist...
Keine Ahnung was der Chip kostet. Aber 500€ wären dann für eine 70er Karte dann doch realistisch.
400€ evtl nach einem Jahr aber nicht zu Release.
300€ das sind Preise der 60er Karten. Das ist wirklich unrealistisch zu Release. Wann hat eine 70er Karte denn mal 300€ gekostet. Das ist garantiert schon ne ganze Weile her. Damals hat die GTX 285 als größte Single GPU 369€ gekostet, die Zeiten waren aber dann auch ganz schnell vorbei.

Das das gesamte Line Up bei Nvidia und AMD zu teuer ist ist jetzt aber auch nichts neues. Da sind sich hier doch alle einig.
 
Also bei mir sieht es mit dem VRAM "ok" aus. Vlt. hilft es jemanden, der plant eine 12GB Karte zu kaufen.

Win 10 x64
RTX 3080 Ti Manuelles OC +90 Core/+500 VRAM
R7-5700X -30 CO
32GB DDR4 3800Mhz CL16 + Subtimings getunt
4K 32" TFT mit 144HZ und VRR (Acer Predator XB323QK)

TLOU P1:

4K, DLSS P, Ultra, Ultra Texturen + Reshade CAS für Nachschärfen
9,6 Belegung, 9,2 VRAM tatsächlich belegt.

tlou-i_2023_04_25_19_25_12_991.jpg


Miles Morales :
4K, DLSS Q, Ultra, Ultra RT Spiegelungen, Reichweite 7 + Reshade CAS für Nachschärfen
10,5 Belegung, 10,1 GB tatsächlich belegt.

MilesMorales_2023_04_25_19_35_33_326.jpg


Doom Eternal:
4K, DLSS P, Ultra Settings, RT Spiegelungen ON, + Reshade CAS fürs Nachschärfen
8 GB Belegung, 7,5 GB tatsächlich belegt.

DOOMEternalx64vk_2023_04_25_19_41_27_900.jpg


Dead Space 2023 (Remake)
4K, DLSS B, RTAO ON, + Reshade CAS fürs Nachschärfen
8,1GB Belegung, 7,3 tatsächlich belegt.

Dead Space_2023_04_25_19_38_18_109.jpg
 
  • Gefällt mir
Reaktionen: coral81, Klever, Gortha und 7 andere
Foxman schrieb:
Damals galten übrigens bei Shootern 25FPS als flüssig….
Achja das waren noch Zeiten :D

Btw: Hallo ThePlayer:cheerlead:
Ja Moin!
Ja die Jugend von heute ohne 144fps gleich Augenkrebs! :D
Na gut 60 sollten es schon sein ab 40 wird's aber definitiv zu wenig.

Na ich ich überlege ob ich jetzt oder in Herbst meine 6800xt durch die 7900xt ersetze.
 
Wird noch weiter runtergehen.
Aber ebenso die RX 6000er, solange diese noch auf Lager sind.
 
Katzenjoghurt schrieb:
Benutze meinen PC grad nur noch zum arbeiten - trotz 12900K. Eine dazu passende 3090 für 2700€ hab ich einfach wieder zurückgeschickt, als der Verstand einsetzte.
Gezockt wird fast nur noch auf der PS5.
Für Indies tut’s auch meine olle 1070.

Nvidia kann mich grad mal.
Dito .... jetzt dank Asrock diskmini und 5700 g , dann brauche kein zocken mehr auf dem Rechner .. so wie die preise die letzten 3 Jahre entwickelt haben ... dann ohne mich halt ...
 
  • Gefällt mir
Reaktionen: Katzenjoghurt
Gortha schrieb:
War ja klar. Aber würde ich vielleicht auch schreiben wenn ich eine 4070 hätte.
Ich glaube das man ab diesem spätestens nächsten Jahr ständig mit 32gb RAM und 16 oder besser 20gb VRAM konfrontiert wird sobald man in wqhd oder 4k zocken will. Das zeichnet sich ja jetzt schon ab.
 
  • Gefällt mir
Reaktionen: blackiwid
olEn schrieb:
Ich finde ja spannend, dass doch 7.6% bei 2000+ Stimmen eine 4090 gekauft haben. Die Gruppe derjenigen, die sich das leisten können/wollen scheint nicht so klein zu sein

edit: ...wie von mir zuerst angenommen
das kann ich auch kaum kapieren , aber jeder seiner Hobbys ... ich könnte es mir auch holen , aber wofür ... PS5 reicht mittlerweile aus ....
 
DocWindows schrieb:
Vielleicht sehen wir auch ein Video wo die 16GB VRAM ebenfalls zu wenig sein werden um in WQHD zu zocken. Und dann?
Naja dann habe ich eine 6800xt drei Jahre benutzt. Während bei der 3070 schon nach zwei Jahren Schluss ist.
 
  • Gefällt mir
Reaktionen: Windell
Fallout667 schrieb:
Nein das stimmt nicht, die 1060 bot 48% der 1080ti und darüber gab es noch die Titan, da waren dann 43%. Schau dir die Tests an, keine Ahnung wie du hier auf 60% kommst. Die 60% einer 1080ti war eben die 1070.


Titan ist natürlich keine Konkurrenz, hatte aber nicht mehr im Kopf dass die ti vor der 1060 released wurde. Dachte die wurde nachgeschoben. Dann stimmt meine Rechnung tatsächlich nicht.

Der Punkt mit den vorherigen Generationen bleibt aber. Früher gabs Grafikkarten für 150€ mit denen man alles mit maximalen Details sehr gut spielen konnte, heute muss man bei 600€ schon gucken, ob z.B. der VRAM bei seinem Lieblingsspiel nicht schon jetzt limitiert, und man braucht Spielereien wie DLSS/FSR.
Die genannte 9600GT würde inflationsbereinigt heute keine 190€ kosten und der Punkt, dass sie schneller war, bleibt.
Und dem Kunden ist es völlig egal, was die Wafer kosten, oder ob der Lederjackenverschleiss bei nVidia sich vervielfacht hat. Er sieht, wie sich die Preise quasi vervierfacht haben, während der Nettolohn im selben Zeitraum um gerade mal 50% gestiegen ist, die Reallöhne sogar noch um einiges weniger, während diese sogar seit Jahren wieder sinken. Dann muss nVidia halt andere Wege finden die Preise zu senken.

Insgesamt sind 600€ nach wie vor Wucher, und der Misserfolg beim Verkauf bestätigt das doch. NVidia scheint die Produktion zu drosseln und TROTZDEM fallen die Preise. Wenn zeitgleich mit dem Angebot die Preise fallen scheint die Nachfrage ja nicht besonders hoch und die Preise so nicht marktgerecht zu sein...
 
ThePlayer schrieb:
Ja die Jugend von heute ohne 144fps gleich Augenkrebs! :D
Pong in den 70ern hat mich auch geflasht, aber heute nicht mehr so.
Aber Opa erzählt vom Krieg ist wenig hilfreich. /Spaß :king:
 
  • Gefällt mir
Reaktionen: ThePlayer, Volvo480 und public_agent
olEn schrieb:
Ich finde ja spannend, dass doch 7.6% bei 2000+ Stimmen eine 4090 gekauft haben. Die Gruppe derjenigen, die sich das leisten können/wollen scheint nicht so klein zu sein

edit: ...wie von mir zuerst angenommen
Ich kann das nicht oft genug sagen: lass dich davon nicht täuschen! Du bewegst dich hier in einer Blase die fast nur aus Hardwareinteressierten und Enthusiasten besteht! Du wirst in BMW Foren auch viele Leute finden die dicke Motoren und Ausstattungen fahren, das sagt aber wenig über den durchschnittlichen BMW aus.
 
  • Gefällt mir
Reaktionen: olEn, No Escape und public_agent
Capthowdy schrieb:
Da wären wir wieder beim Durchschnitt von 9 GB.
Ja im Schnitt, wenn du alle Spiele von Steam testest kommst sicher im Schnitt noch mit 3GB klar... wen interessiert der Schnitt, ich will doch mit so ner Karte alle Spiele auch das populärste im Moment Hogwards Spielen, und da ist es eben deutlich mehr als 9 GB, da reicht es gerade noch so. (in UHD reichts gar nimmer mit vollen Details).

Fuer den Kunden ist es doch scheiß egal ob die Spiele nicht funzen wegen schlechter Programmierung oder wegen zu viel Grafik aufm Bildschirm, fakt ist das er das spiel das er spielen will nimmer ordentlich spielen kann.

Außerdem halte ich das auch für ne unbelegte These, wenn man eben ein Konsolenspiel mit 12gb VRAM z.B. nimmt und dann für den PC aber schöneres Raytracing zaubert, und dann das Spiel mehr als 12gb verbraucht, wieso ist das dann schlechte Entwicklung? (reden jetzt von UHD nur um nicht wieder das Thema 1440p auf zu machen).

Es ist doch selbstverständlich das ich mit ner 600 Euro Grafikkarte und einem PC der insgesamt vielleicht 1000-1500 Euro gekostet hat 2,5 Jahre nach dessen Release (PS5) bessere Grafik aufm PC will und bessere Grafik wird halt mehr VRAM brauchen als schlechtere Grafik, schlecht oder gut programmiert hin oder her.

Aber selbst wenn es schlechte Portierungen wären, dann muss der PC Markt eben genauso viel oder mehr Geld den Spielestudios in die Kassen spielen wie der Konsolenmarkt, wieso sollten sie sonst genauso viel Arbeit in den PC Port legen wie in den Konsolenport?
 
Zuletzt bearbeitet:
blackiwid schrieb:
Fuer den Kunden ist es doch scheiß egal ob die Spiele nicht funzen wegen schlechter Programmierung oder wegen zu viel Grafik aufm Bildschirm, fakt ist das er das spiel das er spielen will nimmer ordentlich spielen kann.
Nein, das ist eben nicht scheißegal. Was wenn das Schule macht und bald alle Spiele 24 GB brauchen, kaufst du dann eine 7900XTX/4090 und alle anderen Karten sind VRAM-Krüppel?
 
Naja meine Logik wäre dann eben ne PS5 zu kaufen für AAA Singleplayer braucht man ja eh keine Tastatur, Modding ist auch mittlerweile für den Arsch wenn Skyrim fast 10 Jahre aufm Buckel hat, also welche Gründe außer Raubkopieren bleiben dann noch für PC für AAA Titel spielen?

Wie gesagt du bleibst den Beweis schuldig ich habe rationale Gruende aufgefuehrt warum PC Titel mehr Vram brauchen könnten als Konsolentitel, ist btw auch nichts neues. Die Playstation 4 erlaubte den Spielen 5,5GB insgesamt zu verwenden nicht nur fuer VRAM sondern insgesamt wenn wir da mal 1,5gb ab ziehen fuer die CPU bleiben 4gb. Das war ende 2014, 2 Jahre später wie wir heute haben zum Release der PS5, die GTX 1070 kam Mitte 2016 ungefähr selbe zeitliche Abstand raus mit 8gb VRAM.

Also Nvidia bleibt hinter ihren alten eigenen Ansprüchen zurück, genauso wie AMD mit ihrer RX 480. Damals war normal das Grafikkarten so viel VRAM haben wie die Konsolen Unified haben, wieso sollten die heute die Spiele besser Programmieren wie damals?
 
Zuletzt bearbeitet:
crogge schrieb:
499 Euro wäre ein fairer Preis, in den Staaten geht aktuell alles Richtung 499$.
Darf man fragen wo es in den USA die Graka zu diesem Preis zu kaufen gibt?
 
Fallout667 schrieb:
300€ das sind Preise der 60er Karten.
Darum geht es doch aber. Nur weil 4070 drauf steht, ist nicht 70er drin. Der Chip ist winzig im Vergleich zur 70er der Vorgängergeneration. Die 3070 war der Vollausbau des GA104 mit ca. 400 mm² für 499$. Jetzt kommt ein beschnittener 300 mm² großer Chip für 100$ mehr. Der Chip der RTX4070 ist etwas größer (10 %) als der GA106, der in der RTX3060 verbaut ist und in beschnittener Form als RTX3050 für 249$ verkauft wurde.
 
3070 war ja noch 8nm
4070 ist sogar wohl nur 4nm

Klar ist der Chip kleiner von der Fläche

War auch so als man von Röhren auf Transistor umgestiegen ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
Zurück
Oben