News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

Mironicus1337 schrieb:
Welche denn zum Beispiel?
Hogwarts und The last of us zB - Da reichen die 12GB Vram nicht oder man muss Abstriche eingehen.
Das wurde hier in den Tests ausgetestet.

Ansonsten spiele ich NFS Unbound in 4k Ultra mit DLSS Quality mit meiner 4080.. da werden auch 14GB belegt - wie viel genau davon gebraucht werden, kA.

Schade ist es, weil die 4070ti inkl. FG nahezu jedes Game maxed out mit RT in 4k / DLSS Qual mit 60+fps spielen könnte
 
Rockstar85 schrieb:
Das müsste aber auch bedeuten, dass AMD die GPU verschleudern müsste...
Sie müssten sie verschleudern, wenn sie die effizient takten. Da sie dann nur auf 4060Ti Niveau liegt oder so.
Mit ordentlich Takt wird das Teil vielleicht halbwegs an eine 4070Ti rankommen.

Wobei, bei den momentanen Preisen kann man selbst 4060Ti Preise (500€?) nicht gerade verschleudern nennen. :lol:
 
Bei NV sollte man keine Karte unter einer 4080 kaufen. 4070 und 4070 ti sind schon ok aber der Preis nicht wie bei AMD auch, gut aber zu teuer. Das ist alles Mittelklasse. Wenn man schon "abgezockt" wird und eine dicke Karte wirklich braucht und will, dann meine ich gleich richtig. Für Kompromisse sollte niemand 1k zahlen. Da muss bei einer Gamerkarte so ziemlich Alles stimmen. Meine Meinung.

Hab zwar auch für eine 4090 ordentlich hingelegt aber auch nur weil ich meine 308012GB gut verkauft habe und in der Coronazeit ebenfalls profitieren konnte an den Minern und ein anderes Upgrade keinen Sinn ergeben hätte. So eine Karte verkauft mir NV aber auch nur einmal zu diesem Preis, ;) soviel steht fest. Wenigstens wird sie mir lange dienen solang sie nicht abraucht.
 
Caramelito schrieb:
Hogwarts und The last of us zB - Da reichen die 12GB Vram nicht oder man muss Abstriche eingehen.
In Hogwarts Legacy reichen nach dem Fix 10GB aus.
The Last of Us hat auch mit diesen Problemen zu kämpfen, wobei das ein AMD Sponsored Game ist und man offenbar ganz gezielt den V-ram Bedarf hat explodieren lassen (Die Konsolen Version gönnt sich nur 8 GB), aber das ist wirklich das einzige aktuelle Beispiel.
Bis zu einer neuen Konsolengeneration wird sich da nicht mehr viel tun.
Ergänzung ()

bensen schrieb:
Wobei, bei den momentanen Preisen kann man selbst 4060Ti Preise (500€?) nicht gerade verschleudern nennen. :lol:
DIe 4060Ti 8GB soll angeblich nur 399 Dollar kosten.
 
  • Gefällt mir
Reaktionen: Klever
Mironicus1337 schrieb:
In Hogwarts Legacy reichen nach dem Fix 10GB aus.
The Last of Us hat auch mit diesen Problemen zu kämpfen, wobei das ein AMD Sponsored Game ist und man offenbar ganz gezielt den V-ram Bedarf hat explodieren lassen, aber das ist wirklich das einzige aktuelle Beispiel.
Bis zu einer neuen Konsolengeneration wird sich da nicht mehr viel tun.
Jap - Wenn jeder lupenrein entwickeln würde, wäre das alles kein Problem.

Aber ich würde keine 850-900eur Karte kaufen, die extrem am Limit läuft und Top Games Patches benötigen um in voller Pracht laufen zu können. Da passt das P/L nicht mMn.

Und das es AMD Titel geben wird, die einfach absichtlich VRAM schlucken weiß man leider auch. Far Cry 6 - RTX3080 "Killer", sah aber aus wie ein 2GB Vram Spiel :D
 
Caramelito schrieb:
Jap - Wenn jeder lupenrein entwickeln würde, wäre das alles kein Problem.
Reduziert man die Texturqualität übrigens auf High statt Ultra reichen 8 und 10GB spielend aus.
Ist jetzt glaube ich ein äußerst geringes Problem, mal davon abgesehen, dass kein Schwein in 4K zockt und man sowieso DLSS oder FSR zuschaltet. Die 3080 10GB liefert 10% mehr FPS als die 6800XT.

Screenshot 2023-04-03 164931.png


Caramelito schrieb:
Aber ich würde keine 850-900eur Karte kaufen, die extrem am Limit läuft und Top Games Patches benötigen um in voller Pracht laufen zu können. Da passt das P/L nicht mMn.
Wenn das der Fall wäre, würde ich sie auch nicht kaufen.
Aber das Gepoltere mit dem V-ram ist schon reichlich Kindergarten, 12GB haben bisher immer für maximale Settings ausgereicht.
Selbst 8GB und WQHD Texturen High reichen.
 
  • Gefällt mir
Reaktionen: Klever, Wan900 und ThirdLife
@Mironicus1337
Sag ich ja 500€. :evillol: Wenn man mal die anderen Karten als Referenz nimmt. MSRP in $ und Marktpreis.
Ja etwas übertrieben. Aber selbst 450€ sind jetzt nicht gerade ein Schnapper.
 
bensen schrieb:
Sag ich ja 500€. :evillol: Wenn man mal die anderen Karten als Referenz nimmt. MSRP in $ und Marktpreis.
Ja etwas übertrieben. Aber selbst 450€ sind jetzt nicht gerade ein Schnapper.
Ich würde grundsätzlich mal Wechselkurs und Inflation mit reinrechnen, ansonsten ist das kein fairer Vergleich.
Angesichts der gestiegenen Fertigungskosten gegenüber Samsung 8nm (eigentlich 10nm) ist das eigentlich überhaupt nicht teuer. Ich war gerade bei Aldi einkaufen und vermeide es ehrlichgesagt auf die Rechnung zu schauen. So ein Einkauf kostete mich vor 2 Jahren in etwa nur die Hälfte.

Caramelito schrieb:
Und das es AMD Titel geben wird, die einfach absichtlich VRAM schlucken weiß man leider auch. Far Cry 6 - RTX3080 "Killer", sah aber aus wie ein 2GB Vram Spiel :D
Ja, die Texturen waren nicht besser als bei The Witcher 3, was man mit 2GB V-ram okaisch spielen konnte.
 
Mironicus1337 schrieb:
Reduziert man die Texturqualität übrigens auf High statt Ultra reichen 8 und 10GB spielend aus.
Ja, aber das zieht sich doch wie Kaugummi seit Generationen durch NVs Portfolio.
Wenn man nicht gerade 1300-2000€ für die High End GPU hat, muss man bei NV immer in den unteren Preisklassen schon direkt ans Texturdetail Reduzierung denken.
Man gibt doch net so viel Geld aus, damit man dann bei sowas schon direkt damit konfrontiert wird?!
Kapier ich net. Sowas muss man kritisieren.
AMD schafft es ja auch sinnvolle VRAM Bestückungen hinzubekommen.
Und Texturedetails kosten nicht mal Rechenleistung...
 
  • Gefällt mir
Reaktionen: Blood011, MiroPoch und Verak Drezzt
Tornavida schrieb:
Bei NV sollte man keine Karte unter einer 4080 kaufen. 4070 und 4070 ti sind schon ok aber der Preis nicht wie bei AMD auch, gut aber zu teuer. Das ist alles Mittelklasse.

Da fällst du wie so viele auf das Marketing-Gewäsch rein. Steam-Median liegt aktuell bei der 3060, also auf 1080 / 2070/ 6600 XT Niveau. Mit einem 1440p Monitor gehörst du schon zu den oberen 20%. Eine 4070 ti ist absolut gesehen schon High-End.

Ansonsten ja, zu teuer ;)
 
  • Gefällt mir
Reaktionen: Fenkel und ThirdLife
danyundsahne schrieb:
AMD schafft es ja auch sinnvolle VRAM Bestückungen hinzubekommen.
Und Texturedetails kosten nicht mal Rechenleistung...
wie gesagt da steckt von Nvidia entsprechendes Kalkül dahinter und kann es sich auch mit seinen fast 90% Marktanteil erlauben, da die Leutz ja sowieso kaufen

wenn AMD nen Marktanteil von 50% hätte, wir sicher schon letzte Ampere Generation 12 und 16GB Karten im unteren wie oberen high-end Segment gesehen, so aber bringt Nvidia eine 4070Ti mit nur 12GB, sodass Leutz die mit 4K unterwegs sind, sicher dann doch zur 400€ teureren 4080 greifen oder wenn doch zur 4070Ti, diese dann nächste Generation zur 5070(Ti) mit 16GB

und sah im Grunde bei Ampere nicht anders aus, würde mich als 3080(10GB) Besitzer übrigens hart verarscht vorkommen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: k0n und danyundsahne
Wird sie von der Leistung dann ungefähr auf 3080Ti Niveau liegen? Wäre zu einem Preis von voraussichtlich 700€ ja fast schon gut :D
 
Das wäre tatsächlich toll, wenn die 4070 diese Preisempfehlung bekommt, und der Europreis auch erträglich wäre.

Wenn dann auch noch die 186 Watt stimmen, könnte ich vielleicht schwach werden. Dann bräuchte ich mein Netzteil nicht auszutauschen, möglicherweise hätte ich das auch so nicht gemusst, aber wer weiß, ich hatte es schon eingeplant.
 
danyundsahne schrieb:
Wenn man nicht gerade 1300-2000€ für die High End GPU hat, muss man bei NV immer in den unteren Preisklassen schon direkt ans Texturdetail Reduzierung denken.
Also mit der 3080 10Gb war man bis jetzt eigentlich relativ verschont.
Sicher ist mehr V-ram im besser, aber da hat Nvidia die letzten Jahre den Rotstift angesetzt, weil AMD in einigen Disziplinen so schwach war, da konnte sich Nvidia das leisten weniger V-ram zu verbauen.

danyundsahne schrieb:
Kapier ich net. Sowas muss man kritisieren.
Kann man kritisieren, aber ich halte es doch für ziemlich übertrieben, zumindest bei den 12GB Karten.
Die 4060Ti mit 8GB ist natürlich mehr oder weniger dead on arrival. RT oder FG nutzen? Schwierig.

danyundsahne schrieb:
Und Texturedetails kosten nicht mal Rechenleistung...
Sind aber Teil guter Upselling Strategie. Siehe 3070(Ti), FuryX oder HD 4870 512MB oder HD5870 1GB.
Da war nach 2 Jahren schon der Ofen ziemlich aus, Nvidia verbaute damals 896MB 260GTX, bzw 1536MB auf der GTX 480. Das wir momentan haben sind Luxusprobleme.

Bis heute sind 8GB relativ ausreichend, meistens auch maxed out für Full HD oder WQHD.
 
  • Gefällt mir
Reaktionen: Fenkel und danyundsahne
Mironicus1337 schrieb:
Ich würde grundsätzlich mal Wechselkurs und Inflation mit reinrechnen, ansonsten ist das kein fairer Vergleich.
Inwiefern ist die Inflation oder der Wechselkurs unterschiedlich für beide Grafikkarten?
Mironicus1337 schrieb:
Angesichts der gestiegenen Fertigungskosten gegenüber Samsung 8nm (eigentlich 10nm) ist das eigentlich überhaupt nicht teuer.
Das ist ja quatsch. Dadurch sind die Chips eben auch kleiner. Natürlich sind Preise gestiegen. Aber Ampere war schon abgehoben und jetzt wurde noch einer drauf gesetzt. Chipmangel gibt's auch nicht mehr, worauf man sich berufen könnte.
Der Gewinn und die Marge Nvidias zeigt ganz gut ob das erhöhte Herstellungskosten sind oder eine erhöhte Marge.
Die ganze Branche hat sich zu COVID Zeiten die Taschen vollgestopft und setzt dort weiter fort.
 
  • Gefällt mir
Reaktionen: Fenkel
Caramelito schrieb:
Ich befürchte aber 650-700eur Straßenpreis bei uns. Da gibts fast eine 7900XT (750eur bestes Angebot bisher?).
Das ist keine Befürchtung, das wird genau so kommen. Und eine 7900 XT finde ich aktuell nicht für 750€. Auch nicht bei Mindstar, die evtl. mal fünf Stück kurzzeitig für den Preis verhökert haben. Die aktuell günstigste dort ist bei 838€.

washieiko schrieb:
12GB Ram, da fällt mir nix mehr zu ein... ich glaub hab sogar meine 1080ti mit 11GB grad lachen hören aus dem Tower :o
Und wie gut schlägt die sich so wenn du CP2077 in UHD und RT zocken willst ? :D

Hauwexis schrieb:
Das ist eine lächerliche Mittelklassekarte. Ich würde dafür maximal 300€ bezahlen. Keinen Cent mehr.
Die ticken langsam nicht mehr richtig.
Klar, bei 16 % Nettomarge wird NV dir die Karte sicher zum halben Preis verhökern und dabei 34% drauflegen. Damit DU es korrekt eingepreist findest auf Stand 2010 weil du mit deinem AG offenbar noch nie über einen Inflationsausgleich geredet hast.:daumen:

Crifty schrieb:
wird schwierig in zeiten hoher Inflation wenn der Vorgänger schon bei 599€ lag
Nix da, für 3,99€ muss die nächste 5090 kommen gefälligst. Das ist man sich wert im Ländle!🤣
Ich glaub hier gibts einfach viele die in einer alternativen Realität leben und denken wenn sie schmollen wird sichs bestimmt ändern.

Rockstar85 schrieb:
Ehrlich? Ja, denn ich möchte nicht, dass NV diese Mondpreise installiert... Eine 4070, die von den SM eher eine 4060Ti ist, ist schon traurig. Meine 3060Ti hier lachst sich tot, aber man muss klar sagen, dass sie bei RTX nicht mehr Lacht...
Also ja, die Hoffnung stirbt zuletzt.. Und 150W ist realitisch. Ich meinte aber ne 6800XT... sorry
Die Preisfrage ist schon durch. Preise sind auch nicht allein das Problem sondern eure Arbeitgeber die euch offenbar keinen Ausgleich zahlen. Wenn ich nicht alle zwei bis drei Jahre einen Lohnzuschlag erhalte wechsel ich die Firma. Wenn ich für alles mehr zahlen soll müssen andere halt auch für MICH mehr zahlen.

Wer dann seinen 0815 Job seit 15 Jahren ohne Ausgleich durchzieht braucht dann auch hier nicht mosern über fehlende Kohle für neue Produkte.

2.000,00 EUR aus dem Jahr 2010 sind heute noch 1.474,61 EUR wert. 2.712,59 EUR müssten aktuell aufgewendet werden, um den Gegenwert von 2.000,00 EUR aus dem Jahr 2010 zu erhalten.

Das ist was abgeht - nicht nur "das böse nVidia". Hier müssen sich einige mal selbst fragen wann sie die letzte Lohnerhöhung erhalten haben. Viele vermutlich noch nie - schuld sind immer die anderen.

Und nein, ich bezieh das nicht auf dich persönlich - war nur ein passender Beitrag zum das Thema anschneiden.
 
  • Gefällt mir
Reaktionen: eric draven, Glasreiniger, Wan900 und 2 andere
washieiko schrieb:
Genug RAM und Leistung
Für den Preis erwarten kann man das, aber man kann für den Preis von 60€ auch erwarten, dass Spiele halbwegs optimiert auf dem PC laufen und nicht bei angeblich zu wenig VRAM einfach abstürzen (RE4). :)

Klar könnte nvidia auch einfach 32GB VRAM draufklatschen, dennoch könnte auch die Software anfangen das zu nutzen was da ist und nicht immer nur mit mehr beworfen werden müssen.

Es ist wie mit Festplattenspeicher, je mehr da ist, desto mehr wird das auch vollgemüllt. Daher haben wir heute Spiele mit 150GB und mehr, obwohl das auch mit 90 ginge.
 
  • Gefällt mir
Reaktionen: conglom-o
Mironicus1337 schrieb:
Ich überschlage die Ratings und bilde ein Mittel.
Da bin ich mal gespannt auf deine gemittelten Werte:
https://www.3dcenter.org/artikel/la...ch-analyse-nvidia-geforce-rtx-4070-ti-seite-4

und hier:
https://www.3dcenter.org/news/gerue...-april-fuer-599-dollar-listenpreis-erscheinen

20% weniger auf die 4070ti bleiben grob 3080 Niveau, egal wie man es dreht und wendet.
Aber es kommt halt noch dazu dass die 4070 satte 25% weniger Shader hat als die 4070ti (5888 vs 7680).
Wird also schwierig mit deiner Einschätzung.

Musst mir dann bei Release zeigen wie eine so beschnittene 4070 noch auf RTX3090/RX6950 Niveau kommt ;)
 
bensen schrieb:
Der Gewinn und die Marge Nvidias zeigt ganz gut ob das erhöhte Herstellungskosten sind oder eine erhöhte Marge.
Die ganze Branche hat sich zu COVID Zeiten die Taschen vollgestopft und setzt dort weiter fort.
16% Nettomarge sind also Abzocke ? :D

Und ja, die Chips sind kleiner, die Preise aber auch um mehr als Faktor 4 gestiegen pro Wafer. Soviel kleiner sind die Chips dann nicht geworden. Es wird ja auch noch eine deutliche Leistungssteigerung erwartet die das wieder auffrisst und teils sogar massiv anschwellen lässt (2080 Ti war so ein Beispiel mit einem 750mm2 Chipmonster).
 
Zuletzt bearbeitet:
Zurück
Oben