News Zwei Wochen nach Marktstart: Nvidias GeForce RTX 4070 fällt unter die 600-Euro-Marke

Samuelz schrieb:
Beweise, sehe ich übrigens auch nicht, dass 12GB VRAM jetzt schon, oder in 1-2 Jahre nicht ausreichen sollte.
Wie solltest du jetzt sehen können, was in 2 Jahren ist? Exakt diese Finte wird wiederkehrend angewendet. Freunde faktischer Messung fühlen sich anhand der Testergebnisse beim Launch gut aufgehoben. Die Parameter (hier Spiele) verändern sich jedoch über die Zeit.

Rondos schrieb:
Ich bin tatsächlich erstaunt, wie gut sich diese Karte gehalten hat, auch preislich.
Kalkül
https://www.heise.de/meinung/Kommen...n-Nvidia-wen-wollt-Ihr-veralbern-7273912.html
https://www.heise.de/news/Nvidia-Volle-Grafikkartenlager-kosteten-Milliarden-US-Dollar-7525448.html
 
  • Gefällt mir
Reaktionen: Rockstar85
blackiwid schrieb:
Wie gesagt du bleibst den Beweis schuldig ich habe rationale Gruende aufgefuehrt warum PC Titel mehr Vram brauchen könnten als Konsolentitel
Ich bleibe überhaupt nichts schuldig, du erzählst in einer Tour das 12 GB zu wenig wären, lieferst aber keinen einzigen Beweis dass dem so wäre. Im Gegenteil, du lieferst sogar selbst den Gegenbeweis der zeigt dass 9 GB im Schnitt ausreichen.
 
  • Gefällt mir
Reaktionen: Gortha und Samuelz
Ich habe vor gar nicht SO langer Zeit (1 Jahr oder so?) 700€ für eine 3060Ti gezahlt ... ich schäme mich bis heute, dass ich nachgegeben habe. :P
 
  • Gefällt mir
Reaktionen: Kalsarikännit, wei3nicht_T, Gerithos und 3 andere
Capthowdy schrieb:
Ich bleibe überhaupt nichts schuldig, du erzählst in einer Tour das 12 GB zu wenig wären, lieferst aber keinen einzigen Beweis dass dem so wäre. Im Gegenteil, du lieferst sogar selbst den Gegenbeweis der zeigt das 9 GB im Schnitt ausreichen.
"zu wenig für was" für die meisten auch AAA Spiele Heute in 1440p, nein das nicht, aber für manche Titel heute schon in UHD und bald vermutlich zumindest viele AAA Titel, ja dafür ists zu wenig.

Wenn ich ne teure Grafikkarte kaufe will ich doch nicht von irgendwem ne Liste kriegen welche 50-80% Spiele ich spielen darf, ich will dann irgend ein Spiel spielen und nicht gesagt bekommen, ok da reichts nimmer für maximale Grafik.

Sicher man könnte so argumentieren wenn es irgend eine Grafikdemo wie Crisis wäre, ok EIN einziges Spiel musst halt dann zurück schalten, aber das ist ja deutlich viraler als das.
 
  • Gefällt mir
Reaktionen: Legalev
Capthowdy schrieb:
Man muss zumindest anerkennen dass die Waferpreise sich seit 2016 fast verdreifacht haben:

Nur deinen Beitrag als Aufhänger genommen.
Wenn ich auch mal polemisch werden darf... im Mining Boom hat mal das 50-fache verkauft und mit den Corona Zeiten das 100-fache. Was sind da schon die Wafer Preise?^^ Falls sich die Graka Hersteller darauf hin verrechnet haben kann, tja... ;)
Denn darauf läuft alles hinaus. Nvidia hat doch vermeldet, (2022?) das die Graka Preise insgesamt steigen müssten. Man hat sich das ja gut abgeschaut. Diese Preise in der Mining/ Corona Blase. Gz.^^
 
blackiwid schrieb:
aber für manche Titel heute schon in UHD und bald vermutlich zumindest viele AAA Titel, ja dafür ists zu wenig.
"Vermutlich", pure Glaskugelleserei, aber andere sollen dir Beweise für etwas liefern, das in der Zukunft liegt. Zeige mir Stand heute 10 aktuelle AAA Spiele, in denen du mit mehr als 12 GB in UHD einen echten Vorteil hast.

Neronomicon schrieb:
im Mining Boom hat mal das 50-fache verkauft und mit den Corona Zeiten das 100-fache. Was sind da schon die Wafer Preise?^^
Das sowieso, die Frage ist ja auch ob TSMC sich da nicht auch mächtig die Taschen gefüllt hat, da kannst du fest von ausgehen.
 
  • Gefällt mir
Reaktionen: Gortha
Lustig, dass so etwas inzwischen eine News wert ist. Früher war das der Normalfall, dass Hardware nach dem Release ganz locker unterhalb der UVP (manchmal dreistellige Euro-Beträge darunter) erhältlich gewesen ist.
Ergänzung ()

Capthowdy schrieb:
Das sowieso, die Frage ist ja auch ob TSMC sich da nicht auch mächtig die Taschen gefüllt hat, da kannst du fest von ausgehen.

Das ist ja nach den jüngsten Finanzberichten kein Geheimnis mehr. Sie haben mit deutlich weniger Wafern trotzdem Umsatz und Gewinn steigern können, weil sie die Preise mächtig angezogen haben (was auch kein Geheimnis ist, sondern allseits durch die Presse ging).
 
  • Gefällt mir
Reaktionen: Gortha
Capthowdy schrieb:
"Vermutlich", pure Glaskugelleserei, aber andere sollen dir Beweise für etwas liefern, das in der Zukunft liegt. Zeige mir Stand heute 10 aktuelle AAA Spiele, in denen du mit mehr als 12 GB in UHD einen echten Vorteil hast.
Wieso 10? das heute spielen damit struggeln und mehr als 1 ist ein Beweis, das UE5 mehr Fotorealismus bringt deutet auch mehr auf VRAM hin, wann ging der Vram verbrauch in der Geschichte der Computerspiele jeh zurück als Trend?

Ich muss mir immer anhören von zig Leuten das Linux für Gaming nichts ist da die meisten Games ja laufen aber das eine das man unbedingt will vielleicht nicht... wieso sollte das hier anders sein? Wobei Linux kostenlos ist die Karte kostet 600 Taken da müsste man eigentlich nachsichtiger zu Linux sein :D

Ich mein es gab auch schon vor Spiele ohne Mods so viel teils brauchten Gründe zu AMD zu greifen wenn man gerne Texturmods benutzen wollte, nur ist halt jetzt neu das das nackte Spiel teils schon zickt.

Es kommt halt immer drauf an was man will, die Frage ist doch welche Erwartung hat man von ner 600 Euro Grafikkarte, das man ne Mittelklasse Karte hat oder was richtig starkes... auch 6gb können genug sein für ne 150 Euro Grafikkarte.
 
sTOrM41 schrieb:
Hab meine 3070TI FE für 525€ auf eBay Kleinanzeigen verkauft und für 610€ die super leise 4070 MSI Ventus 3X ins System gesteckt, für mich ein guter Tausch :-)

Hier mal Timespy mit etwas OC (wobei auch mit OC maximal 200watt anliegen)
https://www.3dmark.com/3dm/93042037?

Mit Raytracing und DLSS Frame Generation ist die 4070 schon deutlich schneller.

Die 4070 verbraucht auch deutlich weniger Strom, obwohl die 3070TI undervolted war. Bei Volllast maximal 200 Watt, bei Teillast in PUBG gar nur 100 Watt.
Wow da hast du aber echt en Hammer Geschäft gemacht. Welcher Vogel hat dir denn ne 3070ti gebraucht für 525 Euro abgekauft? Könnte mir nur vorstellen ein Sammler der die Founders Edition will oder ein vollkommen Uninformierter.
 
Papalatte schrieb:
Btw bei zwei Spielstunden am Tag - was nicht viel - ist spart man mit 100W weniger schon ~33€ im Jahr (45 Cent/kwh).
Naja darüber lässt sich streiten. Du hast wahrscheinlich konsequent mit 2h jeden Tag im Jahr gerechnet? Die Berufstätigen, die ihren Strom selbst zahlen, haben wohl nicht alle 2h pro Tag Zeit zum Zocken. Aufs Jahr gerechnet würde ich wohl eher bei einem Drittel davon landen. Ich gebe dir aber Recht, dass das durchaus einen Unterschied machen kann für den einen oder anderen. Keine Ahnung, ob eine 4070 noch für Streamer interessant ist oder die alle mindestens eine 4080 haben, aber wenn dann der Rechner täglich viele Stunden läuft, kommt schon was zusammen.

Bei der 4070 bin ich selbst auch unschlüssig. Die macht genau das besser, was meiner 6800 fehlt (RT-Leistung und FG). So wichtig ist das beides aber auch nicht und bei den ganzen speicherhungrigen Neuerscheinungen bin ich froh über die 16GB VRAM.
 
Also die 600 sind mir persönlich immer noch ein wenig zu viel 500-550 hatte ich so in etwa eingeplant. Das wäre dann der gleiche Preis wie bei der 3070 plus ein wenig Aufschlag durch den Wechselkurs. Das wäre mMn fair bepreist. Zumindest für eine echte 4070.
Von der Leistung her ist ja leider nur eine 4060ti oder so. Zumindest wenn man sich die Performance Zuwächse der letzten beiden Generationen ansieht (immer so um die 50%). Da war der Preis bei 400 Euro. Mit Aufschlag und schlechtem Wechselkurs wäre man dann eher bei 450-500 Euro.
 
  • Gefällt mir
Reaktionen: blackiwid
sTOrM41 schrieb:
Das DLSS und Frame Generation zusätzlichen VRAM benötigen würden lese ich hier alle paar Tage, gibt es dazu auch entsprechende Tests?
PCGH hat da was gemacht und getestet. War ein Youtube Link paar Seiten weiter vorne. War auch wieder Thema das AMD immer ein klein wenig mehr vram braucht (ca. 1GB), weil Speicherkompression bei NVIDIA stärker ist.

Allein logisch halber ist es so, da mehr Frames als üblich im Speicher liegen müssen um daraus das neue per AI zu errechnen.

Es kommt eben auch darauf an was man bei DLSS3 genau einstellt.
 
Poati schrieb:
Keine Ahnung, ob eine 4070 noch für Streamer interessant ist oder die alle mindestens eine 4080 haben, aber wenn dann der Rechner täglich viele Stunden läuft, kommt schon was zusammen.
Mein Streamer hat eine 2080 Super und zockt auf 1080p. Auch RE4 Remake mit FSR ohne Abstürze mit den 8 GB und ist glücklich, Zuschauer wie ich ebenfalls :D
 
Fallout667 schrieb:
Ja genau ist sie, genauso Quark wie viele der Kommentare zur 4070.
Da sag ich ja nichts gegen.
Ist ne gute Karte, ich finde sie persönlich 50 Euro zu teuer, aber ansonsten spricht da nicht viel gegen.
Ja es ist ein bisschen schwach, dass sie die 3080 nicht schlägt, das haben ihre 70er Vorgänger besser gemacht aber die Karte ist gut, hat das bessere Featureset und 2 GB RAM mehr. Also alles tutti. Ich bin weder gehypt noch enttäuscht von der Karte.
 
  • Gefällt mir
Reaktionen: Gortha und Fallout667
Bohnenhans schrieb:
3070 war ja noch 8nm
4070 ist sogar wohl nur 4nm
Es geht um die Einordnung des Chips im Portfolio:

RTX3070: GA104 - Vollausbau, 400 mm²
Größter Chip bei Ampere: GA102, 630 mm², folglich liegt GA104 bei etwa 2/3 der Größe des größten Chips.

RTX4070: AD104 - um 25% beschnitten, 300 mm²
Größter Chip bei Ada Lovelace: AD102, 610 mm², folglich liegt AD104 im Vollausbau schon nur bei unter 50% und ist in der RTX4070 sogar noch beschnitten.

Schaut man sich dann dazu den AD103 an:
RTX4080: AD103 - um 10% beschnitten, 400 mm², folglich liegt AD103 im Vollausbau bei etwa 2/3 der Größe des größten Chips.

Das ist der Chip, der im Schema der 3000er-Generation eine 4070 wäre.

Stattdessen wird der Chip als 4080 bezeichnet und mit >1000$ angeboten. Alle Bezeichnungen, abgesehen von der 4090, sind einen Chip, ggf. noch einen zusätzlichen Cut-Down nach unten gerutscht, während geichzeitig die Preise massiv angezogen haben.

Und woran liegt es?
Weil Nvidia machen kann, was es will. Es gibt von AMD aktuell keine echte Alternative, nur Karten aus der (wirklich tollen) 6000er-Generation. Die 7000er sind eine echte Enttäuschung und AMD macht mit bei der Preistreiberei, siehe den Nachfolger der RX6800XT mit stärkerem Cut-Down als 7900XT für 899$ auf den Markt zu bringen.

Daher bin ich froh hier zu lesen, dass Nvidia die Produktion aussetzen muss (!), weil zu viel Lagerbestand existiert. Sollen sie drauf sitzen bleiben!
 
  • Gefällt mir
Reaktionen: Windell, iceshield und Cleric
Bei der ganzen Speicherdiskussion muss man aber auch mal die Frage stellen, ob Spiele dadurch unspielbar werden oder man einfach nur weniger FPS hat. Wenn der Speicher "WIRKLICH" zu wenig wäre, würden die FPS ja auf 1 fallen. Ansonsten wenn die Performance reicht ist der Speicher auch ausreichend. Ich hab nee 3080 mit 10 GB und kann in 4K alles mit recht guter Grafik spielen. Kann halt Texturen nicht in allen Spielen auf Ultra knallen, aber Native Auflösung mit größtenteils hohen Settings geht immer.
 
  • Gefällt mir
Reaktionen: Gortha, ErbarmeHesse und SonyFriend
ThePlayer schrieb:
Ja Moin!
Ja die Jugend von heute ohne 144fps gleich Augenkrebs! :D
Na gut 60 sollten es schon sein ab 40 wird's aber definitiv zu wenig.
So klein ist das Internet :D
Stabile 60fps als Minimum im Gleichschritt mit der Frequenz meines Monitors sind völlig okay für mich.
Und dafür reicht die RTX3060 für mich noch aus. Will meinen Upgradezyklos halt etwas auseinanderdehnen.
 
  • Gefällt mir
Reaktionen: ThePlayer
200 Euro noch zu viel. Für meine 3090 hab ich -gebraucht- 600 tacken geblecht. Und halte mit 900 euro karten stand.

Btw die 4070 ti ist aktuell auch unter 900 zu haben.
 
Zurück
Oben