News GPU-Gerüchte: GeForce RTX 4070 ab 13. April ab 599 US-Dollar im Handel

nurfbold schrieb:
4K ist eben Luxus, was sich Nvidia entsprechend vergolden lässt.
Auch AMD verkauft keine 500 Euro 4K GPU.

Und ja, 4K als Anforderung für eine Tier 3 GPU zu nehmen, macht keinen Sinn.

Die PReise können noch so idiotisch sein, aber man muss den Realitätscheck schon annhemen.
Wer für die nächsten 4 Jahre von 2023-2026 "AAA" Games eine 4K "Ultra Settings und 60+ fps wären toll"- GPU kaufen will, muss dann letztlich zur 7900XTX oder zu 4080 oder eben zur 4090 greifen.

Dann kauft man keine 70er Nvidia oder 7000er AMD GPU Klasse.
Ergänzung ()

nurfbold schrieb:
Ich bin jetzt von 4K@60 auf 1440@165 Gsync „zurück“ und was soll ich sagen? Ich sehe nur einen geringen Unterschied, kann künftig aber locker eine Etage tiefer ins Regal greifen.
Genau das ist eben auch eine Option. Ich bin von 4K nach einigen Wochen Tests auf UWQHD "runter" und bevorzuge ohnehin mittlerweile ultraweit und 21:9 als Formfaktor.
Spart erheblich fps-Pönale für die Auflöung :D
 
  • Gefällt mir
Reaktionen: Pro_Bro, HaRdWar§FreSseR, Bright0001 und 2 andere
Klever schrieb:
Je nach Spiel wird die integrierte GPU auch ansatzweise nicht ausreichen - wenn du Anno spielen willst und nicht SC 1 oder AoE II, wirst du selbst mit einer aktuellen integrierten GPU (z.B. bei einem 5700G, roughly GeForce 940MX Performance) schon in 1080p nicht weit kommen. Genauer gesagt, wird man selbst 20 FPS nicht erreichen können. So wird auch keiner spielen wollen.

Also Siedler 3 läuft auf meinem Arbeits-PC super :D . Anno 1404 ist schon hart an der Grenze zur Unspielbarkeit. Aber klar, den hab ich damals auch nicht nach solchen Kriterien ausgesucht. Für aktuelle Strategiespiele führt kein Weg an dGPU vorbei, sehe ich auch so. Da ist die 4070 rein von der Leistung her wohl gut dabei.
 
Klever schrieb:
Je nach Spiel wird die integrierte GPU auch ansatzweise nicht ausreichen - wenn du Anno spielen willst und nicht SC 1 oder AoE II, wirst du selbst mit einer aktuellen integrierten GPU (z.B. bei einem 5700G, roughly GeForce 940MX Performance) schon in 1080p nicht weit kommen. Genauer gesagt, wird man selbst 20 FPS nicht erreichen können. So wird auch keiner spielen wollen.


Du hast schon ewig nicht mehr mit einer iGPU gespielt, oder?

Hab selbst ein Laptop mit einem kleinen 5500U und darauf auch schon das von dir angesprochene Anno 1800 gespielt. Ging echt ganz gut und ist für zwischendurch absolut brauchbar. Würde zwar eher 1404 spielen, das mit maximalen Details flüssig läuft, aber hey, wer will kann auch 1800 spielen. Auch Forza Horizon 5 z.B. habe ich damit viel gespielt als ich mal beruflich bedingt länger unterwegs war, aber die Challenges erledigen wollte. Ging sehr gut. Das ist zwar dann schon nicht so, dass ich es so dauerhaft spielen wollen würde, aber für zwischendurch und unterwegs...
Und der 5500U hat nur ne kleinere Vega, nicht die RDNA2 im Vollausbau eines 6800U z.B., ich gehe mal davon aus, dass man damit wirklich 99%+ einer durchschnittlichen Steam-Bibliothek hervorragend spielen können wird.

Das ist halt der Vorteil aktuell... auf dem aktuellen Stand zu bleiben ist dank der Vervielfachung der Preise bei sinkenden Reallöhnen zwar für die meisten unmöglich, aber die alte Hardware taugt auch noch, es gibt sicher für viele Spieler tausende spielenswerte Titel die auch auf Maxwell oder so noch gut laufen. Einfach die neuen Karten im Laden liegen lassen, und wenn dann wirklich in ein paar Jahren nichts mehr geht gibt's halt die aktuelle Konsole für ein Viertel des Preises der dann aktuellen Grafikkarten, oder sowas wie ein Steam Deck.
Die GPU-Hersteller müssen einfach wieder zur Besinnung kommen.
 
  • Gefällt mir
Reaktionen: Haxor, Rockstar85 und WhiteRabbit123
HaRdWar§FreSseR schrieb:
Ich habe mir eine Geforce RTX 4070 TI Gamerock gegönnt und bin richtig zufrieden mit der Karte.
Bei mir wurde es eine Gainward Phantom GS.

In Anno schwankt (keine Messung, nur ab und an das Overlay aktiviert) die GPU Package bei maximalen Grafiksettings je nach Zoom-Stufe bisher zwischen 80 und 130W (allerdings noch Beginn der Kampagne).

In Witcher 3 Next Gen habe ich mal kurz reingeschaut, da komme ich mit dem letzten Spielstand mit RT et al. (grob alles Ultra, außer Hairworks) ungefähr auf den gleiche Wattzahl wir zuvor mit dem "alten" Witcher und der Vega 56.

Das finde ich schon imposant. Zudem ist die Karte einfach leise. Wenn die Lüfter mit 1200 rpm (Im Forza 5 Benchmark mit Ultra springen sie nicht einmal an) rotieren, höre ich eigentlich nur ein unscheinbares und keinesfalls unangenehmes "Surren".

Nüchterne Einordnung: Diese Performance habe ich auch exakt so erwartet. Alles andere wäre bei einem mehr als doppelt so hohen Neupreis wie damals der der Vega auch eine riesige Enttäuschung.

Seit eh und je spiele ich nie die neuesten leistungsfressenden Grafikkracher, sondern hänge immer so 3-5 Jahre hinterher (Anno 1800 habe ich mir erst in dieser Woche zugelegt). Insofern sind die 12GB VRAM für mich kein "nur", sondern ein Mehr von 50%.
Weiterer Nebeneffekt: Die dadurch gesparten Ausgaben habe ich regelmäßig in den Kapitalmarkt "umgeleitet". Und nach den Jahrzehnten trägt nun durch diesen generellen es-muss-nicht-immer-der-beueste-und-teuerste-Krempel-sein-Ansatz auch der Mist dieses (und vielen anderen) angesparten Kleinviehs dazu bei, dass diese Ausgaben bequem und ausschließlich aus Zinsen/Dividenden bestritten werden. :-)
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
Michael-Menten schrieb:
Freut sich hier noch irgendwer auf GPUs launches von NVidia oder AMD?
Klar. Maximal abfeiern würde ich einen Nachfolger der GT 1030 :D

DaHell63 schrieb:
die Leistung einer RTX 4070Ti
Ich glaube die Hoffnung darüber ergab sich aus dem Preis und weil neu. Das ist schon die technisch perfekt zugeschnittene WQHD Karte, aber man würde für sein Invest gerne mehr erträumen.

wtfNow schrieb:
12 GB sind stand heute aber auch in UHD nicht zu wenig, mit sinnvollen Einstellungen versteht sich.
Das ist der Knackpunkt. 4K ist nix mit sinnvoll, das ist kompromisslos. Prinzipiell würde ich davon ausgehen, dass wenn ich an einen 1k € Monitor eine genauso teure GPU hänge, dass ich beim nächsten Spiel nicht schon wieder an den settings spielen muss. Bei einer 400€ Karte Logo, aber die hängt ja (wahrscheinlich) nicht am 4k Monitor.

nurfbold schrieb:
Full HD würde Ich mir zwar auch nicht mehr antun, aber Whqd schaut immer noch gut aus
100% + was der Monitor eben noch zusätzlich kann, ich glaube nicht das mehr wie 10% der Leute HDR Mal live gesehen hat.
 
Viel zu spät. Die meisten Spiele erscheinen doch kurz vor Weihnachten. Erst wenn es draußen wieder kalt und dunkel wird setzt man sich vor den PC. Für ein Diablo 4 braucht man keine 4070.Es wird aus meiner Sicht daher eine lange Durststrecke für den Verkauf geben.
 
  • Gefällt mir
Reaktionen: ThomasK_7
Chesterfield schrieb:
wenn die 4060 eine 3080ti vernascht, müssen sich alle 30 er karten Käufer verarscht vorkommen.
Wieso?
Als die 3060 Ti herauskam, war sie lediglich 10% bis 12% langsamer als das bisherige Spitzenmodell 2080 Ti.
Da hätten sich die Besitzer dieser GPU noch viel mehr veräppelt vorkommen müssen.
 
  • Gefällt mir
Reaktionen: thuering, scheru und musmuss
Almalexia schrieb:
Wer kauft sich heute noch einen Computer?
Xbox X kostet 500€
Xbox S kostet 270€
Da ich nur ca. 10% der Spiele, ich ich in den letzten 10 Jahren gespielt habe, überhaupt mit Controller spielen konnte (ich habe es bei vielen Spielen probiert, aber ich kann & will es einfach nicht) und die Konsolen Maus & Tastaturunterstützung weiterhin nur sehr stiefmütterlich behandeln, bleibt eine Konsole für mich ein NoGo.

Am Ende ist PC Gaming immer noch ein günstiges Hobby, insbesondere wenn man nicht unbedingt das Beste vom Besten haben muss und einem obere Mittelklasse oder niedrige Oberklasse reicht. Frag mal ernsthafte (Hobby-) Angler, Golfer, Auto Schrauber & Co, was die für ihr Hobby ausgeben.

Back to topic:
Ich persönlich warte ja noch auf ein Sale der RTX 4070 Ti. Bei unter 850 EUR würde ich glaube zuschlagen. Vor einigen Tagen gab es ja immerhin schon ein kurzzeitiges Angebot für 879 EUR (versandkostenfrei), allerdings um einen Tag verpasst und eigentlich ja noch etwas über meinem Wunschpreis.

Meiner Meinung nach wird 12 GByte noch lange locker für 1080p und 1440p Gaming reichen. Für 2160p Gaming kann ich mir dann doch vorstellen, dass es dann in den nächsten Jahren eng wird. Da ich derzeit noch eine 8 GByte Karte habe, ist 12 GByte so oder so eine Verbesserung. Und da ich bei 1440p spiele, sowieso.

Für die RTX 4070 vermute ich eine UVP von 599 USD ohne Steuern. In Europa tippe ich auf eine UVP von 699 EUR inklusive Steuern. Das ist zwar 100 EUR mehr, als ich mir gewünscht hätte, aber passt so besser zur aktuellen Preisstrategie von NVidia.
 
  • Gefällt mir
Reaktionen: Beatmaster A.C., HaRdWar§FreSseR, thuering und eine weitere Person
simosh schrieb:
Das ist der Knackpunkt. 4K ist nix mit sinnvoll, das ist kompromisslos. Prinzipiell würde ich davon ausgehen, dass wenn ich an einen 1k € Monitor eine genauso teure GPU hänge, dass ich beim nächsten Spiel nicht schon wieder an den settings spielen muss. Bei einer 400€ Karte Logo, aber die hängt ja (wahrscheinlich) nicht am 4k Monitor.
Ich rede am Beispiel vom Ausnahme speicherhungrigen Hogwarts Legacy und der 4070 Ti von z.b. DLSS Nutzung. Nativ UHD mit Raytracing schafft sie das nicht, sowohl vom VRAM als auch Rohleistung. Mit DLSS, was absolut Sinn macht, packt sie das problemlos. Und irgendwann dreht man halt Schatten und Effekte passend zur Rohleistung eine Stufe runter. So kann man mit der Karte und ihren 12 GB noch auf Jahre Spaß haben! Im worst case sind Texturen von Ultra auf Hoch auch nicht der Weltuntergang;)
Du musst auch bei einer 2k € GPU heute schon sinnvoll die Regler bedienen. Eine 4090 schafft Portal RTX nicht in nativ UHD ohne DLSS 3, Cyberpunk mit Overdrive Einstellung höchstwahrscheinlich genauso wenig.

Die Karten sind so wie sie sind jedenfalls am Markt und jeder kann für sich und seine Bedürfnisse einschätzen was ihm am ehesten zusagt. Ich hätte natürlich auch lieber mehr VRAM, aber ich spiele nicht so viel als das ich mir eine 4080/4090 kaufe und ne 7900XT mit ihren 20GB hat ganz andere Nachtteile die bei mir stärker ist Gewicht fallen.
Dass die Karte wie jede andere auch zu viel kostet steht ja außer Frage.
 
  • Gefällt mir
Reaktionen: vti, Syrato, Wan900 und eine weitere Person
In einer anderen CB-Tickermeldung steht, dass es wohl auch eine 4060TI für $500 geben soll. Das bedeutet aber sicherlich, dass die 4070 mindestens $700 kosten wird. Natürlich wird sie trotzdem wie geschnittenes Brot verkauft werden, aber vielleicht schaut ja der eine oder andere dann mal auch über den Grafikkartenhersteller-Tellerrand.
 
NoNameNoHonor schrieb:
aber vielleicht schaut ja der eine oder andere dann mal auch über den Grafikkartenhersteller-Tellerrand.
Das ist natürlich (immer) eine Option. Bisher gibt es da aber in diesem Preisbereich "nur" last generation, welche ich genau deswegen preislich auch nicht attraktiver finde.

Oder halt im Sekundärmarkt, also gebraucht.
 
Kuestennebel79 schrieb:
Wenn es die Karte für 700€ gibt, dann ist sie ein WQHD Brett. Da muss AMD erstmal was dagegen stellen
Dafür bekommt man aktuell wieder 6900/6950er und ich würde fast behaupten, dass die sehr ähnlich performt. Bleiben halt nur die paar üblichen Nvidia Vorteile.
 
  • Gefällt mir
Reaktionen: alkaAdeluxx
CiX schrieb:
Und nun zu, steinigt mich :schluck:
Ich bin ohne Sünde (:D) und werfe - biblisch gesehen - somit den ersten Stein :schluck:
 
  • Gefällt mir
Reaktionen: CiX
Ich warte lieber auf eine 7700xt/7800xt, da mehr vram erwartet.
Die 12 GB für eine 4070 ti sind einfach nur lächerlich, wenn man den Preis dazunimmt.
Eine 4070 non ti kostet wohl wieviel? 700€? Hut ab, scheint erfolgreich zu werden, da die Masse an Spieler neue GPUs von nvidia unterhalb 840€ erwartet. Euer Geld ist ja nicht weg, es hat nur ein anderer. 😉
 
Postings die eine 4070 Ti schlecht machen weil ein Spiel aktuell z.B. Hogwarts Legacy in einem Test gezeigt hat,
das die 12 GB an ihre Grenzen kommen, gehen mir auf den S.... - man muss das einfach differenziert betrachten.

Die 4070 Ti kann sicher auch UHD, ist aber definitiv keine UHD-Karte und die verbauten 12 GB
sind für die Auflösung wofür die Karte gedacht ist (sprich FHD + WQHD) ausreichend,
denn meistens liegt es am Spiel (in letzter Zeit ja immer öfter der Fall) bzw. an den Entwicklern.
Diese optimieren Spiele wie aktuell Hogwarts Legacy, nicht richtig oder erst zu spät - wie sich ja mit nachfolgenden Patches bei gezeigt hat.

Andererseits ja, 16 GB VRAM sollten es bei dem Preis schon sein und ja, das wäre genug Puffer
um solche Ausnahmen abzufangen und eine ich sage mal, elegante einfache Lösung.
Das würden wir auch alle begrüßen bzw. uns über 16 GB freuen.

ABER es ist schlicht falsch zu sagen, die Graka ist schuld oder die KARTE hat zu wenig VRAM
(vor allem nicht so pauschal), wenn die Schuld beim Spieleentwickler liegt, welcher seine Arbeit nicht macht.
Die 4070 Ti hat in technischer Hinsicht nicht (grundsätzlich) zu wenig VRAM.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR, thuering und TheAnswer42
Einigen wir uns darauf: 12 GB bei 900€ = zuwenig Speicher für zuviel Geld, egal welcher Hersteller!

Intel bietet 16gb für unterhalb 400€, lass die mal eine Gereration weiter sein und die Treiber stetig aktualisieren, dann wird ein Schuh draus.
 
  • Gefällt mir
Reaktionen: C0rteX, vti und Simonsworld
Von wegen was manche hier sagen: schönreden! Ich habe mir nochmal Benchmarks der 4070 ti angeschaut. Die RTX 4070 wird natürlich etwas langsamer sein. Sprich: für WQHD locker ausreichend und auf 4K mit Abstrichen (mittlerer Detaileinstellung) auch ausreichen. Also wenn man keinen schnellen Shooter in 4K zocken möchte wird man diese schon bedenkenlos kaufen können.

Nur eins ist und bleibt unverschämt: die Preise der Grafikkarten.
 
  • Gefällt mir
Reaktionen: HaRdWar§FreSseR
SonyFriend schrieb:
Intel bietet 16gb für unterhalb 400€, lass die mal eine Gereration weiter sein und die Treiber stetig aktualisieren, dann wird ein Schuh draus.
Ich hoffe doch sehr darauf, erst dann wird sich GPU markt wieder was bewegen.
Aber dann kommt es natürlich noch auf das Speicherinterface und den verwendeten Speicher selbst an.
 
Bierliebhaber schrieb:
Du hast schon ewig nicht mehr mit einer iGPU gespielt, oder?

In meinem Beitrag habe ich ja angemerkt dass man ältere Spiele auf einer iGPU spielen kann, bei neueren und fordernden Titeln wird das aber ganz schnell eng, und das zeigt der PCGH GPU test von Anno1880.

Bierliebhaber schrieb:
Hab selbst ein Laptop mit einem kleinen 5500U und darauf auch schon das von dir angesprochene Anno 1800 gespielt. Ging echt ganz gut und ist für zwischendurch absolut brauchbar. Würde zwar eher 1404 spielen, das mit maximalen Details flüssig läuft, aber hey, wer will kann auch 1800 spielen. Auch Forza Horizon 5 z.B. habe ich damit viel gespielt als ich mal beruflich bedingt länger unterwegs war, aber die Challenges erledigen wollte. Ging sehr gut. Das ist zwar dann schon nicht so, dass ich es so dauerhaft spielen wollen würde, aber für zwischendurch und unterwegs...

Ich habe auch einen Bekannten der RDR2 auf einer 970M spielt, ich würde so nicht spielen wollen. "Für zwischendurch" vllt mal, aber selbst das eher nicht, da mache ich lieber meinen alten Laptop mit einer deidizierten GPU wieder an.
Eine Vega 8 hat die Leistung einer 940MX, das ist nichts was ich mir persönlich dauerhaft geben möchte. Bei neueren Titeln wie Anno1880 (auch das ist ja nun einige Jahre schon alt) schafft eine deidzierte Vega 56 keine 60 FPS, in 1080p im PCGH Test. Da brauche ich keine iGPU um anhand vom Test zu sehen dass eine Vega 8 da in Anno1880 da nicht mal auf 30 FPS in 1080p kommen wird, sobald das Spiel etwas fordernder wird.

Das ist alles Anmerkung zu der Behauptung "eine iGPU" reicht in Strategiespielen völlig aus. Nein, in neueren tut sie es nicht, es sei denn man hat nichts dagegen mit 20 FPS zu spielen. In älteren wird es dagegen natürlich vollkommen ausreichend sein.

Bierliebhaber schrieb:
Einfach die neuen Karten im Laden liegen lassen, und wenn dann wirklich in ein paar Jahren nichts mehr geht gibt's halt die aktuelle Konsole für ein Viertel des Preises der dann aktuellen Grafikkarten, oder sowas wie ein Steam Deck.
Die GPU-Hersteller müssen einfach wieder zur Besinnung kommen.

Es gibt Menschen die nicht auf einer Konsole spielen wollen. Auf einer Konsole gibt es auch eine Menge Spiele nicht, die es auf dem PC gibt, während die Konsolen exklusiv Titel immer mehr auch auf dem PC releast werden.
 
  • Gefällt mir
Reaktionen: Beatmaster A.C.
Derzeit fallen die gpu preise lediglich im high end was immer noch das beste P/L hat steigen die preise wieder.
Das ist eine absurde situation das eine high end gpu wie die rtx4090 P/L das beste ist was man kaufen kann.

Bald erscheint die rtx4070 etwa auf level der rtx3080 für vermutlich 700€, ja das ist nvidia ernst
Die spannende gpu wird die rtx4060ti mit 34sm und stolzen 450€
ich bin gespannt ob der markt wieder eine 8gb Mittelklasse GPU Akzeptieren wird das vierte mal hintereinander. (7 Jahre)
Für mich ist klar das der sprung von rtx3060 auf rtx4060 maxed +15% nicht lohnt. Dafür wird die rtx4060 um die 320€ kosten
Daher gehe ich davon aus das ada im Frühjahr 2024 komplett rebranded wird. Wenn amd mit n33 und n32 angreift
Dazu die Test von verschiedene quellen wo amd rdna3 in dxr aufgeholt hat und beinahe gleichzieht
Für mich wird die rx7700xt mit 2560 alu interessant ~17tf 12gb für 409€
ich sehe es so vram lässt sich nicht ersetzen und wird künftig immer wichtiger selbst in Fhd
Darum wäre realistisch das nvidia auf amd angriff reagiert und dann die sku entweder als super oder als rtx50 Serie bringt
Entweder mit doppelten vram oder was wahrscheinlicher ist mit gddr6 20gbps
Die alternative wäre wenn nvidia die preise senkt. Was die aib ziemlich boykottieren würden.
Auch möglich wäre das nvidia noch mehr ga104 chips bringt also ne rtx3060ti 16gb 14gbps chips
machbar sind solche sku die frage die sich stellt hat nvidia noch genug chips auf lager sieht man den kommenden release der rtx3060 12gb 18gbps ga104 sku an scheint das so.

Wie nvidia das regeln will ist offen das nvidia volle lager von ga106 und ga104 chips hat ist klar.
Die völlige Wilde karte hat intel.
Wenn die Treiber endlich komplett api kompatibel werden sehe ich durchaus andere Reaktionen von amd und nvidia
Im April gibt es erstmal den r7 7800x3d und die rtx4070
ideale kombi sofern man die 200w tbp akzeptiert

Das amd sich zeit lässt bei n33 rx7500 rx7600 und n32 rx7800 rx7700 nervt.
 
Zurück
Oben