News Zwei Wochen nach Marktstart: Nvidias GeForce RTX 4070 fällt unter die 600-Euro-Marke

Destyran schrieb:
wer gibt denn jetzt noch 525 für ne gebrauchte 3070 ti aus? oder ist das schon etwas her?
Das war bei der letzten gen schon so. Die Leute haben ihre teilweise 2 Jahre alten gpus, die schlechter waren als der Nachfolger, für 89 Prozent oder mehr des Preises des Nachfolgers verkauft und die Leute rissen es ihnen aus den Händen.
Auch jetzt finde ich es bemerkenswert, wie die Leute problemlos ihre 2020er 3080 für 500 Euro verkauft bekommen und die Käufer sich voll abfeiern, wobei man für nur 100 Euro mehr ne GPU bekommt die 2 GB mehr RAM hat, bedeutend weniger Strom verbraucht und genauso viel Leistung bringt bzw fast. Vom featureset ganz zu schweigen.
 
Drewkev schrieb:
Genauso wenig dass jedes Modell der RTX 4070 ihre ~200W braucht, da wird es auch welche geben die schon ab Werk mit weniger auskommen.

kommt auf den einsatzzweck an. in 3dmark verbraucht meine bis zu 199.4w bei nem takt von so 2790mhz (max clock ist 2805mhz bei mir aber der liegt wohl nur für ne sekunde dann dann gehts um einen step runter auf 2790). in spielen (habe größtenteils bisher nur cyberpunk gezockt da endlich gekauft weils nun butterweich läuft...) hab ich ein maximum von 186w gesehen bei 2790mhz clock, wobei der clock eher bei 2775 liegt realistisch. FE stock ohne power limit anzuheben oder sonst etwas zu verändern. (habe hwinfo stundenlang laufen lassen als ich cyberpunk gezockt hab deshalb sicher das sie nie über 186w ging auch nicht als die komplett am limit war was in cyberpunk immernoch ab und zu natürlich passiert)

also die 185w max in spielen sind realistisch. in der tat zieht sie im schnitt eher 160w in cyberpunk da sie meistens zwischen 130-180w hin und her schwankt je nach load (was natürlich logisch ist). effizienz ist auf jeden fall der hammer bei der 4070er da kann keiner widersprechen :D
Ergänzung ()

Gerithos schrieb:
Auch jetzt finde ich es bemerkenswert, wie die Leute problemlos ihre 2020er 3080 für 500 Euro verkauft bekommen und die Käufer sich voll abfeiern, wobei man für nur 100 Euro mehr ne GPU bekommt die 2 GB mehr RAM hat, bedeutend weniger Strom verbraucht und genauso viel Leistung bringt bzw fast. Vom featureset ganz zu schweigen.

Ja, das finde ich auch lustig :D ganz schön dämlich aber hey, das wird sich nicht ändern, besonders wenn die rtx 5000er noch teurer wird, und das wird sie werden. ich mache mir keine großen sorgen darüber das ich in 2 jahren die 4070er für 400+€ verkaufen kann. wird easy going sein und dann zahl ich 300 für ne 5070er drauf die dann sicherlich 16gb vram haben wird sowie weitere 40+% mehrleistung und fühle mich nicht verarscht obwohl natürlich nvidia die preise ungerechtfertigt immer weiter anhebt, das ist natürlich fakt. und die 4070er nun, da fühle ich mich auch kaum verarscht weil in realität die 4070er nunmal maximal 100€ teurer ist als sie es sein sollte.. 100€ das kann ich noch verschmerzen, besser als die 1400€ für ne 4080er zu zahlen LOOOOL :D
 
Ich wüsste aktuell keinen Grund zuzuschlagen. PS5 kostet 550 Euro plus TV liege ich bei 1100 und habe ebenfalls VRR und 4k. Xbox Series X ist das gleiche in Grün (Achtung, Wortspiel 😁). Warum also so viel in den PC stecken, wenn Geld eine Rolle spielt?
Ich sehe die 4070 bei 479 Euro MSRP und den top dog bei 1299. Alles andere ist Dividende für den Aktionär. Glückwunsch an selbige, die vor 6 Jahren oder früher eingestiegen sind. 😉
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: blackiwid
Drewkev schrieb:
Na meine indem ich das Powerlimit um 22W reduziert habe.
...
Aber mit UV daherzukommen obwohl ich das nie erwähnt hatte ist einfach kein Argument,

Powerlimit reduzieren und Undervolten kommt aufs gleich hinaus. Nur das du einmal die Grafikkarten entscheiden lässt welche Spannung sie anlegt und einmal definierst du das selber.

Meine 4070Ti kann ich per Kurve auf 0.9V bei 2580 MHz bringen, was dann 160 bis 170W bei 100% Last bedeutet oder ich setze gleich 170W als Powerlimit, was bis auf 1-2 Prozent aufs gleiche rauskommt.

Also hast du das schon erwähnt, wenn auch indirekt.

Drewkev schrieb:
Wenn du das anders siehst dann ist das natürlich okay. Aber die Mehrheit, so wie auch ich, sieht das anders. Und das völlig berechtigt.

Was die Mehrheit wie sieht siehst du nicht hier im Forum, sondern z.B. im Steam Hardware Survey. Und ja: Völlig berechtigt. Aktuell schießt dort die RTX 3060 mächtig in die Höhe.

Was VRAM angeht, so bilden 8GB + 12GB zusammen aktuell ungefähr 48.5% des Marktes ab, während 16GB nicht mal geführt werden. 24GB sind bei 0.99%.

Also wenn ich Spieleentwickler wäre, wüsste ich worauf ich optimiere.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Klever
Pady1990 schrieb:
Auch wenn man es nicht wahr haben will, bestimmen halt leider Gottes die Konsolen den Spielemarkt und daher ist der Sweetspot beim Grafikspeicher aktuell 12GB und bis es neuen Xboxen und ne PS6 gibt
Quelle das Konsolen nur 12gb Ram haben, wäre mir neu, ja die CPU und GPU müssen sich das teilen aber es gibt keine technisches Gesetz das die CPU mindestens 4,5GB Ram davon braucht.

https://www.reddit.com/r/digitalfou..._much_of_the_ps5s_ram_is_reserved_for_os_and/

Am launch der Xbox gab MS offiziell denen 13,5gb Ram für Entwickler frei der schnelle Zugriff auf SSD direkt von der Grafikkarte aus ohne langsamere Umwege muss man aber auch berücksichtigen.

Dazu wollen die Leute ja unter anderem nen PC damit die spiele BESSER aussehen man will Spielereien wie DSLL benutzen, es sind ports von Konsole -> PC. Also wird die Nutzung ineffizienter sein. Selbst der "Ram" ist schneller und es gibt weniger teuer von dem ram Bereich etwas zu verschieben oder um zu labeln als VRAM Daten. Wenn wir Ram Vergleiche ziehen kannst dann schon mal RT komplett vergessen oder auf "low" oder so, um einen fairen Vergleich zu bekommen.

Wir brauchen nicht theoretische Aepfel mit Birnen Vergleiche machen aus dem Test von Hogwards:
So hat die GeForce RTX 4070 Ti zum Beispiel in Ultra HD und DLSS Quality bei ansonsten voller Grafikqualität zwar keine Performance-Probleme, aber bei manchen Objekten werden die Texturen nicht geladen, andere verschwinden kurzfristig völlig, da die Engine vermutlich versucht, die Situation irgendwie noch zu retten. Ohne Raytracing klappt es auch mit 12 GB.
Auf der PS5 passiert sowas soweit ich das sehe nicht. Man muss also Raytracing ausschalten und das ist nicht Nativ 4k es könnte also auch bei kleineren Auflösungen schon zum Problem werden, da höhere Auflösungen weniger VRAM fressen als man glaubt.

Zumal selbst wenn ein Spiel nur für 12gb entwickelt ist für Konsolen kann man mehr Vegetation dynamisch zeichnen die Bildqualität kann also auch zu nehmen bei Spielen die weniger VRAM wollen.

Aber selbst wenn es identische Ergebnisse erzielt wie ne PS5 will man wirklich 600 Euro hin blättern fuer die Grafikkarte alleine damit man nur 1:1 Konsolengrafik bekommt?

Und das ist nicht das einzige Game:
Mit 12 GB ist die Situation etwas entspannter, aber problemlos läuft Deathloop damit immer noch nicht. Der FPS-Verlust ist hier allerdings geringer als mit einer 10-GB-Grafikkarte und der Leistungsverlust setzt später als mit einem 10-GB-Beschleuniger ein. In WQHD hat es keine erkennbaren Probleme mit 12 GB gegeben – stundenlang am Stück gespielt hat die Redaktion jedoch nicht.
Ja wird man total schlechtes Gaming Erlebnis mit 12gb vram haben? Nein, die Farge ist ob das genug ist fuer 600 Euro. Will man fuer 600 Euro nicht einfach 4k mit zumindest leichtem Raytracing ohne Grafikprobleme haben?
Ergänzung ()

Wan900 schrieb:
Sollten die 12Gb bei Nvidia nicht mehr reichen, wirds bei AMD auch mit 16GB eng.
Hoer bitte auf diese Fake News zu verbreiten, in dem Video sagt die Redaktion selbst das die Faustregel ist Intel 8gb entsprechen 8,5gb Radeon und 9gb Nvidia, das heisst die Nvidia Karten sind in der Regel 10-15% effizienter, nicht wie bei dem einen Game das ihr da raus lesst Total War das voellig irrelevant ist, und dazu noch ein DX11 Titel ist, wo AMD nicht gut optimierte Treiber hat. Alle Spiele die jetzt released werden mal AA Titel sind entweder DX12 oder Vulkan und daher ist der Benchmark dieses DX11 Titels irrelevant, selbst das andere Game Spiderman ist noch überdurchschnittlich weit weg aber selbst dort ist der Abstand so das wenn bei Nvidia 12gb nimmer reichen bei AMD 16gb noch reichen.
 
Zuletzt bearbeitet:
Drewkev schrieb:
Ja, aber nochmal, ich bezweifle dass man die RTX 4070 auf 170W oder gar 150W gedrückt bekommt ohne Leistung zu verlieren.

Warum nicht? Bei der 4070Ti funktioniert es schon mit nur 5-10% Leistungsverlust. Und die hat 285W TDP.
Die 4070 müsste da locker ohne Leistungsverlust hinkommen, vielleicht sogar drunter.

Drewkev schrieb:
Zumindest nicht pauschal.

Von Pauschal habe ich bis hierhin auch nichts gelesen. Wäre ja auch albern. Das würde ja den Idle-Betrieb mit einschließen, sowie Minimal-Last bei Video gucken oder Internet browsen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gortha
jak80 schrieb:
Ohne DLSS 3/Frame Generation und mit 100 Watt mehr Stromverbrauch.
In diesem Moment ja aber dir ist schon bekannt das FSR 3.0 vor der Tuer steht und das auch kann, und wahrscheinlich nicht auf die 7xxx reihe begrenzt, also das Argument zieht nur noch ein paar Wochen.
 
Drewkev schrieb:
Klar, kann man bei der RTX 4070 auch machen.
Und damit hat es sich doch erledigt. Ich kann heute auch aufstehen und das Powerlimit bei einer 4070 reduzieren, sicher auch so, dass man nur ganz wenig Leistung verliert...
Und wenn man schon das Effizienz-Argument reitet, dann bringt Frame Generation nochmal einen extremen Boost, sofern es das Spiel unterstützt. Damit zieht die 4070 dann nur noch 100 Watt und liefer dennoch in etwa die gleiche Spielbarkeit als bei 200W...

Ganz einfach: Das Effizienz Argument spricht für die 4070, genauso wie das V-ram Argument für die 69X0XT spricht, auch wenn das Stand heute noch nicht greift, es aber spätestens in 3 Jahren der Fall sein wird.
Genauso spricht für die Radeon die höhere Rasterleistung.

Drewkev schrieb:
Ich verstehe auch nicht wieso immer direkt mit sowas argumentiert wird, statt einfach auf sachlicher Ebene zu diskutieren.
Was hat denn das mit Sachlichkeit zu tun, wenn man andere als Fanboys bezeichnet, nur weil sie das anders sehen? Mit deiner Sachlichkeit scheint es ja nicht weit her zu sein.
Drewkev schrieb:
Auch ich mache Fehler und ich habe überhaupt kein Problem damit diese einzugestehen, es sei denn mir wird etwas vorgeworfen was so einfach nicht korrekt ist.
Stimmt. UV ist schon ein bisschen etwas anderes als das Powerlimit zu reduzieren. Und dennoch erwähntest du es nirgends. Das Powerlimit kann ich auf jeder anderen Karte auch reduzieren.
Drewkev schrieb:
dass die RX 6900 XT pauschal 100W mehr verbraucht stimmt so auch nicht und zu DLSS3/Frame Generation habe ich mehr als genug gesagt.
Doch, die 6900XT verbraucht ohne Eingriffe genau diese 100 Watt mehr, es sei denn die GPU wird nicht entsprechend ausgelastet, was aber dann auch den Verbrauch der 4070 reduziert.
Zu DLSS und Frame Generation hast du nichts gesagt, außer man würde es nicht brauchen, was ich aus Praxiserfahrung klar verneinen kann.
 
Eorzorian schrieb:
Nvidia hat mit dir anscheinend alles richtig gemacht. Jede Generation eine Grafikkarte kaufen zu müssen, weil die alte "beschnitten" auf den Markt geschmissen wird, rechfertigst du hier sogar.
Wirf mal einen Blick darauf und sag mal wie die Käufer sich fühlen sollen:
Nächstes Jahr gibt es dann ein Video von Hardware Unboxed das die 12GB der 4070/ti nicht reichen.
Ich freu mich das dann zu gucken!
 
Easy1991 schrieb:
Ja, schön wenn man ahnungslose abzockt, sei stolz auf dich.
Was heißt Ahnungslos. Ist ja nicht so als wenn da nicht 30 weitere 3070 im Angebot waren. Da ist der Typ selber schuld.
 
Connecto schrieb:
Welche Titel sind das? Wenn die älter sind und nicht so viel Leistung brauchen, braucht man auch kein RT, DLSS oder Reflex.
Apex mit RT wäre schon sehr nett. :D Bis die Beleuchtung in eSport-Titeln Einzug hält, braucht es aber wohl noch ein paar Jährchen: Kommen wird RT aber bestimmt auch dort. Spiele überdies sehr viele Retro-Shooter, Indiespiele wie Stardew Valley, populäre Coop-Titel wie Valheim, Farming Simulator oder 7 Days to die und einige Evergreens. Oben drauf eine riesige Ladung Mods für Fallout und Doom. Meistens komme ich erst zu AAA-Titeln, wenn diese schon ein Jahr oder mehr auf dem Buckel haben. Das Dilemma des Lebens vieler, die mit dem PC groß geworden sind: Genug Geld für alles, weniger Zeit für den PC und wenn man Steam startet, wartet der Freundeskreis mit MP-Titeln oder man will ein paar Stunden von nichts wissen und in ein behagliches Nostalgie-Retro-Gore-Loch fallen. :D

Trotzdem hoffe auch ich darauf, dass RT sich schnell verbreitet und auch Einsteigerkarten in einfacheren Titeln vernünftige Frameraten erreichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Connecto
DocWindows schrieb:
Weil selbst die ASUS RTX 4070 Dual laut TechPowerUp ab Werk ein Powerlimit von ~220W hat und selbst wenn wir von den 200W ausgehen das bei 150W ganze 25% weniger Stromverbrauch ohne Leistungsverlust wären, das kann ich mir einfach nicht vorstellen.

Klar könnte man jetzt sagen dass die eventuell das Powerlimit gar nicht ausreizt und deshalb so schon weniger verbraucht, aber das könnte man dann genauso auf die RX 6900 XT übertragen weshalb das Argument dann keines mehr wäre. Ich hab nämlich bei meiner TUF bisher nie mehr als 250W gesehen (ohne eingestelltes Powerlimit) außer vielleicht bei FurMark oder sowas.
 
sTOrM41 schrieb:
Das DLSS und Frame Generation zusätzlichen VRAM benötigen würden lese ich hier alle paar Tage
Du vergleichst glaub das falsche, der Massstab waere die Renderaufloesung also wenn du DLSS benutzt performance nimmt er ja glaub 1920x1080 als Renderaufloesung und rechnet das hoch, das braucht aber mehr VRAM als 1920x1080 Nativ... du kannst nicht mit Nativ hoher Auflösung vergleichen, die verbraucht eben noch mehr VRAM. So versteh ich das zumindest mag mich irren.
 
  • Gefällt mir
Reaktionen: Miuwa
Bei mir hat die 4070 eine 2060 abgelöst und ich bin zufrieden. AMD fällt halt raus wegen mangelndem CUDA Support - für only Gaming wäre eine AMD glaub ich meine Wahl gewesen, die sind schon echt gut.

Die 12 GByte sind zwar jetzt nicht üppig aber denke zumindest ok.

Unter Win beim Gaming habe ich die auch PowerLimit 75% laufen - aber als aktuell noch HD Monitor Besitzer ist das ja auch eh sinnfreie Leistung xD

Das ganze 4070 Paket ist doch nicht so schlecht was Verbrauch und Leistung angeht, es ist halt aktuell solide Mittelklasse denke ich.
 
Drewkev schrieb:
Das gilt aber nicht für (alle) Custommodelle .. die ASUS TUF bspw. hat ab Werk (!) ein Powerlimit von 272W, da wirst du nie eine 3 vorne sehen.
Stimmt nicht, die GPU hat wie auf der ASUS Website beschrieben auch eine TGP von 300 Watt.
 
Connecto schrieb:
Daran klammert sich niemand, es gehört aber nun mal zur Nvidia Karte dazu.
Ja genauso wie eben FSR 3.0 bei AMD, will jemand wirklich die Karte kaufen weil er ein paar Wochen früher (von Heute gerechnet) Frame Generation hat?
 
Zurück
Oben