News GeForce RTX 4070 im Doppelpack: Nvidias Mittelklasse soll mit deutlich weniger Takt arbeiten

Ich blicke da nicht mehr durch....das schneller als das, dafür langsamer und trozdem schneller , da weniger Speicher, da mehr Anbindung usw.

Behaltet den Kram. Ich werde nix mehr kaufen, sondern in zukunft nur noch streamen...
 
"Deutlich" weniger Takt für "deutlich" weniger Euros, also so ~300 - ~400 für einen doppelt so schnellen 1070 Ersatz, wäre ok :Y
 
4lter5ack schrieb:
Du, Nvidia, ich muss dir mal was sagen...
Ich hab dich echt nicht mehr lieb.

Wir hatten schöne Tage zusammen.
Deine Riva 128 war für mich was völlig Neues, was ich vorher nicht kannte.

Deine GeForce 2 MX zeigte mir Bilder, die ich nie zuvor gesehen hatte (Heavy Metal FAKK <3).

Aber danach kamen soviele Enttäuschungen (BGA und Hitzetode) dass es mir echt vergangen ist und mich zu meiner roten Freundin (ab Radeon 9600 XT) brachte (geile Sau !)

Was du allerdings heute so machst, ist wirklich nicht mehr feierlich !

Mittelklasse-Leistung zu Preisen zu denen ich ganze PC-Builds zusammenstelle - da fällt mir nix mehr ein !
Es ist aus...

Ruf mich bitte nicht mehr an !

Hört sich ja so an als wäre AMD im GPU Sektor besser, die boomen mit ihren Preisen doch genauso mit..
 
Bei der 5000er Generation von Nvidia wird dann wieder gesagt "5070 hat die Leistung der 4080 und kostet 'nur' 599€!" Und alle werden drauf anspringen :D

Hat bei der 3000er Serie ja ganz gut funktioniert ;) wenn man den Crypto boom und die Chip Knappheit weglässt.
 
PTS schrieb:
Hört sich ja so an als wäre AMD im GPU Sektor besser, die boomen mit ihren Preisen doch genauso mit..
Ich glaub sein Post war eher ironisch gemeint.. so habe ich ihn zumindest verstanden..


Was AMD angeht.. die kochen auch nur mit Wasser.. der "Underdog" ist AMD schon lange nicht mehr.

Die RX6000er Serie war ganz gut und konnte mit Nvidias rtx3000er mithalten..(Mal von Raytracing abgesehen)
Aber im Duell rx7000 vs rtx4000 sieht AMD im Moment kein Land..

Einerseits weil die Hardware schwächelt..
AMDs Topmodel hat schon seine schwierigkeiten es mit der RTX4080 aufzunehmen

Stromverbrauch und effizients sind ebenfalls bedeutend schlechter bei den AMD karten


Und der witz ist...Realistisch gesehen legt Nvidia auch bei den rtx4000er noch viel zuviel vcore an.. die rtx 4000er Karten sind wahre UV Monster..
Wenn ich meine rtx4080 so ansehe
Gametakt von 2775mhz @1.075V (Standart boost ohne was gefummelt zu haben)
Diese 2775mhz laufen aber auch bei unter 1V vcore stabil.. (2900mh@1V ist timespy stable)
Das sind Grade Mal knapp über 220watt


Das Feature Set ..
Auch wenn ich per se nix von upscsling halte muss ich ehrlich sagen das im direkten Vergleich DLSS besser weg kommt bei den Spielen wo ich es selbst vergleichen kann.
DLSS 3.0 mit framegeneration ist vielleicht kein Gamechanger.. aber ein ordentlicher framerate boost.

Dann sind wir bei den Treibern.. die von AMD funktionieren.. ist auch schön das man im Menü übertakten kann .
Aber realistisch führt jegliches verstellen oder gefummel nur dazu das der Treiber abschmiert und alle oc Einstellungen sich resetten..


Dann sind wir bei dem nächsten Punkt ..
Ich kann bei Nvidia Sachen per Treiber Forcieren.. bei AMD nicht..

Will ich 16x anisotrope Filterung in einem DX10+ Spiel dann funktioniert das.. auch wenn das ingame AF fürn Arsch ist.. (ganz schön viele Spiele wo 16x ingame nicht wirklich Funktioniert)
Bei AMD funktionieren die ganzen quality settings im Treiber nicht bei allen was DX10+ ist

Was bei AMD besser funktioniert ist REBAR/Smart Access Memory
Aber auch nur weil ihre Grafikkarten das Feature global aktivieren..
Bei Nvidia muss man das bei jedem Spiel einzeln forcieren weil die mit ner Whitelist (19 spiele aktuell) arbeiten.
Da bekommt auch Mal so n aktueller Titel wie COD MW2 noch n netten Performance boost
 
Für mittlere details kaufe ich kein Vollpreistitel
 
  • Gefällt mir
Reaktionen: DiamondDog
JP-M schrieb:
"Deutlich" weniger Takt für "deutlich" weniger Euros, also so ~300 - ~400 für einen doppelt so schnellen 1070 Ersatz, wäre ok :Y

AMD Radeon: RX 6700 XT c.a. um 400 Euro

RX 6700 XT vs GTX 1070 Benchmark – 59 Tests


Ich habe selber noch die 1070 und habe ein Auge auf die 6800 (Stromsparender + RAM bei mehr Leistung), ab und zu fallen einige auf knapp 500 Euro.

 
  • Gefällt mir
Reaktionen: JP-M und DerRico
PTS schrieb:
Hört sich ja so an als wäre AMD im GPU Sektor besser, die boomen mit ihren Preisen doch genauso mit..
Ich habe ja nicht gesagt, dass die aktuellen AMD-Karten besser/günstiger sind.
Grundsätzlich ist mir AMD, aus der Historie gesehen, sympathischer.

Daher wird meine nächste Karte auch wieder rot.
Ich werde mir vermutlich eine gebrauchte 67x0 kaufen, sobald die für ca. 200€ zu kriegen ist....
 
Blops234 schrieb:
@TenDance Du vergisst das mit Ada auch ein ähnliches System zum Infinity Cache eingeführt worden ist. Wenn die 4070ti in UHD wirklich in einem Bandbreitenlimit hängen würde, wäre VRAM OC bei der Karte deutlich effektiver. Die 4070ti bekommt weniger, dafür höher taktende FPU pipelines in niedrigeren Auflösungen besser ausgelastet als die höhere Anzahl an pipelines der 3090Ti. Das macht sich z.B. auch im Stromverbrauch bemerkbar.

Ich versteh dieses Geschwurbel nicht. Erinner tmich an die High Performance Gaming-Takte von Intel.

Es gibt TESTS (z.B. https://www.computerbase.de/2023-01...chmarks_mit_und_ohne_raytracing_in_3840__2160) in denen steht:

In 3.840 × 2.160 bleibt die GeForce RTX 4070 Ti in Rasterizer-Spielen dann plötzlich um 6 Prozent hinter der GeForce RTX 3090 Ti und um 1 Prozent hinter der GeForce RTX 3090 zurück. Die Mehrleistung zur GeForce RTX 3080 Ti liegt dann nur noch bei 7 Prozent, in WQHD waren es noch 13 Prozent. Die RTX 4070 Ti verliert in der höheren Auflösung demnach prozentual mehr Leistung als die älteren Modelle.
Während die GeForce RTX 4070 Ti in WQHD noch vergleichbar schnell zur Radeon RX 7900 XT ist, gelingt das der Nvidia-Grafikkarte in Ultra HD nicht mehr und die Radeon liefert 8 Prozent mehr FPS. Der Rückstand zur GeForce RTX 4080 wächst von 18 auf 25 Prozent.

Neuere Spiele erhöhen die Last idR und verringern sie nicht, weswegen sich solche Tendenzen in der Vergangenheit immer verdeutlicht haben je länger die Karte in Gebrauch war.
Und wir reden hier primär vom Vergleich zur 4080 um zu sehen wie sich die Architektur entwickelt wenn man ihr Breite aka Silizium-Fläche wegnimmt.
Die "normale" 4070 ist ja nochmal kleiner geschnitten als die 4070Ti - auch hier suggeriert der Name ja eher etwas wie "bissi mehr Takt und Speicher".

Kernpunkt des oben verlinkten Tests ist - für mich - aber folgendes:

DLSS Quality in Ultra HD bedeutet zugleich wieder WQHD als Renderauflösung, was der GeForce RTX 4070 Ti wie oben beschrieben deutlich besser schmeckt als UItra HD.

Und genau da liegt der Hund begraben. nVidia nutzt DLSS um uns Mittelklasse-GPUs als Highend zu verkaufen. Zumindest zum Highend-Preis. Von mir aus kann DLSS einen Aufpreis von 10% rechtfertigen, aber derzeit liegt die 4070Ti in der Leistung (in UHD) durchschnittlich 20% vor einer RTX 3080. Das wäre, zusammen mit den Verbesserungen bei RT und DLSS, für mich in etwa ein adäquater Evolutionssprung. Sprich, das sind GPUs derselben Kategorie.

Nur kostet die 4070Ti als "Nachfolgerin" fast das Doppelte. Inflation hin oder her (der Euro hat sich zuletzt auch wieder etwas gefangen), das ist für mich nicht zu erklären.
 
peakyblinder schrieb:
Doch, sind sie beide. Aber mit 24GB VRAM und höherer Speicheranbindung (384bit). Die 4070Ti kommt mit 12GB VRAM und 192bit. Die 4070Ti ist zwecks dieser Anbindung schlechter und nur DLSS 3.0 macht die Graka noch halbwegs attraktiv. Für FULLHD ein Monster, gut ist. Die 4070 wird dann die optimale Karte für 1080p, sofern der Preis nach unten hin angepasst wird. Schau dir die Tests an…
Viel Geschwätz mit null Fakten.

Hier die Meta-Analyse: Seite 2 & 3 sind relevant:
https://www.3dcenter.org/artikel/la...ch-analyse-nvidia-geforce-rtx-4070-ti-seite-2
&
https://www.3dcenter.org/artikel/la...ch-analyse-nvidia-geforce-rtx-4070-ti-seite-3
peakyblinder schrieb:
Selbst getestet und auch x andere im Netz.

peakyblinder schrieb:
Nope. In WQHD, bspw in Horizon Zero Dawn, gibt es Ruckler. Schau dir die Tests dazu an.
Kann nur ein Ausrutscher vom Treiber sein. Oder schlecht programmiert im Spiel und ein Update behebt das ganze. Mit 12 GB VRam gibt es keinem Titel Einschränkungen in 1440p. Das soll also irgenwas aussagen? Ein Titel?
Wo ist der Test? Gibt es einen mit neuerem Treiber?

...Ich sagte es doch, mehr als Stammtischgelaber kommt hier nicht.
 
  • Gefällt mir
Reaktionen: CiX
KlaasKersting schrieb:
Die 4070 wird in 4k mindestens doppelt, wenn nicht eher 2,5x so schnell sein wie die 1080.

Wenn das für dich nicht so wahnsinnig weit vorne ist, weiß ich es auch nicht.

2,5 fach?
Das schafft ja nicht mal die 4070Ti ohne DLSS über die gesamte Bandbreite. Bei neueren Spielen, ja, aber sobald die engines etwas älter werden ist die 4070Ti etwas oberhalb von Faktor 2.
Die 4070 verliert eine große Menge Transistoren... je nachdem ob sich die 4070 mit Leichtigkeit auf die Taktraten der 4070Ti bringen lässt, kann man das ein wenig abfangen. Aber sie verliert fast ein Viertel der shader.

Gerade stock wird der Leistungsunterschied mal wieder deutlich größer als es der Namensunterschied ("Ti") suggeriert. Die 4070 könnten sie auch als 4060 verkaufen. Wird bestimmt eine anständige WQHD-Karte (über den Preis reden wir dabei nicht), aber für UHD ist die nicht gebaut.
 
iGameKudan schrieb:
Verschwörungstheoretiker-Ecke schieben ("Derart haltlose Behauptungen darfst Du getrost bei Telegram lassen.")
Was hat dieser sehr gute Messenger mit Verschwörungstheorien zu tun?
Nebenbei werden Verschwörungstheorien sehr oft wahr...^^ dann haben es alle immer schon gewusst :p

Ich denke aber auch, dass gerade unsere deutsche Politk und die EU Rahmenbedingunen(an denen Deutschland auch sehr viel Entscheidungsgewalt hat) sehr wohl maßgeblich für die Inflation verantwrtlich sind.
nn|none schrieb:
Statista listet für 2022 eine globale Inflationsrate von 8.75%. Das Phänomen ist nicht auf Deutschland begrenzt und hat mit "unserer Politik" herzlich wenig zu tun. Derart haltlose Behauptungen darfst Du getrost bei Telegram lassen. Danke.
Dir ist bewusst, dass man Statistiken so aussehen lassen kann wie man will? Schon mal was von dem Warenkorb gehört für den Verbraucherpreisindex? Das dieser so gestaltet werden kann, durch weglassen oder hinzufügen von Produkten oder anderer Gewichtung das gewünschte Ergebnisse rauskommen? ;)

Die "wahre" Inflation sieht anders aus.
 
Zuletzt bearbeitet:
TenDance schrieb:
Die 4070 könnten sie auch als 4060 verkaufen. Wird bestimmt eine anständige WQHD-Karte (über den Preis reden wir dabei nicht), aber für UHD ist die nicht gebgebaut
Ne aber die 4070 ti hehe
 
Slavicgirl schrieb:
hat nichts mit BC zu tun. selbst bei 100.000 kurs würden die 4000er nicht ausverkauft.

den ETH ist auf POS umgestellt. punkt da ändert btc kurs auch nix

was für ein quatsch.

eth konnte jeder per gpu minen, und viele privat personen haben dies auch getan.

du hast teilweise recht es wurde alles leer gekauft 90% von minern, oder wiederverkäufern, am ende landeteten die zu 90% in crypto hotels und mining leuten etc.

weil es sich lohnte spielt keine rolle ob 1.5k oder 1000€

dass der gesamte CryptoMarkt inklusive der meisten Coins sich am Kurs des BTC orientiert und fast parallel dazu verläuft, siehst du doch aber oder?

Und genau diese Abhängigkeit habe ich gemeint, nichts technisches.

oder was haben die Miner mit den Karten gemacht, nach Pokemons gesucht?
 
Zur 4070 zurück.
Ich denke das wird bei einem attraktiv niedrigen Preis eine tolle Karte, da sie locker die Takte der 4070Ti und anderer RTX4000er GPUs erreichen können wird.
2800Mhz für die GPU stellen also höchstwahrscheinlich kein Problem dar.

Mal sehen, wenn sie unter 500€ für das Teil gehen, wird das ein Kassenschlager.
 
Was meinst mit unter 500 Euro?
4050 ti unter 500 wäre realistisch junge
4060 mind 500 und die 4070 kostet mind. 700 also wie die 3070 damals
 
yamiimax schrieb:
4050 ti unter 500 wäre realistisch junge

junGEH ey^^

Nein, ich meine wie ich schrieb, die RTX4070 non-Ti für <=500€.
Neben den nur 46 SMs gegenüber den 60 SMs der größeren 4070Ti, sind die niedrigen Basis- und Boost-Takte wohl der Ansatz, um die Stock-Leistung der Karte noch etwas weiter zu drücken, damit ein niedriger Preis gerechtfertigt werden kann.
Aber auch wenn sie <=600€ als Preis festsetzen, dann wäre das immer noch ein Kassenschlager.
Ergänzung ()

yamiimax schrieb:
700 also wie die 3070 damals
Die 3070 hat nie 700 Flocken gekostet.
Afaik ~519€ war der Preis für die FE-Version damals.
Haut man Inflation drauf, kann es gut und gerne bei 600€ für die 4070 landen, aber mehr denke ich nicht.
 
Gortha schrieb:
junGEH ey^^

Nein, ich meine wie ich schrieb, die RTX4070 non-Ti für <=500€.
Neben den nur 46 SMs gegenüber den 60 SMs der größeren 4070Ti, sind die niedrigen Basis- und Boost-Takte wohl der Ansatz, um die Stock-Leistung der Karte noch etwas weiter zu drücken, damit ein niedriger Preis gerechtfertigt werden kann.
Aber auch wenn sie <=600€ als Preis festsetzen, dann wäre das immer noch ein Kassenschlager.
Ergänzung ()
Klar weil es 3080 Leistung ist 600 wäre top
Gortha schrieb:
Die 3070 hat nie 700 Flocken gekostet.
Afaik ~519€ war der Preis für die FE-Version damals.
Haut man Inflation drauf, kann es gut und gerne bei 600€ für die 4070 landen, aber mehr denke ich nicht.
Doch als es mit den minern angefangen hat n Kumpel mal ne 3070 für 700 geblecht
 
Gortha schrieb:
Mit 12 GB VRam gibt es keinem Titel Einschränkungen in 1440p.
In 1440p, du sagst es. Selbst CB bescheinigt der 4070Ti zu wenig VRam: https://www.computerbase.de/2023-01/nvidia-geforce-rtx-4070-ti-test/4/#abschnitt_fazit

"Weniger beeindruckend ist hingegen der Speicherausbau. 12 GB sind zwar 50 Prozent mehr VRAM als bei der GeForce RTX 3070 Ti, was aber nichts daran ändert, dass die Radeon RX 7900 XT mit 20 GB klar mehr bietet und 12 GB auch heute schon nicht mehr durchweg den optimalen Betrieb ermöglichen und in Zukunft von Zeit zu Zeit zu wenig sein werden. Wer zum Beispiel in Spider-Man Remastered in Ultra HD inklusive Raytracing im Nachhinein DLSS aktiviert oder umschaltet, rennt sofort in einen VRAM-Mangel."

Also ich würde mir keine Karte holen die je nach Game schon heute ins Limit läuft. Aber stimmt schon, für 1440p passt die Karte.
 
Zurück
Oben