Test Grafikkarten-Generationen im Test: GeForce GTX 1070, RTX 2070, 3070 & 4070 im Vergleich

  • Gefällt mir
Reaktionen: FR3DI
Zoba schrieb:
Jetzt würde mich noch das CPU-Limit interessieren. Ab wann greift so ein 6700k/7700k (Standard-CPU zur Zeit der 1070) zu hart rein, als dass sich eine 3070/4070 lohnen würde.

Das hier könnte einen Anhaltspunkt liefern:
https://www.computerbase.de/2023-12/gpu-braucht-cpu-2023-amd-test/2/

Ich z.B. habe einen 8700K und ne 4070; das dürfte ziemlich genau der 3600 + 3080 -Kombi entsprechen (wobei der 8700k noch ein wenig stärker ist: https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_benchmarks_in_games_fhd__uhd ). Man sieht hier, dass bei kleineren Auflösungen die CPU schon bremst. Je höher die Auflösung, desto weniger relevant wird die CPU.
Und hier kann man sehen, wo der 7700k zwischen 8700k und 1600X etwa liegt:
https://www.computerbase.de/2017-10/intel-coffee-lake-8700k-8400-8350k-8100-test/5/

Daraus kann man sicherlich einige Schlüsse ziehen.
 
  • Gefällt mir
Reaktionen: JonaHH und Zoba
Sehr schöner Test! Genau sowas gerne mehr. Hilft ungemein die Leistungssteigerung über mehrere Generationen hinweg zu vergleichen. :)
 
Sehr cooler Test und schön zu lesen. Die 1070 war über 6 Jahre in meinem PC bevor dann die 4080 gekommenen ist. Eben genau aus dem Grund, dass für (KI-) Anwendungen die 4000er Karten einen enormen Performance-Boost gebracht haben.

Interessant finde ich aber auch wie gut die 3070 in vielen Bereichen noch abschneidet. Die könnte man wirklich noch lange verwenden, wenn sie 12 GB vor 3 Jahren gehabt hätte. Meine 1070 konnte ich auch wegen den sehr großzügigen 8GB 2016 solange verwenden.
 
  • Gefällt mir
Reaktionen: M11E
Ayo34 schrieb:
Interessant finde ich aber auch wie gut die 3070 in vielen Bereichen noch abschneidet. Die könnte man wirklich noch lange verwenden, wenn sie 12 GB vor 3 Jahren gehabt hätte. Meine 1070 konnte ich auch wegen den sehr großzügigen 8GB 2016 solange verwenden.

Technisch halt nicht umsetzbar. Willst Du die Leistung der 3070 gehen nur die Wege 8 oder 16GB per Clamshell und dann wäre die Karte gute 150-200€ teurer gewesen. Mit 12GB hätte man das Interface geschmälert und die Anbindung zum Chip hätte eine Verkleinerung dessen mit sich gezogen und am Ende wäre eine 3060 12GB bei rum gekommen. Oh wait.... :freak:
 
shaboo schrieb:
Schwarz auf weiß steht dort genau Folgendes:

2070: UVP bei 499€
4070: UVP bei 599€ und ca. doppelt so schnell.


Daraus lässt sich grob erkennen, dass der Autor einen 20% höheren Preis für 100% mehr Leistung halbwegs angemessen findet.

Und genau das habe ich kritisiert, da ist die tatsächliche Zahl im Endeffekt unerheblich, er heisst den Umstand gut, dass die 4070 mehr kosten "darf", weil sie ja auch mehr leistet als die 2070. Absurd, denn das ist schlicht Preistreiberei und die stört mich. Kannst Du von mir aus mit Innovationen oder wie nVIDIA es halbherzig selber versucht mit den RT Features argumentieren (die dann bei nicht-RT Software wiederum absurd ist), aber doch nicht mit dem schlichten Fakt, dass eine zwei Generationen neuere Karte mehr leistet.

Eine x70 war, seit es nVIDIA gibt, schneller als eine (X-1)70 und kostete immer in etwa gleich viel. Warum in den letzten Jahren plötzlich auch bei den Kunden die Bereitschaft entstanden ist, dass die X70 sowieso 20% mehr kosten darf, weil sie ja die 20% oder mehr schneller ist als die (X-1)70 Karte, verstehe ich nicht und weil offensichtlich die Message nicht ankommt, wird dann eben von meiner Seite übertrieben. Simple as that.

Wenn Hardware in den letzten 20-30 Jahren immer mehr gekostet hätte, weil die neuen Generationen mehr leisten, könnte sich heute niemand mehr einen Rechner leisten. Nimm Deine CPU als Beispiel, die kostet auch nicht mal ansatzweise soviel mehr, wie sie bspw. mehr als ein Pentium 4 leistet. Deine 32GB RAM kosten auch nicht mehr als 512MB RAM im Jahr 2000, ebenso wenig ist eine 2TB m.2 SSD 10x so teurer wie eine 2GB SATA HDD. Also warum zum Geier wird dieser Aufschlag bei Grafikkarten akzeptiert? Verstehe ich nicht.
 
  • Gefällt mir
Reaktionen: ErichH., M11E, Nefcairon und 2 andere
Bin im letzten Jahr von der 1070 auf 4070 gewechselt und mehr als zufrieden....für meine Zwecke wird die wohl wieder für viele Jahre ausreichend sein.
 
DevPandi schrieb:
Man merkt an der Entwicklung ein Stückweit, dass wir uns langsam dem Ende der "klassischen" Silizium-Chips näher. Während die 90er und 00er sowie frühen 10er davon geprägt waren, dass quasi die Prozesse gleichbedeutend waren mit schneller und sparsamer bei Energie, wird das jetzt doch komplizierter.
Naja, die 290 hat auch schon 300W gebraucht, die 970 halt so gar nicht :D
Dafür hatte man bei Nvidia aber Termi / Fermi finde ich gerade nur 470W fürs Gesamtsystem mit der 480. Getestet und leicht über 300W laut wikipedia für die GTX480 und 230-240W für die GTX 470.

Das wir uns langsam dem Ende nähern ... tun wir schon eine ganze Weile. Irgendwann wird das auch bestimmt stimmen und nicht nur eine Phase sein.

Edit: Oh und gar nicht gemerkt das es dein Artikel war. Toller Artikel.
 
Zuletzt bearbeitet:
DevPandi schrieb:
Wie viele FPS liefert eine GTX 1070 in aktuellen Spielen?
Jan schrieb:
Beide Daumen hoch für @DevPandi !
Joa... war ganz schön überrascht als der Panda Avatar da plötzlich im ersten Post war. Den ersten Test mit den AMD Karten habe ich gekonnt ignoriert da mich da der Generationenvorsprungt nicht so interessierte. Daher hier gleich aus allen Wolken gefallen.
Find ich aber wirklich Super. DevPandi hat bereits mehrfach bewiesen ein sehr tiefes Fachwissen zu besitzen und auch die nötige Artikulation dazu das ganze interessant und strukturiert darzustellen.

Ich hoffe das bleibt nicht nur als Freier Author sondern dass Sie auch in Zukunft Computerbase tatkräftig unterstützen wird.

mfg
 
  • Gefällt mir
Reaktionen: Krazee, Grübelfisch, Nihil Baxxter und eine weitere Person
Quidproquo77 schrieb:
wahrscheinlich würde die 4070 sogar den Vollausbau nutzen und wäre bei ähnlicher TDP so stark wie die 4070 Ti.
Waren traditionell nicht die Ti Karten der Vollausbau? Oder erinnere ich mich da nur falsch?
 
AnkH schrieb:
da ist die tatsächliche Zahl im Endeffekt unerheblich, er heisst den Umstand gut, dass die 4070 mehr kosten "darf", weil sie ja auch mehr leistet als die 2070. Absurd, denn das ist schlicht Preistreiberei und die stört mich.
Dass alles in den letzten Jahren teurer geworden ist, ignorieren wir einfach mal?

Die Namen der Karten sind dabei auch unerheblich, würde es dich weniger stören wenn man die 4060Ti 4070 genannt hätte und dann von der 2070 aus 75% schneller und 60€ günstiger geworden wäre ?

Was zählt ist immer, wie viel mehr Performance man fürs Geld bekommt, nicht wie die Karte dann heißt.

AnkH schrieb:
Eine x70 war, seit es nVIDIA gibt, schneller als eine (X-1)70 und kostete immer in etwa gleich viel. Warum in den letzten Jahren plötzlich auch bei den Kunden die Bereitschaft entstanden ist, dass die X70 sowieso 20% mehr kosten darf
Die Leute haben sich vielleicht auch einfach etwas mehr damit beschäftigt was die Produktion der Karten mittlerweile kostet und das die Zeiten in denen neue Prozesse die Produktion günstiger gemacht haben, lange vorbei sind.
Ohne einen technologischen Durchbruch werden die Preise auch nicht mehr fallen können.
Unter der Voraussetzung ist es halt für viele hinnehmbar, dass die Karten teurer geworden sind, solange die Performance weiterhin so stark steigt, dass man für den Preis der alten Karte auch eine neue mit immer noch mehr Leistung bekommt
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Krazee
Das gilt für alle 2, oder alle 3 Lager:

sethdiabolos schrieb:
Willst Du die Leistung der 3070 gehen nur die Wege 8 oder 16GB per Clamshell und dann wäre die Karte gute 150-200€ teurer gewesen. Mit 12GB hätte man das Interface geschmälert und die Anbindung zum Chip hätte eine Verkleinerung dessen mit sich gezogen und am Ende wäre eine 3060 12GB bei rum gekommen.
Ob nun eine andere Grundplanung des SI, ob Clamshell, oder ob eine Bestückung mit ungeraden Speichersteinen zugrunde liegt. Wie der Anbieter das bewerkstelligt, darf dem Kunden erst mal egal sein.


Unverschämt teuer sind die Produkte ohnehin.

Quartalszahlen: Nvidia sprengt Erwartungen mit Rekordumsatz und Gewinn



Frei nach Gunther Dueck:
"Es existiert ein 'Problem'. Mach es weg. Mach es so weg, dass selbst meine Frau es ohne Probleme benutzen kann".
 
  • Gefällt mir
Reaktionen: Three of Nine
yamiimax schrieb:
Scheinbar kostet VRam (oder einen hohere Anbindung) halt viel Watt?

Gier/Konkurrenz... alles was geht aus jedem Chip raus quetschen und so hoch wie möglich im Lineup platzieren.

Bei der 3070/Ampere hat NVIDIA zusätzlich noch auf die bessere TSMC Fertigung verzichtet. Sowie auf eine VRAM Steigerung. Die Leistung stieg um 60%, die Leistungsaufnahme um 26% (≈34%) und der VRAM um 0%... in meinen Augen nichts was man feiern müsste.

Die 4070 liefert nur 22% mehr Leistung bei 10% weniger Leistungsaufnahme (≈32%) und 50% mehr VRAM.


2070 -> 3070 = 🥳
3070 -> 4070 = ☹️

Ernsthaft..?! :rolleyes:
 
Zuletzt bearbeitet:
DevPandi schrieb:
Wie viele FPS liefert eine GTX 1070 in aktuellen Spielen? Und wie viel schneller ist die RTX 4070 in Dauerbrennern wie Anno 1800 oder Overwatch 2? ComputerBase vergleich vier Generationen aus Nvidias 70er Serie: GeForce RTX 4070 vs. RTX 3070 vs. RTX 2070 vs. GTX 1070 in zehn Spielen im Test.

Zum Test: Grafikkarten-Generationen im Test: GeForce GTX 1070, RTX 2070, 3070 & 4070 im Vergleich
Ahoj DevPandi !

Bitte nicht falsch verstehen, meiner einer mag/schätzt Dein Urteil bzgl. Insider bzw. Fachmännischem (sorry, mir fällt grad das xx - Chromosom spezifische Wort nicht ein) Wissen. Aber solche "Vergleiche" zu Release einer neuer Gen (Refresh) hören/lesen sich immer : Los kauf den Shice und schau auf die Länge der Balken. :rolleyes:
 
Diese Argumentation den Preis mit der Geschwindigkeit gleichzusetzen. Das ist doch ein absolut blödsinniger Vergleich. Dann müsste ich also auch das 10.000x eines Pentium 60Mhz zahlen wenn ich einen Ryzen 32 Kerner nehme? Ich meine ist ja mindestens so viel schneller. Entweder habt ihr zu viel Nvidia und AMD Werbung gefressen, oder glaubt da eine Korrelation gefunden zu haben wo keine ist.

Entry Level ist Entry Level und High Performance ist High Performance. Ihr könnt gerne die Inflation einberechnen. Aber doch nicht einfach Preis und Performance gleichsetzen. So was albernes. Ich meine mich als Nvidia Aktionär freut es, aber inhaltlich verfehlt ^^
 
  • Gefällt mir
Reaktionen: Nefcairon und AnkH
Taxxor schrieb:
Dass alles in den letzten Jahren teurer geworden ist, ignorieren wir einfach mal?
[...]
Die Leute haben sich vielleicht auch einfach etwas mehr damit beschäftigt was die Produktion der Karten mittlerweile kostet und das die Zeiten in denen neue Prozesse die Produktion günstiger gemacht haben, lange vorbei sind
Gegenfrage: warum kostet eine Intel CPU nicht dermassen viel mehr im Vergleich zu vor ein paar Jahren? Ich sags Dir: weil Intel keine CPU verkauft bekäme so, obwohl exakt (!) die selben Argumente aufgeführt werden könnten: ein 14700K leistet viel mehr als ein i7-7700k, trotzdem kommen beide für ungefähr 400€ auf den Markt? Hmm...
 
  • Gefällt mir
Reaktionen: Nefcairon und Three of Nine
AnkH schrieb:
ein 14700K leistet viel mehr als ein i7-7700k, trotzdem kommen beide für ungefähr 400€ auf den Markt? Hmm...
$339 beim 7700K und $409 beim 14700K, genau die 20% mehr wie die 4070 teurer als die 2070 ist und ebenfalls ca die doppelte Gaming Performance

Und ja Konkurrenz ist auch ein Faktor, hier aber eher umgekehrt, der 7700K hatte weniger Konkurrenz und wäre ansonsten wohl noch etwas günstiger gewesen, der Unterschied zum 14700K also noch größer.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MrHeisenberg, Quidproquo77, MoinWoll und eine weitere Person
Bouncer503 schrieb:
Mhhh. Ich benutze noch eine 2070 und sehe das anders.

2070: UVP bei 499€
4070: UVP bei 599€ und ca. doppelt so schnell.
"Normal" war mal (nach 2 Gen) doppelt so schnell und statt 499 € entweder gleich teuer oder nen 10´er (489 €) günstiger.
Dank Leuten wie Dir (mit dieser Einstellung) haben just Preise wie sie eben sind.
Danke nochmal ... :stock:
 
  • Gefällt mir
Reaktionen: Nefcairon und blackiwid
Da ich hier noch Computer mit einer 1080 und einer 1070 habe war das tatsächlich sehr nützlich für mich.
Vielen Dank @

DevPandi

 
  • Gefällt mir
Reaktionen: Sam Miles und DevPandi
Zurück
Oben