Na wenn das mal nicht die Rehabilitation für den 970'er Ruf ist, dann habe ich auch keine Ahnung!FR3DI schrieb:Was man nicht weiß, macht einen nicht heiß?
G-Empire GTX 970 8 GB
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Grafikkarten-Generationen im Test: GeForce GTX 1070, RTX 2070, 3070 & 4070 im Vergleich
Banned
Admiral
- Registriert
- Sep. 2014
- Beiträge
- 9.833
Zoba schrieb:Jetzt würde mich noch das CPU-Limit interessieren. Ab wann greift so ein 6700k/7700k (Standard-CPU zur Zeit der 1070) zu hart rein, als dass sich eine 3070/4070 lohnen würde.
Das hier könnte einen Anhaltspunkt liefern:
https://www.computerbase.de/2023-12/gpu-braucht-cpu-2023-amd-test/2/
Ich z.B. habe einen 8700K und ne 4070; das dürfte ziemlich genau der 3600 + 3080 -Kombi entsprechen (wobei der 8700k noch ein wenig stärker ist: https://www.computerbase.de/2019-07/amd-ryzen-3000-test/3/#abschnitt_benchmarks_in_games_fhd__uhd ). Man sieht hier, dass bei kleineren Auflösungen die CPU schon bremst. Je höher die Auflösung, desto weniger relevant wird die CPU.
Und hier kann man sehen, wo der 7700k zwischen 8700k und 1600X etwa liegt:
https://www.computerbase.de/2017-10/intel-coffee-lake-8700k-8400-8350k-8100-test/5/
Daraus kann man sicherlich einige Schlüsse ziehen.
The_Mat_91
Ensign
- Registriert
- Apr. 2022
- Beiträge
- 132
Sehr schöner Test! Genau sowas gerne mehr. Hilft ungemein die Leistungssteigerung über mehrere Generationen hinweg zu vergleichen.
- Registriert
- Feb. 2019
- Beiträge
- 5.662
Sehr cooler Test und schön zu lesen. Die 1070 war über 6 Jahre in meinem PC bevor dann die 4080 gekommenen ist. Eben genau aus dem Grund, dass für (KI-) Anwendungen die 4000er Karten einen enormen Performance-Boost gebracht haben.
Interessant finde ich aber auch wie gut die 3070 in vielen Bereichen noch abschneidet. Die könnte man wirklich noch lange verwenden, wenn sie 12 GB vor 3 Jahren gehabt hätte. Meine 1070 konnte ich auch wegen den sehr großzügigen 8GB 2016 solange verwenden.
Interessant finde ich aber auch wie gut die 3070 in vielen Bereichen noch abschneidet. Die könnte man wirklich noch lange verwenden, wenn sie 12 GB vor 3 Jahren gehabt hätte. Meine 1070 konnte ich auch wegen den sehr großzügigen 8GB 2016 solange verwenden.
sethdiabolos
Commodore
- Registriert
- Aug. 2004
- Beiträge
- 4.389
Ayo34 schrieb:Interessant finde ich aber auch wie gut die 3070 in vielen Bereichen noch abschneidet. Die könnte man wirklich noch lange verwenden, wenn sie 12 GB vor 3 Jahren gehabt hätte. Meine 1070 konnte ich auch wegen den sehr großzügigen 8GB 2016 solange verwenden.
Technisch halt nicht umsetzbar. Willst Du die Leistung der 3070 gehen nur die Wege 8 oder 16GB per Clamshell und dann wäre die Karte gute 150-200€ teurer gewesen. Mit 12GB hätte man das Interface geschmälert und die Anbindung zum Chip hätte eine Verkleinerung dessen mit sich gezogen und am Ende wäre eine 3060 12GB bei rum gekommen. Oh wait....
shaboo schrieb:Schwarz auf weiß steht dort genau Folgendes:
2070: UVP bei 499€
4070: UVP bei 599€ und ca. doppelt so schnell.
Daraus lässt sich grob erkennen, dass der Autor einen 20% höheren Preis für 100% mehr Leistung halbwegs angemessen findet.
Und genau das habe ich kritisiert, da ist die tatsächliche Zahl im Endeffekt unerheblich, er heisst den Umstand gut, dass die 4070 mehr kosten "darf", weil sie ja auch mehr leistet als die 2070. Absurd, denn das ist schlicht Preistreiberei und die stört mich. Kannst Du von mir aus mit Innovationen oder wie nVIDIA es halbherzig selber versucht mit den RT Features argumentieren (die dann bei nicht-RT Software wiederum absurd ist), aber doch nicht mit dem schlichten Fakt, dass eine zwei Generationen neuere Karte mehr leistet.
Eine x70 war, seit es nVIDIA gibt, schneller als eine (X-1)70 und kostete immer in etwa gleich viel. Warum in den letzten Jahren plötzlich auch bei den Kunden die Bereitschaft entstanden ist, dass die X70 sowieso 20% mehr kosten darf, weil sie ja die 20% oder mehr schneller ist als die (X-1)70 Karte, verstehe ich nicht und weil offensichtlich die Message nicht ankommt, wird dann eben von meiner Seite übertrieben. Simple as that.
Wenn Hardware in den letzten 20-30 Jahren immer mehr gekostet hätte, weil die neuen Generationen mehr leisten, könnte sich heute niemand mehr einen Rechner leisten. Nimm Deine CPU als Beispiel, die kostet auch nicht mal ansatzweise soviel mehr, wie sie bspw. mehr als ein Pentium 4 leistet. Deine 32GB RAM kosten auch nicht mehr als 512MB RAM im Jahr 2000, ebenso wenig ist eine 2TB m.2 SSD 10x so teurer wie eine 2GB SATA HDD. Also warum zum Geier wird dieser Aufschlag bei Grafikkarten akzeptiert? Verstehe ich nicht.
Seinfeldfreak
Lt. Junior Grade
- Registriert
- Jan. 2003
- Beiträge
- 435
Bin im letzten Jahr von der 1070 auf 4070 gewechselt und mehr als zufrieden....für meine Zwecke wird die wohl wieder für viele Jahre ausreichend sein.
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.869
Naja, die 290 hat auch schon 300W gebraucht, die 970 halt so gar nichtDevPandi schrieb:Man merkt an der Entwicklung ein Stückweit, dass wir uns langsam dem Ende der "klassischen" Silizium-Chips näher. Während die 90er und 00er sowie frühen 10er davon geprägt waren, dass quasi die Prozesse gleichbedeutend waren mit schneller und sparsamer bei Energie, wird das jetzt doch komplizierter.
Dafür hatte man bei Nvidia aber Termi / Fermi finde ich gerade nur 470W fürs Gesamtsystem mit der 480. Getestet und leicht über 300W laut wikipedia für die GTX480 und 230-240W für die GTX 470.
Das wir uns langsam dem Ende nähern ... tun wir schon eine ganze Weile. Irgendwann wird das auch bestimmt stimmen und nicht nur eine Phase sein.
Edit: Oh und gar nicht gemerkt das es dein Artikel war. Toller Artikel.
Zuletzt bearbeitet:
Haldi
Admiral
- Registriert
- Feb. 2009
- Beiträge
- 9.786
DevPandi schrieb:Wie viele FPS liefert eine GTX 1070 in aktuellen Spielen?
Joa... war ganz schön überrascht als der Panda Avatar da plötzlich im ersten Post war. Den ersten Test mit den AMD Karten habe ich gekonnt ignoriert da mich da der Generationenvorsprungt nicht so interessierte. Daher hier gleich aus allen Wolken gefallen.Jan schrieb:Beide Daumen hoch für @DevPandi !
Find ich aber wirklich Super. DevPandi hat bereits mehrfach bewiesen ein sehr tiefes Fachwissen zu besitzen und auch die nötige Artikulation dazu das ganze interessant und strukturiert darzustellen.
Ich hoffe das bleibt nicht nur als Freier Author sondern dass Sie auch in Zukunft Computerbase tatkräftig unterstützen wird.
mfg
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.869
Waren traditionell nicht die Ti Karten der Vollausbau? Oder erinnere ich mich da nur falsch?Quidproquo77 schrieb:wahrscheinlich würde die 4070 sogar den Vollausbau nutzen und wäre bei ähnlicher TDP so stark wie die 4070 Ti.
- Registriert
- Mai 2011
- Beiträge
- 21.003
Dass alles in den letzten Jahren teurer geworden ist, ignorieren wir einfach mal?AnkH schrieb:da ist die tatsächliche Zahl im Endeffekt unerheblich, er heisst den Umstand gut, dass die 4070 mehr kosten "darf", weil sie ja auch mehr leistet als die 2070. Absurd, denn das ist schlicht Preistreiberei und die stört mich.
Die Namen der Karten sind dabei auch unerheblich, würde es dich weniger stören wenn man die 4060Ti 4070 genannt hätte und dann von der 2070 aus 75% schneller und 60€ günstiger geworden wäre ?
Was zählt ist immer, wie viel mehr Performance man fürs Geld bekommt, nicht wie die Karte dann heißt.
Die Leute haben sich vielleicht auch einfach etwas mehr damit beschäftigt was die Produktion der Karten mittlerweile kostet und das die Zeiten in denen neue Prozesse die Produktion günstiger gemacht haben, lange vorbei sind.AnkH schrieb:Eine x70 war, seit es nVIDIA gibt, schneller als eine (X-1)70 und kostete immer in etwa gleich viel. Warum in den letzten Jahren plötzlich auch bei den Kunden die Bereitschaft entstanden ist, dass die X70 sowieso 20% mehr kosten darf
Ohne einen technologischen Durchbruch werden die Preise auch nicht mehr fallen können.
Unter der Voraussetzung ist es halt für viele hinnehmbar, dass die Karten teurer geworden sind, solange die Performance weiterhin so stark steigt, dass man für den Preis der alten Karte auch eine neue mit immer noch mehr Leistung bekommt
Zuletzt bearbeitet:
- Registriert
- Juni 2006
- Beiträge
- 44.444
Das gilt für alle 2, oder alle 3 Lager:
Unverschämt teuer sind die Produkte ohnehin.
Frei nach Gunther Dueck:
"Es existiert ein 'Problem'. Mach es weg. Mach es so weg, dass selbst meine Frau es ohne Probleme benutzen kann".
Ob nun eine andere Grundplanung des SI, ob Clamshell, oder ob eine Bestückung mit ungeraden Speichersteinen zugrunde liegt. Wie der Anbieter das bewerkstelligt, darf dem Kunden erst mal egal sein.sethdiabolos schrieb:Willst Du die Leistung der 3070 gehen nur die Wege 8 oder 16GB per Clamshell und dann wäre die Karte gute 150-200€ teurer gewesen. Mit 12GB hätte man das Interface geschmälert und die Anbindung zum Chip hätte eine Verkleinerung dessen mit sich gezogen und am Ende wäre eine 3060 12GB bei rum gekommen.
Unverschämt teuer sind die Produkte ohnehin.
Quartalszahlen: Nvidia sprengt Erwartungen mit Rekordumsatz und Gewinn
Frei nach Gunther Dueck:
"Es existiert ein 'Problem'. Mach es weg. Mach es so weg, dass selbst meine Frau es ohne Probleme benutzen kann".
k0n
Captain
- Registriert
- Okt. 2009
- Beiträge
- 3.559
yamiimax schrieb:Scheinbar kostet VRam (oder einen hohere Anbindung) halt viel Watt?
Gier/Konkurrenz... alles was geht aus jedem Chip raus quetschen und so hoch wie möglich im Lineup platzieren.
Bei der 3070/Ampere hat NVIDIA zusätzlich noch auf die bessere TSMC Fertigung verzichtet. Sowie auf eine VRAM Steigerung. Die Leistung stieg um 60%, die Leistungsaufnahme um 26% (≈34%) und der VRAM um 0%... in meinen Augen nichts was man feiern müsste.
Die 4070 liefert nur 22% mehr Leistung bei 10% weniger Leistungsaufnahme (≈32%) und 50% mehr VRAM.
2070 -> 3070 = 🥳
3070 -> 4070 = ☹️
Ernsthaft..?!
Zuletzt bearbeitet:
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.304
Ahoj DevPandi !DevPandi schrieb:Wie viele FPS liefert eine GTX 1070 in aktuellen Spielen? Und wie viel schneller ist die RTX 4070 in Dauerbrennern wie Anno 1800 oder Overwatch 2? ComputerBase vergleich vier Generationen aus Nvidias 70er Serie: GeForce RTX 4070 vs. RTX 3070 vs. RTX 2070 vs. GTX 1070 in zehn Spielen im Test.
Zum Test: Grafikkarten-Generationen im Test: GeForce GTX 1070, RTX 2070, 3070 & 4070 im Vergleich
Bitte nicht falsch verstehen, meiner einer mag/schätzt Dein Urteil bzgl. Insider bzw. Fachmännischem (sorry, mir fällt grad das xx - Chromosom spezifische Wort nicht ein) Wissen. Aber solche "Vergleiche" zu Release einer neuer Gen (Refresh) hören/lesen sich immer : Los kauf den Shice und schau auf die Länge der Balken.
Schmusepupsi
Cadet 3rd Year
- Registriert
- Jan. 2024
- Beiträge
- 63
Diese Argumentation den Preis mit der Geschwindigkeit gleichzusetzen. Das ist doch ein absolut blödsinniger Vergleich. Dann müsste ich also auch das 10.000x eines Pentium 60Mhz zahlen wenn ich einen Ryzen 32 Kerner nehme? Ich meine ist ja mindestens so viel schneller. Entweder habt ihr zu viel Nvidia und AMD Werbung gefressen, oder glaubt da eine Korrelation gefunden zu haben wo keine ist.
Entry Level ist Entry Level und High Performance ist High Performance. Ihr könnt gerne die Inflation einberechnen. Aber doch nicht einfach Preis und Performance gleichsetzen. So was albernes. Ich meine mich als Nvidia Aktionär freut es, aber inhaltlich verfehlt ^^
Entry Level ist Entry Level und High Performance ist High Performance. Ihr könnt gerne die Inflation einberechnen. Aber doch nicht einfach Preis und Performance gleichsetzen. So was albernes. Ich meine mich als Nvidia Aktionär freut es, aber inhaltlich verfehlt ^^
Gegenfrage: warum kostet eine Intel CPU nicht dermassen viel mehr im Vergleich zu vor ein paar Jahren? Ich sags Dir: weil Intel keine CPU verkauft bekäme so, obwohl exakt (!) die selben Argumente aufgeführt werden könnten: ein 14700K leistet viel mehr als ein i7-7700k, trotzdem kommen beide für ungefähr 400€ auf den Markt? Hmm...Taxxor schrieb:Dass alles in den letzten Jahren teurer geworden ist, ignorieren wir einfach mal?
[...]
Die Leute haben sich vielleicht auch einfach etwas mehr damit beschäftigt was die Produktion der Karten mittlerweile kostet und das die Zeiten in denen neue Prozesse die Produktion günstiger gemacht haben, lange vorbei sind
- Registriert
- Mai 2011
- Beiträge
- 21.003
$339 beim 7700K und $409 beim 14700K, genau die 20% mehr wie die 4070 teurer als die 2070 ist und ebenfalls ca die doppelte Gaming PerformanceAnkH schrieb:ein 14700K leistet viel mehr als ein i7-7700k, trotzdem kommen beide für ungefähr 400€ auf den Markt? Hmm...
Und ja Konkurrenz ist auch ein Faktor, hier aber eher umgekehrt, der 7700K hatte weniger Konkurrenz und wäre ansonsten wohl noch etwas günstiger gewesen, der Unterschied zum 14700K also noch größer.
Zuletzt bearbeitet:
SweetOhm
Lt. Commander
- Registriert
- Juli 2023
- Beiträge
- 1.304
"Normal" war mal (nach 2 Gen) doppelt so schnell und statt 499 € entweder gleich teuer oder nen 10´er (489 €) günstiger.Bouncer503 schrieb:Mhhh. Ich benutze noch eine 2070 und sehe das anders.
2070: UVP bei 499€
4070: UVP bei 599€ und ca. doppelt so schnell.
Dank Leuten wie Dir (mit dieser Einstellung) haben just Preise wie sie eben sind.
Danke nochmal ...
Stahlseele
Rear Admiral
- Registriert
- Feb. 2009
- Beiträge
- 5.994
Ähnliche Themen
- Antworten
- 242
- Aufrufe
- 22.476
- Antworten
- 280
- Aufrufe
- 38.722