Test Grafikkarten-Generationen im Test: GeForce GTX 1070, RTX 2070, 3070 & 4070 im Vergleich

Taxxor schrieb:
TSMC wird auch 2,5-3x teurer pro mm2 sein.
So ein Wafer lag bei 15-16K, die Samsung Wafer meine ich bei ~6K
Tatsache - ich hatte mich auch schon mit dem Thema beschäftigt und das trotzdem unterschätzt.

Wobei TSMC mittlerweile auch etwas niedriger liegt:
https://www.tomshardware.com/news/tsmc-expected-to-charge-25000usd-per-2nm-wafer


Wenn man überlegt, dass RTX 5000 mit 3nm dann beim BOM nochmal +50% Kosten für den Chip haben wird, wird einem jetzt schon schlecht -_-
 
  • Gefällt mir
Reaktionen: shaboo
Ach ja, sorry, danke für den Test natürlich, gerade nach dem AMD-Vergleich hatte ich mich auf diesen hier schon gefreut.
Besonders interessant scheint mir die Tatsache, dass 1070/2070/3070 mit der gleichen Speichermenge (8 GB) solche Sprünge vollziehen.
Die 4070 mit nun 12 GB scheint jetzt der Zeit zu folgen, wo immer mehr Spiele nach mehr VRAM lechzen.
Das der %-Zuwachs der 4070 zur 3070 etwas geringer ausfällt als die Generationen davor ist in meinen Augen erklärlich: Je weiter man nach oben kommt, desto weniger groß gelingen Zuwächse.
 
Pascal war damals echt ein Fortschritt, deutlich mehr VRAM und Leistung bei moderatem Verbrauch, danach stieg vor allem der Preis und der Verbrauch...
 
  • Gefällt mir
Reaktionen: Jagdwurst, M11E, polyphase und 3 andere
MoinWoll schrieb:
Ich weiß nicht warum man behaupten muss der Preis hätte sich versechsfacht (+500%).
Weil den Leuten störende Fakten egal sind. Da bleibt dann halt nur noch maßlose Übertreibung als Stilmittel übrig. Gerne kombiniert mit sinnlosem Schwadronieren von irgendwas, das angeblich "exponentiell" wächst, obwohl die Leute offensichtlich nicht die geringste Ahnung haben, was das eigentlich bedeutet.

AnkH schrieb:
Und schon kommen sie wieder, die Deppenargument-Vertreter, welche mit verantwortlich sind, dass heute solche Mondpreise bezahlt werden. PS: die 1070 hatte eine UVP von 499€, mit eurer "Logik" müsste die 4070 also eine UVP von zirka 1499€ haben, da ja dreimal so schnell facepalm
Das einzige Deppenargument hier - und damit wären wir bei maßlose Übertreibung, die Zweite - kommt von Typen wie dir, die so tun, als gäbe es absolut nichts zwischen absolut konstanten Preise einerseits (hier 500 Euro) und linear mit der Leistung steigenden Preisen (hier 1500 Euro) andererseits. Die 4070 kostet keine 1500 Euro, und jedem, der 600 oder 700 noch okay findet, automatisch zu unterstellen, er fände auch 1500 in Ordnung, ist derart peinlich unterbelichtet, dass ich mich ernsthaft frage, wie man sich mit so was in die Öffentlichkeit wagen kann, ohne sich dabei selber dumm vorzukommen.

Man kann ganz sachlich die Preisentwicklung betrachten und dann unter Einbeziehung von mindestens mal Inflation und Wechselkursen zu dem Urteil kommen, dass Grafikkarten - auch durch den Einfluss von Phänomenen wie Mining oder Scalptertum, dies es nun mal früher nicht gab, und ja, auch weil viele offensichtlich bereit sind, Preissteigerungen bis zu einem gewissen Grad bereit sind, relativ widerspruchslos mitzugehen - teurer geworden sind als es unter anderen Umständen nötig gewesen wäre. Das geht aber auch ganz ohne faktenfreies und maßloses Übertreiben und Unterstellen.
 
  • Gefällt mir
Reaktionen: Razorex, Fallout667, kelt_ und 7 andere
Vitali.Metzger schrieb:
Bei den nachfolgenden VRAM-Knauser-Editionen war es für mich dann an der Zeit auf Team Red zu setzen und was soll ich sagen
Das mit dem VRAM ist immer so eine Sache. Zum aktuellen Zeitpunkt kann das wirklich noch problematisch sein, wenn zu "wenig" VRAM vorhanden ist.

Sollten die Entwickler anfangen DX 12 Sampler Feedback und Direct Storage zu verwenden, dann wird sich das VRAM-Problem erst mal entschärfen. Intel hat eine entsprechende Demo, die zeigt, was möglich ist.

Klar, müsste man dann mal die SSD und das Mainboard im Blick behalten, gerade auch bei der Effizienz, da mehr Datentransfers dann statt finden.
interesTED schrieb:
Auf den Test habe ich gewartet, danke! Damit kann ich endlich meine 2070 vernünftig einordnen.
Das haben wir sehr gerne gemacht!
evilhunter schrieb:
Danke für die Arbeit, aber da merkt man wie wichtig weiterhin die Optimierung durch die Entwickler ist um überhaupt die unterschiedlichen Architekturen zu berücksichtigen.
Das ist ein komplexes Thema, dass man auch nicht so einfach wirklich bearbeiten kann.

Auch wenn DirectX 12 "näher" an der Hardware ist, von einer wirklich hardwarenahen API kann man da nicht schreiben und das ist im Endeffekt auch gut. Viele Spiele der letzten 10 - 20 Jahren laufen heute fast immer auf modernen Plattformen ohne weitere Probleme und das hat auch ein Stückweit damit zutun, dass wir heute eher hardware agnostisch programmieren.

Dazu kommt, dass Optimierungen heute in der Vielzahl an Stellschrauben weitaus komplexer geworden ist, als noch vor 10 oder 20 Jahren.

Ein weiterer Punkt ist, dass du heute weit aus mehr Details in den Spielen abbildest, was vieles deutlich komplexer macht. Es ist, sagen wir mal, "kompliziert".
floTTes schrieb:
Ich fand die Geforce-10-Serie seiner Zeit "ultra-supa-dupa-geilo"!
War sie auch!
Ozmog schrieb:
Da wären jetzt noch Effizienztests schön, um das auch noch einzubringen, da die 40er nen ordentlichen Sprung gemacht haben. Der Vergleich zu den anderen Generationswechsel wäre da interessant.
Ich hab die Daten in der Schublade. Das ist ein Punkt, denn man vielleicht für den nächsten Test dann auch mitnehmen kann.
CCIBS schrieb:
Noch Stromverbrauch bzw. Effizient und es wäre Perfekt gewesen.
Ich hab leider nicht die Möglichkeit, wirklich zuverlässig den Energiebedarf der Hardware zu messen. Es gibt aktuell durchaus zwar Werkzeuge dafür, die sind aber entweder mit knapp 1000 € sehr teuer oder mit um die 300 € nicht ganz so weit und würden den PCIe-Slot auslassen.

Ich muss an der Stelle also auf das Monitoring der GPU zurückgreifen und das ist ungenau, es kann daher immer nur Nährungswerte sein.
theGucky schrieb:
Man sieht von einer 1070 auf einer 2070 hätte sich nicht gelohnt
Kommt immer darauf an, welche Prämisse du für dich selbst wählst. In der Regel ist es aber immer sinnvoller eine Generation zu überspringen. ;)
Drakonomikon schrieb:
Ich hatte vor einigen Wochen, anhand historischer Computerbase Artikel, die relative Abhängigkeit der einzelnen Grafikkarten berechnet und teils interpoliert. Das gilt für die Auflösung 1920x1080.
Tolle Arbeit, die du dir da gemacht hast. Im Endeffekt muss man nur die Artikel durchgehen und mit den Spielen abgleichen, die vorhanden sind und gleich sind bei bestimmten Tests. Ich will damit jetzt deine Arbeit nicht schämlern. Ich hab da aber etwas in Entwicklung. ;)
Farcrei schrieb:
Jetzt bitte das selbe mit der 80er Reihe.
@Jan du hörst die Community? XD
NichtExpert schrieb:
Toller ausführlicher Bericht. Gerne mehr davon in der Zukunft.
Wird es auch sicher geben, jedoch immer nach den Kapazitäten, die ich frei habe.
Impy81 schrieb:
Sehr schöner Vergleich. FPS/€ sowie FPS/Watt wären auch interessant. Gerade beim Verbrauch sieht man direkt, dass ab der 3000er die Mehrleistung leider auch mit Mehrverbrauch erkauft wird.
FPS/Watt kann ich euch als Daten nachliefern. Werde ich mal am Wochenende aufbereiten.
Jan schrieb:
Beide Daumen hoch für @DevPandi !
Vielen lieben Dank!
Austronaut schrieb:
Nvidia wird diesen Grafikvergleich hassen :D
Warum wird Nvidia ihn hassen? Es zeigt sich bei der 4070 das, was quasi alle Tests bisher auch gezeigt haben: Die 4070 kann sich abseits von RT und ggf. DLSS FG nur durch den Takt von der RTX 3070 absetzen.

Die 4070 ist dennoch eine gute Karte und wenn man von einer 2070 kommt, ist sie auch eine tolle Option, wer von der 1070 kommt und die nun knapp 600 € zahlen möchte, kann auch zu greifen.
ShiftyBro schrieb:
Jetzt die X700er von AMD! :lol: (man kann ja die Vega 56 als vierte dazunehmen..)
War der erste Artikel von mir hier für euch: https://www.computerbase.de/artikel/grafikkarten/amd-radeon-generationen-vergleich-2023.86243/

SonyFriend schrieb:
Das der %-Zuwachs der 4070 zur 3070 etwas geringer ausfällt als die Generationen davor ist in meinen Augen erklärlich: Je weiter man nach oben kommt, desto weniger groß gelingen Zuwächse.
Jaein, in dem Fall hat es einfach was damit zutun, dass Ampere und Ada quasi die gleiche Architektur sind, nur mit Anpassungen am L2-Cache, RT-Kernen und Tensor-Kernen. 5.888 Shader gegen 5.888 Shader, hier kann primör nur der Takt Leistung bringen.

Das konnte man auch zwisczhen der RX 5700 XT und RX 6700 XT sehen. Will man mehr, muss man entweder den Shader-Count erhöhen, oder größere Umbautzen vornehmen um die Auslastung zu verbessern.
 
  • Gefällt mir
Reaktionen: Jagdwurst, KamfPudding, Toprallog und 15 andere
k0n schrieb:
die 4070 sollte allerdings meiner Meinung nach mit 150W limit kommen, die 4070Ti mit 175W und beide sind zu teuer.
Muss doch

Nvidia = weniger Watt = mehr Preis

AMD = Mehr Watt = Weniger Preis
 
9t3ndo schrieb:
Zeigt halt leider auch, das die 4070 zu teuer ist im Vergleich zum Leistungssprung.

Danke für den Test.
Man sieht aber auch das die Preiserhöhung von nur 100 Dollar auf die UVP eigentlich ja sogar im Rahmen geblieben ist, wenn man die extreme hohe Inflation bedenkt. Sind ja "nur" +20% Aufschlag. Nicht was man erwarten würde normalerweise, aber zum eine gab es die 3070 ja fast nie zur UVP, aber zum anderen hat Inflation und TSMC wohl auch so ihren Teil beigetragen. 4070 super als 4070 zu releasen wäre trotzdem wesentlich besser angekommen imho, dann hätte sich das Leistungsplus dann doch deutlich besser sehen lassen und dieser fade beigeschmack den man im Mund hat, wenn man realisiert das die neue Generation gar nichts für P/L tut im Vergleich zur Alten.

Früher freute man sich wenn ne GPU kaputt ging und sie schon aus der Garantiezeit draußen war. Heute? Nope. ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 9t3ndo
yamiimax schrieb:

?

RDNA2 fand ich genial. Der 6900XT hab ich aber auch keine 300W gegönnt... unter 250W war für sie vollkommen ausreichend.
 
  • Gefällt mir
Reaktionen: Hatsune_Miku
BAR86 schrieb:
wundert mich jetzt, denn schließlich hatten die größeren GPU Tests eh immer klare Werte die man vergleichen kann
Ja und Nein.

Natürlich gibt es hier bei den Tests - auch auf anderen Seiten, Zeitschriften und Co - immer wieder bei den Tests gewisse Überschneidungen im Testfeld, so dass man sich über mehre Artikel ggf. auch die Leistung herleiten kann.

Gleichzeitig verändert sich aber auch vieles. Sie dir hier die GTX 1070 und dann die RTX 2070 an: Im Release-Artikel lag die RTX 2070 ca. 30 % vor der GTX 1070, in diesem Test hat sich der Abstand in 1440p von 31 % auf 47 % um mehr als 50 % vergrößert. Das ist etwas, was man so nicht direkt herleiten kann.

Wir haben dabei nicht schlecht gestaunt und deswegen hat @Wolfgang das auch noch mal nach gemessen, denn so eine Entwicklung ist durchaus ungewöhnlich.
 
  • Gefällt mir
Reaktionen: Alex1966, Hawk1980 und Krazee
shaboo schrieb:
Die 4070 kostet keine 1500 Euro, und jedem, der 600 oder 700 noch okay findet, automatisch zu unterstellen, er fände auch 1500 in Ordnung, ist derart peinlich unterbelichtet, dass ich mich ernsthaft frage, wie man sich mit so was in die Öffentlichkeit wagen kann, ohne sich dabei selber dumm vorzukommen.
Ich wage mich mit solchen Aussagen in die Öffentlichkeit, um mich an Antworten wie der Deinen zu laben, die zeigen, dass ich eben doch recht habe.

Und dass mangelndes Leseverständnis eine weiter verbreitete Problematik darstellt, als man mit reinem Buchstabieren eines gelesenen Textes darstellen könnte, ist auch gleich bewiesen. Wer von gezielten Übertreibungen, plakativ an einem Beispiel (hier die 4070) festgemacht um damit den Aussagen, welche auch hier in diesem Thread nunmal schwarz auf weiss stehen (siehe Post #10), aufzuzeigen, wie unüberlegt sie sind, nichts versteht und sich angegriffen fühlt, sollte sich mit Attacken über Aussagen wie "peinlich unterbelichtet" und "selber dumm vorkommen" aber ganz schnell zurückhalten. Wer drei Zeilen Foren-Text inhaltlich nicht auf die Reihe bekommt, muss vielleicht noch ein paar Jahre hier im Forum still mitlesen, bevor er grosse Töne spuckt...
 
  • Gefällt mir
Reaktionen: M11E, Three of Nine, aldaric und eine weitere Person
k0n schrieb:
?

RDNA2 fand ich genial. Der 6900XT hab ich aber auch keine 300W gegönnt... unter 250W war für sie vollkommen ausreichend.
Solange man sie untervolten kann doch alles ok

Scheinbar kostet VRam (oder einen hohere Anbindung) halt viel Watt?
 
Ich weiß noch, als ich eine MSI GTX970 besaß, damals die Beste am Markt, später mit geflashten Bios Mod im Boost immer locker um die 1550mhz und zugleich weniger Voltage. Die zog dann mit einer 1060 gleich. Dachte lange Zeit, diese nach über 6 Jahren nicht austauschen zu müssen, bis ende 2020 Cyberpunk raus kam 😂 und kurze Zeit später die Preise von Scalpern verneuntausendfacht wurden. Ich hatte noch Glück mit 650€, kurz danach kostete die selbe Karte 1800€ 🤡 und die neue 4070? Natürlich bekommt sie exklusive Features in Cyberpunk, damit ich ja ne neue kaufe, nein danke bei den Preisen.
 
  • Gefällt mir
Reaktionen: Three of Nine und Impy81
Wow danke für den Test! Zeigt sich mal wieder das man mindestens 1 wenn nicht sogar 2 Gen überspringen sollte um wirkliche einen Mehrwert zu erhalten.
 
  • Gefällt mir
Reaktionen: polyphase
ric84 schrieb:
Ich hatte noch Glück mit 650€, kurz danach kostete die selbe Karte 1800€ 🤡 und die neue 4070? Natürlich bekommt sie exklusive Features in Cyberpunk, damit ich ja ne neue kaufe, nein danke bei den Preisen.
Tust so als ob die 4070 jetzt 1800 kostet calm down!
 
  • Gefällt mir
Reaktionen: ric84
p4z1f1st schrieb:
@MoinWoll Das war doch nur ein komplett freies Zahlen-Beispiel 🤷‍♂️

Ich hätte auch 100% und 1000% schreiben können 🤷‍♂️
Dann habe ich das, auf Grund der vielen Übertreibungen, die zu dem Thema in den Kommentarsektionen kursieren, falsch verstanden. Sorry!
 
  • Gefällt mir
Reaktionen: JonaHH und p4z1f1st
9t3ndo schrieb:
Zeigt halt leider auch, das die 4070 zu teuer ist im Vergleich zum Leistungssprung.

Die 3070 kam NVIDIA sehr "billig" dank Samsungs "8nm" (220W) und der grenzwertigen 8GB,..

Die 4070 erhöht nach drei Generationen endlich den VRAM und senkt wieder den Verbrauch nach dem er drei Generationen lang immer weiter erhöht wurde.

150W, 175W und schließlich die 220W 3070.
 
  • Gefällt mir
Reaktionen: Apocalypse
Quidproquo77 schrieb:
Toller Test, zur Einschätzung muss man natürlich auch dazu sagen, dass der Chip der 4070 der am stärksten beschnittene von allen ist, und die 3070 rein technisch eher mit einer in der Leistungsaufnahme gedrosselten 4070 Ti oder 4080 zu vergleichen wäre. Als reiner Generationen Vergleich nach Nvidias Marketingbezeichnungen der Chips aber sehr hilfreich.

Aber immerhin ist es noch der richtige Chip.

Und jetzt gibt es halt die 4070 super als refresh, ohne die hohe Inflation und mit einer stärkeren RDNA3 Generation hätte es die 4070 super vielleicht auch gleich als normale 4070 gegeben. Nvidia scheint ja wirklich immer noch was in der Schublade zu haben.
 
schegga schrieb:
Bitte so einen Artikel auch für die X060er Serie :D
Ich glaube, da fangen die Leute - zu Recht! - an zu weinen. Soweit ich das in Erinnerung habe, lagen die letzten beiden(!) Leistungssprünge hier bei nur gerade mal 20 Prozent. Ich glaube so was darf man, ohne allzu große Übertreibung, als absolute Frechheit bezeichnen.

Und während dabei die 3060 in FHD wenigstens noch auf 90% der Leistung einer 2070 Super kam und 12 GB VRAM hatte, waren's bei der 4060 gerade noch 78% der Leistung einer 3070 (Non-Super) und 8 GB VRAM.

Die Zahlungsbereitschaft der Kundschaft bis zum Letzten auszureizen und für Oberklasse/High End überreichlich Kohle abzuschöpfen, ist das Eine, aber den Leuten in der Einstiegs- und unteren Mittelklasse kein vernünftiges Angebot zu machen, noch einmal etwas völlig Anderes, denn damit erweist man dem PC-Gaming-Business insgesamt einen echten Bärendienst, der angesichts der Gewinne und Margen Nvidias so wirklich nicht nötig gewesen wäre.
 
  • Gefällt mir
Reaktionen: JonaHH, polyphase, Bänki0815 und 5 andere
Rickmer schrieb:
Während die 3070 +67% Performance zur selben UVP geboten hat, das nicht vergessen!
Ja, die 3070 war wirklich eine traumhaft gute Karte, ich wollte bei kurz nach Release gleich eine paar kaufen … jetzt benutze ich gerade eine 6800 die 700€ gekostet hat.

Hmm. Was da nur schief gegangen ist?
 
  • Gefällt mir
Reaktionen: SandyBridge
Zurück
Oben