Test Grafikkarten-Generationen im Test: GeForce GTX 1060, RTX 2060, 3060 & 4060 im Vergleich

joel schrieb:
Mit der 1060 bin ich von AMD weg, ich glaube ich hatte die RX480 und die wurde irre heiß, als diese dann defekt ging habe ich mir die 1060 gekauft.
Ich bin damals von einer Radeon R9 380 zur GTX 1060 6GB gewechselt. Danach dann aber mit meiner jetzigen RX 67050 XT direkt wieder zu AMD, einfach weil mir zu dem Zeitpunkt aufgrund der Corona-Nachwirkungen und dem Crypto-Hype die Geforce-Karten schlicht zu teuer waren.
 
  • Gefällt mir
Reaktionen: feris, Inxession und SweetOhm
Vielen Dank für den Artikel. Ich bleib noch ne Zeit lang bei meiner 2070 Super. Mir reicht die und wenn dann rüste ich eh erstmal CPU und co. auf, da dieses Zeug bald schon 1 Jahrzehnt auf dem Buckel hat^^
 
NguyenV3 schrieb:
Das ist schon krass. AMD muss den Full Chip N33 degradieren (7600 ohne XT) und Nvidia kann den Gegenspieler hochstufen - und ist trotzdem schneller/effizienter.
Das ist halt der Knackpunkt. AMD tritt mit N33 im vergleich zu N23 (RX 6600 (XT)) halt auf der Stelle. So sehr, dass es sich AMD gar nicht leisten konnte, den N33 für eine non-XT zu beschneiden, so dass die nachgelieferte XT-Variante einfach durch mehr Takt und doppelten RAM punkten soll...
Da holt man immerhin tatsächlich auch 10% raus...

Aber wenn man berücksichtigt, dass eine 3050 gut 35%(!) hinter einer 6600 lag, ist das schon erschreckend, dass die Karte, die viele für eine 4050 halten, plötzlich genau zwischen den Karten liegt, die man ja eigentlich als Gegner einer "echten" 4060 (also tendenziell der Ti) sieht.

Noch tragischer wird der Blick ja eigentlich hinsichtlich Effizienz
Die 6600 war 15% effizienter als eine 3050...
Die 4060 ist 35% effizienter als eine 7600...

IMHO kann AMD halt wirklich froh sein, dass NV diese Generation so wenig die Label verändert hat. Wobei das AMD bei den größeren Karten mehr oder weniger auch getan hat :x
Die 7800 XT ist eigentlich keine 7800 XT. Wenn wir nach den Chip gehen, ist das eine 7700 XT und die eigentliche 7700 XT ist eher eine 7700. Das wären dann auch tatsächlich stärkere Platzierungen... :x

Bei Navi 2x hat AMD aus dem großen Navi 21 ja auch 3,5 Karten geleiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Entgegen der Aussage im Artikel, aktiviere ich immer DLSS in FHD. Weil es einfach ein sauberes Bild gibt,
so gut kann kein Anti Aliasing die Kanten glätten.
 
  • Gefällt mir
Reaktionen: qappVI
Bitte die 1660 auch noch in die Testreihe aufnehmen. Ist ja auch ner 60er Grafikkarte ^^
 
  • Gefällt mir
Reaktionen: sp00n.82, Siljamas, Chismon und 2 andere
1060 und 3060 waren noch immer die besten 60er der letzten Generationen.
 
incurable schrieb:
Mit den 60er Grafikkarten ist es wie bei Windowsversionen und Star-Trek-Filmen - gut, schlecht, gut, schlecht ...
Wie bei den 70er ist es aber gut, gut, schlecht, schlecht.
 
incurable schrieb:
Mit den 60er Grafikkarten ist es wie bei Windowsversionen und Star-Trek-Filmen - gut, schlecht, gut, schlecht ...
Ja?
Die 1060 gut
Die 2060 gut
die 3060 schlecht
die 4060 schlecht

Bezogen auf den geringen Leistungszuwaschs bei der 3060 und 4060, bei letzterer sogar noch der RAM Reduktion, aber immerhin (!) kam de Verbrauch wieder auf die ca 120 runter, das find ich super.
Die eigentliche 4060 ist ja die Ti. Aber Namen sind Schall und Rauch.
Ich würde ja gerne eine 4060 Ti 16GB@ 120W als "echte" 4060 sehen, denn sowohl Speicherbandbreite, als auch RAM-Menge usw passen zu 6 Jahren Evolution.

Was mich noch interessieren würde, wie es mit FSR/Frame Generation aussieht.
Viele Spiele laufen damit auch auf der 1060 noch gut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rockstar85 und JackTheRippchen
Die 1060 hat einfach einen legendären Status für mich. Gutes P/L-Verhältnis bei Release und kann heute noch viele Spiele flüssig wiedergeben. Die Gainward Phoenix 1060 war einer meiner besten Karten die ich je besessen habe.
 
Dann könnte die RTX 4060 ti 16 GB ja guter Ersatz der RTX 3060 für mich sein. Mal schauen.
 
Kazuya91 schrieb:
Die 1060 hat einfach einen legendären Status für mich.
Würde fast sagen, die komplette Geforce 10 Generation war auch durchgehend sehr runde Modellreihe. Preis-Leistung hat gepasst und auch die Speicherbestückung hat eigentlich sehr gut zu den jeweiligen Modellen gepasst - bei der 1080 Ti mit 11 Gb sogar vergleichsweise üppig.

Mit der RTX 20 wurde dann das Preis-Leistung-Verhältnis schlechter, weil es aufgrund des RTX-Aufschlages einen deutlichen Preissprung nach oben gab und mittlerweile kommt dann noch die teils auf Kante genähte Speichermenge dazu - besseres Speichermanagement hin oder her.
 
  • Gefällt mir
Reaktionen: Olex92, Moonr3der, SweetOhm und eine weitere Person
kachiri schrieb:
Noch tragischer wird der Blick ja eigentlich hinsichtlich Effizienz
Die 6600 war 15% effizienter als eine 3050...
Die 4060 ist 35% effizienter als eine 7600...

IMHO kann AMD halt wirklich froh sein, dass NV diese Generation so wenig die Label verändert hat. Wobei das AMD bei den größeren Karten mehr oder weniger auch getan hat :x
Die 7800 XT ist eigentlich keine 7800 XT. Wenn wir nach den Chip gehen, ist das eine 7700 XT und die eigentliche 7700 XT ist eher eine 7700. Das wären dann auch tatsächlich stärkere Platzierungen... :x
Genau deshalb sind die AMD Karten der 7000er-Gen so ineffizient. Wäre die 7800XT das, was sie sein sollte, könnte sie einfach mal mit ca. 300 MHz weniger takten und schon ist die Effizienz da, wo sie sein sollte. Die neue AMD Gen ist halt ziemlich hochgepügelt worden.
 
  • Gefällt mir
Reaktionen: Moonr3der
zivilist schrieb:
Dann könnte die RTX 4060 ti 16 GB ja guter Ersatz der RTX 3060 für mich sein. Mal schauen.
450 Euro für eine 4060 Ti 16 GB ist auch heute kein guter Preis. Dann tue dir lieber den gefallen, wenn es um Spiele geht, und nimm die 4070 für 80-90 Euro mehr.
Ergänzung ()

Abexa schrieb:
Wäre die 7800XT das, was sie sein sollte, könnte sie einfach mal mit ca. 300 MHz weniger takten und schon ist die Effizienz da, wo sie sein sollte.
Joa. Navi 32 halt bisschen niedriger takten lassen, dann geht auch dort die TBP eher in Richtung von Navi 22 und man bekommt einen gesunden Abstand zur 7900 GRE hin. Und dann hat man eigentlich schon die "perfekte" 7800.
Packt auf die 7900 XT halt das Label 7800 XT und nennt die 7900 XTX einfach nur 7900 XT...
Das ganze garniert mit entsprechenden Preisschildern...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Moonr3der, danyundsahne und Quidproquo77
zivilist schrieb:
Dann könnte die RTX 4060 ti 16 GB ja guter Ersatz der RTX 3060 für mich sein. Mal schauen.
Viel zu teuer.

Ich bin bei meinem Sohn auf die 4060 gewechselt. Mit DLSS 3 und FG kommt die in Regionen, wo die 3080 war :D.
 
Mehr VRAM hatte damit keine Auswirkung auf die Ergebnisse bei diesen Karten.
Auch nicht bei Städtebau. Sehr interessant.
 
Gigaherz schrieb:
Beim Leistungszuwachs hätte ich gerne noch den relativen Preiszuwachs gesehen.
und diesen im vergleich zu was? Denn wenn du es richtig machen willst musst du gleichzeitig noch den Wertverlust der Währung gegenüber stellen. Und das zu den zeitpunkten wo die Karten released worden sind mit Uvp, welche viele garnicht bezahlt haben da der Marktpreis nach release häufig fällt, ausser in Ausnahme Situation wie wie sie 2020-2022 gehabt haben .
 
Über viele Generationen hinweg bleibt der Abstand +/- gleich.

Das mit dem Vram wird bei einzelnen Tests zwar erwähnt, jedoch aus meiner Sicht nicht deutlich genug. Wenn eine Karte (gerade bei nV) die Rohleistung hat und dann dafür einen mageren Ram, dann darf KEINE Empfehlung ausgesprochen werden. Das würde dazu beitragen, dass möglicherweise nV endlich mal mehr VRam seinen Karten spendiert. Nur leider kommt das nicht rüber und die Käufer sind Lämmer.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
zivilist schrieb:
Dann könnte die RTX 4060 ti 16 GB ja guter Ersatz der RTX 3060 für mich sein.
Ich empfehle eher einen prüfenden Blick auf den "Pile of shame".

Sowie, falls du 1 (?) Jahr warten kannst, spekuliere besser auf einen nativ besseren Speicherausbau (ohne Clamshell), sowie mehr Leistung. Vielleicht sind bis dahin die alten Lagerbestände abverkauft, oder es werden Speichersteine mit 3GB eingesetzt.

(Leider nein, eine 8GB-Karte mit Frame-Generation, welches abermals Speicher für Zwischenbilder benötigt, ist nicht die Lösung)

Dito schrieb:
Nur leider kommt das nicht rüber und die Käufer sind Lämmer.
Im jeweiligen Launchtest ist der Balken ein Stückchen länger, als bei der Konkurrenz.
Der Trick genügt augenscheinlich. Selbst nach Jahren.
 
  • Gefällt mir
Reaktionen: JackTheRippchen, EcOnOmiC, SweetOhm und eine weitere Person
Crifty schrieb:
Erstmal vorweg: Danke für deine Mühen und den Test.

Was mir direkt auffällt, der Sprung bei der Performance der 60er und 70er Serie wird von Generation zu Generation immer weniger. Ist schon irgendwie auffällig.
hmmm, echt, hätte ich si gar nicht erwartet nachdem doch 2000er und 4000er so enttäuscht hatten und 3000er und 1000er so tolle Generation waren... also wenn man sie halt bekommen hat trotz Mining 🤔😂
 
  • Gefällt mir
Reaktionen: Tzk
Piak schrieb:
"Die RTX 3060 steigert die FPS um 60 Prozent und die Hürde von 60 FPS ist genommen. Die RTX 3060..."
es muss 2060 heißen im Absatz von Anno 1800
Hui, da ist uns was durchgeflutscht. Aber @Jan war schneller. Bin noch auf der Arbeit .
Aduasen schrieb:
Ich hätte mich so gefreut, 1080/2080
Dann haben wir bald alle Klassen einmal vermessen. Problem ist da aber leider auch, dass @Wolfgang die RTX 3080 und 4080 für aktuelle Spiele immer wieder benötigt und ich auch schauen muss, wann ich das alles schaffe und auch welchen Mehrwert man dann bieten kann.

bisher hab ich mir für jeden der Tests auch etwas überlegt. Beim Test zur 70er-Serie hab ich ja absichtlich KI mit aufgenommen. Bei der 60er-Serie jetzt eben statt 10 spielen 13 Spiele und mal ein Blick, was bei 6 GB VRAM und den 8 GB so passiert. Baldurs Gate 3 war auf der GTX 1060 und RTX 2060 kein schöner Anblick, die Bodentexturen waren quasi noicht vorhande. Hab aber zu spät geschaltet das ggf. als Screenshot aufzunehmen.
eastcoast_pete schrieb:
Als Wunsch: ein ähnlicher Artikel/Vergleich der letzten 3 Generationen (Turing, Ampere, Ada) für zB "70er" Mobil GPUs. Denn bei denen war (IMHO) der Leistungszuwachs von Generation zu Generation fast homöopathisch gering.
Das ist leider so einfach nicht möglich. Die mobilen Vertreter gibt es nur in einem Paket mit Prozessor und entsprechend Tests wären immer nur eine Kombination aus Grafikkarte, CPU und auch Kühlsystem.
Mrbrill schrieb:
Entgegen der Aussage im Artikel, aktiviere ich immer DLSS in FHD.
An welcher Stelle treffe ich im Artikel die Aussage, dass man DLSS/FHD nicht aktiviert oder nicht aktivieren soll?

Ich schreibe, dass Nvidia den Umstand, dass 8 GB zu wenig sind - besonders mit dem Blick auf die nächste Zeit - dahinter verschleiert, dass DLSS aktiviert wird. Alleine aus Leistungssicht ist das aktivieren von DLSS aber überhaupt nicht notwendig zum jetzigen Zeitpunkt, weil die 4060 genug Leistung hat die meisten Spiele mit 60 fps darzustellen.
incurable schrieb:
Mit den 60er Grafikkarten ist es wie bei Windowsversionen und Star-Trek-Filmen - gut, schlecht, gut, schlecht ...
Das passt da eigentlich nicht so. die GTX 1060 und RTX 2060 sind beides sehr gute Karten. Die RTX 3060 auch, nur etwas zu wenig "Wumms" für den Generationensprung und die RTX 4060 ist halt ... wäre da etwas mehr VRAM, würde ich die 20 % durchaus "mitnehmen".

Es ist nur im Gesamtvergleich bei RTX 3060 und RTX 4060 "zuwenig" gekommen. Beide Karten liefern für einen Generationssprung zu wenig.
Rhoxx schrieb:
Starfield könnte ruhig einen eigenern Punkt in der Games-Liste einnehmen
@Jan war schneller. Danke!
Donnidonis schrieb:
der Sprung (60er Serie) der 1000er auf die 2000er war extrem, der 2000er auf 3000er eher mau, dann aber von 3000er auf 4000er wieder höher.
Das Problem ist eher, dass die Sprünge bbei GTX 1060 und RTX 2060 so sind, dass wirklich ein Generationssprung vollzogen worden. RTX 3060 und 4060 fühlen sich nicht so ganz nach Generation an.
Slowz schrieb:
Im konkreten Fall der 60er Reihe wird der Leistungszuwachs aber durch die 8GB VRAM künstlich klein gehalten.
Das trifft auf bestimmte Spiele zu, die bereits ab FHD eben knapp um die 8 GB "benötigen". Würde Ratched & Clank und Co deutlich über 8 GB benötigen, wäre die Leistung etwas besser - dafür aber Matsch auf dem Monitor - oder eben weniger.

Der 4060 würden 10 GB aber besser stehen oder 12 GB. Sie hat genug Leistung für FullHD. Es ist eher ärgerlich, dass man mit einer "angepriesenen FHD-Karte" bereits jetzt schon abstriche machen muss. Das ist schade, weil es eine eigentlich gute Karte wirklich entwertet.
 
  • Gefällt mir
Reaktionen: Toprallog, SweetOhm, Quidproquo77 und 3 andere
Zurück
Oben