Test Grafikkarten-Generationen im Test: GeForce GTX 1060, RTX 2060, 3060 & 4060 im Vergleich

Zwirbelkatz schrieb:
"Die 1060 ist stärker und sparsamer als die RX580 8GB. Die Speichermenge wird nie was bringen".
Ja ja, natürlich ...
War damals ein valider Punkt. Die Frage ist aber, ob einen heute (7 Jahre später!) die 2gb Vram überhaupt noch retten. Beide Karten sind hoffnungslos veraltet... Ich habe selbst noch eine 1060 6gb im Einsatz und warte auf endlich mal wieder bezahlbare Karten, mit denen ich einen guten Schub bekomme. In anderen Worten: ich bin typischer 300€ Käufer und flexibel wie ne Bahnschiene :D

DevPandi schrieb:
Der 4060 würden 10 GB aber besser stehen oder 12 GB. Sie hat genug Leistung für FullHD. Es ist eher ärgerlich, dass man mit einer "angepriesenen FHD-Karte" bereits jetzt schon abstriche machen muss.
Dann wird halt schneller ein Upgrade gekauft. Nvidia geizt doch seit Jahren am Vram und die Käufer machen es mit... Damals war die 1060 3gb schon ein Witz, die 2060 mit ebenfalls 6gb ist lachhaft, die 3070 mit 8gb auch. Da reiht sich die 4060 in guter Gesellschaft ein...
 
  • Gefällt mir
Reaktionen: Corpus Delicti, feris, danyundsahne und 3 andere
Sehr schöner Test @DevPandi ! Viel Mühe und Zeit investiert.

Kann das abgebildete auch bestätigen. Meine Frau hat eine RTX 3060 12GB im Einsatz. Sie kommt von einer GTX970. Ist ein Quantensprung gewesen in 1080p. Sie ist auch absolut happy.

Ich bin von einer GTX1080 auf eine RTX4070 gewechselt und habe massive Leistungssteigerung in 1440p zu verzeichnen. Dazu stark gestiegene Effizienz.

Hab den Test mit Wonne gelesen. Sehr unterhaltsam und nah am Puls. Kein Synthetiktestkram, sodern das was muss. Zocken.

Danke und weiter so !
Holzinternet
 
  • Gefällt mir
Reaktionen: Col. Jessep und EcOnOmiC
Sehr guter Vergleich, vor allem für Leute, die - wie ich auch gerne - immer in bestimmten Serien kaufen. Anders als beim 70er-Test können die Leistungssprünge allerdings schlecht kaschieren, dass auch die 4060 bald zu kämpfen haben wird.
 
Zwirbelkatz schrieb:
Traurig, das zu lesen. Ich habe den Tenor der Kaufberatungen noch in den Ohren:

"Die 1060 ist stärker und sparsamer als die RX580 8GB. Die Speichermenge wird nie was bringen".
Ja ja, natürlich ...
Meine 1060 werkelt schon im Zweit-PC und hat lange sparsame & leise Dienste errichtet. Die erfüllt in neueren Games nicht mal mit FSR die Mindestanforderungen. Ob 10 oder 13 fps... wen juckt's 🫠

Wenn Texturen in FHD knapp werden:
Ultra Nightmare -> Sehr hoch
Mit FSR wird eh daraus Matsch.
 
Mrbrill schrieb:
Entgegen der Aussage im Artikel, aktiviere ich immer DLSS in FHD. Weil es einfach ein sauberes Bild gibt,
so gut kann kein Anti Aliasing die Kanten glätten.


Quatsch... Supersampling bzw. Downsampling ist immer noch das Mittel der Wahl, wenn man die Leistung hat. Natives 4K auf 1080p ist nicht zu schlagen, und in vielen Spielen schafft das auch meinen 6700XT noch. In BG3 z.B. spiele ich in 4K mit maximalen Details und in 4K@1080p, so eine Bildqualität schafft kein Upsampling dieser Welt. Dann ist sie gute alte 6700XT auch schneller als die 4060ti...


Insgesamt schon eine erschreckende Entwicklung, aber es bestätigt ja das, was alle ohnehin schon wissen. Unterhalb der schnellsten Karte gibts seit Jahren keine vernünftigen neuen Karten mehr, durch immer weniger Leistungssteigerung und immer höhere Preise gibt's immer nur dieselbe Leistung zum selben Preis, wenn man in "seinem" gewohnten Preisbereich bleiben will kann man im Grunde nicht mehr aufrüsten. In einer Zeit, wo selbst die Forderungen nach Inflationsausgleichen bei den Löhnen Ablehnung und Hass nach sich ziehen einfach utopisch, man sieht ganz gut dass nVidia keine Lust mehr auf den Gaming-Markt hat.
 
  • Gefällt mir
Reaktionen: Bänki0815, marakuhja, JackTheRippchen und 2 andere
NguyenV3 schrieb:
Ob 10 oder 13 fps... wen juckt's 🫠
Ich glaube mittlerweile gehts eher um gravierende Einbußen bei der Optik. Gar nicht mal so um den vernünftigen Schritt, nicht jeden Regler auf ultra zu ziehen. Die Rede war bspw. von Bodentexturen. Wenn dies sogar nagelneue Karten betrifft - RTX 4060 @ middle - halte ich die Entwicklung für sehr fragwürdig.

Erschwerend hinzu kommt das Problem, dass Spiele zunehmend als Banane beim Kunden reifen.


Wen es interessiert, ein Extrembeispiel - der Vergleich der 6500 XT mit 4 vs 8GB (ja, die gibts)
 
  • Gefällt mir
Reaktionen: SweetOhm
Schöner Test. Der prozentuale Preisanstieg in Korrelation zum Leistungsgewinn zwischen der einzelnen Generationen wäre noch interessant
 
  • Gefällt mir
Reaktionen: Tzk
Sehr schön, Danke dafür !
Krass die Vergleiche. Allein daran sieht man schon, was die 4060 für ne "verarsche" ist.
3 x so klein wie eine 2060 (146 vs. 445 mm²) und dafür aber * doppelt * so teuer.
Ja, ich weiß, das passt schon, da 3 x schneller mit DLSS 3.0, FG, RR, THC, HSV olé olé ...

Edit : sorry, bin fälschlicher Weise vom * Ti * Model Preis ausgegangen
 
Zuletzt bearbeitet:
Irgendwie bin ich weniger davon beeindruckt, wie krass die 1060 heutzutage mit ihrem, im besten Fall 6GB VRAM, nach Luft schnappt, als viel mehr, wie mickrig der Sprung von 3060 zu 4060 teils ausfällt.

Ist für mich ein Zeichen, dass mit der aktuellen GeForce Reihe hauptsächlich Enthusiasten bedient werden sollten, wobei das ja kein Geheimnis ist.

Habe einen Freund von mir kurz vor dem ersten Mining Boom zum Kauf der 1060 bewegen können, diese hat er letztes Jahr durch eine... 6800 glaub ersetzt, eventuell aber auch die 6800XT.

Er hat da alles richtig gemacht, ich komme hingegen mit meiner 5700 noch etwas hin 😄
Damals hatte ich die 1070.
 
panopticum schrieb:
4060 sind echt ein Witz zumal die 4060 wieder mit 8gb daher kommt...
und auf PCIe 8 x schrumpft, sowie der Speicherdurchsatz verringert wurde ... :freak:
 
  • Gefällt mir
Reaktionen: BAR86
duskstalker schrieb:
wäre es möglich hier einen vergleich zwischen rx580 und gtx 1060 zu ziehen?
Nimm die Ergebnisse des Vorgängertests (https://www.computerbase.de/2023-12/amd-radeon-generationen-vergleich-2023/) zu den Radeons, die dort geteste Vega 56 war ca. 40% schneller als die RX580 (in FullHD), an dem Verhältnis wird sich bei aktuellen Tests weniger getan haben, weil beides 8GB-Karten sind. Leider sind zwischen beiden Tests die Spiele nicht 1:1 die gleichen, aber einige Überschneidungen gibt es.
 
Habe vor kurzem meine „alte“ MSI RTX 2060 Ventus mit dem TU104 Chip wieder zurückbekommen.

Gute Karte, kann man immerhin noch ordentlich laufen lassen. 😁
 
Die Karten sind mittlerweile der reinste Scam. Die Fortschritte von Generation zu Generation ein schlechter Witz und der Abstand zur Oberklasse wird mit jeder Generation größer.

Es lohnt sich kaum noch in dem Preisbereich zu kaufen. Das ist wirklich nur noch dann sinnvoll, wenn die vorhandene Hardware sehr alt ist und das Budget so knapp.

Preis/leistungsmäßig sind die 60er Karten mittlerweile ein wahnsinnig schlechter Preisbereich. Spätestens mit der 3060 war das der fall, die VIEL zu langsam im Vergleich zur 3060ti und 3070 war.
Erstrecht mit der Verwässerung durch die TI und Super Varianten bekommt man hier mittlerweile eher ne xx40er oder xx50er Karte. Die 60 im Namen haben die Karten nicht mehr verdient.

Aber AMD ist da leider auch nicht viel besser aufgestellt. Das ist eben einfach die "neue" Marktsituation. Wer ne vernünftige Karte will der muss eben ein bis zwei Ebenen höher im Regal suchen.
 
  • Gefällt mir
Reaktionen: Moonr3der, EcOnOmiC und Mcr-King
Wenigstens können 4060 und Ti mit ihrem geringen Verbrauch glänzen, sofern man das mit entsprechenden <180mm Modellen zulässt.

20240316_231857.jpg20240317_133142.jpg20240317_133131.jpg

Die 4060 non Ti ist immerhin 1:1 eine 2080 (Super). Die 4060Ti eine 2080ti mit (leider) weniger VRAM. Schlimmer wäre es wenn es sie nicht gebe und man für diese Leistung und diesen Preis auf irgendwelche alten Karten zurück greifen müsste.
 
Donnidonis schrieb:
2000er auf 3000er eher mau
Vor allem wenn man die RTX2060 12GB nimmt ist nicht viel zur RTX3060 16GB übrig, auch ist die RTX3060 12GB immer noch besser als die RTX4060 Murks 8GB Karte, deswegen fällt die RTX3060 auch nicht im Preis. ;)
Ergänzung ()

Mimir schrieb:
Aber AMD ist da leider auch nicht viel besser aufgestellt.
Naja ist schon lustig dass Intel mit der ARC580 der Einstieg ist und die RX7600 XT in der Mittelklasse die Beste ist von den schlechten Karten.

Tja Nvidia Meant to AI not Play. ;)
Ergänzung ()

k0n schrieb:
alten Karten zurück greifen müsste.
Naja zumindest bei der non Ti 4060 gibt es ja die bessere RX7600 XT,

da runter musst du Alt oder Intel kaufen. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Mcr-King schrieb:
und die RX7600 XT in der Mittelklasse die Beste ist von den schlechten Karten.
Wäre da die immer noch verfügbare 6800 für 390 Euro nicht. Da sind die 350 Euro für die 7600 XT (die nicht einmal die 67x0 XT schlägt) ein dicker Troll von AMD.
Ja, ich weiß. Früher oder später wird auch die 6800 vom Markt verschwinden. Eigentlich ist Sub 500 aktuell so gar nichts kaufbar, wenn wir Cashback-Aktionen ausblenden. Trauerspiel. Da retten die 7600 XT aus meiner Sicht auch nicht die 16 GB VRAM.
 
  • Gefällt mir
Reaktionen: Mcr-King und H6-Mobs
DevPandi schrieb:
Zunächst einmal Danke für die Antwort auf meine Anfrage (mobile dGPUs testen); daß dies deutlich komplizierter werden kann ist mir klar. Vielleicht könnte hier zB @XMG Support mit Ausleihen helfen, zumindest bei einem Vergleich von 3070 und 4070er im Laptop. Die hatten/ haben (glaube ich) doch ein paar Modelle (mit identischen HX Raptor Lake CPUs), die sie zunächst mit 3070 und dann (Update) auch mit 4070 dGPUs im Programm. Da würde zumindest die CPU und RAM Ausstattung als Variablen wegfallen.
@XMG Support : würdet ihr sowas unterstützen, wenn @DevPandi und CB Interesse daran haben?

Und, volle Offenlegung: bei mir steht nämlich ein Laptop Kauf unmittelbar an, und daher interessiert mich ein derartiger Vergleich besonders.
Wobei ich den Turing (RTX) mobilen dGPUs auch nachtrauere. Die Adas sind (prinzipiell) um einiges schneller, allerdings war Turing das letzte Mal, in dem NVIDIA den genau baugleichen Chip für Laptops unter demselben Namen angeboten hat. Eine 2080 im Laptop hatte dieselbe Zahl CUDA Kerne usw wie eine 2080 Desktop, war halt etwas langsamer getaktet um das PL niedriger zu halten. Heute (bei Ada) kann man davon nur träumen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Mcr-King
Schöne Arbeit @DevPandi.

Leider wurden nur wieder die reinen Namensnachfolger getestet. Ich finde die Leistungsnachfolger deutlich interessanter, weil Namen, wie uns Nvidia und AMD zur Zeit zeigen, leider Schall und Rauch sind.

Der Nachfolger der 2060 (S) war die 3060 Ti, die auch bedeutend schneller war und (oh Wunder) auch wieder die 80er-Leistung der vorherigen Generation hatte.
Bei RTX 4000 müsste es eigentlich die 4070 sein, die die eigentliche 4060 Ti ist, welche nur um ein Namensschema nach oben gezogen wurde. Die 4060 ist eigentlich eine 4050 und das merkt man ihr an allen Ecken und Enden an.
 
  • Gefällt mir
Reaktionen: JackTheRippchen
Fresh-D schrieb:
Der Nachfolger der 2060 (S) war die 3060 Ti
Die 3060 Ti war der Nachfolger der 2060S
Die 3060 der Nachfolger der 2060
Die 4060 Ti ist eigentlich eher der Nachfolger der 3060
Während, da bin ich bei dir, die 4070 eher eine 4060 Ti gewesen wäre.
 
Würde es die 4060 mit 12 GB für ca. 200,- Eur geben, wären die wirklich geringen Leistungssprünge der letzten zwei Generationen in Ordnung. So sind es immer noch absurd hohe Preise, die immer mehr Leute Richtung Konsole treiben.
 
  • Gefällt mir
Reaktionen: Bänki0815, Mcr-King, SweetOhm und eine weitere Person
Zurück
Oben