Test GeForce RTX 2060 im Test: Schnelle GPU trifft 6 GB statt 8 GB GDDR6 für 370 Euro

Darkseth88 schrieb:
[...]Die selbe Diskussion war vor 2 1/2 Jahren (!) bei der GTX 1060 vs. RX 480, und alle haben gesagt die RX 480 wird so hart davon ziehen nach nem Jahr, wegen dem Vram.
Und selbst heute ist die RX 480 im Schnitt langsamer...


Die Karte ist immernoch für 1080p ausgelegt, mit potenzial für 1440p.
Und wenn der Speicher mal doch knapp wird, stellt man die Texturen auf Hoch, statt auf Ultra, und das Problem gibt es dann auch nicht mehr. Ich wette, über 90% aller Gamer könnten den Unterschied definitiv nicht erkennen. Gerade auf einem 1080p / 1440p Monitor.[...]

Sehe ich prinzipiell ähnlich (vor allem den Teil mit 'die Texturen mal ne Stufe runter stellen'; fällt häufig optisch kaum ins Gewicht), aber das Argument an sich wird mMn mit den Jahren eher gewichtiger, denn unwichtiger.
2016 waren noch wenig Spiele wirklich auf die VRAM Menge angewiesen und der Preispunkt war auch ein Anderer. Bei einer UVP von 279€ und kaum Spielen mit VRAM Problemen, ist die Sachlage doch etwas anders als 2 Jahre später bei einer UVP von 369€ und einigen Spielen mehr mit dem entsprechenden VRAM Hunger.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: baizer, Acedia23, Hurricane271 und 3 andere
Erst behaupten, die Karte liefert mit Raytracing stabile 60 FPS und dann kann sie das nicht halten, weil Nvidia selbst den Speicher kastriert hat. Wenn es nicht so traurig wäre, müsste ich lachen :freak:
 
Xes schrieb:
Lies doch einfach den Test den du kommentiert hast. Kurze Antwort: Nein. Eine (Custom) 1080 ist etwas schneller und mit den 8GB RAM auch besser bestückt, hat aber kein RT.

Zum Test:
Da habe ich ja noch einmal Glück gehabt:
Hatte schon befürchtet Nvidia könnte die Karte im üblichen XX60 Preisbereich platzieren und den Wiederverkaufswert meiner alten GTX 1070 senken.
So wie das aussieht, sollte das aber nicht passieren. Die 2060 ist nicht arg viel schneller und es wurde am Speicher gegeizt.
Nun ja, die Sache ist die, undzwar werden hier, wie du auch bereits erwähnt hast, die FE-Modelle verglichen. Jedoch ist anzumerken, dass auch in Kürze die Custom - Modelle der 2060 sicherlich in den Markt eingeführt werden. Da kann es schon sein, dass es eng für die 1080 sein könnte. Zumal die Benchmark-Ergebnisse auch relativ beieinander liegen.

Gelesen habe ich den Artikel, Dankeschön!
 
Chillaholic schrieb:
Wieder einer der es nicht rafft, bei mangelndem Speicher sinken nicht die FPS spürbar sondern die Frametimes.
Es kann sein, dass man ein paar FPS verliert dank Nachladerucklern, im Normalfall ist es aber so, dass nur die Frametimes in den Keller gehen. Deine Argumentation ist also leider am Thema vorbei. Dies fällt vielen gar nicht auf, da sie es gewohnt sind mit einer solch großen Verzögerung zu spielen.


flappes schrieb:
Es geht nicht um absolute FPS oder Ultra-Hohe Texturen sondern stabile schnelle Frametimes.


Und WO ist das das problem? Wären die frametimes schlecht, dann würde sich das in niedrigen min-fps auswirken.
Wenn die fps stabil oben bleiben, und NICHT (kurz!) dropen, können auch die Frametimes nicht schlecht aussehen.

Und die min-fps sind in den Ergebnissen auf CB auf 1440p sogar noch weniger ein Problem als unter 1080p?

Aber nein, ich guck mir alle Games einzeln an, und zwar auf 1440p. Die Min-fps sehen kein deut schlechter oder besser aus, als bei den 8gb Karten, die kleinen Unterschiede zeigen sich genau so wie bei den avg-fps, die kommen nämlich einfach durch die Performanceunterschiede.


Eure Aussagen sind zwar an sich korrekt.
Aber der Speicher IST NICHT MANGELND - zumindest heute nicht, bei den Games, die CB getestet hat (ausnahme ffxv, was hier eher ein ausreißer ist, als die Regel).
Eure Aussagen sind hier korrekt für den Fall, dass es mangelnden speicher gibt. Das ist aber laut dem CB Test aktuell NICHT der Fall.

@flappes Doch es geht um ultra hohe Texturen. Die frametimes brechen NUR ein, wenn der speicher sehr deutlich nicht reicht. Und womit wird der Speicher am meisten gefüllt? Textur-stufe.
Eine stufe weniger, und bei vielen aktuellen Games sind etliche gb weniger Vram belegt (nicht gebraucht.. belegt)
Und genau das ist meine Aussage: WENN man mal in die situation kommt, dass 6gb Vram wirklich nicht mehr reichen (tun sie heute!), stellt man die Texturstufe nicht mehr auf Ultra, sondern eins runter, und fertig.

Ihr beiden meckert aufgrund irgendwelchen theoretischen Problemen, die aktuell nicht da sind.
 
  • Gefällt mir
Reaktionen: Alex1966, Organix, Lübke82 und 2 andere
Ich finde die Karte auch nicht schlecht, sie schließt die Lücke von der 580 zur 2070 und ich denke sie wird auch noch billiger wie bei der 2070 oder anderen Karten (320€).
Eine neue 1070ti kostet mehr wie 400€ und ist fast genau so schnell.
Bald ist die 1070ti eh teurer und nicht mehr zu haben wie bei der 1080.
 
  • Gefällt mir
Reaktionen: Lübke82
Ich frage mich echt, warum sich die ganzen AMD-Fanboys so aufregen, dass die NVidia Karte so schlecht, langsam, teuer und mit zu wenig Speicher ist? Ihr kauft die doch eh nicht?
 
  • Gefällt mir
Reaktionen: Hardware_Hoshi, Alex1966, Organix und 4 andere
Captain Mumpitz schrieb:
Ja aber... wieso sollte ich 370€ für eine GPU ausgeben, nur damit ich die Texturen dann reduzieren darf?! Wenn ich 370€ ausgebe, dann erwarte ich, dass ich zumindest im hier und jetzt (und vllt. für die nächsten 1-2 Jahre) zumindest Texturdetails auf Anschlag hauen kann - und nichts anderes ist akzeptabel!

Prinzipienaufstellung aus Prinzip.

Wozu sollte ich 4k Texturen in den Grafikspeicher laden, wenn ich bloß ne 2K Auflösung habe?
Das ist genauso Luxus wie DSR zu nutzen. Nice to have, aber eigentlich nicht nötig.

Ob ich in meinen Flugsimulator auf WQHD nun 4K oder 2K Texturen lade, macht optisch genau keinen Unterschied. Die großen Texturen werden auf die kleinen Objekte gepappt und dabei angepasst.

Außer große Zahlen im Konfigurationsmenü habe ich keinen Vorteil von diesen 4K Texturen.
 
  • Gefällt mir
Reaktionen: Alex1966 und Lübke82
Steini1990 schrieb:
Ich würde keine Hoffnungen in Intel setzen was Consumer Grafikkarten angeht. Die Spiele werden schon jetzt nur auf NVIDIA optimiert.

Stimme ich dir nur bedingt zu. Was Intel angeht, sehe ich deinen Einwand als richtig an.

Ob sie was im Verborgenden in der sichersten Schublade einen Plan für eine mega Grafikkarte haben, wissen wir natürlich nicht, aber es wäre komplett gegen ihr bisheriges Vorgehen. Im Gegensatz zu AMD, die vor vielen Jahren ATi kauften, müsste Intel alles selbst entwickeln. Die integrierten Intel Grafkeinheiten sind zu den AMD APU Lösungen mehr als nur einiges langsamer.

Glaube kaum, daß Intel das auch finanzielle Risiko einer wirklich eigenen Grafikkartenentwicklung heute noch eingeht.

Wo ich dir nicht zustimme, ist die Optimierung auf nVidia.

Spielentwickler gucken, womit man gut punkten kann und was sich gut umsetzen lässt. Würde deine pure Aussage so stimmen, gäbe es weit mehr als nur eine handvoll Games, die PhysX unterstützen.

Ob man Raytracing, was nVidias RTX Karten jetzt als erste so unterstützen, nur in gewissen Tripple-A Spielen sehen wird oder ob es sich generell etabliert, wird man sehen.

Zum Thema RTX 2060: interessante Karte. Selbst in 1440p macht sie hier in den Tests eine sehr gute Figur, in der Regel 30% schneller als eine GTX 1060 und eine RX 590. Sprich hätte ich derzeit keine RX 580, wäre wohl die RTX 2060 meine Wahl, auch wenn sie 2 GB weniger hat.
 
  • Gefällt mir
Reaktionen: Organix und FCK-THIS
@Rock Lee sehr gut auf den Punkt gebracht.

Rasterizing kann die richtig gut, Raytracing leider deutlich schlechter. Und die 6 GB VRAM limitieren schon jetzt, besonders bei Raytracing.

Und du lieber @RB6istGut redest leider kompletten Blödsinn...
 
  • Gefällt mir
Reaktionen: Rock Lee
Captain Mumpitz schrieb:
Ja aber... wieso sollte ich 370€ für eine GPU ausgeben, nur damit ich die Texturen dann reduzieren darf?! Wenn ich 370€ ausgebe, dann erwarte ich, dass ich zumindest im hier und jetzt (und vllt. für die nächsten 1-2 Jahre) zumindest Texturdetails auf Anschlag hauen kann - und nichts anderes ist akzeptabel!

Ich habe für meine Vega56 umgerechnet 365€ bezahlt. Die ist gleich schnell und hat 8GB VRAM, ich hau in jedem installierten Spiel unter FHD alles auf Anschlag und sogar auf 1440p funktioniert das bei einem Grossteil der Titel. Das wird mit der 2060 schon nicht mehr im selben Masse funktionieren.

Hast du einen anderen Test gelesen als ich!? Die 2060 tut in FullHD genau das gleiche wie deine Vega 56, nur das sie MEHR FPS bietet und für die Zukunft RTX/DLSS. Also wieso sollte jemand die Vega56 kaufen oder die Texturen reduzieren müssen?! Seine Aussage bezog sich auf WQHD , da musst du mit der Vega 56 auch reduzieren je nach Spiel mehr oder weniger. Wer sich einen WQHD (2.560 × 1.440 ) Monitor kauft und die 2060 und dann reduzieren muss anstatt direkt die 2070 kaufen für die Auflösung, dann ist es nun mal sein Problem, nicht deines und schon gar nicht nVidias. Sie bieten für jede Auflösung die passende Karte an.

Was bietet AMD außer den gleichen Parolen wie früher? Früher hieß es wartet auf Vega , Vega wird es schon nv zeigen. Nun geht das gleiche mit wartet auf Vega2 "irgendwann dieses Jahr" oder gleich besser noch 2 Jahre auf Navi. Je ne ist klar...ihr könnt froh sein wenn (wovon ich nicht ausgehe) Vega2 es schafft auch nur annähernd an die 1080TI dran zu kommen. Sprich sie kahmen 2 Jahre später nicht gegen die (immer noch) aktuelle 1xxx Generation an und können froh sein "wenn" sie 3 Jahre später überhaupt gleich ziehen können mit der dann eben 3 Jahr alten Generation. :daumen:
 
  • Gefällt mir
Reaktionen: Organix und FCK-THIS
ZeXes schrieb:
Für FHD ist die Karte Top. .

Die 980Ti, 1070, 1070Ti und nun die 2060 sind m.E. keine "vollwertigen" 1440p @Ultra Karten gewesen. Selbst die Vega 56, 64 und 1080 sowie die 2070 rechne ich noch raus.

Ab 1080Ti und 2080, okay. Aber selbst die 2080Ti hat ein Dutzend Games, bei denen das Limit der 70-100 fps Korridor ist auf Ultrasettings. Ja, auf 1440p. Da ist nix mehr mit nur ansatzweise 144 oder 165 fps/Hz knallen.

Also als Full HD und 23 Zoll oder 24 Zoll Karte mit 144 Hz/fps Ambitionen ist die 2060 wunderbar für die aktuellen und kommenden Games m.E. (aber auch DA nicht mehr dauerhaft auf Ultra dank der Engines von Ubisoft u.a.)


Edit: Ich gehe immer vom Max fps der Monitor aus, nicht von den "kann die Karte 60 fps stemmen"! Also ich habe da die penible Enthusiastensicht. 60 fps sind für mich nix an Overhead und Reserve oder "gut", sondern das unterste Limit.
 
  • Gefällt mir
Reaktionen: Organix und FCK-THIS
wenn es nach cb geht, ist meine cpu schon seit 2 jahren unbrauchbar. sind ja nur 4 echte kerne und das war vor 2 jahren schon nicht zukunftssicher. aber übertreibt mal weiter mit dem totschlagargument zukunftssicherheit. mein 4 kerner rennt und rennt und rennt derweil immer noch sehr gut^^^. btw wer games zockt, die mit 6gb vram nicht spielbar sind, wird sich eh keine rtx2060 kaufen, also spart euch dieses totschlagargument "zukunftssicherheit" für die zukunft;)
 
  • Gefällt mir
Reaktionen: Alex1966
Chillaholic schrieb:
Die Frametimes sind auf FHD als auch WQHD grundsätzlich schlechter als bei der 1080.
Hast du den Test gelesen?

https://www.computerbase.de/2019-01...g-99th-percentile-frametimes-in-fps-2560-1440
Das Argument ist technisch leider falsch so ^^

Die avg fps sind nämlich auch schlechter als bei der 1080.
Warum? Weil sie einfach um einige % mehr Leistung hat. Das ist völlig normal.
Wären avg fps z.B. identisch zu einer 1070 ti, aber die min-fps 10-15% niedriger.. DANN wäre an der Aussage etwas dran. So aber nicht. Die Min-fps fallen im vergleich zu den 8gb Modellen NICHT stärker ab, und verhalten sich völlig Problemfrei.

Vergleichs mal mit einer vega 56. Die hat nämlich schlechtere Frametimes, obwohl sie 8gb hat, UND deutlich mehr Bandbreite.
Und jetzt?
Man sollte nicht nur die zahlen Lesen, sondern diese auch verstehen und interpretieren können. ;-)

Btw:
So mal ein wenig rumgesucht, um was passendes zu finden.
Gamersnexus: https://www.gamersnexus.net/hwrevie...-founders-edition-review-benchmark-vs-vega-56

https://www.gamersnexus.net/images/...060/rtx-2060-review-sniper-frametimes_all.png

Die Frametimes sind gegenüber einer GTX 1070 (8gb) kein deut schlechter. Der Verlauf ist so ziemlich identisch, nur eben niedriger, weil sie mehr Leistung hat, und mehr fps schafft.
 
  • Gefällt mir
Reaktionen: Organix und FCK-THIS
recht fix die Karte, die 6 GB stören mich allerdings schon. 12Gb wollte man der Karte dann wohl doch nicht spendieren, sieht halt kacke aus wenn die kleine Karte mehr Ram hat als die große ;)

Ob nun aber 6 zu 8GB den mega Unterschied machen?

Ich hab nicht mehr ganz im Kopf ob sich eine bessere Speicher Komprimierung auch auf den VRAM Verbrauch auswirkt. Falls ja dürfte die Karte ja so effektiv wie Vega 64 sein was Ram Bedarf angeht.
 
  • Gefällt mir
Reaktionen: Organix und FCK-THIS
ZeT schrieb:
Diese Sichtweise ist ja durchaus legitim. Aber fällt dir was auf? "Wieso sollte ich..., wenn ich..." Das ist deine persönliche Präferenz und für "dich" ist diese Karte nichts. Auf den Preis geh ich nicht ein, da in der ursprünglichen Aussage der Preis keine Bedeutung hatte sondern es nur um die 6 GB ging.

Mir persönlich ist zB. die Rohleistung wichtiger als die Qualität der Texturen. Lieber kann ich in Zukunft die Qualität verringern und trotzdem noch akzeptable Frames erreichen.

Das bedeutet jetzt nicht das ich ein potentieller Käufer einer 2060 bin, da für mich persönlich 6 GB auch zu wenig wären - aber daraus eine globale Aussage abzuleiten das 6 GB nicht reichen ist einfach nicht zutreffend. Meine 1060 3G hat ja aktuell das gleiche Problem, aber da ich aktuell kein Geld ausgeben will (warten auf AMD is die Devise, mal schauen was die bringen) dreh ich halt die Quali runter. Solange die Frames passen kann ich damit leben.

Mit Verlaub, da verteidigt einer etwas nicht zu verteidigendes. Ich bin jezt seit der Geforce3/4 einigermaßen aktuell informiert bezüglich des Grafikkartenmarktes und es ist sogut wie noch nie vorgekommen, dass man bei einer Karte schon zu Release deutliche Nachteile durch den Speicher in Benchmarks ermitteln konnte. Eigentlich Erinnere ich mich nur an die Radeon HD3850 256MB und GeForce 8800GT 256MB und danach an die RX480 4GB und GTX 1060 3GB/6GB.

Und für so einen Mist 370€ zu verlangen, womit man vor der Mining-Seuche noch eine 70er-Karte und zu härtesten Preiskampfzeiten eine 80er-Karte gekriegt hätte, ist einfach nur unverschämtes Monopol-Ausnutzen. Wie einige Vorredner schon sagten, die Karte wird teils gelobt, weil sie die 1070Ti schlägt (die von NV ja hinsichtlich des Taktes extrem kastriert wurde) - zu deren Preis! Wir werden also langsam daran gewöhnt, dass 370€ für diesn Käse normal sind.

Ich muss aber wohl zugeben, dass AMD da ebenso schuld dran ist - was nützen da 8GB ab 200€, wenn selbst der beste Chip gegen einen beschnittenen Midranger abstinkt? Die einzige Konkurrenz für aktuelle NV sind gebraucht alte NV!
 
  • Gefällt mir
Reaktionen: Froz0ne
Smartin schrieb:
Ich frage mich echt, warum sich die ganzen AMD-Fanboys so aufregen, dass die NVidia Karte so schlecht, langsam, teuer und mit zu wenig Speicher ist? Ihr kauft die doch eh nicht?

Weil die Leute anscheinend die Hoffnung nicht aufgeben, dass nvidia endlich mal was zum anständigen Preis verkauft.

Die Enttäuschung bleibt leider solange bestehen, bis AMD konkurrenzfähige Karten liefert. Bis dahin kann nivida machen was es will.
 
  • Gefällt mir
Reaktionen: Laphonso und FCK-THIS
Gamefaq schrieb:
Sprich sie kahmen 2 Jahre später nicht gegen die aktuelle 1xxx Generation an und können froh sein "wenn" sie 3 Jahre später überhaupt gleich ziehen können mit der dann eben 3 Jahr alten Generation. :daumen:

Mal das Entwicklungsbudget und den Umsatz im GPU Segment von AMD gegenüber Nvidia gesehen ? können fast noch froh sein das wir überhaupt noch Highend Karten zu Gesicht bekommen und wir mit AMD noch einen weiteren Grafikkarten Hersteller auf dem Markt haben. Ansonsten würde die 2060 jetzt vielleicht schon 500€, mit nur 4GB Vram, kosten.

Aber kauft ruhig weiter Nvidia.
 
  • Gefällt mir
Reaktionen: Fighter1993
Simariqcocuq schrieb:
Nun ja, die Sache ist die, undzwar werden hier, wie du auch bereits erwähnt hast, die FE-Modelle verglichen. Jedoch ist anzumerken, dass auch in Kürze die Custom - Modelle der 2060 sicherlich in den Markt eingeführt werden.
Schon aber das FE Modell der 2060 ist stock 7% langsamer als die 1080 FE stock.
Custom vs. Custom dürfte vermutlich noch besser für die 1080 ausfallen, da der blowerstyle Kühler der 1080 wirklich mies war, während der Kühler der 2060 schon ganz ok ist.
 
Zurück
Oben