Notiz GeForce RTX 2060: Custom Designs ab 369 Euro im Handel verfügbar

xexex schrieb:
Was kritisierst du an der Aussage? Die Karte ist so schnell wie eine 1070TI, sie wird vermutlich ab dem kommenden Monat mit Karten im 6 Layer Design günstiger zu bekommen sein, wann genug RTX Spiele auf den Markt kommen steht in den Sternen und ob der VRAM ausreichen wird, hängt von den Spieleentwicklern und der Verbreitung dieser Karte ab.

Das ist eine ehrliche und realistische Ansicht der Dinge, die im Gegenteil dazu steht was manche hier in ihren Kristallkugeln lesen, aber die einzig richtige ist. Die Kristallkugeln der meisten hier, entsprechen leider nur den persönlichen Vorstellungen und sind häufig stark in irgendeiner Farbe verfärbt.
Realistisch kann man die Karte als zu schwach für RTX in 1440p, aber eigentlich auch unter FHD einschätzen, das beweisen Tests mit BF. Das mag mit anspruchsloseren Spielen besser funktionieren, aber nicht mit AAA-Titeln. DLSS funktioniert derzeit nur unter 4K, ist also aktuell auch kein Kaufargument. Man kann jetzt natürlich eine Kristallkugel nehmen und vermuten, dass sehr bald Spiele kommen, bei denen die 2060 diese Techniken gut nutzen kann - aber das ist eben Spekulation, die er hier betreibt.
Realistisch ist auch anzunehmen, daß 6GB Ram durchaus limitieren können - denn das ist jetzt schon nicht ausgeschlossen,zumindest in AAA-Titeln (also gerade die, wo DLSS/DXR am wahrscheinlichsten eingebaut werden wird).
Realistisch gesehen kann es also gut sein, dass du mit der 2060 zukünftig nur 1070TI-Leistung etwas günstiger, aber mit weniger Ram bekommst. Und dafür kann man dieser Karte keine Empfehlung, schon gar keine "besondere Empfehlung" geben. Hier hat Igor selbst die Kristallkugel benutzt, und das wohlwollender als für eine sachliche Beurteilung gut wäre. Ich nehme an, er ist von dem reinen Vorhandensein der DXR-Funktionen als Technik-Freak derart begeistert, dass er sich dazu hinreissen lassen hat, denn so manch anderen Testern ging es ähnlich.
"Oh, die Karte liegt bei BF gerne mal deutlich unter 60FPS bei DXR-Nutzung, aber das ist soo geil" (sinngemäße Interpretation vom HWluxx-Test).
Eigentlich müsste man Abwarten empfehlen, bis die Karte günstiger ist oder der Nutzen der neuen Techniken auch ersichtlich ist. Oder gleich zur 2070 raten, die hat zumindest Reserven und 8GB.
 
  • Gefällt mir
Reaktionen: Sennox
daivdon schrieb:
Realistisch kann man die Karte als zu schwach für RTX in 1440p, aber eigentlich auch unter FHD einschätzen, das beweisen Tests mit BF.

Davon war im genannten Test gar nicht die Rede, schon alleine aus Mangel an RTX Implementierungen ist das unter "Wahrsagerei" einzuordnen.

Realistisch ist auch anzunehmen, daß 6GB Ram durchaus limitieren können - denn das ist jetzt schon nicht ausgeschlossen,zumindest in AAA-Titeln (also gerade die, wo DLSS/DXR am wahrscheinlichsten eingebaut werden wird).

Natürlich! Allerdings wächst der Speicherbedarf mit den verfügbarer Hardware. Wenn nur 1% der Käufer eine Karte mit 8GB besitzen, werden weiterhin die meisten Spiele mit wesentlich weniger Speicher laufen. Die Diskussion über den Speicher ist müßg, weil viele grundlegend davon ausgehen der Speicherbedarf müsste wie eine Pflanze jedes Jahr wachsen, auch wenn die Hardware nicht mitwächst. Dem ist aber nun mal nicht so, also bleibt es Spekulation.

Igor hat letztlich genau dies gesagt. Er hat die Fakten genannt und sich die Wahrsagerei weitgehend gespart. Etwas wovon sich einige Foristen hier ein gutes Beispiel nehmen könnten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
DocWindows schrieb:
Ähm, doch. Was nützen mir 6GB oder 8GB Texturen im Speicher denn in einer Mäusekinoauflösung wo ich die ganzen tollen Details gar nicht sehen kann weil die Texturen auf die - aufgrund der Auflösung - kleineren 3D-Objekte draufgepappt werden? Richtig, nichts. Das die Leute das subjektiv anders sehen mag sein, aber in so gut wie jedem Test musst du die Unterschiede in Texturqualitäten meist mit der Lupe in einem Screenshot suchen.

Davon einen inakzeptablen Mangel an Speicher bei 6GB herbeizureden, gleichzeitig aber anzunehmen dass 8GB da entscheidend besser wären, ist einfach nur albern.
Weck mich wenn 6GB bei Einstellung "Hoch" knapp werden.
Höhere Auflösungen verbrauchen mehr VRam, ungeachtet der Texturen, die jedoch erschwerend hinzukommen. Das ist nun mal so.
Edit: Eigentlich wollte ich das Zitat auf das du geantwortet hast dabei haben, aber ich bin zu faul es ruaszusuchewn und es wird nicht automatisch mitzitiert...
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Lübke82
Calpi schrieb:
Alles richtig gemacht mit meiner 1070 Ti Strix Advance für 380€ Danke Ebay
Jop ich auch^^
Ergänzung ()

DocWindows schrieb:
Weck mich wenn 6GB bei Einstellung "Hoch" knapp werden.
Wird doch schon beim neuen TR knapp.
Und da reden wir gerade mal von FullHD wo die 2060 eh overkill ist da weiste ja wie es mitn v-Ram bei WQHD+ ausschaut.
 
Nicht anders als bei FullHD weil die Speicherauslastung nicht von der Auflösung abhängt, sondern von der Größe der Texturen.
 
Ach nicht?
Wär mir aber neu.

Brauch in WQHD und UHD mehr an V-Ram als in FullHD.
 
  • Gefällt mir
Reaktionen: Lübke82
Blood011 schrieb:
Wird doch schon beim neuen TR knapp.
Und da reden wir gerade mal von FullHD

Wo genau steht das? Im Computerbase Test jedenfalls nicht. Da wurde nicht mit "Hoch" getestet.

Blutschlumpf schrieb:
sondern von der Größe der Texturen.

und von der Anzahl unterschiedlicher Texturen die man für eine Szene / einen Level / einen Teilabschnitt braucht.
 
RB6istGut schrieb:
Wer glaubt mit ner 2060 4k in ultra zocken und das in Zukunft auch noch, dem kann ich auch nicht helfen.
ja, 400€ sind zu teuer für ne 60er... das hat mit 6gb ram nix ztun.
und DLSS is 1440p und nicht 4k...

Natürlich hat der Preis eines Produktes IMMER etwas mit seiner Leistung zu tun. Insofern haben die 6GB Speicher damit sehr viel zu tun.
Und DLSS gibt UHD aus. Immer. Derzeit ausnahmslos. Dass intern irgend etwas in der Nähe von WQHD berechnet wird, ist etwas anderes. DLSS ist wenn man die Vergleichsbilder anschaut auch nur eine Art foveated rendering für Monitore. Der Bildbereich in dem die Action passiert sieht aus wie UHD mit Interpolation, die Randbereiche werden in niedriger Auflösung berechnet (oder Horizont etc). Aber wie so oft in der Industrie, was als KI verkauft wird ist einfach nur ein simpler Algo...
Ergo, Du bezahlst im Vergleich zu einer 1070Ti für Technologie - namentlich DLSS und DXR - welche Du nicht oder nur mit erheblichen Einbußen nutzen kannst. Praxisrelevant ist das nicht.
 
Ich zitiere zu diesem Thema noch einmal einen anderen ausführlichen Test, der meiner Meinung nach zu einem vernünftigen Ergebnis kommt, welches eben auch von anderen Publikationen bestätigt wird:

Quelle:
https://www.gamestar.de/artikel/nvi...eite2.html#benchmarks-in-full-hd-wqhd-und-uhd

Je nach Spiel und Auflösung kann sich die RTX 2060 deutlich vor einer GTX 1070 FE behaupten und duelliert sich mit der GTX 1080 FE.

Der 6,0 GByte große Videospeicher erscheint im Jahr 2019 für eine derart teure Karte unzeitgemäß, bereitet uns derzeit aber noch keine Probleme in den Benchmarks. Zwar belegt Wolfenstein 2 bereits in Full HD fast den gesamten Videospeicher, das Spiel läuft aber zumindest in unserer Benchmark-Sequenz weiterhin ohne ungewöhnliche Ruckler oder spürbar schlechtere Frametimes.

Die anderen Spiele in unserem Testparcours füllen selbst in 4K/UHD-Auflösung nicht den kompletten Videospeicher der RTX 2060. Wir gehen davon aus, dass die RTX 2060 in WQHD-Auflösung (2560x1440) in den meisten Fällen keine Probleme aufgrund der 6 GByte VRAM bekommt. Allerdings gibt es bereits jetzt Spiele wie Final Fantasy 15 und eben Wolfenstein 2, die den Videospeicher komplett belegen und in den nächsten zwei Jahren dürften sich weitere Titel dazugesellen - ob und wie sich das allerdings auf die Performance auswirkt, ist aktuell absolut nicht einzuschätzen - Abhilfe schafft hier momentan nur, einen Aufpreis von derzeit rund 120 Euro in Kauf nehmen und zur etwas schnelleren und mit 8 GByte VRAM bestückten RTX 2070 zu greifen.

Klar formuliert und auf de Punkt gebracht.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: RB6istGut, dominic.e, Lübke82 und eine weitere Person
deo schrieb:
Die RTX2060 ist ein guter Kaufanreiz für die RTX2070. Das hat auch schon mit der GTX980 gut funktioniert, da sie zu der Zeit einige als "Strafe" für die Speicherlösung der GTX970 gekauft haben.
Diese "Strafe" schmeckt Nvidia natürlich gut. Ja. Leute, kauft die RTX2070 um sie zu bestrafen! :p

Jedenfalls, was Asus angeht...Vor einer Woche gab es zuhauf die RTX 2070 (Dual) für ca. 499 Euro. Seit dem Release der RTX 2060 sind die Preise der RTX 2070 aber auch wieder auf >550 Euro hochgegangen, auch für die nicht-Strix Varianten.

Komischer Zufall, oder ?! Es muss ja eine deutliche Preisdifferenz da sein, zu den nicht gerade günstigen RTX 2060. Dann hebt man das Preisniveau der höherwertigen einfach wieder an. :evillol:
 
RB6istGut schrieb:
Höhere Auflösungen verbrauchen mehr VRam, ungeachtet der Texturen, die jedoch erschwerend hinzukommen. Das ist nun mal so.
keine 2 posts danach:
Blutschlumpf schrieb:
Nicht anders als bei FullHD weil die Speicherauslastung nicht von der Auflösung abhängt, sondern von der Größe der Texturen.

@Blutschlumpf[/USER]: poste mir mal eine seriöse Quelle, die diese Behauptung untermauert. Echtzeitrtendern in höheren Auflösungen braucht mehr VRam, zumindest wars das letzte mal so, als ich nachgelesen habe.
 
Zuletzt bearbeitet von einem Moderator:
Natürlich ist der VRAM-Verbrauch nicht auf Bit genau gleich, z.B. der Framebuffer dürfte natürlich etwas größer sein (knapp 32MB UHD zu knapp 8MB FHD pro Frame), aber das sind bei 6 oder 8GB VRAM keine Dimensionen, die nachher dazu führen, dass ein Spiel nicht in UHD spielbar ist weil der RAM zu klein ist.

Ich habe leider keine sinnvollen Vergleiche seriöser Quellen gefunden (also gar keine, weder für die eine noch die andere These), ich lasse mich aber gerne eines Besseren belehren.
Ich frage mich natürlich warum es niemand testet wenn es doch angeblich einen Unterschied macht (hier auf CB gabs ja neulich nen Artikel zur VRAM-Größe, der die Auflösung vollkommen außen vor lässt).
Ich hatte es deshalb einfach mal bei mir getestet. Dazu habe ich TESO mit hohen Texturdetails und verschiedenen Auflösungen laufen lassen (1920x1200 gegen 1024x600, das entspricht etwa dem Verhältnis UHD zu FHD, mein Bildschirm kann kein UHD) und im Overlay des AMD-Treibers geguckt wie viel belegt ist.

Ergebnis: Es sind immer 1,9 - 2,0GB.
 
Hier bitte: https://www.tweaktown.com/tweakipedia/90/much-vram-need-1080p-1440p-4k-aa-enabled/index.html
ist jetzt nicht hochwissenschaftlich, aber scheint kein BS zu sein. 1440p hat. solange keine kantenglättung genutzt wird, wenig einfluss. Mit AA sieht die sache krass anders aus und mit 4k sowieso(mit/ohne AA)
Aber ich lass mich auch eines besseren belehren, hätte gedacht dass es krasser wäre in 1440p. Was man sieht, ist dass es anscheinend sehr stark aufs spiel ankommt. Manche brauchen nicht viel mehr, manche 20% mehr.
Finds cool dass du das selbst getestet hast. Interessantes Ergebnis.
Bussies
 
Zuletzt bearbeitet von einem Moderator:
Danke, hätte ich nicht gedacht, dass das so "eskaliert" mit 4k.
Dann scheint die Weißheit "Texturen brauchen Ram, Auflösung braucht GPU-Power" wohl nicht mehr zu gelten.
 
Ich muss zu geben dass der Speicher mir als Konsument auch irgendwie übel aufschlägt, hätte sonst echt Interesse an der Karte gehabt.
Irgendwie ein doofes Gefühl, wenn im Prinzip alles an der Karte Zukunftssicher wirkt und den aktuellen Anforderungen von Full HD @ 60/75 FPS voraus ist, nur der Speicher schon so an seiner Grenze ist, bzw "grade" noch so ausreicht.

Wäre auch shit, wenn ich ein Auto kaufe, was 250kmh fahren kann, aber die Reifen bald nur noch 200kmh mitmachen. Einfach schade um den teuren schönen Motor, der wohl bald durch Reifenlimitierung absäuft.

Natürlich "kann" es sein dass die 6 gb noch ne weile in den meisten Fällen ausreichen, aber bei 400,- will ich absolute Sicherheit haben dass nix zu früh limitiert.

Trotzdem ne schöne Karte.
 
Jetzt mal alle melden die sich eine 2060 kaufen werden oder es schon getan haben und die Karte nur 1-2 Jahre nutzen werden und das nur in FHD.
Weil für die wird es dann je nach Spiel keine oder kaum Probleme geben.

@xexex
Kannst du mir mal bitte eine seriöse Quelle linken, die sagt, das wenn die Hersteller auf die günstigeren PCBs mit nur 6 Layern umsteigen, die Kostenersparniss auch an den Kunden weiter geben.
Du postest das jetzt immer wieder, als wäre es ein Fakt. Muss ja somit auch irgendwo stehen.

Weil ich sehe dies nämlich persönlich nicht so kommen, denn dazu müssten ja die Unternehmen bereit sein auf Gewinn zu verzichten.
 
Selanius schrieb:
Jetzt mal alle melden die sich eine 2060 kaufen werden oder es schon getan haben und die Karte nur 1-2 Jahre nutzen werden und das nur in FHD.

3 Posts über Deinem ist eine Quelle angegeben, wie es um das Verhältnis zu VRAM und Auflösung steht.
1440p verbraucht je nach Programmierung unwesentlich mehr.

Wie kommst Du darauf, dass in 1-2 Jahren die Karte nicht mehr nutzbar sei und dass dann alle Titel plötzlich 8GB VRAM benötigen und zudem keine AA und Texturoptionen mehr wählbar sind?

Belege? Statistiken, die das Ansteigen des VRAM Verbrauchs der letzten Jahre auf die Zukunft extrapolieren?
Oder doch nur Raterei und Glaskugel?

Wie kommt man auf den Trichter, dass eine Mid- Range Karte mit allen in 2-4 Jahren erscheinenden AAA Titeln jeweils auf Ultra (also next- Gen Einstellungen) ohne Probleme laufen muss?

Grüße
Zero
 
Zuletzt bearbeitet:
Selanius schrieb:
Du postest das jetzt immer wieder, als wäre es ein Fakt. Muss ja somit auch irgendwo stehen.

Das ergibt sich alleine aus der Logik und der Konkurrenz, letztendlich will man ja möglichst viele Kunden abgrasen und nach unten klafft bei Nvidia derzeit noch eine riesige Lücke. Alles was ich billiger herstellen kann, kann ich auch billiger verkaufen, sonst würde eine ASUS Strix genauso viel kosten wie eine billige Variante.
 
Selanius schrieb:
Jetzt mal alle melden die sich eine 2060 kaufen werden oder es schon getan haben und die Karte nur 1-2 Jahre nutzen werden und das nur in FHD.
Ich meld mich mal, die 2060 steht auf meinem Zettel ;) Weil sie mir vollkommen ausreicht und mit Sicherheit auch in 1-2 Jahren und darüber hinaus. Ich komme auch jetzt mit einer 970 problemlos aus (bis auf die fehlende Power zum Teil :D)
 
Blutschlumpf schrieb:
Danke, hätte ich nicht gedacht, dass das so "eskaliert" mit 4k.
Dann scheint die Weißheit "Texturen brauchen Ram, Auflösung braucht GPU-Power" wohl nicht mehr zu gelten.
Wenn ich mit UHD die 8 fache Pixelmenge zu FHD darstelle sollte die GPU nicht nur leistungsstärker sein weil sie 8x mehr Berechnen muss auch Ram spielt dann eine Rolle. Warum brechen sonst bei entsprechenden Tests die ansonsten baugleichen Karten mit 4 statt 8 oder 3 statt 6 GB bei steigender Auflösung zum teil massivst ein wenn nicht mangels Ram.
Generell ist eine 2060 im Vergleich mit der einer 1070ti GPU Ramtechnisch bei der Leistung einfach unterversorgt. Man stelle sich eine 1070ti zu release mit 6Gb Ram vor. Was da für ein Shitstorm losgegangen wäre und das auch noch berechtigt. Eine 1070ti war/ist eine WQHD Karte und das muss bei gleicher GPU Leistung auch der Anspruch an eine 2060 sein und hier sind für WQHD 8Gb nun mal State of the Art und angebracht.
 
Zurück
Oben