News Nvidia Turing: GeForce RTX 2060 mit 1.920 Shadern und 6 GB Speicher

Ich hab mir Übergangsweise die RX580 geholt, mal schauen, was Navi bringt. Aber die RTX2060 hmm, ja ich musste grinsen, als ich 6Gb Speicher gelesen habe.
 
  • Gefällt mir
Reaktionen: ed33, Herr Melone, GERmaximus und 4 andere
6 GB VRAM für Upper Midrange im Jahr 2019 :lol:. Sobald die neue Konsolengeneration 2020 kommt, kann der 2060 einpacken.

Technisch ist es natürlich verständlich. Man braucht eine Karte, um die teildefekten TU106 zu verwerten, von denen es durch den großen Chip einige geben sollte. Und 8 GB Ram gehen halt nur mit vollen Speicherinterface.
 
  • Gefällt mir
Reaktionen: Blumenwiese
Cronos83 schrieb:
1x gtx1080ti x2 per sli

1x RTX 2080ti x2 per nvlink
.


Mal kurz OT, aber warum hast du ihnen nicht diesen Blödsinn ausgeredet wenn du es für sie scho zusammengebaut hast ? Multi GPU Systeme waren nie gut und werden nie gut sein...zum zocken zumindest. Wenn man auf laaaaaange balken steht will ich nichts gesagt haben....^^
 
  • Gefällt mir
Reaktionen: Zitterrochen, Celinna, Cronos83 und eine weitere Person
Mal ganz davon abgesehen, was ich von den 6gb VRam halte, glaube ich, dass die Karte sich absolut gut verkaufen wird.

Wahrscheinlich sehen wir hier über 30% mehr Performance in FHD im Vergleich zur GTX 1060.
GTX 1060 Besitzer werden tendenziell eher auf die Karte schielen als RX480/580/590 Besitzer deren Karten 8gb haben.

Wer sowieso gerne Nvidia kauft betrachtet Tests wahrscheinlich wohlwollend.
Wer in 1080p als "Normalo" spielt hat wahrscheinlich bisher wenig Probleme mit 6gb VRam.

Dann kommt folgendes zusammen:
Spührbar mehr Leistung als 1060
Für Laien momentan in 1080p keine direkt spürbaren Nachteile (die meisten wissen nichtmal warum irgendein Spiel ruckelt, laggt oder sich "nicht rund" anfühlt - sieht man jeden Tag an den Posts).
Alte Karte schon lange im Rechner... da könnte mal was neues her.
RTX2070 aufwärts für viele unangenehm teuer.

Zack... guter Absatz bei RTX2060.

Die 6gb interessieren dann wieder nur in Foren wie diesem oder in 2 Jahren die unbedarften Käufer...
Ergänzung ()

W0lfenstein schrieb:
Mal kurz OT, aber warum hast du ihnen nicht diesen Blödsinn ausgeredet wenn du es für sie scho zusammengebaut hast ? Multi GPU Systeme waren nie gut und werden nie gut sein...zum zocken zumindest. Wenn man auf laaaaaange balken steht will ich nichts gesagt haben....^^


Genau das war deren Antwort.
"Ich will lange Balken"

Darauf antworte ich dann in der Regel nur noch: "Ok, wenn du das willst".
Für Diskussionen NACHDEM ich aufgeklärt habe, bin ich zu alt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Unnu, Monarch2, Herr Melone und 7 andere
pietcux schrieb:
Ich weiß nicht was es dir oder euch sagen soll, mich beeindruckt es immer wieder wie gut das Spiel aussieht und wie wenig Ressourcen es im Vergleich zu heutigen Spielen es dafür braucht.

Da hast du ja auch vollkommen Recht und ich finde es super, dass das Spiel auch nach all den Jahren so gut gefällt und soviel Spaß macht.

Das ändert aber nichts an der Tatsache, dass 6GB VRAM in 2018/19 ein wenig knapp bemessen sind.

Mit einer RTX 2060 könnte man analog zur 1070/1070 ti und RX VEGA 56/64 eigentlich in Richtung WQHD gehen, weshalb beschneidet man die GPU also so?

kisser schrieb:
Das sind doch Zahlenspielereien. Wichtig ist, was am Ende dabei rauskommt. Und ich z.B. sehe Echtzeit-Raytracing als "most sexiest feature" der letzten 10 Jahre.

Naja, da muss aber noch einiges passieren um von sexy zu sprechen. Ein guter Anfang ist gemacht und ich war einer der ersten die sich über die Fortschritte in BF5 gefreut haben, aber die wahren Vorteil von Raytracing werden wir erst in 1-2 Generationen sehen und eine RTX 2060 ist (ausgehend von einer RTX 2070) dazu nun wirklich zu schwachbrüstig.

Ich bleibe dabei, alles steht und fällt mit dem Preis und auf den bin ich echt gespannt.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: ed33, Cpt.Willard und Sun-Berg
Cronos83 schrieb:
Darauf antworte ich dann in der Regel nur noch: "Ok, wenn du das willst".
Für Diskussionen NACHDEM ich aufgeklärt habe, bin ich zu alt.

Och immerhin hastes ja versucht :D
 
  • Gefällt mir
Reaktionen: Cronos83
599,-
 
W0lfenstein schrieb:
Och immerhin hastes ja versucht :D

Sogar intensiv davon abgeraten. Aber irgendwann ist's gut.

Das Argument: "Ich will aber" ist einfach nicht schlagbar und der Versuch einfach nur ermüdend.
 
  • Gefällt mir
Reaktionen: Unnu, GERmaximus und W0lfenstein
iGameKudan schrieb:
54,4FPS wenn man die Frametimes nimmt... Ja pralle. In FullHD... Das ist ne Framerate die man akzeptieren könnte, wäre es UltraHD. Aber doch nicht in FullHD. :freak:
Also ich akzeptiere die auch in Full HD.
 
  • Gefällt mir
Reaktionen: Smartbomb und pietcux
Blumenwiese schrieb:
Ne 1060 mit 8 GB hätte sich weit öfter verkauft, RX 580 und 1060 haben so ca die selbe Leistung, jedoch gab es sehr sehr viele Leute die wegen 2GB mehr RAM zur RX 580 gegriffen haben.

stats.png
 
  • Gefällt mir
Reaktionen: Smartbomb, RichieMc85, kisser und 6 andere
Cronos83 schrieb:
oder in 2 Jahren die unbedarften Käufer...

Das ist der springende Punkt.
Von Nvidia ist das sehr gut kalkuliert, aber eben nicht für die Kunden.
Die wenigsten verstehen das technisch woran es dann gelegen hat hinterher.
Mich wundert ja schon, warum das immer wieder so durchgeht.
Andererseits würde ich deine These mit dem erst mal nicht merken diesmal etwas anzweifeln.
Der ein oder andere wird da schon dabei sein der den Monitor aufrüstet oder die Features nutzen wollen die Nvidia so bewirbt und da ist mit 6 GB sehr schnell Essig. Je nachdem wann die PS5 startet wird das sowieso sehr fix gehen mit dem mehr VRAM. Da werden wir einige Sprünge erleben. So wie ich AMD kenne werden die beim Speicher nochmal drauflegen. Im Grunde wiederholt sich das jetzt schon mehrfach.
Erinnert mich auch immer an AMD vs. Intel, da ist Intel auch lange mit weniger Kernen besser gefahren und hat den großen Reibach gemacht und AMD die Pionierarbeit. Mal sehen wie sich das bei den GPUs entwickelt...
 
  • Gefällt mir
Reaktionen: ed33 und LinuxTux
Du hast da schon recht.
Vielleicht merken es die Käufer diesmal schneller. Gekauft haben sie dann aber trotzdem schon.

Nvidia surft halt gerade (wieder) die Welle der Gewinnmaximierung und schaut, wann sie zusammenbricht.
 
  • Gefällt mir
Reaktionen: ed33
Das wichtigste Argument bei dieser Karte wird der Preis sein, um das neue RTX-Feature besser in den Markt drücken zu können. Ob die Leistung diesbezüglich ausreichend sein wird, lässt sich bis dato noch nicht endgültig sagen - dafür ist RTX noch nicht optimiert genug. Aber um eine breitere Masse ansprechen und letztendlich damit auch die Verfügbarkeit von RTX-Hardware vergrößern zu können, dürfen diese Karte nicht maßgeblich teurer ausfallen als der Vorgänger.

Wer RTX schon live erlebt/gesehen hat, der kann das Feature evtl. besser beurteilen und ich persönlich - das ist nur meine Meinung - war schon etwas beeindruckt wie viel lebendiger eine Szene wirken kann, nur weil die Reflexionen physikalisch korrekt dargestellt wurden.

Das ist nur der Anfang eines neuen Weges und hoffentlich geht es auch zukünftig weiter in diese Richtung. Am Ende bedarf es aber auch an genug Käufern, die in neue Hardware investieren.
 
Sie zieht mit 150 Watt doch deutlich mehr als ich von einem 1060 Nachfolger erwartet hätte.
 
SKu schrieb:
Das ist nur der Anfang eines neuen Weges und hoffentlich geht es auch zukünftig weiter in diese Richtung. Am Ende bedarf es aber auch an genug Käufern, die in neue Hardware investieren.

Das hängt maßgeblich von Microsoft und Sony ab und zwar wie die Next-Gen ausgestattet wird. Damals war es z.B. sehr gut das sie 8 GB eingebaut haben (wollten Anfangs weniger) und auch sonst sich bei der Hardware ein Rennen geliefert haben. Neue Technologie bezüglich Gaming wird maßgeblich in diesem Bereich entschieden.

Was Nvidia am PC macht ist auf den gesamten Gaming-Markt gesehen eine Nische, auch wenn das hier manche natürlich nicht gerne hören. Nvidia müsste schon den Zuschlag bekommen für die neuen Konsolen um die Technologie durchzudrücken. Wenn es wieder AMD wird hängt es eher davon ab ob Raytracing und anderes auf deren Karten umgesetzt wird. Ansonsten muss Nvidia das aufwendig mit eigenen Entwicklern in einzelnen Games implementieren und bleibt eine Nische. Die großen Publisher entwickeln nun mal nicht exklusiv für den PC.

nomika schrieb:
Sie zieht mit 150 Watt doch deutlich mehr als ich von einem 1060 Nachfolger erwartet hätte.

Was hast du denn erwartet?
Wo gehobelt wird, da fallen Späne.
Effizienz wird oft durch mehr Leistung gesteigert und auf weniger Verbrauch verzichtet.
Macht ja auch keinen Sinn einfach nur gleich schnelle Karten zu bringen die "nur" weniger verbrauchen.
Das Problem sieht man ganz gut bei Smartphones.
Jedes mal 20-30% effizienter, aber der Akku hält nicht wirklich länger. Wird halt immer für die Leistung geopfert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ed33
estros schrieb:
Also ich akzeptiere die auch in Full HD.
Dann würde ich mir an deiner Stelle lieber das Geld sparen und ne 1050Ti kaufen, die kostet weniger wie ein Drittel der 2070...

Den dreifachen Preis sind ein paar Reflektionen (die man vorallem bisher bestens Faken konnte, was trotzdem gut aussah) gerade in Multiplayer-Titeln nicht wert.

Und wenn schon die 2070 bei nur 54,4FPS rumkrebst, landet die 2060 ja mit ihren mutmaßlichen 30 statt 36 RT-Cores (16,67% weniger) bei nur noch 45FPS. Das ist für Multiplayer-Titel unbrauchbar.
 
  • Gefällt mir
Reaktionen: ed33
kisser schrieb:
Genau deshalb sind die Marktanteile so wie sie sind.:freak:
Glaubst du eigentlich selber diesen Mist?
Ich kann in keinem der letzten Spiele-Tests erkennen, dass die 1060 hier einen Nachteil aufgrund ihres RAM hätte.

Die Marktanteile der 580 haben ganz andere, vielfältige Gründe: 8GB Ram ist mit Sicherheit einer, AMD-Sympathie ein anderer aber der wichtigste Grund ist wohl das Mining gewesen! Weiterhin Crossfire-und Freesync-Unterstützung bei AMD (wer leistet sich denn bitte bei so nem 200 bis 300 € GK-Budget bitte freiwillig nen G-Sync?) und dass die Karte fast doppelt so viele Shader hat und generell besser auch für andere Anwendungen abseits von Spielen geeignet ist...
Ergänzung ()

Serious_Sam schrieb:
Wird Zeit, dass AMD wieder neue Karten raushaut, diese Kuh-Melkerei durch Nvidia kann man sich ja nicht ansehen...

Vorsicht, gemeine Wörter im Zusammenhang mit Kühen (Melken, Lederjacke) könnten "unter Wasser" landen :o:heilig:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ed33 und lanoo
Blutschlumpf schrieb:
Wenn jetzt noch ne Mainstream-Generation mit 6GB kommt und ja auch die High-End-Karten eher mäßig bestückt sind, werden die Spielehersteller natürlich auch die Qualität Ihrer Texturen künstlich limitieren weil ja Unmengen von Leuten aktuelle 6GB-Karten gekauft haben.

Wenn ich speicherlimitierte Grafik haben möchte kaufe ich für den preis der 2060 ne Konsole. ;)
Ja, das trifft es gut, aber anders als du meinst. Den Herstellern ist der Vram auf deiner Grafikkarte völlig wumpe. Was zählt, ist der Bereich, wo Geld verdient wird: Konsolen. Solange diese nicht mit mehr Speicher versehen werden, ändert sich da für "uns" erstmal nix gravierend.
Als Beispiel BF5:
Texturen auf der Konsole sind einiges schlechter als auf dem PC, aber selbst da braucht es kaum mehr wie 4GB Vram.
Sollte also bei den Konsolen mal nicht mehr gespart werden am Ram/Vram, sieht das natürlich anders aus.
 
Die ganze Turing Serie ist die reinste Verarsche! Hier werden wieder Krüppelkarten verkauft, die es quasi vorher schon gab, um einen Neukauf in 1-3 Jahren zu rechtfertigen. Die ganze Serie baut darauf! Zu wenig Vram und zu teuer! Dabei wird Pascal verdrängt, damit der Kunde dann irg.wann keine Wahl mehr hat, wenn er zu NV greifen möchte/will (Gsync, Fanboy, what ever).

Wird Zeit, dass AMD endlich mit was innovativem mit enorm gutem Leistungs/Watt Verhältnis daher kommt!!

Kurz gesagt: NV geht mit Turing 2 Schritte zurück und einen vor. Alles nur wegen der völlig überteuerten 2080ti. Durch den Preisaufschlag ist im jedem Bereich drunter Stillstand angesagt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Seeadler79, ed33, Zitterrochen und 5 andere
Mit 6GB Ram reiht sich das Ding ja nahtlos ein in die Kette der überflüssigen und überteuerten RTX Karten.

Schade, ich hab Nvidia wirklich über Jahre unterstützt,(hatte auch schon genug rote Karten), aber mit den Preisen usw. der 2000er Serie haben Sie mich als Kunden definitiv verloren. Meine 1070 muss noch bis zum Nachfolger der RX 580/590 oder Vega durchhalten.
 
  • Gefällt mir
Reaktionen: ed33, Blumenwiese, Dancefly und eine weitere Person
Zurück
Oben