News Nvidia Turing: GeForce RTX 2060 mit 1.920 Shadern und 6 GB Speicher

Ich bin mit meiner 1060 zufrieden, 240fps in low settings ohne Probleme möglich. Das kriegt keine 2080ti in hohen settings hin.
 
Julz2k schrieb:
Ich bin mit meiner 1060 zufrieden, 240fps in low settings ohne Probleme möglich

Wäre mir in minesweeper zu wenig...
...oder geht's um realistische Darstellung des Wetterberichts?
 
  • Gefällt mir
Reaktionen: Excel, Bänki0815, ed33 und 7 andere
Wo zieht denn Nvidia die Kunden über den Tisch? Sie bieten Produkte verschiedener Preisklassen an und jedes dieser Produkte liefert eine spezifizierte Leistung, über die man sich vorab informieren kann. Nur weil Nvidia die Preise gestalten kann, heißt das noch lange nicht, dass sie damit Kunden über den Tisch ziehen.

AMD würde nicht im Geringsten anders handeln, wenn sie a) die Leistungs-Krone und b) derzeit exklusive Features anbieten würden.

Was war denn als AMD beim Vega Launch mit "Primitive Shaders" warb, ein neues Feature, welches explizit von der Software unterstützt werden müsste, damit es funktioniert und bis heute gibt es nichts was dieses Feature wirklich nutzt. Ist das nicht genau das, was man mit "über den Tisch gezogen" assoziieren kann? Der Kunde kauft das Produkt und verlässt sich auf die Worte des Herstellers, um dann am Ende realisieren zu können, dass alles nur heiße Luft gewesen ist.
 
  • Gefällt mir
Reaktionen: Alex1966, Infi88 und FCK-THIS
ums fortzuführen, 6gb ist schwach, war aber auch nicht anders zu erwarten....
 
  • Gefällt mir
Reaktionen: ed33
sacgbö schrieb:
Jetzt müssen die 6Gb für die kommenden 2 Jahre reichen und das werden sie vermutlich nicht. Da jetzt schon teilweise 6Gb ans Limit laufen und der Speicherverbrauch sehr wahrscheinlich steigen wird.

Die Spieleentwickler machen Spiele in erster Linie für eine anvisierte Kundschaft. Was ist derzeit die meistverbreitete Grafikkarte? GTX1060! Wie viele Spieler haben derzeit mehr als 6GB VRAM in ihrem System? 14%!

"Reichen" werden 6GB Speicher solange, wie Grafikkarten mit einer solchen oder gar geringeren Speichermenge weite Verbreitung haben und daran wird sich in den kommenden zwei Jahren wenig ändern.

Die oberen 10-15% der Spieler bedient man gerne mit High-Res Texturen und Ultrasettings, das ist aber nicht der Markt in dem eine 1060 oder 580 wildert.

Man könnte sogar behaupten, der Speicherbedarf wird sinken, weil man mit RTX sich die ganzen Lightmaps und Fake Texturen sparen kann. Das ist aber in Angesicht der wenigen RTX Titel ebenfalls Quatsch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alex1966, v_ossi und FCK-THIS
melde mich ja selten zu wort aber:

habe vor 2 jahren mir eine gtx1050ti "gegönnt"
eine rtx 2060 wenn die leistung stimmt (30-50%) mehr, und der preis (150-300 Euronen)
wäre eine Überlegung wert . . . .
 
  • Gefällt mir
Reaktionen: ITMaster und pietcux
Wo sind all die Pappnasen hin, die noch vor 2 Wochen großspurig behauptet haben, dass es sicher keine 2060 mit Raytracing geben würde. Wo sind sie? :rolleyes:
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Zero_Point schrieb:
Angesichts des Speichers und des zu erwartenden Preises wird eine 1070(Ti) die klar bessere Empfehlung sein, solange noch erhältlich. Die Karte wird schlicht unattraktiv werden.

Was ist denn der zu erwartende Preis?
Ergänzung ()

teufelernie schrieb:
Ja, ziemlich dämlich.
Bzw dreist den Käufer auf ein größeres Modell bringen zu wollen. 6GB sind teilweise ja je Auflösung schon etwas knapp, da bräuchte ich eher mehr Speicher für diese platinierten HochfrequenzGPU-Kerne

Du willst doch nicht ernsthaft eine RTX 2060 / RX 590 kaufen um bei maximalen Einstellungen @1440p zu spielen? Das wird kein schönes Erlebnis, sofern es sich um aktuelle Titel handelt.
Das sind 1080p Grafikkarten. Wer dort mehr als 6GB VRAM belegt macht eindeutig etwas falsch.

Ist euer VRAM nahezu voll, hat das meistens übrigens überhaupt nichts damit zu tun, dass es knapp wird. Das nennt man intelligentes Speichermanagent. Die Daten werden dorthin verlegt, wo sie am schnellsten verfügbar sind, selbst wenn mit der halben VRAM Größe die selbe Leistung besteht.
Warum den verfügbaren VRAM jedoch nicht nutzen?

Erst wenn Nachladeruckler auftreten, hat man zu wenig VRAM.
Mit 6Gb bei 1080p bzw. 8GB bei 1440p habe ich davon noch nie etwas gesehen, gerne dürft Ihr dazu Belege liefern.

Nochmal, nur die GTX 1080 Ti und die RTX 2080 Ti bieten mehr als 8GB VRAM und diese sind beide absolute Nische. Bei AMD gibt es keine einzige Grafikkarte für Gamer mit mehr als 8GB VRAM.
Der Anreiz für Entwickler Texturen zu erstellen, die mehr als 8GB benötigen, liegt somit aktuell bei 0. Das wird sich in nächster Zeit auch nicht ändern - Turing ist erst erschienen, die nächsten Vegas lassen laut AMD Roadmap bis min. Sommer 2020 auf sich warten.
Navi wird wie angekündigt Mittelklasse, 4k wieder kein Thema, mehr als 8GB VRAM überflüssig.

Und eine Grafikkarte in den Preisbereichen kauft man sich in den seltensten Fällen um mit 60 Bildern pro Sekunde oder weniger zu spielen, deshalb ist die RTX 2080 Ti, wenn überhaupt, aktuell die einzige Grafikkarte die für 4k „geeignet“ ist.

Aber wen interessiert das alles? Laut Steam ist 1080p mit über 60% die mit großem Abstand meistgenutzte Auflösung und auch das wird sich so schnell nicht ändern. Deshalb sind die Mainstream Grafikkarten RTX 2060 und RX 580/90 auch darauf ausgelegt. Müsste ich wählen, würde ich 6GB schnelleren GDDR6 8GB GDDR5 eindeutig vorziehen - immerhin merkt man davon in der zu nutzenden Auflösung auch einen Unterschied.

Immer diese Fetischisten großer Zahlen - den Sinn dahinter nicht verstehen, aber nörgeln ohne Ende. Laut euch müssten Fernseher wohl auch min. mit 32k auflösen, straßenzugelassene Sportwagen weit über 2000PS haben etc. obwohl es keinen merkbaren/ nutzbaren Unterschied gibt :rolleyes:


Edit:

„AMD Radeon RX 590 im Test: Das Full-HD-Angebot zum Weihnachtsfest“

https://www.computerbase.de/2018-11/amd-radeon-rx-590-test/

Warum die Konkurrenz nun für 1440p gemacht sein soll, muss keiner verstehen :rolleyes: Die RX 590 schafft im Test, wenig verwunderlich, bei den meisten Spielen nicht ansatzweise 60 FPS, meistens zwischen 30-50 FPS. Die RTX 2060 wird ähnlich unter 1440P abliefern - wie gesagt es sind 1080P Grafikkarten und dort sind 6GB nach wie vor mehr als ausreichend. Mehr bringt nur denen etwas, die offensichtlich überhaupt nichts davon verstehen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Alex1966, Monarch2, RichieMc85 und 4 andere
Sgt.Slaughter schrieb:
War Anno 2016 schon ein Grund, warum ich mir keine GTX 1060 gekauft habe, sondern eine RX 480

Und was nützen dir die 8Gb anstatt 6 wenn die Karte nicht schnell genug ist, die 8Gb auch in der Zeit in der sie benötigt werden zu füllen und darzustellen? Dieses Argument mit den Grafikmods die sie ausnutzen "könnten" ist am Markt vorbei! Es ist nur ein Papiertiger um überhaupt ein Argument zu haben der für die Masse in FullHD wofür diese Karte gekauft wird, irrelevant ist. Der Rest ist nur Propaganda hier im Forum.
 
  • Gefällt mir
Reaktionen: FCK-THIS
Davias schrieb:
Muss ich nicht haben. Und solange AMD nicht in die Puschen kommt, wird Nvidia eh nur soviel tun wie nötig.

Werde erst wieder zuschlagen, wenn die beiden wieder in einer Liga spielen, wie jetzt auch AMD und Intel.
Seit wann spielt AMD in der selben Liga wie Intel ?
 
dalaidrama schrieb:
Deswegen hab ich mir gerade ne Radeon 570 mit 8 GB für 172,90€ gegönnt (Red Dragon)...
Eindeutig das bessere und zukunftssicherere Angebot in der aktuellen Mittelklasse, zumal der Speicher locker jenseits der 2000MHz arbeiten kann und auch Freesync Monitore billiger sind usw.

Du redest dir die Welt schön. Was ist bitte an deiner Karte zukunftssicher? Die 8Gb Speicher? Wie soll das gehen wenn sie schon zum Release deutlich weniger Leistung als die 1060 mit 6GB hatte? FullHD Karte bleibt FullHD Karte egal wie sehr der Speicher für das Datenblatt im Laden aufgepumpt wird.
 
  • Gefällt mir
Reaktionen: Alex1966, FCK-THIS, RichieMc85 und 3 andere
Genau das was ich erwartet habe. Auch das mit dem V-Ram. Wer 8GB will kann ja auch eine Karte mit 8GB (2070) kaufen. Sehe da keine Probleme.
 
Dr. Wiesel schrieb:
Mein Kommentar, dass Nvidia die Kunden über den Tisch zieht wurde gelöscht. Meinungsfreiheit gibts wohl nicht mehr.

Die gibt es schon, allerdings bist du hier auf einer privaten Plattform und da gilt nun mal Hausrecht. Du kannst aber gerne auf einer eigenen Webseite verkünden, dass Nvidia seine Kunden abzockt. Ich versichere dir, dass da niemand etwas gegen unternehmen wird. Würdest du in meinem Wohnzimmer Britney Spears beleidigen, würd ich dich auch rausschmeißen. Da kenn ich keinen Spaß. *g*
Und bei mir zu Hause ist es mein gutes Recht, auf die Meinungsfreiheit von Besuchern zu pupsen. Auf privaten Webseiten gilt das gleiche Prinzip.

Meine Erfahrung in den letzten Jahren zeigt mir, dass man hier bei allen Themen rund um Apple und Nvidia sehr vorsichtig sein muss. Bei allzu harscher Kritik hagelt's da gefühlt schneller Verwarnungen als bei anderen Themen. Das muss einem nicht gefallen. Aber es steht einem auch jederzeit offen, ein anderes Forum aufzusuchen.

Zum Thema: Jooaaa. Ich überspring die 2000er Serie, bin mit der 1070 noch ganz zufrieden. Die macht bestimmt noch 2-3 Jahre.

So, und dieser Post wird sicher auch verwarnt und gelöscht. =D
 
  • Gefällt mir
Reaktionen: Smartbomb und Cohen
Infi88 schrieb:
Seit wann spielt AMD in der selben Liga wie Intel ?
Seit März 2017 / Zen
Gamefaq schrieb:
Und was nützen dir die 8Gb anstatt 6 wenn die Karte nicht schnell genug ist, die 8Gb auch in der Zeit in der sie benötigt werden zu füllen und darzustellen?
Es gibt schon Games wie Rise of the Tomb Raider oder Call of Duty, die mit maximalen Texturdetails die 6GB an die Kotzgrenze bringen. Meine 980 Ti hat in Watch Dogs 2 manchmal auch Schluckauf und die Karte ist jetzt 3 1/2 Jahre alt? Brauche also keine Texturmods um die Karte ans Speicherlimit zu bekommen, schaffe ich in Witcher 3 und Skyrim aber auch damit.

6GB VRAM sind so 2015...
 
  • Gefällt mir
Reaktionen: Traumwandler 75 und ed33
Faust2011 schrieb:
Oh Nvidia, was macht ihr da?!
Ich würde sagen Resteverwertung der Chips, die man nicht als 2070 verwenden kann.
Ist doch das übliche Vorgehen.

Ob die Anzahl der RT Cores jetzt brauchbar für Gaming ist sei jetzt erstmal dahingestellt, über kurz oder lang wird es auch Anwendungen abseits von Spielen dafür geben, in den Bereich könnte das dann durchaus interessant sein.

Prinzipiell empfinde ich die Preis- und VRAM-Politik bei Nvidia aktuell nicht gut.

Und natürlich ist die 1060 bei Gaming PCs weitaus verbreiteter als die 480/580 von AMD, die sind ja gefühlt alle und Mining Rigs verschwunden, die paar Modelle, die nicht von Minern gekauft wurden, sind mit der Goldwaage bemessen worden, für Otto Normal ein viel zu hoher Aufpreis damals.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ed33 und Cpt.Willard
Bauernfaenger Karte mit der RTX 2060 "incoming", fuer RT-Raytracing komplett unterdimensioniert, es sei denn man will in Full HD ruckelnd an RT-Raytracing schnuppern :lol:, 6 GB jetzt noch ist fuer jemanden der mindestens 2 Jahre die GPU nutzen moechte vermutlich auch zu wenig, 8 GB Speicher gibt es bei AMD/RTG seit der RX 470/480 in der Mittelklasse schon wie lange?

Wenn AMD/RTG eine 12GB Mittelklasse Navi GPU herausbringen sollte (bei einer RX 3080 leistungstechnisch in einigen Spielen beinahe auf GTX1080Ti/RTX 2080 Niveau, waere das schon wuenschenswert), dann saehe die RTX 2060 im direkten Vergleich so dermassen alt aus, das waere schon nicht mehr feierlich :p.

Zudem, wenn nVidia Ende kommenden Jahres erste 7nm Turing Refresh GPUs (mit mehr Speicher) ausrollen lassen sollte (evt. in 2019 noetig, wenn AMDs/RTGs Navi GPUs ansonsten in der Mittelklasse preis-leistungstechnisch klar fuehrend waeren), dann wird die RTX 2060 noch schneller altern bzw. der Support noch schneller herunter gefahren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ed33, Cpt.Willard und Faust2011
an Nvidias Stelle hätte man damit ja rechnen können dass 6 GB kaum noch ne Option ist 2019. Klar - man degradiert die Karte eher zur 1080p / max 1440p Karte damit - auch ist der VRam Verbrauch nicht ganz so explodiert wie noch vor Jahren, aber 6GB sind einfach eng, das hat ja selbst meine damals schon unterbestückte 980 TI.

Man hätte das SI vollaktiv behalten sollen und auf 8GB GDDR5 statt 5X oder 6 setzen können / sollen. Vermutlich gibt das der Cut aber nicht so einfach her. Sonst wäre es uU wieder sowas wie die GTX 970 Anbindung geworden.

Edit: Bei 200€ wäre ne 6GB Karte noch vertretbar. Ab 300€ aufwärts kaum noch.
 
  • Gefällt mir
Reaktionen: fox40phil
OdinHades schrieb:
Meine Erfahrung in den letzten Jahren zeigt mir, dass man hier bei allen Themen rund um Apple und Nvidia sehr vorsichtig sein muss. Bei allzu harscher Kritik hagelt's da gefühlt schneller Verwarnungen als bei anderen Themen.
Es gibt ein Unterschied zwischen Kritik und irgendwelche Leute in Gruppen zu stopfen und das beleidigend umschreiben ;) Das verstehen hier aber sehr viele schon lange nicht mehr.
Das ist jetzt nicht auf dich bezogen, aber bei bestimmten Beiträgen bin ich ganz stark dafür, dass die im Aquarium versinken. Der oben genannte war einer davon.
 
Jadawin99 schrieb:
Ist doch wieder ein guter Marketingtrick von NVIDIA. So haben sie auch schon die Lagerbestände der 1080 + 1080Ti erfolgreich abbauen können.

Ist ja alles schön und gut, nur wie bekommen die den RTX müll los? xD, dann ist dieser ja wieder der Ladenhüter, ein Teufelskreis.
 
Zurück
Oben