Test GeForce RTX 2060 im Test: Schnelle GPU trifft 6 GB statt 8 GB GDDR6 für 370 Euro

ZeroZerp schrieb:
.... ist es also in Ordnung auf die Zukunft zu spekulieren, wenn es um den Arbeitsspeicherverbrauch der Grafikkarten geht. "8GB VRAM braucht man, weil in Zukunft..."
Wenn es aber dann um die neuen Features geht (Mesh Shading), Meshlets mit dynamischen MIP- Map Strukturen, wo das GPU- seitige Culling und das Aufteilen in Meshlets dafür sorgt, dass zum ein kleineres Texture- Set geladen werden muss (wodurch der Speicherverbrauch sinkt), dann zählt es nicht, da man ja JETZT nichts davon hätte und man diesbezüglich auf zukünftige Entwicklungen spekulieren müsse...
Positivbeispiel für die Nutzung neuer Techniken:
So ist z.B. die RTX 2060 ist in Wolfenstein 2 new colossus mit VRS enabled (medium) spürbar schneller als eine GTX 1080.
Wie hoch ist der Prozentsatz an Spielen denn, die heutzutage in Full HD bzw. 1440P nicht mit 6GB auskommen? Wie hoch ist der Unterschied, wenn man den Texturregler von Ultra auf Very High setzt in der Praxis und wie hoch ist da die eigene Gewichtung bzw. das eigene Empfinden?
Verkauft sich die 2060 gut, dann werdet Ihr sehen, dass wie durch ein Wunder 99% auch der AAA Titel mit 6GB VRAM auskommen werden. Gerade wenn entsprechende neu zur Verfügung stehenden Techniken ausgenutzt werden.
Nicht falsch verstehen- Ich bin auch ein großer Freund hochaufgelöster Texturen (wobei wir auch hier wissen, was uns teilweise für qualitativ minderwertiger hochskalierter und unnötig unmengen VRAM verbrauchender Quatsch als HD Textur untergejubelt wird).
Mir gehen nur einfach diese einseitigen Betrachtungsweisen nicht in den Kopf, wo einmal der VRAM in Sachen Zukunftssicherheit große Wichtigkeit beigemessen wird, man dann aber andere neue Features wie Mesh Shading unter den Tisch kehrt, welche ein enormes Beschleunigungspotenzial besitzen.
Was nützen mir denn die 8GB VRAM, wenn ein Spiel, das Mesh- Shading nutzt dann in High- Poly Szenen auf der 6 GB Karte 10x schneller läuft? Alles eine Frage der Betrachtungsweise, alles eine Wette auf die Zukunft und deshalb in meinen Augen auch gleichwertig zu behandeln.

Bezueglich des Speichers braucht man nicht auf die Zukunft zu spekulieren, denn dass (AAA) Spieletitel in aktueller Produktion jetzt schon mehr als nicht mehr zeitgemaesse 6GB Speicher (wobei es schon wie lange 8GB im Mittelklassesegment gibt ... genau, seit AMDs/RTGs RX 470) benoetigen werden, davon ist schwer auszugehen ;).

Mehr Speicher zu haben ist immer ratsam und wenn man eben mit einem laengerfristigen Anlagehorizont/Nutzungszeitraum kauft - als die Early Adopter und Hobbyenthusiastenfraktion hier auf CB - wird man mit 6GB bei dem ein oder anderen in nicht allzuferner Zukunft erscheinenden Titel wohl speichertechnisch (bei hoeheren Texturanspruechen) verhungern.

Dazu sollte man sich auf der Zunge zergehen lassen, dass bei Samsung (und den anderen Speicherherstellern) seit Monaten die Speicherpreise sinken und sich nVidia mit 2 GB mehr bei einer RTX2060 Mittelklassekarte wohl auch finanziell sicherlich keinen Zacken aus der Krone gebrochen haette.

Die RTX 2060 Karte ist trotz zugegeben hoeher als erwarteter Leistung (auf beinahe GTX 1080 Niveau) im Preis dafuer (aktuell) auch viel zu hoch fuer die Mittelklasse-Gamer angesetzt (mit 370 Euro) und was - ausser Mesh - bietet sie denn mehr gegenueber einer GTX 1070Ti?

Mesh gibt es in Wolfenstein II - wie von Dir richtig angefuehrt und ist dort sehr passabel/vorteilhaft umgesetzt - aber DLSS und RT-Raytracing (???) mit einer RTX 2060 Karte mit 6GB (nur ausreichend fuer RT-Raytracing im Ruckelorgienmodus), die kaum 4K/UHD-faehig ist (was fuer DLSS benoetigt wird), sind doch eine klassische Witznummern und dienen mehr der Bauernfaengerei.

Ergo, ist man mit einer GTX 1070Ti - wenn man eine solche noch zu einem halbwegs vernuenftigen Preis im Abverkauf erstehen kann/will - und selbst einer RX Vega56 von AMD/RTG laengerfristig besser bedient als einer RTX 2060, die trotz Neupreis schon in Kuerze veraltet sein wird, weil selbst eine mittlerweile angestaubte GTX 1070 mehr Speicher und Langlebigkeit bietet.

Um noch einmal auf den Preis zurueck zu kommen, da heisst es man solle die RTX 2060 6GB Karte mit einer GTX 1060 6GB vergleichen, aber preislich liegt sie ab Martkstart oberhalb von einer GTX 1070 und wo liegt da bitteschoen der Fortschritt in der Rohleistung?

Ja gut, sie kommt mit Mesh als Teil der Turing Architektur, der Rest (DLSS und RT-Raytracing) ist quasi nur eingeschraenkt bis nicht sinnvoll nutzbar und wo rechtfertigt sich dann der (dreiste RTX-)Aufpreis trotz weniger Speichermenge gegenueber einer GTX 1070?

Verbrauch und Lautstaerke fallen auch nicht signifikant besser aus (wie normalerweise schon bei einer nVidia 60er gegenueber der Vorgaenger-70er Karte) und man soll also quasi genauso viel bezahlen fuer kaum Mehrleistung als vor 2 Jahren und viele neue Luftblasen-Features, die aufgrund des Speichergeizes bei nVidia auch bei dem bisher kleinsten Turingableger nicht genutzt werden koennen :lol:?

Die RTX 2060 6GB hat es m.M.n. nicht gebraucht und dient auch als Abverkaufkoeder fuer die GTX 1070 und GTX 1070Ti und es bleibt zu hoffen, dass mit Ausnahme der kurzfristig orientierten Kaeufer (die Ihre GPU maximal 2 Jahre halten und dann wieder zugreifen und die Preistreiberei in dem Bereich damit gut anheizen) da nVidia keiner auf den Leim geht und am stagnierenden Speicher verhungert.

Was Mesh angeht, so ist nVidia mit der Turing-GPU-Archtiektur im Gegensatz zu Pascal (welches nur ein getunter Maxwell Shrink war und damit wenig innovativ und dabei bleibe ich nach wie vor) loeblicherweise deutlich fortschrittlicher unterwegs und waeren DLSS und RT-Raytracing halbwegs ausgereift (und mit ausreichend Spieletiteln zum Marktstart schon unterfuettert gewesen), bevor man diese Features ohne jeglichen Gegenwert zum Marktstart nur fuer eine Gruppe von Early Adoptern und Hobby-Enthusiasten mit angepriesen hat und sich massivst dafuer entlohnen liess, und durch die Bank in allen Kartenklassen angeboten worden, dann waere die RTX-Erstgeneration auch bedeutend besser angekommen und die teuren Preispillen haette der ein oder andere auch williger geschluckt, aber so ist/bleibt es unausgegoren.

Inwieweit Mesh in der Breite, evt. auch von AMD/RTG mit getragen (unter anderem Namen), und wann relevant werden wird, ist noch nicht abzusehen, auch wenn es von nVidia bei ausgewaehlten Publishern gesponsort werden duerfte.

So gesehen ist die Entfaltung/Durchdringung von Mesh in Spielen schwer einzuschaetzen, aber der Nutzen von mehr GPU-Speicherausbau bei nVidia und AMD/RTG natuerlich absehbar, so dass Dein direkter Vergleich da ein wenig hinkt (mehr Speicher wird notwendig werden wie das Amen in der Kirche und ist keine Wette, aber man wird auch ohne RTX-Features eine ganze Weile gut auskommen, wenn letztere sich denn in der Breite etablieren sollten).

Es macht den Anschein, als ob ein 7nm Turing Refresh mit dann hoffentlich/ueberfaellig groesserem Speicherausbau nicht in allzu weiter Ferne liegt und natuerlich haengt das zum Teil auch an AMD/RTG bzw. was letztere anbieten werden.

Wenn es so kommen sollte (ein Turing RTX Refresh in 7nm Anfang 2020 schon), dann koennte man wegen des echten Shrinks auf 7nm, davon ausgehen, dass 12nm Turing-Kaeufer mit Sicherheit vergleichsweise angeschmiert waeren.

Wer jetzt bei der RTX 2060 (schon) zugreift macht m.E. einen Fehler und ich wuerde in jedem Fall raten das abzuwarten, was die Konkurrenz bieten wird dieses Jahr (AMDs/RTGs Navi GPUs), da 7nm Navi GPUs in aehnlicher Leistungsklasse (wie die RTX 2060) mindestens mit 8 GB Speicherausbau aufwarten duerften.

Es gibt also keinen Grund nVidia mit einem Kauf fuer diese speichertechnisch (bewusst) verkorkste RTX 2060 zu belohnen (es sei denn man moechte die Preis- und Produktpolitik und Quasi-Monopol von nVidia damit gutheissen), aber viele lassen sich eben von den paar fps alleine blenden und uebersehen gerne, was dort im argen liegt.

Eine Kaufempfehlung, wie von Igor/Tom's Hardware fuer die RTX 2060 ausgesprochen, verdient diese GPU aufgrund der o.g. Gruende m.E. mit Sicherheit nicht und ich denke auch nicht, dass all diese Aspekte dort beruecksichtigt worden sind.

So gesehen halte ich die Einschaetzung von Wolfgang/CB bzgl. der RTX 2060 definitiv fuer zutreffender als die von Tom's Hardware in diesem Fall und da spielt es auch keine Rolle mit wie viel Akribie/Umfang letztere an den Test herangegangen sind, denn die entscheidenden Punkte, die die RTX 2060 eingeschraenkt empfehlenswert machen, wurden m.E. unter den Teppich gekehrt.

Natuerlich haengt das auch von der Perspektive ab und ich bin nunmal kein GPU-Kaeufer im 2-Jahre-Maximal-Zyklus, aber ich denke der Mehrheit (in dem Preissegment) geht das ebenso und diese hat auch keine Lust alle 2 Jahre noch mehr frisierte/diktierte Preise fuer wenig bis kaum Leistungszuwachs bei GPUs zu berappen, nur damit bei nVidia der Rubel rollen kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, iceshield, Selanius und 5 andere
Wir werden sehen...
 
Tkohr schrieb:
Also erstmal die Technik von DLSS verstehen, dann vergleichen mit der Technik von AA, dann wirste schnell merken das ein Grafikkarte die normal UHD mit AA nicht schaffen würde, es mit DLSS schaffen kann,
Danke, die Technik habe ich verstanden und AA war nicht das Thema. ;)
Ja, sie könnte es schaffen!
Das ist das hüpfende Komma. Ich habe mich auf das Fazit bezogen, in welchem Wolfgang sehr klar anzweifelt dass die 6GB RAM für DLSS ausreichen.
@ZeroZerp war dann so nett und hat einen interessanten Link gepostet der etwas anderes verheißt. DAS war dann sehr spannend und ich habe zugegeben, dass ich meine Meinung ggf. revidieren muss.
Allerdings will ich das noch Bestätigt haben. Ggf. wird ja auch CB hier noch nachliefern.
 
Chismon schrieb:
Verzeihung, aber was meinst du mit RTG?
Die Abkürzung hab ich noch nie gehört. Soll das eine andere Bezeichnung für AMD sein? Denn AMD ist doch nur AMD und nix anderes ^^
 
@Captain Mumpitz

RTG = Radeon Technologies Group, hättest aber auch innerhalb 5 Sek. google gefunden. Und da ist schon ein Unterschied. AMD = CPU RTG = GPU.
 
Wenn ich nach RTG google hab ich zumindest auf der ersten Seite der Ergebnisse rein gar nix was irgendwie auf Radeon hinweist ^^
 
Deswegen sucht man auch richtig, nach AMD RTG ;)
 
@xexex
Was du bei deiner Preisbetrachtung nicht berücksichtigst: Die 2060 FE ist preislich dort angesiedelt, wo die günstigsten Partnerkarten starten. Ansonsten war die FE meist deutlich teurer (wie auch bei der 1060). Der UVP der 1060 6 Gb wurde mit 249 $ veranschlagt, die FE gab für 299 $ (wiki)
Bei der 2060 wird die FE auch für den UVP von 349 $ angeboten. Wie CB bin also auch der Meinung, dass der UVP mit 100$ bzw. 90€ mehr hier eine andere Preisklasse darstellt.

Die Aussage
War die GeForce GTX 1060 eine klassische Mittelklasse-Grafikkarte mit viel Abstand zur Oberklasse, spricht die GeForce RTX 2060 einen anderen Kundenkreis an. Das fängt bei der Performance an, denn Nvidia hat das Portfolio bei Turing deutlich enger gestaltet als noch bei Pascal

kann ich dagegen nicht unterschreiben. Der Performance-Sprung 1060 => 2060 ist zwar deutlich besser als bspw. bei 1070 => 2070, aber nicht so gewaltig, dass es sich nicht mehr um eine "klassische Mitteklasse-Grafikkarte" handeln würde. Die 1060 wär nämlich der deutlich größere Sprung zum Vorgänger 960, ohne dass eine Preisklasse nach oben geklettert wurde
 
Zuletzt bearbeitet:
xexex schrieb:
Deshalb sagte ich auch fast! Rechne mal einfachheitshalber mit 5% in den vergangenen 2,5 Jahren, dann bist du bei 335€.
Wir hatten in DE eine Inflationsrate von 2,2% seit 2016. Lass die Kirche mal im Dorf.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Unnu
Revan1710 schrieb:
Was du bei deiner Preisbetrachtung nicht berücksichtigst: Die 2060 FE ist preislich dort angesiedelt, wo die günstigsten Partnerkarten starten. Ansonsten war die FE meist deutlich teurer (wie auch bei der 1060). Der UVP der 1060 6 Gb wurde mit 249 $ veranschlagt, die FE gab für 299 $

Das ist korrekt, aber auch der Sache geschuldet, dass die 2060 im Gegensatz zu der 1060 ein beschnittener Chip ist und die Partnerkarten kommende Woche allesamt noch auf einem teuren Layout starten. Günstigere Partnerkarten kommen erst zu einem späteren Zeitpunkt!
Zum Start sollen die ersten verfügbaren Modelle auf das von der GeForce RTX 2070 bekannte 10-Layer-PCB von Nvidia (PG160) setzen, für Februar würden Partner allerdings günstigere 6-Layer-Layout planen.

Man kann zudem auch davon ausgehen, dass noch viele noch weiter beschnittene Varianten dieser Karte auf den Markt kommen werden.

Sennox schrieb:
Wir hatten in DE eine Inflationsrate von 2,2% seit 2016. Lass die Kirche mal im Dorf.
Inflation 2018 = 1,9%, 2017 = 1,8%, 2016 = 0,5%, 2015= 0,3%, 2014 = 0,9%, 2013 = 1,5%, 2012 = 2,0%, 2011=2,3%
http://www.inflationsrate.com

Du kannst alternativ auch gerne die Erhöhungen der Tarifverträge als Kalkulationsgrundlage nehmen.
1547023159537.png

http://oeffentlicher-dienst.info/tvoed/tr/2018/

Aber ja, wir brauchen nicht um Centbeträge diskutieren.
 
Zuletzt bearbeitet:
xexex schrieb:
Partnerkarten kommende Woche allesamt noch auf einem teuren Layout starten

Deshalb würde ich auch davon ausgehen, dass wir erst die teuren Modelle à la Strix etc. sehen werden, die sich eher in Richtung 400€ bewegen und die günstigen wie KFA² etc. später für die angepeilten ~370€
 
Ich warte jetzt erstmal auf die Keynote von AMD.
 
  • Gefällt mir
Reaktionen: Sennox
@xexex
hmm meine Quelle sagte 2,2%, diese sah aber auch weniger detailliert als deine aus :D
Du hast aber Recht, ob 2,2% oder 2,9% ist bei dieser Summe nun wirklich nicht maßgebend ;)

Ein Sprung von 319€ auf 369€ ist jedenfalls nicht so trivial, zumindest über die letzten zwei/drei Jahre.
 
Wie gesagt, die Preise der FE - also 319€ mit 369€ - hier zu vergleichen halte ich für falsch.
Der UVP-Unterschied von 90€ ist relevant und nochmal ein anderes Kaliber
 
  • Gefällt mir
Reaktionen: Sennox
Das ohnehin!
Ich habe hier einfach mal den "worst/best case" Vergleich genutzt und der sieht schon nicht rosig aus.
Es ist auch irgendwie funny:
Die 2060 ist ja keine generell schlechte Karte aber sie ist sehr teuer und Ihre Positionierung in der "Mittelklasse" durch manche Leute ergibt wenig Sinn.
Dennoch wird sich auf dieses Argument gestürzt und verzweifelt versucht irgendwas dagegen zu finden.
Wozu?
Das ändert an der Karte ja nichts und dass das gesamte RTX Portfolio gut an der Preisschraube für Nvidia dreht ist ja bereits der generell akzeptierte Tenor in den Communities.
Ist ja nicht so als wären es nur eine Hand voll Nerds die sagen "meh, ist schon ein wenig teuer" ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Revan1710
Chismon schrieb:
Bezueglich des Speichers braucht man nicht auf die Zukunft zu spekulieren, denn dass (AAA) Spieletitel in aktueller Produktion jetzt schon mehr als nicht mehr zeitgemaesse 6GB Speicher (wobei es schon wie lange 8GB im Mittelklassesegment gibt ... genau, seit AMDs/RTGs RX 470) benoetigen werden, davon ist schwer auszugehen ;).
Naja- Auch der benötigte VRAM unterliegt irgendwann einer gewissen "Sättigung". Du kannst halt nunmal nicht mehr als die gängigen Auflösungen mit Tapeten=Texturen vollkleistern. Und durch MIP- Mapping lädst Du die Texturen zwangsläufig durch das Format oder dann durch die GPU selbst in überwiegend nicht vollaufgelöster Form in den VRAM. Ich bin stark im Textur- Modding tätig. Daher weiss ich, dass "verwaschene" oder nicht hochauflösende Texturen zwar auch mit der Auflösung zu tun haben, aber weniger, als das, wovon ich ursprünglich ausgegangen war.

Mehr Speicher zu haben ist immer ratsam und wenn man eben mit einem laengerfristigen Anlagehorizont/Nutzungszeitraum kauft - als die Early Adopter und Hobbenthuisastenfraktion hier auf CB - wird man mit 6GB bei dem ein oder anderen in nicht allzuferner Zukunft erscheinenden Titel wohl speichertechnisch (bei hoeheren Texturanspruechen) verhungern.
Auch eine Frage der Technik- Die Engines gehen nämlich weg von der "Gesamttextur" hin zum deutlich effizienteren virtual texturing (DX11 Feature).

Hast Du Dich noch nie gefragt, warum der VRAM verbrauch oftmals unabhängig der Darstellungsqualität/Grafikqualität scheint? Sieht ein Final Fantasy 15 in Deinen Augen was Texturschärfe oder die grafische Opulenz anbelangt, besser aus als ein "The Division"?
Wieso braucht zweiteres nur die hälfte an VRAM?

Dazu sollte man sich auf der Zunge zergehen lassen, dass bei Samsung (und den anderen Speicherherstellern) seit Monaten die Speicherpreise sinken und sich nVidia mit 2 GB mehr bei einer RTX2060 Mittelklassekarte wohl auch finanziell sicherlich keinen Zacken aus der Krone gebrochen haette.
Ich vermag nicht zu beurteilen, wann da irgendwelche wie auch immer geartete Lieferantenverträge geschlossen wurden.

Die RTX 2060 Karte ist trotz zugegeben hoeher als erwarteter Leistung (auf beinahe GTX 1080 Niveau) im Preis dafuer (aktuell) auch viel zu hoch fuer die Mittelklasse-Gamer angesetzt (mit 370 Euro) und was - ausser Mesh - bietet sie denn mehr gegenueber einer GTX 1070Ti?
Na klar- Wo hättest Du den Preis denn gern? 370€ für eine fast 1080 zu hoch?
Mag für Dich so sein.

Mesh gibt es in Wolfenstein II - wie von Dir richtig angefuehrt und ist dort sehr passabel/vorteilhaft umgesetzt
Achtung- Verwechslungsgefahr. In Wolfenstein 2 wird variable rate shading eingesetzt. Für mesh shader gibt es noch keinen Titel, nur eine Demo (Asteroids).

- aber DLSS und RT-Raytracing (???) mit einer RTX 2060 Karte mit 6GB (nur ausreichend fuer RT-Raytracing im Ruckelorgienmodus),
Nein- Ich hab doch schon verlinkt zu dem Video, was sogar erstaunlich schnell läuft, für das was man erwarten würde. Wurde inzwischen auch in vielen Tests bestätigt, dass aller Unkenrufe zum Trotz auf der 2060 in Sachen RT bis jetzt kaum Abstriche gemacht werden müssen.

die kaum 4K/UHD-faehig ist (was fuer DLSS benoetigt wird), sind doch eine klassische Witznummern und dienen mehr der Bauernfaengerei.
Die Karte ist nicht für 4K/UHD gebaut. Wenn Du die News verfolgt hättest, hättest Du bemerkt, dass NVIDIA DLSS nun auch für 1080P zur Verfügung stellen wird.

Ergo, ist man mit einer GTX 1070Ti - wenn man eine solche noch zu einem halbwegs vernuenftigen Preis im Abverkauf erstehen kann/will - und selbst einer RX Vega56 von AMD/RTG laengerfristig besser bedient als einer RTX 2060, die trotz Neupreis schon in Kuerze veraltet sein wird, weil selbst eine mittlerweile angestaubte GTX 1070 mehr Speicher und Langlebigkeit bietet.
Speicher ist aufgrund der neuen Technologien diesmal eben nicht mit Langlebigkeit gleichzusetzen.
Man muss begreifen, dass ein (sinnvoller) Technologiewechsel stattfindet, der einige alte Prinzipien über den Haufen wirft.
Was nützt Dir eine GTX 1070 mit 8GB, wenn die 2060 dann aufgrund der weiteren Umsetzung der Technologien trotzdem auf einmal doppelt bis dreifach so schnell ist?
Und aufgrund der jetzigen Situation (Technologieumbruch) überhaupt eine Empfehlung in Sachen Zukunftssicherheit aussprechen zu wollen halte ich für nicht seriös.

Um noch einmal auf den Preis zurueck zu kommen, da heisst es man solle die RTX 2060 6GB Karte mit einer GTX 1060 6GB vergleichen, aber preislich liegt sie ab Martkstart oberhalb von einer GTX 1070 und wo liegt da bitteschoen der Fortschritt in der Rohleistung?
Das wurde doch inzwischen schon x- Mal diskutiert. Da setzt jeder andere Maßstäbe an. Der eine nimmt die 1060 als Referenz, der andere die 1070 wieder ein anderer die aktuellen Marktpreise, der Nächste dann die MRSP.
Letztendlich erhält man (fast) 1080 Leistung für 370,-€ + starkes Potenzial auf höhere Leistung durch neue Funktionen und Dir erscheint der Preis zu hoch. Das ist alles was zählt und ist auch OK so.

Gibt viele andere, die das anders sehen. Ist auch OK so. Jeder hat sein eigenes Preisempfinden.

Ja gut, sie kommt mit Mesh als Teil der Turing Architektur, der Rest (DLSS und RT-Raytracing) ist quasi nur eingeschraenkt bis nicht sinnvoll nutzbar und wo rechtfertigt sich dann der (dreiste RTX-)Aufpreis trotz weniger Speichermenge gegenueber einer GTX 1070?
Siehe oben. Es sind sich (bis auf CB) alle Tester einig, dass man nicht damit gerechnet hätte, wie gut RTX auf der 2060 im aktuellen Status nutzbar ist.

Verbrauch und Lautstaerke fallen auch nicht signifikant besser aus (wie normalerweise schon bei einer nVidia 60er gegenueber der Vorgaenger-70er Karte) und man soll also quasi genauso viel bezahlen fuer kaum Mehrleistung als vor 2 Jahren und viele neue Luftblasen-Features, die aufgrund des Speichergeizes bei nVidia auch bei dem bisher kleinsten Turingableger nicht genutzt werden koennen :lol:?
Wenn Du das so siehtst, dann ist die Karte eindeutig nichts für Dich. Überwiegend ist die Tendenz, wenn man das Echo aus dem Netz betrachtet, eine andere.

Was Mesh angeht, so ist nVidia mit der Turing-GPU-Archtiektur ... bedeutend besser angekommen und die teuren Preispillen haette der ein oder andere auch williger geschluckt, aber so ist/bleibt es unausgegoren.
Den Absatz gehe ich voll mit.

Inwieweit Mesh in der Breite, evt. auch von AMD/RTG mit getragen (unter anderem Namen), und wann relevant werden wird, ist noch nicht abzusehen, auch wenn es von nVidia bei ausgewaehlten Publishern gesponsort werden duerfte.
AMD ist Vorreiter auf dem Gebiet - NVIDIA hat nur nachgezogen und das ganze noch etwas flexibler gestaltet.
Da kann man sich dann schnell ausrechnen, wie schnell das von Entwicklern herbeigesehnte Feature, wenn es die GK Hersteller unterstützen dann auch integriert wird. Vor allem auch vor dem Hintergrund, dass Konsolen zwangsweise mit den neuen Chips mit diesem Feature zwangsbeglückt werden.

So gesehen ist die Entfaltung/Durchdringung von Mesh in Spielen schwer einzuschaetzen,
Naja- Die Entwickler schreien danach. AMD hat es schon länger implementiert, NVIDIA zieht jetzt nach.
Klingt jetzt für mich nicht so, als dass man da große Bedenken bezüglich der Adaption zu hegen braucht.

Es macht den Anschein, als ob ein 7nm Turing Refresh mit dann hoffentlich/ueberfaellig groesserem Speicherausbau nicht in allzu weiter Ferne liegt und natuerlich haengt das zum Teil auch an AMD/RTG bzw. was letztere anbieten werden.
Ja- Vielleicht wirds 2020 was damit.

Wenn es so kommen sollte (ein Turing RTX Refresh in 7nm Anfang 2020 schon), dann koennte man wegen des echten Shrinks auf 7nm, davon ausgehen, dass 12nm Turing-Kaeufer mit Sicherheit vergleichsweise angeschmiert waeren.
Was ist denn das für eine gerade für die IT- Welt abwegige Argumentation?
Danach wäre ja der, der sich z.B. eine Grafikkarte zulegt immer der Angeschmierte, weil in 1-2 Jahren was besseres rauskommt?

Wer jetzt bei der RTX 2060 (schon) zugreift macht m.E. einen Fehler und ich wuerde in jedem Fall raten das abzuwarten, was die Konkurrenz bieten wird dieses Jahr (AMDs/RTGs Navi GPUs), da 7nm Navi GPUs in aehnlicher Leistungsklasse (wie die RTX 2060) mindestens mit 8 GB Speicherausbau aufwarten duerften.
Das alte Spiel... Warten, warten, warten....
Und dann wenn die 7nm NAVI GPUS verfügbar sind (z.B. Ende des Jahres) wird es heissen, dass man abwarten soll, was NVIDIA bringt, da an der nächsten Ecke auch dort die 7nm Technik lauert.
Aber halt- Wenn dann wieder die 7NM von NVIDIA draußen ist, sollte man noch auf den "refresh" von AMD warten und und und...

Wer jetzt zugreift, erhält für 370€ Leistung zwischen 1070 und 1080 mit allen neuen Technologien.
Fertig- Preis-/Leistungstechnisch seit langem mal wieder ein Kracher.

Natuerlich haengt das auch von der Perspektive ab und ich bin nunmal kein GPU-Kaeufer im 2-Jahre-Maximal-Zyklus, aber ich denke der Mehrheit (im dem Preissegment) geht das ebenso und diese hat auch keine Lust alle 2 Jahre noch mehr frisierte/diktierte Preise fuer wenig bis kaum Leistungszuwachs bei GPUs zu berappen, nur damit bei nVidia der Rubel rollen kann.
Gerade wenn Du kein GPU-Kaeufer im 2-Jahre-Maximal-Zyklus sein willst, möchte ich wissen, wie Du es für Dich selbst ausmachst, alle neuen Technologien, die auf den neuen Karten für Geschwindigkeitssteigerungen sorgen werden, weil diese auch von der Konkurrenz integriert werden/bereits integriert worden sind in den Wind zu schiessen.

Du empfiehlst hier den Kauf einer veralteten Hardware, die bis auf den Vorteil eines etwas größeren VRAM, der bei den Auflösungen die für eine 2060 gebaut ist, nicht zum Tragen kommen sollte, in allen belangen das Nachsehen hat.
Das wär mir einfach zu heikel.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan, Mumusud und Cool Master
Captain Mumpitz schrieb:
... was meinst du mit RTG?
Die Abkürzung hab ich noch nie gehört. Soll das eine andere Bezeichnung für AMD sein? Denn AMD ist doch nur AMD und nix anderes ^^

RTG = Radeon Technology Group (der GPU Teil von AMD) ;)
 
@ZeroZerp
Ich verstehe ja, wenn du vollkommen auf das Zukunftspotential von Mesh-Shadern etc. setzt. Aber das passt für mich dann garnicht, wenn du geringen VRam auf der anderen Seite realtivierst. Wenn ich langristig plane, dann ist ein Puffer an Vram (dessen Bedarf in der Vergangenheit immer gestiegen ist) doch mind. so wichtig wie das Investieren in neue Innovationen.

Sich an dieser Stelle auf das Optimierungspotential der Spieleentwickler zu verlassen halte ich für ganz schön optimistisch. Im Endeffekt sind die 2 Gb Vram doch jetzt das Hauptargument für eine 2070. Wenn Vram-Größe wie du schreibst also in den nächsten Jahren sogar weniger relevant sein sollte, dann hat NV seine 2070 erfolgreich kannibalisiert.
 
Zurück
Oben