ComputerJunge schrieb:
Laut Deiner Signatur hast Du ja auch noch Turing gekauft, und zwar aus Gründen, die ich ganz sicher nachvollziehen würde.
Ich habe zu dem Zeitpunkt von einem alten AMD Phenom II X6 1100T System mit GTX 970 (ursprünglich war eine GTX 570 drin) zu einem Ryzen 2700x mit eben der 2080 einen neuen PC selbst gebaut und durch den Kauf der Karte nicht direkt zum Release hab ich nicht die zuerst geforderten 850€ (und mehr...) für eine Custom 2080 Gigabyte Gaming OC der Händler sondern 100€ eingespart und durch das
3 Spiele Bundle damals von nvidia. Selbst wenn man sie zu dem Zeitpunkt als Gamekey gekauft hätte nochmals 100€ dazu gesparrt. Wodurch ich für mich von den ursprünglichen 850€ auf effektiv 650€ runter war. Das war okay. Dazu hab ich ein eigens Heimkino und encodiere meine Videos in H265 selbst. Die GTX 970 konnte zwar schon H265 encodieren aber nicht decodieren. Erst das Upgrade auf die 2080 bot mir meine Encodierungen direkt am PC auch zur Kontrolle abzuspielen (und nicht nur über meinen externen Media Player auf TV gestreamt) weil sie auch einen H265 Video Decoder in Hardware hatte.
Aktuell hab ich an ein erneutes GPU Upgrade gedacht weil ich auch den Monitor von 144Hz FullHD auf min 144Hz UWQHD upgraden möchte. Aber da mich nichts drängt, hab ich keine Lust die aktuell immer noch überteuerten Preise zu bezahlen und will daher mindestens bis Ende März/April nächsten Jahres oder sogar länger warten.
ComputerJunge schrieb:
Oder ich habe Dich falsch verstanden?
Ja hast du. Denn ich sage niemanden er soll oder muss jetzt AMD kaufen. Ich sage nur wenn jemand eine neue Karte jetzt zwingend benötigt dann soll er die 6000er AMD wählen
um so gegen nvidias Preispolitik mit der Brieftasche zu wählen. Weil an nvidias 4000er Preisen orientiert sich aktuell alles darunter egal ob nvidias eigene 3000er oder AMDs 6000/7000er Generation. Und wenn die Leute anstatt der 4000er die 3000er kaufen, spielen sie nvidia trotzdem in die Karten weil die 4000 nur deswegen so viel teurer sind um langsam aber kontinuierlich den Abverkauf der 3000er OHNE Preis Reduzierungen zu erzwingen.
Nvidia baut hier simpel darauf das Ihr Ruf der angeblich besseren Treiber und Features wie Raytracing oder DLSS niemanden zu AMDs günstigeren 6000/7000er greifen lassen wird.
Nur in meinen Augen sind alle 3 Sachen irrelevant weil das Treiber Ding ist nur noch ein Mythos.
Für Raytracing gibt es nicht genug neue Spiele so das nvidia regelmäßig mit um Raytracing erweiterte alte Spiele Werben muss (Siehe Quake 2 RTX oder nun Portal) die sie größtenteils sogar selber für die Original Entwickler um das Feature erweitert haben. Nur um überhaupt mit einen alten aber Prominenten Namen werben zu können! (Nun sollen ja Modder alte Spiele mit RTX aufwerten damit nvidia so ihre immer noch lausige Titelzahl künstlich aufblähen kann) Ich erinnere mich noch an
Jensen Huang Aussagen bei der 2000er Vorstellung wie leicht es doch ist Raytracing zu integrieren und es "einfach funktioniert"! Öhm wieso hat das dann immer nicht jedes neue Spiel? Und wieso bekommen die Spiele Entwickler es in 4ter RTX Generation (ja die 20x0 "Super" Karten waren auch eine eigene Generation) die meisten als mit Raytracing angekündigten Spiele nur irgendwann mal (wenn überhaupt, was keinem aufzufallen scheint...) per Patch nachzuliefern?
Und DLSS wird nun als der Heilbringer für 4k oder UWQHD angepriesen. Dabei wurden die Konsolen die noch nie genug Rohleistung für die Native Auflösung hatten/haben, schon immer die Spiele in deutlich Geringerer Auflösung berechnet und dann in die tatsächliche Display Auflösung nur Hochskaliert haben all die Jahre (ja Jahrzehnte) nur belächelt. Nun aber soll es die AI richten weil sie das hochskalieren künstlich besser macht. Entweder meine Karte hat genug Leistung für die native Auflösung oder eben nicht und ich muss Details wie Schattenqualität, Sichtweite ect. reduzieren!
Das einzige valide Argument für nvidia Karten ist für mich aktuell nvidias CUDA Schnittstelle bzw. der darüber angesprochene NVENC (nvidia Video Encoder) weil es schlicht viele Programme gibt ihre Berechnungen darüber in Hardware über die Grafikkarte deutlich schneller als über die CPU durchführen können WENN man das privat auch nutzt. Das hat AMD schlicht verpennt auch direkt zu puschen, denn auch wenn es ihre Karten mittlerweile können, so gibt es (noch) zu wenig Programme die es auch für Privat und als kostenloses Open Source Programm mit AMD Karten in Hardware unterstützen.