wtfNow schrieb:
Und eine RX 6800 "versagt" gegenüber einer RTX 3070 bei eingeschaltetem Raytracing...
Manche wollen eben RT, und manche wollen halt stumpf Texturen auf Ultra obwohl das häufig keine optische Verbesserung ist. Für den einen ist mehr VRAM wichtiger und der andere legt mehr wert auf andere Features (RT, DLSS Verbreitung, CUDA, Broadcast-App, etc.). Beides zusammen gibt es in der Mittelklasse leider nicht.
Aber The Last of Us hat doch soweit ich das sehe gar kein Ray Tracing, und die meisten Konsolenports (immerhin das wofuer die Spielefirmen primär Spiele produzieren PC ist ja nur ne Nische die man nebenbei mit nimmt), werden das nicht haben, mein Punkt ist ja auch nicht ob du diese Nachteile in Kauf nimmst fuer eventuelle Vorteile, die Frage ist, wieso wird nicht klar der Nvidia Nachteil als solcher genant wird, da wird irgendwie verblümt von "8gb VRAM sind nicht genug" was schlicht nicht stimmt die sind nur bei Nvidia nicht genug, weil die Karten die bei AMD 8gb haben auch mit 16gb nicht für Ultra schnell genug wären. Das ist wie wenn man Gesetze macht die denjenigen der auf die Kinder auf passt bevorzugt und den Besserverdienenden benachteiligt (ob das so ist ist ne separate Diskussion, ist nur ein Beispiel), und das Wort Frau und Mann nie im Gesetzestext verwendet und dann so tut als hätte man ja kein Sexistisches Gesetz gemacht, auch wenn ganz zufällig in ca. 99% der Fälle das eine der Mann ist und das andere die Frau. Wobei es da zumindest Ausnahmen gibt wo gibts denn die Ausnahmen hier? Nvidia wird bei diesen Spielen durch zu wenig Raum ausgebremst AMD nie (oder wenn dann weniger stark).
Zumal man auf den Vapordefekt massivst reagiert hat mit 5 Updates einer fetten User befragung war vermutlich Top News der Woche oder Monats, und bei Nvidia ists nicht mal eine kleine News in der man ja auch leicht beschtwichtigen koennte wert? Also im einen Fall die groesste Aufmachung ever, im anderen Totschweigen, selbst wenn es nicht gleich schlimm wäre, könnte die Unterschiedliche Behandlung nicht extremer sein.
wtfNow schrieb:
Am Ende stellte sich heraus dass es nur eine Hand voll defekte gab, und auch alle weil diejenigen die sie eingebaut haben zu doof waren den Stecker ganz reinzustecken.
Naja bei Bränden die bis zum abbrennen des Hauses führen kann, reichen auch wenige Fälle weil jeder Fall potenziell so massiven Schaden anrichten kann, und nein man muss Produkte auch so bauen das dumme Leute sich damit nicht schaden, ein extremes Beispiel das mir hier einfällt ist mit den Ueberaschungseiern die in den USA verboten sind weil Kinder es verschlucken könnten, ein blödes Beispiel da es so extrem selten vor kam das es irrelevant ist, aber bei den Nvidia Karten kam das ja in 1-2 Monaten deutlich häufiger vor als Kinder Überraschungseier geschluckt haben seit der Einführung der Eier und das bei deutlich höheren Stückzahlen.
Ein Beispiel das mir einfaellt sind Fensterheber, da gibts ja auch Einklemmschutz ich weiss nicht ob das Gesetzlich verpflichtend ist aber unverantwortlich das heute zu bauen ohne solch einen, vermutlich zumindest bei Neuwagen Pflicht? Da koennte man auch sagen wenn sich jemand einklemmt das ist ein Benutzerfehler niemand wird sich einklemmen ohne irgendwas dazwischen zu halten wenn man es aus loesst. Die Stuckzahlen der Karten >1000 Euro waren ja auch gering daher sind ein paar Faelle schnell recht viel. Haette man die selbe Problematik bei 200 Euro Karten mit 1000x so viel Kunden haette man zehntausende wenn nicht hunderttausende solcher Unfälle, das heisst es passiert nicht nur den allerbloedsten, selbst Reviewer checken das mitlerweile 5x Paranoid, es gibt wohl kein klares Klick einrastgeraeusch oder so mal nicht immer.
wtfNow schrieb:
Daraus schlussfolgere ich, die Tech-Presse schaute bei der D4 3080 Ti "Problematik" genauer hin und machte aus einer Maus keinen Elefanten.
Das stimmt so nicht, Tomshardware eine große Techseite hat einen Bericht von vor 8 Tagen:
https://www.tomshardware.com/news/rtx-3080-ti-gpus-are-mysteriously-dying-on-diablo-iv-beta
Also es ist nicht das irgendwie niemand darueber berichtet oder nur kleine Webseiten, man ist sich dessen wohl bewusst und verhaelt sich hier anders wie bei dem AMD Ding, was nun auch nicht extrem Schlimm war, man meldet sich beim Support bekommt die ersetzt und das Problem ist auch geloest, und von den Karten wurden extrem wenig verkauft da >800 Euro Karten sehr wenige Menschen kaufen, kann ich genauso argumentieren und immerhin brennt niemand die Bude ab von.
wtfNow schrieb:
Btw ich vermisse übrigens auch bei den aktuellen Radeons die Artikel über zu hohen Idle Verbrauch bei bestimmten Monitor Setups. Die liegt um ein
vielfaches höher als bei Nvidia,
einige wollen die Karten auch schon loswerden.
Das wurde hier aber in Artikels zu Tests zu neuen Treibern z.B. erwähnt, wo wurde das mit sterbenden Nvidia Karten erwähnt? Zumal ein höherer Stromverbrauch in sehr ungewöhnlichen Multi-monitorsetups nicht vergleichbar sind mit Defekten und Braenden. >95% der Kunden benutzen Singlemonitor Setups, und auch wenn sie Multimonitorsetups benutzen ist nicht bei allen der Verbrauch so hoch, ich glaub das Problem kann auftreten wenn man unterschiedliche Frequenzen auf beiden Monitoren faehrt, also eine noch exotischere Situation da die meisten Multimonitorsetups wohl mit 2x 60hz arbeiten werden.
Und Stromverbrauch wird ja nunmal auch auf dieser Seite und in der IT sehr wenig bewertet, die Intel CPUs bekommen ja gute Wertungen weil sie gleich viel Speed in Spielen teils erreichen, das die dazu 200Watt mehr verbrauchen oft, ist ja egal. Klar es wird erwähnt aber eher so nebenbei, also wieso erwartest bei Grafikkarten da mehr? Das wäre ja dann noch mehr biased gegen AMD, bei Intel macht man kein großen Deal draus das die mehr verbrauchen aber bei Grafikkarten problematisiert man es noch mehr als eh schon.
https://www.computerbase.de/artikel...nitt_leistungsaufnahme_spiele_youtube_desktop
hier sieht man ja schoen das die 7900 XT(X) sogar besseren Stromverbrauch Dualmonitor hat wie die meisten Nvidia Karten, es geht also wenn dann um die letzte Generation. Der Forumeintrag den du verlinkst ist eine Einzelperson die nicht angibt was fuer ein Setup sie faehrt muss ein Exotisches sein da bei normalem Dual-Monitor die 7900 sehr sparsam (idle) ist. (laut Test).
wtfNow schrieb:
Bei den aktuellen Karten muss man also sehr genau hinschauen ob einem eine Radeon oder Nvidia besser passt, Kompromisse gibts bei allen. Und sei es nur der Preis einer 4090
Das sehe ich auch so, aber trotzdem sollten eben Seiten wie diese auf die Vor und Nachteile beider gleich oft / stark / angemessen hin weisen, und nicht massiv sich auf 1 Problematik eines Herstellers fokusieren und die des anderen Tot schweigen. Nur gut informiert kann man diese Abwägung gut machen.