Quidproquo77 schrieb:
Nunja, die 3080 war schon deutlich schneller als die 2080, weil man auch zum gröĂeren Chip gegriffen hat.
Die Generation war nicht zuletzt durch DLSS, RT und andere Profi-Schmankerl sehr beliebt, da beiĂt die Maus keinen Faden ab. Und ich wĂŒrde bis heute einschlieĂlich WQHD eine 3080 der 6800XT vorziehen.
Nvidia hat halt hammerhart geschummelt, indem sie die TDPs angehoben haben. Der Test hier zeigt ĂŒbrigens nochmals schön auf, wie schlecht Ampere unterm Strich war:
https://www.pcgameshardware.de/Gefo...est-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/
Insbesondere Seite drei ist interessant:
https://www.pcgameshardware.de/Gefo...t-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/4/
Selbst in Punkto Raytracing hat Ampere eigentlich kaum etwas liefern können, wenn man die Effizienz ernst nimmt.
Quidproquo77 schrieb:
FrĂŒher (2005-2020) war eine Generation mit ~70% mehr Performance in der Spitze nicht hĂ€ufig, sondern die Ausnahme. Selbst die 4080 ĂŒberflĂŒgelte die 3080 um 50%, bei Pathtracing noch mehr.
Effizienzverdoppelung pro Generation (Achtung, keine Refreshes wie GTX 400 auf GTX 500 oder den Kaudawelch nach der 8800 GTX mitzĂ€hlen!) ist der Standard, an dem sich alles messen lassen muss. Daraus entstanden dann auch ganz automatisch alle frĂŒheren Faustregeln, wie dass die Mittelklasse der nĂ€chsten Gen schneller ist als HighEnd in der Generation davor.
Quidproquo77 schrieb:
FSR kam ein Jahr nach DLSS2.0, ergo ist nicht die erste Iteration von DLSS der Gegner.
Soviel Copium in der Argumentation tut nicht gut, abgesehen davon hatte Nvidia auch einen spatialen Upscaler in ihrem Treiber.
Hat nix mit Copium zu tun, zu dem Zeitpunkt war vollkommen klar, dass der Zug fĂŒr AMD abgefahren ist, dass sie zu spĂ€t waren. Dennoch hat FSR "1" DLSS "1" besiegen können; daran Ă€ndert sich nix.
Quidproquo77 schrieb:
Wenn du Vergleiche anstellst, dann sollten die schon vergleichbar sein, sprich zur gleichen Zeit.
Nein. Vergleiche können auch ansonsten aufschlussreich sein, um das "was wÀre, wenn" zu untersuchen.
Quidproquo77 schrieb:
Von "besser" sehe ich nicht viel und ĂŒber ein Jahr danach, gestartet mit schweren Problemen, die zum Teil immer noch bestehen, willst du nichts wissen. Der Berechnungsansatz ist zwischen AMD und Nvidia schlicht ein anderer. Nvidia setzt auf den Tensor Cores, AMD nicht. Beides ist etwa gleichwertig.
Du hÀttest auch erwÀhnen können, dass FSR3.1 Upscaling etwas mehr Performance als DLSS 3.5 kostet, oder beispielsweise Nvidias verbesserten Denoiser.
Tut mir leid, falls bei dir der Eindruck entstanden sein sollte, ich sei zu gnĂ€dig gegenĂŒber AMD oder nicht wertschĂ€tzend gegenĂŒber Nvidia. Einmal nachgelegt: AMD hat ordentlich was featuretechnisch verpennt. Ja, DLSS 1 nicht ernstzunehmen war kein Fehler, aber sie hĂ€tten dennoch schon damals sagen sollen: Hey, wir machen hingegen was, das wirklich etwas bringt. Und ja, AMD hat zu wenig auf RT gesetzt, auch das ist glasklar. Und ja, RayReconstruction ist ziemlich stark.
Quidproquo77 schrieb:
Korrekt und daher hilft AMD auch das Frame Generation wenig, auch wenn es bei manchen Spielen etwas mehr Performance bringt.
Ja.