Noch ein paar weitere Kommentare und der Kommentarzähler spiegelt den Preis der
RTX 4080 16 GB wieder
Die Preise sind sehr wild aber man wird sie letztendlich so akzeptieren müssen. Einerseits ist das der stetig von den shareholdern geforderte Preisaufschlag, andererseits eine Folge von immer weiter steigenden Fertigungskosten bei TSMC etc..; alle steigenden Kosten werden an den Kunden weitergereicht, die Gewinnmarge muss aufrechterhalten werden. Die Quartalszahlen müssen prächtig sein.
Wenn man nicht unbedingt eine 4000er-Karte haben muss, dann könnte man bei Ebay oder EKA mit der kommenden Flut an 3000er-Karten ein Schnäppchen machen. Das Preis-Massaker vom RTX 3000-Release wird sich leider nicht mehr wiederholen (2080Ti für unter 500€ vs 3080 für 799€), da die Leute schon jetzt die UVP der Ada-Karten kennen und keiner kurz vor Release der 4000er-Karten Panik-Verkäufe machen wird.
Aber ich könnte mir dennoch vorstellen, dass genug Karten bei Ebay und EKA zum Verkauf landen werden, dass dadurch die Preise der gebrauchten Karten noch weiter fallen wird.
Die Frage wird dann nur sein: 600€ für eine alte und gebrauchte 3080 oder gleich 1100 für 4080 bezahlen.
DLSS 3.0 und die deutlich bessere RT-Performance werden da den Unterschied machen.
Wer aber auf RT verzichten kann und mit weniger Frames leben kann, spart mit dem Kauf einer alten 3080/3090 viel Geld. Eine 3090 für 699€ würde ich nehmen
Man sieht, Nvidia geht in die Vollen, was Raytracing anbelangt und schickt sich an, aus technologischer Sicht der Konkurrenz davonzulaufen um den RT-Markt zu dominieren. AMD muss aufpassen, dass sie den technologischen Anschluss nicht verlieren. Machine Learning und künstliche Intelligenz können den Unterschied machen.
AMD hat aber ohne dedizierte RT-Cores bewiesen, dass deren Architektur auch RT kann.
Überraschenderweise hat es vor Kurzem ein Spiel gegeben, welches mit RT für AMD-Verhältnisse überdurchschnittlich gut performt hat.
Vielleicht hat AMD da was in petto mit der 7000er-Serie, auch wenn man nicht den Nvidia-Weg geht und auf dem GPU-Chip Platz für spezielle RT-Cores reserviert.
Meine Prognose ist, dass die Radeon-Karten beim klassischen Rasterizing führend sein werden, Nvidia dafür im RT-Bereich. Wer den Fokus auf RT setzt, kann nicht auch einfach so beim Rastern führend sein.
Realtime-RT sollte die Zukunft sein und Nvidia macht da richtig Druck, was ich gut finde.
Spannend wird sein, welchen RT-Ansatz AMD verfolgt und wie die das technologisch angehen werden.
Es ist ja keine Angelegenheit von ein paar Jahren, das Ziel von Realtime-RT wird Jahrzehnte beanspruchen.