Wer kauft denn eine 6900XT für 650€ gebraucht? 🤣Zwirbelkatz schrieb:Würde ich die 6900xt zeitnah optimal verkaufen, gäbe das 650€ Spielgeld. Da kommen dann noch immer rund 500€ drauf, um eine 7900xt zu finanzieren. Keine leichte Entscheidung unter dem Umstand schwindender Qualität bei neuen Spielen, sowie der Frage danach, wie das Chiplet-Design bei GPUs anklang findet.
Ich traue es AMD seitens des Managements zu, die Ziele auf die Straße zu bekommen. Aber die Treiber und Spiele müssen ebenfalls im Lot sein.
Gut möglich ist ebenfalls, dass ich den Traum von UHD wieder fallen lasse und mich entspannt zurück auf Full-HD plus "Render-Resolution" bequeme.
Sehr erfreulich ist der kleine Unterschied zwischen XT und XTX. Mal sehen, wie Nvidia die RTX4080 16GB verkaufen möchte. Da ist ein Fat-Chip entstanden, der nicht wirklich einer ist, aber tüchtig kosten soll und Strom zieht. DLSS und Raytracing werden dennoch für Nvidia sprechen.
-
ComputerBase erhält eine Provision für Käufe über eBay-Links.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD
- Ersteller Wolfgang
- Erstellt am
- Zum Bericht: Radeon RX 7900 XTX & XT: AMD RDNA 3 startet am 13.12. für 999 & 899 USD
Matthias80
Captain
- Registriert
- Sep. 2004
- Beiträge
- 3.885
Nicht wirklichr3ptil3 schrieb:bedeuten 1500+
Meine polierte Glaskugel hat funktioniert. Ich tippte ja auf max. 1299€ (nach Steuern) für die dicke Radeon.
Wegen dem schwachen Euro könnte es so kommen oder vielleicht bekommen wird die auch für "nur" 1199€.
Guter move von AMD, jetzt haben sie die Sympathien der Gamer und Nvidia muss seine Preise anpassen.
An sich hat die Karte alles, was man braucht: AV1 encoding/decoding, Speicher zu Genüge, bald kommt FSR3, Raytracing hat sich gebessert, auch wenn es wohl die Domäne von Nvidia sein wird. 4090 ist wohl der Raytracing-King, aber der Fight zwischen der 4080 wird interessant. Wie nah die XTX an der Raytracing-Leistung der deutlich teureren 4080 16GB sein wird. Skeptiker werden sagen, die Radeon wird im RT-Bereich der 4080 12GB liegen, aber hoffentlich hat RDNA3 mehr RT-Power zu bieten, so dass die XTX/XT in den Leistungsbereich der 4080 16GB kommen...
Noch kann ich gut ohne gute RT-Performance leben, gibt meiner Meinung nach keinen Blockbuster, wo ich nun sagen würde, Raytracing überzeugt auf ganzer Linie. Hearts of Iron macht einen guten Eindruck, aber abwarten.
Spätestens anno 2024 sollte man schon schauen, dass die GPU ordentlich bei Raytracing performt, denn da sollte es schon eine gute Auswahl al RT-Spielen geben, was den Kauf einer GPU mit guter RT-Leistung rechtfertigen würde.
Bzgl. des Referenz-Kühlers: Warum macht AMD hinten und vorne bei der Slot-Blende komplett zu?
Ist das eine Maßnahme, um den Luftdruck der Lüfter auf den Kühlkörper zu erhöhen, was im Endeffekt die Kühlleistung leicht bessert im Vergleich dazu, als wären die Seiten offen?
600€ bis 700€ für eine 6900XT sind doch voll ok, wenn man bedenkt, dass die XTX auch nur max. 50-60% schneller sein wird. Die Wakü-6900XT von Asus finde ich immer noch nice als Deal.
Wegen dem schwachen Euro könnte es so kommen oder vielleicht bekommen wird die auch für "nur" 1199€.
Guter move von AMD, jetzt haben sie die Sympathien der Gamer und Nvidia muss seine Preise anpassen.
An sich hat die Karte alles, was man braucht: AV1 encoding/decoding, Speicher zu Genüge, bald kommt FSR3, Raytracing hat sich gebessert, auch wenn es wohl die Domäne von Nvidia sein wird. 4090 ist wohl der Raytracing-King, aber der Fight zwischen der 4080 wird interessant. Wie nah die XTX an der Raytracing-Leistung der deutlich teureren 4080 16GB sein wird. Skeptiker werden sagen, die Radeon wird im RT-Bereich der 4080 12GB liegen, aber hoffentlich hat RDNA3 mehr RT-Power zu bieten, so dass die XTX/XT in den Leistungsbereich der 4080 16GB kommen...
Noch kann ich gut ohne gute RT-Performance leben, gibt meiner Meinung nach keinen Blockbuster, wo ich nun sagen würde, Raytracing überzeugt auf ganzer Linie. Hearts of Iron macht einen guten Eindruck, aber abwarten.
Spätestens anno 2024 sollte man schon schauen, dass die GPU ordentlich bei Raytracing performt, denn da sollte es schon eine gute Auswahl al RT-Spielen geben, was den Kauf einer GPU mit guter RT-Leistung rechtfertigen würde.
Bzgl. des Referenz-Kühlers: Warum macht AMD hinten und vorne bei der Slot-Blende komplett zu?
Ist das eine Maßnahme, um den Luftdruck der Lüfter auf den Kühlkörper zu erhöhen, was im Endeffekt die Kühlleistung leicht bessert im Vergleich dazu, als wären die Seiten offen?
600€ bis 700€ für eine 6900XT sind doch voll ok, wenn man bedenkt, dass die XTX auch nur max. 50-60% schneller sein wird. Die Wakü-6900XT von Asus finde ich immer noch nice als Deal.
Zuletzt bearbeitet:
Benchmarken hat AMD doch inzwischen von Intel gelernt^^Rockstar85 schrieb:Und Da bin ich echt gespannt, wie viel Konservativ AMDs Zahlen waren.
Erst im Januar 28W Rembrandt gegen 15W Cezanne
Dann Ende August die fragwürdigen ZEN4 Gaming Benchmarks, bei denen ein 7600X 5% vor einem 12900K liegt. Laut 3DCenter Analyse liegt der 12900K 2% vorne.
Dazu exakt 0 Benchmarks zur 7900XT. Ich denke nicht, dass das heute noch sandbagging war.
AMD schnürt hier im Highend tolle Pakete, aber Halo ist erstmal weg, bis zum eventuellen 3D Infinity Cache.
Aber cool, das AMD es doch einigermaßen schafft, dichtzuhalten. Vom asynchron Shader- und Frontendclock war bis dato noch exakt nichts zu hören, das ist in der heutigen Zeit schon ne Kunst. Auch in Sachen Takt waren die Leaker komplett falsch unterwegs.
Zenx_
Lieutenant
- Registriert
- Dez. 2017
- Beiträge
- 850
Was redest du da, wieso sollte die XTX 1500€+ kosten, wenn die RTX 4080 für 1200$ 1470€ kosten wird? Die XTX wird maximal 1300€ kosten und woher weißt du, dass die RTX 4090 deutlich mehr Leistung haben sollte? Also ich glaub, da ist ein 4090 Kunde ziemlich angefressen gerader3ptil3 schrieb:Wieso freut ihr euch alle?
999$ bedeuten 1500+ Euro in Deutschland und die 7900 XTX ist zudem deutlich hinter einer RTX 4090.
![Daumen hoch :daumen: :daumen:](/forum/styles/smilies/daumen.gif)
Mehr FPS, mehr besser.RAZORLIGHT schrieb:Gute Preise, aber die Performance macht mir Sorgen.
Und warum zur Hölle werden jetzt alle Präsentationen MIT aktiviertem FSR/DLSS gemacht, das nervt. Ich will wissen was sie nativ leisten.
Davon abgesehen: der Fokus auf 4K Displays ist bei AMD und Nvidia - nachvollziehbarer weise - deutlich. Und hier ist DLSS/FSR im Schnitt dem nativen Rendering + Kantenglättung nicht nur bei den FPS sondern vor allem auch bei der Bildqualität überlegen. Auch ich muss mich bei der Feststellung immer mal wieder kneifen, aber folgerichtig ist eine Hinzunahme des temporalen Upscalings in die Verkaufspräsentation legitim. Am Ende zählt heute fürs das Gesamtpaket einfach nicht nur die Hardware, sondern die Symbiose aus Software und Hardware, die ein Hersteller anzubieten hat.
Trinoo
Commander
- Registriert
- März 2008
- Beiträge
- 2.480
also 1300+ finde ich dennoch absolut bekloppt für ne Grafikkarte...
Wird dann bei 1600 liegen, je nach Verfügbarkeit und Modell.
und das wird nun gefeiert ohne Ende? hä?
/e: dafür dann deutlich schlechtere Raytracing Leistung, kein DLSS3 ... die paar Euro obendrauf hat man dann auch noch, wenn man soviel Geld für ne einzelnde Grafikkarte ausgeben kann.
Wird dann bei 1600 liegen, je nach Verfügbarkeit und Modell.
und das wird nun gefeiert ohne Ende? hä?
/e: dafür dann deutlich schlechtere Raytracing Leistung, kein DLSS3 ... die paar Euro obendrauf hat man dann auch noch, wenn man soviel Geld für ne einzelnde Grafikkarte ausgeben kann.
Zuletzt bearbeitet:
mugabemkomo
Cadet 4th Year
- Registriert
- Jan. 2009
- Beiträge
- 83
Warum 1300€ ausgeben wenn ich für 2000€ eine 4090 bekomme? ^^
fox40phil
Rear Admiral
- Registriert
- Okt. 2008
- Beiträge
- 6.017
Das hat mich auch mega genervt... kommt das dann erst in der nächsten Gen? Wenn die 4k Full RT nativ kann?RAZORLIGHT schrieb:Gute Preise, aber die Performance macht mir Sorgen.
Und warum zur Hölle werden jetzt alle Präsentationen MIT aktiviertem FSR/DLSS gemacht, das nervt. Ich will wissen was sie nativ leisten.
Die Vorstellung war super! Einige Seitenhiebe an NV
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Die Vorschau auf einen 8k Widescreenmonitor- und mit DP 2.1 und der 7000er Serie ENDLICH das Einläuten von HIGH PPI Monitore im Frühjahr zur CES 👌
![Hammer :hammer_alt: :hammer_alt:](/forum/styles/smilies/hammer.gif)
Die Preise sind krass! Aber ich habe etwas Schiss vor der Performance ohne FSR. Aber mal abwarten. Bin eh nicht im Zugzwang bzw. mein nächstes wird wohl leider ein Laptop
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Muss ja ein Grund geben was zurückzuschicken, typisch deutsches Verhalten.FrAGgi schrieb:Ich frage mich ja warum du sie dir überhaupt einen Tag vor dem Event noch geholt hast? 😅
Zuletzt bearbeitet:
Mitnichten "kalt erwischt", es ist so gekommen wie ich schon mehrfach angedeutet habe. Die 4090 bleibt die absolute Spitze, diesmal hat sich Nvidia nicht lumpen lassen und behält die Krone für sich, sowohl bei der Leistung als auch bei dem Preis. Die 4080 hingegen ist noch gar nicht auf dem Markt, der Chip ist wesentlich kleiner und der Preis wird zeitnah angepasst werden, spätestens dann sobald die Ampere Karten abverkauft sind.Dai6oro schrieb:Die 4080 16GB wird der direkte Gegner und wahrscheinlich in Preis und Peformance klar geschlagen. Mal sehen wer sich das Nvidia Lineup unter der 4090 noch antut für den Preis. Kalt erwischt Nvidia.
Nvidias Strategie ist doch wunderbar aufgegangen, bis die AMD Karten kaufbar sind, werden noch einige Ampere Karten bei den Kunden landen und nach Weihnachten kann man dann die Preise für die 4080 anpassen. Die 4090 kann dann da bleiben wo sie ist, es gibt immer genug Kunden die eine Topleistung wollen und auf das Geld nicht achten müssen.
"Kalt erwischt" hat AMD Nvidia bei der Ampere Generation, da musste man schnell die 3090Ti nachschieben. Diesmal scheint die Strategie aus Nvidias Sicht aufzugehen.
Nur Angstro hatte wirklich gute Infos, speziell Greymon war Meilenweit danebenPhilste schrieb:Aber cool, das AMD es doch einigermaßen schafft, dichtzuhalten. Vom asynchron Shader- und Frontendclock war bis dato noch exakt nichts zu hören, das ist in der heutigen Zeit schon ne Kunst. Auch in Sachen Takt waren die Leaker komplett falsch unterwegs.
Bulletchief
Rear Admiral Pro
- Registriert
- Nov. 2011
- Beiträge
- 5.599
mal den Straßenpreis abwarten... der könnte ja easy auch wieder gen 2k gehen...
Ist eigentlich logisch, dass se günstiger ist, wenn se nicht die entsprechende Leistung liefert.
Ist eigentlich logisch, dass se günstiger ist, wenn se nicht die entsprechende Leistung liefert.
Lan_Party94
Commander Pro
- Registriert
- Jan. 2013
- Beiträge
- 2.646
Es gibt noch keine Tests und die CB Community sieht schon den Heiligen Gral... Oh man...
FSR 3.0 ist noch nicht da, die RT Leistung scheint sich nicht besonders erhöht zu haben - am Ende muss das Gesamtpaket stimmen und das scheint hier schon gut zu sein, aber eben nicht so "krass geil" wie viele es hier mit ihrer Rosaroten Brille sehen.
Warten wir mal auf auf FSR 3.0 und was Nvidia mit DLSS noch so macht, denn RT können die Grünen - also warten und nicht auf den "Hypetrain" aufspringen.![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
FSR 3.0 ist noch nicht da, die RT Leistung scheint sich nicht besonders erhöht zu haben - am Ende muss das Gesamtpaket stimmen und das scheint hier schon gut zu sein, aber eben nicht so "krass geil" wie viele es hier mit ihrer Rosaroten Brille sehen.
Warten wir mal auf auf FSR 3.0 und was Nvidia mit DLSS noch so macht, denn RT können die Grünen - also warten und nicht auf den "Hypetrain" aufspringen.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Rockstar85
Admiral Pro
- Registriert
- Sep. 2004
- Beiträge
- 8.998
@Philste
haste die Linux Benches gesehen (Phoronix hat dazu was)? Ich habe das böse Gefühl, MS hat Win11 mal wieder kaputtgepatched.. Und ich hoffe das wird mal geklärt.. Es ist merkwürdig, dass die CPU in Linux viel besser performed.
Über die Spielewahl kann man natürlich meckern, aber ich sehe die Kerndaten und bin sehr zufrieden. Das werden schöne Geräte und der Preis ist wichtig.. Quasi die Ampere Karten von AMD.
haste die Linux Benches gesehen (Phoronix hat dazu was)? Ich habe das böse Gefühl, MS hat Win11 mal wieder kaputtgepatched.. Und ich hoffe das wird mal geklärt.. Es ist merkwürdig, dass die CPU in Linux viel besser performed.
Über die Spielewahl kann man natürlich meckern, aber ich sehe die Kerndaten und bin sehr zufrieden. Das werden schöne Geräte und der Preis ist wichtig.. Quasi die Ampere Karten von AMD.
- Registriert
- Juni 2006
- Beiträge
- 44.444
Schätzungsweise dieselben, die Impulsiv nach 1 Minute antwortenwertertzu schrieb:Wer kauft denn eine 6900XT für 650€ gebraucht? 🤣
https://www.ebay.de/sch/i.html?_from=R40&_nkw=6900xt+referenz&_sacat=0&rt=nc&LH_Sold=1&LH_Complete=1
Ice breaker
Ensign
- Registriert
- Mai 2016
- Beiträge
- 199
So meine lieben, kurz und bündig. Ich wechsle nach 12 jahren von nvidia zur amd gpu. Freu mich das es doch so gekommen ist, habe um ehrlich zu sein, nicht damit gerechnet.
Steini1990
Commodore Pro
- Registriert
- Okt. 2011
- Beiträge
- 4.619
Gut. Somit sind die NVIDIA Karten überhaupt nicht mehr interessant. Preislich ist das sehr eindeutig.
Ähnliche Themen
- Antworten
- 172
- Aufrufe
- 15.847
- Antworten
- 212
- Aufrufe
- 34.295
- Antworten
- 3.747
- Aufrufe
- 347.764
- Antworten
- 312
- Aufrufe
- 45.424
- Antworten
- 195
- Aufrufe
- 26.629