Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Radeon RX 6600 XT im Test: Effizienz-Champion mit Full-HD-Inselbegabung
- Ersteller Wolfgang
- Erstellt am
- Zum Test: Radeon RX 6600 XT im Test: Effizienz-Champion mit Full-HD-Inselbegabung
coral81
Lieutenant
- Registriert
- Nov. 2010
- Beiträge
- 1.015
Sobald die ersten Miner die Hashrate dieser Karte in den Coinforen posten werden die auch abverkauft. Ist ja auch noch ganz frisch. Meine Info über die Hashrate der Karte habe ich vor dem dem Artikel von CB hier in diesem Thread gepostet.Seliador schrieb:Also die Karte gibt es bei NBB übrigens noch deutlich unter 500 Euro. Entweder ist die Verfügbarkeit sehr hoch oder die Miner noch nicht völlig im Kaufrausch .
Amboss
Cadet 4th Year
- Registriert
- Juni 2013
- Beiträge
- 90
ich dachte meinen Sarkasmus kann man aus dem Post herauslesen....CyrionX schrieb:Welche Palette? Es wurden nur max 3 Stück pro Kunde verkauft
Die "coolen" Sprüche sollte schon solide sein, sonst ists nur arrogantes Gehabe.
Jo, die nächste Altersstufe ist dann wohl
"Alle macht dem Geld."
Ist natürlich nicht die letzte, darf aber jeder selbst erkunden.
PS: Seit wann ist Aktienhandel und Bitcoin kein zocken
Wenn alles gut läuft, subventioniert eine verkaufte 6600 XT meine zweite eigene 6600 XT (Statt 500 dann ca. 250.-). Was ein realistischer Preis für so eine Karte wäre
C4rp3di3m
Commander
- Registriert
- Jan. 2008
- Beiträge
- 3.068
Januar 2016 AMD R9-390+ (Zweitschnellste der Serie) Nagelneu für 309€. Ich nehme eine 6800XT für 309€ aber keine 6600XT für 380€ Punkt.DJMadMax schrieb:Ich bin ja schon ne weile tätig am Markt... also, sowohl so, als auch so
Du darfst gern mal in der Zeit zurückgehen und mir mitteilen, wann man zuletzt ein "Grafikkartenflaggschiff" für 380 Euro bekommen hat.
mfg
DJMadMax
Fleet Admiral
- Registriert
- Mai 2007
- Beiträge
- 15.847
Wovon träumen hier eigentlich manche?C4rp3di3m schrieb:Januar 2016 AMD R9-390+ (Zweitschnellste der Serie) Nagelneu für 309€. Ich nehme eine 6800XT für 309€ aber keine 6600XT für 380€ Punkt.
mfg
Die R9 390"X" (die meinst du wohl, es gibt keine 390"+") kostete zu Release im Juni 2015 über 400 Euro, dafür war die wirkliche High-End-Karte, eine GTX 980 Ti, zu diesem Zeitpunkt 37% schneller.
Die Aufgabenstellung war klar definiert:
Dein Beispiel hat jedenfalls nichts damit zu tun.Man veröffentlicht hier eine schöne Mittelklassekarte zum Preis ehemaliger Flagschiffe.
Powl_0
Commodore
- Registriert
- Sep. 2018
- Beiträge
- 4.304
*Zweitschnellstes Rebrand der 2 Jahre alten ehemaligen High End Karten. Darüber kamen dann zwei Fury Modelle.C4rp3di3m schrieb:AMD R9-390+ (Zweitschnellste der Serie
Die 390/X waren nicht die Spitze dieser Generation. Eine aktuelle High End Karte für den Preis zu erwarten ist sogar abseits von Scalping und Co absurd.
Immerhin scheint man die Karte aktuell kaufen zu können. In Deutschland ist sie zudem wenigstens günstiger als bei uns (Die günstigste geht ab CHF 520 los. Das sind in etwa 480 Euro).
Für alle, die aktuell keine Karte mehr haben, haben wenigstens eine kaufbare Option, ohne auf auch überteuerte gebrauchte Karten ausweichen zu müssen oder ein Laptop kaufen "zu müssen" oder im Hochpreissegment zu landen...
Witzig ist, dass bekannte Shops wie Digitec Schweiz seit letzter Woche übrigens "komischerweise" haufenweise RX 6700 und v.a. RTX 3060 und 3070 aus dem Programm genommen haben...die wurden in letzter Zeit günstiger und fanden wohl wergen der immer noch hohen Preislage keine Abnehmer
Für alle, die aktuell keine Karte mehr haben, haben wenigstens eine kaufbare Option, ohne auf auch überteuerte gebrauchte Karten ausweichen zu müssen oder ein Laptop kaufen "zu müssen" oder im Hochpreissegment zu landen...
Witzig ist, dass bekannte Shops wie Digitec Schweiz seit letzter Woche übrigens "komischerweise" haufenweise RX 6700 und v.a. RTX 3060 und 3070 aus dem Programm genommen haben...die wurden in letzter Zeit günstiger und fanden wohl wergen der immer noch hohen Preislage keine Abnehmer
Zuletzt bearbeitet:
Nebula2505
Lt. Junior Grade
- Registriert
- Aug. 2019
- Beiträge
- 316
Das liegt doch einfach auch an der Zeit, das Produkt hätten sie in normalen Zeiten niemals so gelauncht, denkt doch Mal nach...deo schrieb:Ein Spiele PC für unter 800€ ist mit AMD Grafikkarte nicht mehr möglich.
Nur Casual Gamer können noch mit einer APU etwas reißen, aber auch die sind kaum verfügbar. AMD sieht sich wohl im Premium Bereich und will da natürlich auch bleiben, was mit einer Einstiegskarte ab 380€ nicht zu leugnen ist.
Das Brot- und Butter Image war bei AMD mal.
Ich denke, dass diese Lücke auch von Intel gefüllt werden kann.
Warum sollten sie sonst auch bei TSMC eine hohe Kapazität gebucht haben?
UNRUHEHERD
Lt. Commander
- Registriert
- Mai 2013
- Beiträge
- 1.370
Habe jetzt meine 5700 verkauft, eine 6600 xt für msrp mitgenommen und 120 Euro rausbekommen.
Die 6600xt ist zwar nicht der Hammer, für mein fhd Display aber okay und schneller als die 5700.
Die 6600xt ist zwar nicht der Hammer, für mein fhd Display aber okay und schneller als die 5700.
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.578
Nein das ist falsch.DJMadMax schrieb:Wenn ich die gleiche Leistung wie vor 5 Jahren erhalten will, zahle ich für eine GTX 1660 359 Euro - 100 Euro weniger, als für die GTX 1070.
Eine normale 1660 ist langsamer als eine 1070 und hat auch 2GB weniger VRAM.
(Fast) gleichschnell wäre eine 1660 ti oder Super und die kostet ab 400€. Eine günstige 1070 hat kurz nach Release auch nur 420€ gekostet. (Siehe Preisverlauf z.B. bei diesem Modell.)
Die 20€ mehr würde ich auch heute noch allein für die 2GB mehr VRAM drauf zahlen. Denn 6GB sind echt knapp.
Da hat sich also auch in deinem Beispiel absolut garnichts getan in Sachen Preis/Leistung in den letzten 5 Jahren.
*
Nein ich versuche die aktuell miese Situation einfach realistisch zu betrachten.DJMadMax schrieb:Bei dir ist das Glas halb leer, bei mir ist es halb voll.
Für gute Technik zu guten Preisen lasse ich mich sehr gerne begeistern und habe dafür auch schon viel Geld ausgegeben.
Wenn ich aber für eine heutige Mittelklasse Karte genauso viel zahlen soll wie für eine Oberklassekarte vor einigen Jahren und beide die genau gleiche Leistung bieten ist meine Begeisterung eher am Boden.
Wäre ich bereit soviel für diese Leistung zu zahlen, dann hätte ich das schon vor Jahren getan.
Hinzu kommt, dass auch die Anforderungen der Spiele nicht fest stehen:
Wo 2016 eine GTX 1070 für 420€ die WQHD Auflösung in damals aktuellen Spielen noch prima befeuern konnte, kann man das heute in aktuellen AAA-Titeln mit einer GTX 1660 Super nicht oder nur mit sehr starken Abstrichen.
Wenn das so weitergeht erleben wir in den nächsten Jahren einen großflächigen Rückschritt auf FullHD Monitore weil sich die meisten Spieler keine Grafikkarte mehr leisten können (oder wollen) die für WQHD reicht. (Über 4K brauchen wir da garnicht erst anfangen zu sprechen...)
...und nun kommt mir bitte keiner mit Corona und schlechte Lieferketten: Sowohl Nvidia als auch AMD fahren gerade gigantische Gewinne ein. Andere Preise wären durchaus möglich wenn die Hersteller denn wollten.
*edit an der Stelle noch nachträglich:
Man könnte nun natürlich argumentieren die RX 6600 XT ist eine ganze Ecke schneller als die 1070 und kostet auch nicht so extrem viel mehr (aktuell 470€ im PVG). Mit etwas suchen findet man sicher auch ein Beispiel wo man aktuell tatsächlich mehr Leistung für das gleiche Geld bekommt.
Dennoch bleibt das Problem mit den Anforderungen der Spiele:
-Ja diese Karte ist schneller. Aber diese Leistungsklasse eignet sich heute aufgrund gestiegener Anforderungen moderner AAA-Titel gerademal für FullHD (und selbst da nicht für moderne Features wie RT).
Die 1070 war damals eine Top WQHD Karte, die mit Einschränkungen teilweise sogar 4K fähig war.
Das kannst du mit einer 6600XT vergessen.
Zuletzt bearbeitet:
Nö, nicht nach meinen Quellen. Wo hast Du das her?WommU schrieb:In UHD liegt die 6600 XT im Schnitt immer noch 8% vor der 3060, die dort keinen Vorteil hat.
Kann es sein, das Du UHD mit WQHD verwechselst?
Bei 4K ist die 3060 schneller als die 6600XT
Anhänge
Xul
Lieutenant
- Registriert
- Jan. 2009
- Beiträge
- 735
Mit dem meisten davor hast du ja durchaus recht, aber genau diese Verklärung früherer Grakas nervt mich einfach. Wie schon weiter oben, wo man die Preisvorstellung einer fucking RX480 oder RX570 auf Grakas mit 2070S-Leistung übertragen hat, ist auch die 1070 nie eine ordentliche WQHD-Karte gewesen. Das war bei mir das erste, was gegen ne 1080ti getauscht wurde, als das Geld gereicht hat, denn ohne niedrigere Details hat man auch schon damals massive Einbrüche auf WQHD gehabt.Xes schrieb:Hinzu kommt, dass auch die Anforderungen der Spiele nicht fest stehen:
Wo 2016 eine GTX 1070 für 420€ die WQHD Auflösung in damals aktuellen Spielen noch prima befeuern konnte, kann man das heute in aktuellen AAA-Titeln mit einer GTX 1660 Super nicht oder nur mit sehr starken Abstrichen.
Wenn das so weitergeht erleben wir in den nächsten Jahren einen großflächigen Rückschritt auf FullHD Monitore weil sich die meisten Spieler keine Grafikkarte mehr leisten können (oder wollen) die für WQHD reicht. (Über 4K brauchen wir da garnicht erst anfangen zu sprechen...)
Die Vorstellung, dass jeder auch mit seiner Popelkarte smooth in WQHD spielen können "muss", war halt auch in den Generationen davor nie wirklich der Fall. Zur Orientierung: Schon 2015 (!) kam The Witcher 3 raus – und da kommen mir hier Leute mit dem Mythos einer 1070 oder Rx480 als flüssige WQHD-Karte. Dass man dieses Anspruchsdenken auch noch inmitten des völlig überdrehten Marktes aufrecht erhält, ist blauäugig. Vielleicht hätte man sich vorher überlegen sollen, ob man sich einen teuren WQHD/4k-Monitor hinstellt, wenn man seit Jahren nur Budgetkarten kaufen möchte ...
Kauft einfach nicht während dieser überdrehten Phase oder kauft nur dann, wenn wirklich Bedarf ist und Leistungszuwachs zu erkennen ist. Dieses "X ist der Nachfolger von Y, deshalb muss es das und das können" funktioniert einfach nicht, es gibt seit Jahren schon keinen linearen Fortschritt zu irgendwelchen "Kategorien", die sich manche User ausmalen.
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.578
Dem würde ich wiedersprechen. Von wann sprichst du und von welchen Titeln? Ich habe selbst sehr lange zufrieden in WQHD mit einer 1070 gespielt.Xul schrieb:... ist auch die 1070 nie eine ordentliche WQHD-Karte gewesen. Das war bei mir das erste, was gegen ne 1080ti getauscht wurde, als das Geld gereicht hat, denn ohne niedrigere Details hat man auch schon damals massive Einbrüche auf WQHD gehabt.
Witcher 3 konnte ich damals auf meiner GTX 1070 prima in WQHD mit sehr hohen Grafiksettings spielen.Xul schrieb:Die Vorstellung, dass jeder auch mit seiner Popelkarte smooth in WQHD spielen können "muss", war halt auch in den Generationen davor nie wirklich der Fall. Zur Orientierung: Schon 2015 (!) kam The Witcher 3 raus – und da kommen mir hier Leute mit dem Mythos einer 1070 oder Rx480 als flüssige WQHD-Karte.
Siehe auch die Benchmarks hier. Da sind übrigens auch diverse andere zu dieser Zeit aktuelle Titel mit dabei wo die GTX 1070 in den allermeisten Fällen flüssige Frameraten (60+) in WQHD mit Ultra Grafiksettings erreicht.
Die RX 480 ist deutlich schwächer war natürlich eher eine FullHD Karte.
Was ist für dich denn eine Budget Karte? Alles unter 1000€?Xul schrieb:Vielleicht hätte man sich vorher überlegen sollen, ob man sich einen teuren WQHD/4k-Monitor hinstellt, wenn man seit Jahren nur Budgetkarten kaufen möchte ...
Wir hatten über viele Jahre die Situation, dass man für 200-300€ eine ordentliche FullHD Karte, 400-600€ eine gute WQHD und für 700€ aufwärts schon die ersten tauglichen 4K Karten bekam.
Was ist denn heute wirklich WQHD tauglich?
Da ist man mindestens 800€ für eine 3070 los und selbst die ist ein Kompromiss mit eigentlich zu knappem Speicher. Ohne Einschränkungen ist man eher bei einer 3080 ab 1100€.
Wer soll sich denn bitte vorher überlegen, dass zukünftig der fast dreifache Preis fällig wird um einen WQHD Monitor weiter zu betreiben? Das kann man nun wirklich nicht den Spielern in die Schuhe schieben.
Fallenghost90
Lieutenant
- Registriert
- Mai 2013
- Beiträge
- 670
Gut 70% schneller als meine aktuelle 1660 super. Gut, die hat mich auch nur 200€ gekostet letztes Jahr. Für 1080p + hohe Refreshrate ist die 6600 xt durchaus super. Ich skippe aber diese Generation, dafür ist mir meine aktuelle Karte noch zu neu.
calippo
Vice Admiral
- Registriert
- Juli 2015
- Beiträge
- 6.797
Wenn ich das mit meiner 3 Jahre alten GTX 1080 vergleiche, sieht es gar nicht mal so schlecht aus (die UVP für die 3070 und das Leistungsniveau der größeren Karten muss ich halt ausblenden)
Damals habe ich im ersten Miningboom verhältnismäßig günstige 550€ bezahlt (kostete einige Wochen vorher und nachher ca. 800€, jetzt bekomme ich für 100€ weniger eine sparsamere Karte mit etwas mehr Leistung.
Zum Glück komme ich dieses Jahr wohl noch locker mit der 1080 aus und bin insbesondere froh, dass ich die 5 Jahre Garantie im möglichen Schadensfall wirklich sehr gut gebrauchen kann. Normalerweise wäre eine mittlerweile über 5 Jahre im Markt befindliche Mittelklassekarte nicht mehr so viel wert, als dass man sich über einen Garantiefall nach so langer Zeit noch richtig freuen könnte.
Damals habe ich im ersten Miningboom verhältnismäßig günstige 550€ bezahlt (kostete einige Wochen vorher und nachher ca. 800€, jetzt bekomme ich für 100€ weniger eine sparsamere Karte mit etwas mehr Leistung.
Zum Glück komme ich dieses Jahr wohl noch locker mit der 1080 aus und bin insbesondere froh, dass ich die 5 Jahre Garantie im möglichen Schadensfall wirklich sehr gut gebrauchen kann. Normalerweise wäre eine mittlerweile über 5 Jahre im Markt befindliche Mittelklassekarte nicht mehr so viel wert, als dass man sich über einen Garantiefall nach so langer Zeit noch richtig freuen könnte.
N
naicorion
Gast
Ich kann hier die meisten Kommentare nachvollziehen, die Preisvorstellungen manchmal nicht (6800XT darf max 400 kosten...). Man darf nicht vergessen, dass man hier die (G-)Prozessoren mit der höchsten Komplexität bekommt. Eine moderne GPU ist das Komplexeste und Grösste was an Chips für Consumer so gefertigt wird. Dazu die modernste Speichertechnologie und haufenweise F&E. Da sind ja nicht mehr nur ein paar Shader drauf, die alle Jahre bisschen schneller werden. Also wird es auch komplexer = teurer. Und für den Händlerirrsinn können die Hersteller nichts, die zwar an der Vollauslastung, aber nicht an der Überrendite aufgrund des doppelten UVP verdienen.
Was mich frustriert ist der gefühlte Stillstand: In der Oberklasse geht nichts mehr wegen des Verbrauchs. Meine 80TI ist so versoffen und brütet mir im Sommer die Bude heiss - kein Vergnügen. Will die nächste Generation schneller sein, geht das eigentlich nur über die Software (DLSS, KI, RT etc.). 5NM wird heiss und bringt nur ein paar Prozent.
In der Mittelklasse werden die Karten zwar sparsamer (immerhin) aber eben nicht besser. Die aktuellen Karten haben Sollbruchstellen, die mich echt nerven: Zu wenig Cache (6600XT), zu wenig Speicher (auch 6600xt, 3070ti), zu viel Verbrauch (3090), zu wenig RT-Leistung . keine ist wirklich rund wie z.B. 980TI, 1070, 5700xt, 290x...Damit konnte man alles in allen Auflösungen machen und wenn die Spiele über die Jahren anspruchsvoller wurden, konnte man ein bisschen runterdrehen und gut war. Auch einen Auflösungswechsel war in der Regel drin und wurde nicht technisch limitiert.
Was mich frustriert ist der gefühlte Stillstand: In der Oberklasse geht nichts mehr wegen des Verbrauchs. Meine 80TI ist so versoffen und brütet mir im Sommer die Bude heiss - kein Vergnügen. Will die nächste Generation schneller sein, geht das eigentlich nur über die Software (DLSS, KI, RT etc.). 5NM wird heiss und bringt nur ein paar Prozent.
In der Mittelklasse werden die Karten zwar sparsamer (immerhin) aber eben nicht besser. Die aktuellen Karten haben Sollbruchstellen, die mich echt nerven: Zu wenig Cache (6600XT), zu wenig Speicher (auch 6600xt, 3070ti), zu viel Verbrauch (3090), zu wenig RT-Leistung . keine ist wirklich rund wie z.B. 980TI, 1070, 5700xt, 290x...Damit konnte man alles in allen Auflösungen machen und wenn die Spiele über die Jahren anspruchsvoller wurden, konnte man ein bisschen runterdrehen und gut war. Auch einen Auflösungswechsel war in der Regel drin und wurde nicht technisch limitiert.
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.135
Das wird sich mit lovelace ändern abseits des high end chip ad102 (ich nen den aber GL102) mit 144sm
Sind andere sku ad104 und ad106 alle auf 5nm tsmc dieser ist satte 80% effizienter als tsmc 16nm
gerechnet käme eine rtx4090 bei 350w tbp auf max 90°c
Die gesarmte horror leaks zu 450w und co basieren darauf das man samsung 5nm node nutzt dann stimmt es auch.
Der ad104 wird 120sm haben etwa 500mm² sein und im schnitt 45-57tf bieten
aber es ist offen ob nvidia diese 250w karte als Mittelklasse bringt das hängt von amd ab.
Der ad106 mit nur 60sm und 17tf und stolzen 70w-100w wird vermutlich eher kommen wenn tsmc 5nm gefertigt wird mit samsung 5nm läge der verbrauch bei 175w
release ist aber erst q2 2023 je nachdem wann nvidia den refresh ampere /rtx30xx super bringt 2022 q1 oder q2
Die chipkrise lässt es eben nicht zu früher eine neue gen kommt, amd ruht derweil und wird den n33 zuerst mit 5120shader bringen.
Hier sehe ich release um q3 2022 als rx7900xt man peilt die 2,6-3,0ghz marke an.
+Architektur Verbesserung sehe ich da etwa +60-90% zur rx6900xt.
Die mcm GPu wird man sich für den workstation markt vorbehalten. Was primär an directx und dem treiber liegt.
Sind andere sku ad104 und ad106 alle auf 5nm tsmc dieser ist satte 80% effizienter als tsmc 16nm
gerechnet käme eine rtx4090 bei 350w tbp auf max 90°c
Die gesarmte horror leaks zu 450w und co basieren darauf das man samsung 5nm node nutzt dann stimmt es auch.
Der ad104 wird 120sm haben etwa 500mm² sein und im schnitt 45-57tf bieten
aber es ist offen ob nvidia diese 250w karte als Mittelklasse bringt das hängt von amd ab.
Der ad106 mit nur 60sm und 17tf und stolzen 70w-100w wird vermutlich eher kommen wenn tsmc 5nm gefertigt wird mit samsung 5nm läge der verbrauch bei 175w
release ist aber erst q2 2023 je nachdem wann nvidia den refresh ampere /rtx30xx super bringt 2022 q1 oder q2
Die chipkrise lässt es eben nicht zu früher eine neue gen kommt, amd ruht derweil und wird den n33 zuerst mit 5120shader bringen.
Hier sehe ich release um q3 2022 als rx7900xt man peilt die 2,6-3,0ghz marke an.
+Architektur Verbesserung sehe ich da etwa +60-90% zur rx6900xt.
Die mcm GPu wird man sich für den workstation markt vorbehalten. Was primär an directx und dem treiber liegt.
The_Wizzard
Lt. Junior Grade
- Registriert
- Aug. 2012
- Beiträge
- 454
das ist quatsch. das was die 1070 geschafft hat, schafft die 6600XT ca. 40-50% schneller. Also wenn sie mit diesen Titeln fast 4k fähig war , dann schafft das die 6600XT locker.Xes schrieb:Die 1070 war damals eine Top WQHD Karte, die mit Einschränkungen teilweise sogar 4K fähig war.
Das kannst du mit einer 6600XT vergessen.
Xes
Admiral
- Registriert
- Nov. 2013
- Beiträge
- 7.578
Bitte den Beitrag richtig lesen:The_Wizzard schrieb:das ist quatsch. das was die 1070 geschafft hat, schafft die 6600XT ca. 40-50% schneller.
Die Aussage war darauf bezogen, dass die GTX 1070 damals im damaligen Testfeld für WQHD und mit Abstrichen sogar 4K geeignet war. Die RX 6600 XT schafft das im heutigen Testfeld nicht, bzw. nur deutlich schlechter.
Ähnliche Themen
- Antworten
- 397
- Aufrufe
- 39.393
- Antworten
- 893
- Aufrufe
- 104.453
- Antworten
- 108
- Aufrufe
- 35.284
- Antworten
- 53
- Aufrufe
- 13.556
- Antworten
- 236
- Aufrufe
- 36.287