News Radeon RX 6600 XT vorgestellt: Mehr Leistung als RX 5700 XT und RTX 3060 für 379 USD

Northstar2710 schrieb:
Naja, wenn die Karte genauso langsam wäre wie ein vega56 oder rx480, hast du recht. Aber sie ist nunmal schneller als deine genannten .
Stimmt schon. Aber es ist die Einstiegskarte. Was hat damals die RX 460 gekostet? Rund 160 Euro.
Und jetzt soll ich für den Einstieg vier Jahre später 380 Euro zahlen? Und das ist nur die UVP im Handel geht es dann auf über 400 Euro. Das ist schon richtig krass.
Wenn das so weiter geht dann muss ich mir was überlegen.
Ich fand schon die 649 für die 6800xt viel. Wenn das so weiter geht und eine 7800xt oder 8800xt dann eine UVP von 900 Euro hat. Bin ich raus. Falls ich bis dahin nicht eine Gehaltserhöhung von 30-40% erhalten habe.
 
  • Gefällt mir
Reaktionen: Strahltriebwerk
Vielleicht ca. 50% mehr Leistung als die 5600 XT/5700 und dabei weniger Verbrauch? Hört sich gut an.
Kein Raytracing stört nicht wirklich, evtl. falls man vorhat die bereits erhältlichen (älteren) Titel damit zu zocken und dann gff. auch die Details noch zusätzlich runterschraubt, dann holt man sich halt eine 3060 oder lieber etwas besser (aber wieder eine Preisfrage).
 
Powl_0 schrieb:
Weil es sich im aktuellen Markt nicht lohnt. Wieso eine kleine GPU für unter 100$ verkaufen, wenn man verglichen mit Kosten/Die-Größe locker doppelt so viel verdienen kann bei den Mittelklasse/High End Karten?

Lieber produziert und verkauft AMD 1x 6600XT als 2x low end.

Das war aber eben das Problem: Wenn man ne Office-Kiste wollte, hatte man folgende Wahl:

Laptop (Die wohl günstigste Option), Ryzen 3200G/3400G zu überhöhten Preisen, bei euch war es wenigstens noch Ryzen 4xxxG oder dann eben Intel.

HP hat es bei seinen kleinen Desktops mit Ryzen 3600 Pro mit einer RX550 gelöst.

Aber wenn du einen Ryzen 7/9 wolltest, dann wurde es plötzlich unverhältnismässig teuer. Und die alten Grafikkarten können problematisch sein, wenn man z.B. 4K-Monitore hat.

Gewisse Low End Karten machen schon Sinn oder eben dann auch eine High-End CPU mit kleiner Grafikeinheit. Wichtig ist das Featureset und beispielsweise, dass man 2 Monitore voll ansteuern kann (4K @ 60Hz) oder so.

AMD hat einfach das Niedrigpreissegment aus den selbst genannten Gründen nicht priorisiert (Würde ich als Unternehmen in einer solchen Lage auch....mit Bedacht auf einen Boomerangeffekt)
 
zonediver schrieb:
Können die AMD-Karten jetzt endlich (so wie Nvidia) Videos konvertieren?

Wenn du damit den NVENC meinst: Können die schon "ewig". Es muss nur die Software unterstützen. Heißt bei AMD "Video Coding Engine" (VCE). Wurde mit der HD 7700 Serie eingeführt und geht bis zur Vega 20 (Vega VII). Bei OBS musst du den "Advanced Media Framework" (AMF) Encoder auswählen. Bei den RDNA basierten GPUs heißt der Encoder Part nun "Video Core Next" (VCN).

Eine kleine Übersicht der unterstützen Formate fürs Encoden und Decoden hat Wikipedia im "Unified Video Decoder" (UVD) gelistet.
 
  • Gefällt mir
Reaktionen: Inxession, Geckoo, Redundanz und eine weitere Person
Optimus Heinz schrieb:
Warum nicht und wer definiert was man in dem Fall miteinander vergleicht?
Weil hier mit Markt während Pandemie/Shortage/Scalping vs dem Markt davor verglichen wird. Man muss also die restlichen Umstände so nah wie möglich halten.

Wenn ich mit irgendwelchen 10 Jahre alten Verhältnissen vergleiche, kommt viel zu viel Variables hinzu. Damalige Marktanteile, damalige Fertigung und Kosten, damaliges Kostengefüge, etc etc.

Zumal ein Anstieg der Marge über 10 Jahre nichts heftiges sein muss. 2% pro Jahr sind dann immernoch 21,8% nach 10 Jahren. Klingt viel, ist YoY aber nichts großartiges.

Und wenn man 2017/2018/2019 mit 2020/2021 vergleicht, sind die Margen YoY nicht stark gestiegen. Die Preiserhöhung geht also nicht als Profit in die Taschen von AMD und Nvidia. Seit gut einem Jahr gibt es Ressourcenknappheit in der ganzen Industrie, von Plastik zu Kupfer zu Zinn etc als Rohstoffen über Zwischenprodukte wie NAND oder Wafer ist Schritt für Schritt alles teurer geworden, teilweise signifikant (manche der Rohstoffe sind >50% teurer als noch vor 2 Jahren). Ergo kosten auch die fertigen GPUs/Karten in der Produktion mehr, egal was manche sich hier an bösen Machenschaften herbei fantasieren.
 
  • Gefällt mir
Reaktionen: denbaschu, Klever, trommelmaschine und 3 andere
R O G E R schrieb:
Schöne kleine GPU.
Aber 160W ist schon ne Hausnummer für die leistungsklasse.
In der Leistungsklasse ist das kein Problem die 3060 wird mit 170W angepriesen von Nvidia.
In der Preisklasse ist es er recht kein Problem da waren oft 250W boliden angesiedelt.
War wohl deutlich übertrieben jedoch ein höherer Verbrauch als 160W ist/war hier die Regel.

Richtige Stromsparer gibt es bei externen GPUs eh nicht mehr, deshalb gibt es auch die APUs oder besser umgekehrt^^ Für den absoluten Einstieg hatte AMD eigentlich noch immer eine X5XX Klasse aber wird bei aktueller Lage wohl einfach vernachlässigt .
Die X6X0 Reihe von Nvidia ist praktisch auch immer auf ähnlichem Watt Niveau.
Bei AMD war die Reihe meist 30W darunter, was aber zur selben Pin Bestückung führen dürfte.
 
Zuletzt bearbeitet: (Aufgrund neuer Tatsachenerkenntniss)
  • Gefällt mir
Reaktionen: Redundanz
Weedlord schrieb:
Fände das generell recht praktisch wenn man die Karten auch auf x8 umswitchen könnte und man sich so lanes sparen kann
Kannst du doch so gesehen...steck ne x16 Karte in nen x8 Slot und sie läuft mit x8. Steck jeweils eine Karte in beide x16 (bzw x16+x8) Slots in einem Mainstream System und der x16 Slot schaltet auf x8 zurück, um 8+8 Modus zu ermöglichen.
Ergänzung ()

D3xo schrieb:
Das ist nicht besonders intelligent, nichts für 200€ anzubieten. Manche Menschen können nicht mehr als 200€ ausgeben und die werden nicht plötzlich eine Grafikkarte für 400€ kaufen. Ich kann dir sagen was diese Menschen in Zukunft machen werden, nämlich nur die CPU verwenden.
Ja gut, aber ganz pragmatisch: Was hätte AMD davon, weniger 400€ Karten und dafür mehr 200€ Karten zu bauen? Dann machen sie weniger Umsatz. Und dann wären diese Kunden vielleicht glücklicher, die besser betuchten dafür unglücklicher.
Wer sich eine aktuelle Karte nicht leisten kann oder will, der kann halt nunmal jetzt keine neue Karte kaufen.
 
Zuletzt bearbeitet:
Schade mit dem kleinen Infinity-Cache, mit 64 MB hätte es vielleicht noch für ne brauchbare WQHD-Karte gelangt.

Bin auf die Tests gespannt, auch wenn ich mich geistig auf neue Karten (7600 XT, 4060 Ti) in einem Jahr eingestellt hab, die aktuellen Preise sind mir zu hoch.
 
  • Gefällt mir
Reaktionen: v_ossi, Zwirbelkatz und Piter73
Uff. Mit einem Lüfter? Wenn meine 6700xt 185W gezogen hat, hatte ich 92° GPU / 105° Hotspot und weit über 80° VRam Junction Temperatur. Bei offenem Case. Das kann so ja nur zu heiß werden.
 
mazoman schrieb:
Hey seit gestern gibt es eine Warteschlange im AMD direct buy Shop! Also nicht dass ich eine bekommen hätte.. aber nach 15 min wird einem wenigstens gesagt, dass der Spuk vorbei ist.. auf jeden Fall eine Verbesserung :p
Hey danke für die Info! Ist jetzt nicht mehr interessant, denke die 5700XT macht ihren Job noch bis zur nächsten Generation, aber da steigen dann mit der Warteschlange die Chancen vlt. signifikant an.
Tulol schrieb:
Kämpfte nicht dir Vega64 mit der 1080? und war die 5700 nicht auf 1080ti nivau? Die 5700XT war dann noch mal ca 15-20% drüber?
Die 5600xt dagegen hatte weniger speicher, War deutlich Langsamer und eben entsprechend Billiger.
Zum Release ja, schaut man sich die aktuellen Benches an, dann liegt die 5600XT irgendwo 3-5% hinter der 1080 non-Ti. Die 5700XT rangiert so bei der 2070 - 2070 Super, die 1080Ti hab ich da eben nicht auf dem Schirm, wo die sich hier einordnet, vermutlich auch irgendwo in dem Bereich um die 2070S.
 
  • Gefällt mir
Reaktionen: mazO!
Sappen schrieb:
Vermeintlich defekten PC auf Kleinanzeigen geschossen und Rest verkauft. Daher ca 50 Euro 🤣
Ergänzung ()
Du glückspilz.

jetzt kannst du die Karte auf Ebay für das 7 Fache verkaufen.
 
Hallo zusammen,

@ Ein_Freund
Ein_Freund schrieb:
In der Preisklasse ist es er recht kein Problem da waren oft 250W boliden angesiedelt.
Da hätte ich aber doch ganz gerne ein Beispiel dafür. Aus dem Stand fällt mir keine Karte der letzten Jahre ein, welche im knapp 300 € Segment Plus knapp darüber 250 Watt zog. Selbst Polaris in Form der RX 590 zog maximal ca. 230 Watt. Und das war die absolute Obergrenze.

Ne, Nvidia Karten wie die GTX 1060 oder 1070, sogar die GTX 1080 lagen meilenweit darunter. Sogar die RTX 2070 lag noch darunter. Erst eine RTX 2080 lag darüber, die jedoch war in einer ganz anderen Preisklasse, genauso wie die 2070. Vega 64 lag darüber. Allerdings auch wieder eine ganz andere Preisklasse. Also nein, die Aussage kommt so nicht hin.

So long....
 
  • Gefällt mir
Reaktionen: Ein_Freund
calippo schrieb:
da man den Output nicht so schnell erhöhen kann
Wohl eher dass der Output aktuell schon auf Hochtouren läuft. Die Nachfrage ist aber auch auf Rekordniveau. Dazu noch Rohstoffmangel und Engpässe. Das gibt hohe Preise in allen Stufen.
 
S.Kara schrieb:
Cyberpunk 2077 1080p@Ultra mit RT+DLSS Q läuft mit ca 50 FPS auf einer 3060.
Da würde ich jetzt nicht von 0 Sinn oder mieser Quali reden.

50 FPS, toll, also Ruckler. Glückwunsch. Von den Drops reden wir besser nicht, das Spiel braucht Leistung.
 
Erst mal Benchmarks abwarten, aber ich kann mir vorstellen, dass die 5700 xt als Nachrüstkarte für pcie 3.0 Systeme besser performt, gerade auch für wqhd. Gerade auch ältere Spiele wie ein Witcher 3 wären interessant als Vergleich.

Im Grunde liegt die Karte in etwa auf dem Preispunkt, zu dem die 5700 xt in der Praxis auch verkauft wurde.

Denke, die Zielgruppe sind eher günstige Fertig-PCs als Einzelkäufer der Karte.
 
paulemannsen schrieb:
Es gibt keine schlechten Produkte, nur schlechte Preise. Wiedermal eindrucksvoll bewiesen hier.
Wenn der Preis so schlecht ist wie von dir behauptet, werden die karten wohl wie Sauerteig in den Regalen liegen und wir können sie in ein paar Monaten zu einem Bruchteil der UVP kaufen.
 
flappes schrieb:
50 FPS, toll, also Ruckler. Glückwunsch. Von den Drops reden wir besser nicht, das Spiel braucht Leistung.
Ja, das Spiel ist mit 50 FPS ja unspielbar. :rolleyes:
Stell halt von Ultra auf High oder Medium/High, haste 60-70 FPS.
 
  • Gefällt mir
Reaktionen: Klever und v_ossi
Die Situation vermiest einem wirklich den Bastelspaß am PC. Üblicherweise habe ich mir so alle drei Jahre eine neue Grafikkarte geholt, halt immer solide Mittelklasse, einfach zum basteln und sich freuen, dass beim Gamen vielleicht doch ein paar Frames oder Details mehr rauskommen.
Jetzt darf ich mich auf neue Grafikkarten bewerben oder in Wartesschlangen einreihen und muss noch Glück haben, um dann für viel Geld was kaufen zu dürfen...
Nö, ohne mich. Dann spiele ich eben ein wenig den "Pile of shame" kleiner, da läuft das meiste Zeug noch ordentlich oder werfe irgendeinen Klassiker an. Gibt ja genug davon.
Grüße,
fisch
 
flappes schrieb:
50 FPS, toll, also Ruckler. Glückwunsch. Von den Drops reden wir besser nicht, das Spiel braucht Leistung.
Gibt auch genug andere Spiele mit RT, die weniger hungrig sind. CoD, Control, BFV, Doom Eternal, WD:Legion, SotTR, etc. Gibt genug RT Titel, in denen die Karte noch 60+ schafft, teils sogar bei 1440p.
 
  • Gefällt mir
Reaktionen: Klever
Zurück
Oben