News Radeon RX 5600 XT: AMD will mit Navi 10 und 6 GB die 1660 Super klar schlagen

captain kirk schrieb:
Kann man sich das nicht selbst schon etwas abstrahieren ?

Ich meine man schaue sich die 5700XT an, und überlege was passiert ,wenn man nun auch noch Chipfläche für Raytracing opfern muss u will...

Wäre möglich, aber so simpel ist die Welt nicht. Vielleicht findet AMD einen Weg, nicht einfach weitere Einheiten für die Strahlberechnung ("Raytracing") neben die Shader zu setzen. Vielleicht gibt es eine Form der Synergie zwischen den bekannten Shadertypen und der Strahlberechnung? Beispielsweise hatte AMD vor Jahren mit der Anbindung der Compute-Fähigkeit über die ACE-Einheiten einen performanteren Weg gewählt als Nvidia.
 
Pisaro schrieb:
Da frage ich mich wie man das so sehen kann. Im Preisbereich ab 300 Euro kann man nur AMD nehmen, da du da für das Geld die meisten FPS bekommst. Raytracing bei gehobenen Mittelklasseprodukten und Spielen die ich an der Hand abzählen kann? Unsinnig.

Polaris wird dieses Jahr vier! Jahre alt und eine RX 480 hatte eine UVP von 199€...nun bekomme ich vier Jahre später die doppelte Leistung zum doppelten Preis. Das sind 4 Jahre Stillstand bei Preis/Leistung. Nvidia verbaut einfach 22% der Fläche Raytracingeinheiten, die AMD nicht bieten kann und liegt preislich gleich auf, wieso sollte ich also zur 5700 greifen? Wegen den etwas höheren FPS? Reicht nicht mal wirklich um einen FullHD 144hz zu befeuern.

Wenn ich etwas zocken wollen würde, dann würde ich einfach zu einer gebrauchten Vega greifen oder eben dann doch den technologischen Fortschritt mitnehmen in Form von Raytracing. Früher habe ich AMD gekauft, weil sie eben für den Preis das Meiste geleistet haben, aber aktuell finde ich ehrlich gesagt eher die AMD Preise zu hoch, dafür dass sie sich die ganzen Raytracingeinheiten sparen. (Generell finde ich die Grafikkartenpreise zu hoch).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: captain kirk, adAstra und ThsM
Bombe wäre es halt, wenn die Karte "tweakbar" wäre auf 8 GB.

Ansonsten nicht sehr sexy wenn man bereits ne 8 GB Karte hat.
 
Iotis schrieb:
NV hat auch nicht die 1660 Super als Antwort auf die 5600XT auf den Markt gebracht. Dafür ist die RTX2060 (non Super) gedacht welche weiter auf dem Markt bleibt. Und genau diese hat AMD auch artig bei allen Benchmarks aussen vor gelassen
Die 2060 ist eine 349 $ - Karte, die mittlerweile ab ~330 € zu haben ist (bis auf ein einzelnes Angebot) und mit der 5700 (349 $) konkurriert.

Die 5600 XT also mit der 1660 Ti (279 $) und der 1660 Super (229 $) zu vergleichen macht also definitv Sinn.
Zumal ich die 2060 Non-Super aktuell für eine der unattraktivesten Karten halte - da nehme ich lieber eine schnellere 5700 mit 8 Gb für das gleiche Geld oder eine langsamere 1660 Super mit deutlich besserer P/L
 
  • Gefällt mir
Reaktionen: Verak Drezzt
@Revan1710 die 2060 6GB gibt es für 299 Euro bei NBB. Die Non Super 2060 ist schneller als die 5600XT was dann im Umkehrschluss bedeutet das die neue AMD Karte die unattraktivste Karte wäre. Die AMD Antwort auf die 1660ti war die Preissenkung der Vega56 auf 250 Euro.

EDIT: sie gab es zumindest bis gerade Oo für 299 Euro bei NBB....
 
  • Gefällt mir
Reaktionen: Draguspy, crogge und CrustiCroc
Smartin schrieb:
...Schon die AMD 290 hat das Leistungsniveau der 5500 (XT) gebracht. Die kostet gebraucht keine 80 Eur. Da jetzt 5 Jahre später knapp 200 Eur für aufzurufen, ist gelinde gesagt frech. .....

Der Vergleich hinkt aber. Die 290 war Highend. Du vergleichst hier eine ehemalige Highend mit eine aktuellen Einsteigerkarte. Den Vergleich könnte man praktisch mit jeder Highend-Karte egal aus welchem Lager stellen. Highend von gestern ist immer Lowend von heute. Zumal du diese Leistung dann ggf. mit neuen Funtkionen und vor allem Energieeffizienter bekommst.

Die 6 GB sehe ich in diesem Leistungssegment nicht ganz so problematisch. PCGH hat neulich in einem Test aufgezeigt das PCIE4.0 da wunder wirken kann. Dort haben sie die 5500XT glaube ich mit 4GB einmal mit PCIE3.0 und einmal mit PCIE4.0 antreten lassen. Mit PCIE4.0 waren die FPS deutlich höher und ruhiger. Zwar könnte man anbringen, dass ein Besitzer einer 5600XT jetzt nicht unbedingt ein X570-Board kauft, aber in Zukunft kommen ja vielleicht noch günstigere B550 oder B650-Boards raus. Dann kanns im Einstigersegment gegenüber zb einer 1660 schon besser aussehen, da diese ja noch auf PCIE3.0 setzen.

Wird man sehen.
 
Ich glaube, eine 5600xt ist ein gutes upgrade zu meiner rx480 4gb

Die 4 gb haben mir bis jetzt super gereicht also werden mir die 6 gb auch erstmal reichen.
Zur not kann man den textur Regler von Ultra auf hoch stellen um den speicher zu entlasten. Mit etwas Glück bei fast gleich bleibender grafik ;)
 
Würde ich eher 30-50€ drauf legen und ne 8GB 5700 non XT nehmen.
 
  • Gefällt mir
Reaktionen: duskstalker und 1Pferdemädchen
K1LL3RC0W schrieb:
Der Vergleich hinkt aber. Die 290 war Highend. Du vergleichst hier eine ehemalige Highend mit eine aktuellen Einsteigerkarte. Den Vergleich könnte man praktisch mit jeder Highend-Karte egal aus welchem Lager stellen. Highend von gestern ist immer Lowend von heute. Zumal du diese Leistung dann ggf. mit neuen Funtkionen und vor allem Energieeffizienter bekommst.

Die 6 GB sehe ich in diesem Leistungssegment nicht ganz so problematisch. PCGH hat neulich in einem Test aufgezeigt das PCIE4.0 da wunder wirken kann. Dort haben sie die 5500XT glaube ich mit 4GB einmal mit PCIE3.0 und einmal mit PCIE4.0 antreten lassen. Mit PCIE4.0 waren die FPS deutlich höher und ruhiger. Zwar könnte man anbringen, dass ein Besitzer einer 5600XT jetzt nicht unbedingt ein X570-Board kauft, aber in Zukunft kommen ja vielleicht noch günstigere B550 oder B650-Boards raus. Dann kanns im Einstigersegment gegenüber zb einer 1660 schon besser aussehen, da diese ja noch auf PCIE3.0 setzen.

Wird man sehen.
Alles schön und gut aber wen interessiert, dass die 290 mal HighEnd war?
Es ist doch eher erschreckend, dass die neue Mittelklasse (ich sehe das nicht als Einsteigerkarte wie Du) auf dem Niveau einer 7 Jahre alten "HighEnd-Karte" ist. Und davon mal abgesehen. Es geht mir um rein finanzielle Aspekte. Wer soll für das Leistungsniveau bitte 200 Eur auf den Tisch legen, wenn ich es auch gebraucht für 80 Eur kaufen kann? Es zeigt, dass der Preis viel zu hoch ist, zb die Leistung für den aufgerufenen Preis zu gering. Und es offenbart, dass die Leistungsentwicklung insgesamt immer mehr stagniert.
 
  • Gefällt mir
Reaktionen: 1Pferdemädchen
Ich glaube einfach nicht dass AMD den Focus derzeit auf High-End Gaming legt . Die Prio wird neben CPU mal Mobile und Konsole sein. Ich muss auch sagen dass ich diesen Weg absolut nachvollziehen kann. Die Konsolen bringen auf die nächsten 6 Jahre Garantieren Umsatz ein. Eine 2080Ti ist einfach ein Nischen-Produkt. Die CPUs und GPUs um die 400€ einfach wichtiger weil für den Massenmarkt.
 
  • Gefällt mir
Reaktionen: Stuxi
AMD hat echt Nerven....bzw. diese Firma nervt !!! Und zwar aus dem einfachen Grund : Wir wollen ( bezahlbare ) Alternativen zu Nvidia.

Würde dem Markt, besser gesagt den Preisen einfach gut tun.

Und kommt mir nicht mit der 57 ( XT ), das Ding ist viel zu langsam. Die Leistungsklasse hatte ich schon 2017.
Wenn man den "Vergleich" mit Nvidia mal weg lässt, ist das Ding auch viel zu teuer.

Aber AMD bekommt echt nix geschissen. "Big Navi" müsste spätestens JETZT kommen. Besser noch zum Navi Release letztes Jahr.

Das Teil ist doch jetzt schon DoA. Hätte mir einfach einen frühzeitigen Release zu nicht ganz so kranken Preisen gewünscht, und dann 2020 nachgeschoben etwas noch dickeres von AMD.

Jetzt bringen sie wohl im Sommer ( heißt bei AMD Herbst ), eine RTX 2080 ( evtl. Super ) Leistung, ohne RT aber mit höherer Leistungsaufnahme. Also alles wie immer.

Gegen Ampere wird das Teil krass abstinken.

So prima sich AMD bei den CPU´s gemacht, das sich selbiges bei den GPU´s wiederholt war nur Wunschdenken.

Lisa Su was extrem angespannt auf der PK. Als wäre ihr das ganze peinlich, denn die 56 XT ist einfach nur peinlich.
 
Ich verlinke noch einmal diese News von PCGH:

PCGH schrieb:
Blickt man als "alter Hase" - so nennen sich gewöhnlich nur Menschen jenseits der 30 - auf das Jahr 2019 zurück, kann man sich ein Gähnen nicht verkneifen. Schaut man ganz genau hin, erschreckt man sogar - oder können Sie sich an irgendein Vorjahr erinnern, in dem die Grafikleistung vollständig stagnierte? 2019 ist genau das passiert und steht damit im harten Kontrast zu den Prozessoren, bei denen eine kernige Superlative die nächste jagte (CPU-Rückblick 2019). Doch selbst das, wissen die ergrauten Klopfer zu berichten, ist im Vergleich zur Jahrtausendwende eher ein laues Lüftchen denn ein ausgewachsener Sturm. Die Produktzyklen sind gegenüber damals wesentlich länger geworden, das Feld der Hersteller wurde dramatisch ausgedünnt und fühlbare Leistungssteigerungen schlagen heftig ins finanzielle Kontor.
https://www.pcgameshardware.de/Graf...s/Grafikkarten-Jahresrueckblick-2019-1339661/

Die News fasst viele Post der letzten Seiten hier zusammen.
Nvidia hat das Preisgefüge seit Kepler immer weiter nach Oben verschoben, und wird dass mit Sicherheit auch bei Ampere machen, verbunden mit einem Rekordquartal nach dem anderen, massiven Anstieg der Aktie, und massiven Anstieg bei den Marktanteilen seit Kepler.

Und weil AMD sich hier einfach einreiht, was sehr nach Preisabsprache aussieht, oder einfach nur eine simple Anpassung an Nvidias (abartiges) Preisniveau ist, muss man dass als Endkunde noch lange nicht feiern.

Turing ist seit Fermi auch die von der Verbreitung her schwächste GPU-Gen von Nvidia bei Steam bei den dGPUs.

Die Kunden machen das also schon lange nicht mehr mit, reagieren (vernünftigerweise) mit Verzicht, kaufen gar nicht oder gebraucht.

Nicht umsonst wird die Steam-Umfrage von (uralten) Maxwell und Pascal GPUs dominiert, und die erste Turing GPU, die RTX 2060, die weit abgeschlagen, 15 Monate nach Release von Turing, bei Steam auf Platz 11 zurück liegt.

Steam ist hier auch recht gnadenlos, und zeigt sehr gut an ob eine GPU-Gen erfolgreich ist oder nicht. ^^
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Piep00, Chismon und Verak Drezzt
@Iotis
Wie gesagt, diese 299 € ist ein einzelnes Angebot bei einem Händler, überall sonst geht es bei knapp 330 € los. Und ja für 300 € ist die 5600 XT natürlich unattraktiv, da ich aus beiden Lagern dafür schon die schnellere Karte bekomme. Das ist aber auch nur so, weil beide Karten schon länger auf dem Markt sind und sich damit schon ein gutes Stück vom UVP entfernt haben (beide gab es zum Release für 370 €).

Die Preissenkung von Vega war nur eine Übergangslösung, die konkrete Antwort von AMD auf die 1660 Ti ist definitv die 5600 XT. Hier halte ich es aber für falsch, sich preislich nicht näher an der 1660 Super zu orientieren, mit der Nvidia ja selbst schon die 1660 Ti obsolet gemacht hat.
 
atlas77 schrieb:
Ausserdem ist es die ultimative 1080p Karte nur mit Ryzen 3rd Generation und X570 Board, ansosnten gibts wieder schön 3.0x 8,
das muss man sich wirklich mal kommen lassen, was hat AMD geritten?

Bieten selber passable preiswerte CPUs der 2 Generation an, und wenn ich mit denen 3.0x 16 mit AMD fahren will nehme ich eine Graka aus 2017, weil die neuen nur mit x8 laufen, ich werd darüber garnicht fertig.

Eine 2080 Ti verliert mit PCIe 3.0 x8 2-4%, wieso bitte braucht eine halb so schnelle Karte x16?
Fürs Gewissen?
Ergänzung ()

Iguana Gaming schrieb:
Ist sowieso alles lächerlich, wenn man bedenkt das man eine GTX1080 vor 2.5 Jahren für 450€ bekommen hat und man für selbige Leistung, heute, gerade einmal 100€ weniger zahlt.

Schau mal was gebrauchte GTX 1080 heute noch kosten.
Unter 300-350€ seh ich da nicht viel Tolles. Die Leistung stagniert und ebenso die Preise.
Ergänzung ()

RuhmWolf schrieb:
Wenn ich etwas zocken wollen würde, dann würde ich einfach zu einer gebrauchten Vega greifen oder eben dann doch den technologischen Fortschritt mitnehmen in Form von Raytracing. Früher habe ich AMD gekauft, weil sie eben für den Preis das Meiste geleistet haben, aber aktuell finde ich ehrlich gesagt eher die AMD Preise zu hoch, dafür dass sie sich die ganzen Raytracingeinheiten sparen. (Generell finde ich die Grafikkartenpreise zu hoch).

Dass die Grafikkartenpreise aktuell generell zu hoch sind, da muss ich dir zustimmen.
Aber RTX bei den kleinen Karten als positiv hinzustellen halt ich für gewagt. Die sind dafür viel zu schwach ausgestattet. Unter der 2080 macht RTX meiner Meinung nach 0 Sinn.
Schon ne 2070er hat arg zu rudern wenn man z.B. in Metro, wo das RTX Gedöns noch mit am Besten gemacht ist, nur minimal dazuschaltet. Bei BF siehts noch viel schlimmer aus.
Also bei der 2060 und 2070 ist RTX zwar auf der Featureliste angehakt, aber einfach massiv zu schwach um nützlich zu sein.
Die nexte Gen wird an der Stelle sicher viel stärker und so werden auch die Anforderungen an die Raytracing Einheiten massiv steigen.
 
Zuletzt bearbeitet:
onkas schrieb:
Ich glaube einfach nicht dass AMD den Focus derzeit auf High-End Gaming legt . Die Prio wird neben CPU mal Mobile und Konsole sein. Ich muss auch sagen dass ich diesen Weg absolut nachvollziehen kann. Die Konsolen bringen auf die nächsten 6 Jahre Garantieren Umsatz ein. Eine 2080Ti ist einfach ein Nischen-Produkt. Die CPUs und GPUs um die 400€ einfach wichtiger weil für den Massenmarkt.
Naja das ist ja auch eine Frage der Sicht. Was ist denn "HighEnd"? M.E. ist längst ein deutlicher Leistungsschub fällig (sowohl bei nvidia als auch bei AMD). Gerade wenn man auf 4K oder 8K schaut. Du musst im Grunde 1000 Eur in die Hand nehmen, um halbwegs brauchbare (nicht mal gute) Leistung mit 4K zu erreichen. Gleiches gilt für VR. Von 8K mal ganz zu schweigen. Und 4K ist jetzt mittlerweile wie alt? Aus 2013!!! Da gab es die ersten 4K Monitore, wenn ich mich recht erinnere. Das ist schon echt traurig. Der Leistungsbedarf ist locker da und m.E. auch mittlerweile nicht mal unbedingt "HighEnd" sondern in 2020 Standard. Wozu braucht man 4k 120hz Monitore? Oder WQHD Monitore mit 280hz? Oder jetzt die 360Hz Monitore? Es gibt keine Karte, die das befeuern kann. Die Grafikkartensparte hängt mittlerweile komplett zurück. Früher waren sie Leistungstreiber, heutzutage Bremser. Gut vielleicht geht einfach nicht mehr? Vielleicht ist das Ende der Fahnenstange erreicht? Vorstellen kann ich mir es eigentlich nicht.

Jedenfalls bringt es m.E. nichts, immer auf der Stelle zu treten und Remakes der bereits schon lange verfügbaren Leistung auf den Markt zu bringen.
 
@Smartin
Vieles hat auch damit zu tun, dass die meisten Spiele halt nicht gut Optimiert sind auf dem PC.
Man sieht ja was man mit Software Optimierungen auf den Konsolen alles rausholen kann.

Mit der Richtigen Optimierung wäre auch heute 4K schon längst kein Problem mehr auf dem PC.
 
  • Gefällt mir
Reaktionen: testwurst200
4K Gaming kommt langsam in Bereiche, wo es möglich wird.
Noch 1-2 Generationen und es kommt in der Mittelklasse an.

Aber das ist doch immer so. Zuerst kommen die Monitore, dann meint jeder Spack, sowas brauch ich und kann es nicht befeuern weil es keine GPU gibt. Wie immer den Bildschirm viel zu früh und zu teuer gekauft.

Das wird mit 8K nicht anders sein, mit dem Unterschied, dass man sich die Mehrauflösung einfach einbilden muss, weil man sie auch mit 50cm Abstand nicht sehen kann. :D
 
Es ist aber nicht der PC als Gamingplattform der 4K endlich massentauglich machen wird, sondern die (hier oft gescholtenen) Konsolen, also die PS5 und die nächste X-Box. ^^

Grafik war/ist aber immer nur ein (kleiner) Teil der Rechnung.
Nicht umsonst gibt es da noch einen 3. Mitbewerber, Nintendo, mit einem (uralten) Tegra, die sehr erfolgreich sind, viel erfolgreicher als z.B. MS. ^^

Und Nvidia verdient heute noch sehr viel Geld mit den Tegra-Chips die sie an Nintendo liefern, was man gut an den Quartalszahlen sehen kann, und Nvidias Tegra-Sparte so gar gerettet hat.
 
4k ist für pc gaming einfach nur Geldverschwendung, die meisten haben ein 24" monitor und da spielt es keine rolle bei der größe, 4k wird erst sinn machen bei 32" ++ und sowas wird sich keiner vorm pc stellen die meisten werden auf WQHD 27" gehen weil das die goldene Mitte ist von Performance/Bild.
 
  • Gefällt mir
Reaktionen: Xul
Ich habe seit über 10 Jahren einen 32 Zoll TV als Monitor, an dem ich meinen PC wie eine Konsole betreibe.

Und einen kleineren Bildschirm würde ich auch nicht mehr kaufen wollen.
Ich sitze gerade 20cm entfernt von meinem "PC-Monitor" während ich hier tippe. ^^
 
Zurück
Oben