Test Radeon RX 5600 XT im Test: Doch noch ein Konkurrent für die GeForce RTX 2060

warumnicht93 schrieb:
weil es kacke aussieht. 60 zu 144 =1080p zu 3840p


Ja, ja, 1080p sieht schon weniger gut aus als 1440p oder sogar 2160p.

Dir ist doch aber sicherlich klar, dass es Leute gibt, die nicht genug Geld haben um sich ein 1440p oder 4K Setup leisten zu können.
Außerdem gibt es ja noch Leute, die aus verschiedenen anderen Gründen auf kleinen Monitoren spielen.
Bei 21,5 Zoll ist 1080p relativ scharf.

Deshalb verstehe ich nicht, wieso Dich das schockiert?
 
  • Gefällt mir
Reaktionen: DerToerke
Viel erstaunlicher finde ich, dass es noch immer Leute gibt, die auf 4:3 Monitoren spielen. ;)
 
  • Gefällt mir
Reaktionen: DerToerke
@warumnicht93 ich oute mich mal als einer dieser Schockierer, zocke auf 24" 1920x1080 60Hz und habe nicht vor, das in nächster Zeit zu ändern.
Warum auch, läuft alles für mich zufriedenstellend, egal ob das n NfS:Heat, WoW oder Outer Worlds oder so ist.
Gut, daneben steht noch n 24"er für YT/Twitch/CB/sonstiges.

Auch das "Warum nur 24"" kann ich beantworten: Ausgebauter Dachboden in ner Maisonette, größer als n 24"er passt einfach nicht hin. Oh und die Monitore wurden teils geerbt (so richtig in echt).

Dazu kommt dann noch der bizarre Umstand, dass meine bessere Hälfte ein Problem mit Motion Sickness hat und bei Spielen die Details runterstellen muss, um nicht aus dem Fenster zu reiern .. und auf einmal wird zB die hier genannte Karte voll interessant, weil FHD+komische Einstellungen reicht. Naja, auch die 1050Ti stemmt das noch einigermaßen, aber irgendwann will man doch was neues ;)
 
  • Gefällt mir
Reaktionen: Tobse80, Frooooonk und adAstra
warumnicht93 schrieb:
Sage nur wie ich es empfinde mir dich egal wie andere zocken. Hab nur meine neinung gesagt und wurde deswegen quasi zerrissen shrugs


Was glaust Du, warum du "zerissen" wurdest?
Ernsthaft, würde mich interessieren.
 
  • Gefällt mir
Reaktionen: DerToerke, WommU und adAstra
Palmdale schrieb:
Als das einzig gruselige erscheint mir dein Kommentar. Bei all den Rechnern, die in in meiner weitläufigen Bekanntschaft und Verwandtschaft bisher auf Wunsch gebaut habe, sind bei den Besitzern Begriffe wie BIOS Updates, xmp Profil mit einem Klick aktivieren oder Übertaktung Fremdwörter.

Gar Windows Updates und Upgrades auf 10 vor dem Hintergrund der aktuellen Microsoft Presse führten teilweise zu panischen Anrufen, wie unsicher ja jetzt der PC sei.
Das vernünftig einzuschätzen, bedarf es Berufserfahrung. Die ist hier wohl unterrepräsentiert.

Das war eine implizite Zustimmung zu deiner Einschätzung und eine Replik an alle hier im Forum, die so tun als sei das ein kluger Schachzug von AMD gewesen. Die mit altem Bios ausgestatteten Karten ziehen einen Rattenschwanz von Problemen hinter sich her. So was darf sich auf keinen Fall wiederholen.

Die 6Gb Ausführungen waren auf die Kommentare gemünzt, die es zum Release eben jener 6GB Karten von Nvidia hier in diesem Forum gegeben hat. FHD ist auch in meinen Augen weiterhin die vorherrschende Auflösung und 6gb kann (!) hier durchaus ausreichen.

Meinen wir also aneinander vorbei geschrieben das gleiche? Oder ist er tatsächlich herablassend arrogant und unterstellt, ich hätte unter anderem keine "Berufserfahrung" und würde nur Trollen? Bitte um Klarstellung, ob sich die Investition in eine weitere Unterhaltung lohnt
Natürlich reichen 6GB für FHD, mit den richtigen Einstellungen reichen auch 2-4 GB, wie Millionen von Gamern täglich beweisen, das darüber überhaupt diskutiert wird . . . . Ich nehme mir hier erst mal eine Auszeit. Das Diskussionsklima in Foren zu Raytracing ist um ein vielfaches freundlicher und sachlicher als hier.
 
  • Gefällt mir
Reaktionen: DerToerke und adAstra
MaverickM schrieb:
Viel erstaunlicher finde ich, dass es noch immer Leute gibt, die auf 4:3 Monitoren spielen. ;)
So wie ich.
Gelegenheitsspieler, deren Office Monitor noch funktioniert und daher nicht ersetzt werden muß.

Ich wiederum finde FHD zum arbeiten gruselig.
 
warumnicht93 schrieb:
weil es kacke aussieht. 60 zu 144 =1080p zu 3840p
Überzeugt mich irgendwie nicht, weil mein 75hz 4k Monitor wanderte als Netflix Gerät ins Schlafzimmer, Quake war irgendwie sehr ungeil auf der langsamen Kiste. Bevor ich 4k auf 60hz nehme, nehme ich doch lieber 1080p auf 120hz. Womit sich dann auch die beliebtheit von 1080p erklärt, zweimal soviel Bilder bekommt man wohl leichter in hübsch auf den Schirm als viermal soviel Pixel.

Nicht das ich 4k bei 120hz abgeneigt wäre, alleine der Preis der 2080ti und co überzeugt mich auch nicht so recht.
Ergänzung ()

MaverickM schrieb:
Viel erstaunlicher finde ich, dass es noch immer Leute gibt, die auf 4:3 Monitoren spielen. ;)
Mal die alten Röhren nicht unterschätzen!
 
MaverickM schrieb:
Wird hier wieder fleißig Buzzword-Bingo gespielt oder was genau sollen Konsolen oder speziell Spiele denn bei maschinellem Lernen machen/bringen, bzw. umgekehrt wofür sollte maschinelles Lernen auf der konkreten Endnutzer-Hardware in Spielen gut sein!?

Mal als Anregung.
Was könntest du dir denn vorstellen, wie DeepLearning hierbei helfen könnte?
DeepLearning.PNG


MaverickM schrieb:
DXR kommt bei AMD mit RDNA2.

Und wer sagt dir, dass RDNA2 nicht auch eine verbesserte Architektur für DeepLearning Anwendungsfelder enthält? Ich würde mal davon ausgehen.
 
  • Gefällt mir
Reaktionen: adAstra
warumnicht93 schrieb:
weil jeder seine meinung stur durchsetzten will wenn wer seine persönliche meinung kund tut

Es gibt noch Leute, die mit nur sechs physischen Kernen leben können? Lol. Das gibt es doch schon seit über zehn Jahren. Was für Low-Spec-Lappen :D

Hinweis: Um meinen Kommentar zu verstehen studiere man bitte die von @warumnicht93 in diesem Thread abgegebenen Postings.
 
  • Gefällt mir
Reaktionen: DerToerke und Frooooonk
Bärenmarke schrieb:
Ein Pro Tipp ist das mit nichten! Es ging doch um die Lautstärke, wie soll es mir da helfen das PT um 20% zu reduzieren, wenn die Kühllösung grottig ist? Dann nehme ich doch gleich das Produkt, welches mir einen sehr leisen Betrieb out-of-the-box gewährt.

weniger abwärme = kühlung muss nicht soviel ackern = leiser... logisch, oder?

manchmal frage ich mich, ob leute wirklich zuende denken bevor sie schreiben :freak::heul:
 
...ich versteh die ganze aufregung nicht, grafikkarten hersteller haben immer neue grafikkarten produziert, die nicht so leistungsstark waren, wie schon eben ältere grafikkarten.
ich mein, gut 6gb v ram hört sich bissel wenig an, weil es schon lange grafikkarten mit 8 gb v ram gibt.
es wird doch niemand gezwungen, die 5600xt zu kaufen....für mich wäre sie eine echt gute karte, besser noch, mit dem "langsamen" bios.....noch besser, passiv gekühlt.
für mich steht niedrieger stromverbrauch und die geräuschkulisse im vordergrund, von daher find ich diese karte echt gut gelungen....ach, im übrigen dattel ich mit meiner 1050ti kalmx an einem 40 zoll samsung led tv ....auch aktuelle titel wie metro exodus und ich bin echt zufrieden mit allem.

Lg
 
Apocalypse schrieb:
Man bekommt für eine solide Menge weniger Geld aber eben in Form der RX580 die gleiche Menge Speicher und fast die gleiche Performance.

Die 5500XT ist imho einfach nicht schön aufgestellt, die 4GB Version kann die RX570 als Budget Empfehlung nicht wirklich ersetzen, die 8GB Version kämpft mit der 580, 590 und 1660 und 1660 Super, die entweder etwa gleich viel Perfomance für etwas weniger Geld liefern, oder ein Stück mehr Performance für ein Stück mehr Geld.

Eine Sapphire 590 Pulse bekomme ich gerade auf Geizhals für 200€, die Nitro sogar gerade für 187€, die 5500xt Pulse gibt es gerade für 220€. Das heißt ich zahle knapp 18% mehr um etwas Storm zu sparen und weniger FPS zu haben.


Mal anders gefragt. Warum sollte ich mir also für das selbe Geld eine veraltetet RX580/90 kaufen, welche im Idle 3mal soviel verbraucht und im Load bis zu 100 Watt mehr benötigt und dies auch noch mit Lautstärke weggekühlt werden muss?

RX5500 Idle.png

RX5500 Load.png


Da greife ich lieber zur RX5500 8GB.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Peacemaker1337 und adAstra
Revan1710 schrieb:
Laut CB ist die RX480 mit 8 GB bei 256 € gestartet, die 5600 XT hat eine UVP von 299 € und ist damit ~17 % teurer geworden und gleichzeitig ~60-65 % schneller - wie kommst du da auf die gleiche P/L ?

Die Kritik, dass es heute für ~300 € nur noch 6 GB gibt, ist natürlich berechtigt

Wenn du in eben jenen RX 480 Test unter Overclocking schaust, wirst du feststellen, dass sich aus der RX 480 als Referenz(sic!) 15-20% mehr Leistung kitzeln lassen. Das klappt mit dem hier getesten Custommodell der 5600 XT nicht annähernd so gut (4-6%).

Wenn man sich nun noch die Test zum 4GB und 8GB Modell von vor dreieinhalb Jahren anschaut, dann muss sich die 5600XT eben mit der 4GB für 199 US-Dollar UVP messen, schließlich war die 4GB Variante für jedes Game in FullHD ausreichend wohingegen die 6GB der 5600XT heute schon in manchen Spielen in FullHD ein spürbares Stocken liefert:

Test von 2016 auf cb zum Vram:
"Bei mehr als Full HD werden 4 GB langsam knapp"
"Noch reichen 4.096 MB aus, aber nicht mehr lange"
"Wer in der Auflösung 2.560 × 1.440 spielt, dem muss bei einer Neuanschaffung einer Grafikkarte mit 4.096 MB Speicher klar sein, dass der Speicher eher früher als später zu Einschnitten zwingt."


"Darüber hinaus zeigen sich in Ghost Recon Breakpoint Speicherprobleme; der RAM geht der Radeon RX 5600 XT mit 6 GB hier aus. Die Radeon RX 5700 mit 8 GB erreicht in diesem Titel 49 Prozent bessere Frametimes als die Radeon RX 5600 XT mit 6 GB, auf der das Spiel spürbar stockt. Passend dazu gerät auch die GeForce RTX 2060 mit 6 GB in Probleme, deren Frametimes um 22 Prozent schlechter als bei der GeForce RTX 2060 Super mit 8 GB ausfallen. Damit zeigt sich, dass 6 GB auch in Full HD nicht durchweg ausreichend sind, wenn mit vollen Texturdetails gespielt werden soll."

Der Vergleich mit einer RX480 8GB hinkt also gewaltig. Die 4GB Variante hat quasi das gleiche Schicksal und kam für 199 US-Dollar UVP und lässt eben noch 15-20% mehr Leistung zu bei nur 20 Watt mehr Stromverbrauch!
 
Apocalypse schrieb:
Die Kühllösung bei der 5700 ist im Falle der Pulse Identisch zur 5600XT. Im Falle der Powercooler 5600xt hatte man sogar noch eine Heatpipe weggelassen die jetzt in der zweiten Auflage direkt wieder zurück kommt, siehe Igor's interessanten Beitrag zum 5600xt Abenteuer. Das natürlich das Model nicht nur nach dem Chip, sondern auch nach der Kühllösung aussuchen sollte, das stimmt natürlich.

Danke :) das hab ich ja so in meinem Ausgangspost auf Seite 2 auch geschrieben, dass die Karte für Leute interessant ist die wissen, dass ihnen die 6 GB Vram ausreichen da sie nur ältere Spiele spielen.
Und dazu bekommt man out-of-the-box eine sehr leise Karte was ja auch für viele wichtig ist und an diesem Punkt kam dann der erste mit seinem UV daher....
Viele vergessen ja auch den Punkt, dass Leute die sich vielleicht einen 144 HZ Monitor gekauft haben und einfach nur ihre fps erhöhen und dafür wäre die Karte ja auch gut geeignet :)

KuestenNebel schrieb:
Dir ist bewusst, dass ein niedrigeres PT die Abwärme reduziert?

Sind hier nur noch Erbsenzähler am Werk? Vielleicht mal lesen um was es überhaupt geht, bevor man postet? Auch wenn ich die Abwärme verringere macht das aus einer schlechten nicht automatisch eine gute Kühllösung... Zumal dann auch wieder der Punkt mit reinspielt, dass man einiges mehr ausgegeben hat für die Hardware.

XTR³M³ schrieb:
weniger abwärme = kühlung muss nicht soviel ackern = leiser... logisch, oder?

Für mich ist das logisch für dich mit deiner äußerst beschränkten Lesekompetenz offensichtlich nicht. Zum einen wird eine schlechtere Kühllösung nicht automatisch so leise wie eine gute Kühllösung, wenn man die Abwärme reduziert und zum zweiten gibt man in dem konkreten Fall mehr Geld aus, um dann manuell versuchen auf ein ähnlich gutes Geräuschniveau zu kommen. Soweit verstanden? Ist ja auch logisch...

XTR³M³ schrieb:
manchmal frage ich mich, ob leute wirklich zuende denken bevor sie schreiben :freak::heul:
Das mit dem Denken scheint bei dir ja offensichtlich nicht so gut zu funktionieren:freak: Auf die Lesen und Verstehen Kompetenz wollen wir auch mal gar nicht weiter eingehen, da scheint Hopfen und Malz verloren zu sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra
DerToerke schrieb:
Ich kauf mir doch auch keinen Porsche wenn ich jeden Tag nur 5 Kilometer zur Arbeit fahre und da dann eh nur im Stau steh.
Gerade dann kauft man sich ein Porsche ;)
 
  • Gefällt mir
Reaktionen: DerToerke
MrNejo schrieb:
Haben sie ja auch nicht unbedingt nötig, oder?
Da beißt sich die Katze in den Schwanz. Es gibt ja Leute, die darüber meckern, dass AMD seine Fortschritte auch wegen 7 nm geschafft hat. Konsequenterweise sollten sie dann nicht verschweigen, dass Nvidia diesen Fortschritt nicht auf die Reihe gekriegt hat (und deshalb gegen die 5600XT verliert. Mit moderner Fertigung hätten sie das ja verhindern können).

Oder man geht die Sache pragmatisch (aus Kundensicht) an: Wichtig sind zählbare Ergebnisse. Wie genau das erreicht wurde, kann im Grunde egal sein. Hier haben die Hersteller viel Spielraum.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: WommU, Revan1710 und DarkerThanBlack
warumnicht93 schrieb:
weil jeder seine meinung stur durchsetzten will wenn wer seine persönliche meinung kund tut

Ich glaube nicht, dass das der Grund ist.

Deine Formulierung mit dem Smiley am Ende könnte man auch so verstehen, dass du Dich über Leute lustig machst, die "nur" 1080p Monitore benutzen.
Wenn man jetzt bedenkt, dass es Leute gibt, die nicht genug Geld haben um sich teure Hardware zu kaufen, dann klingt das so, als ob Du Dich über Leute mit wenig Geld oder sogar über arme Leute lustig machst.

Stell Dir vor ich würde folgendes in einem Autoforum posten und in meiner Signatur stünde [Porsche Panamera]:
"Ich bin total schockiert, dass es immer noch Leute gibt, die Kombis von Renault und Opel kaufen :-), haha."

Das könnte man als einen ironischen und doofen Scherz verstehen.
Man könnte aber auch reininterpretieren, dass ich mich über Leute lustig mache, die sich keinen Porsche leisten können.

Ich weiß nicht genau, wie Du Deinen Kommentar gemeint hast, aber würdest Du mir zustimmen, dass man ihn so verstehen kann, wie ich es beschrieben haben?
 
  • Gefällt mir
Reaktionen: Einfallslos^99, Taron, DerToerke und eine weitere Person
Zurück
Oben