Test Radeon RX 5600 XT im Test: Doch noch ein Konkurrent für die GeForce RTX 2060

bierschiss. schrieb:
Das würde ich in Zweifel stellen, aktuell ist von 10 Terraflops die Rede und welche Anpassungen (extra Cores?) es für RT geben wird, wissen wir noch nicht. Es heißt 12-16 GB VRAM (auf jeden Fall wohl viel) und neben der Rechenpower eben die Optimierung. Die Gerüchte sagen es ist auf Niveau der 2080 oder schlägt diese sogar.
12 - 16 GB Unified RAM (nur ein Teil davon steht der Grafik zur Verfügung) für die nächste Konsolengeneration siehst du als "sehr viel" an?
Das sind lächerliche 50 - 100 Prozent Steigerung nach sieben Jahren PS4/XBO (8 GB Unified RAM).

In vergangenen Konsolengenerationen hat sich das RAM vervierfacht bis verachtfacht, also 300 - 700% Steigerung.
 
bierschiss. schrieb:
Dann bist du wirklich schlecht informiert, fast jeder rät davon ab.
Wir hatten vorhin schon mal ne Unterhaltung wo ich den Eindruck hatte, du hast Probleme damit gelesenes zu verstehen. Das Gefühl habe ich nun erneut. Ich sagte Vega kann ihre Performance in Spielen schlecht umsetzen, du wiederum interpretierst das Gegenteil da rein??? 🙈
 
Cohen schrieb:
12 - 16 GB Unified RAM (nur ein Teil davon steht der Grafik zur Verfügung) für die nächste Konsolengeneration siehst du als "sehr viel" an?
Das sind lächerliche 50 - 100 Prozent Steigerung nach sieben Jahren PS4/XBO (8 GB Unified RAM).

In vergangenen Konsolengenerationen hat sich das RAM vervierfacht bis verachtfacht, also 300 - 700% Steigerung.

Ja, sehe ich als sehr viel an. Eine Verdoppelung ist tatsächlich als "viel" zu deklarieren.
Am PC hat sich auch kaum etwas getan, nur Enthusiast Karten haben überhaupt VRAM in diesem Bereich.
Würde mich an deiner Stelle daher mal bei Nvidia beschweren gehen, AMD hatte wenigstens vor ein paar Jahren schon 8 GB in bezahlbaren Karten und das ist eben auch der Punkt bei den Konsolen.
Du kannst da nicht einfach 40 rein packen, es gibt preisliche Grenzen. Zumal du eines verkennst, Konsolen sind geschlossene und hochoptimierte Systeme. Mit 16 GB wirst du auf Konsole in Games viel mehr können als am PC, ich bin mir recht sicher man wird teilweise wieder mehr benötigen, da es eben nicht 1:1 mit dem PC vergleichbar ist, Konsolen haben auch Cache (z.b. die Xbox extra auf dem Board verbaut) und eben wie du schon sagst unified RAM und nicht wie am PC getrennte Speicher.
 
MaverickM schrieb:
Es gab/gibt definitiv Berichte, dass einige ihr 5700er Karten erfolgreich auf XT Niveau geflasht haben.
das ging bei den ersten 5700er Karten fast durchweg, ich denke da wird AMD (nachvollziehbarer Weise) irgendwann einen Riegel vorgeschoben haben. Ob Lasercut oder anderen HW Eingriff ist mir nicht genau bekannt.
 
kurt schluss schrieb:
Also aus dir werd ich so leicht auch nicht schlau?
Alles richtig, wie du den Vergleich zur 5700 darstellst, aber dann wieder im ersten und letzten Satz der Widerspruch?

Nein, wenngleich vielleicht durchaus etwas missverständlich meinerseits.

Die RX5600 XT ist eine gute Karte mit gutem P/L-Verhältnis, wenn man sie in direkte Konkurrenz mit nVidia setzt. Betrachtet am Gesamtmarkt hat sie halt das Problem, dass die normale RX5700 nur kaum teurer, dafür aber auch einiges interessanter ist. Sinnvollerweise würde dann jeder bei aktuellen Preisen zur RX5700er Karte raten. Fällt der Preis der RX5600 XT aber noch etwas, bleibt sie dann aber eine gute Empfehlung für geringeres Budget.
 
  • Gefällt mir
Reaktionen: psychotoxic, Casillas, DerToerke und eine weitere Person
"Das ist das Ding" (frei nach O.Kahn)
Sie ist besser geworden als ich dachte , aber sie ist zu spät , zu teuer und
hat zuwenig Vram .
Mal sehen , was Amd das Jahr noch raushaut mit RDNA2 und Big Navi ,
die Rechnung 2x 5600xt + RDNA2 wären Big Navi und + xx% vor einer 2080ti
find ich gut.
 
Zuletzt bearbeitet:
Chillaholic schrieb:
Ich sagte Vega kann ihre Performance in Spielen schlecht umsetzen, du wiederum interpretierst das Gegenteil da rein??? 🙈

Nochmal zum mitschreiben:
Die Vega ist eine sehr gute Computing-Karte, war deswegen seinerzeit laufend ausverkauft und überteuert.
In Games ist die Performance sehr schwankend und ich persönlich hätte keine gekauft, wurde auch häufig davon abgeraten. Allerdings war die Karte auch vor einiger Zeit preislich recht attraktiv, daher auch kein wirklicher Fehlkauf. Muss am Ende jeder selbst wissen. Aber wenn man eine Karte als Fail deklariert ist das nur populistisch, lieber das gesamte Bild...
 
  • Gefällt mir
Reaktionen: pilzsammler2002
MaverickM schrieb:
gute Empfehlung für geringeres Budget.
Da müsste die Karte m.M.n. aber wirklich noch sehr stark im Preis fallen um jemandem 6GB VRAM in 2020 noch für mehrere hundert € zu empfehlen. Aber meine Meinung muss ja nicht Allgemeingültigkeit haben.
 
Cohen schrieb:
12 - 16 GB Unified RAM (nur ein Teil davon steht der Grafik zur Verfügung) für die nächste Konsolengeneration siehst du als "sehr viel" an?
Die XBOX X Series hat 386 Bit Si. Also mind 12 oder 24 GB GDR6.
Weiters ist aufgefallen dass es unterschiedliche Ram Größen war. So geht mal teils auch von möglichen 20 GB aus.
12 werden es vermutlich nicht sein, weil die XBOX One X schon 12 hat und Xbox dieses mal sicherlich nicht beim RAM sparen wird.
20 bis 24 GB also.
 
bierschiss. schrieb:
Die Vega ist eine sehr gute Computing-Karte, war deswegen seinerzeit laufend ausverkauft und überteuert.
Wohl eher aufgrund des Mining-Hypes.
Denn sonst hätte man die nach dem Hype nicht für 250€ verschleudert.
Ich habe die ganze Zeit übrigens nur von Gaming geredet, sonst von nix anderem.
Sonst hätt ich auch nicht davon geredet, dass die ihre Leistung nicht umsetzen kann.
 
@pipip
Plus vermutlich ein sehr schnell verbauter Cache oder andere Anpassungen, darf man alles nicht vergessen. Das hat selbst bei der 360 damals schon viel ausgemacht.


Chillaholic schrieb:
Wohl eher aufgrund des Mining-Hypes.

Was sonst? Die hohen Preise waren gerechtfertigt, die Rechenleistung der Karte ist sehr hoch und Nvidia beschneidet die Gaming Karten zu sehr, die Computing sind astronomisch teuer. Bei AMD gabs halt beides mit bei der Serie Nachteilen im Gaming. Ist nicht anders als bei der Radeon 7.
 
HaZweiOh schrieb:
Dem Kunden ist ziemlich egal, WIE eine Leistung erbracht wurde

Wir sind hier nicht einfach nur irgendwelche Kunden, sondern ein Computerforum voller Nerds, interessierter Laien und Profis. Kunden wie wir ignorieren solche Fakten nicht einfach.
 
@bierschiss.
Bezüglich RT könnte das sogar möglich sein. Vllt sogar auf CUs Ebene, weil ich auf async Compute bezüglich RT spekuliere. CPU sogar weniger, auch wenn es sich anbieten würde.

Details zu Renoir wäre mal interessant, wieviel L3 Cache der eig hat.
 
Jetzt haben wir so viele Karten die sich alle bezüglich Preis und Leistung kaum unterscheiden..
gtx 1080, rx 5600 xt, rtx 2060, Vega 64, vega 56, gtx 1070, gtx 1660Ti und 1660super
oder anders gesagt zwischen der 1660 und der rx 5700 liegen “~ 20% Mehrleistung“ verteilt auf alle oben genannten Karten....
Da musste man natürlich noch eine Karte raushauen mit zukunftsicheren 6GB VRam.
 
  • Gefällt mir
Reaktionen: fox40phil, Suschusu und kurt schluss
Chillaholic schrieb:
Denn sonst hätte man die nach dem Hype nicht für 250€ verschleudert.
doch, doch.
Die 5700er Karten lagen da ja schon in den Überseecontainern. Und die Lager der Händler hätten denen als Museum sicher wenig Freude bereitet.
 
bierschiss. schrieb:
Besonders geil das man sich als Fanboy jeden Quatsch so daher redet das es irgendwie passt. :lol:
Habe nur auf den Schwachsinn des Vorposters reagiert, das weisst du aber auch und reisst es jetzt absichtlich aus dem Kontext in dem du nur Fragmente zitierst.

Die Frage ist nur : Warum?
 
@Wolfgang
Da stimmt doch was nicht..
Selber Kühler, selbes PCB
Beim Dual-X-Kühler gibt es keinen Unterschied zwischen beiden Modellen.
Die Radeon RX 5600 XT Pulse basiert bei PCB und Kühler auf der Radeon RX 5700 Pulse
fast selber Verbrauch
5600XT
1579623275014.png

5700
1579623296105.png


Fast die selbe Temperatur
5600XT
1579623419263.png

5700
1579623383123.png

Aber:
Derselbe Kühler wird auf der Radeon RX 5700 Pulse mit 1.510 Umdrehungen und 38 Dezibel deutlich lauter.
Wo genau kommen jetzt die 400 rpm und 6,5 Dezibel zusätzlich her?
Die Rechnung geht einfach nicht auf.
Selbst wenn man es mit einem anderen Lüfterverhalten des Bios erklären wollte, müsste die 5700 viel kühler sein. Dass hier 3 Grad und 10W (bestenfalls) Unterschied eine 33% höhere Lüfterdrehzahl ausmachen sollen ist mir unverständlich.
(Spontan würde ich sagen entweder eine der Aussagen zu Kühler/PCB stimmt nicht oder irgendwo hat sich ein anderer systematischer Fehler eingeschlichen. )

Ausserdem: Was ist denn jetzt bitte ein AIB?
Ich lese computerbase fast jeden Tag und jeden Grafikkarten Artikel aber AIB lese zu zum ersten mal. Das könnte man doch wenigstens einmal ausschreiben? (auf Seite 4 kommt der Begriff zum ersten mal vor)
 

Anhänge

  • 1579623256052.png
    1579623256052.png
    6,5 KB · Aufrufe: 315
Zuletzt bearbeitet:
Ich bin baff...AMD lässt sich offen damit erwischen (oder geben es sogar mehr oder weniger zu), was nVidia über Jahre erfolgreich verleugnet/totschweigt. Reine Segmentierung zu zwecken der Gewinnoptimierung. Da spielen sie einfach mir nichts, dir nichts ein VBIOS auf die Karten auf, welches die Performance um etwa 10%+ im Mittel erhöht und zeigt somit, dass sie eigentlich vorhatten die Kunden zu schröpfen mit künstlich beschnittener Performance. Und einige feiern es als sei das ein ausgklügelter Plan um den Kunden mehr Performance zu geben während man nVidia austrickst. Es ist umgekehrt...die Preisreduzierung hat AMD gezwungen das BIOS auszupacken. Ich hoffe das war eine einmalige Sache...sonst kann man gar nichts mehr guten Gewissens kaufen.
 
  • Gefällt mir
Reaktionen: KlaraElfer, .Sentinel., simosh und eine weitere Person
L1TerminalFault schrieb:
Ich finde es besonders Geil, dass Nvidia sogar bei den Redaktionen angerufen haben soll, um sich nach den Takt zu erkundigen!
Da brauch ich aber eine Quelle für, auch wenn ich jetzt schon lache.
 
Zurück
Oben