Notiz Einstiegs-Navi: AMD bringt Radeon RX 5300 in den Desktop

Shoryuken94 schrieb:
Das problem ist der Speicher, denn wenn dieser voll läuft und in den hauptspeicher auslagert, ist der PCIE Slot das langsamste Glied in der Reihe.

Um ehrlich zu sein dachte ich immer, dass die Performance sowieso einbricht, wenn die notwendigen Daten nicht in den Grafikspeicher passen und ausgelagert werden müssen. Dass die PCIe-Anbindung bei normalen Gaming-Workload limitiert war früher fast undenkbar.

Shoryuken94 schrieb:

Dieser Test ist da schon ziemlich erstaunlich. Dann ist es in der Tat höchst fragwürdig, nur einen x8-Controller auf dem Chip zu haben.
 
  • Gefällt mir
Reaktionen: KlaraElfer, Shoryuken94, Salamitaktik und eine weitere Person
teufelernie schrieb:
Meh, also ich muss ja mal die Gangart beim Marketeing oder der Redaktion hier rügen, das man nicht sieht, auf welche Auflösung sich die Performancegraphen beziehen.
Vermutlich 1080p?

Nein, natürlich in 800x600.
 
@Web-Schecki Diese Limitierung existiert nur, wenn der VRAM überläuft. In diesem Fall gibt es immer Probleme mit den Frametimes und das Spiel ruckelt. Bei bisherigen Karten mit PCIe 3.0x16 war das unangenehm und sollte stets vermieden werden.

Jetzt hat sich herausgestellt, dass das Problem mit PCIe 3.0x8 schlimmer wird. Das bedeutet aber bei weitem nicht, das eine Anbindung mit 16 Lanes das Problem löst. Das ist nach wie vor der überlaufende Speicher.
 
  • Gefällt mir
Reaktionen: Smartbomb, HaZweiOh und Ozmog
Web-Schecki schrieb:
Dann ist es in der Tat höchst fragwürdig, nur einen x8-Controller auf dem Chip zu haben.
Kommt aber auch immer auf den Chip an.
Die 5500 kommt mit ihrer x 8 Anbindung in einem Gen4 Slot eigentlich wunderbar klar.
Es ist aber eigentlich klar ersichtlich, das vor allem die neue Grafik Generation der >Oberklasse, ohne PCIe4 ein Problem bekommen würde.
AMD war mit der Spar-Anbindung aber locker ein Jahr zu Früh. Solange Intel noch auf Gen3 hängt, war das in meinen Augen ein großer Fehler. Als wenn sich jmd. nur wg der 5500 ein X570er Brett gekauft hätte. :rolleyes:
 
AMD hat eben diese Karte rausgebracht. So wie sie ist.
Ich verstehe echt nicht, was Leute darüber meckern, die sowas wieso nie kaufen würden.

Fakt ist doch, das AMD im Grafikbereich ganze Segmente garnicht bedient und insgesamt Umsätze verloren hat. Gab doch erst vor Tagen wieder solche Zahlen. AMD macht eben im 130-350 Euro Segment so halbwegs mit. In anderen Bereichen garnicht, mit aktuellen Produkten. Mit RDNA 2 ändert sich vieleicht einiges, was man aber bisher auch noch nicht weiss.

Nur so richtig hat diese Karte nichts, was sie "auszeichnet". Auch den Bereich wird Nvidia weiterhin für sich beackern. Hätte ich jetzt die Wahl, würde ich lieber eine alte GTX 1050 TI oder GTX 1650 kaufen. AMD hat in diesem Bereich garnichts !
 
  • Gefällt mir
Reaktionen: matty2580
deo schrieb:
Da die Karten nur bei OEM auftauchen, muss sich keiner aufregen, der seine Grafikkarte einzeln kauft und die Auswahl hat. Die OEM stellen Ansprüche, die genau eingehalten werden müssen, um den Auftrag zu erhalten. Soll AMD da hingehen und sagen, sie verkaufen ihnen keine Karte unter 4GB RAM und die OEM sollen bei Nvidia einkaufen?
Wenn man sein Image beim Endkunden nicht komplett ruinieren möchte, muss auch ab und zu nein sagen.
 
Burki73 schrieb:
AMD hat in diesem Bereich garnichts !
Noch gibt es ein paar wenige Modelle der RX570, die auch bis 150 Euro empfohlen wird.
Siehe Tabelle der besten Grafikbeschleuniger für die jeweilige Preisklasse:
https://www.computerbase.de/artikel...chnitt_weitere_empfehlungen_fuer_den_gamingpc

Salamitaktik schrieb:
Wenn man sein Image beim Endkunden nicht komplett ruinieren möchte
Man muss dazu aber auch zuerst eins haben. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb und HaZweiOh
deo schrieb:
Da hat es auch mal die GTX660 und 670 gegeben mit 1.5 anstelle 3GB RAM.
Die GTX 670 hatte "volle" Anbindung, die GTX 660 Ti hatte "nur" die ersten 1,5 GB von total 2 GB "schnell" (glaube das waren 192 Bit) angebunden und die letzten 0,5 GB "langsam" (glaube nur 1 64 Bit Controller).
Weiß ich, weil ich die hatte und noch bei mir rumliegen habe. Asus directCU II, die gscheite Version. Das war die die mit Abstand leiseste gtx660ti damals (trotzdem kühl), deshalb hab ich die mir gegönnt. Für gut 260€ damals oder sowas.
Ich wusste um die "VRAM Problematik" damals schon, aber es war mir auf Grund der Tests und dem Gesamtpaket egal. Und ich hatte auch nie ein Problem.
Erst bei der GTX970 würde das mit dem VRAM bekannt bzw zerrissen. Der Untetschied war nur, dass es Nievidia verschwiegen hat und es dann auch noch dreist als feature verkauft hat, statt den 3,5GB ja total 4GB VRAM zu haben.
UND die übrigen 0,5GB waren sogar nur mit 32Bit angebunden, also mit der Hälfte im Vergleich zur GTX660Ti.
ICH persönlich finde, Nievidia hat nicht bei den 4GB VRAM gelogen, mit denen die Karte beworben wurde (die 2GB der 660ti stimmten ja auch), sondern mit der Speicheranbindung!
Weil es waren nicht 4GB @ 256Bit, sondern 3,5GB @ 224Bit. Und den kleinen Rest mit 0,5GB @ 32Bit vergessen wir mal besser.
Und der große Skandal war dann halt, dass Nievidia die Daten falsch kommuniziert hat und als das dann aufgefallen ist, sich mit der "feature" Behauptung rausreden wollte. Was ihnen niemand abgekauft hat verständlicher weise.
Nochmal: Bei der GTX660Ti mit 2GB @192Bit hat sich auch niemand aufgeregt, obwohl es in Wahrheit nur 1,5GB @ 192 Bit (3x 512MB, 3x 64Bit) waren. Und halt hinten dran noch 0,5GB @ 64 Bit (1x 512MB, 1x 64Bit).
Die GTX 670 hatte halt die vollen 2 GB @ 256 Bit (also 4x 512MB, 4x 64 Bit).
Ansonsten war die 660ti ja quasi gleich der 670, nur mit beschnittenem Speicherinterface. Was sich je nach Spiel und Einstellungen oft gar nicht soo schlimm ausgewirkt hat damals. Dafür kostete die 670 auch 400€ oder knapp drüber für die guten Customs, wärend die 660ti eben teils deutlich günstiger war.
.
Ich habe damals auch auf Grund des Gesamtpaketes gebraucht eine GTX970 3,5GB (lol) gekauft, die selbst jetzt noch drinnen ist.
Unhörbar leise, aktuelle video codec, decoder/encoder etc (damals halt) und für mich mit 1920x1200 60Hz genug.
Sicher, der Graka Treiber hatte alles versucht bei Leuten deren Spiele mit deren Einstellungen mehr als 3,5GB belegen wollten, keinesfalls mehr als 3,5GB zu belegen. Mit Gewalt schafften die Leute dann doch, dass mehr belegt wurde und die min fps gingen total in den Keller. Somit ging der (berechtigte) shitstorm gegen das Nievidia "feature" 512MB @ 32Bit extra, los.
.
@ andere Kommentare:
Leute, was ist los mit euch?
Das ist eine günstige Karte für Fertigkisten!
Um den Preis unter eine gewisse Zahl für die OEMs zu drücken, musste das Ding irgendwo beschnitten werden. Und da es keinen "kleineren" und damit günstigeren Navi Chip gibt, hamse halt das beim Speicher bzw dessen Interface gemacht. Oder es gibt genügend Chips, die einen kleinen Defekt am Speicherkontroller haben und daher so genutzt werden können.
.
Besser sowas als eine ultra low end Krücke oder? Oder teurer für Nievidia Abzocke. Oder gar nix. Oder Intel iGPU. Oder oder oder.
Weil mit dem Ding kann der "Zivilist" da draußen schon etwas zocken. Deutlich besser als mit allen Alternativen.
Und die die erwas besseres wollen, kaufen eh keine 400€ FertigPCs sondern weit teurere, oder kaufen stärkere Karten. Und diese gibts ja gar nicht im Einzelhandel (gut, vl in China werden ein Paar auftauchen und bei Betrügern auf ebay, aber sonst?).
Also abregen. Und die in unseren Augen sinnlose Beschneidung ist auch egal, wenn der OEM seinen 399€ 499€ Preispunkt bei einer gewissen Marge erreichen will/muss.
LG
 
  • Gefällt mir
Reaktionen: medsommer, HaZweiOh, deo und eine weitere Person
HaZweiOh schrieb:
Äh, meinst du solche Texte eigentlich Ernst?

Das tut in der Diskussion um die Sinnhaftigkeit dieses Produkts eher untergeordnet zur Sache. Irreführende Werbung macht diese Verschwendung von Ressourcen nur noch schlimmer.


Hayda Ministral schrieb:
Das würde im Umkehrschluß bedeuten dass selbst eine HighEnd-Grafikkarte der aktuellen Generation kaum in der Lage ist aus PCIe3 mehr Leistung zu ziehen als aus PCIe2, so wie seinerzeit die GTX970. Das klingt für mich aber nicht sehr plausibel.

Wie gesagt, im normalen Betrieb schieben die Karten nicht viele Daten über den Slot. Aber ja, es gibt auch entsprchende Tests mit anderen Karten. Wie hier mit der 2080Ti, die zumindest ganz minimal von mehr bandbreite profitiert, als PCIe 2.0 x16 liefern kann

https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/


Hayda Ministral schrieb:
Daher meine Frage nach aktuellen Messungen. Die 5500XT gibt da möglicherweise die Richtung vor, aber ich würde trotzdem erwarten dass der Unterschied in der "Einstiegsklasse" geringer ausfällt.

Jetzt hast du ja einen Link zum Vergleichen mit einer aktuellen High End Karte. Ob High End oder Low End. PCI Express limitiert nur, wenn darüber massig Daten geschoben werden müssen, was beim normalen Zocken meist nicht der Fall ist. Wenn aber Daten mit dem Ram ausgetauscht werden müssen, dann limitiert hier schnell das Interface.
 
  • Gefällt mir
Reaktionen: KlaraElfer und Salamitaktik
Salamitaktik schrieb:
Wenn man sein Image beim Endkunden nicht komplett ruinieren möchte, muss auch ab und zu nein sagen.
Wie lächerlich über diese GPU zu solchen Schlussfolgerungen zu kommen.

Diese Dinger wandern vermutlich eh in irgendwelche Haushalte völlig ahnungsloser Leute, die sich darüber freuen den Bus Simulator zu spielen oder in irgendwelche Internet Cafés vorrangig im asiatischen Raum, wo auch keiner nachguckt welche Hardware drin ist. Denkt mal etwas globaler und außerhalb von euren "Gamer Foren" Universum.

Und jede verkaufte AMD GPU ist eine nicht gekaufte Nvidia GPU. So simpel ist dss
 
  • Gefällt mir
Reaktionen: Hayda Ministral, medsommer, Smartbomb und 2 andere
Colindo schrieb:
Im verlinkten PCGH-Test sind ja leider nur vier Spiele vertreten, aber zumindest bei Far Cry: New Dawn ist es sehr deutlich: Die 4GB-Version kommt mit PCIe4 deutlich weniger "unter die Räder" als mit PCIe 3. Das hat mich wie gesagt auch überrascht. Ich hätte eher gedacht, dass bei vollem VRAM die Performance durchweg massiv einbricht, unabhängig von der PCIe-Bandbreite. Scheinbar ist das pauschal aber nicht immer der Fall.

Summerbreeze schrieb:

Würde jetzt nicht ausschließen, dass die RX 5500 XT auch von PCIe4 x16 profitiert, wenn der VRAM voll ist. Letztendlich bringt mehr VRAM wohl aber immer mehr als eine schnellere PCIe-Anbindung und joa, wenn jemand die 4GB-Variante genommen hat, um sich ein X570-Board leisten zu können, dann ist das wohl nicht sehr klug gewesen.
Bei der RX 5300 ist die Situation vielleicht aber etwas anders, da sie noch günstiger ist. In Fertig-PCs wird oft am Mainboard gespart, da wird es bestimmt ein paar Geräte geben, die deshalb nur PCIe3 haben (oder sowieso eine Intel-CPU haben).
Bei selbstkonfigurierten Rechnern ist Zen2 gepaart mit dieser Karte kaum sinnvoll. Entweder ne stärkere Grafikkarte nehmen (und Zen+) oder halt eine Zen2-APU.
Wer noch einen älteren Rechner hat und aufgrund eines Defekts eine neue Grafikkarte braucht, der hat von einer x16-Karte (vielleicht mit 4GB-RAM) unterm Strich wahrscheinlich auch mehr.
Gut, vielleicht sollte man eh nicht zu lange über die Daseinsberechtigung dieser Karte nachdenken...
 
  • Gefällt mir
Reaktionen: Smartbomb
@Web-Schecki Schau dir diesen Graph an. Du willst nie in die Situation kommen, die dort durch die 4GB dargestellt wird. VRAM voll ist VRAM voll. Welche PCIe-Anbindung man hat ist da wirklich nicht ausschlaggebend.

Der größte Kritikpunkt an der 5300 sind die 3GB RAM, nicht die PCI2e-Anbindung. Wobei 96 Bit auch nicht viel sind.
 
Colindo schrieb:
Der größte Kritikpunkt an der 5300 sind die 3GB RAM,
Genau wie beim Auto.
Hubraum ist nur zu ersetzen durch mehr Hubraum. :D

Deshalb bin ich auch mal gespannt auf die neuen 3080 / 3090er mit kastriertem / beschränktem VRAM.
Gute, lange Zukunft sieht vermutlich anders aus.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Shoryuken94 schrieb:
Das tut in der Diskussion um die Sinnhaftigkeit dieses Produkts eher untergeordnet zur Sache.

Irreführende Werbung
Jetzt mal unabhängig von meiner Meinung zu dieser Grafikkarte ... ist das schon ein Muster bei dir, was man hier oft sieht. Du empörst dich sehr gerne, fast schon Hobby-mäßig. Und schießt dabei genauso oft über's Ziel hinaus.

Jetzt regst du dich allen Ernstes über Werbung auf. Das ist schon deshalb komisch, weil man nach 75 Jahren Marktwirtschaft eigentlich weiß, wie man damit umgeht. Aber der Punkt ist, dass die Werbung gar nicht gelogen hat. Wenn man dich darauf ansprichst, dass du Mist erzählst, wischst du das schnell beseite ("Nanaaa, ist doch toootaaaaaaaal untergeordnet"). Und dann erzählst du einfach den gleichen Mist von vorne (nämlich die angeblich "irreführende Werbung").

Du kannst uns ja gerne beweisen, dass die Balkendiagramme (wo die Karte gegen Nvidia gewinnt, wundert das jemanden?) gefälscht wären. Oder, dass die Karte sich überhaupt nicht für 1080p eignen würde. Aber Vorsicht, zwischen Behauptung und Beweis besteht schon ein Unterschied. Deine Angewohnheit, einfach schnell "untergeordnet" zu rufen und wieder von vorne anzufangen, bringt die Diskussion jedenfalls nicht gerade weiter.

PS: Falls du Mercedes-Werbung siehst, wo ein Auto auf einer einsamen Landstraße fährt, und du selbst musst durch den Berliner Berufsverkehr, verklag doch mal Mercedes!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
Web-Schecki schrieb:
Die 4GB-Version kommt mit PCIe4 deutlich weniger "unter die Räder" als mit PCIe 3.
Wenn der VRAM voll läuft, dann muss ausgelagert werden, da dann die Daten dann über den PCIe rüber müssen, bringt die doppelte Bandbreite hier mehr.
VRAM-Überlauf heißt eigentlich immer ein Performanceverlust, je mehr ausgelagert werden muss, so schlimmer wird es. Die beschnittene Anbindung am PCIe macht sich nur deutlicher, weil eben die Anbindung zu den Ausgelagerten Daten geringer ist, wenn sie nur mit 8xPCIe3 läuft.

Hat die Karte einen kleinen Speicher? Ja
Hat die Karte ein beschnittenes PCIe-Interface? Ja, wenn es um Lanes geht.
Aber seien wir mal ehrlich, das ist eine Einsteiger-Karte für's untere Preissegment. Mit 3GB dedizierten GDDR-VRAM hat sie immer noch mehr zu bieten, als die APUs es bisher könnten. Die Karte liegt also über den APUs aber nicht sehr weit. Da geht es eher um wenig anspruchsvolle Titel oder niedrigen Grafikeinstellungen.

Also immer mal über den Tellerrand schauen, was andere brauchen/wollen. Wem der Speicher zu klein ist, benötigt eben eine größere und teurere Karte, eigentlich ganz einfach. Ist jetzt keine neue Sache.
 
  • Gefällt mir
Reaktionen: Hayda Ministral, Smartbomb und HaZweiOh
Verständlich ist die Karte im Moment nicht, aber ganz umsonst macht man sowas ja auch nicht.

Vermutlich kriegen die OEMs einen sehr guten Preis. Polaris hat sich auch im Q2 2020 noch bestens verkauft: 570 und 580 beide jeweils deutlich öfter als alle preis-ähnlichen Nvidias zusammen! Aber wenn Polaris ausläuft, muss ein Ersatz her. Womöglich bereitet man das mit dieser Karte vor.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
Colindo schrieb:
VRAM voll ist VRAM voll. Welche PCIe-Anbindung man hat ist da wirklich nicht ausschlaggebend.

Da würde ich doch noch mal etwas genauer drüber nachdenken, denn genau das Gegenteil ist im Vram Limit der Fall.
 
  • Gefällt mir
Reaktionen: Salamitaktik
KlaraElfer schrieb:
Die V-ram Kritiker aus dem pro AMD Lager halten sich derzeit in den Nvidia Threads auf.^^
Aber finde die Karte auch nicht besonders gut, bei 4GB hätte man es belassen sollen, auch wenn man die meisten Spiele noch problemlos mit 3GB auf niedrig bis mittel spielen kann, zumindest konnte ich das noch vor einem Jahr mit ner 1060 3GB.
wie @Naesh sagte: Fürn bissl MacBook reicht sie, fürn bissl Gaming auch. Der Zielgruppe wird diese GPU auch reichen, aber ja, 3GB ist einfach ein bissl Maul..
 
  • Gefällt mir
Reaktionen: KlaraElfer
Zurück
Oben