Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NotizEinstiegs-Navi: AMD bringt Radeon RX 5300 in den Desktop
ich denke dafür wäre einfach dedizierter ram nötig. ein 4gig hbm2 die auf dem package wäre ne gute sache.
6kerne 12threads und eine gpu auf 1050ti niveau. dann nurnoch einen aio kühler drauf und schon hat man einen leisen leichten kleinen mitx würfel den man auch mal mitnehmen kann ohne sich nen bruch zu heben.
Richtig. Der Chip wurde schon mit Flaschenhals designt. Da kann man nichts herbeizaubern, man hätte hier nur nicht am falschen Ende sparen sollen.
Web-Schecki schrieb:
Wo steht das mit dem PCIe x8 Interface? Und ist sicher festgestellt, dass das ein Problem wäre? PCIe 2.0 (x16) sollte doch für so ne Karte schnell genug sein, oder?
Der verwendete Chip hat nur ein ein 8-faches Interface. Ist auch bei der 5500 so, die den gleichen Chip nutzt. Das sich das negativ auswirken kann, zeigt sich schon bei der 5500XT mit 4GB vs die 5500XT mit 8GB. Die Leistung des Grafikchips ist dabei relativ egal. Das problem ist der Speicher, denn wenn dieser voll läuft und in den hauptspeicher auslagert, ist der PCIE Slot das langsamste Glied in der Reihe. In einem PCIE 3 System ist der Slot hier auf ca. 8GB/s limitiert. Bei nur 3GB Speicher wird der Speicher noch mehr zum Problem, als bei der 5500XT mit 4GB.
Tatsächlich hätte ich so eine Karte vor 3 Monaten brauchen können, als ich meine HD 4670 ersetzt habe, RX 5500XT war oberhalb vom Budget, also wurde es eine Pulse RX550. Wäre die RX5300 für unter 120€ dagewesen hätte ich einen Monat gewartet und direkt die genommen.
Was soll ich sagen der Performance Boost ist gut und sie läuft wunderbar unter Win 10, auf einer AM2+ (PCIe 2.0) Plattform. Daher gibt es einen Markt für die Karte und ich finde es schade das sie nur im OEM Bereich landet.
Shoryuken94
Was völlig Banane ist. Wir reden hier von einer RX 5300. Die Karte ist als absolute Einsteiger Karte zu sehen.
1650 ist laut AMD als Konkurrenz erkoren.
Die Preise starten hier bei 130 Euro. Die 1030, die eben kein Nachfolger mehr hatte, beginnt bei 65 Euro.
Die 1650 Super und RX 5500XT beginnen bei ca 150 Euro.
Die Karte muss also günstiger als die 5500XT sein und damit AMD das erreicht, nimmt man der 1 GB weg. Der Chip selbst ist ja völlig unbeschnitten.
Aus meiner Sicht ersetzt die RX 5300 die 550 und 560 Karten, die kaum noch verfügbar sind. Man kann also nur hoffen dass die Karte sich irgendwo bei 100 Euro einpendelt und günstiger wird.
HaZweiOh
Mich wundert es nicht, wenn bei AMD und NV auch Einsteiger teurer werden. Das dürfte kein Privileg der Mittel oder High-End Klasse sein.
Kann ich nicht sehen. Zu Zeiten der GTX970 war zwischen PCIe2x16 und PCIe3x16 nur ein hauchdünner Leistungsunterschied zu erahnen. Das war für mich interessant weil ich mit SandyBridge noch kein PCIe3 hatte.
Und nun soll PCIe3x8 auf einmal eine GPU der unteren Leistungsklasse ausbremsen? Da würde ich gerne mal sehen wer das, beispielsweise bei einer 1060, vermessen hat.
Es wurde eine unbeschnittene Navi 14 GPU verbaut. Mit 4 GB (wofür aber ein 128 bit SI nötig wäre) oder gar 6 GB (mit 96 bit machbar) würde die Karte dann die vorhandenen 5500er Karten kannibalisieren, die Segementierung der Produktlinien würde also nicht funktionieren. Das ist dann mEn auch der Grund, warum man keine 5300XT sieht. Schade ist aus AMD-Sicht nur, dass die Produktionskapazitäten offenbar so begrenzt sind, so dass die Karte für den Desktop erst jetzt erscheint.
Und nun soll PCIe3x8 auf einmal eine GPU der unteren Leistungsklasse ausbremsen? Da würde ich gerne mal sehen wer das, beispielsweise bei einer 1060, vermessen hat.
Wie gesagt, das Problem ist hier nicht die Leistungsklasse des Chips, sondern das x8 Interface. Das irgendwelche uralt Tests vielleicht nicht ewig Gültigkeit haben, ist ja auch nichts unbekanntes. Die PCGH hat es z.B. mal mit der 5500XT und ein paar modernen Spielen getestet. Mit teils extremen Performanceunterschieden.
Und dafür ist sie ziemlich blöd ausgelegt. Denn wenn man eine Einsteigskarte ohne großen Fokus auf Games bauen möchte, hätte man die Karte auch deutlich niedriger Takten können und hätte so problemlos ein 75 Watt Modell bauen können.
So ist es nichts halbes und nichts ganzes und nutzlose Produkte bleiben halt nutzlos. Ob Sie nun als low End verkauft werden oder nicht. Ja Ja die Karte ist nicht nutzlos... Sie ist mit der Auslegung aber für den beworbenen Zweck ziemlich ungeeignet. Als reine GPU für moderne Codecs und als Displayadapter für Systeme ohne iGPU völlig überdimensioniert
Die GPU ist wohl zu teuer um die in den Einsteigerbereich auf 75 Watt zu drosseln.
Und die APUS haben da keinerlei Chance, die liegen bei einer GT 1030, die neuen APUs haben jedenfalls kaum Leistung draufgelegt. (10%).
Die 5500XT 4GB mit x8-Anbindung läuft laut Testbericht auf PCIE 3.0 Boards im Worstcase bis zu 3,5 mal so langsam wie die 8GB Variante, mit extremen Mikrorucklern (eher Stotterern).
Seid also gewarnt, wenn diese Karte auch diese Verstümmelung bekommen hat, ich habe den ganzen Text nicht gelesen.
Ich vermute es aber, wenn die Karte davon abstammt.
Ergänzung ()
Hayda Ministral schrieb:
Keine AMD GPU hat einen separaten Stromstecker. Freut mich, Dir geholfen zu haben.
Ergänzung ()
Kann ich nicht sehen. Zu Zeiten der GTX970 war zwischen PCIe2x16 und PCIe3x16 nur ein hauchdünner Leistungsunterschied zu erahnen. Das war für mich interessant weil ich mit SandyBridge noch kein PCIe3 hatte.
Und nun soll PCIe3x8 auf einmal eine GPU der unteren Leistungsklasse ausbremsen? Da würde ich gerne mal sehen wer das, beispielsweise bei einer 1060, vermessen hat.
Wieso redest du von Vergleichen von x16 Abindung?
Die Karte hat nur x8!
Finde dich damit ab, dass die 5500XT 4GB bereits bis zu 3,5 mal so langsam arbeitet als ihre 8GB Schwester, die die Texturen im RAM halten kann.
Die 5300 ist quasi eine reine Office-Karte für die Leute, die einen dicken Ryzen haben und damit nicht spielen wollen.
Für Browser und alten Daddeldingern kann man das Teil natürlich benutzen, also auch noch Witcher 3 mit seiner vorbildlichen Minimalbelegung.
In einem PCI-E 4.0 Steckplatz sind die angesprochenen x8 kein Problem, weild as dann ja einem 3.0 x16 Slot entspricht.
Aber wer sich so eine KArte zum "Zocken" holt, wird sicherlich kein B550 oder gar X570 Board für 150+ Euro kaufen oder besitzen.
Wann gibts denn mal ne 5100 in passiv mit 2-3x DP?
Für den Anwendungsfall, dass man die Leistung eines 8-16 Kern AMD 3000er braucht oder bald 4000er aber keine GPU Power.
Man kann ja nicht immer darauf warten bis die APUs kommen (die jetzt endlich mal bis 8 Kerne haben).
Wann gibts denn mal ne 5100 in passiv mit 2-3x DP?
Für den Anwendungsfall, dass man die Leistung eines 8-16 Kern AMD 3000er braucht oder bald 4000er aber keine GPU Power.
Man kann ja nicht immer darauf warten bis die APUs kommen (die jetzt endlich mal bis 8 Kerne haben).
Vermutlich gar nicht, einen kleineren Chip als Navi 14 gibt es derzeit nicht und ein weiteres Beschneiden des Chips scheint derzeit für AMD unwirtschaftlich zu sein.
ich blick da bei amds tabellen nicht ganz durch, eine rx5300 ist in vermutlichen 1920x1080 auflösung ~32% schneller als eine gtx 1650 (oc!) bei kleinen 3gb speicher und 96bit speicherinterface. hier im cb test ist eine
rx 5500 mit 4gb speicher und nicht kastrierten interface einer (vermutlich standart ohne oc) 1650 nur 3% überlegen. https://www.computerbase.de/artikel...iagramm-call-of-duty-modern-warfare-1920-1080
eine 5500 mit 8gb speicher zieht während dessen kreise um beide Karten---> ergo eine 1650 mit 4gb müsste eine 5300 mit 3gb vram um längen schlagen, da der takt unterschied von der 5300 zur 5500 vernachlässigbar ist (keine 50mhz) und anzahl shader identisch ist!
eine 1650 super dürfte eine 5300 in jeden belangen in die schranken weisen!
Die Steam survey ist kompletter Blödsinn als Datengrundlage.
Aber grundsätzlich hast du Recht dass diese Karten früher gut verkauft wurden. Offensichtlich haben sie Hersteller aber wenig Interesse daran dieses Segment weiter zu halten und das sicherlich nicht weil sie damit viel geld verdient haben. Andere Felder sind lukrativer.
Würde es nach mir gehen hätte jede GPU Generation von Nvidia und AMD eine Karte die unter 75W liegt und als Single Slot kommt. Auch wäre diese Karte sehr kurz damit sie in jedes Gehäuse passt.
Aber scheinbar lässt sich mit solchen Karten kein Geld verdienen
Ergänzung ()
@Kytor liegt daran dass CB viele anstrengende Titel im Parkur hat und hier der VRAM der Karten Probleme macht. Wer nur eSport Titel spielt hat hier keine Probleme.
Wie @PS828 schon schrieb, lohnt es sich einfach nicht. Solche "kleinen Grafikkarten" wurden schon bisher nur alle paar Jahre mal aufgefrischt, mit vielen Rebrandings. Mit der Verbreitung leistungsfähiger APUs wird das immer weniger.
Passiv ist aber auch nicht so relevant, da semi-passiv das gleiche bewirkt: der Lüfter steht still.
@Fritzler Wenn du 3xDP 1.4 möchtest gäbe es die Radeon Pro WX2100
Kostet 120 Euro und Pro Treiber gibt's oben drauf.
Wer nur grundlegendes macht kommt mit den 8 Vega CUs gut klar. Sparsam ist sie auch extrem
Kann ich wärmstens empfehlen wenn es drei Monitore sein sollen. besonders unter Linux. Wenn 2 GB VRAM nicht Reichen dann einfach die 3200WX nehmen, die hat 4 und nutz ich selbst, träumchen die Karte