Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Radeon RX 6300: 32-Watt-Grafikkarte mit 32-Bit-Interface kostet 55 Euro
- Ersteller Vitche
- Erstellt am
- Zur News: AMD Radeon RX 6300: 32-Watt-Grafikkarte mit 32-Bit-Interface kostet 55 Euro
F
franzerich
Gast
Computerbase: Zwar sinkt die Rechenleistung nur von rund 3,6 TFLOPS auf 3,1 TFLOPS; spieletauglich wäre die neue kleinste RDNA-2-Grafikkarte aber somit nicht.
Die Kritik ist berechtigt. Eigentlich sagen die TFlops überhaupt nix aus... Wenn es nach TFlops ginge, müsste die neue Radeon 780m iGPU mit 8.9 TFlops genauso schnell sein wie eine GTX 1080. Stattdessen ist sie laut ersten Leaks gerade mal ein bisschen schneller als eine GTX 1050 Ti.Epistolarius schrieb:Geringere TFLOPS als derzeitige Mainstream dGPUs bedeutet also nicht "spieletauglich"? Die SteamDeck APU hat was, 1,6 TFLOPS?
Ich vermute, dass die RX 6300 dieselbe Performance haben wird wie die Radeon 680m iGPU, und damit auch der GTX 1050 Ti. Dann wäre sie auf jedenfall spieletauglich für viele Titel.Computerbase: Offiziell hat AMD eine Radeon RX 6300 nie vorgestellt; bis dato ist auf dem Desktop bei der Radeon RX 6400 Schluss. Die nun aufgetauchte Grafikkarte (...) ordnet sich allerdings noch einmal unterhalb ein. Zwar ist der GPU-Ausbau mit 12 aktiven Compute Units und dementsprechend 768 FP32-ALUs identisch, beim Takt und insbesondere beim Speicherausbau gibt es aber harte Einschnitte
EDIT:
Alles klar (hab das übersehen). Wenn es so stark beschnitten ist, dass es leistungsmäßig nur in GT 1030 Nähe liegt, würde ich das auch nicht mehr als spieletauglich beschreiben.Computerbase: Theoretisch übertrifft die GPU-Leistung sogar die GeForce GTX 1050 Ti, doch dürfte dieser Vergleich in der Praxis am Speicherausbau der Radeon RX 6300 scheitern.
Zuletzt bearbeitet von einem Moderator:
Tanzmusikus
Admiral
- Registriert
- Aug. 2010
- Beiträge
- 9.956
"HDMI" kostet Lizenzgebühren.IBISXI schrieb:HDMI Standard fehlt in der Tabelle.
Es sollte für die RX 6300 ein PCIe 4.0 x4-Port ausreichen.
Die 32 ROPs sind lustig - eine RX580 hat auch 32 ROPs. Also zumindest beim theoretischen Maximum an Pixel-Throughput ist die 6300 durch den höheren Takt sogar schneller (praktisch: limitiert durch Speicherbandbreite, wobei die Performance in Bursts abrufbar sein sollte dank dem halben TB/s an Cache Bandbreite, was übrigens mehr als 2x der normalen Speicherbandbreite einer RX580 entspricht).
Dass 768 SIMD-Slots mittlerweile an die 3,1TFLOPs an Compute Performance bei 32W liefern können (bester Vergleich: R9 285, Tonga, 190W), zeigt, wie sehr die Technik mittlerweile fortgeschritten ist.
Schon klar, schon klar, zum Spielen taugt das Ding nur bedingt, außer vielleicht für ne Emulationskiste; die Specs sind in Relation aber schon beeindruckend.
Dass 768 SIMD-Slots mittlerweile an die 3,1TFLOPs an Compute Performance bei 32W liefern können (bester Vergleich: R9 285, Tonga, 190W), zeigt, wie sehr die Technik mittlerweile fortgeschritten ist.
Schon klar, schon klar, zum Spielen taugt das Ding nur bedingt, außer vielleicht für ne Emulationskiste; die Specs sind in Relation aber schon beeindruckend.
tstorm
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.888
Fallbeispiel Spiele:R O G E R schrieb:Trotzdem tue ich mir schwer für ein 96Bit Speicherinterface 150€ zu bezahlen.
Wenn man bedenkt das mein eine AMD Polaris Karte mit 256Bit vor dem Kryptohype für 110€ bekommen hat.
Gibt dein Monitor das Spiel in Bit aus oder in FPS?
Fallbeispiel Multimedia:
Werden Videos in bit gerendert oder in Minuten?
Warum sollte ich als Kunde die technischen Spezifikationen bewerten wenn das Endergebnis (zu meinem Bedürfnis) passt?
Aber schön - kaufst du eben keine Grafikkarte für 150€ mit einem 96bit Interface.
Mir persönlich wäre es sogar bei der 4090 egal gewesen, wenn sie nur über ein 32Bit Interface verfügen würde, wenn die Leistung am Ende gleich ist. Wie das technisch intern zu Stande kommt ist mir dann egal. Genauso wie mich nicht interessiert, ob sie ihre Leistung mit 3GHz Chiptakt erreicht oder ob sie es mit 50MHz macht.
Interessant sind (natürlich nur für mich, andere können auch gerne nach "bit/Speicherinterface" kaufen): Preis / Leistung / Energieverbrauch / ...
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
Neodar schrieb:In irgendwelche uralten Rechner Neuware zu verbauen, finde ich immer total bescheuert.
Weil man nur Neuware mit Garantie von der Steuer absetzen kann (eigentlich) .
Vom Laster gefallene Artikel wird eher nichts und bei gebrauchten, muss es wenigstens "refurbished" sein, mit Rechnung, Mehrwertsteuer Nachweis und Garantie.
Das ist in so ziemlich jedem Land dieser Welt so.
Und die Tatsache, dass diese GPU nicht für Privatpersonen gedacht ist, wird explizit erwähnt.
OEM.
mfg
p.s.
Ich gehe auch davon aus, unter 1000 Stück, bekommt man von AMD davon keine. Wenn davon einige bei Endkonsumenten landen, ist das so.
Zuletzt bearbeitet:
F
franzerich
Gast
Äh... wtf?! Es gibt auch eine RX 6300M ??? Was es nicht alles gibt...
Von der M-Variante gibts aber doch schon Benchmarks. Und da die Spezifikationen komplett gleich sind, weiss man eigentlich auch was man bei der Desktop-Variante kriegt.
Es scheint leistungsmäßig wirklich wie eine Radeon 680m iGPU zu sein, nur in dedizierter Form - und ein bisschen schwächer (nach den wenigen Benchmarks die man so findet). Also so GTX 1050 Leistung (ohne Ti). Hat AMD jetzt all ihre restlichen 680m in dedizierte GPUs verbaut, weil demnächst die 780m erscheinen soll? Resteverwertung?
Von der M-Variante gibts aber doch schon Benchmarks. Und da die Spezifikationen komplett gleich sind, weiss man eigentlich auch was man bei der Desktop-Variante kriegt.
Es scheint leistungsmäßig wirklich wie eine Radeon 680m iGPU zu sein, nur in dedizierter Form - und ein bisschen schwächer (nach den wenigen Benchmarks die man so findet). Also so GTX 1050 Leistung (ohne Ti). Hat AMD jetzt all ihre restlichen 680m in dedizierte GPUs verbaut, weil demnächst die 780m erscheinen soll? Resteverwertung?
Als PCIe-x1-Version (ohne Stromstecker, Singleslot und/oder passiv, Low Profile, DP-Ausgang und noch lange im Treibersupport) sicherlich eine hübsche Idee, aber mich stört das Geknauser bei den Encodern. An sich bräuchte ich gar nicht mehr als das, verbaut ist im Desktop aber eine RX570 Red Devil - die war gebraucht mal recht günstig, weil die Zielgruppe für die Leistungsklasse keine passend großen Gehäuse hat, bzw. umgekehrt die Leute mit den großen Towern mehr Leistung wollen als eine 570 abliefert.
Nunja, so ist das mit 19"-Gehäusen und Boards ohne Sound- und Grafikausgängen eben
Nunja, so ist das mit 19"-Gehäusen und Boards ohne Sound- und Grafikausgängen eben
- Registriert
- Jan. 2018
- Beiträge
- 18.832
Bei mir lief die 6400 nicht auf einem Sockel 775 Boardaklaa schrieb:2GB GDDR6 RAM reicht vollkommen aus. Werde ich nehmen und ein altes Linux System wieder zum laufen bringen. (Sockel 775 Q9400, Asus P5Q, 8GB DDR2 + low end Graka mit Linux)
Speicherbandbreite heißt eines der Zauberwörterfranzerich schrieb:Wenn es nach TFlops ginge, müsste die neue Radeon 780m iGPU mit 8.9 TFlops genauso schnell sein wie eine GTX 1080. Stattdessen ist sie laut ersten Leaks gerade mal ein bisschen schneller als eine GTX 1050 Ti.
Woher weißt du, das die komplett gleich sind? Die 6500M entspricht auch nicht 1 zu 1 der 6500 XT. Und wenn es nur der Takt istfranzerich schrieb:Und da die Spezifikationen komplett gleich sind, weiss man eigentlich auch was man bei der Desktop-Variante kriegt.
R
r4v398
Gast
Wie ich erst dachte es wäre ein "Vor 15 Jahren"-Artikel. Ich musste es echt 2 mal überprüfen.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
franzerich schrieb:Hat AMD jetzt all ihre restlichen 680m in dedizierte GPUs verbaut, weil demnächst die 780m erscheinen soll? Resteverwertung?
Die 680m ist eine iGPU. Also eine Grafikeinheit, die in einem monolithischem Chip fest mit eingebaut ist. Die kann man dort nicht "ausbauen".
Über Geschwindigkeiten (gerade bei Games) lässt sich nur spekulieren. Die hängen MASSIV am Speicherdurchsatz und der Latenz.
Das SI ist nur eine Komponente, um den Durchsatz zu erhöhen oder zu senken, der auch noch mit der Art und Geschwindigkeit der RAM Module zusammen hängt.
Die CL darf auch nicht vernachlässigt werden. 3200 Mhz sind nicht 3200 Mhz. Bei mir läuft z.B. ein in Notebooks üblicher DDR4 3200 RAM mit CL 22-22-22-54-72 Timings. Das ist nicht wirklich "schnell" wenn man es mit Modulen aus dem Desktop vergleicht.
Die 780m wird dann mit DDR5 noch besser performen. Es geht aber darum, das alte System nicht komplett weg zu werfen.
Die Tatsache, dass dGPUs dieser Klasse für neue Systeme immer mehr obsoleter werden, wird hiervon nicht berührt.
https://wccftech.com/amd-radeon-780...t-on-par-with-rx-480-gtx-1650-graphics-cards/
Wie viel von dieser Leistung dann wieder von den Games in FPS umgewandelt werden kann, liegt dann an vielen Komponenten und der Software.
mfg
F
franzerich
Gast
Kann man aus der Tabelle im Artikel ablesen.andi_sco schrieb:Woher weißt du, das die [6300 und 6300m] komplett gleich sind? Die 6500M entspricht auch nicht 1 zu 1 der 6500 XT. Und wenn es nur der Takt ist
Stimmt, das geht nicht. Ich hatte im Kopf, dass das schon eine Art tiled GPU oder Chiplet ist.Die 680m ist eine iGPU. Also eine Grafikeinheit, die in einem monolithischem Chip fest mit eingebaut ist. Die kann man dort nicht "ausbauen".
Da die Daten in der Tabelle quasi identisch sind, kann man mit ähnlicher Performance wie bei der RX 6300m rechnen. Auf Youtube hat "Zax Game Inn" diese GPU bereits in dutzenden Spielen getestet.Über Geschwindigkeiten (gerade bei Games) lässt sich nur spekulieren. Die hängen MASSIV am Speicherdurchsatz und der Latenz.
Zuletzt bearbeitet von einem Moderator:
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
franzerich schrieb:Da die Daten in der Tabelle quasi identisch sind, kann man mit ähnlicher Performance wie bei der RX 6300m rechnen. Auf Youtube hat "Zax Game Inn" diese GPU bereits in dutzenden Spielen getestet.
Hier stand fast nur Mist.
Bin in der Zeile verrutscht.
Mit fast 30% mehr Strom und besserer Kühlung, sollten aber trotzdem 20% mehr Leistung rum kommen. Sonst hat man genauso Mist gebaut, wie ich mit meinem alten Post.
mfg
Zuletzt bearbeitet:
F
franzerich
Gast
Nunja, AMD GPUs haben oft gezeigt, dass die Leistung nicht linear mit Watt und Taktrate skalieren, sondern wirklich mehr Recheneinheiten drin sein müssten.[wege]mini schrieb:Der Turbo kann also deutlich länger gehalten werden und auch höher takten.
Desktop Version hat 32 Watt statt 25 Watt, die sie maximal aufnehmen darf und die deutlich bessere Kühlung.
Also 30% schneller als eine 6300m sollte sie sein.
Aber wenn die vorherigen Werte auf Youtube GTX 1050 Leistung waren, könnte man wegen der leicht höheren TDP und potentiell längerem Halten des Turbotakts die Leistung doch auf eine GTX 1050 Ti einschätzen (die ist ja auch 15-20% schneller als die reine 1050). Das wäre dann auch wieder ähnlich zur 680m. Wie mans auch dreht und wendet, es wird leistungsmäßig wohl in dem Bereich bleiben.
Allerdings wäre die Leistung deutlich stärker als die im Artikel beschriebenen "in Konkurrenz zu GT 1030".
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
franzerich schrieb:in Konkurrenz zu GT 1030
Da sind wir dann wieder beim RAM.
Ich bin damals von 5870m mit 128 bit Interface auf 6970m umgestiegen, mit 256 bit.
Die 5870m wurde massiv ausgebremst. Die 160 Shader mehr, haben den Kohl nicht fett gemacht. Die doppelt so hohe Speicherbandbreite hat die FPS aber ordentlich gepushed.
Die 6300 verhungert irgend wann an der RAM-Bandbreite, wenn man es in FPS umwandeln will.
20% schneller als die 6300m, sollte sie aber sein, da die mobile Version an den 25 Watt verhungert, die von den Notebook Herstellern dann sehr häufig auch mit einem unwürdigem Kühlsystem ausgestattet wurden, wo selbst bei 25 Watt die 6300m ins thermische Limit läuft, wo der Turbo kaum noch verwendet wird.
mfg
C4rp3di3m
Commander
- Registriert
- Jan. 2008
- Beiträge
- 3.047
Warum ich und viele den BUS ansprechen ist, selbst mit normalen DDR hätte es 64bit.
Nächster Punkt so eine Karte wäre nur Sinnvoll in Office PC´s oder z.B. einer Kodibox.
Nun ist gar nicht klar welchen HDMi Standard das Ding hat (vermutlich nichts gutes), oder welche Hardwarebeschleunigung für Multimedia/Codecs. Heute nutzt selbst FireFox den GPU mit, schöner Office PC der sich beim Webseite anschauen einen Abruckelt. Von 4K Video auf einer Kodibox etc. wohl auch nicht der Knaller, schafft die Überhaupt 60Hz bei 8bit und was ist mit HDR support etc.pp?
Wie auch immer, das Ding ist Elektroschrott.
mfg
Nächster Punkt so eine Karte wäre nur Sinnvoll in Office PC´s oder z.B. einer Kodibox.
Nun ist gar nicht klar welchen HDMi Standard das Ding hat (vermutlich nichts gutes), oder welche Hardwarebeschleunigung für Multimedia/Codecs. Heute nutzt selbst FireFox den GPU mit, schöner Office PC der sich beim Webseite anschauen einen Abruckelt. Von 4K Video auf einer Kodibox etc. wohl auch nicht der Knaller, schafft die Überhaupt 60Hz bei 8bit und was ist mit HDR support etc.pp?
Wie auch immer, das Ding ist Elektroschrott.
mfg
F
franzerich
Gast
Macht ja nix. Ich hab somit ja auch meine Einschätzung der Leistung nach oben korrigiert, und wir sind praktisch auf dieselbe Leistungseinschätzung gekommen[wege]mini schrieb:Bin in der Zeile verrutscht.
sollten aber trotzdem 20% mehr Leistung rum kommen.
Die Karte ist somit dann eigentlich gar nicht so schlecht, und einsteigerspieletauglich.
Lediglich die 2gb VRAM könnten noch bei einigen Games einen Strich durch die Rechnung machen. Ich glaube bei Shadow of the Tomb Raider hat sich gezeigt dass selbst 4gb schlechter abschneiden als eine 680m iGPU mit dynamischem "RAM". Aber ok, das wird dann wieder zu spezifisch...
Ah, das hab ich gestern auch gesehen. Und leider wieder nur ein synthetischer Benchmark. Also jetzt ists echt schon überfällig, dass mal gscheite Gaming-Benchmarks gezeigt werden...[wege]mini schrieb:Die 780m wird dann mit DDR5 noch besser performen.
https://wccftech.com/amd-radeon-780...t-on-par-with-rx-480-gtx-1650-graphics-cards/
Wie viel von dieser Leistung dann wieder von den Games in FPS umgewandelt werden kann, liegt dann an vielen Komponenten und der Software.
Das ist bei der 780m auch wirklich spannend, weil man - wie du sagtest - nur spekulieren kann, welche Leistung beim Gaming ankommt. Im Vergleich zur 680m wäre deutlich mehr Rechenleistung da, aber... man weiss einfach nicht ob sie auch so umgewandelt wird.