News AMD Radeon RX 5500(M): Navi-GPU für FHD‑Gaming mit Desktop und Notebook

rg88 schrieb:
Naja,wird wohl mal wieder ein Kommunikationsproblem gewesen sein: TDP des Chips 110Watt. TBP also Chip + RAM + Gedöns 150Watt
Mit beidem käme man aber nicht ansatzweise an die -30% zur RX480 hin
 
  • Gefällt mir
Reaktionen: eXe777 und tic-tac-toe-x-o
Schade, ich hoffte auf eine starke FHD GraKa ohne Stromstecker vom AMD. Mal sehen wie weit die 1650Ti kommt.
 
  • Gefällt mir
Reaktionen: duke1976
@Taxxor das nicht. da hast du recht. aber das 110/150Watt System gabs bei der 480 genauso:
1570467166482.png
 
@rg88 bei der 5500 müssten es dann 77/105W sein, vermutlich runde 80/110 und selbst mit der Rundung wäre man schon wieder leicht von den -30% abgewichen.

Man muss ja eigentlich auch nur die 5700 ansehen die hat 150W Chip Power, die 5500 hat 40% weniger CUs und ein kleineres PCB, da kommt man auf 90W wenn es linear skalieren würde, was es nicht tun wird.
 
  • Gefällt mir
Reaktionen: [wege]mini
Bin gespannt wo sich die Karte am Ende genau einordnet und wo sich der Preis einpendeln wird.

Habe aktuell noch eine GTX 970 und könnte mir einen Wechsel durchaus vorstellen. Leider sind viele aktuelle GPUs einfach nur teuer, oder der Wechsel lohnt sich nicht.
 
Taxxor schrieb:
@rg88 bei der 5500 müssten es dann 77/105W sein
Ne, eigentlich nicht. Die Grafik bezieht sich ja auf Performance pro Watt:
1570468049646.png

Kann man also so lesen: Bei der Leistung ist die 5500 12% schneller als die RX480. Bei gleicher Leistung ist sie 30% sparsamer. Dann stimmt wieder alles
 
Die Karte erinnert mich irgendwie an die Fury Nano. Wäre da HBM drauf, wäre sie die direkte Nachfolgerin.
Mal schauen, wie die Preise ausfallen.
 
  • Gefällt mir
Reaktionen: fox40phil und konkretor
rg88 schrieb:
Kann man also so lesen: Bei der Leistung ist die 5500 12% schneller als die RX480. Bei gleicher Leistung ist sie 30% sparsamer. Dann stimmt wieder alles
Wenn sie bei gleicher Leistung 30% sparsamer ist hast du keine 1,6X perf/watt, sondern 1,42X(100/70)
Und auch nicht wenn sie 12% schneller ist und keine 30% weniger verbraucht.

Auf die exakten 1,6 kommst du mit 112/70, also wenn sie bei 30% weniger Verbrauch 12% mehr Leistung hat
 
Zuletzt bearbeitet:
Hört sich gut an. Dann mal her mit dem Test :schluck:
 
Taxxor schrieb:
Nein, denn wenn sie bei gleicher Leistung 30% sparsamer ist hast du keine 1,6X perf/watt.
Warten wir mal ab, was das nächste Statement von AMD sein wird :D wäre ja nicht das erste Mal, dass einmal in die eine und dann wieder in die andere Richtung geschwenkt wird
 
Klingt gut, der Preis sollte jedoch unter der 200 Euro Marke liegen um attraktiv zu sein. Ansonsten bieten sich im Moment Vega Karten ab 230 Euro an.
 
  • Gefällt mir
Reaktionen: fox40phil
Taxxor schrieb:
Die 5700 wurde auch mit der 2060 verglichen und preislich war da mit 370 zu 320€ schon noch ein ziemlicher Unterschied. Und dabei war die 5700 sehr viel näher dran an der 2060 (+11%) als es die 5500 laut AMDs Angaben an der 1650 ist (+~35%).
Vergleichst du jetzt ernsthaft Straßenpreise nach einem halben Jahr auf dem Markt mit der UVP für die 5700?
Die 2060 hat die selbe UVP wie die Navi Karte, ist aber deutlich langsamer und hat weniger Speicher.
 
Neue Karten sind immer erstmal zu teuer.
Da AMD sich derzeit bei der UVP stark bei nVidia orientiert, würde ich eher auf
220€ für die 4GB-Variante
und
250€ für die 8Gb-Variante tippen.
Klar, im Vergleich mit den Preisen von Karten die schon länger am Markt sind zu teuer,
aber AMD will ja leider raus aus der Tiefpreis-Ecke.
 
10 Spiele getestet mit GPU A und B.
GPU A hat im Mittelwert 100fps und 100W.
GPU B hat im Mittelwert 112fps und 70W.

So verstehe ich aus dem "1,6x Performance per Watt" Bild. Und wie kommt man auf die 1,6x?
Edit: 112/70=1,6x !!!
Edit2: Laut Artikel ist 173fps die Höchstzahl des RX5500 (Rainbow Siege). 173/1,6=108W
Edit3: Und nein, wenn man versucht die GPU B auf 100fps zu cappen, wird es trotzdem bei 70W bleiben. Stromverbrauch ist nicht linear/parallel mit dem fps gekoppelt. Stromverbrauch verläuft stufenweise, in meinem Fall ist es 30W mit der gtx1050. 30fps=110W, 60fps=140W, unlimited=170+W aus der Steckdose.
 
Zuletzt bearbeitet:
@Nero2019 die 1,6 sind ja auch nur ein Mittelwert das kannst du nicht genau auf ein Spiel runter rechnen. Es kann auch sein dass bei Rainbow Six nur 1,4x gegenûber der rx480 sind, dafür in einem anderen Spiel 1.8
 
Meine Meinung:
Wer wenig Geld hat und / oder Strom sparen möchte und nicht mehr als FullHD / maximale Leistung benötigt, fährt mit solchen Karten sicher gut.

Zumal man neuste Technik hat, was oft wichtiger ist als die reine Leistung.
Aber gerade da bin ich etwas skeptisch... selbst die bereits erschienenen RDNA Karten sind "nur" bis zur RTX 2070 konkurrenzähig und seien wir mal ehrlich, für Raytracing nächstes Jahr braucht es deutlich mehr (wird ja noch der große RDNA Player kommen dann)

Jedenfalls weiß ich nicht ob die Karten für mehr als 1-2 Jahre taugen, kann sicher keiner jetzt sagen was sich dann durchsetzen wird.

Man munkelt aber die neuen Konsolen haben einen Brecher, würde daher so eine Karte gar nicht mehr erst kaufen, außer man braucht jetzt wirklich eine Übergangskarte.

Ich brauch definitiv keine und kann daher diese Gen total aussitzen, mir sind selbst die 5700er nicht gut genug, auch wenn man damit aktuell sicher gut zocken könnte, aber bieten für mich einfach zu wenig Neues.

Mal schauen was es dann nächstes und übernächstes Jahr gibt...
 
So wirklich nachvollziehen kann ich den Vergleich mit der GTX 1650 nicht, richtet sie sich doch an genügsamere Spieler, die gerne auf einen zusätzlichen Stromanschluss verzichten wollen und eine leise, kühle Karte wünschen. Als würde man Hybrid-Kompaktwagen für die Stadt mit SUVs vergleichen ...
 
KuestenNebel schrieb:
So wirklich nachvollziehen kann ich den Vergleich mit der GTX 1650 nicht,
Sie wird wohl in der selben Preisregion platziert werden. Also bekommt man viel mehr Leistung als bei der Konkurrenz für das Geld. Was kannst du da nicht nachvollziehen?
 
KuestenNebel schrieb:
So wirklich nachvollziehen kann ich den Vergleich mit der GTX 1650 nicht
Es gibt doch einen ganzen Haufen an GTX 1650 Modellen die einen extra Stromanschluss benötigen.
 
  • Gefällt mir
Reaktionen: rg88
Steini1990 schrieb:
die einen extra Stromanschluss benötigen.
Sollte man sowieso machen. Mit den angegebenen 75Watt bewegt man sich schon ab Werk, ohne Custom-OC, an der absoluten Schmerzgrenze des PCIe-Anschlusses. Eigentlich sogar schon fast zu hoch und die Peaks verletzen spätestens die Spezifikationen.
 

Ähnliche Themen

Zurück
Oben