News Radeon Pro 5600M: MacBook Pro erhält unbekannte Navi-GPU mit HBM

borizb schrieb:
Energieeffizienter ok, aber GDDR6 bei der 2080 (448GB/s) oder 2080 Ti (616 GB/s) ist um Längen schneller,
von GDDR6X mal ganz abgesehen.
Das ist nur deswegen so wenig, weil der HBM da scheinbar extrem niedrig getaktet ist. Meine Vega64 schaufelt bei 1100Mhz 563GB/s, von den 1+TB/s der VII ganz zu schweigen. Aber wie andere schon gesagt haben wird in Laptops der HBM aufgrund seiner anderen eigenschaften eingesetzt, nicht wegen der bandbreite^^
 
  • Gefällt mir
Reaktionen: andi_sco, Grundgütiger, tunichgut und eine weitere Person
bensen schrieb:
Das ist ja genau das, was HBM besser kann.
Abgesehen von Kosten verursachen. Aber bei einem Macbook fällt das wohl gar nicht mehr auf.

bensen schrieb:
Und das Ding könnte so etwa auf 2070 Max-Q Niveau liegen
Bei was? Wie bereits gesagt, RDNA ist keine Architektur die auf GPU-Computing ausgelegt ist und genau das bräuchte man bei mobilen Workstations, welche die Macbooks vorgeben zu sein. Die Gamingleistung interessiert sicher kaum jemanden. Nun hat man aber eine Gamingarchitektur mit HBM ausgestattet, und Platz scheint der einzige Punkt zu sein der für diesen Spagat spricht.
 
ghecko schrieb:
Wie bereits gesagt, RDNA ist keine Architektur die auf GPU-Computing ausgelegt ist

Worin äußert sich diese nur von Dir behauptete nicht-Auslegung auf GPU-Computing? Und wie erklärst Du Dir, dass die Workstation-Karten mit RDNA-Architektur zwar keine bombastischen aber doch recht passable Kritiken bekommen haben?
 
Bin sehr gespannt wo sich die GPU einordnet. Mich machen vor allem die 50W TDP stutzig, denke nicht dass es die Karte über eine RTX 2060 schafft.
 
1024 schrieb:
Leider immernoch unbrauchbar als Zockerkiste
Ja und? Für das eine oder andere Spiel zwischendurch reicht es. Nur dreht sich in der Welt nicht alles ums Zocken und auch bei Laptops nicht.

borizb schrieb:
Energieeffizienter ok, aber GDDR6 bei der 2080 (448GB/s) oder 2080 Ti (616 GB/s) ist um Längen schneller,
von GDDR6X mal ganz abgesehen.
1. Sind hier nur 2 Stacks vorhanden, also 2048Bit-SI. Zu wissen ist, dass SI-Interfaces ein gutes Stück einfacher aufgebaut ist, als das GDDR6-Interface, deswegen auch so viele Datenleitungen.
2. Liegt der Takt unter dem Maximum dessen, was möglich ist.

Würden hier die HBM-Stack mit vollem Takt laufen, wären wir hier bei knapp 512 GBytes/s. Mit 3 Stacks wren wir schon bei 768GByte/s und es darüber hinaus.

Also nein, GDDR6 ist nicht um Längen schneller. Um auf die Übertragungsraten zu kommen, die mit HBM2 bei 4 - 6 Stacks möglich sind, kommt vielleicht GDDR6X, wenn es an einem 512er Interface hängt.


ghecko schrieb:
Bei was? Wie bereits gesagt, RDNA ist keine Architektur die auf GPU-Computing ausgelegt ist und genau das bräuchte man bei mobilen Workstations, welche die Macbooks vorgeben zu sein.
Sorry Ghecko, aber das ist zu verallgemeinernd und falsch. RDNA ist zwar, was Compute angeht, langsamer, richtig, aber Compute ist nur EIN Feld bei mobilen Workstations. Ich kennen genug Künstler im Grafikbereich, die mit Compute so gut wie nie benötigen, aber zu Quadros und Co greifen, weil viele Funktionen in Maya und Co erst zuverlässig laufen, wenn sie auf zertifizierten Treibern laufen.

Pauschal zusagen, dass RDNA sich nicht für Workstations eigenen, ist flach und pauschal zu sagen, dass man in ner Workstation Compute-Leistung braucht, ist ebenso flach.

Es gibt nicht nur Programmierer und Wissenschaftler im Workstationbereich.
Ergänzung ()

Hayda Ministral schrieb:
Worin äußert sich diese nur von Dir behauptete nicht-Auslegung auf GPU-Computing? Und wie erklärst Du Dir, dass die Workstation-Karten mit RDNA-Architektur zwar keine bombastischen aber doch recht passable Kritiken bekommen haben?
Das liegt daran, dass der liebe Ghecko nur eine Art von Workstation kennt und nicht versteht, dass es auch noch weitere Workstation-Arten gibt, bei denen Compute-Leistung nicht benötigt wird. ;)
 
Teralios schrieb:
Es gibt nicht nur Programmierer und Wissenschaftler im Workstationbereich.
Und es gibt nicht nur Programmierer und Wissenschafter, die GPU-Compute Leistung benötigen. Hier mal eins der vielen Beispiele:
pic_disp.php.jpeg

Davinci Resolve ist zb eine Software, die OpenCL vorbildlich implementiert hat. Und dennoch haben hier die RDNA-Karten Probleme, sich überhaupt gegen die älteren Vegas zu behaupten. Dieses Bild zieht sich quer durch den Kreativsoftwarebereich. Unter Linux gibt es bis heute keine Unterstützung von RDNA in ROCm, AMD selbst scheint kein Interesse daran zu haben, diese Architektur für diesen Zweck zu vermarkten. Denn wenn es um Compute geht, setzen sie nach wie vor auf Vega und dessen Weiterentwicklung.
Teralios schrieb:
Ich kennen genug Künstler im Grafikbereich, die mit Compute so gut wie nie benötigen, aber zu Quadros und Co greifen, weil viele Funktionen in Maya und Co erst zuverlässig laufen, wenn sie auf zertifizierten Treibern laufen.
Du selbst erwähnst Maya als Beispiel, welches spätestens beim Rendern in Arnold total von OpenCL/CUDA abhängig ist, wie alle modernen Renderer. Jede unbeschleunigte Anwendung wird mittlerweile kaum noch ernst genommen.
Teralios schrieb:
Pauschal zusagen, dass RDNA sich nicht für Workstations eigenen, ist flach
Pauschal hab ich nur gesagt dass ich nicht verstehe, warum hier RDNA mit HBM kombiniert wird, weil RDNA in Computeanwendungen, an ihrer 3D-Leistung gemessen eher das Schlusslicht bildet. Und ich nicht glaube, dass hierbei die Speicherbandbreite das Problem darstellt. Nvidia bekommt es schließlich auch mit GDDR hin.
Eine generelle Nicht-Eignung habe ich nirgends ausgesprochen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SavageSkull und Loro Husk
benneq schrieb:
Mit diesen Leistungsdaten würde das sicherlich auch eine hervorragende Passiv Karte für den Desktop abgeben. Aber 750€ Aufpreis zur 5500M mit 8GB GDDR6 sind natürlich schon ziemlich happig.
Ein entsprechend eingebremster TU102 oder normaler Navi 10 würden genauso hervorragende Passivkarten abgeben. Passive Kühlung ist aber halt bei PCs praktisch bedeutungslos, aus ziemlich offensichtlichen Gründen.
 
HanneloreHorst schrieb:
Nun gut, dafür das AMD mit nVidia und Intel mit AMD nicht mithalten kann, dafür kann Apple ja nichts, zwei mal aufs falsche Pferd gesetzt und den Kunden zahlen lassen.
Bis zur aktuellen Generation war Intel im notebook führend. Und AMD hat auch bei dieser Generation bei GPUs bei der Effizienz gleichgezogen. Würde also sagen höchstens einmal, aber auch nur, wenn man kein tb3 braucht.
Ergänzung ()

ghecko schrieb:
Und dennoch haben hier die RDNA-Karten Probleme, sich überhaupt gegen die älteren Vegas zu behaupten. Dieses Bild zieht sich quer durch den Kreativsoftwarebereich.
Pro Watt liegt rdna nicht ganz so weit dahinter. Und wer weiß, ob da nicht schon etwas rdna2 drin ist. Gerade für raytracing eignet sich rdna1 wohl kaum und wenn raytracing gut läuft, dann sich opencl.
 
Zuletzt bearbeitet:
SJAFNWEIF schrieb:
Ein entsprechend eingebremster TU102 oder normaler Navi 10 würden genauso hervorragende Passivkarten abgeben.

Die GPU müsste ohne HBM aber stärker gedrosselt werden um die höhere Leistungsaufnahme des RAM zu kompensieren. Wenn man sich schon entschließt seine GPU derart stark einzubremsen dann möchte möchte man möglicherweise wenigstens die eine zusätzliche Bremse auslassen...
 
Beitrag schrieb:
Du meinst sicher MCM oder genauer; ein MCM aus CPU, GPU und HBM - denn ein MCM ist das Ding ja auch so schon, wenn GPU und HBM zusammen auf einem Interposer hocken.

Ich weiß nicht; war von der Vorstellung früher auch ganz fasziniert, aber inzwischen ist HBM ja nichts Neues mehr und es gab immer noch kein Produkt in der Art. Vielleicht stellen wir Laien uns das einfacher oder besser vor, als es tatsächlich ist.

nein, ich meine MXM... einfach mal google anschmeissen ;)

edit, war wer schneller... :)
 
  • Gefällt mir
Reaktionen: Mcr-King
XTR³M³ schrieb:
nein, ich meine MXM... einfach mal google anschmeissen ;)

Das Problem bei der Sache ist /war das selbst wenn du die Schnittstelle hattest / hast kaum Karten auf den Markt verfügbar waren. Und wenn waren die unbezahlbar.

Das selber auch bei gesockelten mobilen CPU‘s die konntest du zwar zum Teil bei alternate usw. kaufen aber die Preise waren jenseits von gut und böse.

Daher kann man es dann auch gleich lassen wenn die Verfügbarkeit nicht gegeben ist und die Preise es nicht gerechtfertigt haben.
 
Beitrag schrieb:
Achso, kannte ich noch gar nicht. Wird das breit angewendet oder wird eher verlötet bzw. werden GPUs, die es als MXM gibt überwiegend auch so verbaut oder nur bei teuren Laptops?

mehrheitlich in highend gaming laptops zu finden, grosser vorteil ist, dadurch das es ein standard ist, sollte der kühler immer auf andere module passen, heisst man kann die folge generation verbauen mit gleicher TDP(oder minimal höher, +10% sollte kein problem sein)...

habe meinen 2011er iMac von radeon 6770M 512MB auf ne GTX 880M 8GB aufgerüstet, musste nur den kühler vom imac mit der 6970M 2GB nehmen(und da perfektionist, habe ich den kühler gemodded - perfekte VRM abdeckung, ist normal aber nicht nötig ausser ne kleine kerbe für die spulen rein zu dremeln), nächste upgrade steht aber schon an, ne RX580 MXM...
Ergänzung ()

Seiyaru2208 schrieb:
Das Problem bei der Sache ist /war das selbst wenn du die Schnittstelle hattest / hast kaum Karten auf den Markt verfügbar waren. Und wenn waren die unbezahlbar.

Das selber auch bei gesockelten mobilen CPU‘s die konntest du zwar zum Teil bei alternate usw. kaufen aber die Preise waren jenseits von gut und böse.

Daher kann man es dann auch gleich lassen wenn die Verfügbarkeit nicht gegeben ist und die Preise es nicht gerechtfertigt haben.

also ne RX580M MXM kostet so 250€, ist voll ok für nen MXM modul. :)
 
  • Gefällt mir
Reaktionen: Mcr-King
XTR³M³ schrieb:
also ne RX580M MXM kostet so 250€, ist voll ok für nen MXM modul. :)

Und in welchem deutschen Store finde ich die?

Ich habe auf nur welche im Dollar Raum gefunden?

Das ist das nächste Problem gewesen das damals alternate der einzige wirklich deutsche Store war in demnächst diese beziehen konnte.
 
ghecko schrieb:
Und Gamer-Grafik mit HBM? Bisher kein konzept was Erfolg gebracht hat.

was aber nicht am hbm lag, sondern an der GCN architektur. da hats nicht nur an der speicherbandbreite gefehlt. vega skaliert trotzdem enorm gut über die speicherbandbreite.

meine v56 skaliert mit 1600mhz core bis zum maximalen hbm takt von 1150mhz (588,8 gb/s). stock vs oc sind in meinem vergleich 90 fps vs 115 fps bei 180w verbrauch (core).
 
Hihihi. Sagte ich doch schon vor nem halben Jahr
( ͡° ͜ʖ ͡°)
Rock Lee schrieb:
Ich bin jetzt mal dreist und behaupte, dass das Meiste aus der News nicht stimmt, sondern Navi 12 ein Chip mit HBM2 ist, vorzugsweise für Mobile und wahrscheinlich für Apple und rein gar nichts mit der 5600 XT zu tun hat, die ein abgespeckter Navi 10 ist.

Beziehe mich hier auf die Twitter-Historie von Komachi. Schon alleine die Leaks zum Speicherinterface passen nicht mit der News überein. Navi 12 hat entweder ein 256-Bit GDDR6 (unwahrscheinlich) oder ein 2048-bit HMB2 (sehr wahrscheinlich) Speicherinterface. Die 5600XT 192-Bit. Das schließt sich schon mal gegenseitig aus.
 
  • Gefällt mir
Reaktionen: lkullerkeks, Rage, LamaTux und 3 andere
Gr.mm schrieb:
Das ist nur deswegen so wenig, weil der HBM da scheinbar extrem niedrig getaktet ist. Meine Vega64 schaufelt bei 1100Mhz 563GB/s, von den 1+TB/s der VII ganz zu schweigen. Aber wie andere schon gesagt haben wird in Laptops der HBM aufgrund seiner anderen eigenschaften eingesetzt, nicht wegen der bandbreite^^
Teralios schrieb:
1. Sind hier nur 2 Stacks vorhanden, also 2048Bit-SI. Zu wissen ist, dass SI-Interfaces ein gutes Stück einfacher aufgebaut ist, als das GDDR6-Interface, deswegen auch so viele Datenleitungen.
2. Liegt der Takt unter dem Maximum dessen, was möglich ist.

Würden hier die HBM-Stack mit vollem Takt laufen, wären wir hier bei knapp 512 GBytes/s. Mit 3 Stacks wren wir schon bei 768GByte/s und es darüber hinaus.

Also nein, GDDR6 ist nicht um Längen schneller. Um auf die Übertragungsraten zu kommen, die mit HBM2 bei 4 - 6 Stacks möglich sind, kommt vielleicht GDDR6X, wenn es an einem 512er Interface hängt.
Würde wäre Fahrradkette.

Für GDDR6(x) gilt, wie du sagst, das gleiche Argument: Wenn ich das Interface breiter mache und den RAM
höher takte, ist der auch so schnell wie HBM. Nur ist HBM ab einem bestimmten Punkt im Gegensatz zu
GDDR nicht mehr wirtschaftlich und das Energieeffizienz-Plus ist dann nur noch sehr teuer erkauft.

Der tatsächliche Mehrverbrauch von GDDR zu HBM ist schwer zu ermitteln. Falls das für euch valid ist:
https://www.eeweb.com/profile/schar...-memory-ready-for-ai-primetime-hbm2e-vs-gddr6
1592251423455.png


Wenn das nah an den Fakten ist (Crucial gibt für 8Gb DDR4@1,35V 3W Verbrauch an), kann sich jeder
überlegen, ob die paar Watt weniger den Aufpreis rechtfertigen (+ weniger Leistung im Vergleich zu
GDDR6 mit 256Bit). Bei der verbauten GPU + Coffe Lake CPU ist das Energieargument für 5 Watt beim
Grafikspeicher hin oder her doch eh völlig Banane.
 
Seiyaru2208 schrieb:
Und in welchem deutschen Store finde ich die?

Ich habe auf nur welche im Dollar Raum gefunden?

Das ist das nächste Problem gewesen das damals alternate der einzige wirklich deutsche Store war in demnächst diese beziehen konnte.

Klar im dollarraum... Wer nur im inland kauft wird nix finden, oder zu horrenden preisen
 
Qarrr³ schrieb:
Bis zur aktuellen Generation war Intel im notebook führend. Und AMD hat auch bei dieser Generation bei GPUs bei der Effizienz gleichgezogen. Würde also sagen höchstens einmal, aber auch nur, wenn man kein tb3 braucht.
Zu Intel:
Führend ja, aber auch schrecklich ineffizient und überteuert.
Also, du hast recht aber wirklich toll war diese Führung nicht, nicht umsonst haben fast ausnahmslos alle Hersteller in den letzten Jahren Probleme mit Throtteling gehabt.
Und AMD bot eben schon seit geraumer Zeit genau so viel effizienz aber eben noch mehr Multithreading Performance.
Aber diese Aussage bezog sich auch eher auf Modelle wie dem iMac oder MacPro, die ja mit Threadripper wirklich mal ihr Geld wert wären, wenn die Kerne mitziehen, Kerne/Leistung/Preis ist bei AMD halt seit zwei Jahren da besser.

Und die 5600 ist halt eher auf dem Niveau der 2060er als der 2070er und vor allem bei 4K ist AMD noch ein gutes Stück weg, dann noch RTX (ja nur ein Feature aber eben ein wichtiges für die Zukunft), da lohnt sich halt gefühlt einfach das warten.

Ich bin mir sicher, dass das 16er mit 5600 einem viel Spaß bringen kann aber ich glaube, es lohnt sich auf die neuen Display-Techniken und eventuell neueren Intel CPUs(in kleinerer Bauweise) zu warten, bis sich das wirklich lohnt.

Ich warte definitiv, mein iPad Pro kann schon einige Aufgaben übernehmen vom Computer aber für gewisse Dinge darf es dann auch Leistung sein und wenn man sie so teuer bezahlen muss, wie bei Apple, dann will man halt einfach nichts Zweitklassiges.
Beim Traum wäre einmal für unter 4000€ und voll Ready für 4K/6K-Auflösung State of the Art MBP oder iMac.
Sowohl fürs Konsumieren als auch Produzieren von Inhalten.
 
Zurück
Oben