News Kaby Lake-G im NUC: Erster Test mit Vega-GPU zeigt hohe Leistung am Limit

Pizza-König schrieb:
Nein Danke.
Da bastel ich mir lieber ein System auf i7-8700K Basis. Da habe ich für den ungefähr selben Preis die selbe Spiele-Leistung, aber mit deutlich höheren CPU-Reserven.

Und das in derselben Größe? Zeig mal her.
 
HaZweiOh schrieb:
Das jetzt als Variante mit Ryzen und AM4 bitte!
Gibt es eigentlich noch Konkurrenzprodukte zum NUC (zum Beispiel von MSI, Zotac oder Gigabyte) mit AMD-CPUs? Wenn ja, dann könnte man die doch mit den neuen AMD Ryzen APUs der 2000-er Serie garnieren und hätte einen deutlich günstigeren NUC-Konkurrent mit vergleichbarer Leistung.
 
Ich denke auch, dass es für VR und vor Allem auch für AR ein wichtiger Schritt ist solche Technologien einfach mal vom Reißbrett auch zum Consumer zu bringen. Wir reden hier immerhin von einem Vorserienmodell. Ich denke schon, dass es der richtige Weg ist jetzt wo neben den Nischen-VR Produkten immer öfter auch die ersten ernst zu nehmenden AR Produkte Einzug halten - die meiner Meinung nach eine deutlich größere Rolle im Alltag der Zukunft spielen werden. Dafür reicht dann halt die Leistung/Kompatibilitätsbeschränkungen eines Smartphones nicht mehr aus.
 
HaZweiOh schrieb:
Das jetzt als Variante mit Ryzen und AM4 bitte!

Wäre ein Traum aber AMD will sich ja nicht den Graka Markt zerstören.

Wobei, in Zeiten vo Mining wäre das eine sehr interessante Lösung für Gamer die Aufgrund der aktuellen Preisentwicklung auf dem Graka Markt weder bei AMD noch bei Nvidia zuschlagen wollen.

Ein Ryzen mit einer Performance einer 1060.... würde ich sofort zuschlagen und meinen Xeon 1231 + 1060 aufgrund der Platzersparnis sofort in Rente schicken.
 
Der Speicherdurchsatz ist doch besonders bei APU´s schon immer ein limitierender Faktor gewesen.
Dass Vega von einem höheren Speicherdurchsatz profitiert kann ich außerdem bestätigen.
Hier jetzt entsprechend:
1 x HBM2 Stack mit 800Mhz am 1024 Bit Speicherinterface -> 204,8 GB/s
1 x HBM2 Stack mit 950MHz am 1024 Bit Speicherinterface -> 243,2 GB/s

Zum Vergleich:
Fiji -> 4 x HBM1 Stack mit 500MHz an 4096 (4 x 1024)Bit Speicherinterface -> 512,0 GB/s
Fiji -> 4 x HBM1 Stack mit 666MHz an 4096 (4 x 1024)Bit Speicherinterface -> 682,0 GB/s
Vega -> 2 x HBM2 Stack mit 945MHz an 2048 (2 x 1024)Bit Speicherinterface -> 483,8 GB/s
Vega -> 2 x HBM2 Stack mit 1100MHz an 2048 (2 x 1024)Bit Speicherinterface -> 563,2 GB/s

Bei Vega20 hoffe ich dann wieder auf die Verwendung von 4 HBM-Stacks.
Vega20 -> 4 x HBM2 Stack mit 1000MHz an 4096 (4 x 1024)Bit Speicherinterface -> 1024 GB/s

Was bei OC von HBM bei dieser Intel-NUC Kiste nicht vergessen werden sollte – HBM2 wird ziemlich warm!
Vega64 Referenz-Card Beispiel (2400rpm) -> GPU bei 75-80°C und HBM zwischen 87-93°C^^
 

Anhänge

  • HBM1_666MHz.jpg
    HBM1_666MHz.jpg
    285,8 KB · Aufrufe: 589
Zuletzt bearbeitet:
Weyoun schrieb:
Gibt es eigentlich noch Konkurrenzprodukte zum NUC (zum Beispiel von MSI, Zotac oder Gigabyte) mit AMD-CPUs? Wenn ja, dann könnte man die doch mit den neuen AMD Ryzen APUs der 2000-er Serie garnieren und hätte einen deutlich günstigeren NUC-Konkurrent mit vergleichbarer Leistung.

die GPU wäre deutlich schwächer
 
@Chrismon
Es war gar nicht so lange her, wo AMD noch was von einem Vega-Shrink gefaselt hat, aber da ging es wohl eher um 12nm und 7nm wird dann wohl erst mit Navi kommen, oder Navi schon direkt mit 7nm...

Bei den kleinen Vegas wird garantiert einiges weggelassen, was bei den großen Chips vorhanden ist, Big-Vega ist ja ein Allrounder, der nun mal auch im Pro-Segment eingesetzt wird/werden soll. Auf Raven-Ridge ist ja auch nicht nur eine von der Shaderzahl beschränkte Variante verbaut, würde ich stark vermuten.

---

In den Konsolen greifen CPU und GPU gemeinsam auf den GDDR5-Speicher zu. Auch nicht ganz uninteressant das Konzept, anstatt separate Speicher zu verwenden.
Aber AMD arbeitet ja mit HBCC (hieß das so?) daran, dass die GPU auf den Arbeitsspeicher zugreifen kann und den HBM dann nur als Cache nutzt. Gerade im Hinblick auf die Speicherpreise ist das nicht uninteressant, muss sich dann nur zeigen, wie das in der Praxis umsetzbar ist, um nicht an der Bandbreite zu scheitern. Noch steckt der Kram ja in den Kinderschuhen, ist aber wirklich eine gute Idee. An Ideenreichtum mangelt es AMD nicht, nur gehen nicht alle auf oder setzen sich durch.
Ansonsten ist so ein Kaby-G nichts für eine Konsole, HBM ist teuer und die Grafik zu klein.

Ist eigentlich bei dem von Intel angepassten Treiber auch FreeSync freigegeben? Da FreeSync offener Standard ist, kann Intel nicht nur mit Vega, sondern auch mit ihrer künftigen eigenen Grafikkarte auf FreeSync setzen, da würden die Argumente für G-Sync dahinschmelzen. Bisher reiten die Nvidia-Fans darauf rum, dass FreeSync genauso propritär ist, weil es nur mit AMD läuft...
 
Zuletzt bearbeitet:
Sieht so aus, als wäre GCN einfach nicht (mehr) für HighEnd geeignet, egal in welcher Generation. Ansonsten ist Vega echt nicht schlecht, auch die Niedrigen Taktraten im Idle sind da lobenswert.
 
Herdware schrieb:
Mir persönlich hat das auch nie eingeleuchtet ("Hifi-Format" wäre völlig in Orndung für mich), aber möglichst kleine, kompakte Bauform scheint bei Spielkonsolen ein extrem wichtiger Faktor zu sein. Jede neue Konsole und jedes Facelift einer bestehenden hat praktisch immer ein kleineres Vormat gehabt, als die Vorgänger. Der Markt verlangt es offensichtlich.

Und was die HBM-Preise angeht: Die würden automatisch mit großen Stückzahlen runter gehen.

Ich denke auch, dass diese spezielle CPU-GPU-Kombi von Intel wahrscheinlich noch nicht in einer massenweise verkauften Konsole landen wird. (Aber sicher in einigen "Steam Machines" oder wie auch immer sowas jetzt genannt wird und ein paar großen Gaming"-Notebooks".)
Aber ich bin überzeugt, dass in den nächsten Konsolengenerationen ganz ähnliches stecken wird. Sei es in Form solcher Multi-Chip-Module oder klassischer APUs und ich bin auch ziemlich sicher, dass wir dazu HBM als Shared Memory sehen werden. HBM ist genau das, wonach die Konsolen schon ewig verlangen. Schneller, kompakter Speicher. Dadurch kann man fast das komplette System in einem einzigen Bauteil zusammenfassen. (Als nächstes kommt dann noch der Massenspeicher mit ins SoC. ;) )

Das mit dem Preis wird sich wie gesagt dann bei den großen Stückzahlen auch schnell von selbst erledigen. Grundsätzlich dürfte es sogar billiger sein, HBM-Chips direkt mit zu GPU/CPU/APU auf einen Träger zu pappen, als den Speicher in Form von separaten Bauteilen mit eigenen Gehäusen, die über unzählige Leiterbahnen auf dem PCB angebunden werden müssen, auszuführen. (Oder gar als nachrüstbares Speichermodul.)

Hast du dazu irgendwelche Quellen? Also mir sieht das nicht so aus. PS1>PS2>PS3 (jede ist größer geworden) Die PS4 ist größer als die PS3 Super Slim, Die PS4 Pro ist größer als die normale PS4, xbox > xbox 360 > xbox One jede ist größer geworden, die X etwas kleiner. Bei Nintendo sind die Konsolen tatsächlich mit fast jeder Generation etwas kleiner geworden, aber unerfolgreicher. Ich sehe da kein wirkliches Muster, da hätte die Ouya ja mega der Erfolg sein müssen. ich kann auch keine Studie finden, die das belegt. Und ja, so ziemlich jede generation erhält eine Slim Version, dies liegt aber meistens schlich an einem Die-Shrink und verringerter Kühlung und weniger weil die Kunden danach so laut schreien. Es ist schlicht billiger in der Herstellung.

Dazu kommt, dass die Größe der Konsole nicht durch die Chips zustande kommt, sondern hauptsächlich durch die Kühlung. 200 Watt lassen sich halt nicht in einem 5x5x1cm kleinen Kästchen effizient und leise wegkühlen. Andere nicht beliebig schrumpfbare Bauteile wie Laufwerke, netzteile etc. kommen noch dazu. Das Thema Kühlung hingegen ist ein physikalisches Problem.

Und natürlich senkt die Abnahmemenge den Preis, nur kann man die Produktion nicht beliebig erhöhen und die Kosten nicht beliebig in der Produktion senken. HBM hat den nachteil des Interposers. dieser wird auch aus Silizium gefertigt und ist aufgrund seiner Größe ein enormer Kostentreiber. Deshalb setzt AMD auch nur noch auf zwei HBM stacks bei Vega, 4 Stacks sind schlicht zu teuer in der Umsetzung.

Ich bin ziemlich überzeugt, dass die nächsten konsolen wieder auf klassischen GDDR Speicher setzen, den aus wirtschaftlicher Sicht macht HBM absolut keinen Sinn. Man steigert das Produktionsrisiko und die Kosten ohne echten Nutzen. Das ist aber das typische "Problem" in Technikforen. Die Leute denken was alles Toll und schön wäre, aber wirtschaftlich macht das meistens keinen echten Sinn. Eine Konsole muss möglichst billig sein, damit sie sich stark verbreitet. Daher haben Spielekonsolen auch nur eine sehr geringe Marge. Es geht darum eine Plattform in den Markt zu bringen um Spiele zu verkaufen. Denn die in den Spielen enthaltenen lizenzkosten ergeben den Gewinn für die hersteller und nicht die Spielekonsole selbst. Daher wird da mit Spitzen bleistift kalkuliert. Zumal sich mit klassischem Speicher auch recht kleine Konsolen bauen ließen.

Shared Memory auf Basis von GDDR5 haben wir schon heute in den Konsolen. Ein paar Leiterbahnen auf eine Platine zu bringen kostet nicht viel. Riesige Siliziuminterposer hingegen sind teuer in der Produktion und man kann die Kosten nicht beliebig senken.


Wenn ich das sehe ist es umso unverständlicher warum Vega nicht in die Mitteklasse á la RX670/680 kommen soll.

Könnte mir vorstellen, dass es schlicht zu teuer ist einen Vegachip mit riesen Speicherinterface zu entwickeln. Man bräuchte mindestens 384 Bit, damit die GPU nicht total im Bandbreitenlimit hängt. Polaris hat mit den 256Bit schon starke Probleme. 2 HBM2 Stacks sind für die Mittelklasse hingegen wieder zu teuer und ein Stack müsste maximal ausgebaut sein, um genug Speicherkapazität zu liefern, wäre aber auch noch zu langsam.

Polaris hingegen ist günstig zu produzieren. Relativ kleiner Chip, GDDR, recht kleines Interface. Vega wäre schlicht teurer für AMD oder zu sehr limitiert.
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Welchen Nutzen hätte das ganze in einer Konsole? Die Konsole wäre nur super teuer dadurch. In einer Konsole hat man keinen Platzmangel, man hat genügend Fläche zur verfügung. Konsolen sind stationäre Geräte. die Größe ist kein wirkliches Verkaufsargument und so kann man sich da auf andere Dinge konzentrieren. zudem dürfte der HBM Speicher deutlich zu teuer sein.

Wieso sollte es keinen nutzen haben, wenn man Sony und Microsoft alles in einem liefert? Allein in Sachen Kühlung wäre das durchaus vorteilhaft und man muss die Platinen nicht noch extra mit Ram bestücken. Ein Arbeitsschritt weniger ;-)
Aber du darfst halt nicht von jetzt ausgehen, aktuell ist HBM noch zu teuer, wird aber auch günstiger werden und wäre dann für zukünftige Lösungen gegen Ende 2019 bzw. 2020 durchaus denkbar um dann 4k Gaming mit durchgehend hoher fps Anzahl zu realisieren.

Shoryuken94 schrieb:
Die Vega Grafikeinheit in dem Chip hat ca. 3,3Tflops. Eine Xbox One X kostet weniger als die Hälfte, liefert fast die doppelte Leistung und dürfte den meisten wohl klein genug sein. Zudem hat sie eine voll Wohnzimmer taugliche Kühlung und die Komponenten sterben nicht halb den Hitzetod.

Du verwechselst da was, die gesamte Konsole hat knapp über 6Tflops an Leistung nicht nur die Grafikeinheit ;-) Außerdem wissen wir ja nicht wie hoch Vega hier taktet und wie hoch sie in einer Konsole takten kann? Oder wie die neuen Features dann in der Konsole umgesetzt werden?
Also ich sehe da durchaus Potenzial für die Zukunft, kombiniert mit einem Ryzen mit 4/8 oder 6/12, wobei ich aus kostengründen eher von einer 4/8 Threads Variante ausgehe und dazu eine schöne Vega.
Wobei sie ja auch nicht zwingend auf HBM gehen müssen, könnten dies ja durchaus auch kostengünstiger mit 16GB GDDR6 realisieren und ein schön breites Speicherinterface, aber unter 500€ würde die Konsole dann wohl nicht kosten.

Ist aufjedenfall interessant, wie das in Zukunft aussehen wird, denke wird aufjedenfall wieder eine AMD Lösung werden, da intel und nvidia nicht kostengünstiger anbieten werden können bzw. auch nicht wollen, wenn ich da an ihre Margen denke.
 
Wenn der HBCC (High Bandwith Cache Controller) genutzt wird, ermöglicht dieser nicht nur den Zugriff und die Verwendung von Arbeitsspeicher als Grafikspeicher, sondern es erfolgt auch eine intelligente Speichersortierung.
Schnell und oft benötigte Daten werden im Cache bevorratet, weniger relevante Daten/Texturen und was immer dann im Arbeitsspeicher.
Davon bekommt man als Anwender nicht viel mit - über den Taskmanager kann man aber sehen in wie weit welche Speicher genutzt und ausgelastet werden.

Ganz wichtiger Punkt hierbei - nach Vega Release waren die Leute ernüchtert und fragten " ja wo ist denn jetzt der Performancegewinn durch den HBCC?"
Ganz einfach falsch gedacht, denn das besondere ist doch viel eher, dass der VRAM mit langsamen RAM vergrößert wird, aber dennoch kein Performanceverlust stattfindet!

Hier mal Vega an der Kotzgrenze in der Gamewürgs FF15 Demo zum zeigen. Um Minute 6-7 rum läuft der VRAM über und übersteigt die 8GB des HBM. Dass nun weitere 1-2 GB im RAM adressiert werden und ausgelagert sind merkt man an der Performance jedoch nicht.

https://www.youtube.com/watch?v=pH0WF3kCZF8&t=

(Wer Probleme mit seiner Radeon in FF15 hat -> Grafik-Assets deaktivieren und Beleuchtung runterregeln, dann ist alles gut. Das Vid oben ist halt einfach mal Max-Settings durchrattern)
 
Hab mich mal durch den Playwares Artikel geklickt und mir die Bilder angeguckt und der CPU Part ist... krass.

Und weil ich's nicht so ganz glauben konnte, habe ich mal einen Vergleich zu meinem 7700HQ gezogen.

7700hq.png7700hq_1.png

Für 800 MHz All-Core Turbo (4,2 GHz vs. 3,4 GHz) mehr braucht der 8000er Kaby Lake-G ca 150mV mehr.
Die max. 112 Watt für die CPU bei AIDA64 Engineer finde ich aber am 'schlimmsten', das würde die CPU für kompakte Notebooks relativ unbrauchbar machen.

'Hoffe' einfach mal, dass die CPU hier über dem Sweet Spot läuft und sich bei 3,8 GHz ähnlich wie ein 7700HQ verhält. Sowohl was den Verbrauch, als auch die Temperaturen angeht. Ansonsten war es das mMn mit der interessanten Intel-Vega-APU.
 
Bärenmarke schrieb:
Wieso sollte es keinen nutzen haben, wenn man Sony und Microsoft alles in einem liefert? Allein in Sachen Kühlung wäre das durchaus vorteilhaft und man muss die Platinen nicht noch extra mit Ram bestücken. Ein Arbeitsschritt weniger ;-)
Aber du darfst halt nicht von jetzt ausgehen, aktuell ist HBM noch zu teuer, wird aber auch günstiger werden und wäre dann für zukünftige Lösungen gegen Ende 2019 bzw. 2020 durchaus denkbar um dann 4k Gaming mit durchgehend hoher fps Anzahl zu realisieren.

Man hat heute schon APUs, da wäre kein Vorteil in der Kühlung, eher ein Nachteil, denn HBM Speicher wird verdammt heiß! GDDR begnügt sich mit nem Wärmeleitpad ^^ Und ein Arbeitsschritt ist bei einer Vollautomatisierten Bestückung wohl zu verkraften. HBM bedeutet hingegen zusätzliche Komplexe Siliziumchips. Die HBM Stacks ansich Plus der Interposer, welche schließlich auch auf die Platine wollen. Von den Arbeitsschritten spart man da nichts. Man erhöht nur die Anzahl komplexer Bauteile.

Du verwechselst da was, die gesamte Konsole hat knapp über 6Tflops an Leistung nicht nur die Grafikeinheit ;-)

Nein mache ich nicht... Die Xbox One X GPU besitzt 40 CUs (2560 Shader) und ist mit 11720 Mhz getaktet. Die GPU liefert damit exakt 6,00064 Tflops.

Außerdem wissen wir ja nicht wie hoch Vega hier taktet und wie hoch sie in einer Konsole takten kann?
Na klar wissen wir das, der i7 8809G taktet die GPU in der Basis mit 1063 und im Turbo mit bis zu 1190mhz. Ob der Turbo bei der Temperatur voll ausgefahren wird auf dauer wage ich mal zu bezweifeln. Die konsolen taktet meistens relativ konservativ und deutlich unterhalb dedizierter Lösungen.
 
Hoffentlich wird es das auch als standalone board geben, dann kann man das mit einem hochwertigeren gehäuse und vernünftigen Kühler kombinieren.
Ist doch klar dass die beiden radiallüfter das nicht bringen wenn direkt im Ansaugbereich die Plastikabdeckung des flachen Gehäuses sitzt. Da hätten zumindest Löcher sein müssen. Und die Lamellenfläche ala Notebook ist auch nicht gerade großzügig. schade, in der gehäusegröße hätte man auch was mit nem einzelnen größeren zentralen radiallüfter und stacked lamellen wie bei der ursprünglichen ps3 unterbringen können, was sicher effektiver gewesen wäre.

Der Formfaktor von hades canyon macht thermisch einfach nicht viel Sinn.
 
Wenn der HP spectre X360 15 Freesync auf dem internen Dislplay kann wird er auf jeden Fall gekauft!
 
Für mich schon interessant das teil da ich auf maximale Mobilität angewiesen bin und Gaming Laptops, zumindest die erschwinglichen, nicht ausstehen kann. Externe GPU hat ca 20% Leistungseinbußen für SEHR teures Geld. Lösung wäre normal eine Mini ITX System welches dann aber keine portablen Monitore anschließen kann die die interessanten exklusiv Type-C nutzen welches keine Graka im Moment bietet. Insofern ist das NUC für meinen ganz speziellen Anwendungsbereich durchaus interessant.
 
Jo ist interessant aber muss auch günstiger sein als eine andere Lösung. Weil wo ist sonst der Vorteil?
 
Shoryuken94 schrieb:
Ein paar Leiterbahnen auf eine Platine zu bringen kostet nicht viel. Riesige Siliziuminterposer hingegen sind teuer in der Produktion und man kann die Kosten nicht beliebig senken.

Das sehe ich nicht so. Mehrlagige PCBs sind nicht billig und je komplexer (mehr Leisterbahnen/Lagen) um so teurer.
Da ist auch nicht mehr viel rauszuholen, denn die Prozesse sind seit Jahren/Jahrzehnten weitgehend optimiert. Das wird eher durch steigende Rohstoffkosten nur immer teurer.
(Ergänzung: Dazu kommen die Kosten für die einzelnen Bauteile, ihre Bestückung, Lagerhaltung usw. usw.)

HBM hat hingegen noch riesiges Potential billiger zu werden. Die Technik steckt noch in den Kinderschuhen.

Integration möglichst vieler Bauteile war schon immer die wirtschaftlichste Lösung. Der/die/das (aus Herstellungssicht) perfekte PC/Notebook/Spielkonsole besteht nur noch aus einem einzigen Bauteil. Dahin geht der Trend seit Jahrzehnten und ich bin sicher der bleibt auch nicht stehen oder kehrt sich gar um.

Man muss sich nur mal anschauen, wie heutige Mainboards oder Grafikkarten aussehen und wie vor 20 oder 30 Jahren. Ja, die einzelnen Chips sind um einiges größer geworden, aber das ist trotzdem viel billiger herzustellen als die Armeen von Chips, die früher PCBs bevölkert haben.
 
Zuletzt bearbeitet:
Zurück
Oben