News H-Serie für Notebooks: Mobile Intel-Core-CPUs ab 2018 auch mit GPU von AMD

Paukenschlag!
Da ging Intel auf irgendeine Weise die Duese...
 
Zuletzt bearbeitet:
Limit schrieb:
Das mag für die Mac- und Windows-Welt zutreffen, unter Linux gibt es bereits viele für ARM angepasste und optimierte Programme und auf diese beziehe ich mich auch. Schau mal auf OpenBenchmarking.org. Da gibt es ein paar Real-World-Tests mit ARM-Entwickler-Boards. Da sind zwar meist keine High-End-SoCs verbaut (der beste getestete ist wohl nVidias Denver2), aber man sieht, dass die ARM-SoCs im Vergleich zu Geekbench deutlich schlechter abschneiden.

Wie optimiert die wirklich sind wird sich noch zeigen müssen.
Geekbench 4.1 hat den Vorteil das es alle (zumindest die meisten) momentan relevanten arten von Berechnungen abdeckt.

"Gibt es einen Software-Encoder für iOS? Die Performance des Hardware-Encoders sagt nichts über die CPU-Leistung aus."
Nicht das ich wüsste.
Gibt es den überhaupt schon kompakte Hardware Encoder für h265 ?

"Spiele"
Sogar mit dem Emulator sollen Spiele wie World of Tanks (gezeigt wurde nur der Hangar) und LoL laufen.
Auf der Switch läuft Doom mit stabilen 30 FPS auf 3 A57 Kernen mit nur 1 Ghz takt (der A11 ist da bestimmt mehr als 5 mal so schnell).
Die Jaguar CPUs der PS4 und Xbox One Schaffen es nicht immer konstante 60 FPS zu halten.
Natürlich spielen da API und Optimierung mit rein jedoch zeigt es das selbst alte und Schwache ARM CPUs zu großem in der Lage sind.
Im Großen Bereich (Server und Supercomputing) dominiert ARM momentan den Supercomputerbereich (die 2 Schnellsten nutzen ARM) und Quallcom greift Xeon und Epyc an.

Übrigens.
Intel will noch dieses Jahr eigene ARM CPUs auf den Markt bringen (komplett eigenes Kern Design).
Das ganze soll im 10nm Fertigungsverfahren kommen.
Einfach mal so weil CB es mehr oder weniger Ignoriert hat.
 
Zuletzt bearbeitet von einem Moderator:
Atent123 schrieb:
Übrigens.
Intel will noch dieses Jahr eigene ARM CPUs auf den Markt bringen (komplett eigenes Kern Design).
Das ganze soll im 10nm Fertigungsverfahren kommen.
Einfach mal so weil CB es mehr oder weniger Ignoriert hat.

Das glaub ich erst wenn ich es sehe.
 
Steini1990 schrieb:
Das glaub ich erst wenn ich es sehe.

Wurde offiziell von Intel angekündigt.
https://www.tomshardware.de/arm-soc-intel-smartphone,news-258673.html
https://www.drwindows.de/news/intels-erste-arm-chips-sollen-noch-in-diesem-jahr-fertig-werden

Dazu will Intel auch noch seine Fertigung für andere ARM Hersteller anbieten.
https://www.heise.de/newsticker/meldung/Intel-will-ab-2018-10-nm-SoCs-fertigen-3879309.html

Die Computerbase Redaktion hat das Bisher mehr oder weniger Ignoriert.
 
Zuletzt bearbeitet von einem Moderator:
Atent123 schrieb:
Wie optimiert die wirklich sind wird sich noch zeigen müssen.
Geekbench 4.1 hat den Vorteil das es alle (zumindest die meisten) momentan relevanten arten von Berechnungen abdeckt.
Die Kritik an Geekbench betrifft in erster Linie die Qualität der Tests.

Atent123 schrieb:
Gibt es den überhaupt schon kompakte Hardware Encoder für h265 ?
Klar gibt es die, praktisch alle modernen ARM Mobil-SoCs haben einen integriert. Bei Qualcomm z.B. schon seit dem 2014 erschienen SD808/810.

Atent123 schrieb:
Auf der Switch läuft Doom mit stabilen 30 FPS auf 3 A57 Kernen mit nur 1 Ghz takt (der A11 ist da bestimmt mehr als 5 mal so schnell).[..]Die Jaguar CPUs der PS4 und Xbox One Schaffen es nicht immer konstante 60 FPS zu halten.
Das ist ein etwas unfairer Vergleich, Switch mit 30fps bei 720p, die beiden anderen Konsolen mit 60fps bei 1080p. Zudem würde es mich nicht wundern, wenn man bei der Switch zusätzlich noch ein paar Sachen abgeschaltet hat, denn 30FPS ist für einen Shooter schon suboptimal. Zudem dürfte zumindest bei Jaguar eher die GPU limitieren. Auf dem PC erreicht z.B. die stärkere Tonga-GPU selbst mit einem flotten i7 keine Werte konstant über 60fps. Mit einer schnelleren GPU ist aber selbst ein alter Pentium G 2C/2T mit 2.5GHz ausreichend für deutlich höhere Werte.

Atent123 schrieb:
Im Großen Bereich (Server und Supercomputing) dominiert ARM momentan den Supercomputerbereich (die 2 Schnellsten nutzen ARM) und Quallcom greift Xeon und Epyc an.
Woher hast du das? Auf der aktuellen Top500 Liste in nicht ein einziges System mit ARM gelistet. Der schnellste Rechner nutzt eine propritäre RISC-CPU, dazu kommen in den Top10 noch fünf Xeons, zwei Power-CPUs und je ein Opteron und ein SPARC.
Bisher habe die ganzen Server-ARM-SoCs nicht wirklich was gerissen. Es gibt sicherlich ein paar Nischen, wo sie sinnvoll sind, auf breiter Front sehe ich darin aber keine Gefahr für Xeon, Epyc oder Power.
 
Zuletzt bearbeitet:
Limit schrieb:
Woher hast du das? Auf der aktuellen Top500 Liste in nicht ein einziges System mit ARM gelistet. Der schnellste Rechner nutzt eine propritäre RISC-CPU, dazu kommen in den Top10 noch fünf Xeons, zwei Power-CPUs und je ein Opteron und ein SPARC.

https://www.top500.org/lists/2017/06/

Der Sunway Taihu Light nutzt ARM v8 Kerne.

Edit: Muss ich zurück ziehen habe mich vertan das ist doch eine eigene Architektur.

"Die Kritik an Geekbench betrifft in erster Linie die Qualität der Tests"

Habe ich verstanden jedoch ist er trotzdem Quanitativ Super

"Das ist ein etwas unfairer Vergleich, Switch mit 30fps bei 720p, die beiden anderen Konsolen mit 60fps bei 1080p. Zudem würde es mich nicht wundern, wenn man bei der Switch zusätzlich noch ein paar Sachen abgeschaltet hat, denn 30FPS ist für einen Shooter schon suboptimal. Zudem dürfte zumindest bei Jaguar eher die GPU limitieren. "

Auflösung hat nichts mit der CPU zu tun und die details sins zwar auf Low jedoch sind alle Effekte noch vorhanden.
Würden die Framedrops an der GPU liegen würde sich durch die eingebaute dynamische Auflösung einfach die Auflösung senken (wie es auf der Xbox One ja auch häufig passiert).
Das ganze muss also an der CPU (oder an irgendeinem Bug liegen jedoch wäre der wohl ausgemerzt) liegen.
 
Zuletzt bearbeitet von einem Moderator:
Hi ,

@MichaG im Artikel schreibst du "Allerdings lässt der Einsatz von HBM2 eher eine Vega-GPU vermuten". Aufgrund des CL_DEVICE_NAME "gfx804" bei compubench würde ich aktuell eher davon ausgehen, dass AMD hier Polaris für HBM2-Speicher fit gemacht hat, da Vega sich dort als gfx9-Serie ausweist.

@topic Auch wenn Notebooks in diesen Preisregionen für mich uninteressant sind (hab keine Verwendung dafür) bin ich sehr gespannt, was hier am Ende rauskommt. Wenn die CPU jetzt noch den HBM als Cache nutzen kann wird's richtig fies :)

Gruß

Jan

edit: Laut llvm.org entspricht gfx804 sogar gfx803. Und unter dieser Bezeichnung laufen Fiji und Polaris.

edit2: compubench ist natürlich Käse, ich meinte die Geekbenchergebnisse bei wccftech, die Kantico hier verlinkt hat.
 
Zuletzt bearbeitet:
So wie es aussieht sind sie mit 1536 Shadern und 1190MHZ Takt in Richtung kleiner RX 470 unterwegs, also auf Niveau der 1050ti oder besser.
 
Atent123 schrieb:
Der Sunway Taihu Light nutzt ARM v8 Kerne.
Laut Hersteller benutzt es eine eigene ISA namens Shenwei-64 und dieser ist anscheinend der DEC Alpha Architektur nicht ganz unähnlich.

Atent123 schrieb:
Habe ich verstanden jedoch ist er trotzdem Quanitativ Super
Solange man nur SoCs mit ähnlicher Architektur vergleicht ist er durchaus brauchbar. Für Vergleiche zwischen Architekturen oder als Benchmark für Desktop-Performance ist weniger geeignet.

Atent123 schrieb:
Auflösung hat nichts mit der CPU zu tun und die details sins zwar auf Low jedoch sind alle Effekte noch vorhanden.
Das kommt drauf an, ob einer der Kandidaten nicht doch ins GPU-Limit rennt.

Atent123 schrieb:
Würden die Framedrops an der GPU liegen würde sich durch die eingebaute dynamische Auflösung einfach die Auflösung senken (wie es auf der Xbox One ja auch häufig passiert).
Da ich mich kaum mit Konsolen beschäftige, kann ich nicht wirklich viel dazu sagen. Allerdings schaffen auf dem PC selbst alte Low-End-CPUs die 60fps locker (Pentium G3258 2C/2T untertaktet auf 2.5GHz kommt mit einer 980Ti auf min. 69fps). Auf einem Intel Core i7-6700K (4C/8T@4GHz) braucht es aber trotzdem min. eine R9 290 (Hawaii) um die 60fps-Marke bei 1080p auch nur gerade mal so zu erreichen. Das wurde übrigens mit OpenGL getestet. Bei späteren Tests mit Vulkan ging die Framerate bei kleineren CPUs schnell mal um mehr als 50% hoch. Kurz gesagt ist Doom, vor allem mit einer Low-Level-API, eher sparsam wenn es um CPU-Leistung geht, braucht aber definitiv eine schnelle GPU.

DonL_ schrieb:
So wie es aussieht sind sie mit 1536 Shadern und 1190MHZ Takt in Richtung kleiner RX 470 unterwegs, also auf Niveau der 1050ti oder besser.
Von der Rohleistung kommt sie nicht ganz an eine RX470 heran zumal es eher unwahrscheinlich ist, dass bei einer TDP von 45W (inkl. CPU) die 1190MHz dauerhaft gehalten werden kann. Natürlich dürfte es auch darauf ankommen, ob es sich um eine Polaris- oder Vega-Ableger handeln wird.
 
Zuletzt bearbeitet:
Das bedeutet wohl auch dass es CPU mit GT4 und vermutlich auch GT3+ HD Grafik bei Intel zukünftig nicht mehr geben wird, zumindest so lang der Deal mit AMD laufen wird.

Was ich mich frage: Wird Intel da ganz normale Kaby-Lake Chips nehmen u. die on-Chip Grafik deaktivieren oder wird Intel hier besondere Chips produziere welche erst gar keine iGPU haben, dafür eine besondere Schnittstelle zur GPU auf dem separaten Chip?

Ich könnte mir vorstellen dass Intel bei zukünftigen CPU-Generationen wieder verstärkt auf ein Multi-Die-Konzept setzen wird.
Zusätzliches RAM (L3-Cache) u. die GPU jeweils auf ein separates Die setzen u. dadurch die Ausbeute bei der Produktion steigern.
Die GT2 Grafik belegt heute bereits ca. 1/3 der Chipfläche bei den CPU (bei Vierkernern, bei Zweikernern prozentual sogar noch mehr).
 
Zuletzt bearbeitet:
WinnieW2 schrieb:
Was ich mich frage: Wird Intel da ganz normale Kaby-Lake Chips nehmen u. die on-Chip Grafik deaktivieren oder wird Intel hier besondere Chips produziere welche erst gar keine iGPU haben, dafür eine besondere Schnittstelle zur GPU auf dem separaten Chip?
Bei der jetzt anstehenden H-Serie wird man wohl eher kein neues Die auflegen, dafür dürften einfach die Stückzahlen nicht hoch genug sein. Für ein 4C-Design ohne iGPU hat man ansonsten eigentlich keine Verwendung. Sollte Intel auch andere Serien mit AMD-GPUs austatten, könnte es interessant werden. Aber selbst dann würde ich die Wahrscheinlichkeit, dass Intel AMDs Infinity Fabric implementiert als eher gering einschätzen. Zumal ich nicht wüßte für welche Segmente eine APU mit schneller Grafik sonst noch interessant sein könnte, denn bei den Desktops dürfte einerseits ein GT2 für Büro-PCs ausreichen und andererseits dürften die Spiele weiterhin dGPUs bevorzugen.

WinnieW2 schrieb:
Zusätzliches RAM (L3-Cache) u. die GPU jeweils auf ein separates Die setzen u. dadurch die Ausbeute bei der Produktion steigern.
Die GT2 Grafik belegt heute bereits ca. 1/3 der Chipfläche bei den CPU (bei Vierkernern, bei Zweikernern prozentual sogar noch mehr).
Du sprichst hier von relativen Größen. Für die Kosten sind allerdings eher die absoluten Größen von Bedeutung. Man sollte auch bedenken, dass zwei Dies mehr Fläche brauchen als ein Die, der die selben Aufgaben erfüllt. Zusätzlich enstehen weitere Kosten durch das MCM und den zusätzlichen Testaufwand. Deswegen lohnt sich das nur bei großen Dies, bei denen der Verschnitt und die Fehlerraten hoch sind.
Bei einem Coffee Lake mit ~126mm² (Quad) bzw. ~149mm² (Hexa) dürfte sich das sicherlich nicht lohnen. Bei den Server-Chips dürfte selbst Skylake X (18C, ~485mm²) eher noch nicht so sehr davon profitieren. Erst Skylake-SP mit seinen ~698mm² wäre ein guter Kandidat dafür.
 
Zuletzt bearbeitet:
Steht irgendwo geschrieben das das ganze packet nur 45 Watt TDP haben darf? Ich hoffe das es auch Möglichkeiten gibt das man dort mehr abrufen kann um die CPU bzw GPU einfach etwas höher zu takten. Ebenso wäre ein 6 Core CPU ne feine Sache... hatte gehoft die kommen mit der 8 gen H Serie.
 
Grenzen werden da wohl bei der Kühlung schnell kommen. Die Dinger sind ja eher für kompakte und relativ leistungsstarke Notebooks gedacht, deswegen baut man ja alles in einem Package. Daher dürfte die Kühlung auch eher auf Kante genäht sein.

Ob die TDP dann durch den OEM einstellbar ist, ist meines Wissens nicht bekannt. Dadurch könnten die OEMs immerhin bei den Modellen etwas variieren und mit größerer Kühlung auch mehr TDP zulassen.

@Limit
Genau, deshalb wird Raven Ridge auch als ein Die gefertigt und nicht, wie einige (teils berechtigter Weise) vermutet haben, auch als MCM kommen. Man hätte sonst auch ein Die mit einem CCX und dann eine GPU zupacken können. Immerhin wurde mit Epyc und Threadripper gezeigt, wie das so funktioniert und Vega ist auch mit IF konstruiert.
 
Zuletzt bearbeitet:
WinnieW2 schrieb:
Das bedeutet wohl auch dass es CPU mit GT4 und vermutlich auch GT3+ HD Grafik bei Intel zukünftig nicht mehr geben wird, zumindest so lang der Deal mit AMD laufen wird.

GT3e steht weiterhin auf Intels Roadmap (15 - 28W, CFL mit 4C+GT3e). Effektiv ersetzt Intel hierdurch GT4e (45W) und viel weiter nach unten (weniger 35W) wird sich das Design eher nicht sinnvoll skalieren lassen.

Hinzu kommt der Platzbedarf. 2C/4C+GT3e hat die PCH und eDRAM on Package. Mit einer dGPU+HBM und der PCH wäre das Package deutlichst größer als bisher. Die hier vorgestellte Variante mit CPU und dGPU+HBM hat wie alle H SKUs keine PCH on Package (-> Mainboard). Ist damit für kompakte Geräte (13 - 14) Zoll kaum geeignet.


Was ich mich frage: Wird Intel da ganz normale Kaby-Lake Chips nehmen u. die on-Chip Grafik deaktivieren oder wird Intel hier besondere Chips produziere welche erst gar keine iGPU haben, dafür eine besondere Schnittstelle zur GPU auf dem separaten Chip?

Die dGPU wandert vom Board auf das CPU Package und ist für EMIB mit Blick auf Intels Animationen zu weit von der CPU entfernt. Also sehr sicher PCIe über das Package zur dGPU und eine weiterhin sowohl vorhandene als auch aktive Intel IGP (GT2). Ohne IGP und Umschaltung auf die dGPU bei Bedarf wie bei Notebooks heute üblich wäre das Paket bezogen auf die Akkulaufzeit schlechter als das was es bereits gibt.

Auf den Energiebedarf einer IGP im normalen Office/Media Betrieb lässt sich eine dGPU mit eigenem Speicher/Controller welche über PCIe angebunden ist unmöglich drücken. Hinzu kommt das Intels GPU Architektur in diesem Kontext (Low Power, Power Management) inzwischen richtig gut ist.

Sunjy Kamikaze schrieb:
Ebenso wäre ein 6 Core CPU ne feine Sache... hatte gehofft die kommen mit der 8 gen H Serie.

CFL mit 6C+GT2 bei 45W wird auch kommen. Allerdings erstmal nicht mit dGPU on Package. Die Produkte sprechen genaugenommen nicht die gleichen Gerätedesigns an.
 
Zuletzt bearbeitet:
Ozmog schrieb:
Grenzen werden da wohl bei der Kühlung schnell kommen. Die Dinger sind ja eher für kompakte und relativ leistungsstarke Notebooks gedacht, deswegen baut man ja alles in einem Package. Daher dürfte die Kühlung auch eher auf Kante genäht sein.

Ob die TDP dann durch den OEM einstellbar ist, ist meines Wissens nicht bekannt. Dadurch könnten die OEMs immerhin bei den Modellen etwas variieren und mit größerer Kühlung auch mehr TDP zulassen.


Solange die CPU den Turbo allcore halten kann unter lasst wäre das schonmal ausreichend. ;)
 
YforU schrieb:
Ohne IGP und Umschaltung auf die dGPU bei Bedarf wie bei Notebooks heute üblich wäre das Paket bezogen auf die Akkulaufzeit schlechter als das was es bereits gibt.

Auf den Energiebedarf einer IGP im normalen Office/Media Betrieb lässt sich eine dGPU mit eigenem Speicher/Controller welche über PCIe angebunden ist unmöglich drücken. Hinzu kommt das Intels GPU Architektur in diesem Kontext (Low Power, Power Management) inzwischen richtig gut ist.

Mal sehen, wie groß die Differenz noch ausfällt. Aufgrund der Größe und des zusätzlichen HBMs wird das Vega-Modul natürlich nicht die Intel-iGP in Sachen Verbrauch schlagen, aber immerhin ist Vega da trotzdem sehr genügsam, da sie auch sehr weit runter takten kann, der HBM ebenso. An der großen Vega sieht man das Potential schon ein wenig, im Idle sind sie für ihre Größe schon recht genügsam.

Schauen wir mal, wie es bei Raven-Ridge so aussieht, da könnte es schon ein interessantes Duell geben zwischen Intel-IGP und Vega-IGP (von der Leistung unter Last dürfte es relativ klar ausgehen). Vergleich der 15W TDP Modelle natürlich.

Sunjy Kamikaze schrieb:
Solange die CPU den Turbo allcore halten kann unter lasst wäre das schonmal ausreichend. ;)

Ohne GPU-Last vielleicht, aber mit GPU wird es wohl knapp, müssen die Beiden sich das TDP-Budget doch teilen. Damit dürfte wahrscheinlich unter Grafiklast der Turbo der CPU nicht gehalten werden, dafür ist es auch ein Turbo und kein Basistakt.
Dürfte aber meistens nicht so sehr ins Gewicht fallen, bei den meisten Spielchen dürfte die GPU trotzdem ausreichend gefüttert werden und bei Anwendungen, die sowohl GPU als auch CPU nicht unerheblich verwenden, sollte man nicht vergessen, dass es sich hierbei um Geräte für den mobilen Einsatz handelt und keine Workstation, wo man genug Platz für Kühlung hat. Wie gesagt, diese Lösung dürfte nur in einige recht Kompakte und dafür auch noch relativ leistungsstarke Notebooks eingesetzt werden. Mobil ist halt immer ein Kompromiss, auch wenn die Latte immer weiter nach oben geschoben wird. Modelle mit "echter" dGPU dürften noch lange nicht das Zeitliche gesegnet haben, nicht nur für leistungsstärkere Geräte sondern wahrscheinlich auch für ungefähr gleichwertige Performance, dafür halt mit anderen Vor- und Nachteilen, die Preis, Größe, Gewicht, Kühlung und Akkugröße betreffen können.
 
Zuletzt bearbeitet:
Die Performance von Vega M (IGP, Raven Ridge) ist sicherlich bei gleicher TDP höher. Den Energiebedarf im Leerlauf und Office Desktop/Video (für die Akkulaufzeit bei Notebooks am relevantesten) würde ich aber eher leicht über Intels Gen9.5 einordnen. Im Gegensatz zu Gen9.5 (und Polaris 11) hat sich AMD Powergating der CUs/EUs bei Vega M gespart.

Im Gegensatz zu Gen9.5 ist Vega keine Architektur welche explizit für die Skalierung bis hinunter auf ULP SoCs (kleiner 4W) entwickelt wurde. Sowohl Intel als auch Nvidia wollten in den Smartphone Markt und haben entsprechend in ihre GPU Architekturen investiert.
 
Zuletzt bearbeitet:
Atent123 schrieb:
Gibt es den überhaupt schon kompakte Hardware Encoder für h265 ?

Die neueren ARM SoCs können es alle und beim PC haben AMD, Nvidia und Intel entsprechend encoding Support dafür. Ich benutze das regelmäßig bei meiner GTX960 mit ffmpeg.

Atent123 schrieb:
"Spiele"
Auf der Switch läuft Doom mit stabilen 30 FPS auf 3 A57 Kernen mit nur 1 Ghz takt (der A11 ist da bestimmt mehr als 5 mal so schnell).
Die Jaguar CPUs der PS4 und Xbox One Schaffen es nicht immer konstante 60 FPS zu halten.
Natürlich spielen da API und Optimierung mit rein jedoch zeigt es das selbst alte und Schwache ARM CPUs zu großem in der Lage sind.

Bei der Switch Version wird nur in 720p gerendert und man hat die Grafik ganz Massiv eingeschränkt damit es mit 30fps läuft. Wenn man bei der Switch auf eine Optimierung von FP16 verzichtet, ist das System nicht nennenswert schneller als die WiiU.
 
Zuckerwatte schrieb:
Und wo hat Nvidia Erfahrung mit IGPUs? Wohl eher mit dedizierten Lösungen...

Das Problem ist..niemand will sich selbst auslötende Grafikchips im Notebook *auf den Mann mit der Lederjacke und dem Holzbrett schiel*
Tegra dürfte doch sehr nah dran sein an iGPU. Ich denke, es ist weitaus schwieriger, ein SoC mit GPU zu entwickeln, als eine GPU in ein Package mit einer CPU zu stecken.
Des Weiteren glaube ich nicht, dass NVidia unfähig ist, Probleme einer weit vergangenen Produktion zu beheben.

Mir persönlich wäre Pascal oder Volta in einer Intel CPU weitaus lieber gewesen. Aber so oder so ist es ein enormer Fortschritt.
 
Zurück
Oben