Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Kaby Lake-G: Startschuss für fünf CPUs mit AMDs Vega‑Grafikeinheit
Heute hat Intel offiziell den Startschuss für Kaby Lake-G gegeben, eine der interessantesten Neuerungen seit Jahren. Eine Kaby-Lake-CPU trifft auf AMDs Vega-Grafik und HBM2 auf einem Multi-Chip-Package. Fünf Modelle sind zu Beginn des neuen Jahres für Notebooks verfügbar, auch NUCs sollen noch im ersten Quartal starten.
Möglicherweise gehen die Verkäufe etwas herunter (Minus 5-10% zum Vorjahresquartal), aber in 2 Wochen ist das Thema eh wieder vergessen und es wird weitergemacht wie vorher.
Die meisten Anwender da draußen haben doch wahrscheinlich nicht einmal mitbekommen, dass das größere Problem von Intel ausging. In den allgemeinen Nachrichten (Radio, Fernsehen) habe ich jedenfalls nie den Intel-Bezug vernommen, nur, dass es alle aktuellen Prozessoren betreffe. Intels Strategie ist da wohl voll aufgegangen.
Und selbst wenn das bekannt wäre, würden sich wohl noch genug Interessenten finden, dadurch sind die Prozessoren ja nicht gleich Schrott. Und selbst wenn sie das wären, würden die meisten es in 2 Monaten wieder vergessen haben.
In jedem Fall ein sehr spannendes Produkt, sowohl aus technischer Perspektive wie auch aus Unternehmens-strategischer. So hat AMD einerseits eine gute Möglichkeit, Geld zu verdienen. Auf der anderen Seite stellen sie sich möglicherweise an der Prozessor-Front selbst ein Bein, weil sie die Synergien, auf die man ja wohl immer hingearbeitet hat, seit man ATI übernahm, nun auch Intel zur Verfügung stellen.
Du überschätzt die Intelligenz der Maße (bzw. unterschätzt die Dummheit)
Die meisten kapieren nicht mal im Ansatz um was es geht. Das ganze Fiasko wird Intel Verkaufseinbußen im einstelligen Prozentbereich bringen. Wenn überhaupt.
Ein starker Ryzen 2 tut Intel da viel mehr weh, was die Verkaufszahlen angeht. Die Leute wollen lange Balken, kein Gelaber über Sicherheit
Ergänzung ()
Larnak schrieb:
In jedem Fall ein sehr spannendes Produkt, sowohl aus technischer Perspektive wie auch aus Unternehmens-strategischer. So hat AMD einerseits eine gute Möglichkeit, Geld zu verdienen. Auf der anderen Seite stellen sie sich möglicherweise an der Prozessor-Front selbst ein Bein, weil sie die Synergien, auf die man ja wohl immer hingearbeitet hat, seit man ATI übernahm, nun auch Intel zur Verfügung stellen.
Naja, ein MCM ist jetzt nicht wirklich ein so große Kunst. Die große Kunst war die Idee der Llano-APUs. Und AMD ist grandios daran gescheitert, weil viel zu spät auf dem Markt durch die ganzen Verschiebungen. Sogar solange verschoben, bis die Dinger keiner mehr haben wollt.
Ein MCM hätte damals aber bei AMD Synergieeffekte gehabt und man hätte parallel an einer Integration der GPU auf das CPU-Die arbeiten können, bis es brauchbar ist. Der Wunsch nach dem perfekten Feature, eine APU mit viel Leistung war damals stärker als die Vernunft und hat AMD den ersten Stich versetzt. Die darauf folgende Bulldozer-Architektur tat dann ihr übriges um die Firma zu ruinieren.
Man hat doppelt Geld in den Sand gesetzt: Entwicklung einer APU die niemand haben will und Kauf einer Grafikfirma weit über wert, obwohl man eigentlich nur die Chipsätze in erster Linie wollte/brauchte. Hätte man die Produkte in der Pipeline richtig bewertet vor dem Kauf, hätte man gesehen, was für ein Flop die HD2900 werden würde. Sonst hätte man ATi wohl auch nie kaufen können zu dem Zeitpunkt. Die Besitzer wussten schon, dass die neuen Grafikchips nicht konkurrenzfähig sind.
AMD hätte damals die Chipsätze zukaufen sollen und unter eigenem Namen umgelabelt anbieten sollen (oder gleich wieder selbst welche entwickeln) und die Grafikeinheiten lizensieren sollen, egal bei wem der beiden großen Grafikanbieter.
Kann sein, dass ich das in irgendeinem Bericht mal überlesen habe, aber was passiert nun genau, wenn der VRAM (HBM2) voll ist? Ist er dann einfach voll oder wird auf den Hauptspeicher ausgelagert? Lohnt es sich bei der wesentlich geringeren Speicherbandbreite von DDR4, gegenüber HBM2, den überhaupt mit einzubinden?
Sollte die Leistung zwischen einer Desktop 1050 und 1060 liegen, könnten 4GB knapp werden.
Naja, bei AMD gibt es ja auch noch Spectre und die Workarounds sind im privaten Bereich ja nicht so tragisch, sollten die Sicherheit aber wieder halbwegs hergestellt haben.
So gesehen könnten die Dinger interessant sein, sofern gute Notebooks damit kommen. Komplett auf AMD zu setzen ist natürlich auch eine Option, man erhält aber im Vergleich nur ca. den halben Vega wenn ich mich nicht vertue.
Ansonsten fiel mir auf, dass die letzte Tabelle etwas komisch ist. Zum einen haben dort alle GPUs denselben Takt, obwohl die kleinere laut der anderen Tabelle weniger hat (oder bezieht sich der Takt da auf die Intel-GPU?). Weiterhin sind alle CPUs mit HD 630 angegeben, im Screenshot vom Task Manager hat der 8705G laut Task Manager aber eine HD 620.
Den privaten Endanwender juckt das nicht, darüber hinaus ist auch weiterhin AMD betroffen, wenngleich nicht von Meltdown.
Nach deiner Logik dürfte niemand mehr ein Smartphone kaufen, da sicherlich viele, auch Heute noch erhältliche, teilweise ebenfalls von Meltdown betroffene Geräte wohl niemals gepatcht werden wird.
Du überschätzt die Intelligenz der Maße (bzw. unterschätzt die Dummheit)
Die meisten kapieren nicht mal im Ansatz um was es geht. Das ganze Fiasko wird Intel Verkaufseinbußen im einstelligen Prozentbereich bringen. Wenn überhaupt.
Der Fehler ist seit über 20 Jahren drin und keiner hat sich beim Kauf je daran gestört.
Wird das bis Kaby Lake-G start nicht behoben und damit völlig irrelevant sein?
War nicht einer von beiden Fehlern auch in sämtlichen AMDs?
Warum sollte AMD davor gefeit sein ähnliche oder noch größere Probleme zu haben?
Nur weil es cool ist immer gegen den Marktführer zu sein?
Die Linux und Apple Fraktion die sich in jeder News zur Konkurrenz so überlegen fühlt, musste letztes Jahr auch lernen dass sie mindestens ganz genauso üblen Mist bauen können.
Ich persönlich hab genug Probleme und Nachteile von AMD CPU, GPU, Treiber, usw. gelesen und greife deshalb bewusst zu Intel und Nvidia. Auch wenn es eine schlechteres Preis Leistungsverhältnis bedeutet, das tut jeder irgendwo sonst gäbe es von allem nur einen Hersteller. Aber natürlich schön dass du eben deutlich intelligenter als 80% bist.
@jackii: Lies nicht etwas zwischen den Zeilen, was ich gar nicht geschrieben hab. Das Produkt lässt sich beliebig ersetzen. Du kannst das was ich geschrieben habe genauso mit VW nehmen oder Apple oder oder oder. Den Kunden ist das schlicht egal. Darum geht es.
Der Fehler ist seit über 20 Jahren drin und keiner hat sich beim Kauf je daran gestört.
Das ist natürlich Schwachsinn. Wie soll man sich an etwas stören, was man nicht weiß. Es ist ja nicht so, dass die CPUs falsche Ergebnisse liefern wie beim Pentium-Bug, sondern, dass sie unsicher sind, weil sich der Speicher auslesen lässt, was gar nicht passieren dürfte.
War nicht einer von beiden Fehlern auch in sämtlichen AMDs?
Ein Szenario von Spectre, ja. Aber schlecht bis gar nicht ausnutzbar nach aktuellem Stand, weil AMD schlicht eine andere Sprungvorhersage nutzt als Intel.
Und nein: Das wird mit KL-G nicht behoben sein. Das ist genau der Grund, warum der Fehler so schlimm ist. Da müsste grundlegendes im Silizium geändert werden. Deshalb hat sich ja Linus Torvalds so aufgeregt: Intels Fix für den Linux-Kernel war so gedacht, dass es eine dauerhaft Lösung im Kernel wäre, ohne Optionen zum abschalten bei nicht betroffenen CPUs. Das lässt natürlich den Schluss zu, dass Intel es gar nicht, oder zumindest nicht in absehbarer Zeit vor hat zu fixen.
Zweifelsfrei ohne ein hervorstechend, bemerkenswertes Produkt in Hinblick auf die Herkunft der einzelnen Produkte.
Nun kann die Frage sein:
Kanibalisiert sich AMD damit selbst, oder sorgen die in Zukunft möglicherweise weiterhin hohen Verkaufszahlen von Intel dafür, dass AMD weniger profitable hauseigene Produkte durch diese "Symbiose" kompensieren kann?
Dann dürfte keiner mehr eine CPU kaufen, solange Spectre nicht auch behoben ist, also auch kein Smartphone etc und die Leistungseinbußen sind bei wegen Meltdown, der ja übrigens auch einige ARM CPUs betrifft, sind im Alltag doch meist zu vernachlässigen.
rg88 schrieb:
Du überschätzt die Intelligenz der Maße (bzw. unterschätzt die Dummheit)
Die Dummheit einiger Forenuser kann man kaum überschätzen
rg88 schrieb:
Die meisten kapieren nicht mal im Ansatz um was es geht. Das ganze Fiasko wird Intel Verkaufseinbußen im einstelligen Prozentbereich bringen. Wenn überhaupt.
Ein starker Ryzen 2 tut Intel da viel mehr weh, was die Verkaufszahlen angeht.
Und AMD ist grandios daran gescheitert, weil viel zu spät auf dem Markt durch die ganzen Verschiebungen. Sogar solange verschoben, bis die Dinger keiner mehr haben
Später als Intel waren sie, aber die sind gescheitert, weil der CPU Teil zu lahm war und die eigentliche Idee hinter den APUs nämlich auch kleine Probleme die parallel verarbeitet werden könnten es aber wegen der Latenz der Übertragung auf eine externe GPU die deren Geschwindigkeitsvorteil zunichte macht dann doch nicht werden, mangels SW- und HW Unterstützung gar nicht genutzt werden konnte.
Erst mit Kaveri die 2014 erschienen sind, wurde HSA von der HW unterstützt, die Unterstützung durch Tools für Entwickler war aber weiterhin schwach, deren Interesse entsprechend gering und daher bliebt es bei wenigen Anwendungen, meist eher Demos, die davon überhaupt gebraucht gemacht haben, bevor AMD das ganze Thema wieder eingestampft hat. Die Idee hinter den APUs war gut, die Umsetzung lies sehr zu wünschen übrig und nach 3DNow war es somit die zweite Erfahrung für Entwickler, dass es sich nicht lohnt Mühe in AMDs Erweiterungen zu stecken, da diese dann doch wieder eingestampft werden und der Entwicklungsaufwand für die Unterstützung solcher Sachen dann für Katz war.
rg88 schrieb:
Ein MCM hätte damals aber bei AMD Synergieeffekte gehabt und man hätte parallel an einer Integration der GPU auf das CPU-Die arbeiten können, bis es brauchbar ist.
Mit einem klassischen MCM hatte die Idee der APUs von Anfang an nicht funktionieren können, weil man darüber viel zu wenige Verbindungen realisieren kann, ein Zugriff der iGPU auf das RAM und damit den RAM Controller ist dafür aber fundamental, sonst lohnt es sich ja wieder nicht kleine Aufgaben über die iGPU ausführen zu lassen.
rg88 schrieb:
Man hat doppelt Geld in den Sand gesetzt: Entwicklung einer APU die niemand haben will und Kauf einer Grafikfirma weit über wert, obwohl man eigentlich nur die Chipsätze in erster Linie wollte/brauchte.
Nein, es ging um die GPUs um APUs zu bauen, die Entwiklung der Chipsätze wurden ja dann auch 2014 an ASMedia abgegeben, AMD entwickelt also selbst schon gar keine Chipsätze mehr.
rg88 schrieb:
AMD hätte damals die Chipsätze zukaufen sollen und unter eigenem Namen umgelabelt anbieten sollen (oder gleich wieder selbst welche entwickeln) und die Grafikeinheiten lizensieren sollen, egal bei wem der beiden großen Grafikanbieter.
Mit lizenzierter Technik hätte man keine APUs bauen können, bzw. nur solche wie die Kaby Lake-G bei denen CPU und GPU auf getrennten Dies sitzen. Der Gedanke war aber ein ganz anderer, nämlich statt Befehlserweiterungen wie AVX hätte man die iGPU für sowas eingesetzt, weil man eben erkannt hat, dass es immer schwerer werden wird die IPC noch die Taktraten immer weiter zu steigern, mehr Kerne aber auch längst nicht bei jedem Problem eine Lösung sind, weil nicht jede Aufgabe ausreichend parallelisierbar ist.
Der Overhead einen Thread zu starten ist nämlich nicht gering und wenn nur relativ kleine Aufgaben parallel abzuarbeiten sind, lohnt es sich daher nicht einen eigenen Thread dafür aufzumachen, diese innerhalb der Kerners parallel abzuarbeiten lohnt sich schon, moderne CPUs machen dies ja auch an viele Stellen, transparent in Form der Out-of-Order Verarbeitung und explizit eben über Befehlserweiterungen wie z.B. AVX. Die iGPU der APUs sollte sowas wie eine riesig breite AVX Einheit sein, die auch noch den Vorteil hatte anderweitig nutzbar zu sein, die AVX Einheite können ja nur AVX Befehle abreiten und sonst nichts. Die Idee war wie gesagt genial, die Umsetzung leider ganz und gar nicht.
Nun kann die Frage sein:
Kanibalisiert sich AMD damit selbst, oder sorgen die in Zukunft möglicherweise weiterhin hohen Verkaufszahlen von Intel dafür, dass AMD weniger profitable hauseigene Produkte durch diese "Symbiose" kompensieren kann?
Gleich Frage: Kanibalisiert sich AMD durch die Konsolen? -> Jein. Natürlich macht man sich mit solchen Produkten teilweise selbst Konkurrenz, andererseits verdient man dadurch an einem Produkt der Konkurrenz mit. Immer noch besser für AMD, als wenn eine Nvidia-GPU da drauf gewandert wäre. Nvidia hätte das sicherlich gefallen, aber die hätten auch mehr verlangt um den gleichen Profit wie mit den herkömmlichen Lösungen zu erreichen. Nvidia hätte sich dann nicht mal Konkurrenz gemacht.
Das andere ist auch: Hätte AMD aktuell die Kapazitäten so etwas selbst auf die Beine zu stellen? Es ist ein Nischenprodukt in erster Linie. Dafür eine eigene Fertigungsstraße aufbauen, wenn man eh schon enorme Lieferprobleme hat, klingt wenig sinnvoll.
Die Ryzen Notebook-APUs sind eigentlich auch tolle Produkte, dennoch noch fast nirgends erhältlich. Das dauert, bis AMD sich wieder im Markt etabliert hat. Insofern würde ich da auch kein Geld in so ein experimentelles Produkt versenken, wenn man sich solche Späße nicht leisten kann, wenn sie floppen.
Es hindert AMD ja nichts daran, selbst so ein MCM zu entwickeln, wenn sich so ein Package wirklich massentauglich durchsetzen sollte.
Ich würde sagen, der Wert ist un(ab)schätzbar. Die Software-Entwickler werden nun eher Vega bei den Optimierungen berücksichtigen, wenn die CPUs eine höhere Verbreitung finden.
Jetzt könnten z.B. Spieleentwickler in die Vollen gehen, mit Shader Intrinsics, Rapid Packed Math (FP16) und Co. Zumindest diejenigen, die noch nicht unter Nvidias Fuchtel stehen.
Etwas anderes habe ich ja auch nicht behauptet. Die Idee stammte erstmals von AMD, die Umsetzung hat Intel aber viel schneller geschafft. Der CPU-Teil wäre 1,5 Jahre früher sicherlich auch nicht schnell gewesen, aber zumindest ausreichend. Als Llano dann endlich kam, waren sie aber endgültig zu langsam und veraltet.
Holt schrieb:
Die Idee hinter den APUs war gut, die Umsetzung lies sehr zu wünschen übrig und nach 3DNow war es somit die zweite Erfahrung für Entwickler, dass es sich nicht lohnt Mühe in AMDs Erweiterungen zu stecken, da diese dann doch wieder eingestampft werden und der Entwicklungsaufwand für die Unterstützung solcher Sachen dann für Katz war.
Gut, einmal hat das ja funktioniert. Bei der 64bit-Erweiterung, sie so einfach wie genial war zum damaligen Zeitpunkt. Das hat immerhin eine komplette Intel-Architektur vernichtet (Itanium). Dass die Softwareentwicklung sich nicht auf die Entwicklung eines kleinen Anbieters einschießt bzgl. GPU als zusätzliches Rechenwerk, wenn der Marktführer das nicht bieten kann, war aber wirklich absehbar.
Holt schrieb:
Mit einem klassischen MCM hatte die Idee der APUs von Anfang an nicht funktionieren können, weil man darüber viel zu wenige Verbindungen realisieren kann, ein Zugriff der iGPU auf das RAM und damit den RAM Controller ist dafür aber fundamental, sonst lohnt es sich ja wieder nicht kleine Aufgaben über die iGPU ausführen zu lassen.
Man hätte sich eben herantasten müssen, anstatt ein unnützes Produkt wie Llano auf Biegen und Brechen rauszukloppen. Das war eben deutlich zu viel Entwicklungsaufwand. Zumal ja parallel noch die Bulldozer-Entwicklung lief und man da sicherlich auch gesehen hat, dass man da schon die nächste Baustelle hat. Vielleicht wäre ohne LLano schon früher sowas wie Excavator gekommen? Das wäre 5 Jahre früher zumindest etwas konkurrenzfähig gewesen.
Holt schrieb:
Nein, es ging um die GPUs um APUs zu bauen, die Entwicklung der Chipsätze wurden ja dann auch 2014 an ASMedia abgegeben, AMD entwickelt also selbst schon gar keine Chipsätze mehr.
Heute, ja. Damals war aber das Hauptproblem, dass man keine professionelle Plattform aus einer Hand anbieten konnte. Schon früher hat AMDs Ruf gelitten durch die schlechten Chipsätze.
Die ATi-Chipsätze enthielten ja bereits eine Grafikeinheit. Mit dem Kauf war es möglich endlich mal mit Intel gleichzuziehen und eine einheitliche Plattform für Bürorechner anzubieten.
Ich erinnere mich noch mit Schaudern an meinen damaligen Bürorechner mit Athlon64 X2 von FujitsuSiemens. Der hatte einen Sis-Chipsatz mit einer dermaßen miese I/O-Performance, ganz abgesehen von der grottenlangsamen onBoard-Grafik.
Ich sag mal so: Chipsätze haben sie gebraucht, Grafik haben sie gewollt für die Fusion-Idee.
Heute sind Chipsätze ja eher unwichtig, weil sich ja ein Großteil bereits in der CPU befindet. Da kann man natürlich das bisschen verbliebene extern entwickeln lassen.
Holt schrieb:
Mit lizenzierter Technik hätte man keine APUs bauen können, bzw. nur solche wie die Kaby Lake-G bei denen CPU und GPU auf getrennten Dies sitzen.
Wieso hätte man das nicht? Natürlich wäre das gegangen. Geht ja bei anderen integrierten Grafikkernen auch, wie sie auf ARM-SoCs zufinden sind. Sowas hatte ATI/AMD sogar schon mit Adreno.
Ansonsten fiel mir auf, dass die letzte Tabelle etwas komisch ist. Zum einen haben dort alle GPUs denselben Takt, obwohl die kleinere laut der anderen Tabelle weniger hat (oder bezieht sich der Takt da auf die Intel-GPU?).