Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsH-Serie für Notebooks: Mobile Intel-Core-CPUs ab 2018 auch mit GPU von AMD
Ursprünglich waren in diesem Segment Ryzen -H geplant. Ein Blick auf das früher vorgestellte Suffix-System für den Ryzen zeigt, welche Derivate bislang noch völlig fehlen:
G Desktop + IGP
T Low-power Desktop
S Low-power Desktop + IGP
M Low-power Mobile
H High-performance Mobile
Na bitte, geht doch Jetzt fehlt nur noch die Desktopversion mit passenden Boards und die blöden stromfressenden Grafikkarten haben bald hoffentlich ausgedient.
Das wird wohl nicht passieren. Die IGPUs / APUs werden weiterhin nur Grafikkarten im unteren Leistungsbereich ersetzen. Die Leistung, welche Hi-End-Grakas erbringen, können sie nur unter Inkaufnahme des hohen Stromverbrauchs erbringen. Und man kann mit zwei Kühlern (CPU + GPU) nun mal deutlich mehr Wärme abführen, als mit einem Kühler auf der APU. Es sei denn, es findet bei uns Konsumenten ein Umdenken statt von immer mehr GPU-Power zu weniger Stromverbrauch. Wenn ich so an die alten GraKas wie die Geforce 4-Serie (nicht GTX 400-Serie !) denke, wie klein deren Kühler war und welche mit weniger als 50 Watt ausgekommen sind und was für riesige Kühler heute auf den 250+ Watt Grakas verbaut werden.
Es wundert mich, dass Intel nach all den Fortschritten bei seinen eigenen iGPUs jetzt trotzdem "noch" auf AMD Radeons setzen will. Ich hatte den Eindruck, dass man im Grafikbereich unbedingt aufschließen will um den AMD APUs das Wasser abzugraben.
Aber im "iGPU High-end-Bereich" scheint man dann doch nicht ganz mithalten zu können - irgendwie logisch, da AMD ja viel mehr Know-how in dem Bereich hat. Mehrere Leute haben auch schon von Apple gesprochen. Es ist durchaus möglich, dass die die treibende Kraft sind.
Das OS anzupassen dürfte nicht so schwierig sein. Auch bei Anwendungen ist das kein so großes Problem, denn große Teile der Code-Basis heutiger Applikationen ist in Hochsprachen geschrieben und erfordert im einfachsten Fall nur ein Neu-Compilieren. Das Problem ist weniger technischer Natur, sondern liegt mehr darin, dass viele Software-Anbieter für ältere Programme einfach kein Interesse haben. Bei Macs ist das zwar bei weitem nicht so problematisch wie bei Windows-Systeme, einfach weil es viel weniger Spezial-Software gibt, aber mit einem Architekturwechsel wird man sich sicherlich von dem ein oder anderen Programm trennen müssen.
Atent123 schrieb:
Microsofts Ansatz mit einem Low Level Windows on Windows quasie Emulator wäre auch eine Option. Von welchen Lizenzen redest du ?
Solange nur x86 und MMX unterstützt wird, dürfte das kein Problem darstellen, denn die Patente dafür sind ausgelaufen. Bei x64 oder SSE und AVX hingegen ist ein Patentstreit vorprogrammiert.
Atent123 schrieb:
Selbst der A11 Bionic (das Ding ist nur die kleine Ausführung für Smartphones die Tablet Variante kommt noch) ist schneller als das Flagschiff der alten Kabylake Riege und der A11x wird wahrscheinlich auch mit den neuen 4 Kernern gleichziehen.
Hast du irgendein Beleg dafür und bitte nicht sowas wie Geekbench, sondern etwas wo richtige Desktop-Anwendungen getestet werden. Bei den, zugegebenermaßen sehr spärlichen, Tests aktueller ARM SoCs mit Desktop-Anwendungen schneiden diese eher mäßig ab. Während bei Geekbench ihnen Leistungen im Bereich von Desktop-CPUs bescheinigt werden, erreichen sie bei echten Desktop-Apps häufig nicht mal die Leistung von Celerons auf Atom-Basis. Es wäre ja schön, wenn mal ARM-SoCs kämen, die auch bei Desktop-Apps gut abschneiden, aber bisher sehe ich das nicht so wirklich.
Das ist sicherlich möglich und technologisch sicherlich sehr interessant, irgendwelche Ankündigungen dazu habe ich allerdings bisher nicht gehört oder hast du eine Quelle dazu?
760_Torr schrieb:
Ursprünglich waren in diesem Segment Ryzen -H geplant. Ein Blick auf das früher vorgestellte Suffix-System für den Ryzen zeigt, welche Derivate bislang noch völlig fehlen:
Es gibt auf alle Fälle viel darüber zu lesen und sogar auf Youtube Leute, die vorrechnen und vergleichen. Aber das Problem dürfte eher die höheren Kosten bei der Produktion liegen und es dann eben weniger Zulieferer oder Fertiger gäbe. Außerdem gibt es ja auch andere Konkurrenzprodukte wie Gate-Around.
Kann ja sein, dass später mal FinFet auf SoI als günstigere Alternative gäben könnte. So wie jetzt SoI bei GF. Who knows?
Ein RavenRidge H oder Nachfolger mit H kann es ja immer noch geben. Von den 11 CUs sind aktuell auch nur 10 aktiviert.
Auch weiß keiner ob RavenRidge eben einen HBM Cache Controller hat. Kann gut sein, dass es später von RavenRidge eine Neuauflage oder Stepping geben könnte. (war ja bei den letzten APU Generationen auch so, siehe Carrizo der DDR3 unterstützt und Bristol Ridge, der selbe Chip der ebenso mit DDR4 umgehen kann. Carrizo hätte das mit neueren Plattform auch schon gekonnt.
Oder man denke an Kaveri. Der soll ja auch ein breiteres SI haben, als am Ende genutzt wurde und es gab auch Pläne für APUs mit 3 statt 2 Steamroller CMT Module. (wurde aber eben nicht umgesetzt weil man eine neuen Sockel benötigt hätte, stattdessen kam FM2+)
Eher denk ich, AMD konzentriert sich bewusst an den größeren Markt, eben 15 Watt TDP Geräte. Deshalb deaktivieren sie auch ein CU und bedienen den Markt aktuell nur mit 2 Modellen. Bleib weiterhin dabei, für AMD wird der R5 2500U am wichtigsten sein, weil der gegenüber dem aktuellen i5 mit den zusätzlichen 4 Threads und bessere GPU Leistung Preis-Leistung sehr attraktiv ist (und die paar aktuellen Notebooks um ca 100 Euro billiger sind).
Man sieht doch bei dem Phenom II M 45 nm Prozessor damals, dass die kaum oder nie in Modellen gesehen wurden. Genauso die Top Modelle letzter APU Generationen. Da war meist eher die Mittelklasse APUs zu finden. AMD APUs egal ob 35 Watt TDP spezifiziert wurden in Notebooks verbaut, die für 15 Watt TDP ausgelegt waren. Ich habe hier sogar so ein Richland Notebook hier liegen.
MOS1509
AMD möchte irgendwann große dicke Epyc APUs auf den Markt bringen. Auch könnte man Grafikkarten entwickeln die auf eine APU setzen. (Spricht ja nichts dagegen, CPU Cores zu verbauen, die die GPU direkt bei Aufgaben eingreifen können und so die CPU selbst entlasten).
Das Horrorszenario wird wahr. Hoffentlich bietet Apple auch in Zukunft vernünftige Intel only oder Intel+NVIDIA-Lösungen an. Sonst war es das wohl mit MacBoos.
Ich saß gerade geschlagene fünf Minuten mit fragendem Gesichtsausdruck vor dem Monitor … Ich war mir bis jetzt in all den Jahren in der Computer-Branche nicht gewahr, daß man dergleichen Ausmaß an Inkompetenz und Unvermögen im Zusammenhang mit logischen Denkfolgen in jenen wenigen Worten unterbringen – und auch noch plakativ zum Ausdruck bringen kann. Chapeau für diese Meisterleistung, Du Gehirnakrobat!
Du weißt, weswegen Apple seit geraumer Zeit nurmehr exklusiv AMD verbaut?
Nein, natürlich nicht – sonst hätte man ja nicht einen solch verblendeten Stuß lesen können. Informiere Dich doch einmal, weswegen nVidia mit integrierter Grafik bei praktisch allen Notebook- & AllInOne-Herstellern vor die Tür gesetzt wurde.
Die $10 Mil. USD Schadensersatz, die nVidia seinerzeit aufgrund ihres #Bumbgate an Dell gezahlt hat, hat zum beschwichtigen ebenso wenig gereicht wie bei anderen Partnern – geflogen sind sie trotzdem. Apple war mindestens genauso begeistert und hat ihnen die Türe vor der Nase zugeschlagen wie praktisch jeder Andere (“Go away and don’t come back for 3-4 years if you are still around as a company. Lose our number, and if you do call, we will laugh at you again!”). Gerade Apple haben die jahrelangen Ausflüge mit integrierter nVidia-Grafik nicht nur zahllose Schadensersatzforderungen und Garantie-Verlängerungen ihrer MacBooks gebracht. Nur so ein kurzer Wink mit dem Scheunentor Richtung #Bumpgate.
immortuos schrieb:
Das ist Schwachsinn, dazu müsste Apple Mac OS erstmal auf non x86 auslegen, ohne die Lizenzen geht da gar nichts.
Und wo bitte kann Apple es mit seinen SoCs irgendwo auch nur ansatzweise mit Intels ULV Portfolio aufnehmen?
Was denn bitte für Lizenzen?
Mit einiger Manpower schreiben die den BSD-Kernel binnen wenigen Monaten auf ARM jede beliebige Architektur um – wenn denn nicht schon geschehen …
Vergiß nicht, daß Apple seinerzeit MacOS Rhapsody (mehr oder minder Mac OS 8 nativ unter Intel) im stillen Kämmerlein entwickelt hatte, um eine Handhabe zu haben, IBM und Motorola (besser; Freescale) die Pistole auf die Brust zu setzen um leistungsstärkere und gleichzeitig sparsamere Prozessoren zu fordern. Rhapsody als Intel-Variante war als Drohgebärde gegenüber der AIM-Allianz – und das war '97.
Einige Jahre später hatte man hinterrücks die zweite Warnung in Form von Marklar parat (Mac OS X nativ auf x86) – '02, ebenfalls Jahre bevor der offizielle Intel-switch erfolgte.
Man kann davon ausgehen, daß Apple unter Garantie bereits den Darwin/OPENSTEP/NeXTSTEP/BSD-Kernel von Mac OS X macOS auf andere Architekturen portiert hat – und sei es nur, um sich bessere Konditionen verschaffen zu können. Warum? Weil dieser ultimative Hebel bei Apple bereits seit Urzeiten Tradition hat und schon in den Neunzigern mit dem Geheimprojekt »Star Trek«System 7 auf x86 portiert wurde, damals™ noch unter Mithilfe von Novell.
Und mit iOS existiert seit '05 was? Richtig; Ein ARM-Kern für's iOS macOS.
D708 schrieb:
[…]
Edit:
Wobei ich mir ne kleine Spitze nicht verkneifen kann.
Das wars wohl mit dem Ausflug von Intel mit starken IGPUs. Die nötige Treiberpflege hat sich einfach nicht gelohnt. Also wird Intel bei den kleinen IGPUs bleiben und Iris einstampfen. Gegen ARM verloren, jetzt gegen die Kommenden APUs verloren, naja probiert haben sie es.
…
Brauchen scheint man gewisse Patente oder das Know-How zur Weiterentwicklung so oder so, aber das muss nicht heißen, dass in jedem Fall Intel-AMD Koop-Produkte das Licht der Welt erblicken werden. Wie bereits bekundet, spannend/interessant fände ich es schon, aber neue Intel APUs mit AMD Technik gegen die eigenen, geplanten APU Reihen von AMD (Raven Ridge, Banded Kestrel, Gray Hawk, usw.) zu setzen, halte ich bis auf den kurzfristig daraus resultierenden Profit für AMD für wenig sinnvoll bzw. kontraproduktiv.
Gerüchten Zufolge sollen Ingenieure der RTG (Radeon Technology Group) bereits an Skylake-X i7-7xxx Modellen mit AMD-Kern arbeiten, von daher …
Sofern AMD einzig Lizenzen vergibt, am Verhandlungstisch von vorn herein klargemacht hat, daß kein IP sondern lediglich SoC's die Seiten wechseln, halte ich das für durchaus möglich. Man darf auch nicht vergessen; Intel ist in dieser Situation Bittsteller und Intel hat die letzten Jahre nicht nur de facto vollkommen erfolglos und in höchstem Maße kapital defizitär Milliarden in ihre iGPUs gesteckt und von Anfang an ohne jedwede Aussicht auf Erfolg AMD wie nVidia Paroli bieten wollen. Intel möchte dieses sinnlose wie kostenintensive Thema beenden – und nicht umgekehrt.
Wenn AMD ausschließlich Polaris und vorherige Generationen aus der Hand gibt und Vega komplett für ihre Produktpalette behält, sollte dies trotzdem einen radikalen Absatzzuwachs in der mobilen Sparte von Intel zur Folge haben, woran AMD dann stark mitverdienen kann. Und ihre APUs bleiben trotzdem hochbegehrt. So würde AMD massive Mehreinnahmen erhalten, Chips ausliefern, Intel ist zufrieden und gemeinsam dämmt man nVidia ein. Ein Gewinn für alle außer nVidia.
Gerade Apple haben die jahrelangen Ausflüge mit integrierter nVidia-Grafik nicht nur zahllose Schadensersatzforderungen und Garantie-Verlängerungen ihrer MacBooks gebracht. Nur so ein kurzer Wink mit dem Scheunentor Richtung #Bumpgate.
Hast du irgendein Beleg dafür und bitte nicht sowas wie Geekbench, sondern etwas wo richtige Desktop-Anwendungen getestet werden. Bei den, zugegebenermaßen sehr spärlichen, Tests aktueller ARM SoCs mit Desktop-Anwendungen schneiden diese eher mäßig ab. Während bei Geekbench ihnen Leistungen im Bereich von Desktop-CPUs bescheinigt werden, erreichen sie bei echten Desktop-Apps häufig nicht mal die Leistung von Celerons auf Atom-Basis. Es wäre ja schön, wenn mal ARM-SoCs kämen, die auch bei Desktop-Apps gut abschneiden, aber bisher sehe ich das nicht so wirklich.
Stand jetzt ist Geekbench 4.1 wohl der umfassendste CPU Benchmark den es gibt.
Was genau verstehst du unter Desktop-App ?
Desktop-Apps sind logischerweise alle X86 Code und laufen momentan noch nicht auf ARM.
Wen du Praxis Anwendungen meinst könnte man vergleichen wie lange die Foto App zum Codieren des selben Videos in h265 braucht.
Wen du umfassendere Vergleiche mit X86 Anwendungen willst musst du wohl noch bis nächsten Monat warten.
Intel selbst hat übrigens den Core m7 damit beworben das er (im Boost) doppelt so schnell sein soll wie der A8x der wiederum nur 40% der Leistung eines A11s hat.
Er hat einen eindeutigen Hang dazu Mobil-SoCs im Vergleich zu Desktop-CPUs besser dastehen zu lassen. Das dürfte u.a. daran liegen, dass er keine echten "Probleme" testet, sondern kleine, "einfache" Tests, die der Anbieter für repräsentativ für eine bestimmte Anwendungsklassen hält.
Ganz normale Programme, die man so auf Macs heute so findet. Video-Encoder, Packprogramm, Spiele, irgendwelche File-/Web-/App-Server (Server mit MacOS sind zwar eher Exoten, es gibt sie aber).
Atent123 schrieb:
Desktop-Apps sind logischerweise alle X86 Code und laufen momentan noch nicht auf ARM.
Das mag für die Mac- und Windows-Welt zutreffen, unter Linux gibt es bereits viele für ARM angepasste und optimierte Programme und auf diese beziehe ich mich auch. Schau mal auf OpenBenchmarking.org. Da gibt es ein paar Real-World-Tests mit ARM-Entwickler-Boards. Da sind zwar meist keine High-End-SoCs verbaut (der beste getestete ist wohl nVidias Denver2), aber man sieht, dass die ARM-SoCs im Vergleich zu Geekbench deutlich schlechter abschneiden. Apples A11 ist sicherlich eine der, wenn nicht sogar die, effizienteste CPU zur Zeit, sie spielt aber in einer ganz anderen Leistungsklasse als x86-Desktop-/Server-CPUs.
Atent123 schrieb:
Wen du Praxis Anwendungen meinst könnte man vergleichen wie lange die Foto App zum Codieren des selben Videos in h265 braucht.
Komisch, dass das nach all den Jahren ausgerechnet jetzt kommt, wo Vega bisher alles andere als begeistert...
Ich hätte den HBM ja ganz gerne zwischen CPU und GPU gesehen, als eine Art L4-Cache/VRAM-Hybrid.
Der L4-Cache im Broadwell hatte teilweise so tolle Leistungen abgeliefert...
Lustig, wegen den Gerüchten ist AMD anfang des Jahres gut gestiegen und wurde nach dementi abverkauft lol. Das ist aber immer noch nicht der versprochene Design Win der versprochen wurde oder irre ich mich. Denn der sollte vom Auftraggeber erst 06/2018 vorgestellt werden, warten wir es ab. Long Amd.
ich bin schon gespannt wie die Gesichter runterklappen wenn sie die Preise veröffentlichen. Der HBM2 wird zu teuer glaube ich. Klar, für Apple Hardware ist der Preis egal bzw. wird im Endprodukt verrechnet. Aber für den Linux/Windows Hardware Markt ist das nur konkurrenzfähig, wenn es günstiger als alternative Lösungen (kleine diskrete Nvidia ) ist.
Das kann man jetzt noch nicht sagen. Es kommt vielmehr darauf an, wie die Windows-Geräte vermarktet werden. Ich tippe und hoffe jedoch in Richtung Dell XPS 15 bzw. Surface Book, also eher „gehobene Multimedia-Klasse in dezentem Design und guter Verarbeitung“, da können die Dinger meinetwegen 1200-1500€ kosten, solange sie ihre Stärke - den ultimativen Sweetspot aus Leistung und Mobilität - ausspielen können. Würde dann auch vom Konzept her zu Apple passen, nur dass dort lediglich die 15 Zöller mit 2000€ aufwärts damit ausgestattet werden^^.
Das stimmt nicht. AMD und Intel brachten fast gleichzeitig den ersten Dual-Core auf den Desktop-Markt. Bei Intel war es der Pentium D, der vom Athlon X2 zerrissen wurde.
Weiß nicht ob das so eine tolle Entscheidung von AMD ist, damit ist ja die einzige Daseinsberechtigung ihrer APUs dahin. Weder bei Effizienz noch bei Leistung werden sie Intel im Laptop ganz erreichen können, und Vega mit HBM bei Intel wird Vega mit DDR4 in den APUs leistungstechnisch komplett zerstören
"that a small percentage of MacBook Pro systems may exhibit distorted video, no video or unexpected system restarts"
Ein kleiner Prozentsatz der Mac Pros mit Fehlfunktionen und Neustarts ist nun kein Vergleich wie damals bei NV 60-70% an verbrutzelten GPUs quer durch alle Notebooks und Hersteller.
Geradezu lächerlich der Vergleich.
Warum meinst du hat Apple so gar keinen Bock mehr auf den grünen Leder-Gnom?
Wenn sich NVIDIA ggü den Herstellern der Notebooks genau so verhalten hat, wie gegenüber der öffentlichen Berichterstattung, dann lag die Abkehr wohl viel stärker daran als an den kosten etc.
Auch im Big Business läuft sehr viel auf der Gefühlsebene ;-)
Da muss NVIDIA viele Blumensträuße und Pralinen verschicken, bis die Ex'en nicht Menge enttäuscht Stubbs :-D
Topic: Ich sehe für alle Beteiligten einen benefit. Klug gehandelt ;-)
Sicherlich interessantes Produkt. Es ist aber auch ein Zugeständnis von AMD, dass die CPU-technisch mit Intel nicht mithalten können beim Punkt Leistung pro Core + Verbrauch.
Wäre das nämlich der Fall, würde AMD diese "socs" selber bauen und verkaufen mit der eigenen CPU und wäre speziell in >diesem Bereich< konkurrenzfähig. Da dem aber nicgt so ist, bleibts ein teilweise Zugeständnis, dass sie speziell die CPU nicht hin gebacken bekommen mit der gleichen Effizienz.
So ein Quatsch. Raven Ridge 2700U hat eine tdp von 25W bei 4 Kernen und 2,2-3,8GHz Takt. Ryzen ist sehr wohl konkurrenzfähig, gerade bei niedrigerem Takt. Intel hat offensichtlich eine angepasste GPU angefragt, die die Semi-Custom Sparte von AMD liefern kann. Von was für Zugeständnissen schreibt ihr da.
Für AMD ist der Markt Multi Chip Module sicherlich zu klein und nicht wirtschaftlich. Die Frage ob es für AMD machbar ist, stellt sich ja gar nicht. Man hat alles was man bräuchte. Eine starke GPU, hocheffiziente CPU Kerne, HBM und Infinity Fabric.
1998 gabs ne AGP-Karte mit i740, er war der einzige Intel Chip der für diskrete Grafikkarten gedacht war.
---
Die Lösung macht Sinn.
Die Intels iGPUs waren ja im Vergleich zur Leistung schon immer deutlich größer als bei Konkurrenz und bei der Effizienz sah der iGPU-Part auch nicht rosig aus. So eine Lösung wird am Ende vielleicht noch billiger für Intel. Alleine der eDRAM-Controller bei den Iris Pro Modellen war ja schon so groß wie 2 Kerne+L3.
Das Horrorszenario wird wahr. Hoffentlich bietet Apple auch in Zukunft vernünftige Intel only oder Intel+NVIDIA-Lösungen an. Sonst war es das wohl mit MacBoos.
Sony und MS haben vorerst (vor 2019) keine neue Konsole in Planung, Nintendo greift auf Tegra zurück genauso wie die Shield von nVidia selbst und Atari wird sich wohl kaum unnötig teure/leistungsfähige Intel-Technik in der AtariBox verbauen, da reicht ein Raven Ridge vollkommen aus, um die nVidia Tegra Konsolenkonkurrenz in allen Belangen technisch alt aussehen zu lassen und zudem kommt das deutlich billiger komplett den SoC bei AMD zu bestellen.