News Apple Silicon: Thunderbolt darf bleiben, AMD und Nvidia fliegen raus

AlphaKaninchen schrieb:
@Caradhras mit irgendwas müssen sie den Mac Pro ja füllen, auch wenn ich auf einen SoC nach Vorbild des A64FX hoffe.
Ich schätze ja, falls sie tatsächlich eine eigene dGPU entwickeln, dass die am Ende in einem vollkommen proprietären Format (wenn überhaupt als Steckkarten?) erscheint. Die Karte wird dann über Apple-only Treiberschnittstellen angesprochen, die es nur auf MacOS geben wird.

Kann man machen. Hat nur außerhalb der Apple-Blase niemand was davon. Erst recht niemand, der zocken will ^^
 
  • Gefällt mir
Reaktionen: Foggle
MountWalker schrieb:
Bei reinen SoC entfällt dabei die Pflicht, vom "Haupt-RAM" einen fest definierten Bereich für die GPU fest definiert abzuknipsen. Richtig interessant wird es aber in Stufe zwei, bei der ich nicht weiß, ob AMD das bis heute jemals umgesetzt hat. Stufe 2 von HSA wäre, wenn die Speicherbereiche von Erweiterungskarten mit eigenem RAM und der Mainboard-RAM zusammengelegt werden können.
Meines wissens nicht, ist wenn ich das bei @[wege]mini mal richtig verstanden habe, bei Von Neumann auch nicht so einfach umzusetzen bzw wenn man es hat ist es Harvard.
Wikipedia:
Viele moderne Prozessoren verwenden eine Mischform aus Harvard- und Von-Neumann-Architektur, bei der innerhalb des Prozessorchips Daten und Programm voneinander getrennt verwaltet werden, eigene Caches und MMUs haben und über getrennte interne Busse laufen, extern jedoch in einem gemeinsamen Speicher liegen. Wenn CPU-Pipelining implementiert ist, ist der Vorteil dieser Mischform (auf Prozessorebene), dass deren einzelne Pipelinestufen in Bezug auf Speicherzugriffe getrennt werden können. Ein typisches Beispiel für diese Art Prozessoren ist der Motorola 68030, der in den 1980er Jahren entwickelt wurde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MountWalker
Tja, 100% verabschiedet man sich bei Apple also (noch) nicht von Intel Technologie, wenn TB4 in die zukünftigen ARM-Mac(Book)s einziehen soll.

Bei Intels Rocket Lake, mit aktuellem i7 8Kerne 12Threads Leak, dürfte man neben der kolportierten, erstmaligen PCIe4.0-Unterstützung bei eigenen Mainstream-Desktop-CPUs wohl auch von TB4 Bestückung ausgehen, da die Tiger Lake APUs von Intel bestätigt TB4 integriert haben sollen und vorher heraus kommen dürften (wenn auch aktuell wohl schon etwas verspätet/überfällig basierend auf der Roadmap).
 
  • Gefällt mir
Reaktionen: Mcr-King
Hier eine schöne (wie ich finde) Zusammenfassung des Themas "Apple Silicon & discrete GPUs":

Ich prophezeie auch, dass nicht einmal der künftige Mac Pro eine diskrete GPU haben wird.
Um den dafür benötigten Monster-Chip überhaupt fertigen zu können, wird Apple auf eine MCM-Bauweise zurückgreifen - als Speicher: HBMx
Mehr "Alles aus einer Hand" und "End-to-End Optimization" geht nicht - genau das, was Apple anstrebt.
Und natürlich wird man auf FPGA-Erweiterungen setzen, wie sie beim jetzigen Mac Pro als "Afterburner"-Accelerator Einzug gefunden haben.

Herrlich, Apple mischt (mal wieder) die Tech-Branche auf!
 
  • Gefällt mir
Reaktionen: mcasd, iSight2TheBlind, nlr und 2 andere
nlr schrieb:
...


Auf dem Bild steht doch eindeutig, dass ein Apple Silicon Mac nur eine Apple GPU nutzen wird.
Während beim Intel Mac auch AMD, Intel und Nvidia GPUs zur Verfügung stehen/standen.
Auf dem Bild. Und gibt es in dem 45-minütigen Video eine Aussage, dass Macs mit Apple Silicon keine andere Grafikkarte als auf Apple GPU basierend haben werden?

Die Aussage ist mindestens: "Macs mit Apple Silicon werden immer eine Apple GPU haben, darum müsst ihr Entwickler euch darauf einstellen, wie man Metal-Anwednungen so schreibt, dass sie mit allen Grafikkarten gut laufen."

Eine so weitreichende Änderung wie "Rausflug der AMD Grafikkarten" in einem WWDC-Video für Entwickler zu verstecken, erscheint zu viel, oder?

Was die Zukunft sein kann:
Neue Macs mit Apple Silicon haben mindestens eine Apple-GPU (integriert) und:

Für solche Macs wird es nur Erweiterungskarten/dedizierte Grafikkarten mit Apple GPUs, NPUs, RTUs blabla geben, aber keine Optionen für Erweiterung mit Grafikkarten von AMD oder Nvidia (und vielleicht Intel); diese können aber nachgerüstet werden und für Treiber sind dann AMD, Nvidia und ggf. Intel verantwortlich,

oder

Apple wird weiterhin Optionen mit Grafikkarten von AMD anbieten und entsprechende Treiber selbst liefern.
 
Caradhras schrieb:
Kann man machen. Hat nur außerhalb der Apple-Blase niemand was davon. Erst recht niemand, der zocken will ^^

Hier kann man wie üblich auf die laufende Geschichte verweisen. Und selbst die folgende Frage stellen: Wieso sollte Apple das tun? Ist nicht ihr Zielmarkt und auch nicht ihre Zielgruppe. Wenn die Leistung reicht und Softwarehersteller Games anbieten und die funktionieren nimmt man das mit - OK ansonsten kräht kein Hahn im Ring von Cupertino danach.

Ich lese häufig das es ein Träumchen von vielen wäre, schon seit der Umstellung auf Intel Prozessoren, Apple möge doch in dieser Richtung aktiv werden. Faktisch nicht der Fall gewesen. Was man allerdings sagen kann durch das zusammenlegen zweier Welten (Mobile und Desktop) bekommt man das Angebot für iPad und Co auf dem Computer zur Verfügung und da wimmelt es vor Spielen. Zwar nur wenige AA oder AAA Titel (z.b.Civi oder FM201x) aber das kann sich dann auch recht schnell ändern.

Hardwareseitig möchte ich noch folgendes anmerken:
Wieso sich die Mühe und Arbeit machen, u.a. auch bestehendes zu verbessern (z.b. Protokolle, Signalwege etc.) das in ein eigenes optimiertes und ans eigene Gehäuse angepasste Platinenlayout entwickeln und produzieren um es dann mit anderen zu teilen?
A) Vom Markt aus gesehen: Wo ist da der Wettbewerb?
B) Wer garantiert denn für die vom Apples umgesetzte Hardware im Gegenzug ausreichende Stromversorgung, Kühlung, Passgenaurigkeit etc.? Das ist gar nicht möglich. Und zeigt sich auf der PC Schiene ja sehr häufig in der mobilen PC Ecke.
C) Thema Support - Als Hersteller eigener Hardware dann auch noch fremden Brands support bieten zu wollen für was die da dann noch so fabrizieren kann gar nicht bewerkstelligt werden, und passt auch nicht in den Anspruch als solches. Die Softwareentwicklung und Pflege macht dem Ganzen obendrein einen Strich durch die Rechnung.

Aus dem Prinzip funktioniert das System sehr gut und ist hervorragend optimiert dank der Philosophie von Hardware und Software aus einer Hand. Gut das Jobs damals geistesgegenwärtig sein System NICHT dem Markt geöffnet hat - vermutlich wäre es nämlich genau da wo Windows heute ist - mit dem ganzen Laster und dem rumgeeiere.
 
Herdware schrieb:
In Spielen mag eine 2080 trotzdem etwas schneller sein, aber in diversen Profi-Anwendungen dürften bis zu 4 voll ausgebaute Vega-GPUs mit so viel schnellem Speicher klar vorn liegen.

Wow: Das Ding bietet laut Techpowerup etwas mehr Rohleistung als die RTX 2080 Ti - bei fast doppelter TDP :D
 
Ist schon interessant was sich da vielleicht entwickelt. Wenn es ein Erfolg wird wird sicher das eine oder andere auch in die X86/64 Welt einzug halten.
Ansonsten erstmal abwarten. Es wird keinen harten Schnitt geben. Ich denke Apple wird noch einige Jahre X86/64 verbauen und anbieten, parallel zu ARM. Es wird ebenfalls noch deutlich länger softwareseitige Produktpflege geben. Schon um das Risiko abzufedern das man , falls ARM sich als Flop erweist, auf einmal ohne Produktportfolio dasteht. Wenn ARM ein Erfolg wird gibt es sicher dann auch Wege den Nutzern einen Umstieg so leicht wie möglich zu machen. Jetzt wird man wohl hauptsächlich auf "Nerds" setzen die immer den neusten "Scheiss" wollen oder auf komplette Neueinsteiger. Gewissermassen als "Tester"
 
Bin jedenfalls mal sehr gespannt drauf wie Apple mit ihrem SOC mit eGPU im Mac Pro Workstation Bereich dann Nvidia und AMD bei ihren Monster GPUs die Butter vom Brot nimmt. Oder auch im high-end Spielesektor. Und dann die ganze Film- HPC- und Großrechnerwelt mit fliegenden Fahnen zu macOS wechselt. ;) (nein ist nicht ernst gemeint)

Wenn man wirklich große Chips baut die mit einer typischen GPU Karten Sammlung im MacPro mithalten könnten - müßte man die auch in allen relevanten Märkten verkaufen damit sich's lohnt.

Wir stehen natürlich irgendwie schon vor der Übergangszeit an dem Speicher mit "riesiger" Bandbreite wie HBM (1 DDRx Kanal x10 ? )langsam anfangen auch in die Prozessor-Gehäuse zu wachsen - da könnte man sich sicher auch mal ohne die größte GPU alle Zeiten zusätzlich zum ARM(?) was vorstellen was die meisten heutigen MacPro Anwendungen abdeckt. Große Bandbreite paßt auch zu viel cores zusätzlich zur eGPU.

Das ist aber dann morgen schon wieder Schnee von gestern - aktuelle Pro Graphikkarten machen das aber schon eine ganze Zeitlang mit HBM - und die Hersteller wie NVidia sind schon heftig dabei daraus parallele Systeme mit eigenen Switches und Netzwerklösungen zu stricken weil man mit einzelnen GPU-Gehäusen nicht mehr richtig weiter kommt. Selbst im MacPro kann man deswegen ne ordentliche Menge von GPUs einbauen.

Am Ende sind dann mindestens im PRO Bereich irgendwann aber doch parallele Systeme - sprich Cloud gefragt. Die Shareautos der Computerbranche. Natürlich nur wenn's dann auch mit dem deutschen Internet stimmt .. und damit mein ich nicht "bis zu 1G" oder 1GbE sondern eher die Möglichkeit zu "ab 100G".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
@AlphaKaninchen
So wie ich das verstehe, sind das zwei verschiedene Punkte. Ich glaube auch mit von-Neumann können Arbeitsspeicherdaten in einem Swapfile landen, das Teil des RAM-Adressraums, aber völlig vom RAM getrennte Hardware ist. Dass innerhalb dieses Adressraums, der die Adressen aller RAM-Module und der Swap-Datei oder Swap-Partition umfasst, nochmal eigene Grenzen aufgeworfen werden, um Daten und Befehle von einander abzuschotten, ist glaube ich davon nicht berührt. Und den VRAM der Erweiterungskarte mit dem Haupt-RAM des Motherboards zu vereinen, würde ja quasi nur das machen, was fast alle Betriebssysteme mit dem Swap/Auslagerungsdatei machen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Aphelon schrieb:
...
Da kann man jetzt weniger von "die versuchen seit Jahrzehnten GPUs zu bauen" reden...

Jaein, es gab schon vor der i740 einen Versuch, frag mich aber nicht mehr nach dem Namen.
Dann wollte man einen Celeron SoC/"APU", dann Larrabee und jetzt Xe
 
@MountWalker
Ich Zweifel ja nicht an das es geht, von der GPU aus im Hauptspeicher zu Schreiben & Lesen geht ja auch, interessant wird eben ob Apple es umsetzt wenn ja könnte RAM sogar eine PCIe Karte sein wie alles andere. Also z.B. Die CPU hat 128GB HBM2 und jede GPU 96GB HBM2 und auf einer Zusatzkarte gibt es dann nochmal 512GB GDDR6 macht dann 1TB RAM denn man für alles verwenden kann wie es grade gebraucht wird, bei 4 GPUs. Ich denke aber das Apple einen Monster SoC aus Chiplets bauen wird und wir wieder etwas wie den Mac Pro 2013 bekommen. (Was ich garnicht so schlecht fände)

Was ich grade überlege... was wird aus Thunderbolt GPUs wenn diese funktionieren sollten eigentlich auch die Vega Duos im Mac Pro funktionieren.
 
  • Gefällt mir
Reaktionen: MountWalker
deekey777 schrieb:
Eine so weitreichende Änderung wie "Rausflug der AMD Grafikkarten" in einem WWDC-Video für Entwickler zu verstecken, erscheint zu viel, oder?

Warum?

Alles was Apple aktuell bekannt gibt sind Informationen für Entwickler die ihre Anwendungen auf dem Mac anbieten.
Und für die ist das interessant.
Für den Rest der Menschheit spielt es aber keine Rolle und deshalb braucht es keine Pressemitteilung, dass Apple zukünftig auf AMD GPUs verzichten wird.
 
AlphaKaninchen schrieb:
was wird aus Thunderbolt GPUs wenn diese funktionieren sollten eigentlich auch die Vega Duos im Mac Pro funktionieren.
eGPUs bleiben abhängig vom Treiber-Support. Wenn Apple keine AMD-GPUs mehr in den Geräten verbaut, denke ich wird das auch mit dem Treiber-Support für AMD-Karten generell schlechter und damit sind dann eGPUs am Mac in Zukunft ggf. nicht mehr so möglich wie zuvor. Ähnlich wie bei nVidia, als die fallen gelassen wurden...

Vielleicht bringt Apple dann irgendwann eine eigene GPU heraus (nach dem Bitten und Flehen der Kunden), die sich dann auch als eGPU am Mac betreiben lässt... wäre imho vorstellbar, aber wird sicherlich teurer.

Edit:
AlphaKaninchen schrieb:
und wir wieder etwas wie den Mac Pro 2013 bekommen. (Was ich garnicht so schlecht fände)
Ich eher nicht. Apple konnte Jahrzehnte lang tolle Workstation-Tower bauen und dann war das 2013 einfach vorbei. Und der jetzige Mac Pro ist halt einfach schlecht konfiguriert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sammy2k8 und AlphaKaninchen
@Aphelon Wenn man alles im SoC hat hätte man dann 2 PCIe 4.0 x16 Slots (und M.2 Slots), wenn GPUs eh nicht gehen brauchen die meisten doch eh keine PCIe Slot, Audiohardware geht auch über Thunderbolt. (Und wenn nicht gibt es ja PCIe Slots nur eben nicht so viele)
 
OldZocKerGuy schrieb:
Ein weiterer Vorteil für Apple wird halt auch sein das die ganzen Intel Hackintosh Clone ebenfalls dann aussterben..
Da wäre ich mir nicht so sicher. Eine AMD CPU wurde von Apple auch noch nie verbaut und es ist möglich es auf einem AMD System zu installieren.

Zumal kannst du einfach die allerletzte Intel-CPU einbauen die Apple vor dem kompletten Umstieg auf ARM eingesetzt hatte und hättest locker 7-8 Jahre Ruhe, da Apple diese Systeme noch eine ganze weile unterstützen muss.
 
AlphaKaninchen schrieb:
Audiohardware geht auch über Thunderbolt
Bei nem PCIe-Interface dann aber nur extern und dann noch die SSDs allesamt extern Anschließen, weil man nicht die Apple-SSD-Preise zahlen will und die SSDs ja eben eh schon hat, etc. Nee, sorry 2013 war für mich einfach ne Enttäuschung.

Kazuya91 schrieb:
Da wäre ich mir nicht so sicher. Eine AMD CPU wurde von Apple auch noch nie verbaut und es ist möglich es auf einem AMD System zu installieren.
Die AMD CPU ist aber (wie auch intel) x86 und nicht ARM. Wenn Apple in ein paar Jahren ihr OS exklusiv nur noch für ARM heraus bringt, wars das eben auch mit AMD-Hackintosh
Kazuya91 schrieb:
Zumal kannst du einfach die allerletzte Intel-CPU einbauen die Apple vor dem kompletten Umstieg auf ARM eingesetzt hatte und hättest locker 7-8 Jahre Ruhe, da Apple diese Systeme noch eine ganze weile unterstützen muss.
Bleibt die Frage, ob die wirklich noch 7-8 Jahre unterstützt werden. War beim letzten Umstieg nicht so lange und würde mich wundern, wenn es diesmal so viel langsamer geht. Man will ja auch, dass der Kunde irgendwann was neues kauft.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Sammy2k8 schrieb:
Zwar nur wenige AA oder AAA Titel (z.b.Civi oder FM201x) aber das kann sich dann auch recht schnell ändern.
Da scheint zumindest Gerüchteweise eher das Gegenteil der Fall zu sein. Den Blizzard soll ich vom Mac langsam aber sicher verabschieden. Dazu muss man wissen das Blizzard einer der ganz wenigen war die ihre Spiel separat am Mac entwickelt haben und auch zeitgleich rausbrachten.

Das Problem, gerade die Gamer wollen die AA und AAA Titel zocken und genau dann wen sie die anderen auch zocken. Nicht ein Jahr später oder gar nicht weil es nicht umgesetzt wird für den Mac.

Wenn das mit Blizzard stimmen sollte zeigt es aber eines sehr schön. Es kommt nicht drauf an wie viele Mac es gibt, sondern wie viele damit spielen. Auch nicht wie viele Spiele es gibt, sondern welche.
Ich kenne so einige die zwar einen Mac haben, aber zum zocken dann eben einen PC. Was auch kein wunder ist bei den Grafikkarten die Apple verbaut und das zu den Preisen.

Moment ich gucke mal.
iMac mit 21,5 Zoll mit der stärksten gebotenen Grafikarte schlägt mit 2154.-€ zu Buche.
iMac mit 27 Zoll mit der stärksten Grafikarte dann mit 3184.-€
Da reden wir aber nur von einer Vega 20 mit 4GB Ram und von einer Vega 48 mit 8GB Ram. Wobei die Vega 48 nicht anderes sein wird als eine Abgespeckte Vega 56.
HALLO, bei den Preis? So alte Karten?. Die sind am PC Markt schon lange überholt. Oder wenn man es ganz Hart sagen will, Vega 56 kauft man am Gebrauchtmarkt.
Zumal für die Preis die Apple da verlangt baut man sich aber einen Hammer Gamer PC.

Da drängt sich aber mir noch ein Frage auf. Wenn Apple da so tolle GPU bringt, was ist den da das Mass dafür? Die alten Karten die sie in aktuellen iMacs einbauten, oder die aktuellen Karten von AMD und Nvidia?

Ich bleibt dabei, zuerst müssen die Dinger mal auf den Markt sein und sich im alt Tag bewehren dann wird man reden können.
 
  • Gefällt mir
Reaktionen: Sammy2k8
Zurück
Oben