pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.420
nanoworks
xexex
Man stelle sich vor, dass AMD und Intel in Zukunft vllt nur mehr APUs anbieten, die auch eine potente igp besitzen, welche in Games für AI, RT und andere Features genutzt werden können, um die Grafikkarte zu entlasten. Dazu muss das Konzept HSA (eben auch schnelle Bus Verbindung zur GPU) weiter ausgebaut werden.
Da Intel und AMD beide HPC Markt fokussieren und GPU als HPC Beschleuniger sehen ( siehe AMD Vega 20 und Fabric Bus), wäre es "möglich".
Aber am Ende entscheidet es, was die User kaufen und ob die Spiele Entwickler es als sinnvoll sehen, so Performance rauszuholen.
Konsolen Hersteller machen aber eig bereits das. Alles in einem Chip. Deshalb bin ich gespannt auf die neuen Konsolen. Angeblich soll Sony sogar HBM nützen. Ich bin gespannt auf die Konzepte von Sony und MS. Wie sie ihre APUs konfigurieren. Ein Kritikpunkt war ja nicht nur die CPU selbst, sondern dass beim gemeinsamen Si die CPU auch etwas von der Brandbreite der GPU mitgenascht. Deshalb könnte Sony ein HBM und DDR4 Ansatz anstreben. Selbst wenn das weniger Die Fläche für mehr CUs bedeutet, aber im Vergleich zu GCN durch die neue Arch vllt etwas durch höheren Takt und niedrigere Latenzen etwas kompensiert werden könnte. Vllt ist RDNA auch wesentlich schlanker. Bin auf alle Fälle gespannt, was wir die nächste Zeit sehen.
DrDoom
Der Nachteil der APU mit der TDP ist ja nur gegeben, wenn die CPU als CPU und die GPU als Grafikbeschleuniger verwendet wird. Das steht aber im Kontrast zu HPC Konzept, wo Aufgaben/Workloads je nach Effizienz auf die richtige Einheit zugespielt wird. In Smartphones bekommt man das ja teils gut hin (man denke an die NPU oder manche Hersteller, die CPU und GPU für KI Aufgaben in Kombination nützen).
Es kommt eben darauf an, wie man das Konzept betrachtet. Wenn man einer CPU und GPU gemeinsam eine TDP von 15 Watt (oder auf Verbrauch) limitiert, unterscheidet sich das von einer APU mit 15 Watt TDP auch nicht wirklich. Im PC Markt existiert einfach keine große HP APU, mit 100-200 Watt. Natürlich, weil in erster Linie dann auch vllt OEMs interessiert wären, weniger PC-Bastler, außer man plant sein sehr kompakten PC und hat vllt einen Sockel, der mehrere Gen. unterstützt. AMD selbst hat bei OEM aber noch nicht so den Durchsatz. Anders Intel. Eine große APU könnten sie sicher den einen oder anderen OEM verkaufen. Wenn die Effizienz und Skalierbarkeit passt, sogar für Notebooks interessant.
Genauso stelle ich die Frage, wieso nützt man für Grafikkarten nicht eine APU, mit ein paar X86 oder ARM Cores, die zum Beispiel Integer Aufgaben übernehmen und somit den BUS und die CPU entlasten ?
Es ist einfach alles Zukunft Musik, aber das liegt eben an der Installations-Basis und dem Betriebsystem. Man kann bestehendes nicht einfach von heut auf morgen umstellen.
Anders eben bei Konsolen, wo es einfach einen Tag Null gibt, mit neuen Betriebssystem und Spiele, die auf die Konsolen-Technik angepasst sind. Aber solche Konzepte wären für den PC auch nicht unmöglich, nur eben durch "Altlast", nennen wir es so, nicht einfach umsetzbar.
So meine Sicht der Dinge. Muss aber mit meiner naiven Ansicht der Dinge nicht richtig liegen.
xexex
Man stelle sich vor, dass AMD und Intel in Zukunft vllt nur mehr APUs anbieten, die auch eine potente igp besitzen, welche in Games für AI, RT und andere Features genutzt werden können, um die Grafikkarte zu entlasten. Dazu muss das Konzept HSA (eben auch schnelle Bus Verbindung zur GPU) weiter ausgebaut werden.
Da Intel und AMD beide HPC Markt fokussieren und GPU als HPC Beschleuniger sehen ( siehe AMD Vega 20 und Fabric Bus), wäre es "möglich".
Aber am Ende entscheidet es, was die User kaufen und ob die Spiele Entwickler es als sinnvoll sehen, so Performance rauszuholen.
Konsolen Hersteller machen aber eig bereits das. Alles in einem Chip. Deshalb bin ich gespannt auf die neuen Konsolen. Angeblich soll Sony sogar HBM nützen. Ich bin gespannt auf die Konzepte von Sony und MS. Wie sie ihre APUs konfigurieren. Ein Kritikpunkt war ja nicht nur die CPU selbst, sondern dass beim gemeinsamen Si die CPU auch etwas von der Brandbreite der GPU mitgenascht. Deshalb könnte Sony ein HBM und DDR4 Ansatz anstreben. Selbst wenn das weniger Die Fläche für mehr CUs bedeutet, aber im Vergleich zu GCN durch die neue Arch vllt etwas durch höheren Takt und niedrigere Latenzen etwas kompensiert werden könnte. Vllt ist RDNA auch wesentlich schlanker. Bin auf alle Fälle gespannt, was wir die nächste Zeit sehen.
DrDoom
Der Nachteil der APU mit der TDP ist ja nur gegeben, wenn die CPU als CPU und die GPU als Grafikbeschleuniger verwendet wird. Das steht aber im Kontrast zu HPC Konzept, wo Aufgaben/Workloads je nach Effizienz auf die richtige Einheit zugespielt wird. In Smartphones bekommt man das ja teils gut hin (man denke an die NPU oder manche Hersteller, die CPU und GPU für KI Aufgaben in Kombination nützen).
Es kommt eben darauf an, wie man das Konzept betrachtet. Wenn man einer CPU und GPU gemeinsam eine TDP von 15 Watt (oder auf Verbrauch) limitiert, unterscheidet sich das von einer APU mit 15 Watt TDP auch nicht wirklich. Im PC Markt existiert einfach keine große HP APU, mit 100-200 Watt. Natürlich, weil in erster Linie dann auch vllt OEMs interessiert wären, weniger PC-Bastler, außer man plant sein sehr kompakten PC und hat vllt einen Sockel, der mehrere Gen. unterstützt. AMD selbst hat bei OEM aber noch nicht so den Durchsatz. Anders Intel. Eine große APU könnten sie sicher den einen oder anderen OEM verkaufen. Wenn die Effizienz und Skalierbarkeit passt, sogar für Notebooks interessant.
Genauso stelle ich die Frage, wieso nützt man für Grafikkarten nicht eine APU, mit ein paar X86 oder ARM Cores, die zum Beispiel Integer Aufgaben übernehmen und somit den BUS und die CPU entlasten ?
Es ist einfach alles Zukunft Musik, aber das liegt eben an der Installations-Basis und dem Betriebsystem. Man kann bestehendes nicht einfach von heut auf morgen umstellen.
Anders eben bei Konsolen, wo es einfach einen Tag Null gibt, mit neuen Betriebssystem und Spiele, die auf die Konsolen-Technik angepasst sind. Aber solche Konzepte wären für den PC auch nicht unmöglich, nur eben durch "Altlast", nennen wir es so, nicht einfach umsetzbar.
So meine Sicht der Dinge. Muss aber mit meiner naiven Ansicht der Dinge nicht richtig liegen.
Zuletzt bearbeitet: