News AMD Sound Wave: Nach Strix, Sarlak und Kraken eine weitere AMD-APU

Matthias B. V. schrieb:
Hoffe diese wird mit 3D-Cache und dennoch einem 256-Bit LPDDR5x Interface kombiniert. Aber befürchte hier wird es zumindest am Anfang abstreiche geben.
Hab ich was übersehen aber DDR5 hat doch auch nur 64Bit / Channel d.h. 128bit bei Dualchannel und ich bezweifle das sie die APU mit einem Quadchannelinterface ausstatten werden das sich dann auch immer noch beide, CPU+GPU teilen müssen.

Am Ende wird die GPU der APU also auch am 128Bit Interface zappeln.
 
stefan92x schrieb:
Genoa mit 96 Kernen bringt insgesamt ähnliche oder höhere Rechenleistung als Bergamo mit 128 Kernen, und die Die-Fläche ist bei beiden durchaus vergleichbar.
Da bin ich anderer Meinung:
RPYCTNrDEhbRVr4Wu3yRud.jpg

Ganze 4 CCDs weniger. Und die CCDs haben genau dieselbe Größe. Doppelte Anzahl an Kernen/Fläche resultiert trotz niedrigerem Takt und der Halbierung des Caches/Kern nach wie vor in mehr Leistung/Fläche. Darauf war AMD aus.
sikarr schrieb:
Hab ich was übersehen aber DDR5 hat doch auch nur 64Bit / Channel d.h. 128bit bei Dualchannel
Ihm geht es um verlöteten LPDDR. Da ist man nicht mehr an die verfügbare Busbreite der DIMM-Slots gebunden.
 
Zuletzt bearbeitet:
stefan92x schrieb:
Aber die Kerne sind langsamer. Genoa mit 96 Kernen bringt insgesamt ähnliche oder höhere Rechenleistung als Bergamo mit 128 Kernen, und die Die-Fläche ist bei beiden durchaus vergleichbar.
Das mit der Leistung stimmt so aber nicht.
Die 128C Version ist ca. 20-30% schneller bei gleicher Powerabrieglung. Es schrumpft minimal wenn man den 400W 9684X gegen stellt.
Zumindest was reines MT Numbercrushing ohne irgendwelche nennenswerten Limitationen bei der Threadanzahl angeht.
https://www.phoronix.com/review/amd-epyc-9754-bergamo/5

Der Sinn hinter den "C" Cores ist die Packdichte bzw. Flächeneffizienz. Mehr MT Power auf gleicher bis niedrigerer Fläche im gleichen Powerbudget.
Zudem sind sie auch für die 8000er Reihe das Mittel der Wahl wenn ich das richtig sehe. Wo man dann nur halb so viele davon verbaut und dennoch die 64C Modelle anbieten kann. Eins der größeren Nachteile der Epyc CPUs war bis dato halt, dass man die großen Modelle nehmen musste oder sich zwischen lahmen CCD-Anbindungen oder wenig Cores pro CCD entscheiden musste. Die 8000er Reihe egalisiert das für einen Brot und Butter Server komplett. Da man nicht 12 CCDs am IO Die hat, sondern lediglich 4. Einziges Manko, es geht bisschen zulasten der Peak Performance. Weil die "C" Cores nicht so hoch boosten können.
 
cr4zym4th schrieb:
Bei der Intelvariante mit Vega GM H war jene Grafikeinheit mehr als doppelt so schnell wie die damals schnellste Vega 11.
Ja leider ist es vermutlich so das durch den KI Wahn man weiterhin bei Konsumern kein HBM verbauen wird.
Erst recht nicht bei APUs. Echt Schade.
Aber irgendwann wird es kommen müssen.
Bevor bsp. ein 512Bit Interface im Konsumer-Markt zurück kehrt wird es wohl HBM werden.

HBM ist eigentlich perfekt für APUs und löst den ganzen Speicherbandbreitenmangel.
Halt nur sehr teuer.
 
sikarr schrieb:
Hab ich was übersehen aber DDR5 hat doch auch nur 64Bit / Channel d.h. 128bit bei Dualchannel und ich bezweifle das sie die APU mit einem Quadchannelinterface ausstatten werden das sich dann auch immer noch beide, CPU+GPU teilen müssen.

Am Ende wird die GPU der APU also auch am 128Bit Interface zappeln.
Ja aber bei 40 CU sind 128 Bit zu wenig. Kann sein dass es am Anfang so ist aber langfristig sind 256 Bit anzustreben.

Und die Mega-APU wird sicher kein DIY Standard sondern für OEMs als auf Apples Max / Ultra sein.
Ergänzung ()

crustenscharbap schrieb:
Das wird sicher nur mit integriertem LPDDR6x möglich sein. Sonst ergäben die 40CUs kein Sinn.
LPDDR6 für 2026+ ja aber noch nicht für Kraken etc da erster Test und LPDDR6 nicht verfügbar.

Deshalb sehe ich auch 3D Cache erstmal später.
crustenscharbap schrieb:
Ich bin auf den Preis gespannt. Ob so ein PC weit über 1000€ kosten wird.
Naja 1000€ ist ja auch nicht die angestrebte Kundengruppen.

crustenscharbap schrieb:
Diese super APU wird sehr sehr wahrscheinlich mit integriertem Quad Channel DDR6 kommen. Anders ist das kaum realisierbar. Dies auf einem sockelbaren Mainbaord würde den Sockel riesig und das Mainbaord sau teuer machen. Auch wegen den RAM Controllern.
Denke auch nicht DIY PC sondern OEM Notebook NUCs etc.
Ergänzung ()

Ghostshield schrieb:
Bei den Low Powerr APUs sollte AMD mal lieber auf ihre C Kerne setzen, da hier Effizienz an oberster Stelle steht
Kraken und Nachfolger werden keine Low-Power CPUs sondern Ersatz für ca. 45-90W CPU + ca. 75-125W GPU

Bei anderen APUs unter 28W stimme ich zu obwohl ein 4+4 oder 4+8 Design über 28W wahrscheinlich ist. Im ULP Bereich reichen sicher komplett C-Kerne.
 
Zuletzt bearbeitet:
ghecko schrieb:
Ihm geht es um verlöteten LPDDR. Da ist man nicht mehr an die verfügbare Busbreite der DIMM-Slots gebunden.
Rausführen aus dem Sockel/BGA muss man es dann aber dennoch. Die Frage ist, wozu dann LPDDR irgendwas? Da kannste auch GDDR in noch schneller drauf bauen. Siehe Konsolen APUs.

Draco Nobilis schrieb:
HBM ist eigentlich perfekt für APUs und löst den ganzen Speicherbandbreitenmangel.
Halt nur sehr teuer.
Nicht zwangsweise. HBM ist ja nur ein anderer Typ an Speicher. Initial war der Vorteil, dass man HBM Stacks eben gestapelt hatte. Also eine Flächeneinsparung durch die Höhe. Und dennoch niedrige Laufwege, weil es sehr nach am Prozessor dran war. Während man ggü. GDDR irgendwas damals eben in hohe Interface Breiten gehen musste, was recht ineffizient war. Heute geht das aber schon recht schnell auch mit GDDR irgendwas.

Den Vorteil spielt HBM aktuell eher in noch höherer Speicherdichte aus. Bis 48GB pro Stack sollen wohl möglich sein aktuell. Das gibts bei GDDR irgendwas so halt nicht.

Matthias B. V. schrieb:
Ja aber bei 40 CU sind 128 Bit zu wenig. Kann sein dass es am Anfang so ist aber langfristig sind 256 Bit anzustreben.
Eher nicht. Denn mehr Interfacebreite = mehr Verbrauch. Das skaliert relativ schlecht. Während höher taktender Speicher oder allgemein neuere Standards mit höherer Bandbreite besser skalieren, sofern es was neueres gibt halt.

Zudem diese harten "so und so viele CUs und so und so viel Interface Breite = zu wenig" irgendwie keinen Sinn ergeben. Weil die Vergangenheit hat uns gelehrt, Interface Breite allein bringt gar nix. Das muss in Summe alles passen.
Eine R600 aus 2007 mit 512Bit SI hat sich schwer getan eine 320Bit G80 8800GTS 640MB zu schlagen. Eine Hawaii mit 512Bit SI hat auch ne Weile gebraucht um sich von GK110 anzusetzen. Die 384Bit Tahiti GPU davor wurde initial von einer 256Bit GK104 recht deutlich nass gemacht. Vega64 mit HBM hat kein Land gesehen. Die Radeon VII mit HBM und wahnwitzigen 1TB/sec hat es ebenso nicht.

Aktuell performt bspw. eine 12CU RDNA3 780M mit der relativ mauen Bandbreite von DDR5 schon sehr gut. AMD hat hier die Hausaufgaben etwas besser gemacht als bei Vega bspw.
Bandbreitenbedarf für bessere Skalierung könnte man bspw. mit schnellen Caches kompensieren. So wie bei RDNA2 mit dem IF Cache und 2TB/sec Bandbreite intern. Bringt Energieeffizienz, spart Bandbreite und hat eigentlich nur Vorteile bis auf hohen Flächenbedarf.
 
Der Ableger Strix Halo soll eine Klasse darüber eine besonders leistungsstarke GPU mit 40 CUs bieten.
Klingt, auch vom Releasedatum würde das passen, nach einer neuen Xbox APU?! OBwohl 40 CU's nach den 52 der XSX etwas wenig klingt, aber ich weiss nicht in wie weit man das vergleichen kann. 🤷‍♂️
 
crustenscharbap schrieb:
Den lahmen DDR5 haben wir nur weil es billiger ist. Im Prinzip könnte man den PC direkt mit 32 Gig DDR6X voll hauen.
Tippe eher auf Latenzen. Da will sich niemand freiwillig DDR6X antun.
 
fdsonne schrieb:
Rausführen aus dem Sockel/BGA muss man es dann aber dennoch.
Und? Dann hat der BGAs halt ein paar Kontakte mehr.
fdsonne schrieb:
Die Frage ist, wozu dann LPDDR irgendwas? Da kannste auch GDDR in noch schneller drauf bauen.
Könnte man machen. Oder auch lassen. Von den Spezifikationen sind die beiden Varianten ziemlich ähnlich mittlerweile.
 
fdsonne schrieb:
Nicht zwangsweise.
Ich formuliere mal anders:
Der Interposer / Aufbau ist teurer.

Der Speicher selbst fällt wohl nicht in das Gewicht.
Bei APUs geht es dabei schon um Platzeinsparung in entsprechenden Geräten.
Dazu auch mögliche Energieeinsparungen, wie du schreibst liegt HBM normal näher an der APU und ist gestapelt.

fdsonne schrieb:
Heute geht das aber schon recht schnell auch mit GDDR irgendwas.
Wir begnügen uns mit "absurd" hoch und ineffizient taktenden GDDR mit hohen Aufwand an Leiterbahnen.

Ich weiß nicht ab wann man einen Strich zieht, 256Bit sind es nicht. 384 Bit wird schon knapp. 512 Bit? Keine Ahnung. Anderes Problem ist auch das kein GPU Hersteller einfach mal so von 8-16GB auf 24-48 GB bei doppelt bis dreifacher Speicherbandbreite in einem Sprung/Gen bei Konsumern machen will.
Und Konsolen nehmen Massenware, was HBM + Aufbau drumrum in Konsumer so nicht ist.
 
crustenscharbap schrieb:
Das wird sicher nur mit integriertem LPDDR6x möglich sein. Sonst ergäben die 40CUs kein Sinn.
Muss nicht unbedingt integriert sein! Es komm ja jetzt langsam LPCAMM2. Wer weiß ob bei der sechsten Generation sich langsam von den normalen Riegel verabschieden.
 
ghecko schrieb:
Könnte man machen. Oder auch lassen. Von den Spezifikationen sind die beiden Varianten ziemlich ähnlich mittlerweile.
Naja, gibt es verlötete LPDDR irgendwas Versionen mit 256Bit SI?
GDDR irgendwas gibt es nachweislich mit 512Bit. Ob der Prozessor sowas könnte bzw. was das intern für den Speichercontroller bedeuten würde, wenn man LPDDR irgendwas so breit macht, ist ja offen.

Draco Nobilis schrieb:
Dazu auch mögliche Energieeinsparungen, wie du schreibst liegt HBM normal näher an der APU und ist gestapelt.
Das größte Manko dabei ist, es ist unflexibel.
AMD baut halt keine CPUs/APUs für nen Hersteller wie Apple, der das einfach so für seine Hand voll Gerätschaften festlegt und gut.
AMD ist "nur" Zulieferer bzw. fertigt im Auftrag. Das muss am Ende also in mehr als dem reinen Bandbreitengesichtspunkt aufgehen. Was will ich mit nem Notebook mit sagen wir ner schnellen APU und HBM, wenn das dann auf sagen wir 24GB fest limitiert ist?
Technisch laufen in der DDR5 Version heute 96GB als 2x48GB gesteckt. Das braucht man im Zweifel vielleicht nicht immer. Aber es sollte zumindest so viel möglich, damit die Basis unten stimmt. Sonst fährt man wieder mit einer dGPU + GDDR irgendwas + CPU mit viel RAM als Steckmodul flexibler und vor allem schneller.
Draco Nobilis schrieb:
Anderes Problem ist auch das kein GPU Hersteller einfach mal so von 8-16GB auf 24-48 GB bei doppelt bis dreifacher Speicherbandbreite in einem Sprung/Gen bei Konsumern machen will.
Wieso? Das ist doch kein Muss...
Man muss ja die nicht die größten Chips verbauen. Sprich die Menge ist runterzu natürlich sehr gut skalierbar. Aber eben hoch zu im Zweifel nicht, wenn das Interface zu klein ist. Aktuell scheint eher die GPU das Interface zu bestimmen. Also in Sachen Bandbreitenbedarf. Weniger direkt die Speicherkapazität selbst.

Bei der 40 CU Version wird man dann sehen was sowas kann bzw. wie sich das verhält.
Wie gesagt, mit nem internen ausreichend großen Cache wie es die RDNA2 GPUs vormachen, kann man sehr sehr viel Bandbreitenbedarf sehr gut kompensieren. Speichermenge kann man dann günstig in "langsam" anbinden. Speed generiert man durch den Cache. So wäre zumindest meine Theorie dazu.
 
Matthias B. V. schrieb:
. Intel und Qualcomm schlafen nicht und bis dahin könnte auch Nvidia mit ARM CPU + Nvidia GPU APUs einsteigen.
NVidia-ARM-APUs wären nur für Konsolen interessant, im Endanwender-PC-/Notebookbereich wären die Dinger wegen den ARM-CPU-Kernen ne Totgeburt.
 
Nicht wenn die Zukunft von Windows ARM ist und hier mehr Software vernünftig läuft was in den nächsten Jahren nicht abwegig ist.

Insbesondere wenn Qualcomm Erfolg hat!
 
iGameKudan schrieb:
NVidia-ARM-APUs wären nur für Konsolen interessant, im Endanwender-PC-/Notebookbereich wären die Dinger wegen den ARM-CPU-Kernen ne Totgeburt.
Wird schon Microsoft nicht wollen, weil XBOX PC Cross-Compatibilität. Die müssten mal langsam gelernt haben das sowas nicht gut geht.
Arm ist auch... naja... weder besser noch effizienter in dem Powerbudget.
Für Konsolen kommen aufgrund Power Budget / Effizienz und Baugröße sowie kosten für Kühlung nur APUs in Frage.

fdsonne schrieb:
Das größte Manko dabei ist, es ist unflexibel.
AMD baut halt keine CPUs/APUs für nen Hersteller wie Apple, der das einfach so für seine Hand voll Gerätschaften festlegt und gut.
AMD ist "nur" Zulieferer bzw. fertigt im Auftrag. Das muss am Ende also in mehr als dem reinen Bandbreitengesichtspunkt aufgehen.
Das ist natürlich ein Punkt. Wie flexibel HBM Lösungen in einem ganzen Portfolio sind.

fdsonne schrieb:
Wieso? Das ist doch kein Muss...
Für kleineres lohnt der Aufwand doch finanziell kaum wegen der Kosten drum herum.

fdsonne schrieb:
Aktuell scheint eher die GPU das Interface zu bestimmen. Also in Sachen Bandbreitenbedarf. Weniger direkt die Speicherkapazität selbst.
Ja, bei APUs ist klar es die geringe Speicherbandbreite welche aktuell sehr viel Performance bremst
Man muss natürlich wenigstens dennoch mal 8GB haben. Aber gut.
Konsolen lösen das sehr simpel und stumpf. Aber halt wie man sieht besser.
Denke 16GB vram/ram Kombo würden, wie man bei Konsolen sieht, für Mittelklasse völlig ausreichen.
NVME + direct storage vorausgesetzt.

fdsonne schrieb:
Wie gesagt, mit nem internen ausreichend großen Cache wie es die RDNA2 GPUs vormachen, kann man sehr sehr viel Bandbreitenbedarf sehr gut kompensieren.
Bandbreitenbedarf ja, dafür wird die APU halt noch größer. Mittelweg finden.
APUs sind schon sehr groß und damit oft schon von Yield Problemen betroffen.
 
fdsonne schrieb:
Eher nicht. Denn mehr Interfacebreite = mehr Verbrauch. Das skaliert relativ schlecht. Während höher taktender Speicher oder allgemein neuere Standards mit höherer Bandbreite besser skalieren, sofern es was neueres gibt halt.
Naja natürlich kostet mehr Leistung mehr Strom aber das Ding soll ja nicht das Office Notebook oder Ultra Mobile Notebook ersetzen sondern das Gaming / Creator Gerät die den neben Prozessor gleich die 4060/4070 „integrieren“ welche ja sonst auch entsprechend leistungshungrige Interfaces integriert haben.

Denke es ist dann unter entsprechender Last sogar effizienter als CPU und GPU Interface doppelt zu nutzen. Zudem man Unified Memory hat.
fdsonne schrieb:
Zudem diese harten "so und so viele CUs und so und so viel Interface Breite = zu wenig" irgendwie keinen Sinn ergeben. Weil die Vergangenheit hat uns gelehrt, Interface Breite allein bringt gar nix. Das muss in Summe alles passen.
Eine R600 aus 2007 mit 512Bit SI hat sich schwer getan eine 320Bit G80 8800GTS 640MB zu schlagen. Eine Hawaii mit 512Bit SI hat auch ne Weile gebraucht um sich von GK110 anzusetzen. Die 384Bit Tahiti GPU davor wurde initial von einer 256Bit GK104 recht deutlich nass gemacht. Vega64 mit HBM hat kein Land gesehen. Die Radeon VII mit HBM und wahnwitzigen 1TB/sec hat es ebenso nicht.
Ja das ist richtig aber impliziert die Annahme dass sich am CU Design nicht viel ändert und diese durch neuere Generationen leistungsfähiger werden. Und eine aktuelle oder verbessere Radeon mit 40CUs wäre schon eine Ansage! Also ist dein Kommentar in der Theorie schon korrekt aber von der Annahme ähnliche CU Aufteilung gingen die meisten Leute aus.
fdsonne schrieb:
Aktuell performt bspw. eine 12CU RDNA3 780M mit der relativ mauen Bandbreite von DDR5 schon sehr gut. AMD hat hier die Hausaufgaben etwas besser gemacht als bei Vega bspw.
Bandbreitenbedarf für bessere Skalierung könnte man bspw. mit schnellen Caches kompensieren. So wie bei RDNA2 mit dem IF Cache und 2TB/sec Bandbreite intern. Bringt Energieeffizienz, spart Bandbreite und hat eigentlich nur Vorteile bis auf hohen Flächenbedarf.
Die Caches sind aber auch irgendwann limitiert und dann Zähl Speicher(Interface)

Wie gesagt kann gut sein dass es vorerst nur 128-Bit werden aber halte 256-Bit für nicht ganz abwegig. Insbesondere wenn man Apples Max und Ultra als Vorlage sieht.
 
fdsonne schrieb:
Naja, gibt es verlötete LPDDR irgendwas Versionen mit 256Bit SI?
Es gibt eine feste Interfacebreite pro GDDR/LPDDR Chip und keine feste Gesamtbreite. Wie viele von diesen Channels (die insgesamt dann in 96, 128, 256bit Breite resultieren) implementiert werden können, wird über den Memorycontroller festgelegt und der sitzt dann in der APU. Darüber wird dann auch entschieden, welche Ausbaustufen bezüglich Größe möglich sind, anhand der Speicherkapazitäten in der die jeweiligen Chips zu Verfügung stehen, bei Vollbelegung aller Channel.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zarlak und Deinorius
fdsonne schrieb:
Zumindest was reines MT Numbercrushing ohne irgendwelche nennenswerten Limitationen bei der Threadanzahl angeht.
https://www.phoronix.com/review/amd-epyc-9754-bergamo/5
Stimmt, das Bild ist tatsächlich gemischter als ich in Erinnerung hatte. Auch mal hier geschaut: https://www.servethehome.com/amd-epyc-bergamo-epyc-9754-cloud-native-sp5/2/

Also es gibt Anwendungen, die auf Bergamo insgesamt besser laufen, und es gibt welche, die auf Genoa(-X) besser performen.
ghecko schrieb:
Ganze 4 CCDs weniger. Und die CCDs haben genau dieselbe Größe
Es ist zwar tatsächlich so, dass die Zen 4c CCDs ein bisschen größer sind als die Zen 4, aber auch da ist der Unterschied geringer, als ich in Erinnerung hatte. Läuft also dann wohl darauf hinaus, dass im für Genoa besten Fall die Rechenleistung pro Fläche vergleichbar ist, aber oft schlechter.

Trotzdem bleibe ich dabei: Die geschrumpften Die-Sizes hat AMD gerne mitgenommen, aber das Hauptziel war und ist, möglichst viele Kerne unterbringen zu können.
 
Was sich für mich aus diesen Informationen ergibt, ist, dass ein potentielles Steam Deck 2 nicht vor 2026 kommen würde, wenn AMD erst in diesem Jahr auf N3 wechseln würde. Wahrscheinlich tun sie es mit den CPUs schon etwas früher, aber da reden wir von Chiplets und nicht größeren APUs. N3 ist das Minimum als node, damit die nächste Steam Deck APU einen nennenswerten Leistungsvorsprung bringen kann.

crustenscharbap schrieb:
Das wird sicher nur mit integriertem LPDDR6x möglich sein. Sonst ergäben die 40CUs kein Sinn.
DDR6 kommt frühestens 2026 und ich bezweifle, dass man in dem Fall gleich so weit gehen würde. Außerdem stellt sich da noch die Frage, ob die Bandbreite damit ausreichend ansteigen würde. Vorrangig muss der Bus größer werden und hoffentlich wird der Cache vergrößert und optimiert. Bei letzterem würde ich mir erhoffen, dass L3 Cache und Infinity Cache dasselbe darstellen und effizient gemeinsam genutzt werden könnten.

sikarr schrieb:
Am Ende wird die GPU der APU also auch am 128Bit Interface zappeln.
Vollkommen ausgeschlossen!

fdsonne schrieb:
Aktuell performt bspw. eine 12CU RDNA3 780M mit der relativ mauen Bandbreite von DDR5 schon sehr gut.
Relativ sehr gut. Mit niedrigem power target sind die sehr effizient, aber wenn man mehr Leistung mit höheren power targets erreichen möchte, kommt kaum noch mehr heraus und da dürfte die niedrige Bandbreite der Schuldige sein. AMD könnte dem früher beikommen, wenn die GPU selber einen Infinity Cache bekommen würde, aber das benötigt Transistoren und somit Platz und Geld.

M@tze schrieb:
Klingt, auch vom Releasedatum würde das passen, nach einer neuen Xbox APU?! OBwohl 40 CU's nach den 52 der XSX etwas wenig klingt, aber ich weiss nicht in wie weit man das vergleichen kann. 🤷‍♂️
Definitiv nicht! Was für eine Xbox soll das denn sein? Microsoft kann nicht davon ausgehen, dass die sich besser verkaufen würde. Die XSS ist wenigstens günstig und die XSX relativ teuer, aber kann diese Leistung im Vergleich zur PS5 nicht ausreichend zum Vorschein bringen und dann noch etwas dazwischen entwickeln?
Absoluter Humbug!
Und man kann es gut vergleichen, da sich in der Architektur nicht allzu vieles geändert haben dürfte. Man kann nur hoffen, dass RDNA3+ (oder 3.5) wesentlich effizienter läuft.

Fegr8 schrieb:
Muss nicht unbedingt integriert sein! Es komm ja jetzt langsam LPCAMM2. Wer weiß ob bei der sechsten Generation sich langsam von den normalen Riegel verabschieden.
Das Problem hierbei ist, auch wenn mir das sehr gefallen würde, ist der Aufbau des Boards in Kombination mit der Stromzulieferung und der Kühlung.
Kann man das direkt nebeneinander positionieren, also um 90° versetzt, oder würde das die Kühlung zu schwierig gestalten? Wenn man die Module nun gegenüber positionieren würde, bräuchte man auf beiden Seiten in der Fläche genug Platz. Wohin mit den MOSFETs und Kondensatoren? Kann die Kühlung direkt über den Modulen verlaufen? Ich zweifle sehr daran.

Manchmal frage ich mich auch, ob Strix Halo nicht auch eine APU ist, welche für die neue Generation von Steam Machines gedacht ist! Ich hätte nichts dagegen. ;)
 
  • Gefällt mir
Reaktionen: crustenscharbap
Deinorius schrieb:
Manchmal frage ich mich auch, ob Strix Halo nicht auch eine APU ist, welche für die neue Generation von Steam Machines gedacht ist! Ich hätte nichts dagegen. ;)
Mit dem Gedanken bist du nicht alleine, die Rahmendaten, die durchgesickert sind, rufen einfach "ich bin ein Konsolenchip", auch wenn High-End-Laptops sicherlich auch plausibel als Zielmarkt dafür sind.
 
Zurück
Oben