Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Radeon RX 7000 & MI300: RDNA 3 kommt mit Chiplets, aber erst CDNA 3 stapelt sie
- Ersteller Jan
- Erstellt am
- Zur News: Radeon RX 7000 & MI300: RDNA 3 kommt mit Chiplets, aber erst CDNA 3 stapelt sie
Zap Zockt schrieb:Schade, immer noch kein exakteres Release-Zeitfenster. Ich hoffe, RDNA3 wird wirklich noch dieses Jahr auf den Markt kommen, und dann auch wenigstens halbwegs verfügbar sein. RX 7800 XT für unter 1k € wäre ein Traum
warum wäre diese Karte ein Traum? Du kennst die specs doch gar nicht.
ps. Ich freue mich auch auf die kommende 4060, einfach weil ich neugierig bin was diese wohl Leisten wird und vermutlich am ehesten zu meinen Anforderungen passt. Solange ich aber die letztlich Leistung, und vor allem die Leistungsaufnahme nicht kenne, bin ich weit davon entfernt die unbekannte Karte als Traum zu bezeichnen
Apocalypse
Rear Admiral
- Registriert
- Okt. 2012
- Beiträge
- 5.868
Warum eigentlich?Inxession schrieb:Diese Sauf-Karten > 300 W sind für mich absolut uninteressant.
Apocalypse schrieb:Warum eigentlich?
Es gibt halt erstaunlich viele die denken dass due angegebene Maximalleistung ununterbrochen anliegt, und nicht nur in wenigen Ausnahmesituationen...
Colindo schrieb:@ETI1120 N6 stand auf der LinkedIn-Seite? Das könnte unter Umständen veraltet sein. Sieht auf jeden Fall so aus, als würde die Folie das widerlegen.
Das waren die Antworten:
Es ging glaube ich zuerst die Infos herum und dann wurde der Screen gezeigt. Der wurde natürlich prompt gelöscht.
Von VideoCardz:
Folgende Erklärungen sind möglich:
- Ein Mitarbeiter hat aus Versehen zu viel Informationen auf die Website gestellt
- AMD hat sich einen Spaß erlaubt. Und einen Mitarbeiter gebeten eine Nebelkerze zu zünden
Heute nach dem FAD neige ich noch stärker zur 2. Interpretation.
Die Infos zu MI300 sind offensichtlich falsch.
Da wo er angeblich arbeitet veralten keine Informationen. Das ist an der Quelle.
Zuletzt bearbeitet:
Das schließe ich aus. Zu dem Zeitpunkt an dem die Person mit dieser Aufgabenbeschreibung involviert ist, ist klar welcher Prozess gewählt wird. Es geht ja nicht darum was AMD vorhat, sondern an welchen Projekten die Person aktiv mitarbeitet oder mitgearbeitet hat.Colindo schrieb:Vielleicht war damals noch nicht sicher, ob es N5 oder N6 werden wird?
Das ist mir auch in den letzten Wochen auch so langsam gedämmert.Colindo schrieb:Wobei das ja schon ein massiver Unterschied ist, und nur Navi33 in N6 zu fertigen ist auch Unsinn.
Deshalb habe ich Kepler gefragt, und dieser Punkt war Teil meiner Frage.
Es würde bedeuten, dass AMD die ihre RDNA-3-Funktionsblöcke (IP) zwei Mal designen muss. Aus diesem Grund geht die Phoenix Point APU auch auf RDNA 3. Hätten sie RDNA 2 verwendet, hätte AMD extra für diese APU die RDNA-2-Funktionsblöcke auf 5 nm designen müssen.
branhalor
Captain
- Registriert
- Feb. 2007
- Beiträge
- 3.608
Wie gesagt:DannyA4 schrieb:Vor dem Hintergrund wundert es mich dann aber schon, dass du zur 3080 gegriffen hast und nicht zur 6900XT.
Anhang anzeigen 1226687Anhang anzeigen 1226688
Bei dem Versuch, ne AMD-Karte am Release-Tag zu bekommen, bin ich wie alle aus Europa immer wieder aus dem Shop geflogen, und die ersten Custom Modelle etwas später, die ich haben wollte, waren damals nicht unter 1200€ zu kriegen. Die 3080 war ne Retoure im Outlet und hat "nur" runde 1000 gekostet.
Davon abgesehen gingen die Meinungen im pimax-openmr-Forum zu der Zeit auch noch etwas auseinander, die Entwicklung der Preise war ungewiss (bzw eher mit Vorhersage weiter steigend) - und da war dann die 3080 einfach das Optimum, das ich zu dem Zeitpunkt und in dem Preisrahmen ergattern konnte, ohne meinen Erstgeborenen verpfänden zu müssen
- Registriert
- Mai 2011
- Beiträge
- 21.002
Dass man die Leistung einer teuren GPU, die man idR kauft, weil man so viel Leistung braucht, nur in Ausnahmefällen nutzen würde, halte ich aber für ein Gerücht.pvcf schrieb:Es gibt halt erstaunlich viele die denken dass due angegebene Maximalleistung ununterbrochen anliegt, und nicht nur in wenigen Ausnahmesituationen...
Klar kann ich meine Games auch mit Settings und FPS Limits nutzen, bei denen meine GPU überall nur 200W statt 300W zieht. Aber dann hätte ich mir auch direkt 500€ sparen und ne schwächere GPU kaufen können.
Man könnte auch sagen damit kann man in Zukunft mit den gleichen Limits noch länger was von der Karte haben, allerdings verbraucht sie ja dann später auch mit diesen Limits ihre 300W während die GPUs die man zu dem Zeitpunkt kaufen kann, die gleiche Leistung bei weniger Verbrauch haben.
Möchte ich aber eine gewisse Performance erreichen und die GPUs bieten mir die gewünschte Performance nur mit >300W, dann muss sie auch während ich spiele konstant >300W verbrauchen.
LamaMitHut
Commander
- Registriert
- Nov. 2013
- Beiträge
- 2.987
Dein Argument ist ungültig, da dies auch bei einer 250 Watt Karte der Fall ist.pvcf schrieb:Es gibt halt erstaunlich viele die denken dass due angegebene Maximalleistung ununterbrochen anliegt, und nicht nur in wenigen Ausnahmesituationen...
Katzerino88
Banned
- Registriert
- Mai 2022
- Beiträge
- 77
AMD hat mal in einem Podcast als es um Dual GPU ging einen entsprechenden Ansatz mit zwei Chips und einem I/O Chip diskutiert und die Probleme hinsichtlich des "Framepacings" benannt, welches so ein spekulativer I/O Chip übernimmt. Gefahren sind µcrotearing, niedrige min FPS, schwache Frametimes, Verluste wegen höherem Verwaltungsaufwand und das ist natürlich eine Schwäche von RDNA3 bzw. allgemein von Multi GPU Lösungen. Wirklich lösen wird man das wohl erst mit 3D Stacking.guggi4 schrieb:Aus welcher Glaskugel hast du das denn? Die Leaker sind sich ja noch nicht einmal bei den Specs einig, aber du hast schon Infos zu den Frametimes?
@Katzerino88 Wär cool, wenn du den Podcast raussuchen könntest. Mich interessiert nämlich, wie lange das her ist, dass AMD über so einen Ansatz gesprochen hat und dabei Dual GPU genannt hat. Sicher, dass es nicht darum ging, dass so ein I/O-Chip die ganzen Probleme verhindert, die mit Dual GPU auftreten?
RDNA3 ist nämlich sicher keine Multi-GPU-Lösung. Es ist EINE GPU aus mehreren Chiplets. Wie aktuell die CPUs.
RDNA3 ist nämlich sicher keine Multi-GPU-Lösung. Es ist EINE GPU aus mehreren Chiplets. Wie aktuell die CPUs.
Zumal es sich auch kein Hersteller finanziell leisten kann, mit dem Release eines Produkts so lange zu warten, bis die Architektur bzw. Fertigung bis ins Letzte ausoptimiert ist. Irgendein Modell ist immer "das Erste" einer neuen Architektur/Fertigung und ist ja auch nicht so, dass dieses Modell bewusst halbfertig auf den Markt kommt, sondern schlicht das aktuell realisierbare Produkt.Colindo schrieb:Ja genau, das hatte mich gestört. Dass Chips mit der Zeit immer besser gefertigt werden, ist aber tatsächlich überall so und deswegen hier als Vorwurf an AMD ein wenig unpassend.
Katzerino88
Banned
- Registriert
- Mai 2022
- Beiträge
- 77
Ja. Vielleicht nicht so stark, aber man wird es messen und evtl. auch spüren können.GT200b schrieb:die Frage ist, ob es Mikroruckler wie einst bei SLI/Crossfire gebe wird?
Zuletzt bearbeitet:
@Katzerino88 WTF? Einfach "Ja." sagen ohne Quelle und Begründung? Was machst du denn, wenn die Tests nachher zeigen, dass der Ansatz von AMD so funktioniert wie er soll? Dafür lehnst du dich hier ganz schön aus dem Fenster.
Katzerino88
Banned
- Registriert
- Mai 2022
- Beiträge
- 77
Du meinst wie bei den Voodoo Grafikkarten? Das würde aber dazu führen, dass der Multichipansatz sehr ineffizient wird und man Leistung sowie Chipfläche verschenkt.Colindo schrieb:Es kann gar nicht zu Mikrorucklern führen, weil keine 2 GPUs erkannt werden.
Das wäre eigentlich abwegig, weil dann der Vorteil einer Multichiplösung aufgefressen wird, wenn mehrere Chiplets gemeinsam an einem Bild arbeiten.
Wenn das der Fall wäre, wäre das der Tod der Technologie.Colindo schrieb:Das einzige, was schiefgehen kann, ist dass die vielen Shader der zusätzlichen Chiplets nicht ausgelastet werden. Aber da hat AMD zuletzt die besten Fähigkeiten demonstriert.
Damit ist AMD schon bei den superscalar shadern der VLIW 5 Technologie gescheitert.
AMD wird die Technologie rein wirtschaftlich auf maximale Auslastung trimmen müssen und die maximale Performance zuungunsten der Frametimes herausholen, nur dann würde dieser Chipletansatz wirtschaftlich sein.
Zuletzt bearbeitet:
Das Chiplet Design dürfte auch nicht mit Crossfire/SLI vergleichbar sein, da die Funktionsweise komplett unterschiedlich ist. Die Chiplets sind ja keine separaten GPUs mit jeweils eigenem Grafikspeicher sondern eine gemeinsame GPU aus mehreren Chiplets mit gemeinsamem Grafikspeicher. Bei Crossfire/SLI kommen die Mikroruckler meines Wissens durch die nötige Synchronisierung der GPUs über die Crossfire/SLI Verbindung. Das fällt bei Chiplets ja weg, da die Chipslets auf den gemeinsamen Speicher zugreifen und somit nichts synchronisiert werden muss.
KurzGedacht
Lt. Commander
- Registriert
- Mai 2013
- Beiträge
- 1.766
Erklär das bitte Mal. Es ist doch besser ? Mal abstehen davon dass die Fertigungsgröße an sich ja erst Mal kein feature ist mit dem man irgendwen verarschen könnte[wege]mini schrieb:ist es Kundenverarsche.
Es wird mit kleinerer Zahl ein besseres Produkt suggeriert.
Katzerino88
Banned
- Registriert
- Mai 2022
- Beiträge
- 77
Das war zu einer Zeit als AMD die Zusammenarbeit von APU und dedizierter GPU als Feature anpries und HSA noch in aller Munde war. Ist natürlich alles davon abhängig wie der I/O Chip die beiden Chiplets verwaltet und wie regelmäßig die berechneten Bilder am Ende von der GPU an den Monitor ausgegeben werden.Colindo schrieb:Wär cool, wenn du den Podcast raussuchen könntest. Mich interessiert nämlich, wie lange das her ist, dass AMD über so einen Ansatz gesprochen hat und dabei Dual GPU genannt hat. Sicher, dass es nicht darum ging, dass so ein I/O-Chip die ganzen Probleme verhindert, die mit Dual GPU auftreten?
Und damit eine Multi GPU Lösung nur auf Hardwarebasis, also auf einer Platine, was beispielsweise die 7950GX2 über Umwege schon konnte.Wenn es eine solche Lösung wäre, wäre die Skalierung zu mickrig und das ganze Design würde nicht aufgehen. Nur meine Meinung. Der I/O Chip muss beiden Chiplets die Aufgaben zuschieben Am Ende verhält es sich wie ein einziger Chip. Als Spiele GPU wäre das dann eine Luftpumpe, als reine Renderlösung das non plus ultra.Colindo schrieb:RDNA3 ist nämlich sicher keine Multi-GPU-Lösung. Es ist EINE GPU aus mehreren Chiplets. Wie aktuell die CPUs.
Mich wundert warum diese Problematik nicht intensiver diskutiert wird. Wenn es die Lösung wäre mehrere Chiplets/GPUs pro PCB etc. zu fertigen und somit mehr Leistung herauszuholen, hätten GPU Hersteller das auch die letzten 20 Jahre schon machen können.
Letztendlich kann so etwas nur aufgehen, wenn der Prozess besonders schlecht ist, es sich lohnt kleinere Chips aber dafür mehrere zu fertigen und die Technik hervorragend ohne Verwaltungsaufwand sowie mit oder ohne µruckler skaliert. Total spannend und oder total langweilig gleichzeitig.
Zuletzt bearbeitet:
A
Atent12345
Gast
Katzerino88 schrieb:AMD hat mal in einem Podcast als es um Dual GPU ging einen entsprechenden Ansatz mit zwei Chips und einem I/O Chip diskutiert und die Probleme hinsichtlich des "Framepacings" benannt, welches so ein spekulativer I/O Chip übernimmt.
Das wurde schon ein paar Male auf der Hot Chips diskutiert und läuft am Ende auf zwei Lösungsansätze hinaus. Entweder nutzt man Muller c Elemente um delay zu kompensieren oder man teilt einzelne Aufgabenblöcke per Treiber auf DIEs auf. Bei beidem verliert man wohl Leistung im einstelligen Prozentbereich, wobei man bei ersterem auf die Erfahrungen aus der side channel resistenten Logik zurückgreifen könnte.
Wir hatten zu einem ähnlichen Thema mal eine Fortbildung. Im neuromorphic computing Bereich gab es ähnliche Probleme.
Ähnliche Themen
- Antworten
- 46
- Aufrufe
- 6.147
- Antworten
- 75
- Aufrufe
- 12.136