News AMD Semi-Custom-Chip: Quad-Core-Ryzen mit 24-CU-Vega und 8 GB GDDR5

Whiskey Lake schrieb:
Es wird aber bei einer 8C..
Rome soll aus 9 Dice bestehen.

Ich nehme an du meinst 8 Die (8 * 8 = 64 Cores)
Das Problem dabei wäre, es wäre keine 2SP - Systeme möglich, weil der Verbund von 8 Chips für Fabric Bus aktuell das Limit darstellt. (Falls ich n technischen Artikel so richtig in Erinnerung habe, der sich mit der Anbindung der CCX über den fabric bus beschäftigt)

Genau deshalb geht man weiterhin von 4 Die pro Epyc Prozessor aus.
 
[wege]mini schrieb:
sehr guter punkt, die meisten heutigen dx12 games sind dx11.1 (was nvidia nicht konnte - daher nennt man es heute "dx12") und ob full feature dx12 wirklich jemals umgesetzt wird, werden wir sehen. es ging und geht immer nur um den cpu overhead.

mfg
DX12 Spiele sind DX12 Spiele, weil sie die DX12 API verwenden.
Es gibt seit DX10.1 Feature-Levels, welche einen gewissen Funktionsumfang definieren, aber speziell ab DX11.2 und DX12 nicht mehr alle Funktionen beinhalten und nicht die grundlegende Funktionsweise der API definieren.

DX11.1 hat z.B. FL11_1 eingeführt und das FL11_1 kann Nvidia bei Fermi-Maxwell v1 nicht unterstützen.
Die API DX11.1 selber aber schon, aber maximal mit dem Funktionsumfang FL11_0.
DX12 bietet FL11_0 auch an, aber wie gesagt beinhaltet ein FL nicht alle Funktionen und Bestandteile einer API.
DX12 ist immer eine explizite API, wo selber Command-Lists erstellt werden müssen und Funktionen wie Async Compute/Async Compute oder auch ExecuteIndirect immer zur Verfügung stehen, egal welches FL man unter DX12 verwendet, aber unter DX11 ist das alles nicht verfügbar oder funktioniert gänzlich anders.
Als Bild:
querr.jpg


Wenn ein Spiel DX11 FL11_0 und DX12 FL11_0 verwendet, können sich beide API-Pfade dennoch grundlegend in mehreren Aspekten unterscheiden, auch wenn ein gewisser Funktionsumfang identisch ausfällt, aber wie gesagt ein gewisser Funktionsumfang, nicht der gesamte Funktionsumfang der gesamten API.
Nvidia unterstützt mit Fermi-Maxwell v1 kein FL11_1 und dieses Feature-Level ist effektiv identisch zwischen DX11 und DX12, dass heißt Fermi-Maxwell v1 unterstützen sowohl die DX11, als auch die DX12-API, aber beide mit maximal FL11_0.

Um es noch etwas komplexer zu machen, die Feature-Levels stellen ein definiertes Paket an Funktionen dar, welche ein Entwickler abfragen kann.
Das Feature-Level wurde aber von MS gemeinschaftlich mit anderen IHVs/ISVs definiert, beinhaltet aber Funktionen welche viele Spiele gar nicht verwenden bzw. verwenden müssen.
Entwickler haben auch die Freiheit viele Features welche sich in einem Feature-Level befinden oder noch gar nicht befinden, einzeln abzufragen.
Z.B. kann man DX12 verwenden, sagen die Hardware muss FL11_1 + Resource Binding Tier 2 + Conservative Rasterization Tier 2 unterstützen.
Jede Hardware, welche diese Konstellation erfüllt, kann das Spiel abspielen.
Hardware welche z.B. FL12_0 unterstützt, aber nicht Conservative Rasterization Tier 2 könnte das Spiel aber nicht unterstützen.

Die Feature-Levels sind primär deswegen definiert, um Entwicklern das Leben etwas einfacher zu machen.
Statt im Zweifel 1000 Features einzeln abzufragen, kann man sagen das hier ist das Mindestmaß + "X","Y" und fertig.
Es motiviert auch Hardwarehersteller konkrete Feature-Levels zu unterstützen, weil sie innerhalb der API die klarste Richtlinie darstellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .fF, Unnu, Raucherdackel! und 2 andere
Wismac schrieb:
Ist und bleibt Spekulation + Gerüchte.
Glaube ist dabei immer der falsche Begriff.

Ist länger her, wo AMD das tat. Im Zusammenhang mit CMT zu FX Zeiten wurde das eingekauft. Zen war da noch in Entwicklung. Müsste ich jetzt in ziemlich alten Threads rumwühlen.
War jedenfalls irgendwas mit Synopsys
SMT2 und SMT4 ist im Server Bereich eh nichts neues, das gibt es schon länger.
4fach SMT wäre abseits von speziellen Anwendungsgebieten und für ein Produkt das man auch im Desktop Umfeld nutzen will wohl das nutzloseste was man bringen könnte denn vor allem im Desktop Umfeld bekommt man die Software kaum dazu die bereits vorhandenen Kerne auch nur zu nutzen. Zusätzliche virtuelle Kerne sind in dem Umfeld das letzte was man benötigt.
 
Jop. Drum ist es auch unwahrscheinlich. Allein der wie bereits gesagte redesign, der nötig wäre.
 
pipip schrieb:
Ich nehme an du meinst 8 Die (8 * 8 = 64 Cores)
Nein, ich meine 9 Dice
8 CPU-Dice + 1 IOX (I/O-Die)
Wobei der komplette Chipsatz und sogar der PHY aus der CPU-Die geflogen ist.
Der gesamte RAM soll über die IOX-Die angebunden werden.

Rome soll mehr HT-Links bekommen.

Wismac schrieb:
Jop. Drum ist es auch unwahrscheinlich.
Warum?

Allein der wie bereits gesagte redesign, der nötig wäre.
Das ist für Zen2 in 7nm eh nötig!
 
Hab auch genug China Krempel im Netzwerk. Bin mit deinen Router und Switch von TP-Link voll zufrieden.
Mein Huawei macht auch was es soll.
Mal abgesehen davon, das eh fast überall Made in China steht.
Ob die Amis, Russen, China, oder Mama Merkel ausspioniert, ist ja mittlerweile egal.
 
[wege]mini schrieb:
damit das ganze für amd sinn ergibt, müsste solch ein board mind. 400 euro für normalo´s wie uns kosten. und da wird dann der markt schon wieder ziemlich klein.

Meine Glaskugel behauptet: Ein Mac Mini mit dieser APU würde Käufer finden. Zu nahezu jedem Preis. In sehr hoher Stückzahl.
 
Sternengucker80 schrieb:
Ob die Amis, Russen, China, oder Mama Merkel ausspioniert, ist ja mittlerweile egal.

Also ob man oder von wem man ausspioniert wird, würde ich bei weitem nicht als „egal“ bezeichnen oder gar abtun.

Datenschutz und der eigene Umgang mit den eigenen Daten ist sehr wichtig, allerdings sollte man das nicht den Unternehmen überlassen, sondern sich selbst darum kümmern.

edenjung schrieb:
Ansonsten hast du China- Krempel in deinem netzwerk. Das willst doch auch nicht oder?

Dieses China Bashing ist genauso fehl am Platze wie dieses Intel oder NVIDIA Bashing.

Egal welches Unternehmen, egal welche Wirtschaftsmacht (USA, China, EU...), die verfolgen in Sachen Wirtschaftspolitik allesamt ähnliche Ziele. Da gibt’s kein Gut gegen Böse. Das gibt’s nur Geld.

Oder was meinst du was die Chinesen mit deinen Daten machen, was die USA oder europäische Unternehmen nicht auch tun würden?

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Kormi
Wenn ich so gucke, was manche für ein Schwachsinn in Facebook und co. posten, frage ich mich eher, für was wir nen Datenschutz brauchen.
Wenn jemand wegen der China Hardware sorgen haben sollte, es läuft mit Win 10.
Spionieren gleich zwei. 😂
Hier ist eher löblich, das die Chinesen so eine Hardware Config auf die Füsse stellt.
Die ganzen Top Hersteller bekommen nicht mal nen gescheiten Laptop mit RR hin. Geschweigenden kaum nen vernünftigen Desktop mit AMD Hardware
 
Wadenbeisser schrieb:
Und nochmal, mir ist in der DirectX Geschichte kein weiterer Fall wo die seit Jahren existierende API so aufgebohrt und eine zweite, neuere API mit größeren Funktionsumfang eingeführt wurde die die gleichen Funktionen beherrscht. War Microsoft seinerzeit nicht auch eine der Anlaufstellen die die Spiele Schmieden mit ihrer Anfrage nach einer low(er) level API abblitzen ließen?
Zusammen mit nvidias DX11 Ausrichtung ihrer Architektur und Treiber undd er Tatsache das Microsoft bereits eine Produktklasse mit einer entsprechenden API besitzt (Konsolen) vertrete ich eher eine komplett andere Ansicht.

Microsoft hatte ursprünglich nicht vor sowas wie DX12 in den PC Markt einzuführen und wollte ihn mit den DX11 Aufwertungen abspeisen. Nachdem sich aber AMD der Sache annahm und man entsprechend mit Mantle vorgeführt wurde weil die Schwächen von DX11 für jeden sichtbar wurden geriet man unter Zugzwang und bog die Konsolen API mit Maßnahmen wie zusätzliche Abstraktionslayern entsprechend zurecht. Wenn man dann noch bedenkt das die GCN Architektur auch in der aktuellen Konsole steckt ist auch nicht weiter verwunderlich das dort recht spezielle Funktionen wie AsyncCompute bereits enthalten sind und so die GCN Architektr gut ausreizen kann.
Es gab auch in der DX-Geschichte nie den Fall, wo MS ein ganz anderes Arbeitsmodell etabliert hat.
Ansonsten hat MS im Prinzip häufig die bestehenden APIs aufgebohrt und mit neuen Features bereichert.
DX11 ist im Kern zu 90% DX10(.1) + Compute Shader und Tessellation und einige andere Sachen.
DX11 bot optional auch für FL10_0/1 Compute-Shader an, Compute-Shader gab es vor DX11 für FL10_x gar nicht.
Mit DX11.1 kam ein neues Feature-Level dazu, mit DX11.2 kamen optionale Features wie Tiled Ressources und mit DX11.3 noch einmal weitere, welche sich ebenso unter DX12 finden.

Wie gesagt war Mantle offensichtlich der Kicker für MS endlich eine Nachfolge-API zu spezifizieren und angeblich sahen die ursprünglichen Pläne nicht so eine breite Kontrolle vor.
Vermutlich hatte man eher einen Mittelweg vor den Augen, ähnlich wie Apple es bei Metal umgesetzt hat.
DX11.3+ z.B. hat grundlegend gar nichts vom Arbeitsmodell verändert oder verbessert, alles ist gleich geblieben, die bestehenden Funktionen, die Ressourcen-Limits, es gibt nur ein paar neue Features, welche vom API-Support aus alle optional sind.

Und wie schon einmal im WoW-Thread ausgeführt, kannst du dank DX12 auch viele Dinge unter Nvidias GPUs zum ersten mal direkt ausnutzen, wie Bindless-Ressources, Async Copy und viele weitere Verbesserungen.
Dennoch wird davon geredet, dass Nvidia DX11 Hardware baut oder darauf ausgerichtet ist, obwohl deren Hardware an mehreren Stellen ebenso von DX11 künstlich limitiert wird und intern anders funktioniert.
Es ist offensichtlich, dass die besseren DX11-Treiber Nvidia helfen sich von der Konkurrenz abzusetzen und die explizite Entwicklerkontrolle dazu führt das Nvidia unter DX12/Vulkan GPU-Performance verlieren kann, was kompetitiv gesehen dem Hersteller natürlich nicht gefällt, aber das ihre Hardware ebenso limitiert wird, hilft ihnen im Großen und Ganzen und für die Zukunft auch nicht weiter, entsprechend haben sie auch ein Interesse daran das die neuen APIs sich verbreiten und vor allem gut umgesetzt werden.
 
Zuletzt bearbeitet:
Sternengucker80 schrieb:
Die ganzen Top Hersteller bekommen nicht mal nen gescheiten Laptop mit RR hin.

Kann ich so nicht unterschreiben.

Ich habe mir ein Lenovo ThinkPad E585 mit 256GB SSD/1TB HDD geholt und den RAM per offiziellen Crucial Upgrade Kit von 8GB DDR4-2400 auf 16 GB DDR4-2666 aufgerüstet, hatte selten ein so gutes Gerät für weit unter 800 Euro (inkl. Upgrade Kit).

Aber du hast schon Recht, viel Auswahl gibt’s leider nicht.

Aber zumindest ein paar halbwegs ordentlich konfigurierte (aber zu teure) Ryzen 2000 Gaming Systeme habe ich am Wochenende beim Media Markt gesehen. Sogar die Ryzen 2000 CPUs (das ganze Portfolio) hatten sie dort im Angebot.

Aber da muss mehr kommen. Keine Frage.

Liebe Grüße
Sven
 
@Locuza
Jein, es gab schon mehr als einmal größere Umbrüche und in keinem anderen Fall führte man sie auch in der alten API mit ein. Ist ja auch vollkommen sinnlos denn man will schließlich die neue Technologie verkaufen.
Beispielsweise ist man bei DX10 von den fixen Pixel- und Vertex Shadern auf das universelle Shader Modell von heute gewechselt und beim DirectX 8 führte man Hardware T&L ein.

Ich sehe keinen triftigen Grund von Anfang an an beiden Varianten zu entwickeln und beide APIs vergleichbar auszustatten, es sei denn das die zweite Variante nicht geplant, die erste aber schon entwickelt worden war.
Das MS versucht ein neues OS mit neueren DX11 Abstufungen zu verkaufen hat man zuvor bereits bei Windows 8 bewiesen.

War seinerzeit nicht Microsoft auch einer derjenigen die DICE und Co. eine Abfuhr erteilt hatten als es um die Entwicklung einer solchen API ging?
 
@Wadenbeisser
Es kann gut sein das ohne Mantle MS PC-Spieler mit einem weiteren DX11.3 Upgrade abgeschmatzt hätte.
Aber es ergibt Sinn Features, welche relativ API unabhängig sind, für beide APIs umzusetzen.

DX12 folgt einem völlig anderem Arbeitsprinzip und benötigt jahrelange Umstrukturierungen an bestehenden Engines, um effektiv davon zu profitieren.
Was wenn der Entwickler nur ein neues Rendering-Feature ausprobieren möchte?
Mit DX11.3 kann er sofort loslegen und seinen bestehenden DX11-Renderer verwenden, mit DX12 kann er das voll vergessen, da muss er erst eine völlig andere API umsetzen, selbst wenn es nur Quick&Dirty über einen Wrapper laufen soll.
Es gibt dennoch eine Schranke welche den Interessen von MS folgt, DX11.3 ist W10 exklusiv.

Übrigens gibt es bisher kein einziges DX11.3 Spiel auf dem Markt und auch keine öffentlich bekannten Spielereien von Nvidia, dafür aber von Intel.
Intel hat mit Avalanche an einem Just Cause 3 Prototypen gearbeitet, welcher ROVs und Conservative Rasterization über DX11.3 verwendet hat.
Ebenso hat man mit Codemasters an einem F1 Protypen gearbeitet, welcher ebenso die neuen Features verwendet hat, sehr wahrscheinlich auch über DX11.3.
 
Sternengucker80 schrieb:
Wenn ich so gucke, was manche für ein Schwachsinn in Facebook und co. posten, frage ich mich eher, für was wir nen Datenschutz brauchen.
Wenn jemand wegen der China Hardware sorgen haben sollte, es läuft mit Win 10.
Spionieren gleich zwei. 😂
Hier ist eher löblich, das die Chinesen so eine Hardware Config auf die Füsse stellt.
Die ganzen Top Hersteller bekommen nicht mal nen gescheiten Laptop mit RR hin. Geschweigenden kaum nen vernünftigen Desktop mit AMD Hardware

Die Chinesen haben auch andere x86-Prozessoren, die Daten und Privatsphäre schützen. Unterstützung für die von der chinesischen Regierung entwickelten Verschlüsselungsalgorithmen (kryptografischen Hash-Algorithmen) SM3 und SM4.

VIA / Zhaoxin haben bereits 16nm fertige Prozessoren. Der KX-6840 ist ein 3GHz Acht-Kern, gesiebt Benchmark
Quelle: https://translate.google.com/transl....cz/via-zhaoxin-prvni-16nm-procesory-x86-cina
 
@Locuza
Nicht wirklich denn man will was neues verkaufen und nicht Entwicklungsarbeit unnötig verdoppeln, in 2 parallel laufende Produkte versenken die sich auch noch gegenseitig Konkurrenz machen anstatt den Fortschritt voran zu treiben.
Unterm Strich darf man also mit der Gefahr der Stagnation doppelt in die Entwicklung investieren, was rein kaufmännisch schon völliger Nonsens ist.

Wie gesagt, den einzigen einleuchtenden Grund den ich für die aktuelle Situation sehe ist dass das aufgebohrte DX11 ganz einfach schon da war und DX12 nachgeschoben wurde. Der Grund dafür dürfte wohl recht leicht erkennbar sein.
 
@Wadenbeisser

Der Hauptunterschied von DX12 zu DX11 ist das ganze State-Model, die explizite Verwaltung von Speicher und den Ressourcen, die Erstellung von Command-Lists, was über mehrere Threads funktioniert, die Möglichkeit Compute/Copy-Queues zu definieren und auch erweiterte Dispatch/Draw-Befehle (ExecuteIndirect) von Seiten der GPU zu verwenden.
Das alles ist nicht in DX11.3+, weil es sich vom Arbeitsprinzip arg unterscheidet und praktisch nicht überführt werden konnte.

Das einzige was DX11.3 dazu bekommen hat sind einige Features, welche API unabhängig implementiert werden konnten, entsprechend ist das auch keine doppelte Entwicklungsarbeit, außer du möchtest Copy&Paste als doppelten Aufwand bezeichnen.
Wenn du Conservative Rasterization als Feature spezifiziert hast, dann ist das nämlich kaum mehr als Copy&Paste, um das Feature für beide APIs anzubieten.

DX11.3 stellt insofern auch kaum eine direkte Konkurrenz zu DX12 dar, nicht wirklich mehr, als ohne die neuen Features, weil die Hauptnachteile von DX11 absolut die gleichen sind.
Und zeitlich ist es relativ egal, wann die Features spezifiziert worden sind, ob zuerst nur DX11.3 mit X-Features existiert hat und dann in DX12 rüberkopiert wurde oder andersherum oder von Anfang an für beide APIs geplant war.

Und Stagnation wird nur durch eine Entscheidung von MS hervorgerufen, durch W10 Exklusivität.
Die Entwickler entscheiden nämlich welche API für sie Sinn ergibt, vom Marktvolumen, der Umsetzung und den Vor- und Nachteilen.
 
@Locuza
Du ignorierst das Wesentliche.
Wozu an DX11 weiter rumbasteln und es auszubauen anstatt es so zu lassen wie es war und sich auf die neue API zu konzentrieren?

Rein zufällig präsentiert man DX12 nachdem Mantle vorgestellt wurde und die Vorteile demonstrieren konnte, rein zufällig hat der Konkurrent des Konsolen Chip Lieferanten nur eine weiter entwickelte DX11 Architektur und rein zufällig gibt es zwischen DX12 und den neueren DX11 Abstufungen erstaunlich viele Überschneidungen und bricht so mit seiner bisherigen Produkt Politik bei DirectX. Etwas zu viele Zufälle.

Und bist du ernsthaft so naiv zu glauben das die Implentierung der gleichen Funktionen in so unterschiedliche APIs ein reiner C&P Aufwand wäre? Du redest dir die Geschichte schön.....
 
Zurück
Oben