News AMD Semi-Custom-Chip: Quad-Core-Ryzen mit 24-CU-Vega und 8 GB GDDR5

Wadenbeisser schrieb:
Und bist du ernsthaft so naiv zu glauben das die Implentierung der gleichen Funktionen in so unterschiedliche APIs ein reiner C&P Aufwand wäre? Du redest dir die Geschichte schön.....
Na komm, erklär mir doch wie viel Aufwand es z.B. dargestellt hat Conservative Rasterization für beide APIs umzusetzen, vor allem wie aufwendig es war die Funktionen für beide APIs umzusetzen in Relation zum ganzen Aufwand die DX12 API zu entwickeln, welche völlig anders funktioniert und offensichtlich über 95% vom Aufwand/Fokus genossen hat.
Denn DX11.3 ist nämlich zu 99% die selbe API wie DX11.2 zuvor, nur gibt es zwei neu definierte Feature-Levels 12_0 und 12_0, Funktionen wie Conservative Rasterization Tier 1-3, ROVs, Tiled Resources Tier 3, Stencil Reference Value vom Pixel Shader, typed UAV loads und (c)UMA-Support und das ist so ziemlich alles.
Der Rest der ganzen API ist völlig identisch und für das neue Zeug, was vor allem in beiden APIs zu finden ist, hat MS sicherlich nicht große Entwicklungssresourcen gekostet, die dann DX12 gefehlt haben.

DX12 kam natürlich nicht zufällig nach Mantles Vorstellung, ich denke die meisten sind sich einig, dass Mantle einen großen Anteil daran hatte, dass DX12 zu der Zeit und vermutlich auch in der Form auf den Markt kam.
Den Abschnitt mit Nvidia verstehe ich nicht, sehe aber natürlich wieder deine Anti-Nvidia-Haltung, wo du trotz mehrerer Argumente deren HW auf "DX11 Hardware" reduzieren möchtest.
Es gibt historisch keine feste Regel wie sich MS verhalten hat, es gab immer Unterschiede.
Von DX9 auf DX10 hat MS die Infrastruktur stark verändert, dass Treibermodell war völlig neu und die DX10 Spezifikationen haben jedes Feature der API vorgeschrieben, entsprechend gab es allgemein keine ältere Hardware welche DX10 unterstützten konnte und kein Support vor Windows Vista.
Mit DX10.1 hat dann MS Feature-Levels eingeführt, es gab FL10_0 und FL10_1.
Mit DX11 hat es keinen Sinn ergeben nachträglich DX10 mit FL11_0 und den Funktionen auszustatten, denn im Kern war es praktisch die selbe API mit einigen Zusätzen.
Folgerichtig hat MS auch das einzig logische gemacht, die gleiche Erweiterung auch unter Windows Vista unterstützt und damit konnte man mit DX11 FL10_X auch DX10 Hardware ansprechen, DX11 hat sogar neue FLs für ein DX9 artiges Featureset umgesetzt.
DX11.1 war Windows 8 exklusiv, Microsoft hat ursprünglich das Update auch für W7 bereitstellen wollen, aber es gab ein paar Kompatibilitätsprobleme mit bestehenden W7-Geräten (Notebooks), weswegen man es gelassen hat.
DX11.2 war W8.1 exklusiv, aus welchen Gründen auch immer, aber ein OS-Upgrade ist kostenlos, entsprechend nicht wirklich relevant.
DX11.3 ist W10 exklusiv hat die genannten Features oben bekommen, welche so auch unter DX12 zu finden sind.
DX12 unterstützt auch die Feature-Levels FL11_0 und FL11_1, FL11_0 ist dabei vom Funktionsumfang das selbe was man 2009 für DX11 spezifiziert hat.
 
@Locuza
Ach komm, nicht schon wieder die hohle "du lobst nicht nvidia in den Himmel, du bist Anti-Nvidia" Nummer.
Nvidia hatte bei seinen Produkten keinerlei hardwareseitige Ausrichtungen für die neuen APIs und die fehlenden Bestandteile per Software Emulation rein gezaubert. Um so stärker hat man hingegen seine Treiber auf das alte DX11 ausgerichtet um dessen unzulänglichkeiten zumindest teilweise zu umgehen. Warum sollte man das machen wenn absehbar ist dass das bei dem Nachfolger überflüssig wäre?
Bei wievielen Wechseln der DirectX Version waren die GPUs der Hersteller nicht auf die Besonderheuten der neuen API vorbereitet? Mir fällt da exakt ein Ereignis ein.
Wieder nur ein Zufall in der langen Reihe von Zufällen?

Offensichtlich hat nvidia bei der GPU Entwicklung DX12 nicht auf dem Schirm gehabt und offensichtlich wurden die weiteren Ausbaustufen von DX11 nicht aus Herzensgüte und Spass an der Freude von Microsoft entwickelt.
Nimmt man das gesammte Umfeld zusammen dann ist für mich offensichtlich das DX12 ganz einfach nicht mittel bis langfristig geplant war und nvidia dadurch die Entwickung der GPU wegen fehlender Informationen ganz einfach nicht darauf ausrichten konnte. Die Hardware kann man nicht mal eben ändern, es sei denn man will das Produkt um mehrere Jahre verschieben. Die Software ist hingegen deutlich schneller anpassbar, auch wenn das Ergebnis eher suboptimal ist.
 
RYZ3N schrieb:
Konsolen und PC sprechen in der Regel ganz unterschiedliche Bedürfnisse an und es soll tatsächlich Menschen geben die an ihren Konsolen (teils zusätzlich zum PC) Spaß haben.
Ich verstehe auch nicht, warum sich dass für manche Gegenseitig ausschließt und warum da teilweise echt krankhafter Hass zu existieren scheint.

Zu mal Konsolen in einem gewissen Sinn ja sogar die Produktion aufwendiger Videospiele überhaupt erst lohnenswert machen, da die gesamte Basis der Spieler größer ist. Ohne Konsolen, würden viele Produktionen heute gar nicht mehr existieren und wir müssten uns hauptsächlich mit billigen Mobile-Games rum ärgern, da die Firmen ja Gewinn machen wollen.

Wadenbeisser schrieb:
Um so stärker hat man hingegen seine Treiber auf das alte DX11 ausgerichtet um dessen unzulänglichkeiten zumindest teilweise zu umgehen. Warum sollte man das machen wenn absehbar ist dass das bei dem Nachfolger überflüssig wäre?
Das nVidia sich mit der Zeit massiv auf DX11 konzentriert hat und der Treiber auch dafür massiv optimiert wurde, ist ja bekannt. 2014 fingen ja - auch dank Mantle - die Arbeiten am Wundertreiber von nVidia an, als die 290X in bestimmten Spielen (Mantle) sogar teils deutlich vor der 780Ti lag. Mit der Zeit sind die Optimierungen für BF4, Thief und Co auch für andere Spiel aktiviert worden.

Im Endeffekt haben wir AMD sogar zu verdanken, dass nVidia heute so schnell in Spielen ist. Ohne Mantle, hätte nvidia nicht den Bedarf gesehen am Treiber etwas zu machen. ;)
 
Wadenbeisser schrieb:
@Locuza
Jein, es gab schon mehr als einmal größere Umbrüche ... und beim DirectX 8 führte man Hardware T&L ein.

...
Das war DirectX 7 ;)
 
[wege]mini schrieb:
die neue konsolen generation wird dann also auch solch ein system haben. der "alte" ram wird einfach weg gelassen. man bindet alles turbo schnell über die gpu an und es gibt nur noch gesamt system ram.

Ist nichts neues, mindestens ab PS4 und XBox One wird ein geteilter GDDR-Speicher verwendet.

Wismac schrieb:
Es bleibt bei einem 8C (1ccx) aber mit 4smt - dann stimmt das mit dem 32 Threads-Gerücht wieder.
Es bleibt bei 4C pro CCX.
4-Faches SMT bringt nur für einige spezielle Aufgaben Vorteile. "Normales" SMT bringt ja schon bei einigen Anwendungen wenig bis nichts. Für eine breit angesetzte Architektur bringt das zu wenig, Zen2 soll ja von kleiner APU im Tablet und Notebook über den heimischen PC bis hin zu Servern alles abdecken.
Whiskey Lake schrieb:
Unwahrscheinlich, bei mehr Kernen wird das CCX viel komplexer.
Es hat doch einen Grund, warum AMD überhaupt die Kerne in ein CCX packt!
Danke!
Verstehe nicht, dass sich dieser Irrglaube so hartnäckig hält, dass die nächste Generation mehr Kerne im CCX erhalten soll. Mehr als Vier Kerne pro CCX machen einfach keinen Sinn, warum sollte man sich die Mühe machen, CCX über IF zu Koppeln wenn man dann doch die Kernzahl im CCX erhöhen könnte.
Für alle:
Die Kerne müssen miteinander Kommunizieren können, das passiert innerhalb eines CCX direkt, also jeder Kern kommuniziert mit jedem. Macht insgesamt 6 "Verbindungsstrecken". Der IF (Infinity Fabric) verbindet dann die CCX sowie weitere Elemente wie den Speichercontroller miteinander, IF ist damit eine Art Bus.
Wenn mehr Kerne benötigt werden, setzt man mehr CCX an den Bus (Oder eben vorher wohl mehr Dice auf dem Package wie bei den kommenden Epycs so sein soll)
Wenn man die Kernzahl eines CCX erhöhen will, müsste man schon 15 (!) "Verbindungsstrecken" bei 6 Kernen einrichten, sodass die Kerne miteinander Kommunizieren können (und sogar 28 bei 8 Kernen). Oder man verwendet ein Bus oder Netzwerk, welches aber die Latenzen erhöht und den IF mitsamt der CCX-Konstruktion relativ sinnlos macht, wozu zwei Ebenen mit geteilter Kommunikation einsetzen...
 
@andi_sco
Stimmt ja!
Der erste Geforce Chip war ja ein DX7 Chip. Das ist wohl schon zu lange her. :o
 
  • Gefällt mir
Reaktionen: andi_sco
Wadenbeisser schrieb:
@Locuza
Ach komm, nicht schon wieder die hohle "du lobst nicht nvidia in den Himmel, du bist Anti-Nvidia" Nummer.
Nvidia hatte bei seinen Produkten keinerlei hardwareseitige Ausrichtungen für die neuen APIs und die fehlenden Bestandteile per Software Emulation rein gezaubert. Um so stärker hat man hingegen seine Treiber auf das alte DX11 ausgerichtet um dessen unzulänglichkeiten zumindest teilweise zu umgehen. Warum sollte man das machen wenn absehbar ist dass das bei dem Nachfolger überflüssig wäre?
Bei wievielen Wechseln der DirectX Version waren die GPUs der Hersteller nicht auf die Besonderheuten der neuen API vorbereitet? Mir fällt da exakt ein Ereignis ein.
Wieder nur ein Zufall in der langen Reihe von Zufällen?

Offensichtlich hat nvidia bei der GPU Entwicklung DX12 nicht auf dem Schirm gehabt und offensichtlich wurden die weiteren Ausbaustufen von DX11 nicht aus Herzensgüte und Spass an der Freude von Microsoft entwickelt.
Nimmt man das gesammte Umfeld zusammen dann ist für mich offensichtlich das DX12 ganz einfach nicht mittel bis langfristig geplant war und nvidia dadurch die Entwickung der GPU wegen fehlender Informationen ganz einfach nicht darauf ausrichten konnte. Die Hardware kann man nicht mal eben ändern, es sei denn man will das Produkt um mehrere Jahre verschieben. Die Software ist hingegen deutlich schneller anpassbar, auch wenn das Ergebnis eher suboptimal ist.
Von welch hohlen Nummer redest du? Von der Tunnelvision, die viele Argumente ausblendet und das Thema nur auf einen Punkt reduzieren möchte, der einem passt?
Du weißt selber ganz genau das ich in keiner Diskussion irgendein Lob für einen Hersteller nahegelegt habe.
Ich habe über unterschiedliche Themen ausführlich geschrieben und zwar herstellerneutral.
Es ist die unsinnige Aussage das Nvidia keinen DX12 HW Support leistet, gegen den ich anscheinend bis jetzt argumentieren muss und wo eine so brutale Filterbrille aufgezogen wird, dass es einem bis ins Knochenmark graut.

Die Realität sieht nämlich schon bei deiner ersten Behauptung im Beitrag anders aus.
Denn es ist relativ auffällig wie Nvidia Maxwell auf den Markt gebracht hat, nämlich zeitlich und von den Features versetzt.
Anfang 2014 hat man Maxwell V1 auf den Markt gebracht, 7 Monate später Maxwell V2.
Die Architektur war größtenteils gleich, aber markant war der Unterschied wenn man Richtung DX12 geschaut hat, denn Maxwell v2 hat genau drei Features umgesetzt, die für FL12_0 und FL12_1 gefehlt haben.
Im ersten Fall Tiled-Resource Tier 2 (Eine von drei Voraussetzungen für FL12_0), wo Maxwell v2 darüber hinaus Tier 3 umgesetzt hat und Conservative Rasterization Tier 1 und ROVs (Beide für FL12_1 nötig).
Mit Pascal verwaltet auch Nvidia Compute-Queues separat über die Hardware und Preemption ist deutlich schneller, daneben hat Nvidia noch etwas am Rasterizer gefeilt und unterstützt seit Pascal auch Conservative Rasterization Tier 2.
Bei Volta kam CR Tier 3 dazu.

Bei Intel erkennt man sofort, dass ab Gen9 (Skylake) die iGPU angepasst wurde, um praktisch das ganze Featureset von DX12 zu unterstützen.

Bei AMD sieht man dagegen, dass AMD jahrelang gar nichts spezifisch für DX12 angepasst hat, denn so wie GCN2 vom Featureset DX12 unterstützt hat, so ist es auch praktisch bis GCN5 geblieben.
GCN3 kam als Tonga im September heraus, wenige Wochen vor Maxwell v2 und bot das gleiche Featureset von GCN2 an und GCN4 (Polaris) hat ebenso nichts für weiteren DX12 Funktionssupport angepasst.

Bezüglich der DX11-Treiber, hier hat Nvidia schon früher mehr investiert.
Schon zur Fermi-Zeit, wo man als einziger bis Heute Multithreaded Deferred-Contexts umgesetzt hat und dann während der Mantle-Zeit noch einmal die Effizienz vom Treiber verbessert hat.
Und wenn man die Arbeiten erledigt hat, dann muss man den DX11-Treiber zum Launch von DX12 ja auch nicht mehr verändert, sowieso wenn man nach wie vor Vorteile genießt und wusste das mit dem DX12 Arbeitsmodell und der W10 Exklusivität es offensichtlich war, dass nicht DX12 Spiele vom Himmel regnen werden, die dann vor allem noch alle gute Performance aufweisen, dennoch hat Nvidia die Hardware in mehreren Belangen für DX12 angepasst.

Und wie gesagt, es gibt bis Heute kein einziges DX11.3 Spiel auf dem Markt.
Wenn wie du impliziert Nvidia so bemüht war, dass DX11 noch eine weitere Ausbaustufe erhält, da DX12 angeblich nicht auf dem Radar war, ist es schon komisch das es kein Spiel damit gibt und auch keine Hilfestellung oder Kooperation mit Nvidia in diesem Bezug.
Ich habe aber Beispiele genannt, wo Intel mit Entwicklern an DX11.3 gesessen hat.
Ich kann dir auch sagen das es Intels Lobbyismus war, welcher ROVs für DX11.3/DX12 definiert hat, dass ist das Feature welches für FL12_1 neben Conservative Rasterization Tier 1 vorausgesetzt wird.
Es läuft auch vermutlich nicht sonderlich schnell auf AMD/Nvidia-Hardware (Größere Threadgroup-Size, mehr Performanceprobleme beim Einhalten der Reihenfolge) und Nvidia rät zum behutsamen Einsatz davon.
 
  • Gefällt mir
Reaktionen: Oneplusfan und Galatian
@Locuza
Seit wann ist es was neues das unterschiedliche Ausbaustufen einer API unterstützt werden?
Das gab es über praktisch alle GPU Generationen hinweg. Mal konnte der eine etwas und unterstützte eine aufgewertete Variante und mal war es der andere. Ob eine API Generation unterstützt wird hängt schließlich nicht von der max. Ausbaustufe ab.
Damit kannst du dir deine gesammte Rumreiterei auf den Feature Leveln in die Haare schmieren, zumal du offensichtlich immernoch nicht in der Lage bist die Hard- von der Software zu unterscheiden denn sonst würdest du bei der Unterstützung durch die HArdware nicht andauernd mit dem Treiber und dessen Emulationsfähigkeiten ankommen.

Zudem hast du entweder mein Posting nicht verstanden oder ganz einfach nicht gelesen sondern bestenfalls überflogen. Anders kann ich mir den letzten Teil nicht erklären denn wie kann man für etwas explizit entwickeln wenn alle Anzeichen dafür sprechen das es ursprünglich keine Alternative gegeben hatte?

Das AMD mit der GCN Architektur die Sachen schon dabei hatte liegt doch schon aus mehreren Gründen nahe.
Zum einen wegen der parallelen Entwicklung von Mantle, bei dem die zusätzlichen Fähigkeiten nutzbar sind und zum anderen weil die Architektur in Microsofts Konsole enthalten ist. Da liegt es verdammt nahe das eine von dort abgewandelte API auch die Fähigkeiten der Architektur/Hardware beherrscht.
 
Wadenbeisser schrieb:
Nvidia hatte bei seinen Produkten keinerlei hardwareseitige Ausrichtungen für die neuen APIs und die fehlenden Bestandteile per Software Emulation rein gezaubert.
Das hier ist faktisch falsch.
Die DX12 API besteht aus 100.000+ Funktionen, Nvidia setzt sagen wir fiktiv 83% davon über die GPU HW um und du willst einem weiß machen, dass nur weil Nvidias Fermi-Maxwellv2 GPUs keine Compute-Queues über die HW managen es keinen DX12 HW Support gibt und die fehlenden Bestandteile per Software Emulation rein gezaubert wurden.
Dabei schließt du auch relaxed neue Features und Feature-Levels aus, welche von Nvidia über die HW umgesetzt werden und wo AMD z.B. bis GCN5 der Support gefehlt hat, aber das ist scheinbar völlig egal.
Eine rationale Logik gibt es bei deiner Sichtweise natürlich nicht.

Es ist offiziell, dass jeder IHV mit MS an der Spezifizierung von DX12 gearbeitet hat und entsprechend konnte jeder auf das reagieren, was ein gewisses Zeitfenster hergegeben hat.

AMD hat es ziemlich bequem gehabt mit der DX12 Spec, ihre Hardware hat von Anfang an wesentliche Bestandteile der API unterstützen können, wie Resource Binding Tier 3 und Resource Heaps Tier 2, neben der guten Async-Compute-Implementierung, dass ändert dennoch nichts daran das mehrere Rendering-Features bis GCN5 gefehlt haben und entsprechend nicht der volle Funktionsumfang von DX12 verwenden werden kann.
 
Interessant, der große Kühler geht offenbar wie vermutet über den Großteil des PCB und die beiden Radiallüfter dürften seitlich dagegen pusten um die Abwärme hinten raus zu blasen.
 
Das glaube ich auch. Und die TDP dürfte sich auf PS4-Niveau bewegen. Aber auch die hat man ja schon passiv gekühlt:
 
Im Zweifelsfall ist alles passiv kühlbar, das ist nur eine Frage der Größe des Kühlkörpers. ;)
 
  • Gefällt mir
Reaktionen: andi_sco
RYZ3N schrieb:
@m.Kobold der im Artikel genannte AMD Semi-Costum-Chip hat dich jetzt dazu bewogen zum Rundumschlag (Bashing) gegen jegliche Konsole und Konsolenbesitzer auszuholen? Ziemlich armselig wenn du mich fragst.

Ist das ein neuer Aktionfilm „der PC vernichtet die Konsolen“ oder was?

Konsolen und PC sprechen in der Regel ganz unterschiedliche Bedürfnisse an und es soll tatsächlich Menschen geben die an ihren Konsolen (teils zusätzlich zum PC) Spaß haben.

Deine absurde Weltsicht teilen hier vermutlich weit weniger als 1% der Forenmitglieder.

Gute Besserung. :D
Das einzige was hier Armseelig ist, das du persönlich werden mußt nur weil ich die Konsolenhardware kritisiere.

Du solltest dir vielleicht mal ein Termin beim Arzt geben lassen.

Übrigens kann ich nichts dafür wenn du nur billig Hardware in/an deinen PC verwendest und deswegen sauer bist :)
 
7hyrael schrieb:
Nein das war definitiv schon zu Flatscreen-zeiten.
Indeed? Das habe ich dann wohl verpasst. Bin ja auch sehr spät umgestiegen.
 
Zurück
Oben