News „Mantle“: Battlefield 4 erhält eigene AMD-Version

Theoretical RAM bandwidth in a system doesn’t tell you too much because GPU caching will hide a lot of this latency. Bandwidth is mostly an issue for the GPU if you make scattered reads around the memory. This is never a good idea for good performance.

Jemmineh, bei diesem Zitat rollen sich mir die Zehennägel auf, da der Programmierer(?) alles durcheinander gebracht hat (Bandwidth und Latency im ersten Satz durcheinandergebracht; Algorithmen mit Scattered reads sind idR latency bound, bei Streaming-Algorithmen mit lokalen oder sequentiellen Speicherzugriffen ist man oft man Bandbreitenlimit)


Früher:
OpenGL -> Engine
oder
DX -> Engine
oder
DX + Physx -> Engine

in Zukunft:
Mantle -> Engine

Die Tatsache, dass man weiterhin eine API benötigt war klar und wurde auch nicht in Frage gestellt. Es ging mir in meinen Post jedoch darum aufzuzeigen, dass die API umständlicher zu Programmieren sein wird (sofern sie hardwarenäher sein soll und man diese Hardwarenahe auch ausnutzen will) als jede aktuelle hardwareferne abstrakte API (OpenGL, DirectX).
 
In wie weit es komplexer - oder gar anders herum - ist, Mantle anstatt DirectX einzusetzen, erwähnt Anderson dagegen nicht.

Ich habe mir mal erlaubt zwei Schönheitsfehler zu korrigieren.
Wobei man ja auch noch die Satzstellung etwas verändern könnte um es leserlicher zu gestalten ;)

Gruss, KoRnasteniker
 
Techniker Freak schrieb:
Werfen wir mal einen Blick auf die HSA Fondation.
Dort finden wir ARM, Imagination, Mediatek, Qualcomm, Samsung und Texas Instruments. Als direkte Mitglieder der Fondation dürften sie in die Entwicklung von Mantle mit involviert sein. Diese Hersteller finden wir zwar (bis auf Imagination mit seinen PowerVR in Atom Prozessoren) ausschließlich im mobilien Bereich aber man muss zweifelsohne zugestehen das es einen stark wachsenden Markt für Spiele auf Mobilgeräten gibt.
Wenn also Mantle sich auch in diesem Markt integrieren kann, was Nvidia mit seinen Tegras weiter unter Druck setzen würde sieht die Geschichte für AMD gar nicht mal so schlecht aus. Also haben wir Mantle in der PS4 und AMD wird es auf den PC bringen. Die Entwickler werden Mantle für die PS4 nutzen,...
Genau das ist die Konsolen-Macht, von der einige ja schon länger reden.
Man braucht bei AMD nur einer Plattform (Konsolen) optimieren und kannn es von Tablet bis "Server" herumportieren.
Voraussetzung dieser Macht war die einzige führende (= weit fortgeschrittene) CPU & GPU-Technik als APU-Kown-How.

Alles in allem passiert das was ich gehofft habe für AMD, denn in dieser Geschichte liegt ihre Chance sich insgesamt wieder festigen zu können.
Das sind auch nur Ergebnisse, die ich seit 2011 zur APU (Jaguar & Bullodzer & GCN (= erste von Grund auf entwickelte GPU seitens AMD mit Front-End-Know-How ; 2011 deshalb, weil man so 5 Jahre für eine reine GPU-Entwicklung braucht a la 2006 + 5 = 2011)) erwartet habe.
Seit Ende 2011 tut sich in dieser Hinsicht schon sehr viel, auch wenn sie gerade nicht von den Foren gesehen wurde, aber die Ergebnisse werden schon immer klarer (HSA & Konsolen) & tiefer (Software & Software-Entwicklung).

Selbst wenn Hawaii Titan nicht die Performance-Krone abnimmt, ist das all das keine Tragik mehr, weil sie in Bezug auf Game-Entwicklung & Game-Unterstützung sowieso schon deutlichen Einfluss haben, den man wegen den Konsolen nicht so einfach wegnehmen kann.

Früher hatte früher immer schon gesagt, dass AMD ab 2011 mit APU (Jaguar & Bulldozer & GCN) dann beginnt der Konkurrenz vorzupreschen und nicht nur hinterherzulaufen. Und genau der GPU-2013-Event gestern zeigte, dass AMD mit TrueAudio & Co wieder (nach Richland mit Gestik-Controls & Co) Techniken hat, die die Konkurrenz momentan nicht hat.
 
mcforest880 schrieb:
Wird für Mantle eine der neuen Grafikkarten benötigt oder funktioniert das auch mit der 7000er Reihe von AMD?

ja, sollen sie! :)

finds jetzt aber nicht mehr wo ich es gelesen habe...
 
Herdware schrieb:
Ein gemeinsamer Zugriff auf das eDRAM (oder andere Speicherbreiche) wäre eine Voraussetzung für HSA und ähnliche Methoden, muss aber nicht zwangsläufig auch bedeuten, dass sowas vorhanden ist.
Intels iGPUs nutzen den L3-Cache und den normalen RAM auch zusammen mit den CPU-Cores. Trotzdem beherrschen die kein HSA oder ähnliches. Sie nutzen den Speicher nebeneinander aber können nicht gleichzeitig auf die selben Speicherbereiche zugreifen.
Mehr kann ich aus der Beschreibung des eDRAM der WiiU auch nicht herauslesen.

Ein Entwickler der WiiU hat bereits bestätigt dass der eDRAM Zugriff auf die CPU und GPU hat.
http://hdwarriors.com/why-the-wii-u-is-probably-more-capable-than-you-think-it-is/
On Wii U the eDRAM is available to the GPU and CPU.

Intels iGPUs nutzen den L3-Cache und den normalen RAM auch zusammen mit den CPU-Cores.

Tja und noch mal, diese Intel IGP wird nicht in einer Konsole verwendet wo eine Hardwarenahe Programmierung üblich ist, noch hat sie einen UMA. Denn sowas wie Zero-Core wurde ja mehr oder weniger erst seit Haswell eingeführt.

Shin'n sagt also Konsolen kann jeder Programmierer so programmieren wie er will, er muss nicht mal gpgpu Features nützen. Aber genau der eDRAM und genau wegen der Möglichkeit dass CPU und GPU Zugriff auf den eDRAM haben. Also gpgpu wird von Nintendo von Anfang an beworben, zu einer Zeit wo alle noch meckerten, ja die CPU ist zu langsam bla bla.

Frage, wundert ihr euch nicht, wieso die ganzen Publisher Engine zeigen, die Wetter und Co auf GPGPU abwickeln lassen ? Besonders WatchDogs oder AC V lassen nicht mehr lang auf sich warten.
 
Zuletzt bearbeitet:
Danke modena.ch und john carmack, dann kann ich mir ja noch guten Gewissens die 7970 holen. Der Preis ist da ja aktuell ganz gut. Das Highend-Modell werde ich mir eh nicht holen und in der Mittelklasse munkelt man ja auch, dass dabei eine umgelabelte 7970 dabei sein wird. Oder ist das schon wieder nicht mehr aktuell?
 
mcforest880 schrieb:
Danke modena.ch und john carmack, dann kann ich mir ja noch guten Gewissens die 7970 holen. Der Preis ist da ja aktuell ganz gut. Das Highend-Modell werde ich mir eh nicht holen und in der Mittelklasse munkelt man ja auch, dass dabei eine umgelabelte 7970 dabei sein wird. Oder ist das schon wieder nicht mehr aktuell?


nicht ganz.... Tahiti XT wird zu Tahiti XTL (wahrscheinlich eine etwas überarbeitete und effizienere GPU...)

Wobei nicht mal 250€ für eine Asus HD7970-DC2T schon ein TOP Preis ist ;) Vor 1-2Wochen war sie noch 100€ teurer!
Und sofort lieferbar ist sie auch!
 
Zuletzt bearbeitet:
pipip schrieb:

"On Wii U the eDRAM is available to the GPU and CPU."

Und das sagt eben nicht aus, dass CPU und GPU wie bei hUMA gemeinsam auf die selben Speicherbereiche zugreifen können, sondern nur, dass sie beide nebeneinander den schnellen eDRAM als Cache nutzen können. Das bedeutet er beschleunigt die Speicherzugriffe und CPU und GPU. So wie auch bei Intels iGPUs (speziell auch Iris Pro, das ebenfalls auf einen großen, gemeinsam genutzten eDRAM-Cache setzt). Aber das heißt wie gesagt nicht, dass damit irgendeine besondere GP-GPU-Funktionalität ala HSA/hUMA möglich wird.
Dass der eDRAM CPU und GPU zur Verfügung stellt wäre eine von mehreren Voraussetzungen dafür, aber eben nicht die einzige.
 
Herdware
Du checkst es nicht oder ? Es gibt zwar kein hUMA, aber ein UMA. Und das besondere an HSA ist ja nicht der gemeinsame Speicherraum, sondern dass Daten effektiv zwischen CPU und GPU bearbeitet werden kann. Alles was auf dem eDRAM ist teilt sich CPU und GPU also. Das was bei der PS4 also geteilt auf den RAM liegt, wird halt durch Optimierungen bei der X1 oder WiiU auf dem eDRAM liegen.
Daten die benötigt werden werden dann vom RAM in den CPU Cache oder eDRAM nachgeschoben.
Somit wird eben der Flaschenhals zum DDR3 verhindert. Das ist auch was Shin'en sagt, viele Entwickler haben diese Methode nicht verwendet und das ist der Grund wieso es zu einen Flaschenhals kommt.

Und noch mal du kannst 1000 mal Iris Pro schreiben, sie kommt nun mal nicht in einer Konsole vor. Würde sie in einer Konsole vorkommen, könnte man wahrscheinlich ähnliches realisieren, noch mal "hardwarenahes Programmieren, angepasste Engine".
Konsole =/= PC.
 
Zuletzt bearbeitet:
etking schrieb:
Spieler mit weniger als 8 CPU-Cores dürfen sich schon mal neue Hardware kaufen. Direkter Hardwarezugriff und volle Multicore-Unterstützung sind auf Konsolen seit Jahrzehnten üblich und werden dafür sorgen, dass auch bei identischer Hardware die Auslastung und Grafikleistung immer besser wird, da sie Entwickler auch nach Jahren noch Performacereserven heben können.

Intel und Direct X sind dadurch im Moment komplett abgehängt, auch wenn ein HT-fähiger Corei7 wahrscheinlich auch 8 CPU Threads locker verkraften könnte wird die Direct X-Version das wahrscheinlich gar nicht ermöglichen. Da sowieso 90% der Spiele für Konsolen entwickelt werden, würde es nicht ausreichen wenn MS und Nvidia ähnliche Features nachliefern. Sie Könnten nur versuchen, AMD zu Offenheit zu zwingen, mit geringen Erfolgschancen.

Da wird Microsoft aber mit Sicherheit auch noch was mit zu besprechen haben, schließlich ist ja eine von den beiden Konsolen von Microsoft und mich würde es da nicht wundern wenn die meisten Spiele da Direct X benutzen.
 
pipip schrieb:
Herdware
Du checkst es nicht oder ? Es gibt zwar kein hUMA, aber ein UMA. Und das besondere an HSA ist ja nicht der gemeinsame Speicherraum, sondern dass Daten effektiv zwischen CPU und GPU bearbeitet werden kann. Alles was auf dem eDRAM ist teilt sich CPU und GPU also. Das was bei der PS4 also geteilt auf den RAM liegt, wird halt durch Optimierungen bei der X1 oder WiiU auf dem eDRAM liegen.
Daten die benötigt werden werden dann vom RAM in den CPU Cache oder eDRAM nachgeschoben.

Die Xbox One CPU hat immer noch keinen Zugriff auf den eSRAM. Und UMA ist nicht gleich HSA/hUMA. Von Niemandem wurde bestätigt, das CPU und GPU der Wii U gleichberechtigt auf die Daten im eDRAM zugreifen dürfen.

Ansonsten erinnert mich "Mantle" ein bisschen an die "Wrapper"-APU der PS4, die sich über den Low-Level Zugriff "wickelt".
 
pipip schrieb:
Herdware
Du checkst es nicht oder ? Es gibt zwar kein hUMA, aber ein UMA. Und das besondere an HSA ist ja nicht der gemeinsame Speicherraum, sondern dass Daten effektiv zwischen CPU und GPU bearbeitet werden kann.

Genau das sehe ich anders. Erst der gemeinsame Adressraum (hUMA) macht HSA so effektiv, denn damit müssen die Daten gar nicht mehr zwischen verschiedenen Speicherbereichen hin und her kopiert werden.
Da kann man noch so hardwarenah programmieren. Wenn man die Daten umständlich zwischen Speicherbereichen hin und her kopieren muss, braucht das auch in relativ schnellem Speicher leicht mehr Zeit, als die Berechnungen selbst. Dann kann man auch gleich nur die CPU dafür verwenden.
Dadurch, dass das Rumkopieren der Daten komplett weg fällt, wird bei HSA GP-GPU auch für "Kleinkram"-Berechnungen nutzbar, für das es vorher ungeeignet war.

Bei der PS4 kann so viel ich verstanden habe ein gemeinsamer Adressraum genutzt werden. Inwiefern das direkt hUMA ist, wie man es in den sonstigen (zukünftigen) HSA-APUs verwendet wird, oder eine vergleichbare aber vielleicht inkompatible Technik, weiß ich nicht.

Die WiiU beherrscht das soviel ich weiß genauso wenig wie z.B. Iris Pro.
Der in den von dir zitierten Texten genannte Geschwindigkeitsvorteil ergibt sich daraus, dass es kein Cache ist, der nur exklusiv nur von CPU oder GPU genutzt werden kann, sondern dass er beiden flexibel zur Beschleunigung von Speicherzugriffen zur Verfügung steht. So wie z.B. auch bei Intels iGPUs.
 
Bin ich froh, dass AMD doch noch ein Ass im Ärmel hatte!
Das Problem an AMD-CPUs, vor allem der fx-Serie, war ja immer, dass die CPU nicht richtig ausgenutzt wurde. Das wird sich jetzt ändern, aber auch die Grafikkarten werden NVIDIA mal wieder den Garaus machen. Das ist gut, da freue ich mich. NV soll ruhig leiden. Hoffentlich kaufen die ganzen sturköpfe dann endlich mal auch AMD...
Hoffe, dass AMD sich nun wieder fängt.
 
Nai schrieb:
Die Tatsache, dass man weiterhin eine API benötigt war klar und wurde auch nicht in Frage gestellt. Es ging mir in meinen Post jedoch darum aufzuzeigen, dass die API umständlicher zu Programmieren sein wird (sofern sie hardwarenäher sein soll und man diese Hardwarenahe auch ausnutzen will) als jede aktuelle hardwareferne abstrakte API (OpenGL, DirectX).

Soweit ich weiß (Bin absichtlich kein AEler ;) ) interessiert das doch nur die, die die Engine entwickeln.
Die Spieleentwickler nutzen wie bisher auch die Engines wie CryEngine usw.
Da wird sich wohl nichts ändern nur, dass man mehr Leute erreicht.
 
Zurück
Oben