Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „Mantle“: Battlefield 4 erhält eigene AMD-Version
- Ersteller Wolfgang
- Erstellt am
- Zur News: „Mantle“: Battlefield 4 erhält eigene AMD-Version
Techniker Freak
Lieutenant
- Registriert
- Okt. 2010
- Beiträge
- 522
@derGrimm
Zumindest wenn sie mehr Leute erreichen wollen da die Portierung um ein vielfaches erleichtert wird.
In dem Artikel bei Golem habe ich zudem entdeckt das für Mantle die gleiche oder kompatible Programmiersprache verwendet wird wie für DirectX, das vermindert den Arbeitsaufwand zusätzlich bei Portierungen von z.B. der PS4 zum PC.
Edit:
Zumindest wenn sie mehr Leute erreichen wollen da die Portierung um ein vielfaches erleichtert wird.
In dem Artikel bei Golem habe ich zudem entdeckt das für Mantle die gleiche oder kompatible Programmiersprache verwendet wird wie für DirectX, das vermindert den Arbeitsaufwand zusätzlich bei Portierungen von z.B. der PS4 zum PC.
Edit:
im Beitrag ergänztoder kompatible
Zuletzt bearbeitet:
zombie
Captain
- Registriert
- Aug. 2004
- Beiträge
- 3.782
na da bin ich ja mal gespannt ob mit mantle amd endlich wieder der king im ring wird und nvidia und intel in sachen gaming mal ieder das fürchten lehren kann. da hatte man amd schon abgeschrieben bis auf gpu und low price apus aber damit könnte amd wieder richtig mitmischen
Tja, aber wie heißt es.
Schmiede das Eisen solang es heiß ist.
Sprich AMD sollte sich bemühen den Entwicklern mit der API unter die Arme zugreifen.
Aber schön das mal wieder ne neue API am Start ist ^^
Dx und OpenGL sind schon sehr altes Eisen.
Schmiede das Eisen solang es heiß ist.
Sprich AMD sollte sich bemühen den Entwicklern mit der API unter die Arme zugreifen.
Aber schön das mal wieder ne neue API am Start ist ^^
Dx und OpenGL sind schon sehr altes Eisen.
JJJT
Lt. Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.021
Wer auch nur ansatzweise verstehen will was Mantle ist und wie es funktioniert, der liest sich am besten mal das hier durch:
http://www.anandtech.com/show/7371/understanding-amds-mantle-a-lowlevel-graphics-api-for-gcn
Dann wird schnell klar, dass hier im Thread sehr viel Blödsinn, falsche Hoffnungen und falsche Ängste verbreitet werden!
http://www.anandtech.com/show/7371/understanding-amds-mantle-a-lowlevel-graphics-api-for-gcn
Dann wird schnell klar, dass hier im Thread sehr viel Blödsinn, falsche Hoffnungen und falsche Ängste verbreitet werden!
Zuletzt bearbeitet:
Rabenbrand
Cadet 1st Year
- Registriert
- Dez. 2011
- Beiträge
- 14
So wie ich das mitbekommen habe, ist Mantle eine API für GCN-Grafikerne, und diese ist ja eine AMD Architektur.
Jeder kann zwar diese API benuzen, aber sobald keine GCN-Grafikerne in der jeweiligen Grafikkarte vorhanden sind, wird quasi eine AMD-GPU "emuliert", die dann logischerweise langsamer ist.
Was soll denn da noch offen im herkömmlichen Sinne sein und hat AMD nicht in der jüngsten Vergangenheit immer stolz von den DX 11.2 Fähigkeiten der bereits auf dem Markt erhältlichen GPUs hingewiesen? Und jetzt ist DX "böse"?
Mantle erinnert mich irgendwie an Glide...
Jeder kann zwar diese API benuzen, aber sobald keine GCN-Grafikerne in der jeweiligen Grafikkarte vorhanden sind, wird quasi eine AMD-GPU "emuliert", die dann logischerweise langsamer ist.
Was soll denn da noch offen im herkömmlichen Sinne sein und hat AMD nicht in der jüngsten Vergangenheit immer stolz von den DX 11.2 Fähigkeiten der bereits auf dem Markt erhältlichen GPUs hingewiesen? Und jetzt ist DX "böse"?
Mantle erinnert mich irgendwie an Glide...
M24o schrieb:Bin ich froh, dass AMD doch noch ein Ass im Ärmel hatte!
Das Problem an AMD-CPUs, vor allem der fx-Serie, war ja immer, dass die CPU nicht richtig ausgenutzt wurde. Das wird sich jetzt ändern, aber auch die Grafikkarten werden NVIDIA mal wieder den Garaus machen. Das ist gut, da freue ich mich. NV soll ruhig leiden. Hoffentlich kaufen die ganzen sturköpfe dann endlich mal auch AMD...
Hoffe, dass AMD sich nun wieder fängt.
Und noch jemand, der sich ein AMD-Monopol wünscht. Aber dann darfst du dich auf gesalzene Preise freuen!
grenn
Fleet Admiral
- Registriert
- Sep. 2012
- Beiträge
- 17.842
styletunte schrieb:Jetzt ergibt es auch Sinn, dass der AMD Chef letztens im Interview meinte, dass DirectX11 das letzte DirectX sein wird.
https://www.computerbase.de/2013-04/amd-manager-roy-taylor-es-wird-kein-directx-12-kommen/
Dazu kommt das STEAM OS, welches auf Linux als Basis für einen ZockerPC basiert.
Da kommt großes auf uns zu.
Ich hoffe es eigentlich nicht, aber wenn Microsoft weiter so stur ist und weiter auf Windows 8(.1) baut von der Oberfläche her dann kann das nachher Wirklichkeit werden. Das was ich daran am schlimmsten finden würde wäre die nicht mehr vorhandene Abwärtskompatibilität, denn jetzt lässt sich mit Windows 7 bzw. 8 die meisten Spiele ab 2002/2003 spielen und sollte sich wirklich Linux durchsetzen dann bräuchte man noch eine zweit Partition mit Windows drauf.
Ich selber glaube noch nicht daran, aber das sollte schonmal zeigen was denn dann wäre wenn das wirklich passieren sollte.
dynastes
Banned
- Registriert
- Apr. 2007
- Beiträge
- 1.413
Als Idee sicher nicht schlecht, weil es auch für die Konsolen brauchbar ist. Allerdings dürfte sich Mantle kaum flächendeckend gegen DirectX durchsetzen, wenn Nvidia außen vor bleibt, denn dafür ist deren Marktanteil zu bedeutend. Zudem ist zumindest einer der großen Konsolenhersteller ja auch der Urheber von DirectX - ob Microsoft nicht ein Wörtchen mitzureden haben wird, wenn es um eine Ablösung von DirectX geht, bleibt abzuwarten.
Insgesamt aber zumindest ein spannendes Konzept, auch wenn man wird abwarten müssen, wie die Umsetzung aussieht. Dass AMDs CPUs eine verbesserte Leistung durch bessere Auslastung gebrauchen könnten, dürfte klar sein - was bei entsprechender Programmierung dann möglich ist, zeigt Crysis 3 ...
Insgesamt aber zumindest ein spannendes Konzept, auch wenn man wird abwarten müssen, wie die Umsetzung aussieht. Dass AMDs CPUs eine verbesserte Leistung durch bessere Auslastung gebrauchen könnten, dürfte klar sein - was bei entsprechender Programmierung dann möglich ist, zeigt Crysis 3 ...
Matze89
Commodore
- Registriert
- Jan. 2009
- Beiträge
- 4.796
Meine nächste Karte wird auf jeden Fall wieder eine AMD werden.
Wichtiger als die R9 290X finde ich dieses "Mantle". Ich denke, dass die Spiele zukünftig etwas besser auf AMD-Grafikkarten laufen.
Jetzt ist nur die Frage: R9 280X oder R9 290?
Wichtiger als die R9 290X finde ich dieses "Mantle". Ich denke, dass die Spiele zukünftig etwas besser auf AMD-Grafikkarten laufen.
Jetzt ist nur die Frage: R9 280X oder R9 290?
Entscheiden werden hauptsächlich der Marktanteil und die Programmierbarkeit ob Mantle ein Erfolg wird.
Marktanteil ist mit NextGenKon mit Sicherheit gegeben. Dazu noch die Amd-PCs... Blockbuster wirds nun hauptsächlich für Konsolen geben.
Ich geh davon aus, dass es einfacher als DX zu programmieren ist. Auch sollte man bedenken, dass die PS4 eher kein DX nützt. Dadurch würden beide Konsolen ähnlich zu bearbeiten sein, was einen Vorteil für die Entw. wäre. Wenn dann noch die DX-Portierung für PCs wegfällt würde die das sicher auch nicht stören.
Abschließend wär noch zu erwähnen, dass man mit der gleichen Hardware (falls AMD) eine Mehrleistung hätte. Da hätte selbst der Konsument direkt einen Vorteil.
Ich persönlich denke also, dass es mal ein Erfolg für Amd wird. Natürlich kann es auch anders kommen...
Marktanteil ist mit NextGenKon mit Sicherheit gegeben. Dazu noch die Amd-PCs... Blockbuster wirds nun hauptsächlich für Konsolen geben.
Ich geh davon aus, dass es einfacher als DX zu programmieren ist. Auch sollte man bedenken, dass die PS4 eher kein DX nützt. Dadurch würden beide Konsolen ähnlich zu bearbeiten sein, was einen Vorteil für die Entw. wäre. Wenn dann noch die DX-Portierung für PCs wegfällt würde die das sicher auch nicht stören.
Abschließend wär noch zu erwähnen, dass man mit der gleichen Hardware (falls AMD) eine Mehrleistung hätte. Da hätte selbst der Konsument direkt einen Vorteil.
Ich persönlich denke also, dass es mal ein Erfolg für Amd wird. Natürlich kann es auch anders kommen...
flächendeckend sind bald die mini drm-pc's von sony und m$ verteilt, und mit mantle werden wohl (fast?) alle games programmiert werden, die entsprechende portierung für pc dann wohl auch richtung mantle gehen. Kosten, nutzen aufwand sind die stichworte. Und wenn die software erstmal da ist, ein game mit einer radeon plötzlich sehr viel schneller ist.. ja da wird dann auch der letzte arme nvidianer seine geforce ausmustern, wenn nv nix gegensteuern kann.
und im moment kommen sie sogar bei der linux-gemeinde angekrochen, also die sehen ihre felle tatsächlich schon schwimmen und müssen handeln. denn diese api kann mit diesem konsolenhintergrund durchaus nicht nur das aus für 1000€ teure grafikkarten sondern derren konkurenzfähigkeit sein. das nächste jahr wird sehr aufschlußreich, als pc-gamer wünscht man sich aber natürlich das genau dieser fall nicht eintritt und es immer 2 konkurenten geben wird. in letzter zeit hat das nv aber nicht von phantasie-preisen abgehalten, ihre proprietäre scheiße können se jetzt behalten, und mit der linux-gemeinde geht man halt nicht so um. auf einmal bricht alles weg, ich sage zurecht! nur missen will ich sie nicht, wenn das nv ins abseits drängt wäre das mehr als ärgerlich. im moment is t das lachen aber groß, denn den mist in der letzten zeit, die gehören mal abgestraft.
und im moment kommen sie sogar bei der linux-gemeinde angekrochen, also die sehen ihre felle tatsächlich schon schwimmen und müssen handeln. denn diese api kann mit diesem konsolenhintergrund durchaus nicht nur das aus für 1000€ teure grafikkarten sondern derren konkurenzfähigkeit sein. das nächste jahr wird sehr aufschlußreich, als pc-gamer wünscht man sich aber natürlich das genau dieser fall nicht eintritt und es immer 2 konkurenten geben wird. in letzter zeit hat das nv aber nicht von phantasie-preisen abgehalten, ihre proprietäre scheiße können se jetzt behalten, und mit der linux-gemeinde geht man halt nicht so um. auf einmal bricht alles weg, ich sage zurecht! nur missen will ich sie nicht, wenn das nv ins abseits drängt wäre das mehr als ärgerlich. im moment is t das lachen aber groß, denn den mist in der letzten zeit, die gehören mal abgestraft.
Wobei sie die Mitzekatze bzw. den Tiger noch gefangen halten.bigot schrieb:AMD lässt heute nicht nur eine Katze , sondern eine ganze Katzeschar aus dem Sack... alter Finne wer hätte damit gerechnet? Low-Level-Ebene im PC-Spiele-Bereich, komplett neue API, komplett GCN optimiert, Auslastung aller (AMD) CPU-Kerne, das Ganze von Spieleentwicklern mitgetragen. Mantle ftw...
Ich war eigentlich schon enttäuscht, weil ich so auf eine detailierte GCN 2.0 Erklärung eigentilch als selbstverständlich erwartet hatte.
Aber Mantle hat diese Enttäuschung kompensiert.
Andererseits könnte die GCN 2.0-Präsentation @ APU-2013 eben ein Indiz dafür sein, dass sie doch mehr für HSA (APU) & GPGPU (FirePro) entwickelt wurde.
Aber mit Mantle (Performance-Optimierung) & TrueAudio (Audio) & Crossfire 3.0? [ ohne CF-Stecker] (müsste gleichzeitig frame packing 2.0 bedeuten] wurde ja wirklich viel präsentiert, wenn man bedenkt, dass mit Evinity (Mutil-Monitor) & TressFX (Physik) das Spiel-Erlebenis jetzt schon recht beachtlich ist.
Nvidia wird wohl schon einschätzen können, was sie zu erwarten hatte.Ich kann mir gut vorstellen wie der Konkurrenz gerade die Kinnlade auf den Boden runterfällt.
Als HD 7970 kam, hatten sie damals auch mehr erwartet. D.h. sieh hatten eigentlich für 2012 mit einem stärkeren Konkurrenten gerechnet und somit auch schwierigere Zeiten erwartet.
Aber jetzt schlägt der Bummeran zurück.
Denn in den letzten 6 Jahren konnte Nvidia sehr gut vom 2 Fronten-Krieg (CPU gegen Intel und GPU gagen Nvidia) provitieren, weil sie Schwierigkeiten im CPU-Sektor hatten und so nicht wirklich im GPU-Markt sich entfalten konnten. Durch den Konsolen-Gewinn konnte AMD diese Last erstmals in einen Vorteil verschaffen und so mit neuen Technik-Partner (Sony & Mircosoft) eben die Game-Entwicklung selbst gestalten wie sie es wollen.
Es ist nichts anderes als die ersten zukünftiger viel Schwierigere Probleme.
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.410
realAudioslave
Bei der WiiU ist alles bis auf die CPU selbst in der IGP integriert (MCM Chip). Bei der XBOX ONE hat man durch das APU Design sogar nur ein Chip.
Durch den Entwickler wurde das mehr oder weniger bestättigt, da dieser ja klar im Kontext sagt, dass man mehr Performance rausholen kann, da man quasi den Cache als erste Distanz verwenden kann un die RAM mehr oder weniger mit Rohmaterial versorgt.
Übrigens, falls jemand den Link nicht angeklickt hat :
Aber machen wir es so, einfach mal abwarten. Es ist klar, dass es nicht 1 zu1 HSA ist, aber ich spreche acuh ständig von HSA-Features, also die Möglichkeit durch die optimale Programmierung die Daten zwischen CPU und GPU über den eDRAM bearbeiten zu lassen.
Herdware
Ich weiß ja nicht wiefern du dich mit Prozessoren und Architektur auskennst, aber das besondere an HSA ist es meiner Meinung nach, dass Daten zwischen CPU und GPU nicht nur über den Ram geteilt wird, sondern dass auch die Cache Level, Stack, Register ect Zwischenergebnise abgespeichert werden können und von der CPU oder GPU je nach Bedarf genutzt werden kann.
Somit würden HSA ähnliche Funktionen ohne dem ständigen "kopieren" eben bis zu dem eDRAM eventuell möglich sein. Das heißt CPU berechnet was, ablage auf die eDRAM. Dann wird das Ergebnis genommen und zum BSP in die GPU geladen ect. Das wäre also sowas wie ein gemeinsamer Speicherplatz. Natürlich müsste der Programmierer das so hindrehen. Daten die keine schnelle Bandbreite benötigt werden dann aus den RAM geholt. Wenn man das Interview also durchließt merkt man, dass man genau so den Flaschenhals beseitigt.
Klar kann man meinen es sei nur GPGPU, nicht aber wenn das Spiel zwischen CPU und GPU so sehr hamoniert sodass je nach Anwendung die beste Baugruppe die Arbeit übernimmt. Somit ist aufgrund des eDram kein gemeinsamer Speicherplatz auf den Ram von nöten.
Das ändert sich natürlich am PC, wo eben keine hardwarenahe Programmierung möglich ist.
Ich wiederhole, eine Konsole ist kein PC und die Programmiere können tun und lassen was sie wollen.
Auch hier sieht man bei der XOne dass die Northbridge genau zwischen CPU, GPU, ESRAM und RAM sitzt.
WiiU
http://www.neogaf.com/forum/showthread.php?t=511628
Auch bei Neogaf geht man bereits von einem eDRAM Zugriff der CPU aus.
Des weiteren gibt es noch weitere onDieCache (bsp Wiiu hat noch einen weiteren 2 MB SRAM).
Ein Großteil der GPU, worin die meiste Technik sitzt ist sogar noch unbekannt. Wer weiß was Nintendo alles integriert hat.
Ich hab das Gefühl, weil man eben bei der WiiU nur IBM Prozessor, 320 Shader und VLIW5 und 32 MB Cache oder XBOX ONE 8 x86 Cores mit nur 786 Cores gelesen hat, habe man gleich gemeint, das alles sei alte Technik.
Aber umso mehr ich mit den Chip versuche zu verstehen, desto mehr merkt man, dass da weit aus mehr dahintersteckt.
Ich glaube nicht dass es ein Zufall ist, dass Nintendo und MS einen ähnlichen Ansatz haben, dass Nintendo gleich von Anfang an GPGPU wirbt.
Und wenn man alle Konsolen anschaut, dann ist es der Fokus auf die GPU und diverse GPU-Features, die alle drei Konsolen verbindet.
Klar, am ehesten wird PS4 HSA gleich kommen, doch ist es eben durch die Programmierung möglich und wahrscheinlich beabsichtigt dass man Daten zwischen CPU und GPU effektiv Berechnen möchte ohne ständig auf den RAM zugreifen zu müssen. Das wäre eben schon ein Form von HSA. Der gemeinsame Speicheraum ist ja das Ergebnis davon, dass der hUMA selbstständig ohne Optimierung die CPU und GPU auf die gleichen Daten zugreifen kann. Doch die wirkliche Performance bekommt man ja im Prozessor selbst. Das sind eben die CacheLevel, Register und der Stack, erst am Ende der Herarchie kommt der Cache.
Aber gut abwarten, vllt hört man noch was, für mich persönlich hat Shin'en bestättigt dass die CPU und GPU beide Zugriff auf den eDRAM haben.
Aber klar am Ende kann man immer sagen, ich wieß dass ich nichts weiß.
Ich hab lediglich geschaut, ob es gegenüber den Konsolen gemeinsamkeiten gibt, und für mich persönlich klingt vieles plausibel und man merkt die haben sich scheinbar alle gegeneinander beeinflusst.
Nintendo hat BSP schon bei der Wii begonnen viele Aufgaben in Form von DSP oder Instruction Sets viele Aufgaben raus aus der CPU zu verlagern. Somit umso verständlicher dass sie den Ansatz weiter verfolgen. Denn die Wii hatte bereits ein DSP der Audio Aufgaben übernimmt und so die CPU im Gegensatzu zu einer XBOX 360 entlastet.
Das hat ja auch noch jene Vorteile, dass solche APUs, wo die GPU und weitere kleinere instruction Sets viele Aufgaben wesentlich effizienter abarbeiten kann, als eine CPU die mehr oder weniger früher Mädchen für alles war. Man speziallisiert sich quasi, und Konsolen können das durch ihre besonderen Aufmerksamkeit der Programmierer voll ausschöpfen.
Also, die WiiU oder XBOX ONE APU können klar kein HSA, aber sie können eben manche "Applikationen" sicherlich simulieren und so auch den Kopiervorgang oder den Zugriff über die RAM vermindern. Das ist was ich versuche zu erklären. Deshalb sage ich auch andauernd GPGPU oder HSA-Features. Btw Hardware ist HSA und GPGPU nicht das selbe und mit dem hUMA hast du schon recht, das ist mir auch bewusst, es geht aber darum wie CPU und GPU, eben verhalten kann, durch die Optimierung eben vllt auch heterogen.
Bei der WiiU ist alles bis auf die CPU selbst in der IGP integriert (MCM Chip). Bei der XBOX ONE hat man durch das APU Design sogar nur ein Chip.
Durch den Entwickler wurde das mehr oder weniger bestättigt, da dieser ja klar im Kontext sagt, dass man mehr Performance rausholen kann, da man quasi den Cache als erste Distanz verwenden kann un die RAM mehr oder weniger mit Rohmaterial versorgt.
Übrigens, falls jemand den Link nicht angeklickt hat :
Finally, when I asked Mr. Linzner if there were any features of the latest version of Direct X that Wii U couldn’t perform the equivalent of, he had this to say:
“I can’t detail the Wii U GPU but remember it’s a GPGPU. So you are lifted from most limits you had on previous consoles. I think that if you have problems making a great looking game on Wii U then it’s not a problem of the hardware.”
Aber machen wir es so, einfach mal abwarten. Es ist klar, dass es nicht 1 zu1 HSA ist, aber ich spreche acuh ständig von HSA-Features, also die Möglichkeit durch die optimale Programmierung die Daten zwischen CPU und GPU über den eDRAM bearbeiten zu lassen.
Herdware
Ich weiß ja nicht wiefern du dich mit Prozessoren und Architektur auskennst, aber das besondere an HSA ist es meiner Meinung nach, dass Daten zwischen CPU und GPU nicht nur über den Ram geteilt wird, sondern dass auch die Cache Level, Stack, Register ect Zwischenergebnise abgespeichert werden können und von der CPU oder GPU je nach Bedarf genutzt werden kann.
Somit würden HSA ähnliche Funktionen ohne dem ständigen "kopieren" eben bis zu dem eDRAM eventuell möglich sein. Das heißt CPU berechnet was, ablage auf die eDRAM. Dann wird das Ergebnis genommen und zum BSP in die GPU geladen ect. Das wäre also sowas wie ein gemeinsamer Speicherplatz. Natürlich müsste der Programmierer das so hindrehen. Daten die keine schnelle Bandbreite benötigt werden dann aus den RAM geholt. Wenn man das Interview also durchließt merkt man, dass man genau so den Flaschenhals beseitigt.
Klar kann man meinen es sei nur GPGPU, nicht aber wenn das Spiel zwischen CPU und GPU so sehr hamoniert sodass je nach Anwendung die beste Baugruppe die Arbeit übernimmt. Somit ist aufgrund des eDram kein gemeinsamer Speicherplatz auf den Ram von nöten.
Das ändert sich natürlich am PC, wo eben keine hardwarenahe Programmierung möglich ist.
Ich wiederhole, eine Konsole ist kein PC und die Programmiere können tun und lassen was sie wollen.
Auch hier sieht man bei der XOne dass die Northbridge genau zwischen CPU, GPU, ESRAM und RAM sitzt.
WiiU
http://www.neogaf.com/forum/showthread.php?t=511628
Auch bei Neogaf geht man bereits von einem eDRAM Zugriff der CPU aus.
Des weiteren gibt es noch weitere onDieCache (bsp Wiiu hat noch einen weiteren 2 MB SRAM).
Ein Großteil der GPU, worin die meiste Technik sitzt ist sogar noch unbekannt. Wer weiß was Nintendo alles integriert hat.
Ich hab das Gefühl, weil man eben bei der WiiU nur IBM Prozessor, 320 Shader und VLIW5 und 32 MB Cache oder XBOX ONE 8 x86 Cores mit nur 786 Cores gelesen hat, habe man gleich gemeint, das alles sei alte Technik.
Aber umso mehr ich mit den Chip versuche zu verstehen, desto mehr merkt man, dass da weit aus mehr dahintersteckt.
Ich glaube nicht dass es ein Zufall ist, dass Nintendo und MS einen ähnlichen Ansatz haben, dass Nintendo gleich von Anfang an GPGPU wirbt.
Und wenn man alle Konsolen anschaut, dann ist es der Fokus auf die GPU und diverse GPU-Features, die alle drei Konsolen verbindet.
Klar, am ehesten wird PS4 HSA gleich kommen, doch ist es eben durch die Programmierung möglich und wahrscheinlich beabsichtigt dass man Daten zwischen CPU und GPU effektiv Berechnen möchte ohne ständig auf den RAM zugreifen zu müssen. Das wäre eben schon ein Form von HSA. Der gemeinsame Speicheraum ist ja das Ergebnis davon, dass der hUMA selbstständig ohne Optimierung die CPU und GPU auf die gleichen Daten zugreifen kann. Doch die wirkliche Performance bekommt man ja im Prozessor selbst. Das sind eben die CacheLevel, Register und der Stack, erst am Ende der Herarchie kommt der Cache.
Aber gut abwarten, vllt hört man noch was, für mich persönlich hat Shin'en bestättigt dass die CPU und GPU beide Zugriff auf den eDRAM haben.
Aber klar am Ende kann man immer sagen, ich wieß dass ich nichts weiß.
Ich hab lediglich geschaut, ob es gegenüber den Konsolen gemeinsamkeiten gibt, und für mich persönlich klingt vieles plausibel und man merkt die haben sich scheinbar alle gegeneinander beeinflusst.
Nintendo hat BSP schon bei der Wii begonnen viele Aufgaben in Form von DSP oder Instruction Sets viele Aufgaben raus aus der CPU zu verlagern. Somit umso verständlicher dass sie den Ansatz weiter verfolgen. Denn die Wii hatte bereits ein DSP der Audio Aufgaben übernimmt und so die CPU im Gegensatzu zu einer XBOX 360 entlastet.
Das hat ja auch noch jene Vorteile, dass solche APUs, wo die GPU und weitere kleinere instruction Sets viele Aufgaben wesentlich effizienter abarbeiten kann, als eine CPU die mehr oder weniger früher Mädchen für alles war. Man speziallisiert sich quasi, und Konsolen können das durch ihre besonderen Aufmerksamkeit der Programmierer voll ausschöpfen.
Also, die WiiU oder XBOX ONE APU können klar kein HSA, aber sie können eben manche "Applikationen" sicherlich simulieren und so auch den Kopiervorgang oder den Zugriff über die RAM vermindern. Das ist was ich versuche zu erklären. Deshalb sage ich auch andauernd GPGPU oder HSA-Features. Btw Hardware ist HSA und GPGPU nicht das selbe und mit dem hUMA hast du schon recht, das ist mir auch bewusst, es geht aber darum wie CPU und GPU, eben verhalten kann, durch die Optimierung eben vllt auch heterogen.
Zuletzt bearbeitet:
Colonel Decker
Lt. Commander
- Registriert
- Dez. 2008
- Beiträge
- 1.793
JJJT schrieb:Wer auch nur ansatzweise verstehen will was Mantle ist und wie es funktioniert, der liesst sich am besten mal das hier durch:
http://www.anandtech.com/show/7371/understanding-amds-mantle-a-lowlevel-graphics-api-for-gcn
Danke, bisher der interessanteste Artikel, den ich dazu gelesen habe.
realAudioslave
Captain
- Registriert
- Feb. 2010
- Beiträge
- 3.660
pipip schrieb:Ich hab das Gefühl, weil man eben bei der WiiU nur IBM Prozessor, 320 Shader und VLIW5 und 32 MB Cache oder XBOX ONE 8 x86 Cores mit nur 786 Cores gelesen hat, habe man gleich gemeint, das alles sei alte Technik.
Aber umso mehr ich mit den Chip versuche zu verstehen, desto mehr merkt man, dass da weit aus mehr dahintersteckt.
Ich glaube nicht dass es ein Zufall ist, dass Nintendo und MS einen ähnlichen Ansatz haben, dass Nintendo gleich von Anfang an GPGPU wirbt.
Seit wann hat die Wii U bestätigte 320 Shader? Ich kenne sämtliche Threads bei Neogaf zu dem Thema, aber 320 sind weder bestätigt, noch wahrscheinlich, ebenso könnten es nur 160 sein. Speziell der Latte-Thread besteht zu 98% aus Spekulationen, mich wundert es, das du da nicht differenzieren kannst. Aber dort machen auch alle aus Vermutungen Tatsachen.
Und das die Wii U nunmal nicht auf dem neuesten AMD-Chip Design basiert, muss man wohl nicht erwähnen, die Xbox One sieht aber niemand als "veraltet" an, nur eben etwas unterpowert, im Vergleich zur PS4. Wobei auch die im Vergleich zum PC ziemlich unterpowert ist.
Für GPGPU benötigt man btw nichtmal HSA, auch wenn es dann deutlich mehr Spass macht. Und auch wenn Wii U CPU und GPU Zugriff auf den eDRAM haben, ist das nicht zwingend HSA, sondern wahrscheinlich nur eine Art Turbo für den lahmen Hauptspeicher, wie Herdware richtig beschrieben hat. Alles kann, nichts muss.
Aber wir sind grad hochgradig OT.
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.410
realAudioslave
Tja, wenn man in einer Spur runterschreibt, basiert es, dass man manchmal die falschen Vokabeln nimmt. Aber von einer Bestätigung wollte ich in der erste Linie gar nicht sprechen.
Um was es mir geht, Leute hören oft Schlagworte wie, IBM Prozessor, VLIW5 ect und sagen gleich es sei "veraltet".
Nur sind Erfindungen auch oft die Rekombination vom Alten. Selbst wenn man eben einen IBM Prozessor und VLIW 5 nützt, aber es eben nach Bedarf so optimiert/reiht wie man es benötigt, dann werden eben Dinge möglich die vorher nur schwer möglich waren.
Die 160 Shader wären klar möglich, streite ich fix nicht ab, darum ginge es mir aber nicht in der Aussage.
Sondern dass eine WiiU keine XBOX 360 ist, wie viele es gern aufgreifen und vergleichen, sondern scheinbar mehr mit Next-Gen gemeinsam hat, als oft gedacht wird oder zumindestens nicht in der gleichen Relation Wii zu damaligen Konsolen steht (bsp keine programmierbare Shader).
Oder dass die XBOX One eventuell unterschätzt wird, weil man 32MB Cache ließt. Es kommt eben darauf an, was man anvisiert. Dann passt man eine Hardware an. Die WiiU zum Bsp schafft es eine Grafik zu ermöglichen, die eine Xbox 360 auch schafft, verbraucht aber gerade mal die Hälfte an Strom. Des weiteren, sollte klar sein, wenn die WiiU keine 320 Shader hat, wie schafft sie dann vergleichbar, oder bsp Splinter Cell ein besseres Bild ?
Am Ende werden wir noch offtopic werden, doch meine Aussage bleibt, Mantle ist sicherlich durch die Konsolen, durch die Arbeit mit APUs und SoC und man hat sicherlich den Fokus GPU mit gpgpu, wieso sonst ist die GPU bei allen drei Konsolen wesentlich schwächer im Vergleich zur vorherigen Generation ? Da Standards im herkömmlichen Sinn, also Standard gegen Intel nicht durchdrücken kann, nimmt man eben einen Markt wo die Konkurrenz keine Marktmacht oder wenig Marktmacht hat. Somit über Konsolen wäre es für AMD möglich in Bewegung zu kommen und HSA durch Mantle und Co mehr und mehr salonfähig zu machen.
Btw, Nintendo arbeitet mit AMD am längsten zusammen und das seit Nintendo GameCube. Kaum zu glauben, als ob Nintendo AMDs Vorhaben und Entwicklung nie beobachtet hätte, immerhin hat man eine eigene Entwicklerabteilung. Anderseits macht Nintendo sowieso immer sein eigenes Süppchen.
Aber klar, vieles ist sicherlich auch Spekulation von mir.
Ziel der WiiU ist es sicherlich, günstig zu sein und das Optimum für die Games aus eigenem Hause zu sein und es ist kein Geheimnis dass die WiiU nicht so potent wie die anderen Konsolen ist, nur vermute ich, dass Nintendo weit aus mehr in Richtung der Konkurrenz optimiert/geforscht hat, als viele glauben.
Aber wer weiß, vllt ist VLIW5 ein Grund warum Mantle nicht lauffähig wäre. Wäre wohl eine Entwicklung, mit der Nintendo nicht gerechnet habe oder es einfach egal war.
Tja, wenn man in einer Spur runterschreibt, basiert es, dass man manchmal die falschen Vokabeln nimmt. Aber von einer Bestätigung wollte ich in der erste Linie gar nicht sprechen.
Um was es mir geht, Leute hören oft Schlagworte wie, IBM Prozessor, VLIW5 ect und sagen gleich es sei "veraltet".
Nur sind Erfindungen auch oft die Rekombination vom Alten. Selbst wenn man eben einen IBM Prozessor und VLIW 5 nützt, aber es eben nach Bedarf so optimiert/reiht wie man es benötigt, dann werden eben Dinge möglich die vorher nur schwer möglich waren.
Die 160 Shader wären klar möglich, streite ich fix nicht ab, darum ginge es mir aber nicht in der Aussage.
Sondern dass eine WiiU keine XBOX 360 ist, wie viele es gern aufgreifen und vergleichen, sondern scheinbar mehr mit Next-Gen gemeinsam hat, als oft gedacht wird oder zumindestens nicht in der gleichen Relation Wii zu damaligen Konsolen steht (bsp keine programmierbare Shader).
Oder dass die XBOX One eventuell unterschätzt wird, weil man 32MB Cache ließt. Es kommt eben darauf an, was man anvisiert. Dann passt man eine Hardware an. Die WiiU zum Bsp schafft es eine Grafik zu ermöglichen, die eine Xbox 360 auch schafft, verbraucht aber gerade mal die Hälfte an Strom. Des weiteren, sollte klar sein, wenn die WiiU keine 320 Shader hat, wie schafft sie dann vergleichbar, oder bsp Splinter Cell ein besseres Bild ?
Am Ende werden wir noch offtopic werden, doch meine Aussage bleibt, Mantle ist sicherlich durch die Konsolen, durch die Arbeit mit APUs und SoC und man hat sicherlich den Fokus GPU mit gpgpu, wieso sonst ist die GPU bei allen drei Konsolen wesentlich schwächer im Vergleich zur vorherigen Generation ? Da Standards im herkömmlichen Sinn, also Standard gegen Intel nicht durchdrücken kann, nimmt man eben einen Markt wo die Konkurrenz keine Marktmacht oder wenig Marktmacht hat. Somit über Konsolen wäre es für AMD möglich in Bewegung zu kommen und HSA durch Mantle und Co mehr und mehr salonfähig zu machen.
Btw, Nintendo arbeitet mit AMD am längsten zusammen und das seit Nintendo GameCube. Kaum zu glauben, als ob Nintendo AMDs Vorhaben und Entwicklung nie beobachtet hätte, immerhin hat man eine eigene Entwicklerabteilung. Anderseits macht Nintendo sowieso immer sein eigenes Süppchen.
Aber klar, vieles ist sicherlich auch Spekulation von mir.
Ziel der WiiU ist es sicherlich, günstig zu sein und das Optimum für die Games aus eigenem Hause zu sein und es ist kein Geheimnis dass die WiiU nicht so potent wie die anderen Konsolen ist, nur vermute ich, dass Nintendo weit aus mehr in Richtung der Konkurrenz optimiert/geforscht hat, als viele glauben.
Aber wer weiß, vllt ist VLIW5 ein Grund warum Mantle nicht lauffähig wäre. Wäre wohl eine Entwicklung, mit der Nintendo nicht gerechnet habe oder es einfach egal war.
Zuletzt bearbeitet:
V
Vietcong
Gast
Mantel unterstützt oder vermag alle 8 FX-Cores auszulasten, wie ich es vor einem halben Jahr gesagt habe und die Intel-Fanboys haben damals schon rum geheult, wollen wir mal sehen ob es ein böseres Erwachen als bei Crysis 3 gibt.
Ein Lob auf das Monopol der Spiele-Konsolen von AMD und die daraus resultierenden verbesserten Treiber und endlich die Unterstützung nicht irgendeiner 8-Core-Architektur, sondern der Bulldozer und Vishera, die diesmal wahrscheinlich einen dicken Leistungsbonus erhalten und bei den Benchmarks weit oben mitspielen werden.
Ein Lob auf das Monopol der Spiele-Konsolen von AMD und die daraus resultierenden verbesserten Treiber und endlich die Unterstützung nicht irgendeiner 8-Core-Architektur, sondern der Bulldozer und Vishera, die diesmal wahrscheinlich einen dicken Leistungsbonus erhalten und bei den Benchmarks weit oben mitspielen werden.
Zuletzt bearbeitet:
realAudioslave
Captain
- Registriert
- Feb. 2010
- Beiträge
- 3.660
pipip schrieb:Die 160 Shader wären klar möglich, streite ich fix nicht ab, darum ginge es mir aber nicht in der Aussage.
Sondern dass eine WiiU keine XBOX 360 ist, wie viele es gern aufgreifen und Vergleichen, sondern scheinbar mehr mit Next-Gen gemeinsam hat, als oft gedacht wird.
Dann stell es nicht als Fakt hin. Nimms mir nicht übel, aber nicht gesicherte Vermutungen als Fakten hinzustellen finde ich nicht in Ordnung. Und die Wii U wird deshalb mit der 360 verglichen, weil sie ähnlich viel Leistung wie eine 360 hat, vielleicht etwas mehr. Aber eben auch deutlich aktuellere Technik, bezogen auf native Funktionen, die PS360 nicht unterstützen oder nur mit viel Rechenaufwand.
pipip schrieb:Die XBOX One eventuell unterschätzt wird, weil man 32MB Cache ließt. Es kommt eben darauf an, was man anvisiert. Dann passt man eine Hardware an. Die WiiU zum Bsp schafft es eine Grafik zu ermöglichen, die eine Xbox 360 auch schafft, verbraucht aber gerade mal die Hälfte an Strom.
Eigentlich verbraucht die Wii U beinahe nur ein Drittel des PS360-Bedarfs. Der eSRAM der One wird aber nicht als Cache genutzt, eher als Scratchpad.
pipip schrieb:Des weiteren, sollte klar sein, wenn die WiiU keine 320 Shader hat, wie schafft sie dann vergleichbar, oder bsp Splinter Cell ein besseres Bild ?
Wieso sollte sie nicht? Die Wii U ist technisch PS360 einige Jahre voraus, somit könnte sie auch mit weniger als 320 Shadern ein besseres Bild hinbekommen (wie oben erwähnt). Rops sind schliesslich auch relevant, ebenso TMUs. Meine HD6450 hat 160 Shader und bekommt ein besseres Bild hin als PS360. Das ist nicht sehr schwer nach so vielen Jahren.
pipip schrieb:Am Ende werden wir noch offtopic werden, doch meine Aussage bleibt, Mantle ist sicherlich durch die Konsolen, durch die Arbeit mit APUs und SoC. Da Standards im herkömmlichen Sinn, also Standard gegen Intel nicht durchdrücken kann, nimmt man eben einen Markt wo die Konkurrenz keine Marktmacht oder wenig Marktmacht hat.
Btw, Nintendo arbeitet mit AMD am längsten und das seit Nintendo GameCube zusammen. Kaum zu glauben, als ob man AMDs Vorhaben und Entwicklung nie beobachtet hätte.
Aber klar, vieles ist sicherlich auch Spekulation meiner Seits.
Ob Nintendo die Entwicklung "beobachtet" hat oder nicht, bedeutet nicht, das Nintendo eine sinnvolle Verwendung dafür gesehen hat, vielleicht deshalb, weil sich diese Technologie bislang nicht durchgesetzt hat und/oder keine Zukunft für diese Technologie gesehen hat. Auch sollte man nicht vergessen, das eine Konsole nicht über Nacht entwickelt wird, sondern über Jahre und man sich mindestens ein Jahr vor dem Release festlegen muss, welche Wege man beschreiten möchte. Nintendo könnte aber auch einfach selbst für Klarheit sorgen und erwähnen, das die Wii U HSA-ähnliche Features bietet.
Insofern halte ich es erstmal für unwahrscheinlich, bis es Nintendo oder eine Vielzahl von Entwicklern bestätigt. Und das ist bislang nicht der Fall. Spekulationen sind zwar manchmal interessant, aber nicht unbedingt mit Fakten behaftet.
Mantle ist jedenfalls in erster Linie für GCN gemacht, davon wird die Wii U also nicht profitieren.
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.410
War fix nicht meine Absicht ^^Dann stell es nicht als Fakt hin. Nimms mir nicht übel, aber Falschinformationen verbreiten finde ich nicht in Ordnung.
Eventuell habe ich mich aber auch etwas verlaufen, denn eigentlich wollte ich darauf hinaus, dass die GPU der Fokus ist und dass gpgpu (oder HSA Features) eigentlich das besondere an next-Gen Konsolen ist und nicht x86, was viele vermuten.
Ich wollte eigentlich in erster Linie mit der WiiU nur aufzeigen, wo man Vergleiche zu den anderen Konsolen ziehen kann und dass alle neueren Konsolen eine kleine CPU aber im Vergleich mächtige GPU aufweisen.
Hier geht es mir also mehr um die Fähigkeiten der APUs, weniger um die Performance.
Aber vllt ist genau VLIW der Grund, wieso man keine Frostebite3 Engine auf der WiiU findet.
Zwar hat EA selbst gemeint, Froste-Bite 3 wäre möglich, doch das muss nicht heißen, dass das über Mantle funktioniert.
Zuletzt bearbeitet: