News „Mantle“: Battlefield 4 erhält eigene AMD-Version

@Kartenlehrling:
Von MS als Standardsetter durch Dx bin ich, wie du an ein paar Beispielen schön aufzeigst, genauso wenig begeistert wie wohl alle anderen, da Dx ein Mittel ist, Leute zum Kauf eines OS zu zwingen und nicht als wirklich vorteilhaftes Feature angepriesen wird....

Die aktuelle, schlechte Multi-Thread Optimierung bei Spielen ist eine Bremse ohne Gleichen. Aber von genereller schlechter Skalierung aller Software zu sprechen ist meiner Meinung nach nicht richtig. Denn nicht umsonst gibt es Server-CPUs/Workstations mit 8,12,15 oder noch mehr Kernen. Auch hier im Forum kaufen sich viele Leute ein Sockel 2011 System, weil es Renderbereich eben Programme gibt, die das auch nutzen, mit Kernen und Takt skalieren und dann richtig Gewinnen (die Tests von CB zeigen das auch schön, auch wenn die Plattform bei bestem Willem kein Standard ist).
Das ist aber auch ein Henne-Ei-Problem: hier im Forum ist ein i6/FX/X4/Quad Standard - in freier Wildbahn sind es oftmals noch Dualcores oder schlechter.
Daraufhin entwickeln alle und wer mehr Kerne hat ärgert sich über schlechten Multi-Support. Die CE aber z.B. skaliert wohl ganz gut mit vielen Kernen und höherem Takt...
Arma geht bis zu 4 Kerne und skaliert mit dem Takt (die Engine ist aber ohnehin ein Sonderfall, da selbst ich meine 285 nicht auslasten kann, obwohl diese sonst immer bremst).
Mit den neuen Konsolen werden 8 Kerne Unterstützung finden (auch ohne Mantle und AMD/Intel-Spezial-Technik), dann skaliert auch hoher Takt bei mehreren Kernen besser.

Das wohl ein i5, i7 oder FX einige Jahre reichen werden (zum Gamen) zweifelt wohl niemand wirklich an...was der FX durch Module hat, reißen die Intel durch hohe IPC und auch HT (trotz gänzlich anderer Funktion - Intel würde es nicht verbauen, wenn es NIX brächte)....ich sehe da keine großen Revolutionen kommen, da dort einfach alles stagniert und wenn dann einfach mehr Kerne kommen, da die IPC ausgereizt ist/schwierig weiter zu optimieren).

Trotzdem ließen sich viele Funktionen noch besser auf die CPU auslagern, mehr optimieren (KI)...

Die GPU ist aber das Herzstück eines jeden Gamer-PCs und dort dreht sich eben vieles um Optimierung, was AMD eben mit Mantle als API auf "niedrigster" Ebene durchzuboxen versucht, da viel optimiert werden kann und eben auch muss (gerade PC-Porta waren in puncto Leistung teils geradezu inflationär). Ich finde es auch richtig, dass dort neu- und weitergedacht wird, aber das sich dann eine Firma als Heilsbringer positioniert und auch noch gefeiert, obwohl das angepriesene offene eben von anderen nicht so angegangen werden kann (HSA-Fond. hin oder her - die Architektur gehört AMD und nicht nVidia oder Intel, weswegen sie auch keiner von denen verbauen wird), finde ich bedenklich.

Nehmen wir an die andern Firmen, waren ebenfalls im Boot um eine neue API gesessen/steigen zusätzlich ein...was käme wohl heraus?
Eine API, die die größtmögliche Schnittmenge aller Firmen hinsichtlich eines Standards bietet, auf dem dann optimiert wird. Man hätte also wieder, wie bisher eben auch mit Dx oder Open/GL, eine höher-levelige API, die aber verschiedene Verbindungen Richtung Hardware besitzt und somit dem Hardware-nahen Coden nicht mehr gerecht wird.
Der performanteste Ansatz käme von AMD, da diese alles in die Wege geleitet hatten, während andere gar nicht so nahe daran kämen, da eben maßgeblich GCN als Ausgangspunkt genommen wurde - bei einem Schaffen der API durch viele Hersteller hätte man eben nur eine Schnittmenge und dann siehe wieder oben (man ist auf höherem Level). Man schafft sich also ein besseres Dx mit neuem Namen, bleibt dem low-Level trotzdem ferner als gefacht und verliert das von AMD suggerierte Performance-Paket. Daher kann Mantle meinem Wissen nach bisher gar nicht so offen werden, ohne die Nähe zur Hardware zur verlieren, was wiederum bedeutet: offenes Mantle verliert seine Vorzüge (man bewegt sich "higher" durch die Schnittmenge aller Hersteller), geschlossenes, aber als offen vermarktetes behält sie, da man einfach "lower" ist, potentiell könnte jeder mit entsprechender Hardware mitmachen - das ist aber eben nur AMD und deren GCN...

Ich hoffe es tut sich was auf dem Sektor, aber ich hoffe es geschieht so, dass keiner der Hersteller ins Hintertreffen gerät, sondern alle möglichst auf Augenhöhe im Rennen bleiben, denn nur Diversität bietet Konkurrenz und folglich Innovationen und (R)Evolution(en)...ein Monopol einer Technik in einem Bereich ist schlimm genug (Intel im Bereich CPUs), muss nicht noch AMD im Bereich der GPUs durch das Monopol der Konsolen diesen Bereich dominieren. Ich sehe so ein Monopol als noch schwerwiegender, da hier ein Software-Monopol durch eine patentierte Hardware, die in dem Sinne und zurecht closed ist, untermauert wird, was den Begriff "offen" und "Standard" in meinem Augen pervertiert...
 
Zuletzt bearbeitet:
Da gebe ich @aylano vollkommen Recht und da muss man AMD auch Dankbar sein für den Vorstoß verrostete Gebilde durch eine effektive API zu ersetzten. Ohne AMD sitzen wir sonst noch in 10 Jahren da und nutzen DX.
Wenn AMD es damit tatsächlich geschafft hat, dass die Dinosaurier sich zusammen setzen dann war das eine gute Tat.
Warum Intel sich NV nicht unter den Nagel gerissen hat verstehe ich ehrlich gesagt auch nicht aber um das zu verstehen fehlen mir einfach Informationen.

@Matzegr
Klar, ich verstehe das und habe ja auch geschrieben, das Konsolen Low Level programmiert werden, um überhaupt diese Leistung aus der doch schwachen Hardware zu quetschen.
Offiziell laut Wiki nutzt die XBox aber auch DX. Evtl. um I/O und den Kram drum herum zu bedienen.
 
MikelMolto schrieb:
Warum Intel sich NV nicht unter den Nagel gerissen hat verstehe ich ehrlich gesagt auch nicht aber um das zu verstehen fehlen mir einfach Informationen.
Ganz einfach, weil Intel nicht so innovativ in die Zukunft schauen kann und zukünftige Trends nicht erkennt.
Der Ganze Erfolg von Intel beruht sich auf den Vorsprung der alten Zeit, weil sie Larrabee und Atom seit so 2005 entwickel und im Gegensatz zu AMD auch noch erheblich mehr R&D-Ressourcen haben und schon 2008 (Larrabee-40nm sowie Atom-40nm) fertig wurden, während AMD dies erst 2011 (APU & Bobcat) schaffte.
Selbst wenn Erfolgsprodukte (iPhone) ihnen aufs Auge gedrückt wird, erkennt Intel sogar das Zukunftspotential nicht.

Nachdem 2011 das Jahr ist, wo Atom groß (Tablet & Smartphone) durchstarten kann bzw. den Anschein hat, sowie 2011 Larabee gegen Tesla behauptet und verdrängt hat (siehe Top500), sowie sich Core iX noch gegen der Konkurrenz gut behaupten kann, wird es wohl offensichtlich den Anschein gehabt haben, dass Intel es auch ohne Nvidia schaffen wird, wenn sie wahrscheinlich sowieso in 1-2 Jahren Nvidia wegen ihren neuen eigenen Intel-GPU-Architektur aus ihrer Sicht nicht mehr brauchen.

Bei den Netbooks sah man auch, dass Intel mit den Technischen Stillstand @ iGPU & Multimedia den Markt fast abgewürkt hat und der Netbook in moderner Form (Hybride) sowie auch klassisch mit modernste iGPU & iCPU-Technik wieder neues Leben bekommt.
Bei den Ultrabooks (non-IPS, non-Full-HD oder Ultra-HD, non-LTE) sah man auch schön, dass dieser schlecht umgesetzt war und erst langsam in Fahrt kommt bzw. Intel nicht verstanden hat, dass jeder Notebook schon ein Ultrabook sein müsste, weshalb die Verkäufe schlecht bleiben.
Bei den Atom-40nm habe ich bis heute nicht verstanden, warum sie nicht schon 5 Jahre früher HSPA-Funkttechnik gekauft haben. Denn wenn ich eine CPU-Architektur extra für MIDs (Mobile-Internet-Devices) entwickel, kann ich diese Geräte auch nur sinnvoll nutzen, wenn ich auch unterwegs ins Internet gehen kann. Selbiges Problem sehe ich bei den Notebooks, bei der HSDPA & LTE nicht schon längst Standards sind.
Nächstes sind die Flash-Cash (oder so) von 2008 @ Notebooks. Mit diesen Flop haben wird den Nachteil, dass SSDs immer noch schlecht verbreitert sind und Intel & Co (vorallem weil sie selber SSD produzieren) noch immer nicht SSD+HDD bzw. SSD-Only mittels Massenproduktion zum Standard brachten.
Mit WiMax hatten sie auch deutlich aufs Falsche Pferd gesetzt.

Die Flop-Liste ist von Intel einfach enorm, wenn man bedenkt, dass Intel mit SSD & Funk & Netwerk-Technik eh schon lange großes Produkt-Plattform-Potential hat.
Intels schwächen war immer Erfolgreiche Produkte für die Zukunft zu entwickeln.
Aber genau das ist jetzt offensichtlich AMDs stärke, was sie mit TrueAudo & Mantle & Crossfire 3.0 (ohne externe Verbindung) ergänzend zu Evinity untermauert haben.
Genau aus den Schwächen & Flops von Intel, dass mit Profit-Gier-Denken sowie dem Wir-schwaffen-eh-alles-alleine-Denken, ist die Konkurrenz (ARM & Qualcomm & AMD) (wieder) stark geworden. Aber genau aus diesem Denken haben sie auch wohl Nvidia nicht gekauft.
 
Ich bin jetzt nicht so gut informiert und habe mir für Battlefield 4 eine NVIDIA und Intel Kombi zusammengestellt (der PC ist so oder so jetzt hinfällig, er wird nächsten Monat komplett gekauft). Sollte ich jetzt mehr AMD CPUs / GPUs erwägen (Spielbereich), oder ist das wieder zu früh gesagt? . Außerdem frage ich mich jetzt, da AMD nun die 8-Kerne gut ausnutzen will durch Mantle, ob da eine Intel CPU mit 4 Kernen noch lange (5 Jahre) ausreicht oder ob ich jetzt durch diese ganzen neuen Konsolen auch auf mehr Kerne setzen sollte.
 
Kannst ruhig so kaufen wie Du es vor hattest. Allerdings würde ich wegen der GPU ( R9 halt ) noch ein wenig warten....
Die vollen Auswirkungen zu Mantle wirst Du erst in ein paar Jahren zu spüren bekommen ( wenn es sich durchgesetzt hat )

In den Anfängen würde ich Mantle als eine Art Exklusiv-"DING" betrachten, wie es bei den Konsolen ist. ( Wie mit BF4 halt )

Ob sich dies durch mehr oder sogar alle PC Games ausweitet, wird sich mit der Zeit zeigen.
Wegen Mantle zukünftig auf etwas zu setzen, grenzt an Naivität.
 
Zuletzt bearbeitet:
Wenn die Beschleunigung durch Mantle-API gegenüber ein DX11.1 System selbst nur 10% sind bei Battlefield 4,
werden die AMD-R9 Grafikkarten gekauft wie warmes geschnittes Brot, da verwette ich meine HD7970 :) .


Aber dafür mussten wir ja bis Januar warten um das genau zu Wissen.
 
Davon kann man ausgehen, dass das dann gekauft wird wie geschnitten Brot...
Ich würde warten, weil das Warten sich wirklich lohnt... oder zumindest bis dahin, bis es nähere Offizielle Neuigkeiten dazu gibt.
 
Ich würde erst einmal abwarten, was da noch kommt, was die Gerüchteküche auch über nvidias Maxwell ausspuckt.

Von manchen wird Intel als uninnovativ und erfolglos sondergleichen dargestellt - wenn dem so wäre, wären sie wohl auch nicht so stark (verdient oder nicht...). Aber jetzt schon von einem Mantle Erfolg zu sprechen, ist absurd.

Was hat AMD gemacht? Sie haben die Idee einer low-Level API vorgestellt, die primäre auf ihre Hardware optimiert ist, sich aber als offen vermarkten lässt, also gar nicht so offen ist...
Der Denkanstoß wurde der Industrie gegeben (vermutlich wissen alle schon viel länger was da passiert und haben längst irgendwie was im Portfolio, evtl ist Mantle, wie auch immer, gar nicht so GCN-only -> wir werden sehen).
Die Zukunft in einem von einer Firma beworbenen Produkt zu sehen, ist aber erst mal falsch bis sich das Gegenteil gezeigt hat.

Ich würde daher nicht mal im Traum daran denken, jetzt aus irgendwelchen illusionären Gründen ein Produkt Xy zu kaufen, weil es in 4 oder 5 Jahren 10% schneller ist für den Konsumenten nicht produktiv, wenn Teil A bis dato 20% langsamer ist...

Bei Hardware ist es schon seit jeher Usus: "Kaufe, was du brauchst oder unmittelbar brauchen könntest und nicht erst in 2 oder 3 Jahren" - das hat sich seit jeher immer bewahrheitet und davon sollte man trotz irgendwelchen interessanten Konzepten nicht ablassen, da es bisher nur Konzepte sind und nicht handfest etabliertes. Denn ich als Konsument werde den Teufel tun und für eine Firma als early Adapter, Tester oder sonstwas in die Preschen springen.

Ich hoffe auf ein starkes AMD, aber kein übermächtiges.
Ich hoffe Mantle scheitert, sofern es restriktiv ist, wenn es 2/3 des Marktes ausschließt, ich hoffe we setup sich durch, wenn es ALLEN nutzt. Von einem Monopol ins nächste Monopol, das dann auf Software mitsamt Hardware-Reatriltion trotz evtl. besserer Prdoukte anderer beruht, zu stürzen, kann kein Konsument und vor allem kein Markt brauchen...

Sehr also nüchtern und verfolgt es, aber freut euch doch nicht darüber als wäre etwas die Erlösung, nir weil bei euch selbiges verbaut ist - auch AMD hat immer versprochen, wie fetzig Billi wird, gezeigt hat er es bisher nicht - woran auch immer es liegt: ich glaube keinem und sehe einfach die Fakten "er ist langsam". Auf einen zukünftigen Sprung hoffe ich nicht.
Warum sollte also diesmal alles so einschlagen?
Ergänzung ()

Ich Denke mir auf der anderen Seite natürlich auch:
Warum ist nicht vorher jemand auf diese Idee gekommen bzw. hat es nicht vorher schon umgesetzt?

Es scheint also doch erhebliche Nachteile in gewisser Sicht mit sich zu bringen - andere Hersteller haben riesige Forschungsabteilungen und darin werden sicherlich nicht nur Dummköpfe sitzen, zumal die von AMD im vgl. zu Intel und nVidia wohl direkt klein sein dürften...
Ich könnte mir gut vorstellen, dass sich durch Mantle oder eine low Level API im Allgemeinen auf kurz oder lang auch ein erheblicher Nachteil für ein Unternehmen ergeben könnte (keiner lässt einen so riesig suggerierten Vorsprung außer Acht), da man aufgrund der Optimierung an eine einzelne Hardware, diese nur sehr behutsam weiterentwickeln kann - im Falle einer Fehlentwicklung nur äußerst schwer eine Wende machen kann und somit u.U. immense Summen verliert. Ferner könnten anderweitige Standards, die es zu erfüllen gilt nicht mehr so leicht oder flexibel ausgebaut werden, was das Unternehmern teurer käme als 5 oder 10% in einem Benchmark...

Ich kann es nur immer wieder betonen;
Ich bin NICHT gegen AMD (bei mir stehen 3 Rechner von denen, 2 von Intel). Ich bin für eine offene Hardware-Welt, für Wettkampf - blind auf etwas ausspringen, was als "toll, schnell, neu, einmalig" präsentiert wird, werde ich m ihr mehr, da jeder nur das für sich und nicht für uns beste tut. Enttäuschungen sind dabei vorprogrammiert:
Ausstattung der Ultrabooks, Konfiguration verschiedener Chipsätze, versprochene vs. reale Leistung des Bullis (mir egal woran es liegt, dass er nicht schneller ist - es wurde einfach anders mitgeteilt...ewig warten bis dich was tut, werde ich einfach nicht), Win8/8.1, Mantle(?),...
 
Hoot schrieb:
Ich würde erst einmal abwarten, was da noch kommt, was die Gerüchteküche auch über nvidias Maxwell ausspuckt.
Da kannst aber lange warte warten und ich wäre nicht überrascht, wenn der abstand Maxwell zu Hawaii länger wird als es bei Titan/GTX 780 zu Hawaii war. Ein GM110 wird offensichtlich eher 2015 kommen als 2014, während ein GM104 auch erst einmal einen GK110 schlagen muss.
Vorallem soll der Umstieg von 28nm auf 20nm diesesmal etwas kleiner als üblich sein, weshalb es noch schwieriger werden kann, als früher wo GK104 auch nur 30% schneller war als GF110.

Von manchen wird Intel als uninnovativ und erfolglos sondergleichen dargestellt - wenn dem so wäre, wären sie wohl auch nicht so stark (verdient oder nicht...). Aber jetzt schon von einem Mantle Erfolg zu sprechen, ist absurd.
Ich schrieb nicht uninnovativ sondern über das Erkennen von Zukunfts-Technologien & Zukunftsentwicklungen.
Bei den 10 fachen größeren R&D von Intel gegenüber AMD ist es nicht verwunderlich, dass eines der neuentwickelten Technologien mal doch für die Zukunft passt.

Wenn jemand von großen Erfolg spricht, dann wohl eher deinerseits, wenn du in mehreren Postings auf Mantle wegen der Monopol-Stellung warnst. Außerdem tust du so, als ob Intel (CPU-IntelTreiber @ fast allen Softwaren), Nvidia (PhysX & Cuda) und Microsoft (Windows-only @ Notebook/Desktop) keine Machtpositionen hätte.

Ich würde daher nicht mal im Traum daran denken, jetzt aus irgendwelchen illusionären Gründen ein Produkt Xy zu kaufen, weil es in 4 oder 5 Jahren 10% schneller ist für den Konsumenten nicht produktiv, wenn Teil A bis dato 20% langsamer ist...
Plus-Minus- 5-10% macht aber schon den unterschied zwischen Top und Flop-Karte.
Siehe GTX 480 und GTX 580, die sich nur durch 15%-Mehr-Performance und Mehr-Effizienz Unterscheiden.


Ich hoffe auf ein starkes AMD, aber kein übermächtiges.
Ich hoffe Mantle scheitert, sofern es restriktiv ist, wenn es 2/3 des Marktes ausschließt, ich hoffe we setup sich durch, wenn es ALLEN nutzt. Von einem Monopol ins nächste Monopol, das dann auf Software mitsamt Hardware-Reatriltion trotz evtl. besserer Prdoukte anderer beruht, zu stürzen, kann kein Konsument und vor allem kein Markt brauchen...
Das hoffe ich nicht, weil ich bezweifel, dass Microsoft & Intel & Nvidia mit Mantle überhaupt freiwillig mitgemacht hätte. Eher in Gegenteil, damit alle DREI [CPU-IntelTreiber @ fast allen Softwaren), Nvidia (PhysX & Cuda) und Microsoft (Windows-only @ Notebook/Desktop] weiterhin Machtvoll in ihren Sekmenten bleiben.

Ich glaube, wir profitieren sehr stark davon, wenn AMD auch ein Machtinstrument bekommt, damit ein Machtausgleich entsteht und somit der Ganze Markt wieder in (technologischer) Bewegung kommt.

Dass es offene Softwaren gibt, die von allen neutral genutzt werden können, ist eher ein Traum und hat nicht viel mit der Realität zu tun.
Der Heilbringer "Gratis Android" ist ja auch nichts anderes als der Verkauf seiner Seele, wo Google dann dein Verhalten speicher kann.
Sowie der Heilsbringer "Gratis Facebook" detto, wo die Menschen-Heilung durch mehr sozialen Kontakt erfolgen sollte.

Alles hat vor und nachteile. Entscheident ist nicht die Richtungen (sowohl positive als auch Negative), sondern die jeweiligen Gewichtungen der unterschiedlichen Richtungen.

Sich nur auf die Monopol-Richtung eingehen und dann noch voll Gewichten halte ich für sehr falsch.
Selbst wenn die Monopol-Stellung käme, kann der Weg dorthin mit vielen großen & enormen Verbesserungen passiert werden und das wollen wird doch.

Und wenn es dann uns durch Technologie-Stopp & Preis "schadet", kann man das ja durchs Kaufverhalten & Internet-Kritik genauso gegenreagieren. Aber eines ist für micht klar, dass der Status Quo vielleicht das schlimmst ist, was uns in Zukunft noch passieren kann.

Denn eines darf man nicht vergessen.
AMD kann nur im Zusammenhang mit GPU & CPU überleben, um die Mächtigen (Microsoft & Intel & Nvidia) dagegenhalten zu können. Wenn AMD nicht auf den Mantel & HSA & APU-Zug aufspringt, wird sonst das passieren, was mit Nokia & Blackbarry & HTC & Co passiert ist.

Ich kann es nur immer wieder betonen;
Ich bin NICHT gegen AMD (bei mir stehen 3 Rechner von denen, 2 von Intel). Ich bin für eine offene Hardware-Welt, für Wettkampf - blind auf etwas ausspringen, was als "toll, schnell, neu, einmalig" präsentiert wird, werde ich m ihr mehr, da jeder nur das für sich und nicht für uns beste tut. Enttäuschungen sind dabei vorprogrammiert:
Dann bist du ja kontraproduktiv, wenn du Mantle wegen angeblichen Monopolgefahren schon mal sehr negativ rüberkommst. Überleg mal, wenn das ganze Internet Mantle totredet, dann werden wohl kaum Game-Entwickler raufspringen, wenn die Nutzung dann einen schlechten Nachgeschmack hat.

Also, muss man Mantle erst entwickeln lassen.
Und ob Mantle überhaupt eine Monopolstellung bekommt, muss sich erst noch zeigen.
Nicht nur, weil die Konkurrenz reagieren kann, sondern weil im HSA-Boot sogar mehr CPU & GPU-Architekturen drinnen steckt, als sie mit Intel & Nvidia vertreten sind.

Eher geht die Sorge, dass Nvidia & Intel & Microsoft (ihren Monopol) verlieren gegenüber anderen Herstellern (ARM, Vivente, Mali, Imignation) wegen Bezug auf HSA verlieren, weniger um die Angst, wo AMD durch ihren Monopol eine Technologie-Entschleunigung statt -Beschleunigung bewirkt, so wie es Intel & Microsoft die letzten vielen Jahren machte und es bei Nvidia auch schon so wirkt.
 
Zuletzt bearbeitet:
Wäre mal sinnvoller,wenn die Mantle Spiele mit allem kompatiebel sind....insbesondere mit den alten (HD5xxx,HD6xxx,HD7XXX) kompatiebel sind. Sonst finde ich die Erfindung nur gut,weil Konkurrenz zu Direkt X war lange nötig,damit die was verbessern.

PS: Begeistert von der neuen AMD-karte bin ich erst wenn se auch gute Leistung unter Direkt X bringt...denn ich kaufe bestimmt nicht eine Graka um nur die neuankommenden Spiele mit Mantle zu spielen....die alten müssen auch laufen....und zwar gut!!....was man mittlerweile bei solchen Gpus erwarten darf!
 
Zuletzt bearbeitet:
Zum Thema Forschungsbudgets vielleicht ein paar Zahlen aus den Geschäftsberichten der Unternehmen:

AMD 2012 (genauer Ende des geschäftsjahres 29.12.2012)
5,422 Mrd $ Umsatz (Net Revenue)
4,187 Mrd $ Kosten = 77,2% Umsatz (Cost of Sales)
1,354 Mrd $ R&D = 25,0 % Umsatz

nVidia 2012 (Ende des Geschäftsjahres 29.1.2012)
3,998 Mrd $ Umsatz (Revenue)
1,941 Mrd $ Kosten = 48,5% Umsatz (Cost of Revenue)
1,003 Mrd $ R&D = 25,1 % Umsatz

Intel 2012 (genaues Ende hab ich nicht finden können)
53.341 Mrd $ Umsatz (Net Revenue)
20.190 Mrd $ Kosten = 37,9 % Umsatz (Cost of Sales)
10.300 Mrd $ R&D = 19,3 % Umsatz
 
Collect schrieb:
Wäre mal sinnvoller,wenn die Mantle Spiele mit allem kompatiebel sind....insbesondere mit den alten (HD5xxx,HD6xxx,HD7XXX) kompatiebel sind.
Sehe ich überhaupt nicht so.
Mit Mantle will man ja das Maximale aus der GPU-Architektur a la GCN durch höchste GPU-Optimierung rausholen.
GCN (7000er) und VILW (<7000er) haben ja einen völlig andere Architektur-Aufbau, weil ersteres aus 4x 16er-("1D-Blöcke") bestehen und zweiteres aus 16x 4/5er-("4D/5D-Blöcke") bestehen.

Korrekt ausgesprochen ist es
4x 16-1D = 64 Shaders
16x VILW4 = 64 Shaders
Exakt kann ich es technisch nicht sagen, aber die Shader-Aufteilung in SIMD vs CU scheint genau das umgekehrte zu sein.
Deshalb kann ich mir nicht technisch vorstellen, dass man mit Mantle beide Architekturen das maximale rausholen könnte, wenn sie so unterschiedlich scheinen.

Außerdem ist 16x VILW 4/5 mit > 2 Jahren eh schon sehr veraltet.
Bis die ersten vielen Game voll auf Mantle optimiert rauskommen, sind diese VILW-Karten erst recht veraltet und sowieso zu langsam für die neuen Games.

@Iscaran
Danke, dass du Interessante & Bezugsvolle Infos rausholt hast, was hier völlig abnormal ist.
Sehr interessant, und das sage ich nicht oft.;)
 
Zuletzt bearbeitet:
Aber ist nicht genau deswegen Mantle nur halb so toll wie alle immer Glauben, dass es wäre?

Auf den Konsolen ist es eine super Sache, weil man ohne viel Aufwand als Entwickler an die Leistung der Hardware kommt, diese schneller ausreizen kann und somit der Konsolen-Spieler schneller in den Genuas technisch besserer Spiele kommt.

Aber abseits davon, kann Mantle nicht mal für die AMD-eigenen älteren Produkte, die mach wie vor unterstützt werden wollen, nicht das sein, was es für GCN-basierter Hardware ist - schon gar nicht als Marken-übergreifender Ersatz für Dx, da alles zu speziell für eine Architektur ist.

Ich kann mir daher nicht vorstellen, dass andere Hersteller zu AMD kommen werden, um ihre eigenen Architekturen einbinden zu dürfen - das würde Mantle eben, wie oft gesagt, weiter von der Hardware wegbringen.
Ich glaube eher, dass die Hersteller übergreifend und fehlenden Foundations zum Trotz etwas neues, anderes im Kopf haben. Jeder Hersteller wird seine Architektur weiter optimieren, aber eine low Level API bringen, die performanter an ein Grundsatz-Konstrukt anbindet...
Spätestens mit Ablösung der GCN durch AMD selbst, wird das neue Mantle das alte verdrängen und als unperformant wirken lassen, da es an andere Hardware angepasst werden muss.

D.h. Mantle ist entweder so restriktiv, dass AMD sich irgendwann selbst in eine Restriktion bringt (das schmälert den gegenwärtigen Benefit dir die Konsolrn, die davon in erster Linie aufgrund fehlender Leistung profitieren, nicht ODER Mantle wird auf dem PC und/oder im allgemeinen nicht so "low" wie es AMD bewirbt, um keine Inkompatibilitäten zu erreichen.

Selbst wenn AMD es löst, kann ich mir nicht vorstellen, dass Intel oder nVidia einem Schritt auf AMD zugehen werden, um an deren Mantle teilnehmen zu dürfen. Auf den Konsolen ist AMD die absolute Nummer 1, auf dem PC Markt gibt es Windows (90% Marktanteil), Intel (80%) und nVidia (60%)... man wird sich eher bemühen einen übergreifen Standard zu finden, um keine Ausschluss zu kreieren, da weder die eine noch die andere Seite auf Marktanteil verzichten kann...das wäre vor allem für uns User schlecht.

@iscaran:
Sehr interessante Aufstellung!
Mich würde mal interessieren, ob es Zahlen dazu gibt, in welchen Bereichen, welches Forschungsgeld verschwindet.

AMD ist gesehen an der doppelten Position (CPU und GPU) direkt mickrig, Intel einfach eine Geld-Bombe, nVidia auch sehr groß (wobei ich nicht weiß, inwiefern hier an ARM-Prozessoren geforscht werden muss, da das wesentliche von ARM kommt...).
 
Zuletzt bearbeitet:
Korrekt ausgesprochen ist es
4x 16-1D = 64 Shaders
16x VILW4 = 64 Shaders
Exakt kann ich es technisch nicht sagen, aber die Shader-Aufteilung in SIMD vs CU scheint genau das umgekehrte zu sein.
Deshalb kann ich mir nicht technisch vorstellen, dass man mit Mantle beide Architekturen das maximale rausholen könnte, wenn sie so unterschiedlich scheinen.

Eine ausführliche Erklärung dazu:
GCN ist eine GPU-Skalararchitektur (gemäß NVIDIA Definition): Jeden Takt führen eine Gruppe von 64-Threads einen skalaren Befehl aus. (z.B. die Addition von zwei Floating-Point Zahlen)

VLIW4 ist eine GPU-Vektorarchitektur: Jeden Takt führen eine Gruppe von 64-Threads einen Vektor-Befehl auf zwei bis zu vier komponentigen Vektoren aus. (zb. die Addition zweier vier komponentiger Vektoren)

Dadurch hat eine GPU-Skalararchitektur einen komplett anderen Befehlssatz als eine GPU-Vektorarchitektur. Des Weiteren haben GPU-Skalararchitektur 32-Bit Skalarregister, während GPU-Vektorarchitekturen 128-Bit-Vektorregister besitzen. Aus diesem Grund müsste man bei Maschinencode-Optimierungen für beides seinen eigenen Assembly schreiben. Auch wenn man eine Hochsprache programmiert gilt es die Unterschiede zu beachten: Während man bei Skalar-Architekturen nur die Skalar-Befehle der entsprechenden API zu verwenden braucht und durch Vektor-Befehle keinen Performancevorteil und höchstens einen Performancenachteil besitzt, so ist das Verwenden von Vektor-Befehlen bei Vektor-Architekturen für die Performance entscheidend. Dadurch kann man für beide Architekturen bereits in jeder Hochsprache vollkommen andere Optimierungsansätze verfolgen. Deshalb sind Hardwarenahe Optimierungen eines Algorithmus, welche bei beiden Architekturen Performancevorteile bringen nur schlecht machbar.
Außerdem ist 16x VILW 4/5 mit > 2 Jahren eh schon sehr veraltet.
Bis die ersten vielen Game voll auf Mantle optimiert rauskommen, sind diese VILW-Karten erst recht veraltet und sowieso zu langsam für die neuen Games.
VLIW4 ist nicht "veraltet", es ist immer noch eine gute Vorgehensweise einen Chip zu designen. Denn Skalararchitekturen benötigen mehr Kontrollstrukturen als Vektorarchitekturen, wodurch weniger Platz für Rechenkerne bleibt. Allerdings verpufft bei vielen Algorithmen viel der Performance bei Vektorarchitekturen, wenn man nicht viel Optimierungsaufwand betreibt.
 
Zuletzt bearbeitet:
Es wäre nett, wenn einige der Vielschreiber hier etwas mehr auf Rechtschreibung und Grammatik achten würden. Es liest sich nicht schön. Und man kann den Eindruck gewinnen, dass Deutsch nicht eure Muttersprache ist.
 
Hoot schrieb:
Aber ist nicht genau deswegen Mantle nur halb so toll wie alle immer Glauben, dass es wäre?
a) Wer ist wir
b) Glauben ist der ichtige Ausdruck, wenn man bedenkt, dass wir Mantle noch nicht im Detail kennen.

Auf den Konsolen ist es eine super Sache, weil man ohne viel Aufwand als Entwickler an die Leistung der Hardware kommt, diese schneller ausreizen kann und somit der Konsolen-Spieler schneller in den Genuas technisch besserer Spiele kommt.
Oder eben Umgekehrt.
Dass PC-Spieler in den Genuss von Spielen kommen, die bisher nur für Konsolen.
Konkret gesagt, kommen auch X-Box-Spieler (früher ATI-GPU) in Genuss, wenn ein Spiel nur für PS3 (Nvidia-GPU) rauskam, sowie umgekehrt.
Tablet ist wahrscheinlich noch zu umbedeutend/eingeschränkt, um es zu erwähnen.

Aber abseits davon, kann Mantle nicht mal für die AMD-eigenen älteren Produkte, die mach wie vor unterstützt werden wollen, nicht das sein, was es für GCN-basierter Hardware ist - schon gar nicht als Marken-übergreifender Ersatz für Dx, da alles zu speziell für eine Architektur ist.
a) es geht wahrscheinlich nicht um Spiele, sondern generell um Programme, weil sonst Mantle nicht bei APU-13 im Detail erklärt wird.
b) xxx-Optimiert heißt ja nicht automatisch, dass es beim rest nicht funktioniert oder bewusst benachteiligt wird. Die Mantle-Programme werden auf der Konkurrenz genauso laufen wie auf alten VILW-Karten. Es stellt sich die Frage, ob die Programme/Game, die bisher Nvidia-Optimiert waren, dann mit Mantle auf VILW-Grafikkarten dann nicht sogar besser laufen.

Ich kann mir daher nicht vorstellen, dass andere Hersteller zu AMD kommen werden, um ihre eigenen Architekturen einbinden zu dürfen - das würde Mantle eben, wie oft gesagt, weiter von der Hardware wegbringen.
Das ist richtig, aber das lag wahrscheinlich eher am Ego diverser Firmen, die vielleicht garnicht mitmachen wollten und weiter hofften die Konkurrenz selber kleinzugriegen.


Spätestens mit Ablösung der GCN durch AMD selbst, wird das neue Mantle das alte verdrängen und als unperformant wirken lassen, da es an andere Hardware angepasst werden muss.
Genau so soll es auch sein, wenn man eine Technische Revolution mit HSA-APU-GCN-Jaguar/Bulldozer umsetzen will.
Man kann nicht ewig alten Ballast mitschleppen. Genau mit diesen Gedanken hat Intel den Core auch nicht wirklich weiterentwickelt (außer breiteren FPU & Integer), sowie flopte Larrabee gänzlich im Grafikkarten-Markt sowie im Profi-Markt zwischen 2008 und 2011, wo sie larrabee nicht rausbrachten, aber in 40nm & 32nm & 22nm fertig waren.
Sowie flopte Atom @ Smartphone bisher, primär durch Multimedia-Fähigkeiten, auch wenn sie zu PowerVR wechselten und vom GMA 965-Grap abwichen.

Wer eine Revolution will, muss altes Hinten lassen.
Immerhin geht es jetzt um GCN 2.0 und somit ist "die alte Technik" vor GCN 1.1 & GCN 1.0 und mit > 2 Jahren schon generell alt umd somit langsam schon Vernachlässigbarwürdig.


D.h. Mantle ist entweder so restriktiv, dass AMD sich irgendwann selbst in eine Restriktion bringt (das schmälert den gegenwärtigen Benefit dir die Konsolrn, die davon in erster Linie aufgrund fehlender Leistung profitieren, nicht ODER Mantle wird auf dem PC und/oder im allgemeinen nicht so "low" wie es AMD bewirbt, um keine Inkompatibilitäten zu erreichen.
Ich würde mal APU-13 abwarten, bevor ich stundenlang Mantle kritisch betrachte.


Selbst wenn AMD es löst, kann ich mir nicht vorstellen, dass Intel oder nVidia einem Schritt auf AMD zugehen werden, um an deren Mantle teilnehmen zu dürfen. Auf den Konsolen ist AMD die absolute Nummer 1, auf dem PC Markt gibt es Windows (90% Marktanteil), Intel (80%) und nVidia (60%)... man wird sich eher bemühen einen übergreifen Standard zu finden, um keine Ausschluss zu kreieren, da weder die eine noch die andere Seite auf Marktanteil verzichten kann...das wäre vor allem für uns User schlecht.
Du sagst es.
Es gibt für Windows & Nvidia & Intel keine Grund mit Mantle mitzumachen.
Und wenn sie nicht gewollt sich und später benachteiligt werden, dann ist es ihr Problem. Genauso ist es auch mit ARM @ Smartphone gelaufen, wo Intel nicht mit Apple mitspielen wollte und ihren Ego bzw. Software/Technik-Grap durchsetzen wollte, bis dann ARM den Smarpthone-Markt so überrollte, bis dann ARM eine Große Gefahr für Intel @ Server & Desktop/Notebook wurde und noch ist.

Jetzt muss halt Intel die lehren draus schließen und mit viel Geld & Mühe seine Technik an Android & Co anzupassen, um überhaupt mitschwimmen zu können.

Warum sollte es Intel bei Mantle jetzt anders machen,?
Es ist ja nicht so, dass Intel & Co in Not sind, sondern sie machen ja oft nur nicht mit, um Technik zu verindern, damit die Konkurrenz klein bleibt. Mich würde es nicht wundern, wenn sie es bei Mantle genauso machen und hoff(t)en, dass sich das nicht durchsetzt.

@iscaran:
AMD ist gesehen an der doppelten Position (CPU und GPU) direkt mickrig, Intel einfach eine Geld-Bombe, nVidia auch sehr groß (wobei ich nicht weiß, inwiefern hier an ARM-Prozessoren geforscht werden muss, da das wesentliche von ARM kommt...).
An ARM konkret forscht Nvidia nicht.
Sondern an SoCs.
Einmal für Tegra 4,5,6,7 ............. zu vergleichen ist es mit Kabini-HSA mit ARM-Cores, die man davor in den Smartphones & Tablet verbaut.
Einmal für das Denver-Projekt .... zu vergleichen ist es mit Kaveri-HSA mit ARM-Cores


Nai schrieb:
Eine ausführliche Erklärung dazu:
Ich danke.
Sehr interessant.

VLIW4 ist nicht "veraltet", es ist immer noch eine gute Vorgehensweise einen Chip zu designen.
Mit veraltet meinte ich eh eher die Einsetzbarkeit @ Games & GPGPU & HSA-APU-Programme unter anderem mit der Shader-Menge, die mit der Zeit bei neuen Programme (höherer Bedarf) zu wenig werden.

calluna schrieb:
Es wäre nett, wenn einige der Vielschreiber hier etwas mehr auf Rechtschreibung und Grammatik achten würden. Es liest sich nicht schön. Und man kann den Eindruck gewinnen, dass Deutsch nicht eure Muttersprache ist.
Für diese mühevolle Arbeit habe ich keine Zeit.
Es wäre nett, wenn du die Zeit & Anstrengung nimmst und bei mir die Texte ausbessern würdest.
Denn dann könnte der nächste meine Texte angenehm und in kürzerer Zeit lesen.
 
Zuletzt bearbeitet:
@calluna,

sorry, aber: Kauf Dir ein Buch wenn Du etwas schönes lesen möchtest - bisher habe ich Inhaltlich immer alle verstanden :-)
 
@iscaran:
Sehr interessante Aufstellung!
Mich würde mal interessieren, ob es Zahlen dazu gibt, in welchen Bereichen, welches Forschungsgeld verschwindet.

Kann schon sein dass dazu was in den jeweils ca 200 Seiten Geschäftsberichten drin steht - ich wollte nur mal Zahlen zum tatsächlichen Forschungsbudget.

Wenn es dich interessiert - die Geschäftsberichte sind einfach zu finden via google: einfach nach "Firmenname + Geschäftsbericht" suchen...
 
Zurück
Oben