News AMDs Mantle für jedermann ist da

Gummert schrieb:
@Lahatiel,

du vergleichst ausschließlich Idle Werte. Weder avg noch last sind dabei...

Und in all diesen Werten ist die Nvidia auch deutlich drunter. Bevor das hier zu einem AMD vs. Nvidia Kampf verkommt:
Flatan möchte den Stromhunger als lächerlich abtun. Ist er aber nicht und Leute, die darauf achten, sollten sehr wohl hingucken. Fernab jeglichen Grafikpowergeschwafels.
Das geht nicht in der Messgenauigkeit unter, das kosten gutes Geld.
 
Also Mantle mit OpenCL zu vergleichen bedeutet, man solle sich noch mal von Grund auf damit beschäftigen . Das eine ist eine Hardwarenahe Low-Level API , die auf GCN Architektur optimiert ist das andere eine Hardwareunabhängige Programmiersprache mit ähnlich viel Overhead wie DX. Etwas völlig anderes.

Nvidia darf Mantle nutzen, wenn sie denn Hardware bauen würden die der GCN Architektur entspricht. Fraglich ob Nvidia das will, doch ihnen steht der Weg offen. Was Lizenzkosten angeht ist AMD traditionell nicht am abkassieren interessiert, sondern eher an Lizenztausch Abkommen. Fair, nur eben nicht Nvidias Stil. Wäre dennoch für alle Gamer von Vorteil, was nicht Nvidias Firmenpolitik entspricht, die eben nur ihren Kunden Vorteil für die Mehrkosten verschaffen wollen.

Wer hier rum meckert, dass Mantle nix ist, der sollte sich mal überlegen wie viel Leistungsplus in welchen Szenarien nötig wäre, damit man ein Gratis Geschenk auch mal dankbar entgegennimmt und einem Unternehmen für Innovation auf die Schulter klopft.
 
Das könnte auch Multimedia Notebooks gut helfen. Hier werden ja sowieso immer in der TDP beschnittene CPUs eingesetzt.
Lässt sich Mantle auch theoretisch außerhalb von Spielen nutzen, beim Decodieren, rendern etc?
 
@ Krautmaster:

Ob Nvidia was macht liegt erst mal nur an denen.
Die Blickrichtung müsste wie folgt sein - so habe ich es verstanden:


Game -> API [diese kennt bestimmte Befehle um Hardware direkter anzusprechen auf der GPU] -> Treiber ->GPU

Einen Fallback bräuchte man nicht. Da ja das Spiel eine eigene exe bekommt.
NVIDIA müsste einen Treiber schreiben damit die direkten Befehle der API von diesem Verstanden werden und richtig auf der GPU umgesetzt werden können.

Hier bleiben nur zwei Punkte offen:

a) Es ist nirgends abklärend geklärt worden ob Nvidia dann Geld an AMD zahlen müsste [aber warum auch nicht?]
b) Laut AMD nutzt Mantel die Vorteile der GNC Architektur aus. [soweit ich weiß hat Nvidia keine solche Architektur] => es könnte sein selbst wenn sie wollten, sie nicht könnten [denn die Hardware ist nicht dafür vorgesehen]
oder in abgeschwächter Form, dass sie es könnten aber aufgrund der Unterschiede in der Hardware nicht so gute Ergebnisse erreichen würden.
Das hat dann aber nur mit den Unterschieden in der Hardware zu tun. In der Api gibt es halt Methoden die die Hardware einer GNC Architektur optimal nutzt. Da Nvidia diese Architektur nicht hat wird es zu Performance-Verlusten dort wahrscheinlich kommen..
 
Flatan schrieb:
HD 7970 später. Was ist mit dem Rest der 7000'er Serie?

In den Systemtest haben sie doch due 7970 mit "25,1% faster" angegeben?!
 
Ich vergleich es nicht direkt mit OpenCL, mir is schon klar dass AMD Mantle so auslegt, das es deutlich hardwarenäher agiert.

Je nach dem wie offen dieses System aber gehalten ist muss man nicht einfach mal "Architektur an GCN anpassen" - das hätte AMD natürlich gerne.

Im Prinzip muss es so laufen. Der Publisher nimmt in seiner Gameingine einfach MantleFunktion XYZ () - AMD interpretiert das und setzt es hardwarenah der GPU um mit Ergebnis X. Selbes sollte auch für Nvidia gelten, selbst entscheiden können wie man MantleFunktion XYZ () auf der eigenen Hardware effizient umsetzt udn ebenfalls Ergebnis X bei rauskommt.

Wenn AMD natürlich vorgibt wie MantleFunktion XYZ () auszusehen hat (intern) und im Falle "Nicht GCN" einfach

MantleFunktion XYZ () {
if (notGCN)
{ use DX11}
}
macht - hat Nvidia keine Chance. Wie auch - da hilft jeder Treiber nix.

Wenn nur die Schnittstellen Beschreibung gegeben ist und definiert ist was MantleFunktion XYZ () können muss und welches Ergebnis hinten bei rauskommen muss... dann kann Nvidia selber schaun wie sie das umsetzen, ob sie dann auch nen Fallback auf DX11 machen oder aber auf OpenCL oder eben direkt auf die HW so gut es geht...
 
Zuletzt bearbeitet:
als ob BF4 das Nonplusultra wäre:rolleyes: Thief kommt am 28.2 raus und das soll auch Mantle unterschtützen bis dahin habe ich vielleicht Glück und meine 7970 wird dann auch unterschtützt:)
 
lach, und ich hab gedacht jetzt kommt 40% bis 50% füt mein i5...ich hätte gern ne Mantel update für Lego Marvel Super Heroes..hab da auf dem alten Lappi nur 15 FPS..hätte so gerne 60 FPS, da brauch ich kein neues Lappi holen für mein zwerg....lach
 
blackraven schrieb:
In den Systemtest haben sie doch due 7970 mit "25,1% faster" angegeben?!


ja und etwas weiter drunter steht bei den systemangaben:
GPU: AMD Radeon 7970 3 GB (AMD will add support for the AMD Radeon™ HD 7970 in a later stage of Mantle’s release schedule,

also alle Leute mit 7xxx Karten und R9 280x, 270x, 270 gehen vorerst leer aus!
finde ich persönlich doch etwas lächerlich, nachdem man das alles so großartig angekündigt hat :rolleyes:
 
Zuletzt bearbeitet:
@Lahatiel,

welcher Kampf?
Der Unterschied ist lächerlich. Du müsstest die Karte 6 Jahre benutzen...
Die Frage ist: Tust du das?
Und wenn ja, hält sie überhaupt so lange?
Und wenn ja, lohnt sich das, die solange zu behalten, da die übernächste noch weniger verbraucht?
Nein.
Zahlst du dann wieder mehr?
Ja, warum?
Weil einem das so eingetrichtert wird, ja Strom zu sparen.

Dreh dich halt weiter in dem Rad... am Ende sind beide gleich teuer. Da tut sich nichts.

Zahlst du immer nach, hast du einen extrem günstigen Kredit erhalten (0% zinsen) und kommst am Ende günstiger weg, als wenn du Geld zurück bekommst ( ebenfalls nicht Verzinst ) Um so mehr ich Strom spare, desto mehr Profit erhalten die Stromerzeuger, ne danke :D
 
Zuletzt bearbeitet:
Flatan schrieb:
HD 7970 später. Was ist mit dem Rest der 7000'er Serie?

Dürfte wahrscheinlich eh nicht so viel Sinn machen.

Wenn ich es richtig verstanden habe, greift Mantle besonders dann, wenn Games ins CPU Limit kommen und kann dann noch etwas (oder eben eine Menge) mehr Performance rausholen, weil die CPU durch Optimierungen nicht mehr so stark belastet wird.

Wenn Games ins GPU Limit laufen, kann Mantle eh nix ausrichten.

Oder sehe ich das falsch?
 
Genau so ist es. Und das hat AMD schon bei der ersten Präsentation vor Monaten genau so gesagt und auch später immer wieder bestätigt.

Wer hier mit einer High-End-CPU Wunder erwartet, wird enttäuscht werden.
 
Krautmaster schrieb:
Ich denke das ist das was AMD auch beabsichtigt... imho hat man dank den Konsolen sicher bereits viele im Boot und hofft dadurch, dass sich Mantle bei den Publishern als DER Standard durchsetzt. Je nach dem wie geschlossen das System gehalten ist lässt man Nvidia dann keine Chance mehr (wie wenn heute jedes Spiel auf PhysX setzen würde)

Mantle ist aber keine AMD Produktion. Die Macher haben übrigends auch bei Intel und Nvidia angefragt ob sie nicht bei der Entwicklung dabei seien wollen. Das ist also was ganz anderes als CUDA/PhysX.

Ob Nvidia in Zukunft Mantle unterstützen wird steht noch in den Sternen und hängt wohl im wesentlichen davon ab wie stark die eigene Shaderarchitektur auf Mantle passt. Wenn die jetzt ihre Schaltkreise dafür neu entwerfen müssten lassen sie es wohl eher.

Übrigends wird Mantle nach aktuellem Stand nicht für Konsolen kommen, wäre ja auch schön blöd wenn Sony/MS/Nintendo neben ihrer API Konkurenz zulassen würden. Aber evt. kommen ja Crossplatform Engines? Dann müsste der Spieleentwickler nur noch einmal programmieren und bräuchte keine Ports mehr.
 
Zuletzt bearbeitet: (typo)
Könnte man nicht auch irgendwie mal sinnvoll die integrierten Grafikeinheiten zum Berechnen mit nutzen?
dGPU für alles grafische, iGPU für Mantlesachen (Entlastung der CPU) und die CPU für den ganzen restlichen Kladderadatsch?
Gerade die GCN Generation hat doch ordentlich Rechenpower, die müsste ja auch als iGPU genügend Power haben, um die CPU ordentlich zu entlasten, dass das nicht die dedizierte GPU mit übernehmen muss.
 
Gummert schrieb:
@Lahatiel,

welcher Kampf?
Der Unterschied ist lächerlich. Du müsstest die Karte 6 Jahre benutzen...
Die Frage ist: Tust du das?

AMD'ler... was für 6 Jahre? 2 im Desktopbetrieb bei 7 Stunden reichen vollkommen (und das ist der Fall beim Programmieren und Office) Obendrauf kommt dann nochmal das Gezocke. Du hast meine Rechnung nachvollzogen? Ist sie zu schwer? Soll ich sie kommentieren?
 
character schrieb:
Genau so ist es. Und das hat AMD schon bei der ersten Präsentation vor Monaten genau so gesagt und auch später immer wieder bestätigt.

Wer hier mit einer High-End-CPU Wunder erwartet, wird enttäuscht werden.


Test case 3: High-end single-player with multiple GPUs
CPU: Intel Core i7-3970x Extreme, 12 logical cores @ 3.5 GHz
GPU: 2x AMD Radeon R9 290x 4 GB
Settings: 1080p ULTRA 4x MSAA
OS: Windows 8 64-bit
Level: South China Sea “Broken Flight Deck”
This single-player scene is heavy on both the CPU and GPU with lots of action going on. Test was done on the highest end Intel CPU on Windows 8, which is the fastest option before Mantle thanks to DirectX 11.1. Still this CPU is not fast enough to keep the 2 290x GPUs fed at 1080p on Ultra settings so we get a significant CPU performance bottleneck which results in major performance improvement when enabling Mantle.
Result: 13.24 ms/f -> = 8.38 ms/f = 58% faster
 
@marco_f

wie gesagt wenn es so offen entwickelt wurde... wunderbar, wär mir bisher aber neu.

Bei den Konsolen heißt es nicht Mantle, is aber quasi wie schon gesagt genau dasselbe.
 
character schrieb:
Genau so ist es. Und das hat AMD schon bei der ersten Präsentation vor Monaten genau so gesagt und auch später immer wieder bestätigt.

Wer hier mit einer High-End-CPU Wunder erwartet, wird enttäuscht werden.

Ausser er fährt MultiGPU Systeme. Denn Dice zeigt ja, 12 CPU Kerne dank Intel CPu + 2 290xer ergeben +55% - Auch das hat AMD immer gesagt Multicore und MultiGPU Systeme werden auch deutlich profitieren von Mantle.
 
Das größte Problem warum Nvidia nicht einfach so Mantle nutzen kann ist IMHO die mit GCN eingeführte Scalar Unit, welche Integer Befehle in der GPU ausführen kann - zur Erinnerung:
IMG0034546.png
AMD has also added a real scalar processing unit to each CU which it will be able to use to deal with operations that don’t have to be executed for each element of a group via the SIMDs, which can for example serve to optimise branching in certain cases. This unit will not be used for graphics languages themselves but may be used by the compiler.
 
Zurück
Oben