Test Erste Eindrücke zu AMDs Mantle

Auf englischen News-Seiten stehen seit vorgestern Nacht Ergebnisse mit verschiedenen AMD-CPU's, die den Vorveröffentlichungen sehr nahe kommen, also für Kaveri bei 40% liegen. In BF4 wohlgemerkt. Auffällig ist, dass es Tests gibt, die zwar Intel testen aber kein AMD und anders herum. (ha, ha und ha) Klar muss man jetzt auf mehr Software warten, bevor man das Wunder-Kopfkino überfordert! Einige sollten besser ihre orakelnden Märchenbücher wieder wegpacken solange der Vogel nicht geschossen ist. Was nützt Kavery, wenn man mit Intel-CPU's unterm Strich doch viel besser fährt und mit Mantle sogar noch vorfährt? (4K-Gaming kommt, da nützen auch 100% Plus nix, wenn nur 20 fps rauskommen!) Kaveri wird wieder nur allgemein Technik-Begeisterte, Schüler mit schwachem Taschengeld und Zahlen-Übertakter anziehen. Was ich sagen will Mantle beweist geradezu, dass ATI-GPU's 'sehr geil' sind und AMD-CPU's eher was für Retro-PC's wie Konsolen unso.... übertrieben unscharf ausgedrückt. :D
 
Glide sicherlich nicht, Nv hat die Gameworks Bibliotheken.Entwicklerhilfen + bekannte Api, nämlich Directx, kann ein Vorteil sein.
Würde eher vermuten das still und heimlich ein D(GT)x12 erscheint in Zusammenarbeit zwischen Ms und Nv ^^ und in 1-2 Jahren zeigt sich dann inwiefern Mantle etabliert und anerkannt ist, mit Pech zu hoch gepokert.Dann heissts womöglich beide Apis möglichst gut zu supporten um konkurrenzfähig zu bleiben.

Nvidia will die Leistungskrone behalten,Ms will Dx mit Sicherheit nicht vom Markt verschwinden sehen.Wird auf jedenfall spannend.
 
Zuletzt bearbeitet:
berkeley schrieb:
7870XT in BF4 noch keine Leistungssteigerung (hängt immer noch voll im CPU Limit mit Q9550), also noch nicht der richtige Treiber

Hast du Star Swarm schonmal ausprobiert? Hab die gleiche Karte, und gerade mal einen Dx und einen Mantle Run gemacht. Der Unterschied ist Gewaltig. DirectX Average FPS 23.76, Mantle 41.43. Allerdings hab ich BF4 noch nicht ausprobiert
 
Völlig unaussagekräftig. Was ich hier sehe, ist ein Test mit einem Spiel, welches von negativer Entwicklerqualität nur so strotzt (Bugs, Downtimes und der Netcode), und ein Benchmark, der bewusst "schlecht" ist. Um genau zu sein, ist letzteres ja kein Benchmark, sondern eine Techdemo. Wieso CB in einem (objektiven) Test sowas verwendet, ist mir schleierhaft.

Wieso Mantle?
Es gibt doch schon OpenGL, welches bei weitem schneller als Direct3D ist, und vor allem schon länger existiert und dokumentiert ist, und vor allem alle Plattformen unterstützt.
Das mit den "Drawcalls" und dem Multithreading ist übrigens völlige Augenwischerei. Ersteres hatte man durch Hardware-Instancing gar nicht nötig, letzteres konnte man schon immer. Es wird so hingestellt, als könnte eine Echtzeitanwendung erst jetzt multithreaded laufen. Völliger Unsinn und pure Massenmanipulation.
Am Ende ist DX logisdcherweise einfach scheiße (man sehe sich die Geschichte von DX an, welches nur durch Vetternwirtschaft bekannt wurde und danach ein Quasimonopol hatte) und man merkt (was Valve schon längst bewiesen hat), dass man eine andere API braucht. Aber nichts Neues, denn das Rad ist schon mit OpenGL erfunden worden...
 
Zuletzt bearbeitet:
War es nicht eigentlich so das die R9 280X nicht auch ohne Mantle 2-3% schneller war in BF4 als die GTX 770?
Wenn ich das jetzt so im Test sehe wäre sie ja zurzeit ohne Mantle langsamer als die GTX 770.

Gero2013 schrieb:
BAM! Na, das übertrifft ja wohl die Erwartungen von vielen hier! Ich selber dachte maximal 5% mehr für mein i7 + R290X, aber hola! Zwischen 19% und 28% FPS-Steigerung, ich sach mal her damit! :)

Das sehe ich auch so, hatte mit ca. 10% gerechnet allerdigns auch für die kleineren Karten wie die R9 270X und R7 260X, dafür erstmal ein dickes Lob an AMD und wer weiß vielleicht bekommt mit dem Final Treiber auch noch die R9 270X und die R7 260X einen Schub.
pipip schrieb:
Auch wenn mehr Games Mantle unterstützen, wird man in Gaming PC ohne Probleme einen i3, FX 6300 vorschlagen können und stattdessen eine teurere GPU empfehlen können, die Mantle unterstützt. (und hier eben hoffentlich egal ob NV oder AMD).

Somit wäre es schön wenn es nur mehr ein Faktor gibt, der einen Flaschenhals verursacht. Mittlerweile braucht man also nur 4 Threads.

Dafür müssten nicht mehrere Spiele Mantle unterstützen sondern zudem Zeitpunkt mindestens 80-90% der Spiele, es reicht ja schon wenn ein Spiel was ziemlich verbreitet ist da einen Strich durch die Rechnung macht, wie SC2 was hier bei der Kaufberatung auch oft bei den genannten Spielen fällt ist da ja ein gutes Beispiel nur das es da eben nicht nur insgesamt um schwache CPUs geht sondern eben nur dass das Spiel sehr viel Leistung pro Kern braucht.
Damit sich Mantle auch als Standard durchsetzt muss es auch auf bei beiden Herstellern etwas bringen, denn zurzeit ist es ja so dass das Verhältnis bei den Grafikkartenverkäufen ja bei ca. 1/3 für AMD und 2/3 bei Nvidia liegt und da wird es sicher auch Spielentwicklerstudios geben die den Aufwand für den 1/3 nicht gerechtfertigt sehen.

Ich selber bin aber gespannt darauf was es bei anderen Spielen mit Mantle Unterstützung bringen wird, nicht das es nachher nur ein Einzelfall war das es soviel bringt.
 
Tja... wir brauchen nicht unbedingt noch schnellere Grafikkarten die noch teurer sind etc. Wir brauchen also endlich mal gescheite Programmierer xD

aber echt krass, wieviel man zusätzlich noch rausholen kann. Wäre zu gerne einmal bei AMD oder Nvidia um zu sehen wie sowas zustande kommt, wie man programmiert etc. Darf ich ma reinschnubbern? XD
 
Mich macht die Abbildung zur CPU Skalierung auf Seite 2 stutzig... warum ist ein um HTT kastrierter auf 2 GHz runtergetakteter Core i7 4770K (das heißt schon mal 50% des Taktes und dann noch kein HTT) um nur 3fps langsamer als die selbe CPU bei vollem Takt UND Hyperthreading. Bedeutet das dann, dass beim voll getakteten i7 die Grafikkarte am Limit ist und beim runtergetakteten die CPU? (die dann durch Mantle ein massives Leistungsplus erfährt?)
In der Abbildung bringen 50% mehr CPU Power (also auch 50% mehr Drawcalls??) gerade mal 2-3 fps, egal ob bei DirectX oder Mantle... also scheint Mantle noch irgendwas anders zu machen, weil sonst würde das ganze unter DirectX wesentlich mehr skalieren bei so viel mehr CPU Power.

Das würde dann bedeuten, dass für ein ausgeglichenes System bei dem CPU und Graka halbwegs gleichzeitig limitieren, der beliebte 1230 v3 eine 290x überfordert, selbst wenn er ohne HTT und auf 2GHz getaktet ist (also vermutlich langsamer ist als ein Core i5).

Kann mir hier wer bei der Lösung helfen?
 
Zuletzt bearbeitet:
Hmmmmm...

schließe ich aus den Benchmarks richtig, das Mantle nur dann etwas bringt, wenn die Graka nicht am Limit läuft, weil sie ja überhaupt erstmal in der Lage sein muss, die komplexere Szene die durch die höheren Drawcalls möglich geworden ist, zu rendern?

Das würde ja dann bedeuten, das man nur einen Performance boost erhält, wenn man eine High End Karte in mitlerweile wenig anspruchsvollem FullHD ohne exotische FSAA Settings rendern lässt. Sobald man die Karte entweder mit höheren Auflösungen und/oder AntiAliasing Settings ans Kochen bringt, ist der Vorteil dahin?

Wozu brauchen wir das dann überhaupt? :eek: Ich kaufe mir doch keine HighEnd Karte um damit nur in 1080p zu zocken :D Da tuts auch ein Mittelklassegerät oder eine ältere Karte, die dann beide nichts von Mantle hätten.
 
"Mantle derzeit nur auf die Hawaii- und auf die Bonaire-GPU optimiert" wenn ich sowas lese :rolleyes: schade, ist doch klar das Nvidia da nicht gleich mitmachen will wenn nicht gleich für beide oder bzw. alle GPU-Herrsteller die gleichen bedingungen herrschen. Ich fände es besser die neue API generell weiter zu verbessern , die genaue funktionsweise und den code und was auch immer noch gebraucht wird freizugeben , was glaube ich bzw. hoffe ich auch auch gemacht wird :o so das die GPU-Herrsteller ihre Treiber daran anpassen und optimieren können so das es in der hand des jeweiliegen GPU-Herrstellers liegt wieviel leistung er mit seinem Treiber aus der neuen API herrausholen kann. Logisch das das andere Hersteller abschreckt oder abstößt wenn die hören das in der API auf bestimmte GPUs und vielleicht auch CPUs? wer weiß? optimiert wurde. :rolleyes:
 
Zuletzt bearbeitet:
Das Fazit sollte sich nicht nur auf Direct3D beziehen, sondern auch OpenGL erwähnen. Das ist schließlich die universelle Referenzschnittstelle für grafische Darstellungen. Wenn Mantle breiter unterstützt wird, wäre ein diesbezüglicher Vergleich schön.

Dennoch danke für den Test übers Wochenende!
 
Nein, bitte kein Glide 2014 von Nvidia.

Mantle is recht als prove of concept um
Microsoft unter Druck zu setzen.
(Wenn denn alles hier ohne Schmu abläuft)

Aber ich hab null Bock wieder in die 90er
zurückzukehren, wo man z.B. 'ne Voodoo
brauchte um Ultima 9 vernünftig zu spielen.

Dazu: Höhere Bug-Dichte ahoi.
 
Hi,
Wann werden die FX Cpus getestet?
Möchte einen Vergleich mit Intel. :-). Nei Spass beiseite. Wäre einfach interessant wie der Leistungszuwachs bei den kleineren FX CPUs ist.

Als AMD würde ich die API nicht gleich freigeben. Nvidia soll mal ein bisschen schwitzen. Tut denen sicher gut.:D
 
Schon Wahnsinn was man mit Software Optimierung noch alles rausholen kann. Aber AMD sollt dennoch langsam mal konkurrenzfähige CPU's entwickeln damit Intel mal endlich wieder Konkurrenz bekommt, insbesondere im High-End Segment.
 
Verständnisfrage:

Geht es hier dann eigentlich hauptsächlich um den overhead von directx, der mit Mantle minimiert wird und der kann bis zu 50% minimiert werden ?
 
Mal ganz davon abgesehen das die Leistung der PR-Abteilung von AMD desaströs war, bin ich tief beeindruckt was nur "durch Software bzw eine neue Schnittstelle" zu erreichen ist. Also Quasi 500€ gespart für eine Leistungsverbesserung als ob ich eine neue Grafikkarte gekauft hätte!
 
Hier meine Meinung über Mantle:

standards.png
http://xkcd.com/927/
 
grenn schrieb:
das Verhältnis bei den Grafikkartenverkäufen ja bei ca. 1/3 für AMD und 2/3 bei Nvidia liegt und da wird es sicher auch Spielentwicklerstudios geben die den Aufwand für den 1/3 nicht gerechtfertigt sehen.

Jop bei Grafikkarten und weiter ? 1/3 ist keine kleine Kundschaft. Und hier werden bestimmt nicht nur Desktop PCs sondern auch von Notebooks gesprochen.
http://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-dritten-quartal-2013

Und bevor du da von viel "Aufwand" sprichst. Diese Entwicklung ist ein Push von den Software-Entwickler selbst und ist eigentlich nicht auf AMDs Boden gewachsen. Es sind nun mal die ersten die das "Programm" Unterstützten.
Ich weiß, Mantle ist nicht toll für dein Argumentation teure Intel Prozessoren zu kaufen, aber auch ein Mantle Patch für StarCraft wäre eigentlich ein sinnvolles unterfangen. Denn der Vorteil der Entwickler, das Game wäre dann schnell für ein größeres Publikum zugängig, besonders für jene auf einem Notebook
Wer weiß, vllt sollte man eine Pedition für SC2 ausrufen, denn mit Mantle wären die frame drops dann bei vielen günstigen Prozessoren Geschichte. Ja das würde für Entwickler sicherlich nicht auszahlen. Wenn dann viele schwächere APU Systeme in Notebooks oder PCs das Spiel dann flüssig spielbar wäre. Entwickler würden davon bestimmt nicht profitieren.

Aber wenigsten erkennen jetzt einige, dass man durch die passende Software und maschinennahe Programmierung weit aus mehr möglich ist, als das was uns am PC geboten wird. PC User weit aus mehr für Rohleistung zahlen und nur ein Bruchteil davon bekommen.
Für jene denen das nicht bewusst ist, kann man aus der PS4, XOne und WiiU durch deren API noch maschinennaher arbeiten und noch mehr rauskitzeln.

Für mein Teil hoffe ich dass NV auf den Zug aufspringt. Das habe ich schon öfters gesagt. Denn dann hätte der Kunde der spiele hat einfach gewonnen. Man müsste weniger Geld für eine CPU ausgeben, man könnte dann mehr in eine Grafikkarte investieren. Des weiteren bekämpft Mantle klar Frame Drops. Die Systeme mit einer kleinen CPU und starken Grafikarte würden auch wesentlich weniger Verbrauchen. Der Vorteil wäre dann auch klar bei Notebooks zu sehen. Bei den man in flachen Notebooks eher eine starke GPU als CPU integrieren könnte.
Klar für alles andere wird eine starke CPU weiterhin wichtig sein, das bestreitet keiner.
 
Zuletzt bearbeitet:
Wieso wurde bei StarSwarm der Attract Test verwendet und nicht der Follow Test? Der Tooltip besagt ja, dass der Attract eine random Camera hat. Random und vergleichbarer Benchmark passen ja nicht so gut zusammen?!

Im Follow Test habe ich mit einer 7950, i52500k@4,3:

Dx: 35 FPS
Mantle:49 FPS
 
djbergwerk schrieb:
Na ja, Spiele die extremst CPU lastig sind, sind aber auch mittlerweile eher die Seltenheit! Bzw. haben die CPU´s in den letzten Jahren deutlich zugelegt, so dass sie eher weniger der limitierende Faktor in ein Computersystem sind.

Man muss sich genauso mal fragen warum Bf4 von Anfang an so derbe schlecht lief, besser gesagt wieso gerade so stark CPU lastig obwohl sich da nichts groß gegenüber Bf3 verändert hat!
Ein Schelm wer Böses dabei denkt! :D

Du musst dich eher fragen warum es kaum CPU-lastige Spiele gab.

Guck dir doch die Strunzdoofen KIs an oder auch sonst mangelnde Interaktionen, die von der CPU übernommen werden mussten.
Die Entwickler konnten sich halt nicht sicher sein, dass die User auch die performante CPU haben.

Bei einer GPU ist es leicht, hat die nicht die Performance, dann wird der Detailgrad oder die Filter runtergeschraubt.
Bei nötigen Spielelementen kann man ja, bei schlechtere CPU, wohl kaum was weglassen.
 
Zurück
Oben