Sinthuria schrieb:
Er vergleicht doch gar nicht die API mit einer CPU. Er hat lediglich darauf hingewiesen, dass es vor dem Release des Bulldozers auch sehr vollmundige Versprechungen gab, die nicht gehalten werden konnten.
Weite Teile des Bulldozer-Flops gingen auf die Hyperthreading-Optimierungen in Win7 zurück, die MS extra für Intel eingebaut haben und in deren Folge die vollkommen neuartige Modul-Struktur des Bulldozers komplett fehlerhaft belastet wurde....
Unyu schrieb:
Die Chance wird AMD bekommen, wenn sie liefern. Bis dahin bleibt es eine nette Idee mit Potential aber auch Problemen.
Nicht, wenn man einigen Trollen hier glauben darf. Nach deren Meinung ist Mantle schon tot, bevor man auch nur ein Bit gesehen hat. Und genau darum gehts: Hier wird hirnlos gebasht, sobald etwas vom AMD kommt. Wenn NVidia irgend welche Scheiße verzapfen, die nachweislich als geschlossenes System konzipiert ist und AMD-Kunden benachteiligt, dann ist alles OK...
Sinthuria schrieb:
Einziger Anhaltspunkt für die zu erwartende Performance war bisher, dass mit Mantle die neunfache Anzahl an Draw Calls pro Frame erreicht werden könne.
Das ist die EINZIGE Aussage, die hier wirklich hinsichtlich der Leistungsfähigkeit getroffen wird, und dieser Wert ist sehr wohl realistisch. OpenGL mit den NVidia Extensions erreicht ähnliche Werte, hier wird einzig und allein darauf eingegangen, dass Direct3D ne lahme Ente ist.
Hier werden schon sehr vollmundige Versprechen bzw. Ankündigungen gemacht. Aber etwas belastbares gibt es eben nicht.
Wo denn genau? Es wird die relativ realistische Zahl "9x mehr Draw Calls gegenüber D3D" in den Raum geworfen. Es wird gesagt, dass D3D leichter ist, Mantle aber viel performanter. Da auch ein Port auf OpenGL die Anzahl der Draw Calls deutlich erhöhen könnte, ist hier nichts "vollmundiges" dran. Der Vorteil von Mantle gegenüber OpenGL ist, dass Mantle näher an D3D ist, eine Portierung fällt den Entwicklern leichter.
Sinthuria schrieb:
Ich erwarte keine festen Prozentzahlen. Aber man hätte es schon mal mit zwei oder drei Konfigurationen testen können bzw. die Ergebnisse dazu veröffentlichen.
Aha... und welche 3? Sag an.... In einem PC kann alles mögliche stecken, von ner kleinen AMD-CPU, die gar nicht mehr produziert wird, bis hin zu nem brandneuen und übertakteten Core i7 Flaggschiff. Es kann genauso die allerkleinste Office-Version einer GCN-Karte drin stecken, die sich sogar passiv kühlen lässt, wie auch ne R9 290 im Crossfire-Modus + massiver Übertaktung und WaKü.
Also welche 3 Varianten wählst du? Bei welchen 3 Varianten wird AMD dann kein Cherry Picking vorgeworfen?
Sinthuria schrieb:
Naja wenn es nur 10% sind hätte man sich nicht zu einer Aussage hinreißen lassen, dass man den Aufwand nicht wegen wenigen Prozentpunkten auf sich genommen hätte. Und wenn BF nur ein Testballon wäre, sollte man sich nicht zu Aussagen hinreißen lassen, dass die spieler angenehm überrascht werden, wenn doch im Vorfeld gar nicht abzusehen ist, was dabei heraus kommt.
Die werden sicherlich auf mittelstarken Systemen ein paar interne Tests gemacht haben. Außerdem haben professionelle Softwareentwickler aus der Branche deutlich mehr Ahnung von der Materie als du. Genauso kann ich, ohne konkrete Zahlen zur Hand zu haben, abschätzen ob Algorithmen für die Web-Entwicklung performant sein werden oder den Server ab dem 1000sten Besucher gnadenlos in die Knie zwingen.
Und du vergisst, unter welch strengem Deckmantel das ganze Projekt angegangen wurde. Da wusste vielleicht die NSA was davon, aber zu NVidia oder Intel durfte nichts durchsickern, nachdem diese beiden Kasperkopf-Vereine sich ja offensichtlich gegen eine Low-Level - API ausgesprochen hatten.
Es ist durchaus realistisch, dass nur interne Tests existieren, deren gesamten Ergebnisse einer strikten NDA unterliegen.
Außerdem: es dauert noch n guten Monat, dann werden den Worten Taten folgen. Dann hast du deine bunten blinkenden Balken, unterlegt mit Dubstep.