HamHeRo
Lieutenant
- Registriert
- Sep. 2009
- Beiträge
- 1.023
Wie hier schon wieder ein Kleinkrieg Mantle vs. DX/AMD vs. NVIDIA von statten geht... ![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
Alle verfolgen doch das gleiche Ziel: Verringerung des CPU-Overheads bei Draw-Calls und teilweise direkterer Zugriff auf die GPU-Hardware. NVIDIA hat schon mal den CPU-Overhead in den DX11 Treibern verringert (warum wurde der überhaupt erst verringert nachdem Mantle da war, das hätte man ja auch vorher schon machen können ?), AMD kommt mit einer ganz eigenen Lösung und Microsoft zieht mit DX12 ebenfalls nach.
Ist doch schön, Konkurrenz belebt das Geschäft und den Markt.
Was aber fast gar nicht beleuchtet wird, ist die Aussage der von Microsoft in den Raum geworfenen Zahlen und vor allem das Test-Szenario und dessen Aussagekraft.
1. Man wähle ein Szenario mit möglichst vielen Objekten und daraus resultierenden Draw-Calls mit entsprechend hohem CPU-Overhead. Gut das machen die anderen auch, um die eigene Technik möglichst gut dastehen zu lassen.
2. Man suche sich nun ausgerechnet das Surceface Pro 3 mit ULV i5-4200U und HD4400 aus. Die Kombination bringt eine Eigenheit mit sich, die sich in keinem tatsächlich zum Spielen geeigneten System wiederfindet: CPU und GPU teilen sich ein gemeinsames TDP Limit, welches zudem mit 17W (inkl. Spannungswandler) sehr eng gesteckt ist.
Lastet man die HD4400 möglichst ohne CPU-Overhead aus (z.B. mit Furmark, erzeugt so gut wie keine CPU-Last), dann darf sich die GPU bis zu 11W genehmigen und taktet auch je nach Kühlung mit dem maximalen Turbo. Belastet man hingegen nur die CPU (z.B. mit Prime), dann darf sich die CPU auch so bis ca. 13W genehmigen. Lässt man aber beides gleichzeitig laufen, dann wird je nach Temps der CPU-Takt leicht gedrosselt, vor allem aber sinkt der GPU Takt enorm auf nur noch ein Drittel. Bei gleichzeitiger Belastung von CPU und GPU wird die verfügbare TDP zu 2/3 auf die CPU verschoben.
In dem Test mit der DX12 Demo ohne künstliche Reduzierung der TDP (33 FPS und ter DX12 vs 19 FPS unter DX11) kommt daher der Leistungssprung nicht einfach dadurch zustande, dass weniger Zeit in unnötigen CPU-Zyklen verpufft, sondern die GPU taktet durch die freigewordene TDP auch deutlich höher. Hier kommen also zwei Effekte zusammen: Die CPU muss nicht so viel rechnen und die GPU nicht soviel warten und gleichzeitig taktet die GPU auch höher.
Es dürfte wohl kein Gaming-System geben (ausser CPUs bzw. APU mit integrierter GPU, oder Gaming-Notebooks wo die Temperatur einer Komponente mittelbaren Einfluss auf die TDP der anderen Komponente hat), bei dem die Grafikkarte höher taktet, wenn die CPU weniger Energie verbraucht.
Daher dürften die prognostizierbaren Geschwindigkeitzuwächse noch nicht einmal ansatzweise auf ein System mit dedizierter GPU übertragbar sein.
Richtige aber auch ziemlich überflüssige Feststellung in den News. Klar sinkt der Anteil des Energieverbrauch der CPU im Vergleich zu DX11 auch dann, wenn man das System ohne Beschränkungen laufen lässt, es ist ja gerade der Sinn den Anteil der CPU zu verringern, sonst könnte man ja bei DX11 bleiben. Wenn der Anteil des CPU-Overheads (reflektiert im Energieverbrauch) ohne Beschränkung der TDP genauso groß wäre wie bei DX1, dann könnte das Gesamtsystem ja auch gar nicht schneller sein, es sei denn die GPU Einheit schafft es auf wundersame Weise im Gengenzug bei gleichem Energierverbrauch nahezu die doppelte Leistung zu erzielen. Dann wäre aber nicht die CPU sondern die GPU der Flaschenhals gewesen, was aber im Widerspruch zum CPU-Flaschenhals bei DX11 steht.
![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
Alle verfolgen doch das gleiche Ziel: Verringerung des CPU-Overheads bei Draw-Calls und teilweise direkterer Zugriff auf die GPU-Hardware. NVIDIA hat schon mal den CPU-Overhead in den DX11 Treibern verringert (warum wurde der überhaupt erst verringert nachdem Mantle da war, das hätte man ja auch vorher schon machen können ?), AMD kommt mit einer ganz eigenen Lösung und Microsoft zieht mit DX12 ebenfalls nach.
Ist doch schön, Konkurrenz belebt das Geschäft und den Markt.
Was aber fast gar nicht beleuchtet wird, ist die Aussage der von Microsoft in den Raum geworfenen Zahlen und vor allem das Test-Szenario und dessen Aussagekraft.
1. Man wähle ein Szenario mit möglichst vielen Objekten und daraus resultierenden Draw-Calls mit entsprechend hohem CPU-Overhead. Gut das machen die anderen auch, um die eigene Technik möglichst gut dastehen zu lassen.
2. Man suche sich nun ausgerechnet das Surceface Pro 3 mit ULV i5-4200U und HD4400 aus. Die Kombination bringt eine Eigenheit mit sich, die sich in keinem tatsächlich zum Spielen geeigneten System wiederfindet: CPU und GPU teilen sich ein gemeinsames TDP Limit, welches zudem mit 17W (inkl. Spannungswandler) sehr eng gesteckt ist.
Lastet man die HD4400 möglichst ohne CPU-Overhead aus (z.B. mit Furmark, erzeugt so gut wie keine CPU-Last), dann darf sich die GPU bis zu 11W genehmigen und taktet auch je nach Kühlung mit dem maximalen Turbo. Belastet man hingegen nur die CPU (z.B. mit Prime), dann darf sich die CPU auch so bis ca. 13W genehmigen. Lässt man aber beides gleichzeitig laufen, dann wird je nach Temps der CPU-Takt leicht gedrosselt, vor allem aber sinkt der GPU Takt enorm auf nur noch ein Drittel. Bei gleichzeitiger Belastung von CPU und GPU wird die verfügbare TDP zu 2/3 auf die CPU verschoben.
In dem Test mit der DX12 Demo ohne künstliche Reduzierung der TDP (33 FPS und ter DX12 vs 19 FPS unter DX11) kommt daher der Leistungssprung nicht einfach dadurch zustande, dass weniger Zeit in unnötigen CPU-Zyklen verpufft, sondern die GPU taktet durch die freigewordene TDP auch deutlich höher. Hier kommen also zwei Effekte zusammen: Die CPU muss nicht so viel rechnen und die GPU nicht soviel warten und gleichzeitig taktet die GPU auch höher.
Es dürfte wohl kein Gaming-System geben (ausser CPUs bzw. APU mit integrierter GPU, oder Gaming-Notebooks wo die Temperatur einer Komponente mittelbaren Einfluss auf die TDP der anderen Komponente hat), bei dem die Grafikkarte höher taktet, wenn die CPU weniger Energie verbraucht.
Daher dürften die prognostizierbaren Geschwindigkeitzuwächse noch nicht einmal ansatzweise auf ein System mit dedizierter GPU übertragbar sein.
Wurde dem Gespann aus CPU und GPU hingegen gestattet, in Summe dieselbe Energie aufzunehmen wie unter DirectX 11, stieg die Bildwiederholrate von vormals 19 auf 33 Bilder pro Sekunde an. Der Anteil der CPU am Gesamtenergieverbrauch war dabei weiterhin deutlich niedriger als bei DirectX 11, der Anteil der nun schneller mit Daten versorgten Grafikkarte stieg dementsprechend an.
Richtige aber auch ziemlich überflüssige Feststellung in den News. Klar sinkt der Anteil des Energieverbrauch der CPU im Vergleich zu DX11 auch dann, wenn man das System ohne Beschränkungen laufen lässt, es ist ja gerade der Sinn den Anteil der CPU zu verringern, sonst könnte man ja bei DX11 bleiben. Wenn der Anteil des CPU-Overheads (reflektiert im Energieverbrauch) ohne Beschränkung der TDP genauso groß wäre wie bei DX1, dann könnte das Gesamtsystem ja auch gar nicht schneller sein, es sei denn die GPU Einheit schafft es auf wundersame Weise im Gengenzug bei gleichem Energierverbrauch nahezu die doppelte Leistung zu erzielen. Dann wäre aber nicht die CPU sondern die GPU der Flaschenhals gewesen, was aber im Widerspruch zum CPU-Flaschenhals bei DX11 steht.
Zuletzt bearbeitet: