Stephan-MV
Lt. Commander
- Registriert
- Dez. 2006
- Beiträge
- 1.612
Ist da über die Treiber noch was raus zu holen ? Was meint ihr ?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Stephan-MV schrieb:Ist da über die Treiber noch was raus zu holen ?
Müsste man mit Microbenchmarks gegenchecken, die relativ unabhängig vom Treiber laufen. Aber die synthetischen Benchmarks deuten daraufhin, dass die Treiber noch viel Optimierungspotential haben.Stephan-MV schrieb:Ist da über die Treiber noch was raus zu holen ? Was meint ihr ?
und Destiny 2 ist doch auch im Test gewesen und auch da hat die Karte versagt.Basis der Spiele (...) und Destiny 2 ermittelt haben
Dafür gibt's ja auch simple synthetische Benchmarks. Leider wird den ganzen interessanten Stuff wohl keiner testen, auch deutsche Plattformen/Redaktionen nicht. Ich werde mal versuchen, ein paar "Nerds" zu motivieren, ne richtige Architekturanalyse zu machen.GerryB schrieb:Die DX11 Schwäche könnte bei Intel ja Drawcalllimit sein.
Wenn ich dann irgendwann mal eine habe, kann ich gerne etwas beisteuern. Aber schon am DG1 Feedback merkt man, dass die Nutzer in den Foren darauf keinen Bock mehr haben bzw. die alte Garde langsam komplett verschwunden ist. Da kommt die hängende Mimimi-Schallplatte und das war es dann.Zer0Strat schrieb:Ich werde mal versuchen, ein paar "Nerds" zu motivieren, ne richtige Architekturanalyse zu machen.
Top! 👍 Man muss halt die Ausführungspipeline stufenweise aufdröseln. Am besten fängt man mit dem Drawcall-Limit an, dann Latenzen der Speichersystems, Füllraten usw.24784ds schrieb:Wenn ich dann irgendwann mal eine habe, kann ich gerne etwas beisteuern.
Die Gunnier hat 92W BoardpowerDisOrcus schrieb:Mhmhm...
Kann man denn erkennen, ob mit 92W oder doch nur 75W getestet wurde?bad_sign schrieb:Die Gunnier hat 92W Boardpower
Und man darf nicht vergessen, dass Intel bei den Shadern sogar ein kleines Stück bei der Anzahl mogelt, wie es NVIDIA bei Turing getan hat. 128 FP32-Shader + 128 INT3-Shader, macht eignetlich 256 und damit bereits 2048.d3nso schrieb:AMD wurde immer ausgelacht wenn es darum ging die Rohleistung ihrer Karten auf die Straße zu bekommen, hier sieht man nun das es durchaus noch schlechter geht und wohl nicht immer so einfach ist wie viele (zumeist Fanboys) das darstellen.
Kommt auf die Architektur von Xe an und wie dessen Eigenheiten sind und was das für die Treiberentwicklung bedeutet.Stephan-MV schrieb:Ist da über die Treiber noch was raus zu holen ? Was meint ihr ?
Na ja, wenn man die Informationen von Intel nimmt und sich das ansieht, dann muss man schon sagen, dass das Problem vermutlich nicht so wirklich im Treiber liegt, sondern - warst du es, der da die Frage mal stellte - für Intel viel umfassender ist und bereits bei den Spielen liegt und wie diese entwickelt werden.Zer0Strat schrieb:Aber die synthetischen Benchmarks deuten daraufhin, dass die Treiber noch viel Optimierungspotential haben.
Sorry, da hatte ich ein Bild falsch beschriftet: RDR2, nicht Destiny 2.seyfhor schrieb:Destiny 2 ist doch auch im Test gewesen und auch da hat die Karte versagt.
Enttäuschend?Dittsche schrieb:enttäuschend. aber natürlich nicht anders zu erwarten von Intel