Sun_set_1 schrieb:
Ich hätte da eine
bzw. eine Anmerkung.
Nur zu
Also, wie wir wissen schafft es Nvidia (somehow) die CPU "zeitkritisch" zu entlasten. Am deutlichsten war es damals bei AC: Paris (Titel vergessen
). Zieht sich seit dem aber fort. Mal völlig unabhängig von dem Wie.
Nebst der Instruktionen, die von einem Spiel an die DX API geschickt werden haben wir noch mehrere "Stationen" dazwischen.
Die erste Station ist der Treiber, der die Daten entgegennimmt und dann in einer für die Grafikkarte verständlichen Form an die GPU weiterreicht. Dahinter kommt dann bereits die Aufgabenverteilung bzw. der scheduler.
Der Unterschied zwischen AMD und nvidia ist, dass das scheduling flexibler gestaltet ist und man bereits über den Treiber gewisse Steuerungsoptionen mitschicken kann, so dass man mit dieser Lösung etwas mehr in die Verarbeitungspipeline drücken kann.
Teste ich in 720p, dann wird die Grafikkarte entsprechend entlastet. CPU-Last bleibt wie von Dir geschrieben gleich.
Genau
AMD hat hier nachgebessert, kann das aber weiterhin nicht so gut wie NV.
Was in Zukunft mit den low level grafik APIs eher Egal ist, weil dort das optimierte scheduling eben direkt vorgenommen werden kann. Du hast dann seitens AMD quasi auf API Basis die Möglichkeiten, die früher auf Treiberebene den nvidia Karten vorbehalten waren.
Nun hat die Grafikkarte unter 720p aber viel Potenzial brach liegen, was dem Nvidia Treiber dann überproportional mehr Potenzial zur Verfügung stellt, als unter >=1080p.
Deswegen testet man das CPU Limit möglichst immer nur mit einem Typ Grafikkarte (am besten dem schnellsten, der gerade zu haben ist).
Sonst würde man eben das API-/Treiberlimit einer Grafikarchitektur noch mittesten
Und er dadurch natürlich noch mehr Last von der CPU auf die GPU verlagern kann. Wenn nun die Auflösung ansteigt, steigt die Last auf der Grafikkarte und entsprechend weniger Leistungspotenzial steht dem Treiber zur Entlastung der CPU zur Verfügung.
Was wiederum innerhalb einer Messreihe dadruch egalisiert wird, dass man diese nur mit einem GPU- Typen durchführt.
Somit schwächt sich dieser Effekt logischer Weise ab, desto höher die Auflösung wird. Hinzu kommt natürlich, dass mit steigender Auflösung sowieso die Graka zum Bottleneck wird, weshalb wir den Effekt der Overhead-Verlagerung nicht klar abgrenzen, bzw. ermitteln können.
Siehe oben. Deshalb führt man den Vergleichstest mit der gleichen Grafikkarte durch.
In jedem Fall kann das aber dazu führen, dass eben unter 720p ein falsches Leistungspotenzial für die CPU dargestellt wird. Zumindest, wenn ich als Besitzer einer AMD-Karte Rückschlüsse aus einem Test ableiten möchte der mit einer Nvidia durchgeführt wurde.
Bingo! Jedoch zeigt sich in der Praxis, dass der architektonische Verlust einer Grafikkartengattung bisher proportional verhält. Das heisst z.B. dass die Grafikkarten der GCN 1 Familie ein schlüssiges Verhalten durch die gesamte Linie beibehalten.
Zu allem übel ist dem meistens so und zwar direkt in Form einer 2080. Und da hier dann das Verhältnis der Overhead Reduktion zwischen den Herstellern auch noch mal variiert, geht viel Aussagekraft verloren.
Letzenendes eben nicht, weil sich die Verluste durch die verschiedenen Grafikkartenfamilien eben gleichförmig gestalten.
Du gehst in Deinen Ausführungen (auch in den Absaätzen oben) von der irrigen Annahme aus, dass der Overhead mit Sinken der Auflösung weniger würde. Er bleibt aber gleichförmig.
Die Skalierung über die Auflösung findet zum Großteil in der GPU statt.
Somit, finde ich, haben 720p Tests nur noch eine bedingt Ableitungskraft für höhere Auflösungen.
Siehe oben- Du verschiebst in Deiner Annahme zu viel von den Arbeitsschritten in Renderpipeline weg von der Grafikkarte auf die Softwareebene (API/Treiber).
Genau das. In meinem Beispiel gehe ich nun davon aus, dass eine CPU in Kombi mit NV unter 720p soweit entlastet wird, dass sie plötzlich 105 Instruktionen schicken kann. Eben da der Treiber durch Aufgabenverlagerung etwas Platz macht.
Ja- Dann geh jetzt mal in Dich und frag Dich, wo dann der Flaschenhals sitzt?
Genau- HINTER der CPU. Somit würde da Szenario, was Du hier zeichnest als klassisches GPU Limit bezeichnet werden.
Das GPU Limit zählt nämlich schon ab Übergabe zum Treiber.
LG
Zero