Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGhost Recon Breakpoint im Test: Vulkan ist in Episode 2 fast immer besser als DirectX 11
Du musst nur die Fähigkeit haben, diese zwei Tests gemeinsam zu betrachten, um zu wissen, welche CPU gebraucht wird bzw. welche CPU welche Leistung bringt.
Ist mir ehrlich gesagt egal was es ist.
Es ist von den TEs zuviel verlangt so etwas zu können, ebenso vom durchschnittlichen Leser. Der will ganz konkret die Daten sehen und sich nicht irgendwas herleiten müssen.
Bleib bei PCGH oder vergleichbarem.
Hier kümmert man sich um die relevanten Benchmarks für die Kaufberatung.
Es ist in den TEs zuviel verlangt so etwas zu können, ebenso vom durchschnittlichen Leser. Der will ganz konkret die Daten sehen und sich nicht irgendwas herleiten müssen.
Ich habe zwar keine Ahnung was TEs sind, aber das Fettgedruckte kann man als Argument pro 1080p stehen lassen. Quasi ein Informationsverzicht, der Übersichtlichkeit wegen.
ja, genau das "vulkan läuft überall" ist ein problem für microsoft. die wollen nämlich das windows 10 monopol. die wollen keine kompatibilität mit linux, mac, alten windows versionen oder der ps5. der pc ist die "nvidia konsole". microsoft und nvidia verfolgen beide das selbe ziel - ein monopol mit daumenschrauben. nvidia ist ebenso in der chronos group wie microsoft, man hätte DXR auch in vulkan realisieren können, wenn es nur um den technischen fortschritt gegangen wäre. aber nvidia sowie microsoft wollen stattdessen dx12. nvidia forciert dx12 wegen DXR/RTX (technologiemauer vs. amd und intel), und microsoft forciert dx12 fürs windows monopol.
nvidia rennt zu jedem größeren studio und will da RTX, wenn nötig gegen cash, integriert haben, um RTX zu pushen, was gleichzeitig heißt, dass das spiel gezwungenermaßen mit der dx12 api kommt.
damit vulkan sich hier durchsetzt, müssen nvidia UND microsoft das zulassen. und zumindest für nvidia ist RTX gerade die hauptstrategie. sogar amd wird gezwungenermaßen zu allererst DXR unterstützen.
das ist alles ganz nett, wenn du den PC meinst. der PC ist aber eine "kleine" spieleplattform. genauso ist die xbox nur in den USA recht beliebt, aber rest der welt hat man eher PS. die PS4 ist mit abstand die größte spieleplattform und ich schätze, dass das auch die PS5 sein wird. dort gibts dann nunmal kein DX, also muss man raytracing anders umsetzen........ zB mit VULKAN
wie schon gesagt. spiele werden von konsole auf den PC portiert und ich hoffe mal, dass sich entwickler für VULKAN einsetzen werden.
Detroit: Become Human... war PS exklusiv und für PC gibt es dieses spiele jetzt mit vulkan
rdr2 hat beides, aber viele bevorzugen vulkan
TLDR: ich schätze, dass die PS5 maßgeblich entscheiden wird welche API sich auf dem PC durchsetzt. falls die PS5 VULKAN unterstützt, dann wird VULKAN gewinnen. falls die PS5 wieder irgendetwas eigenes macht wie bei der 4er, dann wird leider MS gewinnen
MaLow17 schrieb:
Äpfel-Birnen-Vergleich bzw. Vulkan 1.1.x VS Vulkan 1.2.x?
nein, kein äpfel birnen vergleich. ich sagte KANN und in den kommentaren wird auch erwähnt, dass er keinen unterschied mit seiner hardware hat
aber der unterschied ist sowieso minimal und weicht auch vom eigentlich thema ab.
was wir hier im augen haben müssen ist, dass ein WINDOWS SPIEL (bzw alle VULKAN spiele, die ich kenne) auf LINUX genauso gut läuft wie auf windows selbst, also es gäbe seit VULKAN rein aus performance gründen keinen grund warum man LINUX nicht verwenden sollte... es ist leider einfach nur noch die verbreitung
@MotherPink Nur um mal die Diskussion etwas zu beruhigen: Früher wurden alle CPU-Benchmarks hier auf CB in 720p erstellt. Damals wurde allerdings argumentiert, dass das etwas über die Leistung der CPU in der Zukunft aussagt. Seit in Tests von 2017 die AMD-Bullzoders die alten Sandy Bridges überholt haben, wissen wir, dass die Zukunft einer CPU völlig ungewiss ist. Oder wenigstens, dass man sagen muss, dass mehr Threads und Kerne in der Zukunft helfen, auch wenn sie heute ungenutzt sind.
Aber da man gesehen hat, dass die Tests damals nicht richtig interpretiert wurden, nutzt CB jetzt lieber ein "realistisches" Szenario für das CPU-Limit, das zeigt, welche CPU heute Vorzüge bietet.
Was du völlig zu Recht anmerkst, ist dass ein CPU-Test in 720p zeigt, wie sich das Spiel in Zukunft verhält (Patches mal ausgenommen). Das wäre in der Tat interessant zu wissen. Es gibt ja immer wieder Spiele, die einen fps-Lock haben oder deren Engine bei hohen fps limitiert, und da genau zu wissen, wo das aktuelle CPU-Limit ist, wäre sinnvoll. Dann könnte man in Zukunft, wenn mehr GPU-Leistung verfügbar ist und man das Spiel erneut spielt, direkt wissen, was man erwarten kann. Leider wird das hier nicht angeboten.
Ich muss aber auch sagen, dass ich die Bevorzugung von 1080p auf CB nachvollziehen kann.
weil ihr es anscheinend nicht verstehen könnt oder wollt - weil ihr den längsten Balken bei der CPU sehen wollt. Mehr steckt hinter eurem ganzem gejammer eigentlich nicht.
Wie wäre es damit, dass wir etwas über die Leistungsfähigkeit unserer CPUs wissen möchten?
Wie viel FPS kann ich denn mit meinem 3700X Ende des Jahres in Breakpoint erwarten, wenn ich mir Big Navi kaufe?
Die GPU schafft dann mehr als 80fps, aber schafft das auch die CPU?
Gäbe es doch nur eine Möglichkeit, das herauszufinden....
Ich würde aber darauf Wetten, dass ein 9900K dann aus Big Navi mehr fps holt, als mein 3700X.
Heschel schrieb:
CB hat hier die beste CPU mit unterschiedlichen Karten getestet.
CB hat hier die beste Grafikkarte mit unterschiedlichen CPUs getestet.
Du musst nur die Fähigkeit haben, diese zwei Tests gemeinsam zu betrachten, um zu wissen, welche CPU gebraucht wird bzw. welche CPU welche Leistung bringt.
Und was zeigen uns in diesem Fall beiden Tests? Die average FPS aller CPUs beim CPU Test sind nahezu gleich mit denen im GPU Test. Das bedeutet aber nicht, dass alle CPUs gleich viele FPS stemmen können, nur dass sie durch die 2080Ti mehr oder weniger stark limitiert werden.
Und das ist eine Info, die man dann angeben müsste, wenn man schon das GPU Limit nicht entfernen möchte.
Wie stark wurde die CPU denn belastet, während das Spiel sich im GPU Limit befand?
Hier mal ein Beispiel
Bis auf einen kleinen Ausreißer gegen Ende befinde ich mich mit meiner 5700XT hier komplett im GPU Limit, also vergleichbar mit diesem Test hier.
Wenn jetzt ein 9900K 15% mehr Leistung in diesem Spiel hat, würde man das nicht sehen, da wir ja weiterhin im GPU Limit sind, genau wie in diesem Test hier.
Was man aber sehen würde ist, dass die Auslastung der CPU niedriger sein dürfte als bei meinem 3700X im Bild.
Das würde uns dann sagen, dass der 9900K noch mehr Reserven hat.
Daraus lässt sich allerdings keine genaue Zahl bilden wie viel stärker ihn diese Reserven mit einer schnelleren GPU gepaart machen würden, man weiß aber definitiv schon mal dass er stärker sein wird.
Wer es genau haben möchte, der muss eben dafür sorgen, dass es erst gar kein GPU Limit beim Test gibt.
Und mir geht es da gar nicht mal um 720p im speziellen, meinetwegen kann man auch auf 1080p bleiben, aber man sollte für CPU Tests wenigstens alle Settings, die nur die GPU belasten, auf Low stellen oder abschalten.
Ergänzung ()
KarlsruheArgus schrieb:
Es ist von den TEs zuviel verlangt so etwas zu können, ebenso vom durchschnittlichen Leser. Der will ganz konkret die Daten sehen und sich nicht irgendwas herleiten müssen.
Der Leser muss sich aber doch so oder so etwas herleiten, außer dem der einen 9900K und eine 2080Ti besitzt, der ist der einzige, der die Zahlen driekt aus den Diagrammen für sich übernehmen kann.
Ansosnten bringen ihm die FPS Angaben bei den GPU Benchmarks auch nichts, da er nicht weiß, ob sein i5-2500K diese FPS überhaupt stemmen kann.
Dafür muss er im CPU test nachschauen, aber da wird ja für alles eine 2080Ti genommen, also muss er auch hier wieder abgleichen, ob seine GTX1080 denn so viele fps schafft, wie der 2500 mit der 2080Ti schafft.
Also da man sowieso keine direkt abblesbaren Werte für Jedermann anbieten kann, warum dann nicht die GPU tests im GPU Limit und die CPU Tests im CPU Limit machen?
Dann kommt bei der Herleitung wenigstens was sinnvolles raus.
Nö, dein komplettes Argument ist für die Katz.
Hat er Bspw. eine RTX2070S und einen R5 3600 kann er genau sehen wie viel FPS es geben wird. Vorausgesetzt: Selbe Auflösung und Settings. Da die drei häufigsten Auflösungen abgedeckt sind und die Settings einsehbar sind kann der Leser es direkt sehen und muss sich nix herleiten.
Edit: Es würde schon zu genüge darüber gemeckert. Wenn ihr was anderes wollt schaut bei PCGH oder vergleichbarem vorbei. Und spart euch diese Argumentation den Sie ist verständlich aber Sie ist nicht mit der Idee dieses Benchmarktyps vereinbar.
Nur um mal die Diskussion etwas zu beruhigen: Früher wurden alle CPU-Benchmarks hier auf CB in 720p erstellt. Damals wurde allerdings argumentiert, dass das etwas über die Leistung der CPU in der Zukunft aussagt.
Die Messungen sagen dir, wie schnell deine CPU mit einer zukünftigen, schnelleren GPU oder niedrigeren GPU lastigen Grafiksettings ist, weil der GPU Einfluss in 720p minimiert wird und somit die CPU die FPS bestimmt.
Colindo schrieb:
Seit in Tests von 2017 die AMD-Bullzoders die alten Sandy Bridges überholt haben, wissen wir, dass die Zukunft einer CPU völlig ungewiss ist.
Das hat mit dem Thema nur am Rande zu tun.
CPU´s mit mehr Kernreserven haben nach Jahren immer Vorteile.
Sprich ein 3900x kann den 9900K wohl in ein paar Jahren mit neuer Software schlagen.
Nö, dein komplettes Argument ist für die Katz.
Hat er Bspw. eine RTX2070S und einen R5 3600 kann er genau sehen wie viel FPS es geben wird. Vorausgesetzt: Selbe Auflösung und Settings. Da die drei häufigsten Auflösungen abgedeckt sind und die Settings einsehbar sind kann der Leser es direkt sehen und muss sich nix herleiten.
In diesem Beispiel hier ist es so, weil die CPU Tests sowieso im GPU Limit stattfanden und die FPS in beiden Tests daher gleich sind, der 3600 wird mehr als die 79fps können, die er hier hat, der 9900K allerdings nochmal mehr.
Aber was ist, wenn er in einem Spiel kombiniert mit 2080Ti im CPU Limit sagen wir 70fps kann, die 2070S aber im GPU Test 75fps schafft, weil sie mit einem 9900K getestet wurde?
Kann der Leser dann einfach auf den Wert vom GPU Test schauen und sagen, dass er 75fps bekommen wird?
Nein, er muss zusätzlich auf den CPU Test schauen, wo er gucken muss, was sein 3600 maximal schafft, und das wären dann 70, also wird er 70fps bekommen.
Hat er nur eine 2060, die 60fps schafft, bringt ihm andersrum der Blick auf die 70fps vom CPU Test alleine nichts, weil er da nur die FPS seines 3600 mit 2080Ti sieht.
So oder so, man muss IMMER beide Tests kombineiren, wenn den Wert für sein eigenes Setup haben möchte.
Also weil sich die Leistung einer CPU nach Patches eventuell mal um 2-3% verändern kann, ist es okay, schon direkt bei der Momentaufnahme 20% der Leistung einer CPU durch ein GPU Limit auszublenden?
Wenn man jetzt noch rausfinden könnte wo genau mehr frames den generischen Kackshooter genau interessanter und spielenswerter machen sollen wäre das top.
Wenn du eine GTX 1080 besitzt, musst du sowieso GPU und CPU Benchmarks miteinander abgleichen, damit du prüfen kannst ob deine CPU genug Frames für deine GPU und umgekehrt liefert.
In der aktuellen Methodik werden aber Informationen unterschlagen, zudem muss man die Tests deutlich öfter wiederholen, weil sie aufgrund des weiterhin stattfindenden GPU Bottlenecks spätestens bei einem neuen GPU Launch relativ wertlos sind.
KarlsruheArgus schrieb:
Hat er Bspw. eine RTX2070S und einen R5 3600 kann er genau sehen wie viel FPS es geben wird.
Wenn er GPU lastige Settings für mehr FPS reduziert, dann nicht mehr.
Auch kann er Ryzen 5 3600 nicht mit anderen CPU´s vergleichen um zu sehen, welche CPU mit der Engine besser klar kommt, welche man dann im Zweifel auch lieber erwirbt.
KarlsruheArgus schrieb:
Da die drei häufigsten Auflösungen abgedeckt sind und die Settings einsehbar sind kann der Leser es direkt sehen und muss sich nix herleiten.
Bei GPU´s reichen die typischen 3 Auflösungen, bei CPU´s langt eine niedrige um alle Kombinationen durchzugehen.
Gibt auch User die haben zum Beispiel ein 2080TI SLI System, für die ist der Test nicht so informativ.
Sorry, aber erzähle bitte keinen Bullshit! Nvidia hat von dem ersten Tag an RTX Extensions für Vulkan bereit gestellt und trotz dessen gab es selbst im Jahr 2019 noch nicht im Ansatz eine API für RT, die soll ja irgendwann in diesem Jahr kommen, mehr als zwei Jahre nachdem Microsoft DXR präsentiert hat.
vor turing war real time raytracing einfach kein aktuelles thema für die spielebranche. das ding kam erst auf den tisch, als nvidia und microsoft das mit dem turing launch der branche vorgesetzt haben.
nvidia und microsoft haben den gemeinsamen schritt "DXR" schon vor jahren geplant und gestartet; laut der lederjacke hat nvidia sogar 10 jahre an turing geforscht. nvidia hat sicherlich nicht 6 monate vor dem turing release nach einer softwarelösung für ihre raytracing hardware gesucht und microsoft war da zufällig zur stelle.
Architected to support ray tracing through a variety of interfaces, NVIDIA partnered closely with Microsoft to enable full RTX support for applications that use Microsoft's new DirectX Raytracing (DXR) API.
"DirectX Raytracing is the latest example of Microsoft's commitment toward enabling developers to create incredible experiences using cutting-edge graphics innovations," said Max McMullen, development manager of Windows Graphics and AI at Microsoft. "Our close partnership with NVIDIA on DirectX Raytracing and NVIDIA's RTX technology brings real-time ray tracing closer than ever for millions of gamers on Windows."
natürlich will nvidia auch rtx support für vulkan, aber die khronos group war eben nicht der launch-partner, sondern microsoft, dementsprechend hat die kooperation mit microsoft schon jahre vorsprung.
hinter dx12 und RTX stehen jeweils gewaltige wirtschaftliche interessen. die raytracing integration in vulkan ist nicht ansatzweise so lukrativ für irgendeinen player wie dx12+rtx für nvidia und microsoft.
RTX erfüllt für nvidia genau den gleichen zweck wie vorher gameworks tessellation und physx. nvidia hat sich nicht die traurigen gesichter der gamer ob der "unrealistischen" beleuchtung in spielen angesehen und gedacht "HEUREKA - wir helfen mit raytracing". nvidia hat nach einem weg gesucht um sich die konkurrenz vom hals zu halten - diesmal über einen mehrjährigen forschungsaufwand, den so schnell keiner aufholen kann, weil daran niemand bis zur marktreife für consumer geforscht hat und das ganze doch recht schwierig mit der aktuellen performance von gpus ist.
raytracing auf turing gpus ist zwar eine nette machbarkeitsstudie, aber letztendlich isses bei der performance eher eine spielerei mit vielen technischen kniffs - aber nvidia war erster und hats geschafft das ganze in die köpfe der leute zu pflanzen. und nvidia wird auch in den nächsten jahren in sachen raytracing performance durch den forschungsvorsprung von mehreren jahren immer die nase vorne haben. nvidia wird das ding so lange pushen, bis das vollkommen im mainstream angekommen ist. intel wird in den nächsten jahren kaum eine gpu auf die beine bekommen, die überhaupt real time raytracing in spielen performant berechnen kann, und amd hängt hier mindestens 1-2 generationen zurück. auch wenn turing noch recht lahm ist, die nächste generation von nvidia wird hier deutlich zulegen, und wir wissen nicht, wie gut oder schlecht amd das ganze bewerkstelligt bekommt.
es ist auch gut vorstellbar, dass nvidia amd hier so weit abhängt, dass nvidia die doppelte bis dreifache raytracing performance hinbekommt. damit wären wir mal wieder bei der monopolstellung von nvidia.
auf der anderen seite muss man sich natürlich auch fragen, ob das jetzt nötig war. so langsam kommt 4k im mainstream an - in den nächsten 1-2 jahren werden 4k 144hz und wqhd 240hz displays ein thema sein, und anstelle an der generellen performance der gpus zu arbeiten, wird ein nebenkriegschauplatz aufgemacht, der eher eine performance-regression nach sich zieht.