Also ich würde mal Grakas mit vergleichbarer Leistung vergleichen, eine GTX1070 ist einer RX480 deutlich überlegen, da kommt die CPU eher als Limit als die GPU und damit zeigen sich dann die Unterschiede in der Spieleperformance zwischen den CPUs auch deutlicher. Ein Beleg für die Schuld des Treibers von NVidia ist das also nicht. Wartet mal so einen Vergleich mit Vega ab, vielleicht regen sie dann auch einige auf das AMD zu blöd war den eigenen Treiber auf seine eigenen CPUs zu optimieren
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ryzen Gaming "Debakel" = Nvidias Schuld?
- Ersteller joextra
- Erstellt am
@Holt
Zeit zum Schreiben hattest du offensichtlich, wohl aber nicht um das Video gründlich anzusehen.
Zumindest hast du mal überhaupt nichts verstanden. Es geht nicht um die absolute Leistung zwischen 480 und 1070, sondern um die relativen Leistungen in den verschiedenen Szenarien.
Zeit zum Schreiben hattest du offensichtlich, wohl aber nicht um das Video gründlich anzusehen.
Zumindest hast du mal überhaupt nichts verstanden. Es geht nicht um die absolute Leistung zwischen 480 und 1070, sondern um die relativen Leistungen in den verschiedenen Szenarien.
Und die relative Leistung ist natürlich auch davon abhängig ob die CPU am Limit oder die GPU, bei einer schnelleren GPU wird die CPU öfter am Limit sein und damit zeigt sich dann auch erst deren Leistung. Deshalb testet CB ja auch in CPU Reviews die Gamingperformance mit geringen Einstellungen, sonst wären ja die Ergebnisse im Rahmen der Messgenauigkeit alle gleich, was so schon oft genug zu sehen ist. Wer hat hier also was nicht verstanden?
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
@holt
herrje - wie blind muss man sein
welchen Grund sollte es geben das ein Ryzen unter DX12 massiv langsamer läuft , während ne Intel CPU beschleunigt wird ?
warum passiert dieses ausbremsen des Ryzen unter DX12 nur mit Nvidia Graka ? wärend Intel wie Ryzen unter DX12 mit AMD Graka gleichermassen beschleunigt werden ?
wäre die GPU am Limit würde es weder für AMD noch Intel CPU mehr FPS geben ...
begreifen hat auch was mit begreifen wollen zu tun
aber du warst , wenn ich mich nicht irre ja auch derjenige , der nen Ryzen Test gepostet hat an dem rummanipuliert wurde damit die Intel CPU s nicht so abstinken , gell ?
wolltest allen erstes behaupten , wer in leerlauf möglichst viel watt verbraucht und damit zur Vollast möglichst wenig Differenz hat , wäre ja ach so leistungsfähig , so viel besser , als der Ryzen , der in allen Test 45 w im Leerlauf hatte , wärend sein Intel Pendants in einem 65 , und in dem anderen angeblich 100 w im leerlauf verbrauchten , dadurch wird man ja ach so leistungsfähig pro Watt
Das war Bullshit in Reinkultur
wenns keine Absicht war , wars auf jeden Fall nicht durchdacht und verarschung von Otto Normaluser
herrje - wie blind muss man sein
welchen Grund sollte es geben das ein Ryzen unter DX12 massiv langsamer läuft , während ne Intel CPU beschleunigt wird ?
warum passiert dieses ausbremsen des Ryzen unter DX12 nur mit Nvidia Graka ? wärend Intel wie Ryzen unter DX12 mit AMD Graka gleichermassen beschleunigt werden ?
wäre die GPU am Limit würde es weder für AMD noch Intel CPU mehr FPS geben ...
begreifen hat auch was mit begreifen wollen zu tun
aber du warst , wenn ich mich nicht irre ja auch derjenige , der nen Ryzen Test gepostet hat an dem rummanipuliert wurde damit die Intel CPU s nicht so abstinken , gell ?
wolltest allen erstes behaupten , wer in leerlauf möglichst viel watt verbraucht und damit zur Vollast möglichst wenig Differenz hat , wäre ja ach so leistungsfähig , so viel besser , als der Ryzen , der in allen Test 45 w im Leerlauf hatte , wärend sein Intel Pendants in einem 65 , und in dem anderen angeblich 100 w im leerlauf verbrauchten , dadurch wird man ja ach so leistungsfähig pro Watt
Das war Bullshit in Reinkultur
wenns keine Absicht war , wars auf jeden Fall nicht durchdacht und verarschung von Otto Normaluser
Zuletzt bearbeitet:
Das passiert doch (GPU Limit) aber bei einer RX 470 und 1060 3G wesentlich schneller und die RX 470 ist schon deutlich schwächer als die 1060 von der Rohleistung, trotzdem kann die RX 470 mit Ryzen, eine 1060 3G plötzlich bei DX12, um mehr als 30% wegziehen (mit Ryzen).
Glaubst du, dass wird mit einer RX 580 nicht auch passieren, wenn Nvidia NICHT an seinen DX12 Treibern für RYzen arbeitet?
Und die nächst größere Karte ist nun mal die 1070 und die Videos zeigen ja schon von Divsion und Tombraider (hier RX 480 Crossfiregespann), wie eklatant die Unterschiede sind.
Ich schreibe ja extra die ganze Zeit ausschließlich für DX12, bei DX11 ist es ja nicht so!
Glaubst du, dass wird mit einer RX 580 nicht auch passieren, wenn Nvidia NICHT an seinen DX12 Treibern für RYzen arbeitet?
Und die nächst größere Karte ist nun mal die 1070 und die Videos zeigen ja schon von Divsion und Tombraider (hier RX 480 Crossfiregespann), wie eklatant die Unterschiede sind.
Ich schreibe ja extra die ganze Zeit ausschließlich für DX12, bei DX11 ist es ja nicht so!
Nochmal für Holt die Erkenntnis dass sich "relativ" die Gameperformance wie folgt darstellt:
Beispiel mit 7700K / R1800X vs 1070 OC
=> Intel CPU + nV GPU DX12/DX11 = 101/108 FPS = 94%
=> AMD CPU + nV GPU DX12/DX11 = 64/104 FPS = 62%
Wir setzen jetzt einfach mal Intel CPU + nV GPU = 100%
und erhalten dann AMD CPU + nVidia GPU = 100/94*62 = 66%
Wir sehen die AMD CPU ist 50% langsamer bei der Kombo...man KÖNNTE nun annehmen die CPU-Packts nicht und daher die miese Performance.
Jetzt wechseln wir einfach die GPU - dabei ist es egal auf welche Stufe da wir NICHT im GPU-Limit messen.
Beispiel mit 7700K / R1800X vs 2x R9 480
=> Intel CPU + AMD GPU DX12/DX11 = 113/98 FPS = 115%
=> AMD CPU + AMD GPU DX12/DX11 = 113/101 FPS = 112%
Wir setzen jetzt wieder Intel CPU + nV GPU = 100%
und erhalten dann AMD CPU + nVidia GPU = 100/115*112 = 97%
BEIDE Tests sind im CPU-Limit und nicht im GPU-Limit.
=> Natürlich liegt es am Nvidia Treiber, er kennt die neue Ryzen Architektur halt nicht und kackt deswegen einfach mal um 50% ab.
Es könnte auch am Spiel liegen das in Kombination mit dem nVidia treiber so abkackt....allerdings sollte das dann NUR bei dem Spiel auftreten...
Fakt ist es tritt eigentlich in allen Spielen mit nVidia@DX12 auf.
=> Es liegt sehr wahrscheinlich am nVidia Treiber. Da es quasi KEINEN Review gibt in dem im Vergleich AMD und nVidia GPUs getestet wurden - sind wir momentan einfach noch auf youtuber angewiesen die hier input liefern.
Beispiel mit 7700K / R1800X vs 1070 OC
=> Intel CPU + nV GPU DX12/DX11 = 101/108 FPS = 94%
=> AMD CPU + nV GPU DX12/DX11 = 64/104 FPS = 62%
Wir setzen jetzt einfach mal Intel CPU + nV GPU = 100%
und erhalten dann AMD CPU + nVidia GPU = 100/94*62 = 66%
Wir sehen die AMD CPU ist 50% langsamer bei der Kombo...man KÖNNTE nun annehmen die CPU-Packts nicht und daher die miese Performance.
Jetzt wechseln wir einfach die GPU - dabei ist es egal auf welche Stufe da wir NICHT im GPU-Limit messen.
Beispiel mit 7700K / R1800X vs 2x R9 480
=> Intel CPU + AMD GPU DX12/DX11 = 113/98 FPS = 115%
=> AMD CPU + AMD GPU DX12/DX11 = 113/101 FPS = 112%
Wir setzen jetzt wieder Intel CPU + nV GPU = 100%
und erhalten dann AMD CPU + nVidia GPU = 100/115*112 = 97%
BEIDE Tests sind im CPU-Limit und nicht im GPU-Limit.
=> Natürlich liegt es am Nvidia Treiber, er kennt die neue Ryzen Architektur halt nicht und kackt deswegen einfach mal um 50% ab.
Es könnte auch am Spiel liegen das in Kombination mit dem nVidia treiber so abkackt....allerdings sollte das dann NUR bei dem Spiel auftreten...
Fakt ist es tritt eigentlich in allen Spielen mit nVidia@DX12 auf.
=> Es liegt sehr wahrscheinlich am nVidia Treiber. Da es quasi KEINEN Review gibt in dem im Vergleich AMD und nVidia GPUs getestet wurden - sind wir momentan einfach noch auf youtuber angewiesen die hier input liefern.
Zuletzt bearbeitet:
berkeley
Commander
- Registriert
- März 2006
- Beiträge
- 2.487
Ich finde es ehrlich gesagt auch ziemlich schwach, dass es diesbezüglich kein Reviews gibt. Aber nicht nur von CB sondern praktisch von allen offiziellen Testern. Die DX12 Ungereimtheiten sind ja nicht erst seit gestern bekannt sondern schon fast ein Monat.Iscaran schrieb:=> Es liegt sehr wahrscheinlich am nVidia Treiber. Da es quasi KEINEN Review gibt in dem im Vergleich AMD und nVidia GPUs getestet wurden - sind wir momentan einfach noch auf youtuber angewiesen die hier input liefern.
Youtuber erweisen sich im Vergleich zu "konventionellen" Medien immer mehr zu einer praxisnäheren Anlaufstelle.
Ich finde es ehrlich gesagt auch ziemlich schwach, dass es diesbezüglich kein Reviews gibt.
Und noch schwächer finde ich dass es auch quasi nirgends angegeben wird wie nun die Lastverteilung aussah in den gewählten Einstellungen...
Wahrscheinlich deshalb weil sonst einfach zu offensichtlich wäre dass 90% der games im "engine" Limit sind und WEDER CPU noch GPU 100% auslasten können.
Ich wünschte mir bei einem CPU-Test mit Games einfach immer die Angabe %CPU-Last Alle Kerne | % Kern1 | % Kern 2 usw. + %GPU-Last.
Schon "mittelwerte" können hier ein gutes Bild zeichen. Oder So was ähnliches wie percentile CPU-Lastdarstellung etc....wenn man schon frametime diagramme machen kann dann kann man doch mit denselben tools sicherlich auch CPU-Lasten und GPU-Lasten zu den jeweiligen Frames mit ausgeben lassen ?
Holt schrieb:Also ich würde mal Grakas mit vergleichbarer Leistung vergleichen, eine GTX1070 ist einer RX480 deutlich überlegen, da kommt die CPU eher als Limit als die GPU und damit zeigen sich dann die Unterschiede in der Spieleperformance zwischen den CPUs auch deutlicher. Ein Beleg für die Schuld des Treibers von NVidia ist das also nicht. Wartet mal so einen Vergleich mit Vega ab, vielleicht regen sie dann auch einige auf das AMD zu blöd war den eigenen Treiber auf seine eigenen CPUs zu optimieren
Deswegen sind es ja 2 480 im Crossfire.
Und mit DX 11 läuft die Geforce ja auch super. An wem soll es denn sonst liegen? An AMD vielleicht?
SLI und Crossfire sind kein Ersatz für eine stärkere Graka, ähnlich wie bei einem RAID 0 skaliert die Leistung dabei nicht alle Aspekten linear und es kommen weitere hinzu die bei einer einzelne Graka nicht vorhanden sind. Die hinkt, bzw. sitzt im Rollstuhl, aber sachliche Argumente sind hier kaum gewünscht da es den meisten Teilnehmen alleine um die Verteuflung anderer Anbieter als AMD geht, daher bin ich hier raus.
AW: Ryzen Gaming "Debakel" = Nvidias Schuld?
Ändert trotzdem was am Fehler? Mir ist übrigens kein Fehler bekannt in dem Cpu a bei einer Single Gpu einen Bug zeigte und mit CPU nicht, es aber bei einer anderen Karte im Sli/Crossfire nicht. Nicht mal umgekehrt. Das Crossfiregespann bietet eine ähnliche Leistung wie die Geforce und ist trotz der Probleme, die man mit Crossfire hat, unter Dx11 und 12 ähnlich schnell.
Ändert trotzdem was am Fehler? Mir ist übrigens kein Fehler bekannt in dem Cpu a bei einer Single Gpu einen Bug zeigte und mit CPU nicht, es aber bei einer anderen Karte im Sli/Crossfire nicht. Nicht mal umgekehrt. Das Crossfiregespann bietet eine ähnliche Leistung wie die Geforce und ist trotz der Probleme, die man mit Crossfire hat, unter Dx11 und 12 ähnlich schnell.
Zuletzt bearbeitet:
syfsyn
Admiral
- Registriert
- Nov. 2010
- Beiträge
- 8.228
Ich habe schon länger den verdacht das Microsoft dx12 extra wegen amd mantle entwickelt hat was später als vulkan mit ogl zusammengelegt wurde.
Auffällig ist das Dx12 nur gcn Technik einsetzt um Performance zu gewinnen bei cpu overhead
Das nvidia eine hardware Anpassung nicht in ihren Produkten einsetzen kann. Diese nvidia nicht in ihren gpu einbaut
Weil 2 völlig verschiedene GPu Architekturen sind.
gcn und später alle multi core based Parallele Verarbeitung. Die konträr zu dx11 ist
nvidia dx11 konforme gpu mit einen tweak das die cpu als ganzes angesprochen wird. also die drawcalls aufgeteilt werden auf alle Kerne. Vorteil kein limitierender ein Kern thread Nachteil keine Addition von CPU Kernen(ipc Steigerung).
Wenn nvidia das ändern wollen würde müsste nvidia gcn basierende gpu arch bauen.
Und nvidia wird nen Teufel tun und amd um Lizenzen betteln.
Das ist der offizielle Tot von dx12, vulkan zeigt deutlich das auch ohne amd gpu Optimierung mehr Leistung geht.
zwar wird opengl (wegen vukan) dadurch deutlich konkurrenzfähiger und erreicht dieselben Ergebnisse wie nvidia mit dx11.
Aber bei vulkan geht es primär um die Lösung von Windows als Spielbasis bzw um den Erhalt von win 7
win 10 ist derzeit absolut nicht praxistauglich.
Auffällig ist das Dx12 nur gcn Technik einsetzt um Performance zu gewinnen bei cpu overhead
Das nvidia eine hardware Anpassung nicht in ihren Produkten einsetzen kann. Diese nvidia nicht in ihren gpu einbaut
Weil 2 völlig verschiedene GPu Architekturen sind.
gcn und später alle multi core based Parallele Verarbeitung. Die konträr zu dx11 ist
nvidia dx11 konforme gpu mit einen tweak das die cpu als ganzes angesprochen wird. also die drawcalls aufgeteilt werden auf alle Kerne. Vorteil kein limitierender ein Kern thread Nachteil keine Addition von CPU Kernen(ipc Steigerung).
Wenn nvidia das ändern wollen würde müsste nvidia gcn basierende gpu arch bauen.
Und nvidia wird nen Teufel tun und amd um Lizenzen betteln.
Das ist der offizielle Tot von dx12, vulkan zeigt deutlich das auch ohne amd gpu Optimierung mehr Leistung geht.
zwar wird opengl (wegen vukan) dadurch deutlich konkurrenzfähiger und erreicht dieselben Ergebnisse wie nvidia mit dx11.
Aber bei vulkan geht es primär um die Lösung von Windows als Spielbasis bzw um den Erhalt von win 7
win 10 ist derzeit absolut nicht praxistauglich.
Zuletzt bearbeitet:
Touchthemars
Banned
- Registriert
- Feb. 2007
- Beiträge
- 332
Früher oder später wird es Nvidia schon noch bereuen, wenn sie weiterhin auf DX11 setzen. Wenn Vega auch so einschlägt wie Ryzen, werden die Spielehersteller erst recht auf DX12 umschwenken.
Ach ja neues Video. Danke an BlauX.
Auch eine 470 vs 1060 zeigt den selben Fehler.
https://www.youtube.com/watch?v=fTJi_gLyXQQ
Auch eine 470 vs 1060 zeigt den selben Fehler.
https://www.youtube.com/watch?v=fTJi_gLyXQQ
Nehmen wir die verbuggeden nVidia DX12 Treiber mal aus der Ryzen-Performance raus ist der 7700K und der 1800X quasi gleichauf @Stock:
Anhang anzeigen 615908
Dann ist von der Spieleschwäche eigentlich nichts mehr übrig. Ich hoffe mal das CB das dann beim nächsten Test auch mal ein bisschen richtig stellt...im eigenen Fazit.
Taktvorteil von 13% des 7700 mit 4.5GHz Turbo vs 4.0 GHz beim 1800X ist ja auch noch in den Graphen drin und dennoch nur 2% vorn im Rating.
Anhang anzeigen 615908
Dann ist von der Spieleschwäche eigentlich nichts mehr übrig. Ich hoffe mal das CB das dann beim nächsten Test auch mal ein bisschen richtig stellt...im eigenen Fazit.
Taktvorteil von 13% des 7700 mit 4.5GHz Turbo vs 4.0 GHz beim 1800X ist ja auch noch in den Graphen drin und dennoch nur 2% vorn im Rating.
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.944
also ich hab da so meine zweifel. die 1080 ti news hat bisher 13 updates, das ryzen review 1 - und das ist nicht mal korrekt
cb wird entweder nur mit nvidia benchen, oder es gibt "keinen unterschied", weil man die wichtigen parameter mit absicht oder aus schlampigkeit verbockt hat. würde mich auch schon stark wundern, wenn wir nen 3200mhz ramtakt sehen, der wirklich schneller ist als 2133
cb wird entweder nur mit nvidia benchen, oder es gibt "keinen unterschied", weil man die wichtigen parameter mit absicht oder aus schlampigkeit verbockt hat. würde mich auch schon stark wundern, wenn wir nen 3200mhz ramtakt sehen, der wirklich schneller ist als 2133
duskstalker
Admiral
- Registriert
- Jan. 2012
- Beiträge
- 7.944
vega ist praktisch fury 2.0, ich hab da nur sehr kleine hoffnungen, dass das ein faires und neutrales review wird.
um mal wieder ein aktuelles spiel in den parkour aufzunehmen, böte sich ja ME: andromeda an mit schön gimpworks tesselation drin. CB hat ja schon gezeigt, dass sie keine skrupel haben, die amd karten mit voller tesselation durch die benchmarks zu knüppeln.
um mal wieder ein aktuelles spiel in den parkour aufzunehmen, böte sich ja ME: andromeda an mit schön gimpworks tesselation drin. CB hat ja schon gezeigt, dass sie keine skrupel haben, die amd karten mit voller tesselation durch die benchmarks zu knüppeln.
MK one
Banned
- Registriert
- März 2017
- Beiträge
- 4.889
endlich hat mal einer etwas genauer hingeschaut
https://www.youtube.com/watch?v=V1XHdWVKRkA
offenbar gibt s den Treiber Bug , durch schnelleres Ram wird er beim Ryzen offenbar abgemildert
aber er tritt mitunter auch bei einem Intel zutage , jedoch nicht so drastisch und so oft
Der Nvidia DX12 Treiber scheint MÜLL zu sein
und was hier anzumerken ist , Reviews und Tests werden natürlich mit Standardtakt gemacht ( 2400 /2666 , wo der Ryzen offenbar am stärksten ausgebremst wird ) , allenfalls wird noch mit schnellerem Ram nachgetestet ...
https://www.youtube.com/watch?v=V1XHdWVKRkA
offenbar gibt s den Treiber Bug , durch schnelleres Ram wird er beim Ryzen offenbar abgemildert
aber er tritt mitunter auch bei einem Intel zutage , jedoch nicht so drastisch und so oft
Der Nvidia DX12 Treiber scheint MÜLL zu sein
und was hier anzumerken ist , Reviews und Tests werden natürlich mit Standardtakt gemacht ( 2400 /2666 , wo der Ryzen offenbar am stärksten ausgebremst wird ) , allenfalls wird noch mit schnellerem Ram nachgetestet ...
Ähnliche Themen
- Antworten
- 6
- Aufrufe
- 1.428