Notiz GeForce Game Ready: Version 416.16 für DXR und RTX 2080 (Ti)

t3chn0 schrieb:
Die FE ist aber schon etwas auf der lauteren Seite =).

Jetzt kommt echt eins zum anderen. Ich habe eben mal ein Bios Update gemacht und habe den 8700K @ Stock mit DDR4-2133Mhz laufen lassen. Poah ey, wenn man kein 60Hz Freund ist, dann vergeht einem dabei echt alles. Ich finde das so ruckelig wenn die Kiste mit 6x 4.3Ghz läuft. Wie machen die Leute das mit Ihren Ryzen, die ja eher noch langsamer sind.

GPU-Load beträgt damit immer ca. 65% und die CPU läuft absolut am Limit.

Ja der Intel ist Stock ein brutaler Krüppel.

t3chn0 schrieb:
Nun ist es so, dass man für mehr Takt natürlich auch mehr Vcore benötigt. Die FE ist schon ein ordentliches Heizwerk, ganz ehrlich. Ich habe ein Carbide Air 540 Case mit 5x 140mm Noctua Lüftern und die Stauhitze ist brutal im Case, obwohl es eines der Besten Airflow Cases überhaupt ist. Diese Hitze sorgt dann auch dafür, dass der Radiator oben am Case richtig schön die Wärme von der FE mampfen kann. Das treibt die Temperaturen der CPU enorm nach oben. Bei 5Ghz (ohne DELID) komme ich auf 88-90° C CPU Temperatur. Das ist untragbar. Von daher kann ich jetzt nur noch mit 4.8Ghz spielen und erreiche damit ca. 75°C beim spielen. Doch die 4.8Ghz sind noch immer bei weitem nicht genug um die Karte auch nur halbwegs ordentlich auszulasten.

Habe auch ein Carbide 540 :-)
Aber in Temp Probleme komme ich zum Glück nicht :-)
20181006_214542.jpg

Setup:
5.2 Ghz Core / 4.8 Ghz Uncore /AVX Offset 0
FE: Core +145 / Mem +1000 / PL 123% /CoreVoltage +100

Max Temps während nem TimeSpy Run:
CPU im CPU Test: ~65°C mit Peaks auf 75°C
GPU: Max 45°C

Zieht aber 500 Watt aus der Steckdose :-O

Meiner Meinung nach muss auf die FE auf jeden Fall ein WaKü Block drauf.
Die Lüfter sind einfach zu laut.

Und ja, alles unter 5 Ghz und entsprechendem RAM lastet die 2080Ti nicht voll aus.

ACO - Alexandria - WQHD - Ultra: ~90% GPU Auslastung :-x
Assassin's Creed  Origins Screenshot 2018.10.06 - 22.07.40.07.png

VG
 
Zuletzt bearbeitet:
Ich hatte lange Zeit eine Custom WK, aber ich war es einfach leid 1x im Jahr den kompletten Kreislauf zu leeren um neues Fluid einzufüllen. =P

Man merkt einfach wie viel Hitze da entsteht. Guck mal, 65°C trotz Delid und fetter WK , das ist schon echt herb. Mir bleibt nichts anderes übrig als jetzt auf den 9900K zu warten. Der kommt ja quasi schon delid ^^.

Hab jetzt wieder die TrioX OC drin und finde die Karte ingesamt einfach stimmiger. Unter Last wirklich nur 64°C und das bei unhörbaren 800+900+1100 RPM auf den Lüftern. Das ist komplett irre. Der Kühler ist genial. Wenn ich von außen an die Scheibe fasse, ist das gesamte System deutlich kühler als mit der FE.

Die Auslastung der Karte beträgt nun ca. 68-85% auf Amiens in BF1. Man merkt hier ganz klar, dass die Karte weniger Luft nach oben hat, im Gegensatz zur 2080Ti. 160-190FPS schafft die 2080 jedoch auch, je nach Situation.

Die Geräuschkulisse und die Temperaturen lassen mich derzeit stark zur 2080 tendieren. Ich teste gleich nochmal mit Speicher @ 4000Mhz und CPU @ 4.8Ghz Allcore.

Egal wie, ich finde beide Karten schon extrem gut. Perfekt wäre wohl für mich die 2080Ti TrioX OC =).
 
  • Gefällt mir
Reaktionen: Esenel
Esenel schrieb:
Und ja, alles unter 5 Ghz und entsprechendem RAM lastet die 2080Ti nicht voll aus.

ACO - Alexandria - WQHD - Ultra: ~90% GPU Auslastung :-x
Anhang anzeigen 715031

Nö, stell halt die Settings höher. ACO bietet auch Resolution Scale. Zusammen mit DSR könntest du die Karte 8K rendern lassen, nur wird da der VRAM am Ende sein und von einem flüssigen Spielerlebnis hat man dann auch nichts mehr. Dann stell halt mittel RS auf 4K und schon hast du volle Auslastung, auch ohne 5Ghz CPU und entsprechenden RAM.

GPUs bekommt man immer klein, wenn man Regler bedienen kann.

Guck dir nur mal HisNs RTX 2080 Ti Screenshot zu FarCry 5 an. 11,5GB VRAM voll und die Leistung bricht weg.
 
  • Gefällt mir
Reaktionen: Lübke82
SKu schrieb:
Nö, stell halt die Settings höher. ACO bietet auch Resolution Scale. Zusammen mit DSR könntest du die Karte 8K rendern lassen, nur wird da der VRAM am Ende sein und von einem flüssigen Spielerlebnis hat man dann auch nichts mehr. Dann stell halt mittel RS auf 4K und schon hast du volle Auslastung, auch ohne 5Ghz CPU und entsprechenden RAM.

GPUs bekommt man immer klein, wenn man Regler bedienen kann.

Guck dir nur mal HisNs RTX 2080 Ti Screenshot zu FarCry 5 an. 11,5GB VRAM voll und die Leistung bricht weg.

Ja das kann man machen, wenn man die GPU ärgern will.

Ich will aber lieber 165 fps in WQHD auf Ultra :-)
Dazu fehlen in der Szene leider noch 63 :-(
 
Wirst du nicht bekommen, weil es keine CPU gibt, die diese FPS halten kann. Erst recht nicht in Assasins Creed bzw. beim neuen Ableger Odyssey. Auch nicht darüber wundern, dass es beim neuen Tomb Raider auch nicht der Fall sein wird. Die min. fps die ein 8700K oder 8086K dort liefern kann liegen weit unter den 165.

Das sind keine High-FPS-Games und auch nicht darauf ausgelegt.
 
  • Gefällt mir
Reaktionen: Lübke82 und grossernagus
Esenel schrieb:
Ich will aber lieber 165 fps in WQHD auf Ultra :-)
Man kann auch komplett rumspinnen! Wozu bei einem Assassins Creed?
 
  • Gefällt mir
Reaktionen: Lübke82
SKu schrieb:
Wirst du nicht bekommen, weil es keine CPU gibt, die diese FPS halten kann. Erst recht nicht in Assasins Creed bzw. beim neuen Ableger Odyssey. Auch nicht darüber wundern, dass es beim neuen Tomb Raider auch nicht der Fall sein wird. Die min. fps die ein 8700K oder 8086K dort liefern kann liegen weit unter den 165.

Das sind keine High-FPS-Games und auch nicht darauf ausgelegt.
Da kann man wieder nur hoffen, dass die Hersteller bald "mesh shader" bzw. "primitive shader" der neuen nVidia/AMD GPUs einsetzen. Dann hätte sich das Thema CPU Limit aufgrund von Drawcalls/Komplexität der Szene vorerst erledigt.

@grossernagus
Jedem Tierchen sein pläsierchen

Grüße
Zero
 
  • Gefällt mir
Reaktionen: Esenel
Also, ich muss schon sagen, irgendwie bin ich nun von meiner CPU enttäuscht ^^.

Selbst in 2560x1080P auf High Settings, schaffe ich es nicht konstant 144FPS zu haben. Ich bin mir relativ sicher (will meine Hand dafür aber nicht ins Feuer legen), dass ich mit Pascal, bzw. dem 399er Treiber diese Probleme nicht hatte. Ich bin mir zu 90% sicher dass ich da immer ca. 170-200FPS hatte was die reine CPU Leistung angeht.

Wirklich schlimm war es mit 8700K @ Stock und Ram@2133Mhz, das geht gar nicht. Der Unterschied beim RAM ist enorm. Mit 5Ghz und 2133er RAM gibt es ständig Drops auf 100-110 FPS was das Spiel richtig ruckelig macht. Ich bin dann auf 3600Mhz gegangen und siehe da, die Drops gehen nur noch auf 125-130 FPS.

Dennoch spielt es sich nicht smooth trotz 5Ghz Allcore und 3600Mhz Speicher. Die 2080 läuft dann konstant mit 80-94% GPU-Load. Es muss sich also zwangsläufig um ein CPU Limit handeln.

Ich kann den 9900K kaum erwarten.
 
@t3chn0
Schalt mal testweise HT ab...

@Esenel
An Deinem ACO - Alexandria Bild sieht man sehr schön das CPU Limit, welches an der Singlecoreleistung festzumachen wäre (Core 0) auf 94%.

Ist schon heftig, dass man die 2080 TI selbst mit einem einigermaßen getakteten 8700er oftmal selbst bei höheren Auflösungen nicht 99% ausgelastet kriegt.

Grüße
Zero
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Ich habe eben mal ein Bios Update gemacht und habe den 8700K @ Stock mit DDR4-2133Mhz laufen lassen. ....Ich finde das so ruckelig wenn die Kiste mit 6x 4.3Ghz läuft. Wie machen die Leute das mit Ihren Ryzen, die ja eher noch langsamer sind.

Der Ryzen gleicht das halt mit 2 Kernen mehr besser aus als der 8700k. Der hat halt nun mal nur 6/12 und wenn du ihn dann so unter seinen Möglichkeiten betreibst, kann er sich auch mit dem Takt nicht mehr vor 8/16 von den Ryzen CPU's retten.

Grundsätzlich sieht das aber für mich eher danach aus als ob der Treiber momentan einfach nicht gut die GPU auslastet. Auch mit 6 Kernen a 4,3 Ghz sollte das kein Problem sein. (die Min FPS würden natürlich durch 2133er Ram trotzdem EXTREM leiden).
 
Battlefield ist einfach der ideale Titel für eine Lowlevel API. Leider hat EA/Dice DX12 einfach komplett desolat implementiert. Ich habe selbst die 2080 noch nicht 1x auf 98%+ Load gehabt.

System läuft jetzt mit 5Ghz, DDR4 4133Mhz CL17-17-17-32 und 4500Mhz Cache.

Wenn ich auf 1024x768 runtergehe in der gleiche Szene, erhalte ich ca. 10FPS mehr, obwohl die GPU zuvor auch nur zu 90% ausgelastet war. Mit OC boosted die Karte auf 2050Mhz bei 8000Mhz Speicher. Die Karte bleibt weiterhin unhörbar und erreicht 66°C.

Ich werde gleich mal die Res. Skala auf 200% setzen und mal gucken wie viele FPS ich dann noch habe und dass dann auch mal mit der Ti vergleichen.
 
Ich habe es vorhin mal mit dem 2700x + RTX 2080 getestet.
AVG GPU Load lag bei 85%, der maximale Wert war 96%.
WQHD + Ultra

Rein von der Visiblity her würde ich aber sowieso einiges auf LOW stellen. Da gibt es dann eh nur noch CPU Limit. FPS sind aber normal >100, was mir reicht. FPS Cap greift bei mir sowieso bei 142.
 
t3chn0 schrieb:
Ich kann den 9900K kaum erwarten.

Was soll der ändern? Der läuft ab Werk mit 5Ghz und wird kaum noch Spielraum für OC bieten. Der wird pro Kern nicht schneller sein als ein 8700K mit 5Ghz.
ZeroZerp schrieb:
Da kann man wieder nur hoffen, dass die Hersteller bald "mesh shader" bzw. "primitive shader" der neuen nVidia/AMD GPUs einsetzen. Dann hätte sich das Thema CPU Limit aufgrund von Drawcalls/Komplexität der Szene vorerst erledigt.

@grossernagus
Jedem Tierchen sein pläsierchen

Grüße
Zero

Rein ökonomisch macht es für die Entwickler derzeit wohl keinen Sinn auf die Primitive Shader von Vega oder das Mesh Shading von Turing zu setzen, weil der potenzielle Käuferkreis für darauf optimierte Software schwindend gering ausfällt. Zumal bei den Primitive Shadern auch die Rede davon ist, dass die API an sich erst einmal angepasst werden müsste - DX12 oder Vulkan im Optimalfall. Ob das dann auch für Nvidia zutrifft, wäre anzunehmen, steht auf einem anderen Blatt. Bis die APIs aber dahingehend ergänzt worden sind vergehen mit Sicherheit Jahre. AMD war da wieder zu schnell. Bis das Thema wird sind Vega und Turing hoffnungslos veraltet.
 
Ich denke mal, dass ich die 2080Ti behalten werde. Ich habe gerade nochmal 1h gespielt und festgestellt, dass ich selbst bei "nur" 2560x1080 und Ultra Preset die Karte teilweise auf 94% Auslastung bekomme. Darauf habe ich vorher nicht geachtet, da ich erst gestern Abend den Afterburner installiert habe.

Jetzt wo ich die absoluten Werte sehe, ist die Ti schon ein Monster. Man muss aber auch klar sagen, dass die 2080 auch wirklich super performed und das sage ich ganz ehrlich. Ich hatte ja vorher eine 1080Ti Strix und die war mit Max OC etwas langsamer als die TrioX jetzt out of the Box. Mit Max OC dürfte die 2080 in etwa 10-15% schneller sein als die 1080Ti. Gerade beim RAM kann man noch richtig was rausholen.

Die 8GB Speicher würden mich persönlich jetzt rein gar nicht stören. Ich spiele eh keine Spiele in Auflösungen wo das auch nur irgendwie von Relevanz sein könnte.

@SKu, also primär erwarte ich mir vom 9900K nochmals bessere MinFPS und 5Ghz bei besseren Temperaturen durch den verlöteten HS. Ich werde meine CPU jetzt weiterhin bei 4.8Ghz @ 1.27V laufen lassen und bleibe damit immer im 60°-65°C Bereich bei Last. Die CPU macht die 5Ghz mit, auch 5.1Ghz kann ich durch den Cinebench schicken, aber das ist mir von der Temperatur und Spannung her viel zu heikel ohne Delid.

Mal gucken ob ich mir dann kommenden Monat den 9900K gönne. Er kann ja nur besser sein als der 8700K.
 
SKu schrieb:
Zumal bei den Primitive Shadern auch die Rede davon ist, dass die API an sich erst einmal angepasst werden müsste

Jein- Wir haben mit DX12 letztendlich nur einen abstraction Layer, der aber nicht zwangsläufig dazu zwingt die Funktionen der Karten rein auf API-Ebene anzusprechen.
Es müssen daher nicht zwingend zusätzlich APIs dazwischengschalten werden, die das dann unterstützen. Ein Angebot macht nicht gleich einen Zwang....
Die Umsetzung wäre insofern Aufwand, als dass man zwei Renderzweige unterstützen müsste. AMD und nVidia.
Allerdings wird letztendlich sowieso für beide Architekturen optimiert (CPU/GPU).
Da macht eine Integration bzw. optimization- Pass zusätzlich das Kraut auch nicht wirklich fett....

Zumal es für die Entwickler eine Wette auf die Zukunft wäre, weil sich dadurch einige schwerwiegende, kostensive Probleme (z.B. Einsatz der Umbra Middleware) beim Rendering durch den Einsatz in Luft auflösen würden.

Grüße
Zero
 
Eine Wette auf die Zukunft ist zwar schön aber irgendwo muss das Risiko auch abzuschätzen sein.
Wir haben bislang von AMD Vega, die Primitive Shaders nutzen könnten und bei NVIDIA hochpreisige Turing Modelle. Das sind in beiden Lagern nun keine Karten für die Masse.

Ich gehe erst einmal stark davon aus, dass Turing und Vega als Lernprozess für beide Unternehmen dienen und das der Durchbruch erst später stattfinden wird, wenn empirische Werte vorliegen.
 
  • Gefällt mir
Reaktionen: CMDCake
t3chn0 schrieb:
Mal gucken ob ich mir dann kommenden Monat den 9900K gönne. Er kann ja nur besser sein als der 8700K.

Steigt die Single Core Leistung an mit dem 9900k?
Soweit ich das gelesen habe ist das es ja wirklich nur ein 8700k mit 2 Kernen und 300 MHz mehr.

Die 300 MHz kann man auch aus dem 8700 rausholen...und 2 Kerne mehr müssen supported werden.

Btw. Kann man den 9900k auf nem z370 Mainboard betreiben?
 
Zurück
Oben