Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Mysterium "Boost" - ein Erklärungsversuch
- Ersteller Thanok
- Erstellt am
promashup
Admiral
- Registriert
- Aug. 2013
- Beiträge
- 7.307
Leider ziemlich vage, aber im Grunde liegt es daran, dass die versch. Spieleengines mit den Grafik-, Physik-, usw. Engines eine gewisse Mischung aus Belastungen erzeugen, wodurch die GPU eben mehr oder weniger stark beansprucht wird, was zu immer unterschiedlichem Stromverbrauch, Spannungsbedarf und Temperaturen führt, welche wiederum den Turbo beeinflussen.
O.g. ist unabhängig von alter und graphischer Schönheit der Spiele.
Ich kann da leider kein explizites Beispiel bringen; das müssten Leute wissen, welche beruflich genau zwischen Hard- und Software sitzen, z.B. Ingenieure in der Abteilung Grafiktreiber.
O.g. ist unabhängig von alter und graphischer Schönheit der Spiele.
Ich kann da leider kein explizites Beispiel bringen; das müssten Leute wissen, welche beruflich genau zwischen Hard- und Software sitzen, z.B. Ingenieure in der Abteilung Grafiktreiber.
Zuletzt bearbeitet:
Pilstrinker
Commander
- Registriert
- Juli 2009
- Beiträge
- 2.101
Was hier geschrieben steht, finde ich ganz interessant.
Insbesondere den 1. Absatz, wie aus den laut nVidia weit mehr als 10 Faktoren, die das Boostverhalten bisher beeinflussen sollten, plötzlich nur noch einer wird (Power Target), der beim Boost 2.0 dann noch um das Temperature Target ergänzt wird.
Im weiteren Text geht der Autor dann ja noch auf das Boostverhalten ein und beschreibt es halt als ausschließlich durch TT und PT bestimmt.
edit:
Vielleicht kann es ja mal jemand nachstellen mit Witcher 2 (max. Settings, 1920x1080, plus "Uber"-Modus)und dem Valley Bench (da treten diese Taktsprünge ab Szene 3 bis Szene 6 auf, danach auch nicht mehr). Mal schauen, ob dann Ähnliches passsiert.
@Banger
Das ist ja der Grund, mal die Spawas genauer unter die Lupe zu nehmen.
Ich sehe gerade, dass du auch eine Inno3D iChill hast. Da könntest du doch vielleicht den Valley Test machen und dir mit geeigneten Tools (AB, HWInfo, etc.) die Werte mal anschauen.
Insbesondere den 1. Absatz, wie aus den laut nVidia weit mehr als 10 Faktoren, die das Boostverhalten bisher beeinflussen sollten, plötzlich nur noch einer wird (Power Target), der beim Boost 2.0 dann noch um das Temperature Target ergänzt wird.
Im weiteren Text geht der Autor dann ja noch auf das Boostverhalten ein und beschreibt es halt als ausschließlich durch TT und PT bestimmt.
edit:
Vielleicht kann es ja mal jemand nachstellen mit Witcher 2 (max. Settings, 1920x1080, plus "Uber"-Modus)und dem Valley Bench (da treten diese Taktsprünge ab Szene 3 bis Szene 6 auf, danach auch nicht mehr). Mal schauen, ob dann Ähnliches passsiert.
@Banger
Das ist ja der Grund, mal die Spawas genauer unter die Lupe zu nehmen.
Ich sehe gerade, dass du auch eine Inno3D iChill hast. Da könntest du doch vielleicht den Valley Test machen und dir mit geeigneten Tools (AB, HWInfo, etc.) die Werte mal anschauen.
Zuletzt bearbeitet:
Pilstrinker
Commander
- Registriert
- Juli 2009
- Beiträge
- 2.101
Ohne OC - wenn du das als Standardeinstellung meinst - taktet meine auch nicht runter.
Pilstrinker
Commander
- Registriert
- Juli 2009
- Beiträge
- 2.101
Gut, dann liegt's wohl nicht an der Art und Weise, wie der Boost implementiert ist oder an irgendeiner Drosselung durch den Treiber.
- Registriert
- Okt. 2006
- Beiträge
- 5.858
Erstmal großes Lob für die ausführliche und doch verständliche Erklärung
Eine Beobachtung die du jedoch vielleicht noch ergänzen könntest, sofern sie denn auch bei anderen GTX 780/GK110 Modellen auftritt, ist dass mit dem übertakten sich auch die Spannungen die den unterschiedlichen Taktraten zugewiesen sind verschieben, wenn ich zB. meine Gigabyte GTX 780 Ghz Edition im MSI Afterburner übertakte und ihr +40Mhz Coretakt verpasse um sie auf 1200Mhz zu boosten dann liegen beim Basistakt von 1020Mhz bei meiner Karte statt 1.025V nur noch 1.000V an und sie wird instabil und verursacht Treibercrashes.
Wenn man natürlich ohne FPS Limit zockt wird das nicht sonderlich problematisch sein da die Karte dann ja eh bei vollem Takt und voller Spannung rennt, ich verwende jedoch ein FPS Limit da mein Monitor nur mit 60Hz läuft und ich mir daher alles über 60FPS schenken kann, dabei auch noch Strom spare und wenn ich ältere Titel wie Mass Effect 1-3 oder ähnliches zocke taktet die Karte natürlich runter und wird mir dann instabil. Das Problem tritt natürlich auch in Spielen auf die von sich aus schon ein FPS Limit setzen, etwa die ganzen COD Titel (soweit mir bekannt, zock sie nicht selbst) oder eben auch die Mass Effect Reihe.
Das Phänomen sollte ja eigentlich nicht nur bei meiner Karte auftreten sondern generell, kannst es ja mal bei dir testen und dann eventuell erwähnen.
Eine Beobachtung die du jedoch vielleicht noch ergänzen könntest, sofern sie denn auch bei anderen GTX 780/GK110 Modellen auftritt, ist dass mit dem übertakten sich auch die Spannungen die den unterschiedlichen Taktraten zugewiesen sind verschieben, wenn ich zB. meine Gigabyte GTX 780 Ghz Edition im MSI Afterburner übertakte und ihr +40Mhz Coretakt verpasse um sie auf 1200Mhz zu boosten dann liegen beim Basistakt von 1020Mhz bei meiner Karte statt 1.025V nur noch 1.000V an und sie wird instabil und verursacht Treibercrashes.
Wenn man natürlich ohne FPS Limit zockt wird das nicht sonderlich problematisch sein da die Karte dann ja eh bei vollem Takt und voller Spannung rennt, ich verwende jedoch ein FPS Limit da mein Monitor nur mit 60Hz läuft und ich mir daher alles über 60FPS schenken kann, dabei auch noch Strom spare und wenn ich ältere Titel wie Mass Effect 1-3 oder ähnliches zocke taktet die Karte natürlich runter und wird mir dann instabil. Das Problem tritt natürlich auch in Spielen auf die von sich aus schon ein FPS Limit setzen, etwa die ganzen COD Titel (soweit mir bekannt, zock sie nicht selbst) oder eben auch die Mass Effect Reihe.
Das Phänomen sollte ja eigentlich nicht nur bei meiner Karte auftreten sondern generell, kannst es ja mal bei dir testen und dann eventuell erwähnen.
psYcho-edgE
Admiral
- Registriert
- Apr. 2013
- Beiträge
- 7.600
Danke Thanok, genau so was hab ich gesucht
- Registriert
- Feb. 2009
- Beiträge
- 6.555
Deswegen sind mittlerweile ja viele Redaktion (so auch CB) dazu übergegangen die Karten nicht nur in einem Gehäuse zu testen sondern auch noch anzuheizen damit die Werte auch realitätsnah sind.
S
Scriptkid
Gast
Ich finde die oben stehenden Erläuterungen gut und instruktiv.
P.S. Ich hatte Dir mal ein modifiziertes VGA-BIOS verlinkt. Hast Du es mal getestet? Auch der Boost wurde verändert. Mit einer WaKü käme man natürlich weiter.
P.S. Ich hatte Dir mal ein modifiziertes VGA-BIOS verlinkt. Hast Du es mal getestet? Auch der Boost wurde verändert. Mit einer WaKü käme man natürlich weiter.
C
Crash-Over
Gast
So warum die Gpu nicht den Boost halten kann oder nicht komplett ausfährt. Hat verschiedene Ursachen damit zu tuen
Bei Heaven mit der Einstellung Basic wird die Gpu nur 50% belastet weswegen soll die Gpu dann 100% ausgelastet werden .Dadurch wird auch der Strombedarf von der Gpu gesenkt
Mit der Einstellung extrem bei Heaven wird die gpu mehr genutzt,wenn die gpu bei den Test nur 50% braucht taktet die auch wieder runter und wenn sie wieder mehr braucht gehts automatisch hoch
Bei Costum Einstellungen wenn man alles auf High stellt sowie bei auflösung 4k oder full screen stellt dann wird die karte 100% genutzt
Ist das gleiche Prinzip wie in den Spielen die Grafikkarte passt sich an so wie szene berechnet wird. Aber da haben auch die Temps ne Rolle zu tuen
Wenn man die Gpu zum äusseren treibt bis 80° oder 90° wie die meisten angeben wird, taktet die soweit runter bis die sagt "ok ich hab wieder etwas Luft nach oben von den temperaturen dann kann ich wieder hochtakten "
Ich hab 2 Gpu im System mit ner Wakü da sind die Temperaturen eine Nebensache "40° unter Last".
Da wird bei Heaven Costum Preset den maximalen boost gehalten wenn ich aber die mit der luftkühlung testen würde dann würden die auch runtertakten weil ihr zu heiss ist oder wird
Bei Heaven mit der Einstellung Basic wird die Gpu nur 50% belastet weswegen soll die Gpu dann 100% ausgelastet werden .Dadurch wird auch der Strombedarf von der Gpu gesenkt
Mit der Einstellung extrem bei Heaven wird die gpu mehr genutzt,wenn die gpu bei den Test nur 50% braucht taktet die auch wieder runter und wenn sie wieder mehr braucht gehts automatisch hoch
Bei Costum Einstellungen wenn man alles auf High stellt sowie bei auflösung 4k oder full screen stellt dann wird die karte 100% genutzt
Ist das gleiche Prinzip wie in den Spielen die Grafikkarte passt sich an so wie szene berechnet wird. Aber da haben auch die Temps ne Rolle zu tuen
Wenn man die Gpu zum äusseren treibt bis 80° oder 90° wie die meisten angeben wird, taktet die soweit runter bis die sagt "ok ich hab wieder etwas Luft nach oben von den temperaturen dann kann ich wieder hochtakten "
Ich hab 2 Gpu im System mit ner Wakü da sind die Temperaturen eine Nebensache "40° unter Last".
Da wird bei Heaven Costum Preset den maximalen boost gehalten wenn ich aber die mit der luftkühlung testen würde dann würden die auch runtertakten weil ihr zu heiss ist oder wird
Zuletzt bearbeitet:
Ähnliche Themen
- Angepinnt
- Antworten
- 216
- Aufrufe
- 96.484
- Antworten
- 52
- Aufrufe
- 10.203
Leserartikel
Kühler- gegen Steckergate: DevPandis Hin und Her
- Antworten
- 72
- Aufrufe
- 18.096
- Angepinnt
Leserartikel
Nvidia Grafikkarten Erste-Hilfe-Koffer
- Antworten
- 8
- Aufrufe
- 29.279
- Antworten
- 50
- Aufrufe
- 46.217