Mysterium "Boost" - ein Erklärungsversuch

Die Gründe würden mich auch interessieren. Zum einen aus persönlichen Gründen, zum anderen aber auch um den Thread hier besser zu machen.
 
Leider ziemlich vage, aber im Grunde liegt es daran, dass die versch. Spieleengines mit den Grafik-, Physik-, usw. Engines eine gewisse Mischung aus Belastungen erzeugen, wodurch die GPU eben mehr oder weniger stark beansprucht wird, was zu immer unterschiedlichem Stromverbrauch, Spannungsbedarf und Temperaturen führt, welche wiederum den Turbo beeinflussen.
O.g. ist unabhängig von alter und graphischer Schönheit der Spiele.
Ich kann da leider kein explizites Beispiel bringen; das müssten Leute wissen, welche beruflich genau zwischen Hard- und Software sitzen, z.B. Ingenieure in der Abteilung Grafiktreiber.
 
Zuletzt bearbeitet:
Was hier geschrieben steht, finde ich ganz interessant.

Insbesondere den 1. Absatz, wie aus den laut nVidia weit mehr als 10 Faktoren, die das Boostverhalten bisher beeinflussen sollten, plötzlich nur noch einer wird (Power Target), der beim Boost 2.0 dann noch um das Temperature Target ergänzt wird.

Im weiteren Text geht der Autor dann ja noch auf das Boostverhalten ein und beschreibt es halt als ausschließlich durch TT und PT bestimmt.

edit:

Vielleicht kann es ja mal jemand nachstellen mit Witcher 2 (max. Settings, 1920x1080, plus "Uber"-Modus)und dem Valley Bench (da treten diese Taktsprünge ab Szene 3 bis Szene 6 auf, danach auch nicht mehr). Mal schauen, ob dann Ähnliches passsiert.

@Banger

Das ist ja der Grund, mal die Spawas genauer unter die Lupe zu nehmen.

Ich sehe gerade, dass du auch eine Inno3D iChill hast. Da könntest du doch vielleicht den Valley Test machen und dir mit geeigneten Tools (AB, HWInfo, etc.) die Werte mal anschauen.
 
Zuletzt bearbeitet:
Habe bei mir gerade mal Valley laufen lassen: Keine Taktsprünge, konstant 1.225Mhz, maximal 114% PT.
 
Gut, dann liegt's wohl nicht an der Art und Weise, wie der Boost implementiert ist oder an irgendeiner Drosselung durch den Treiber.
 
Großes Lob an den TE! Sehr schön geschrieben, das ist wirklich mal schön zusammengefasst...

Daumen hoch für die große Mühe :daumen:
 
Erstmal großes Lob für die ausführliche und doch verständliche Erklärung :)

Eine Beobachtung die du jedoch vielleicht noch ergänzen könntest, sofern sie denn auch bei anderen GTX 780/GK110 Modellen auftritt, ist dass mit dem übertakten sich auch die Spannungen die den unterschiedlichen Taktraten zugewiesen sind verschieben, wenn ich zB. meine Gigabyte GTX 780 Ghz Edition im MSI Afterburner übertakte und ihr +40Mhz Coretakt verpasse um sie auf 1200Mhz zu boosten dann liegen beim Basistakt von 1020Mhz bei meiner Karte statt 1.025V nur noch 1.000V an und sie wird instabil und verursacht Treibercrashes.

Wenn man natürlich ohne FPS Limit zockt wird das nicht sonderlich problematisch sein da die Karte dann ja eh bei vollem Takt und voller Spannung rennt, ich verwende jedoch ein FPS Limit da mein Monitor nur mit 60Hz läuft und ich mir daher alles über 60FPS schenken kann, dabei auch noch Strom spare und wenn ich ältere Titel wie Mass Effect 1-3 oder ähnliches zocke taktet die Karte natürlich runter und wird mir dann instabil. Das Problem tritt natürlich auch in Spielen auf die von sich aus schon ein FPS Limit setzen, etwa die ganzen COD Titel (soweit mir bekannt, zock sie nicht selbst) oder eben auch die Mass Effect Reihe.

Das Phänomen sollte ja eigentlich nicht nur bei meiner Karte auftreten sondern generell, kannst es ja mal bei dir testen und dann eventuell erwähnen.
 
Eigentlich meinte ich genau das mit den Tabellen und dem verschieben, ich werde es aber deutlicher herausarbeiten.

Edit: Angepasst.
 
Zuletzt bearbeitet:
Ok, dann hab ich das wohl missverstanden ;)
 
Ist ja in Ordnung, die Formulierung war diesbezüglich auch nicht vollkommen klar.
 
Na dann passts ja, erspart vielleicht eine zusätzliche Frage ;)
 
Den Boost könnte man aber auch anders nennen,
als Benchmark verfälscher sowohl bei NV als auch Amd.

@ offenen Aufbau zu benchen ist dann realitätsfern
 
Deswegen sind mittlerweile ja viele Redaktion (so auch CB) dazu übergegangen die Karten nicht nur in einem Gehäuse zu testen sondern auch noch anzuheizen damit die Werte auch realitätsnah sind.
 
Ich finde die oben stehenden Erläuterungen gut und instruktiv.

P.S. Ich hatte Dir mal ein modifiziertes VGA-BIOS verlinkt. Hast Du es mal getestet? Auch der Boost wurde verändert. Mit einer WaKü käme man natürlich weiter.
 
So warum die Gpu nicht den Boost halten kann oder nicht komplett ausfährt. Hat verschiedene Ursachen damit zu tuen

Bei Heaven mit der Einstellung Basic wird die Gpu nur 50% belastet weswegen soll die Gpu dann 100% ausgelastet werden .Dadurch wird auch der Strombedarf von der Gpu gesenkt

Mit der Einstellung extrem bei Heaven wird die gpu mehr genutzt,wenn die gpu bei den Test nur 50% braucht taktet die auch wieder runter und wenn sie wieder mehr braucht gehts automatisch hoch

Bei Costum Einstellungen wenn man alles auf High stellt sowie bei auflösung 4k oder full screen stellt dann wird die karte 100% genutzt


Ist das gleiche Prinzip wie in den Spielen die Grafikkarte passt sich an so wie szene berechnet wird. Aber da haben auch die Temps ne Rolle zu tuen

Wenn man die Gpu zum äusseren treibt bis 80° oder 90° wie die meisten angeben wird, taktet die soweit runter bis die sagt "ok ich hab wieder etwas Luft nach oben von den temperaturen dann kann ich wieder hochtakten "

Ich hab 2 Gpu im System mit ner Wakü da sind die Temperaturen eine Nebensache "40° unter Last".

Da wird bei Heaven Costum Preset den maximalen boost gehalten wenn ich aber die mit der luftkühlung testen würde dann würden die auch runtertakten weil ihr zu heiss ist oder wird
 
Zuletzt bearbeitet:
Zurück
Oben