- Registriert
- Feb. 2009
- Beiträge
- 6.555
Stand: 17.05.2016
Hallo liebe CB-Community,
da es immer wieder diverse Meinungen, Diskussionen aber auch Fehlinformationen zum Thema "GPU-Boost" gibt, habe ich mich nun dazu entschieden einen Versuch zu starten dem ein Ende zu setzen. Sicherlich werde ich nicht alles eindämmen können, aber wenn es dadurch 1 Frage pro Monat weniger gibt hat es sich doch schon gelohnt.
Inhaltsverzeichnis:
1. Vorwort
2. Die Grundidee
3. Die verschiedenen Implementierungen der Hersteller
4. GPU-Boost als Anti-Boost?
5. Anpassungsmöglichkeiten durch den User
6. GPU-Boost und Übertakten
7. Schlussworte
1. Vorwort
Bei allen Informationen die folgen kann ich mich nur auf eigene Erfahrungen und im Internet veröffentliche Erfahrungen anderer sowie Informationen seitens der Hersteller berufen. Ich erhebe keinen Anspruch auf 100%ige Korrektheit, versuche aber möglichst dicht heran zu kommen.
Da ich selbst nur Nvidia-Karten mit Boost besitze/besessen habe, kann ich hier natürlich genauere Informationen aus erster Hand liefern als bei AMD Karten. Wenn sich jemand von euch sich mit Power-Tune mit Boost gut auskennt und Ergänzungen hat, möchte ich darum bitten dies hier zu posten damit ich für beide Hersteller möglichst genaue Daten liefern kann.
Für alle Verbesserungsvorschläge und Korrekturen bin ich stets dankbar solange diese vernünftig an mich herangetragen werden. Sprüche wie "Ey altah, daz is voll Schai**e" sind dies nicht.
Sollten sich Tippfehler eingeschlichen haben möchte ich ebenfalls um einen kurzen Hinweis bitten.
2. Die Grundidee
Es gibt verschiedene Faktoren die die Leistungsaufnahme einer Grafikkarte beeinflussen. In aller erster Linie sind neben Takt und Spannung die jeweilige Anwendung und die Qualität des Grafikchips Variablen bei der Leistungsaufnahme. Da Takt und Spannung ja relativ selbst erklärend sind, gehe ich hier nur auf letztere ein.
Jede Anwendung belastet die GPU anders. Zwar mag die Grafikkarte bei allen Programmen 100% Auslastung melden, doch dies bedeutet nicht dass restlos alle Teile des Chips auch wirklich benutzt werden. Ein gern genommenes Beispiel dafür ist FurMark, welches die Grafikkarte derart stark belastet dass frühere Grafikkarten teilweise dadurch kaputt gegangen sind. Aber auch Spiele können je nach ihrer Optimierung die Hardware besser oder schlechter nutzen.
Je besser der Chip ausgenutzt wird, desto höher ist natürlich auch die Leistungsaufnahme.
Der Chip selbst hat ebenfalls einen beachtlichen Anteil an der Leistungsaufnahme. Es gibt gute und schlechte Chips welche sich durch ihre Taktfreudigkeit, die benötigten Spannungen aber auch durch auftretende Leckströme unterscheiden.
Eine sichere Aussage ob der eigene Chip nun gut oder schlecht ist lässt sich nur durch austesten und vergleichen annähernd herausfinden. Einen groben Hinweis darauf gibt die ASIC-Qualität. Diese könnt ihr Auslesen in dem ihr bei GPU-Z oben links auf das Icon des Programms klickt und dann den Menüpunkt "Read ASIC-Quality" auswählt. Dort steht dann der zu eurer Grafikkarte gehörige Wert. Die zugehörige Erklärung könnt ihr getrost ignorieren.
Eine Hohe ASIC bedeutet prinzipiell dass der Chip weniger Spannung für den gleichen Takt benötigt und geht entsprechend oft mit einem hohen Übertaktungspotenzial einher. Im Gegenzug sind die Leckströme auch vergleichsweise hoch, so dass die Leistungsaufnahme ebenfalls höher ausfällt.
Eine niedrige ASIC bedeutet im Umkehrschluss dass der Chip mehr Spannung für den gleichen Takt braucht und in Folge dessen auch oft weniger Übertaktungspotenzial aufweist. Dafür, und dass ist nicht zu unterschätzen, sind die Leckströme meist geringer was sich positiv auf den Stromverbrauch auswirkt. Diese Chips vertragen dazu noch mehr Spannung so dass diese für Übertakter mit Wasserkühlung auch besser sein können.
Ihr seht also, nur weil der namentlich gleiche Chip auf einer Karte sitzt bedeutet dass nicht dass 2 Karten sich auch gleich verhalten.
Was bedeutet das nun für den Hersteller? Der Hersteller sieht für eine bestimmte Karte eine bestimmte maximale Leistungsaufnahme vor. Die Karte wird so designed dass bei jeder (Realitätsnahen) Anwendung die maximale Leistungsaufnahme nicht überschritten wird. Programm A mag diese trotzdem zu 95% ausnutzen, Programm B aber vielleicht nur zu 70%. Entsprechend defensiv müssen sowohl Takt als auch Spannung gewählt werden.
Die Grundidee des GPU-Boosts ist nun den Verbrauch einer jeden Karte möglichst nahe an die vorgesehene Leistungsaufnahme zu bringen indem Spannung und Takt Stufenweise erhöht werden wenn ausreichend Luft bei der Leistungsaufnahme besteht. Mittlerweile spielt dabei auch noch die Temperatur mit hinein, denn: Eine hohe Temperatur kann ebenso viel Schaden anrichten wie eine hohe Spannung - Beides zusammen kann eine tödliche Mischung für einen jeden Computerchip darstellen. Aber zurück zur Idee.
Der Verbrauch soll also möglichst lang möglichst nahe an der Obergrenze liegen. Dazu muss die Karte natürlich die eigene Obergrenze kennen und den aktuellen Verbrauch bestimmen können. Das können Nvidia Karten seit der 500er Serie und AMD Karten seit der 6900er Serie.
Bei Nvidia wurde diese Möglichkeit vor allem dazu genutzt so genannte "Power-Viren" wie Furmark daran zu hindern die GPU oder deren Spannungsversorgung zu beschädigen. Vorher wurde dies oft durch die Erkennung der "Furmark.exe" (ebenso wie bei AMD) erreicht und konnte ebenso leicht umgangen werden. Durch die Interne Überwachung kann der Verbrauch im Notfall stark reduziert werden - natürlich auf Kosten der Leistung. Die Auslösegrenzen dafür waren allerdings auch entsprechend hoch und in normalen Programmen nicht zu erreichen.
AMD hat diese Möglichkeit für etwas ähnliches genutzt, aber gleichzeitig die Taktraten angehoben. Somit war es durch die Begrenzung des Verbrauchs möglich die Karten höher zu takten ohne dass bei Furmark und Co gleich alles in Flammen aufging. Und im Gegensatz zu Nvidia konnte man dieses Limit (was dafür auch näher am realistischen Verbrauch lag) auch manuell anpassen um beim Übertakten mehr Leistung zu ermöglichen. Mit meinen Beispielprogrammen A und B ausgedrückt würde dies also bedeuten dass Programm A nun zu 100% an der Grenze agiert und die Karte sich herunter taktet, Programm B aber nun schon zu 90% an der geplanten Leistungsaufnahme liegt. Somit laufen die Karten also schon näher am geplanten Limit, wobei die Serienstreuung natürlich auch hier mit hinein spielt.
Interessant dabei ist dass der Takt nur soweit abgesenkt wurde wie nötig und auch schnell wieder hoch getaktet wurde: Ein großer Schritt vom simplen Halbieren des Taktes wie er bei der Nvidia 500er Serie verwendet wurde.
Als kleinen Überblick verweise ich an dieser Stelle auf den ComputerBase-Test der 6900er Karten.
3. Die verschiedenen Implementierungen der Hersteller
Nvidia
GeForce GTX 600 Serie
Mit dieser Generation wurde der Boost offiziell geboren. Die Grundlegende Technik des drosselns aufgrund eines zu hohen Verbrauchs wie AMD es mit der 6900er Serie neu eingeführt hat wurde nun auch nach oben erweitert. Dazu musste aber erst alles dynamischer werden. Bis zu diesem Zeitpunkt kannten Grafikkarten nur Lastzustände mit dazugehörigen Taktraten und Spannungen. So gab es z.B. einen 2D Takt (Leerlauf), einen Low 3D Takt (Ein Zwischenschritt zwischen vollem Takt und voller Spannung und dem 2D Takt) und den 3D Takt (Maximaler Takt, Maximale Spannung) der unter Last anlag.
Diese Zustände gibt es auch noch bei der 600er Reihe (und auch neueren Karten), jedoch liegt zumindest der 3D-Takt vergleichsweise niedrig. Darüber gibt es viele kleine Stufen mit ebenso kleinen Änderungen an Takt und Spannung. Das ganze ist im Grunde nichts weiter als eine Tabelle. Diese kann z.B. so aussehen (Hier am Beispiel einer GTX TITAN):
1,1625V --- 1.0199MHz
1,1500V --- 1.006MHz
1,1375V --- 993MHz
1,1250V --- 980MHz
1,1125V --- 967MHz
1,1000V --- 954MHz
1,0875V --- 941MHz
1,0750V --- 928MHz
1,0625V --- 915MHz
1,0500V --- 902MHz
1,0375V --- 889MHz
1,0375V --- 876MHz --- Von Nvidia angegebener typischer Boost
1,0250V --- 863MHz
1,0125V --- 863MHz
1,0000V --- 850MHz
0,9875V --- 837MHz --- Basistakt
0,9750V --- 823MHz
0,9625V --- 810MHz
0,9500V --- 797MHz
0,9375V --- 784MHz
0,9250V --- 771Mhz
Wie zu erkennen ist gehört zu jedem Eintrag der Spannung ein konkreter Takt. Das ganze ist eine lineare Funktion wobei mit jeder Stufe die Spannung um 12,5mV und der Takt um 13MHz steigt.
Damit dieses Zahlenspiel funktioniert ist es aber auch wichtig dass die Grafikkarte ihren eigenen Verbrauch und auch eine Verbrauchsgrenze (das so genannte "Power-Target", im folgenden PT abgekürzt). Das PT wird offen angegeben und beträgt z.B. bei der GTX 680 190W und bei der GTX TITAN 250W.
Wie kann man sich das nun im Betrieb vorstellen?
Zu allererst gibt es einen Basistakt. In meinem Beispiel beträgt dieser 836Mhz. Diesen Takt versucht die Karte mindestens zu halten, er stellt also gewissermaßen den neuen 3D-Takt dar. Allerdings geht die Boost-Tabelle auch nach unten hin weiter. Sollte es also nötig sein kann die Karte Spannung, Takt und somit den Verbrauch weiter reduzieren. Bei älteren Spielen die die Grafikkarte nur leicht auslasten ist dies gut zu beobachten.
Dann gibt es den typischen Boost. Dieser ist, wie der Name schon sagt, der Takt der laut Nvidia in den meisten Fällen anliegt. Tendenziell wird dieser Wert eher Über- als Unterschritten, aber es gibt auch genug Szenarien in denen die Karte geringer taktet.
Geben wir nun Last auf unsere virtuelle GTX TITAN aus dem Beispiel: Zur Erinnerung sei erwähnt dass das PT 250W beträgt. Thermische Veränderungen lasse ich der Einfachheit halber außen vor.
Unser Programm erzeugt beim Basistakt einen Verbrauch von 200W, also 80% des PTs. Die Karte erkennt dies und bemerkt dass noch Luft nach oben ist: Sie rutscht in der Tabelle eine Zeile nach oben und hebt Spannung wie Takt etwas an. Dadurch liegt der Verbrauch nun bei etwa 84% des PTs. Das ganze wird immer weiter wiederholt bis die Karte sich in diesem Fall bei 902MHz und 1,0625V einpendelt. Dabei nutzt sie ihr PT zu ziemlich genau 100%. Es kann durchaus passieren dass sie stellenweise sogar auf 915Mhz taktet und dabei das PT minimal (im Nachkommabereich) überschreitet, das sind aber Differenzen im Bereich <2W die bei einem derart hohen Verbrauch kaum einen Unterschied machen. Die Karte läuft also nun direkt an ihrem auferlegtem Verbrauchslimit. Dabei ist ihr Takt gegenüber dem Basiswert um (ausgehend von 902MHz) knapp 8% erhöht was im Idealfall 1:1 in Leistung umgemünzt wird.
Da in einem typischen Programm die Intensität der Berechnungen mehrfach pro Sekunde variiert, ändert sich natürlich auch die Nutzung des PTs entsprechend häufig und die Karte taktet in einem gewissen Bereich hin und her. In Menüs z.B. wird ihr Takt aufgrund der geringen Last wahrscheinlich höher liegen als in einer Szene in der gerade die halbe Landschaft explodiert.
Auffällig dabei ist aber auch dass die Leistungssteigerung mehr kosmetischer Natur ausfällt. 8% mehr Bilder pro Sekunde (fps, frames per second) machen keinen Unterschied zwischen spielbar und unspielbar aus. Von 40fps ausgehend sind 8% mehr gerade einmal 3 fps. Das lässt das Bild minimal flüssiger wirken, mehr aber auch nicht. In erster Linie wird so natürlich der Balken in Benchmarks verlängert und man kann sich so vor die Konkurrenz setzen. Die Leistung bekommt der Nutzer aber trotzdem.
Da die Spannung Quadratisch in den Verbrauch einfließt und der Takt linear, die Leistung aber maximal 1:1 mit dem Takt skalieren kann, sinkt dabei natürlich auch die Effizienz. Die Steigerung vom Basis- zum Maximaltakt beträgt z.B. 20,3%, der Unterschied in der Leistungsaufnahme liegt aber bei ansonsten gleichen Umständen bei 66,8% - also mehr als dem Dreifachen!
Es gibt begründete Vermutungen dass die Spannungswandler der Karte einen Einfluss haben. Klare Beweise gibt es derzeit nicht, aber einige Berichte über Karten die sich bei hoher Last scheinbar Grundlos etwas heruntertakten. Dies könnte z.B. an zu heißen Spannungswandlern liegen, ist aber nicht bestätigt. Der Vollständigkeit halber möchte ich diese Möglichkeit aber nicht unerwähnt lassen.
Merke: Im Prinzip wechselt der Chip nur zwischen verschiedenen Betriebsspannungen, der Takt wird dann separat anhand der Tabelle zugewiesen und kann noch beeinflusst werden.
GeForce GTX 700, 900 und TITAN Serie:
Das Grundprinzip ist unverändert zur 600er Serie, solltest du dies also übersprungen haben weil du keine Karte der Serie besitzt kannst du dir dennoch guten Gewissens den obigen Abschnitt durchlesen.
Der Große Unterschied zwischen dem zuvor beschriebenen Boost 1.0 und dem Boost 2.0 ist der Einfluss der Temperatur. Wo Boost 1.0 nur auf den Verbrauch geachtet hat achtet die zweite Implementierung nun auch auf eine angemessene Betriebstemperatur. Das macht diesen Boost stark vom verwendeten Kühler, Gehäuse und dem Airflow durch selbiges abhängig. Ein und die selbe Karte läuft in einem gut Belüfteten Gehäuse meist deutlich schneller als in einem gänzlich abgeschotteten. Auch die TITAN aus meinem Rechenbeispiel der 600er Reihe unterliegt diesem Boost, ich habe ihn allerdings für das Beispiel auf 1.0 "gedowngraded".
Um eine Temperatursteuerung mittels Boost zu erreichen hat Nvidia den Karten neben einem Powertarget (PT) auch noch ein Temperature-Target (im folgenden TT genannt) mitgegeben. Das TT liegt bei der 700er Generation (außer 780Ti) und der GTX TITAN bei 80°C, bei der 900er Serie und den anderen TITAN-Karten bei 83°C. Diese Karten versuchen also nicht nur möglichst nah an das PT heranzukommen, sondern achten dabei auch darauf dass die Temperatur im Grünen Bereich ist. Das klingt erst einmal wie eine reine Drosselung im Vergleich zum Boost 1.0, bietet aber auch Vorzüge. Wie ich Eingangs erwähnt habe ist eine hohe Spannung im Normalbetrieb allein keine Gefahr für den Grafikchip, ebenso wenig eine hohe Temperatur. In Kombination lassen beide den Chip aber deutlich schneller altern was ihn früher oder später zerstört. Dies gilt allerdings nicht für Extrem Hohe Werte für eine dieser Variablen.
Nun ermöglicht die Temperatursteuerung bei geringen Temperaturen also höhere Spannungen und ergo auch Taktraten da sichergestellt ist dass der Chip diese auch gut verkraften kann. Läuft er im Gegenzug im Temperaturlimit wird der Takt zur Schonung des Chips mitsamt der Spannung gesenkt. Dabei unterstützt die Karten noch die übliche Temperatur-geregelte Lüfterkurve.
Als Folge dieser zusätzlichen Schutzfunktion kann der Chip auch mit höheren Spannungen betrieben werden was höhere Taktstufen ermöglicht; bei zu hohen Temperaturen schützt sich der Chip selbst indem er die Betriebsspannung samt Takt leicht senkt.
Zusätzlich dazu hat Nvidia dem Nutzer noch die Option gegeben wahlweise das PT oder das TT zu priorisieren. Priorisiert man das PT so wird die Karte auch bei geringen Temperaturen drosseln sobald das PT erreicht wurde (Standardeinstellung), bei Priorisierung des TT überschreitet die Karte ihr PT in gewissem Maße wenn die Temperatur dies zulässt. Dies hat Nvidia mit einem kleinen Trick z.B. bei der TITAN X abgeschwächt indem die Karte bei erreichen der 70° Marke automatisch eine Zeile nach unten in unserer Boost-Tabelle rutscht, auch wenn weder PT noch TT erreicht wurden. Allen Karten gemein ist immer eine Drosselung um eine Stufe (also einer Zeile der Tabelle) bei 80° und 90°..
Um diese Variante klarer zu Erläutern gehen wir das Beispiel aber noch einmal durch, dieses mal mit dem echten Boost 2.0:
Im Gut belüfteten Gehäuse:
Hier ist kaum ein Unterschied zum oben beschriebenen Boost 1.0 zu erkennen. Der Hauptunterschied ist in der Tabelle selbst zu suchen die in der Theorie etwas aggressiver auslegt ist.
Priorisieren wir das TT anstelle des PT steigt der Takt der Karte stärker an und kann dann trotz überschrittenem PT z.B. bei 928MHz anstelle der im Boost 1.0 erreichten 902 MHz liegen, was dann schon 11% über dem Basistakt sind.
Im Normal belüfteten Gehäuse:
Hier nehmen sich die Boosts unabhängig der Priorisierung nicht viel. Das TT limitiert zumindest beim Referenzdesign oft früher als das PT, der Takt liegt aber dennoch meist um den typischen Boost-Takt.
Im Schlecht belüfteten Gehäuse:
Hierbei wird der Boost schon früh aufhören den Takt zu erhöhen um die Betriebstemperatur nicht zu überschreiten. Die zur erwarteten Taktraten liegen unterhalb des angegebenen Boost-Takts da die Karte sonst ungesunde Spannungen bei der Temperatur ertragen müsste.
GTX 1000 Serie
Hier wurde der Boost nun auf Version 3.0 gehoben. Der Unterschied im Vergleich zur Version 2.0 ist eigentlich klein und dennoch bedeutsam: Takt und Spannung steigen nicht immer um den gleichen Wert an. So ist eine deutlich höhere Effizienz möglich da der Takt nah am Maximum gehalten werden kann. Ob die Spannungsstufen jetzt noch die gleichen sind kann ich derzeit noch nicht sagen.
AMD
Radeon 7970Ghz Edition & 7950V2 (aka Boost)
Bei AMD nennt sich der ganze Spaß Powertune with Boost. Dieser Urvater der AMD Implementierung wurde erstmals in der 7970Ghz Edition verwendet und funktionierte über die Hauseigene Verbrauchsüberwachung Power-Tune.
Zur Erinnerung: Die Karte erkennt dadurch bereits ihren Verbrauch und drosselt bei Bedarf dynamisch um die Leistungsaufnahme zu beschränken. Jetzt wurde das ganze aber um eine Boost-Stufe erweitert: Liegt die Karte ausreichend unter dem PT, so taktet sie in der Referenz von 1.000Mhz auf 1.050Mhz hoch und erhöht im gleichen Atemzug die Betriebsspannung. Wird das PT gerissen, sinkt der Takt zuerst auf 1.000Mhz ab und dann bei Bedarf dynamisch weiter.
Die Grundidee ist dem Ansatz von Nvidia also nicht unähnlich, abseits einer Drossel vom Basistakt (1.000Mhz in der Referenz) gibt es aber nur eine große Booststufe, so dass das ganze doch noch etwas grob agiert. In der Realität lagen übrigens nur in Ausnahmefällen die 1.000Mhz Basistakt an, der Boosttakt konnte fast immer erreicht und gehalten werden.
Radeon HD 7790:
Die Begrenzung ist hier ebenfalls das PT, es gibt nun aber nicht mehr eine sondern 5 Boost-Stufen. Dies ermöglicht höherere Taktraten und einen verringerten Leistungsverlust im Falle einer Drosselung.
Radeon R9 290 Serie
Bei der R9 290er Serie hat AMD nun eine ausgereiftere Version vorgestellt. Hierbei gibt es ebenfalls zahlreiche kleine Takt- und Spannungsstufen, wobei der Takt ebenfalls aufgrund von Temperatur oder Verbrauch gesenkt wird. TT und PT gibt es hier also auch. Aufgrund der großen Ähnlichkeit zum Boost bei Nvidia verweise ich auch an dieser Stelle noch einmal darauf.
Der größte Unterschied zur Grünen Konkurrenz ist in der Art des Bremsens zu suchen. Wie bereits erwähnt wird der Takt bei Nvidia oft bereits vor erreichen des TT etwas gesenkt, bei AMD rennt die Karte mit Vollgas bis sie in eines der beiden Limits kommt. Allerdings liegt das PT bei diesen Karten hoch genug als dass dieses auch beim Maximaltakt nicht limitiert. Unter Last sieht dies bei einer R9 290X z.B. so aus: Ein Programm startet, die Karte taktet auf ihren Maximaltakt (1.000Mhz) hoch. Wird das PT überschritten geht die Karte in ihrer Boost-Tabelle ebenfalls so weit herunter bis es wieder eingehalten wird. Dies passiert aber für gewöhnlich nicht bei normalen Anwendungen. Spannender wird es da beim TT: Diese liegt bei der 290 und 290X bei 94°C, 295X2 hat eines bei 75°C. Erreicht eine Karte dieser Serie das PT taktet sie solange herunter bis die Temperatur gehalten werden kann.
Ein weiterer Unterschied liegt in den offiziellen Angaben: Nvidia gibt den "typischen Boost" als Richtwert für den zu erwartenden Takt an, der Reale Takt kann je nach Anwendung darunter oder auch darüber liegen. Dazu wird ein garantiertet Basistakt genannt. AMD gibt nur den Maximaltakt an und behält den Basistakt für sich.
Tests mit reduzierter Lüfterdrehzahl haben bei der R9 290 einen wahrscheinlichen Basistakt von 662MHz gezeigt.
Welche Variante nun besser oder schlechter ist will ich hier nicht beurteilen. Beim Übertakten ist Nvidias Implementierung sicherlich ein Hindernis da die Rolle der Temperatur vergleichsweise hoch ist, dafür wird der Chip nicht so stark belastet - und das ohne spürbare Performanceeinbußen.
4. GPU-Boost als Anti-Boost?
Viele Leute, auch hier im Forum, proklamieren den Turbo-Boost gern als Drosselfunktion seitens der Hersteller und als Beschönigung einer künstlich eingebauten Bremse. Ist dem wirklich so? Die Antwort hierauf ist wohl ein klares "Jain".
Fakt ist dass die Karten bei zu hohem Verbrauch ausgebremst werden wobei diese Grenze in der Regel nur beim Übertakten erreicht wird. In diesem Bezug ist der Boost aber definitiv eine Bremse. Das TT hingegen ist ein wenig von beidem.
Grundsätzlich ermöglicht es der Karte vergleichsweise hohe Spannungen und somit auch Taktraten zu fahren wenn die Kühlung ausreichend gut ist. Ein Chip der also sonst konservativ mit z.B. 850Mhz betrieben worden wäre lässt sich so auch unter realen Bedingungen vielleicht mit 900 oder 950Mhz fahren was der Performance zu Gute kommt. Das ist ausgehend von normaler Belüftung auch das erklärte Ziel des GPU-Boosts.
Bei schlechter Belüftung (keine Gehäuselüfter, SLI/CF-Konfiguration, usw.) drosseln Karten mit Boost aber auch sehr schnell so dass natürlich Leistung verloren geht. Hier sichern sich die Hersteller etwas gegenüber einer verringerten Lebensdauer ab. Dieses Drosseln fällt bei Nvidia etwas sanfter aus als bei AMD was zum einen am frühen Einsetzen des Drosselns (je nach Karte schon ab 70°C) liegt, aber auch an der Temperaturgesteuerten Lüfterkurve die hohen Temperaturen mit einer höheren Drehzahl entgegnet.
AMD setzt hingegen auf eine limitierte Lüfterdrehzahl, welche bei der 290 bei etwa 47% und bei der 290X je nach BIOS etwa bei 40% oder 55% liegt. "Etwa" deshalb da AMD nach einiger Kritik aufgrund unterschiedlicher Drehzahlen bei eigentlich Baugleichen Karten die Finale Drehzahl als Fixwert hergenommen hat und nicht mehr nach den Prozenten geht. Das mag bei einer Karte 45% Drehzahl entsprechen, bei einer anderen sind es vielleicht 50%.
Diese Lüfterdrehzahl ist wie erwähnt eine fixe Obergrenze die nur im Ausnahmefall überschritten wird. Im Normalfall läuft die Karte mit gebremsten Lüfter daher relativ zeitnah ins TT was zu einer Teils massiven Drosselung des Chiptakts führt. Dadurch fällt der unmittelbare Performancesturz größer als bei der Konkurrenz aus. Bei der 290X im "Uber"-Modus reicht die Lüfterdrehzahl meist aus dass die Karte nicht ins TT rennt.
Bei Karten mit alternativen Kühlern (beider Chiphersteller) ist das TT meist aber ohnehin kein allzu großes Problem mehr.
5. Anpassungsmöglichkeiten durch den User
Endlich mal ein kurzer Abschnitt: Der Boost lässt sich natürlich manipulieren. Zum einen durch Manipulation von TT und PT durch Programme wie Afterburner oder Prescision. Das Maximale PT ist von Serie zu Serie verschieden, beim GK110 liegt es z.B. bei 106% (=265W). Das TT ist hierbei bis 95°C justierbar, so dass es im Normalfall keine Rolle mehr spielt. Bei den Karten der GTX 900 Serie und der GTX TITAN X lieg das Maximum bei 91°C.
Bei AMD lässt sich das TT aufgrund des hohen Wertes nur nach unten korrigieren, das PT ist aber auch nach oben Einstellbar.
Des weiteren lässt sich durch das flashen eines Alternativen BIOS der Boost auch komplett deaktivieren; natürlich auf eigene Gefahr.
Durch eine erhöhte Lüfterdrehzahl kann man das TT ebenfalls indirekt beeinflussen da niedrigere Chiptemperaturen oder einfach nur eine stärkere Kühlung einen höheren Boosttakt begünstigen. Dies lässt sich durch höhere Lüfterdrehzahlen und/oder alternative Kühllosungen bewerkstelligen.
6. GPU-Boost und Übertakten
Es gibt einige Möglichkeiten trotz Boost die GPU effektiv zu übertakten. Manch einer nutzt trotzdem auf eigene Gefahr ein alternatives BIOS ohne Boost um das Overclocking zu vereinfachen. Wer dies nicht machen will sollte in erster Linie eine gute Kühlung sicherstellen, da sonst der Boost schnell jegliche Performancegewinne nichtig macht. Wenn dies nicht möglich ist. lässt sich auch das TT auf Kosten der Lebensdauer erhöhen. Dies führt bei Nvidia trotzdem zu einer leichten Drosselung, welche jedoch nicht weiter tragisch ist - dazu gleich mehr.
Nvidia:
Das Übertakten läuft in erster Linie über einen Offset-Wert ab. D.h. man gibt nicht mehr wie früher eine fixe Taktrate ein, sondern einen Wert der zum normalen Takt hinzu addiert wird.
Bei einigen Karten kann es dazu kommen dass nur in 13MHz Schritten übertaktet werden kann. Neuere Karten zeigen dieses Phänomen allerdings nicht.
Dazu gibt es noch die Option der Spannungserhöhung. Diese ist meist nur sehr geringfügig verfügbar und erhöht automatisch den möglichen Takt. Das ist möglich da die Spannungstabelle auch noch mehrere Werte nach oben hat (+12,5mV, +25mV und +37,5mV beim GK110). Jedem dieser Werte ist natürlich auch eine Taktrate zugeordnet. Erhöht man die Spannung also um 3 Stufen (=37,5mV), steigt der maximale Takt bei der Beispielkarte von oben ebenfalls um 3 Stufen auf nunmehr 1.045Mhz an. Die Spannungsänderung geht auch bei mittleren Temperaturen (zwischen 70°C und TT wo die Karten teilweise bereits leicht drosseln) 1:1 durch, sofern weder TT noch PT gerissen werden. Aus 1,1V werden dann eben 1,1375V mit entsprechendem Takt. Werden PT oder TT gerissen wird der Takt natürlich ungeachtet dessen reduziert um im Rahmen zu bleiben.
Daher ist es elementar wichtig sicherzustellen dass beide Limits eingehalten werden!
Es gibt für einige Karten noch weitere Optionen, insbesondere über BIOS-Flashes. Darauf gehe ich hier aber bewusst nicht ein.
Wichtig ist hierbei zu beachten dass beim OC die Spalte mit dem Takt quasi nach unten verschoben wird, die mit den Spannungen bleibt unberührt. Dies führt dazu dass bei gleichem Takt eine niedrigere Spannung anliegt als zuvor; wenn man Pech hat wird die Karte dann vor erreichen des Maximaltakts instabil was bei der Nutzung von Framelimitern Probleme verursachen KANN. Kleines, fiktives Beispiel:
Bei 1Ghz Takt liegen 1,1V von Haus aus an. Übertaktet man nun um 39Mhz liegen 1,1V erst bei 1.139Mhz an, bei 1Ghz beträgt die Spannung nur noch (1000 - 3x12,5mV), also rund 962mV.
AMD:
Hier wird der Maximaltakt bzw. die dort Anliegende Spannung angepasst. TT und PT dürften nach wie vor nicht gerissen werden, im ganzen ist das Übertakten hier jedoch deutlich näher an dem bekannten dran als bei Nvidia.
Optionen wie das flashen eines neuen BIOS gibt es hier selbstverständlich auch, aber auch darauf möchte ich an dieser Stelle nicht eingehen.
Wenn die eigene Karte bei XX% die Lüfterdrehzahl limitiert, lässt sich dieses Limit mit einem kleinen Trick überlisten: Dazu muss das TT extrem niedrig angesetzt werden. Die Karte wird dann erst stark drosseln, der Lüfter dreht entsprechend hoch auf, woraufhin die Karte den Takt wieder anhebt. So lässt sich auch ohne manuelle Lüftersteuerung eine 100%ige Lüfterdrehzahl bewerkstelligen. Der Lärmpegel steigt allerdings entsprechend an.
7. Schlussworte
So, einmal kurz zusammengefasst: Der Boost ist an für sich eine schöne Sache, behindert allerdings zuweilen beim Overclocken. Er ist gleichsam eine Kontrollfunktion der Hersteller um den Verbrauch zu limitieren wie auch das was sein Name suggeriert: ein automatischer Turbo. Damit letzteres möglichst oft der Fall ist, ist aber für gewöhnlich eine Anpassung des PT und vor allem der Kühlung von Nöten.
Hallo liebe CB-Community,
da es immer wieder diverse Meinungen, Diskussionen aber auch Fehlinformationen zum Thema "GPU-Boost" gibt, habe ich mich nun dazu entschieden einen Versuch zu starten dem ein Ende zu setzen. Sicherlich werde ich nicht alles eindämmen können, aber wenn es dadurch 1 Frage pro Monat weniger gibt hat es sich doch schon gelohnt.
Inhaltsverzeichnis:
1. Vorwort
2. Die Grundidee
3. Die verschiedenen Implementierungen der Hersteller
4. GPU-Boost als Anti-Boost?
5. Anpassungsmöglichkeiten durch den User
6. GPU-Boost und Übertakten
7. Schlussworte
1. Vorwort
Bei allen Informationen die folgen kann ich mich nur auf eigene Erfahrungen und im Internet veröffentliche Erfahrungen anderer sowie Informationen seitens der Hersteller berufen. Ich erhebe keinen Anspruch auf 100%ige Korrektheit, versuche aber möglichst dicht heran zu kommen.
Da ich selbst nur Nvidia-Karten mit Boost besitze/besessen habe, kann ich hier natürlich genauere Informationen aus erster Hand liefern als bei AMD Karten. Wenn sich jemand von euch sich mit Power-Tune mit Boost gut auskennt und Ergänzungen hat, möchte ich darum bitten dies hier zu posten damit ich für beide Hersteller möglichst genaue Daten liefern kann.
Für alle Verbesserungsvorschläge und Korrekturen bin ich stets dankbar solange diese vernünftig an mich herangetragen werden. Sprüche wie "Ey altah, daz is voll Schai**e" sind dies nicht.
Sollten sich Tippfehler eingeschlichen haben möchte ich ebenfalls um einen kurzen Hinweis bitten.
2. Die Grundidee
Es gibt verschiedene Faktoren die die Leistungsaufnahme einer Grafikkarte beeinflussen. In aller erster Linie sind neben Takt und Spannung die jeweilige Anwendung und die Qualität des Grafikchips Variablen bei der Leistungsaufnahme. Da Takt und Spannung ja relativ selbst erklärend sind, gehe ich hier nur auf letztere ein.
Jede Anwendung belastet die GPU anders. Zwar mag die Grafikkarte bei allen Programmen 100% Auslastung melden, doch dies bedeutet nicht dass restlos alle Teile des Chips auch wirklich benutzt werden. Ein gern genommenes Beispiel dafür ist FurMark, welches die Grafikkarte derart stark belastet dass frühere Grafikkarten teilweise dadurch kaputt gegangen sind. Aber auch Spiele können je nach ihrer Optimierung die Hardware besser oder schlechter nutzen.
Je besser der Chip ausgenutzt wird, desto höher ist natürlich auch die Leistungsaufnahme.
Der Chip selbst hat ebenfalls einen beachtlichen Anteil an der Leistungsaufnahme. Es gibt gute und schlechte Chips welche sich durch ihre Taktfreudigkeit, die benötigten Spannungen aber auch durch auftretende Leckströme unterscheiden.
Eine sichere Aussage ob der eigene Chip nun gut oder schlecht ist lässt sich nur durch austesten und vergleichen annähernd herausfinden. Einen groben Hinweis darauf gibt die ASIC-Qualität. Diese könnt ihr Auslesen in dem ihr bei GPU-Z oben links auf das Icon des Programms klickt und dann den Menüpunkt "Read ASIC-Quality" auswählt. Dort steht dann der zu eurer Grafikkarte gehörige Wert. Die zugehörige Erklärung könnt ihr getrost ignorieren.
Eine Hohe ASIC bedeutet prinzipiell dass der Chip weniger Spannung für den gleichen Takt benötigt und geht entsprechend oft mit einem hohen Übertaktungspotenzial einher. Im Gegenzug sind die Leckströme auch vergleichsweise hoch, so dass die Leistungsaufnahme ebenfalls höher ausfällt.
Eine niedrige ASIC bedeutet im Umkehrschluss dass der Chip mehr Spannung für den gleichen Takt braucht und in Folge dessen auch oft weniger Übertaktungspotenzial aufweist. Dafür, und dass ist nicht zu unterschätzen, sind die Leckströme meist geringer was sich positiv auf den Stromverbrauch auswirkt. Diese Chips vertragen dazu noch mehr Spannung so dass diese für Übertakter mit Wasserkühlung auch besser sein können.
Ihr seht also, nur weil der namentlich gleiche Chip auf einer Karte sitzt bedeutet dass nicht dass 2 Karten sich auch gleich verhalten.
Was bedeutet das nun für den Hersteller? Der Hersteller sieht für eine bestimmte Karte eine bestimmte maximale Leistungsaufnahme vor. Die Karte wird so designed dass bei jeder (Realitätsnahen) Anwendung die maximale Leistungsaufnahme nicht überschritten wird. Programm A mag diese trotzdem zu 95% ausnutzen, Programm B aber vielleicht nur zu 70%. Entsprechend defensiv müssen sowohl Takt als auch Spannung gewählt werden.
Die Grundidee des GPU-Boosts ist nun den Verbrauch einer jeden Karte möglichst nahe an die vorgesehene Leistungsaufnahme zu bringen indem Spannung und Takt Stufenweise erhöht werden wenn ausreichend Luft bei der Leistungsaufnahme besteht. Mittlerweile spielt dabei auch noch die Temperatur mit hinein, denn: Eine hohe Temperatur kann ebenso viel Schaden anrichten wie eine hohe Spannung - Beides zusammen kann eine tödliche Mischung für einen jeden Computerchip darstellen. Aber zurück zur Idee.
Der Verbrauch soll also möglichst lang möglichst nahe an der Obergrenze liegen. Dazu muss die Karte natürlich die eigene Obergrenze kennen und den aktuellen Verbrauch bestimmen können. Das können Nvidia Karten seit der 500er Serie und AMD Karten seit der 6900er Serie.
Bei Nvidia wurde diese Möglichkeit vor allem dazu genutzt so genannte "Power-Viren" wie Furmark daran zu hindern die GPU oder deren Spannungsversorgung zu beschädigen. Vorher wurde dies oft durch die Erkennung der "Furmark.exe" (ebenso wie bei AMD) erreicht und konnte ebenso leicht umgangen werden. Durch die Interne Überwachung kann der Verbrauch im Notfall stark reduziert werden - natürlich auf Kosten der Leistung. Die Auslösegrenzen dafür waren allerdings auch entsprechend hoch und in normalen Programmen nicht zu erreichen.
AMD hat diese Möglichkeit für etwas ähnliches genutzt, aber gleichzeitig die Taktraten angehoben. Somit war es durch die Begrenzung des Verbrauchs möglich die Karten höher zu takten ohne dass bei Furmark und Co gleich alles in Flammen aufging. Und im Gegensatz zu Nvidia konnte man dieses Limit (was dafür auch näher am realistischen Verbrauch lag) auch manuell anpassen um beim Übertakten mehr Leistung zu ermöglichen. Mit meinen Beispielprogrammen A und B ausgedrückt würde dies also bedeuten dass Programm A nun zu 100% an der Grenze agiert und die Karte sich herunter taktet, Programm B aber nun schon zu 90% an der geplanten Leistungsaufnahme liegt. Somit laufen die Karten also schon näher am geplanten Limit, wobei die Serienstreuung natürlich auch hier mit hinein spielt.
Interessant dabei ist dass der Takt nur soweit abgesenkt wurde wie nötig und auch schnell wieder hoch getaktet wurde: Ein großer Schritt vom simplen Halbieren des Taktes wie er bei der Nvidia 500er Serie verwendet wurde.
Als kleinen Überblick verweise ich an dieser Stelle auf den ComputerBase-Test der 6900er Karten.
3. Die verschiedenen Implementierungen der Hersteller
Nvidia
GeForce GTX 600 Serie
Mit dieser Generation wurde der Boost offiziell geboren. Die Grundlegende Technik des drosselns aufgrund eines zu hohen Verbrauchs wie AMD es mit der 6900er Serie neu eingeführt hat wurde nun auch nach oben erweitert. Dazu musste aber erst alles dynamischer werden. Bis zu diesem Zeitpunkt kannten Grafikkarten nur Lastzustände mit dazugehörigen Taktraten und Spannungen. So gab es z.B. einen 2D Takt (Leerlauf), einen Low 3D Takt (Ein Zwischenschritt zwischen vollem Takt und voller Spannung und dem 2D Takt) und den 3D Takt (Maximaler Takt, Maximale Spannung) der unter Last anlag.
Diese Zustände gibt es auch noch bei der 600er Reihe (und auch neueren Karten), jedoch liegt zumindest der 3D-Takt vergleichsweise niedrig. Darüber gibt es viele kleine Stufen mit ebenso kleinen Änderungen an Takt und Spannung. Das ganze ist im Grunde nichts weiter als eine Tabelle. Diese kann z.B. so aussehen (Hier am Beispiel einer GTX TITAN):
1,1625V --- 1.0199MHz
1,1500V --- 1.006MHz
1,1375V --- 993MHz
1,1250V --- 980MHz
1,1125V --- 967MHz
1,1000V --- 954MHz
1,0875V --- 941MHz
1,0750V --- 928MHz
1,0625V --- 915MHz
1,0500V --- 902MHz
1,0375V --- 889MHz
1,0375V --- 876MHz --- Von Nvidia angegebener typischer Boost
1,0250V --- 863MHz
1,0125V --- 863MHz
1,0000V --- 850MHz
0,9875V --- 837MHz --- Basistakt
0,9750V --- 823MHz
0,9625V --- 810MHz
0,9500V --- 797MHz
0,9375V --- 784MHz
0,9250V --- 771Mhz
Wie zu erkennen ist gehört zu jedem Eintrag der Spannung ein konkreter Takt. Das ganze ist eine lineare Funktion wobei mit jeder Stufe die Spannung um 12,5mV und der Takt um 13MHz steigt.
Damit dieses Zahlenspiel funktioniert ist es aber auch wichtig dass die Grafikkarte ihren eigenen Verbrauch und auch eine Verbrauchsgrenze (das so genannte "Power-Target", im folgenden PT abgekürzt). Das PT wird offen angegeben und beträgt z.B. bei der GTX 680 190W und bei der GTX TITAN 250W.
Wie kann man sich das nun im Betrieb vorstellen?
Zu allererst gibt es einen Basistakt. In meinem Beispiel beträgt dieser 836Mhz. Diesen Takt versucht die Karte mindestens zu halten, er stellt also gewissermaßen den neuen 3D-Takt dar. Allerdings geht die Boost-Tabelle auch nach unten hin weiter. Sollte es also nötig sein kann die Karte Spannung, Takt und somit den Verbrauch weiter reduzieren. Bei älteren Spielen die die Grafikkarte nur leicht auslasten ist dies gut zu beobachten.
Dann gibt es den typischen Boost. Dieser ist, wie der Name schon sagt, der Takt der laut Nvidia in den meisten Fällen anliegt. Tendenziell wird dieser Wert eher Über- als Unterschritten, aber es gibt auch genug Szenarien in denen die Karte geringer taktet.
Geben wir nun Last auf unsere virtuelle GTX TITAN aus dem Beispiel: Zur Erinnerung sei erwähnt dass das PT 250W beträgt. Thermische Veränderungen lasse ich der Einfachheit halber außen vor.
Unser Programm erzeugt beim Basistakt einen Verbrauch von 200W, also 80% des PTs. Die Karte erkennt dies und bemerkt dass noch Luft nach oben ist: Sie rutscht in der Tabelle eine Zeile nach oben und hebt Spannung wie Takt etwas an. Dadurch liegt der Verbrauch nun bei etwa 84% des PTs. Das ganze wird immer weiter wiederholt bis die Karte sich in diesem Fall bei 902MHz und 1,0625V einpendelt. Dabei nutzt sie ihr PT zu ziemlich genau 100%. Es kann durchaus passieren dass sie stellenweise sogar auf 915Mhz taktet und dabei das PT minimal (im Nachkommabereich) überschreitet, das sind aber Differenzen im Bereich <2W die bei einem derart hohen Verbrauch kaum einen Unterschied machen. Die Karte läuft also nun direkt an ihrem auferlegtem Verbrauchslimit. Dabei ist ihr Takt gegenüber dem Basiswert um (ausgehend von 902MHz) knapp 8% erhöht was im Idealfall 1:1 in Leistung umgemünzt wird.
Da in einem typischen Programm die Intensität der Berechnungen mehrfach pro Sekunde variiert, ändert sich natürlich auch die Nutzung des PTs entsprechend häufig und die Karte taktet in einem gewissen Bereich hin und her. In Menüs z.B. wird ihr Takt aufgrund der geringen Last wahrscheinlich höher liegen als in einer Szene in der gerade die halbe Landschaft explodiert.
Auffällig dabei ist aber auch dass die Leistungssteigerung mehr kosmetischer Natur ausfällt. 8% mehr Bilder pro Sekunde (fps, frames per second) machen keinen Unterschied zwischen spielbar und unspielbar aus. Von 40fps ausgehend sind 8% mehr gerade einmal 3 fps. Das lässt das Bild minimal flüssiger wirken, mehr aber auch nicht. In erster Linie wird so natürlich der Balken in Benchmarks verlängert und man kann sich so vor die Konkurrenz setzen. Die Leistung bekommt der Nutzer aber trotzdem.
Da die Spannung Quadratisch in den Verbrauch einfließt und der Takt linear, die Leistung aber maximal 1:1 mit dem Takt skalieren kann, sinkt dabei natürlich auch die Effizienz. Die Steigerung vom Basis- zum Maximaltakt beträgt z.B. 20,3%, der Unterschied in der Leistungsaufnahme liegt aber bei ansonsten gleichen Umständen bei 66,8% - also mehr als dem Dreifachen!
Es gibt begründete Vermutungen dass die Spannungswandler der Karte einen Einfluss haben. Klare Beweise gibt es derzeit nicht, aber einige Berichte über Karten die sich bei hoher Last scheinbar Grundlos etwas heruntertakten. Dies könnte z.B. an zu heißen Spannungswandlern liegen, ist aber nicht bestätigt. Der Vollständigkeit halber möchte ich diese Möglichkeit aber nicht unerwähnt lassen.
Merke: Im Prinzip wechselt der Chip nur zwischen verschiedenen Betriebsspannungen, der Takt wird dann separat anhand der Tabelle zugewiesen und kann noch beeinflusst werden.
GeForce GTX 700, 900 und TITAN Serie:
Das Grundprinzip ist unverändert zur 600er Serie, solltest du dies also übersprungen haben weil du keine Karte der Serie besitzt kannst du dir dennoch guten Gewissens den obigen Abschnitt durchlesen.
Der Große Unterschied zwischen dem zuvor beschriebenen Boost 1.0 und dem Boost 2.0 ist der Einfluss der Temperatur. Wo Boost 1.0 nur auf den Verbrauch geachtet hat achtet die zweite Implementierung nun auch auf eine angemessene Betriebstemperatur. Das macht diesen Boost stark vom verwendeten Kühler, Gehäuse und dem Airflow durch selbiges abhängig. Ein und die selbe Karte läuft in einem gut Belüfteten Gehäuse meist deutlich schneller als in einem gänzlich abgeschotteten. Auch die TITAN aus meinem Rechenbeispiel der 600er Reihe unterliegt diesem Boost, ich habe ihn allerdings für das Beispiel auf 1.0 "gedowngraded".
Um eine Temperatursteuerung mittels Boost zu erreichen hat Nvidia den Karten neben einem Powertarget (PT) auch noch ein Temperature-Target (im folgenden TT genannt) mitgegeben. Das TT liegt bei der 700er Generation (außer 780Ti) und der GTX TITAN bei 80°C, bei der 900er Serie und den anderen TITAN-Karten bei 83°C. Diese Karten versuchen also nicht nur möglichst nah an das PT heranzukommen, sondern achten dabei auch darauf dass die Temperatur im Grünen Bereich ist. Das klingt erst einmal wie eine reine Drosselung im Vergleich zum Boost 1.0, bietet aber auch Vorzüge. Wie ich Eingangs erwähnt habe ist eine hohe Spannung im Normalbetrieb allein keine Gefahr für den Grafikchip, ebenso wenig eine hohe Temperatur. In Kombination lassen beide den Chip aber deutlich schneller altern was ihn früher oder später zerstört. Dies gilt allerdings nicht für Extrem Hohe Werte für eine dieser Variablen.
Nun ermöglicht die Temperatursteuerung bei geringen Temperaturen also höhere Spannungen und ergo auch Taktraten da sichergestellt ist dass der Chip diese auch gut verkraften kann. Läuft er im Gegenzug im Temperaturlimit wird der Takt zur Schonung des Chips mitsamt der Spannung gesenkt. Dabei unterstützt die Karten noch die übliche Temperatur-geregelte Lüfterkurve.
Als Folge dieser zusätzlichen Schutzfunktion kann der Chip auch mit höheren Spannungen betrieben werden was höhere Taktstufen ermöglicht; bei zu hohen Temperaturen schützt sich der Chip selbst indem er die Betriebsspannung samt Takt leicht senkt.
Zusätzlich dazu hat Nvidia dem Nutzer noch die Option gegeben wahlweise das PT oder das TT zu priorisieren. Priorisiert man das PT so wird die Karte auch bei geringen Temperaturen drosseln sobald das PT erreicht wurde (Standardeinstellung), bei Priorisierung des TT überschreitet die Karte ihr PT in gewissem Maße wenn die Temperatur dies zulässt. Dies hat Nvidia mit einem kleinen Trick z.B. bei der TITAN X abgeschwächt indem die Karte bei erreichen der 70° Marke automatisch eine Zeile nach unten in unserer Boost-Tabelle rutscht, auch wenn weder PT noch TT erreicht wurden. Allen Karten gemein ist immer eine Drosselung um eine Stufe (also einer Zeile der Tabelle) bei 80° und 90°..
Um diese Variante klarer zu Erläutern gehen wir das Beispiel aber noch einmal durch, dieses mal mit dem echten Boost 2.0:
Im Gut belüfteten Gehäuse:
Hier ist kaum ein Unterschied zum oben beschriebenen Boost 1.0 zu erkennen. Der Hauptunterschied ist in der Tabelle selbst zu suchen die in der Theorie etwas aggressiver auslegt ist.
Priorisieren wir das TT anstelle des PT steigt der Takt der Karte stärker an und kann dann trotz überschrittenem PT z.B. bei 928MHz anstelle der im Boost 1.0 erreichten 902 MHz liegen, was dann schon 11% über dem Basistakt sind.
Im Normal belüfteten Gehäuse:
Hier nehmen sich die Boosts unabhängig der Priorisierung nicht viel. Das TT limitiert zumindest beim Referenzdesign oft früher als das PT, der Takt liegt aber dennoch meist um den typischen Boost-Takt.
Im Schlecht belüfteten Gehäuse:
Hierbei wird der Boost schon früh aufhören den Takt zu erhöhen um die Betriebstemperatur nicht zu überschreiten. Die zur erwarteten Taktraten liegen unterhalb des angegebenen Boost-Takts da die Karte sonst ungesunde Spannungen bei der Temperatur ertragen müsste.
GTX 1000 Serie
Hier wurde der Boost nun auf Version 3.0 gehoben. Der Unterschied im Vergleich zur Version 2.0 ist eigentlich klein und dennoch bedeutsam: Takt und Spannung steigen nicht immer um den gleichen Wert an. So ist eine deutlich höhere Effizienz möglich da der Takt nah am Maximum gehalten werden kann. Ob die Spannungsstufen jetzt noch die gleichen sind kann ich derzeit noch nicht sagen.
AMD
Radeon 7970Ghz Edition & 7950V2 (aka Boost)
Bei AMD nennt sich der ganze Spaß Powertune with Boost. Dieser Urvater der AMD Implementierung wurde erstmals in der 7970Ghz Edition verwendet und funktionierte über die Hauseigene Verbrauchsüberwachung Power-Tune.
Zur Erinnerung: Die Karte erkennt dadurch bereits ihren Verbrauch und drosselt bei Bedarf dynamisch um die Leistungsaufnahme zu beschränken. Jetzt wurde das ganze aber um eine Boost-Stufe erweitert: Liegt die Karte ausreichend unter dem PT, so taktet sie in der Referenz von 1.000Mhz auf 1.050Mhz hoch und erhöht im gleichen Atemzug die Betriebsspannung. Wird das PT gerissen, sinkt der Takt zuerst auf 1.000Mhz ab und dann bei Bedarf dynamisch weiter.
Die Grundidee ist dem Ansatz von Nvidia also nicht unähnlich, abseits einer Drossel vom Basistakt (1.000Mhz in der Referenz) gibt es aber nur eine große Booststufe, so dass das ganze doch noch etwas grob agiert. In der Realität lagen übrigens nur in Ausnahmefällen die 1.000Mhz Basistakt an, der Boosttakt konnte fast immer erreicht und gehalten werden.
Radeon HD 7790:
Die Begrenzung ist hier ebenfalls das PT, es gibt nun aber nicht mehr eine sondern 5 Boost-Stufen. Dies ermöglicht höherere Taktraten und einen verringerten Leistungsverlust im Falle einer Drosselung.
Radeon R9 290 Serie
Bei der R9 290er Serie hat AMD nun eine ausgereiftere Version vorgestellt. Hierbei gibt es ebenfalls zahlreiche kleine Takt- und Spannungsstufen, wobei der Takt ebenfalls aufgrund von Temperatur oder Verbrauch gesenkt wird. TT und PT gibt es hier also auch. Aufgrund der großen Ähnlichkeit zum Boost bei Nvidia verweise ich auch an dieser Stelle noch einmal darauf.
Der größte Unterschied zur Grünen Konkurrenz ist in der Art des Bremsens zu suchen. Wie bereits erwähnt wird der Takt bei Nvidia oft bereits vor erreichen des TT etwas gesenkt, bei AMD rennt die Karte mit Vollgas bis sie in eines der beiden Limits kommt. Allerdings liegt das PT bei diesen Karten hoch genug als dass dieses auch beim Maximaltakt nicht limitiert. Unter Last sieht dies bei einer R9 290X z.B. so aus: Ein Programm startet, die Karte taktet auf ihren Maximaltakt (1.000Mhz) hoch. Wird das PT überschritten geht die Karte in ihrer Boost-Tabelle ebenfalls so weit herunter bis es wieder eingehalten wird. Dies passiert aber für gewöhnlich nicht bei normalen Anwendungen. Spannender wird es da beim TT: Diese liegt bei der 290 und 290X bei 94°C, 295X2 hat eines bei 75°C. Erreicht eine Karte dieser Serie das PT taktet sie solange herunter bis die Temperatur gehalten werden kann.
Ein weiterer Unterschied liegt in den offiziellen Angaben: Nvidia gibt den "typischen Boost" als Richtwert für den zu erwartenden Takt an, der Reale Takt kann je nach Anwendung darunter oder auch darüber liegen. Dazu wird ein garantiertet Basistakt genannt. AMD gibt nur den Maximaltakt an und behält den Basistakt für sich.
Tests mit reduzierter Lüfterdrehzahl haben bei der R9 290 einen wahrscheinlichen Basistakt von 662MHz gezeigt.
Welche Variante nun besser oder schlechter ist will ich hier nicht beurteilen. Beim Übertakten ist Nvidias Implementierung sicherlich ein Hindernis da die Rolle der Temperatur vergleichsweise hoch ist, dafür wird der Chip nicht so stark belastet - und das ohne spürbare Performanceeinbußen.
4. GPU-Boost als Anti-Boost?
Viele Leute, auch hier im Forum, proklamieren den Turbo-Boost gern als Drosselfunktion seitens der Hersteller und als Beschönigung einer künstlich eingebauten Bremse. Ist dem wirklich so? Die Antwort hierauf ist wohl ein klares "Jain".
Fakt ist dass die Karten bei zu hohem Verbrauch ausgebremst werden wobei diese Grenze in der Regel nur beim Übertakten erreicht wird. In diesem Bezug ist der Boost aber definitiv eine Bremse. Das TT hingegen ist ein wenig von beidem.
Grundsätzlich ermöglicht es der Karte vergleichsweise hohe Spannungen und somit auch Taktraten zu fahren wenn die Kühlung ausreichend gut ist. Ein Chip der also sonst konservativ mit z.B. 850Mhz betrieben worden wäre lässt sich so auch unter realen Bedingungen vielleicht mit 900 oder 950Mhz fahren was der Performance zu Gute kommt. Das ist ausgehend von normaler Belüftung auch das erklärte Ziel des GPU-Boosts.
Bei schlechter Belüftung (keine Gehäuselüfter, SLI/CF-Konfiguration, usw.) drosseln Karten mit Boost aber auch sehr schnell so dass natürlich Leistung verloren geht. Hier sichern sich die Hersteller etwas gegenüber einer verringerten Lebensdauer ab. Dieses Drosseln fällt bei Nvidia etwas sanfter aus als bei AMD was zum einen am frühen Einsetzen des Drosselns (je nach Karte schon ab 70°C) liegt, aber auch an der Temperaturgesteuerten Lüfterkurve die hohen Temperaturen mit einer höheren Drehzahl entgegnet.
AMD setzt hingegen auf eine limitierte Lüfterdrehzahl, welche bei der 290 bei etwa 47% und bei der 290X je nach BIOS etwa bei 40% oder 55% liegt. "Etwa" deshalb da AMD nach einiger Kritik aufgrund unterschiedlicher Drehzahlen bei eigentlich Baugleichen Karten die Finale Drehzahl als Fixwert hergenommen hat und nicht mehr nach den Prozenten geht. Das mag bei einer Karte 45% Drehzahl entsprechen, bei einer anderen sind es vielleicht 50%.
Diese Lüfterdrehzahl ist wie erwähnt eine fixe Obergrenze die nur im Ausnahmefall überschritten wird. Im Normalfall läuft die Karte mit gebremsten Lüfter daher relativ zeitnah ins TT was zu einer Teils massiven Drosselung des Chiptakts führt. Dadurch fällt der unmittelbare Performancesturz größer als bei der Konkurrenz aus. Bei der 290X im "Uber"-Modus reicht die Lüfterdrehzahl meist aus dass die Karte nicht ins TT rennt.
Bei Karten mit alternativen Kühlern (beider Chiphersteller) ist das TT meist aber ohnehin kein allzu großes Problem mehr.
5. Anpassungsmöglichkeiten durch den User
Endlich mal ein kurzer Abschnitt: Der Boost lässt sich natürlich manipulieren. Zum einen durch Manipulation von TT und PT durch Programme wie Afterburner oder Prescision. Das Maximale PT ist von Serie zu Serie verschieden, beim GK110 liegt es z.B. bei 106% (=265W). Das TT ist hierbei bis 95°C justierbar, so dass es im Normalfall keine Rolle mehr spielt. Bei den Karten der GTX 900 Serie und der GTX TITAN X lieg das Maximum bei 91°C.
Bei AMD lässt sich das TT aufgrund des hohen Wertes nur nach unten korrigieren, das PT ist aber auch nach oben Einstellbar.
Des weiteren lässt sich durch das flashen eines Alternativen BIOS der Boost auch komplett deaktivieren; natürlich auf eigene Gefahr.
Durch eine erhöhte Lüfterdrehzahl kann man das TT ebenfalls indirekt beeinflussen da niedrigere Chiptemperaturen oder einfach nur eine stärkere Kühlung einen höheren Boosttakt begünstigen. Dies lässt sich durch höhere Lüfterdrehzahlen und/oder alternative Kühllosungen bewerkstelligen.
6. GPU-Boost und Übertakten
Es gibt einige Möglichkeiten trotz Boost die GPU effektiv zu übertakten. Manch einer nutzt trotzdem auf eigene Gefahr ein alternatives BIOS ohne Boost um das Overclocking zu vereinfachen. Wer dies nicht machen will sollte in erster Linie eine gute Kühlung sicherstellen, da sonst der Boost schnell jegliche Performancegewinne nichtig macht. Wenn dies nicht möglich ist. lässt sich auch das TT auf Kosten der Lebensdauer erhöhen. Dies führt bei Nvidia trotzdem zu einer leichten Drosselung, welche jedoch nicht weiter tragisch ist - dazu gleich mehr.
Nvidia:
Das Übertakten läuft in erster Linie über einen Offset-Wert ab. D.h. man gibt nicht mehr wie früher eine fixe Taktrate ein, sondern einen Wert der zum normalen Takt hinzu addiert wird.
Bei einigen Karten kann es dazu kommen dass nur in 13MHz Schritten übertaktet werden kann. Neuere Karten zeigen dieses Phänomen allerdings nicht.
Dazu gibt es noch die Option der Spannungserhöhung. Diese ist meist nur sehr geringfügig verfügbar und erhöht automatisch den möglichen Takt. Das ist möglich da die Spannungstabelle auch noch mehrere Werte nach oben hat (+12,5mV, +25mV und +37,5mV beim GK110). Jedem dieser Werte ist natürlich auch eine Taktrate zugeordnet. Erhöht man die Spannung also um 3 Stufen (=37,5mV), steigt der maximale Takt bei der Beispielkarte von oben ebenfalls um 3 Stufen auf nunmehr 1.045Mhz an. Die Spannungsänderung geht auch bei mittleren Temperaturen (zwischen 70°C und TT wo die Karten teilweise bereits leicht drosseln) 1:1 durch, sofern weder TT noch PT gerissen werden. Aus 1,1V werden dann eben 1,1375V mit entsprechendem Takt. Werden PT oder TT gerissen wird der Takt natürlich ungeachtet dessen reduziert um im Rahmen zu bleiben.
Daher ist es elementar wichtig sicherzustellen dass beide Limits eingehalten werden!
Es gibt für einige Karten noch weitere Optionen, insbesondere über BIOS-Flashes. Darauf gehe ich hier aber bewusst nicht ein.
Wichtig ist hierbei zu beachten dass beim OC die Spalte mit dem Takt quasi nach unten verschoben wird, die mit den Spannungen bleibt unberührt. Dies führt dazu dass bei gleichem Takt eine niedrigere Spannung anliegt als zuvor; wenn man Pech hat wird die Karte dann vor erreichen des Maximaltakts instabil was bei der Nutzung von Framelimitern Probleme verursachen KANN. Kleines, fiktives Beispiel:
Bei 1Ghz Takt liegen 1,1V von Haus aus an. Übertaktet man nun um 39Mhz liegen 1,1V erst bei 1.139Mhz an, bei 1Ghz beträgt die Spannung nur noch (1000 - 3x12,5mV), also rund 962mV.
AMD:
Hier wird der Maximaltakt bzw. die dort Anliegende Spannung angepasst. TT und PT dürften nach wie vor nicht gerissen werden, im ganzen ist das Übertakten hier jedoch deutlich näher an dem bekannten dran als bei Nvidia.
Optionen wie das flashen eines neuen BIOS gibt es hier selbstverständlich auch, aber auch darauf möchte ich an dieser Stelle nicht eingehen.
Wenn die eigene Karte bei XX% die Lüfterdrehzahl limitiert, lässt sich dieses Limit mit einem kleinen Trick überlisten: Dazu muss das TT extrem niedrig angesetzt werden. Die Karte wird dann erst stark drosseln, der Lüfter dreht entsprechend hoch auf, woraufhin die Karte den Takt wieder anhebt. So lässt sich auch ohne manuelle Lüftersteuerung eine 100%ige Lüfterdrehzahl bewerkstelligen. Der Lärmpegel steigt allerdings entsprechend an.
7. Schlussworte
So, einmal kurz zusammengefasst: Der Boost ist an für sich eine schöne Sache, behindert allerdings zuweilen beim Overclocken. Er ist gleichsam eine Kontrollfunktion der Hersteller um den Verbrauch zu limitieren wie auch das was sein Name suggeriert: ein automatischer Turbo. Damit letzteres möglichst oft der Fall ist, ist aber für gewöhnlich eine Anpassung des PT und vor allem der Kühlung von Nöten.
Zuletzt bearbeitet: