Test Nvidia GeForce GTX 780 Ti gegen GTX Titan im Test

AMD restlos gefressen. Mein nächstes System wird auf jeden Fall eine Kombi aus Intel und Nvidia. Ich bin gespannt, wie sich der Markt kommendes Jahr entwickelt.
 
Ganz so dumm ist die Idee ja gar nicht: Wird die Karte nicht vollständig gefordert, ist der Verbrauch eher gering. Durch den Turbo passt sich jede Karte automatisch an ihre TDP an und taktet somit selbst höher als sie es eigentlich würde.
Wer einen guten Chip erwischt hat, bekommt natürlich noch etwas mehr Takt heraus.

Allerdings wirkt die Temperaturlimitierung wirklich eher wie eine künstliche Drosselung, auch wenn es von Seiten NVs heißt dass der alte Turbo immer den Worst-Case angenommen hat. Aber so richtig glauben kann ich es auch nicht, nicht bei 80°. Eine Gute Kühlung scheint einen Vorteil zu bringen gegenüber dem Alten Turbo, eine schlechte ist aber dafür ein Nachteil.
 
Dumm sicher nicht. Ich hatte ja auch letztens die Frage zu der neuen Boost-Mechanik. Mir persönlich wäre eine dauerhafte Leistung lieber, ergo ein fester maximal Takt den die Karte annimmt und dabei (wenns sein muss wegen Hitze) eben den Lüfter soweit aufdreht wies geht. Das alles natürlich in einem angemessenem Rahmen des Verbrauchs.
Oder das die Karten zumindest einen angemessenen Minimal-Takt haben den sie auch immer erreichen. Beide, NV und AMD, sollen das zwar haben, aber der Minimaltakt der AMD Karte ist doch etwas niedrig (6xx Mhz, wenn ich richig verstanden habe).

Mir wäre da der folgende Sachverhalt lieber: meine HD7950 (Gigabyte Windforce) läuft ja momentan mit 900Mhz bzw. manuell übertaktet mit 1050@1.09v.
Die Temps sind dabei: 20°C Zimmertemperatur: 60°C@41-50% Lüftergeschwindigkeit, im Sommer bei 30°C Zimmertemperatur: 65-70°C@41-55% Lüftergeschwindigkeit.

Mit der neuen Boost-Mechanik hätte ich dann gerne die 900Mhz als Minimaltakt und der Boost selbst taktet die Karte dann eben weiter rauf wenn es gebraucht wird. Dabei kann ich noch Einstellen, dass die Karte eben Maximal 70-80°C warm werden darf bei einer maximalen Lüftergeschwindigkeit von 50%.

So wäre das meiner Meinung nach super. Da würde die Karte wohl fast immer um die 1000Mhz takten wenn es gebraucht wird, wenn nicht bleibt sie zumindest immer bei 900Mhz, weil das eben der Minimaltakt ist den sie locker hält bei den Temps etc.

Ka ob solche präzisen Einstellungen bei den jeweiligen Boost-Varianten möglich sind. Cool wäre es.
 
@Galaxy_Radio

Danke für deinen sinnvollen Post. So ein Test wäre wirklich interessant, da er die Leistungsfähigkeit beider Architekturen am besten zeigen würde. Vielleicht liest einer der CB Tester ja mit ;-).

@Zealord
Lieb wie du dich an Standardeinstellungen festhältst. Was glaubst du, wieso AMD die R290X im Quiet Modus ausliefert? Genau, damit einem bei der schrottigen Kühllösung nicht die Ohren abfallen. Custom Designs kommen sich mit Uber per Default, da es dann keinen Grund mehr gibt, mit der Lüfterdrehzahl zu geizen (wird dann eh selten fällig und ist dann sicher auch leiser da weniger Drehzahl).
 
ToniMacaroni schrieb:
Wer hat sich den Mist bloß ausgedacht. Wenn es im Sommer wärmer ist, will ich doch nicht, dass die Karte langsamer läuft, sondern dass der Lüfter höher dreht. :freak:

Toni, es war prinzipiell AMD, das mit dem heißen Sommer dann wieder NVIDIA ^^.

Ich versuche es kurz zu beschreiben ( ich hoffe es wird kurz). Als AMD PowerTune bringt, schreit die Presse kurz auf. Eine Überwachung der Hardware-Auslastung könnte zu Drosselungen führen. Das Konzept ist den meisten wenig klar und auch die Presse versteht es zu Beginn nicht. Dann kommt NVIDIA mit der GTX 590, AMD mit der HD 6990. AMD schlägt NVIDIA ohne ein solches Konzept. Ergo, es muss was her, dass das auch kann.

NVIDIA bringt GTX 680 mit Boost-Technologie. Nach unzähligen Papieren zeichnet sich die Praxis simpel ab. Es gibt ein Limit bei der Leistungsaufnahme. Boost ist nicht eine Taktsteigerung, sondern eine Drossel. Die Karte startet mit ihrem maximalen Takt - AMD versucht diesen immer zu halten - aber fällt dann kurze Zeit später auf geringere Taktraten. Nix Boost also, Gegenwirken ist angesagt. Aber weil Boost sich so toll anhört, folgt AMD und es gibt eine GHz-Edition der HD 7970. Weiterhin tut PowerTune das, was die Technik vorgibt. Es versucht den maximalen Takt zu halten.

NVIDIA überarbeitet seine Technik nun. Boost 2.0 ist am Start. Wir haben nun zusätzlich noch ein Temperatur-Limit. Das führt dazu, dass die Karten nach wenigen Minuten nicht mehr mit ihrem Boost-Takt agieren. Vorwärmphasen werden abermals nötig, damit man keine falschen Benchmarkergebnisse zeigt. Weiterhin funktioniert Boost 2.0 und PT von AMD anders. AMD versucht vorrangig den Takt zu halten, doch nach der Steilvorlage von NVIDIA folgt AMD nun. PT 2 hat nun auch ein Temperatur-Limit. Die Geschichte ist gegessen. Der Depp der es vormachte war also AMD. Der Depp der es schlecht kopierte NVIDIA und was das für die Praxis heißt: mörderischer Aufwand bei den Magazinen, um auf den Trick der üblichen Benchmarkabläufe nicht hereinzufallen.

Um deine Frage abschließend zu beantworten: Es war dann wohl AMD. Was daraus wurde? Status Quo!
 
Das stimmt so nicht ganz. NVidia hat meines Wissens nach bei der 580 etwas ähnliches eingeführt. Der Boost kann eigentlich beides sein - eine Drossel oder eben wirklich ein Boost.
Beim ersten Boost versucht die Karte ja nicht bloß innerhalb des Powerlimits zu bleiben sondern eben möglichst nah heran zu kommen. Bei Boost 2.0 ist es durch die Temperatur etwas frickeliger. Im großen und ganzen sorgt diese dafür dass der Takt nicht mehr ganz zu offensiv erhöht wird, wobei unklar ist ob NV vielleicht im Gegenzug den Turbo etwas offensiver gestaltet hat. Die Titan bekommt z.B. bis zu 170Mhz durch den Turbo drauf wenn die Temperatur sehr niedrig ist.
Aber ich müsste zur Bestätigung wissen wie hoch eine Stock 680 von alleine takten kann.

Bei ordentlicher Kühlung ist der Boost sicherlich eine kleine Hilfe, kann aber manuelles OC nicht ersetzen. Dafür kann die Karte durch das dynamische Takten auch mal etwas Strom sparen im Vergleich zum Maximaltakt wenn sie gerade mal nicht so gefordert wird.
 
Wenn ich Energie sparen will, bevorzuge ich da eher einen Framelimiter @60 fps. Sollte AMD mal in seine Treiber mit einbauen.

@Peter: danke für die ausführliche Darbietung! :)
 
Zuletzt bearbeitet:
die ersten Leute haben schon die Referenz mit standardVoltage auf 1300+ MHZ und 400+mem. Ergebnisse sehen sehr spannend aus. Wenn bald die Classified kommt und dann noch unter Wasser, was gott sei dank einfach ist, da EVGA das gleiche PCB nimmt. Schöne Zeiten liegen vor uns!
 
Zealord schrieb:
definitv die beste Grafikkarte.
...
Die Karte ist ja quasi gleichauf mit 7990 und 690 welches Dual GPUs sind. Das ist einfach unglaublich. Sowas hätte es damals nicht gegeben ohne neue Fertigungstechnik.
Und scheinbar hat Nvidia keine golden samples verteilt bei der Karte, im gegensatz zu AMD, denn scheinbar taktet jede 780 Ti die ich bis jetzt gesehen hab, sogar bei Personen die die Karte bereits gekauft haben, locker auf 1250 im boost bei OC hoch.
Die Leistung ist enorm und in einer eigenen Klasse für sich. AMD wird wahrscheinlich bis 20nm warten müssen um auch nur den Hauch einer chance zu haben da mitzuhalten. Nicht einmal mehr Mantle wird AMD retten können, denn ohne OC Potential ist eine Grafikkarte nur eine halbe Grafikkarte.
Ist das etwa dein Ernst? :lol:
Das könnte ja direkt von Nvidias PR Abteilung stammen...

Die GPUs trennen nur wenige Prozentpünktchen und du redest von einer eigenen Klasse. Und was Mantle bewirken wird kannst du noch gar nicht wissen.

Ganz ehrlich...so ein sinnbefreites Fanboy Gelaber hab ich ja noch nie erlebt. Peinlich ist das. Aber mach dich ruhig weiter lächerlich ;)
 
Peter/HT4U schrieb:
Toni, es war prinzipiell AMD, das mit dem heißen Sommer dann wieder NVIDIA ^^.

Ich versuche es kurz zu beschreiben ( ich hoffe es wird kurz). Als AMD PowerTune bringt, schreit die Presse kurz auf. Eine Überwachung der Hardware-Auslastung könnte zu Drosselungen führen. Das Konzept ist den meisten wenig klar und auch die Presse versteht es zu Beginn nicht. Dann kommt NVIDIA mit der GTX 590, AMD mit der HD 6990. AMD schlägt NVIDIA ohne ein solches Konzept. Ergo, es muss was her, dass das auch kann.

NVIDIA bringt GTX 680 mit Boost-Technologie. Nach unzähligen Papieren zeichnet sich die Praxis simpel ab. Es gibt ein Limit bei der Leistungsaufnahme. Boost ist nicht eine Taktsteigerung, sondern eine Drossel. Die Karte startet mit ihrem maximalen Takt - AMD versucht diesen immer zu halten - aber fällt dann kurze Zeit später auf geringere Taktraten. Nix Boost also, Gegenwirken ist angesagt. Aber weil Boost sich so toll anhört, folgt AMD und es gibt eine GHz-Edition der HD 7970. Weiterhin tut PowerTune das, was die Technik vorgibt. Es versucht den maximalen Takt zu halten.

NVIDIA überarbeitet seine Technik nun. Boost 2.0 ist am Start. Wir haben nun zusätzlich noch ein Temperatur-Limit. Das führt dazu, dass die Karten nach wenigen Minuten nicht mehr mit ihrem Boost-Takt agieren. Vorwärmphasen werden abermals nötig, damit man keine falschen Benchmarkergebnisse zeigt. Weiterhin funktioniert Boost 2.0 und PT von AMD anders. AMD versucht vorrangig den Takt zu halten, doch nach der Steilvorlage von NVIDIA folgt AMD nun. PT 2 hat nun auch ein Temperatur-Limit. Die Geschichte ist gegessen. Der Depp der es vormachte war also AMD. Der Depp der es schlecht kopierte NVIDIA und was das für die Praxis heißt: mörderischer Aufwand bei den Magazinen, um auf den Trick der üblichen Benchmarkabläufe nicht hereinzufallen.

Um deine Frage abschließend zu beantworten: Es war dann wohl AMD. Was daraus wurde? Status Quo!

Danke ! für diese knappe und kurze geschichtliche Zusammenfassung der Entwicklungen die so wohl noch kaum einer im Kopf hatte !
Ergänzung ()

Zealord schrieb:
die ersten Leute haben schon die Referenz mit standardVoltage auf 1300+ MHZ und 400+mem. Ergebnisse sehen sehr spannend aus. Wenn bald die Classified kommt und dann noch unter Wasser, was gott sei dank einfach ist, da EVGA das gleiche PCB nimmt. Schöne Zeiten liegen vor uns!


Hey warum postest du nicht ein paar links zu solchen Tests wäre bestimmt spannend und besser als nur "hörensagen" weiterzutragen ?

Würde dir auch mal gut stehen "fakten" zu posten statt nur jeden Tag ne werbeleier wie unendlich gut grafikkarten eines bestimmten Herstellers sind.
 
Hier geht's zum Test der ersten beiden Partnerkartendesigns von Gigabyte und Inno3D:

https://www.computerbase.de/2013-11/geforce-gtx-780-ti-gigabyte-inno3d-test/

Darin enthalten folgender Kommentar zu Project Cars:

Wir haben uns die Kritik unserer Leser zu Herzen genommen. Project Cars wird in Grafikkartentests, die auf den kompletten Benchmarkparcours setzen, in Zukunft nicht mehr in das Gesamtergebnis einfließen. Darüber hinaus werden wir weitere Detailveränderungen am Parcours vornehmen. Da dieser Artikel allerdings noch auf dem (damals urlaubsbedingt) gekürzten Parcours unseres Tests zur GeForce GTX 780 Ti basiert und wir die Zwischenlösung – der Übersicht halber – nicht auch noch überarbeiten möchten, fließt Project Cars in diesem Test noch in das Rating mit ein. Auf die Abstände der Partnerkarten zur Referenz der GeForce GTX 780 Ti hat dies keine Auswirkungen.
 
Thanok schrieb:
Das stimmt so nicht ganz. NVidia hat meines Wissens nach bei der 580 etwas ähnliches eingeführt.

Das ist falsch.

Der Boost kann eigentlich beides sein - eine Drossel oder eben wirklich ein Boost.

Wenn du das gerne so verstehen möchtest bitte. Ich verstehe den Umstand, dass eine GPU, die bei 100 Prozent Auslastung nach kurzer Zeit herunter taktet und bei 70 Prozent Auslastung im Spiel wieder hoch, als Augenwischerei und nicht hilfreich für den Anwender.
 
Das schon - aber es gibt auch Anwendungen die die GPU nicht vollständig fordern und trotzdem sieht man 100% Last. In Solchen Fällen ist die TDP eben nicht ausgereizt und die GPU kann durch den Boost höher takten.
Nichts desto trotz ändert dies nichts daran dass der Boost wohl in den meisten Fällen wirklich nur drosselt - spätestens seit Boost 2.0 mit dem tollen Templimit.
 
@Peter/HT4U
Ich finde Boost 2.0 schon hilfreich.
Reicht mir je nach Spiel die Leistung, dann kann die GPU auch runter takten, wenn es Ihr zu warm wird. Habe ich kein Problem damit.
Will ich die Leistung, stelle ich das Temperatur Limit höher aber es wird etwas lauter.

Wenn man die Tools richtig nutzt, kann man sich das sehr leicht so einstellen, wie das einem am besten passt. Gerade bei mir mit mehr als 30 Grad Umgebungstemperatur ein Segen. Was ich gar nicht will ist mit Lüfterkurven rum fummeln.
 
@Athlonscout
Mag schon sein, das es etwas einfacheres geben würde. Bei mir ist es eine Schieberegler in EVGA Precision X und anschließend auf Apply drücken. Also schon einfach.
Was auch gut geht ist einfach VSync in meinem Spiel (WOT) einschalten und ich bleibe immer unter 79 Grad.

Evga.jpg
 
Zuletzt bearbeitet:
Thanok, Peter von HT4U bringt einen Überblick über die Boost Geschichte der beiden Hersteller AMD und Nvidia. Du kommst dann mit folgender Aussage.
Thanok schrieb:
Das stimmt so nicht ganz. NVidia hat meines Wissens nach bei der 580 etwas ähnliches eingeführt.
Du widersprichst dem und relativierst dann das alles mit nach deinem Wissen. Was ist nun dein Wissen? Während Peter eine Referenz vorzeigen kann, seit Jahren Hardware Tester http://ht4u.net/, genügt dies um seinen Überblick als geben zu sehen. Welche Referenz kannst du denn vorzeigen? Denn so im Vergleich ist deine Aussage, "nach deinem Wissen" nicht relevant.
 
Zuletzt bearbeitet:
Sontin schrieb:
Wie wird man in Zukunft eigentlich das Thema GPU-PhysX und Mantle behandeln?
Das ist eine gute Frage. PhysX werden wir wie bisher behandeln - also wenn, dann in Sondertests behandeln.
Matle ist dagegen eine wirklich gute Frage...es gibt aktuell zwar eine Tendenz, aber noch keine Entscheidung.
 
Zurück
Oben