Test Nvidia GeForce GTX 780 Ti gegen GTX Titan im Test

Kommt auf die Drehzahl an. Einen 140er mit 200U/min zu hören ist schon wieder anspruchsvoll.
Aber jeder hat da ein eigenes Empfinden, ein Freund von mir hat z.B. einen Lüfter der versehentlich auf 100% lief nicht als störend empfunden, während ich schon nach 5 Sekunden an die Decke gegangen bin. Halte ich allerdings mein Ohr an einen der 120er eLoops @1100 U/min höre ich nix.
 
Thanok schrieb:
Interessant ist vielleicht auch das Performance/Watt Verhältnis: Laut HT4U liegt die Ti dabei auf Niveau der Titan, obwohl der Takt leicht erhöht wurde (und der Boost allgemein etwas offensiver aussieht). Es scheint also als würde die B1 Version des GK110 nicht bloß besser takten als der Vorgänger, sondern auch etwas effizienter arbeiten. Große Sprünge wird der Chip sicherlich nicht gemacht haben, aber auch kleine Verbesserungen sind Verbesserungen.
Dein persönliches Fazit ist reichlich unüberlegt. Bei deiner Ausführung unterschlägst du 2 gravierende Punkte.
1: Die Double-Precision-Leistung der GK110-GPU wird auf der Karte auf ein Achtel der maximal möglichen Leistung gekürzt.
2: 3GB Speicher im Vergleich zu 6GB Speicher.

Zealord schrieb:
...
Und scheinbar hat Nvidia keine golden samples verteilt bei der Karte, im gegensatz zu AMD,....
Deinen Beiträgen kann man ganz leicht den Status unwichtig geben.
1: Du gibst Thanok bei seinen unüberlegten Fazit zur Effizenz recht, also du hast auch absolut nicht darüber einen Gedanken verschwendet.
2: Schreibst du gerne auch Unwahrheiten wie zB in dem Beitrag den ich von dir zitiert habe.
...waren Vorwürfe aufgenommen, die Presse könnte selektierte Karten erhalten haben. Als Ursache für die unterschiedliche Leistungsfähigkeit stellte sich allerdings nicht die GPU sondern das Kühlsystem heraus. ...
https://www.computerbase.de/2013-11/amd-passt-lueftersteuerung-der-referenz-r9-290-x-an/


Zum Thema:
AMD hat sich keinen Gefallen mit dieser Art der Vorstellung gemacht. HT4U hat gezeigt im Gegensatz zu ComputerBase, dass man mit einem anderen Kühler sowohl Lautstärke, als auch Wärme, sowie auch die Leistungsaufnahme deutlich verringern kann. Erst wenn eigene Lösungen der Grafikkartenhersteller den Markt beliefern, wird die 290 und 290X ein gutes Produkt sein. Nvidia müsste dann praktisch reagieren und die Preise nochmals senken. Kann natürlich für den Kunden nur gut sein.

Aktuell sehe ich eine 670 als eine super Gamer Karte.
 
CB Vorschlag!

Die Test neuer Spiele (beta) unbedingt beibehalten! Die ergebnisse dann aber gesondert als Ausblick auffuehren. Dann gibts auch kein/weniger Gemecker. Einer der diesjaehrigen Blockbuster bf4 fehlt mir persoehnlich immer noch. Bitte nachreichen :-) vielleicht mit dem Test der Customdesigns. Oder wenn der Mantel patch kommt - in der Analyse. Momentan bin ich noch unentschlossen wem ich dieses Jahr mein Votum geben soll...(Forum) nein ich brauche keine Tips;)
 
AMINDIA schrieb:
Dein persönliches Fazit ist reichlich unüberlegt. Bei deiner Ausführung unterschlägst du 2 gravierende Punkte.
1: Die Double-Precision-Leistung der GK110-GPU wird auf der Karte auf ein Achtel der maximal möglichen Leistung gekürzt.
2: 3GB Speicher im Vergleich zu 6GB Speicher.

Die DP-Performance macht sich nur dann beim Verbrauch bemerkbar wenn sie auch benutzt wird. Das passiert bei Games aber nie und dank Powergating brauchen die Einheiten dann ja auch keinen Saft.
Der Speicher macht sicherlich ein bisschen was aus, aber nicht übermäßig viel im Vergleich zur GPU. Außerdem darfst du nicht vergessen dass der Speicher der Ti mit 7Ghz läuft und eine höhere Spannung hat.

Aber damit du nichts zu meckern hast: Die Karte ist in etwa so Effizient wie die Titan. Nun zufrieden?
 
@Thanok
1: Hat HT4U keine 780 Ti bekommen
2: Wo schreibt HT4U was von einem besseren Performance/Watt Verhältnis, wie du es sagst? Zeige doch mal die Stelle.
3: Wo kann man sehen, dass der Speicher mit einer höheren Spannung auf der 780 Ti läuft?
4: Wo gibt es den Vergleich zu sehen zwischen dem Verbrauch von 6GB zu 3GB Speicher inkl der angeblichen höheren Spannung.

Nein ich bin nicht zufrieden. Du kannst doch nicht sagen, die 780 Ti hätte ein besseres Performance/Watt Verhältnis. Dies dann weiterhin zu untermalen mit deinen Argumenten um dann aber gleichzeitig zu sagen es wäre in etwas gleich um es mir dann recht zu machen.

Was nun? Ist nun deine Aussage die 780 Ti hätte ein besseres Performance/Watt Verhältnis zur Titan richtig oder doch nur eine persönliche Einschätzung von dir?

3D Center schreibt.
Das neue Chipstepping sollte der GeForce GTX 780 Ti normalerweise auch weiterhelfen, ihren höheren Takt ohne erheblich mehr Stromaufnahme realisieren zu können. Allerdings bleibt es in der Praxis bei dieser Theorie, denn mit 249 Watt unter Spielen verbraucht die GeForce GTX 780 Ti immerhin 22,7% mehr als die GeForce GTX Titan in der gleichen Situation – angesichts von nur 19,5% mehr Rechenleistung und des neuen Chipsteppings schon bemerkenswert.
http://www.3dcenter.org/artikel/lau...nch-analyse-nvidia-geforce-gtx-780-ti-seite-2
Was deiner Aussage die 780 Ti hätte ein besseres Performance/Watt Verhältnis zur Titan widerspricht. Du solltest also zugeben, dass du da was falsches geschrieben hast.
 
Zuletzt bearbeitet:
AMINDIA schrieb:
@Thanok
1: Hat HT4U keine 780 Ti bekommen
2: Wo schreibt HT4U was von einem besseren Performance/Watt Verhältnis, wie du es sagst? Zeige doch mal die Stelle.
Da scheine ich die Seiten verhauhen zu haben. Ich such den Test mal bei Gelegenheit raus

AMINDIA schrieb:
3: Wo kann man sehen, dass der Speicher mit einer höheren Spannung auf der 780 Ti läuft?
Googlet man ein wenig, findet man ein Bild des Speichers der auf der 780Ti verbaut wurde, z.B dieses hier:
GTX-780-Ti-Memory.jpg

Nun benutzt man Google und gibt die Seriennummer ein, wodurch man auf der Herstellerseite folgende Tabelle bekommt:
H5GQ2H24AFR_Ordering_information_resize.jpg


Wo in den Spezifikationen ausdrücklich 1,6V angeführt werden.
Mensch, dieses Internet ist echt ein Teufelszeug!

AMINDIA schrieb:
4: Wo gibt es den Vergleich zu sehen zwischen dem Verbrauch von 6GB zu 3GB Speicher inkl der angeblichen höheren Spannung.
Du lenkst ab. Das kenne ich schon. Ich habe geschrieben dass der Effekt des kleineren Speichers durch die höheren Spannungen und den höheren Takt gemildert wird.
Dies ändert aber nichts daran dass die Karte allgemein in etwa so viele Watt/fps benötigt wie die Titan. Selbst wenn die Titan 3TB verbaut hätte.

AMINDIA schrieb:
Nein ich bin nicht zufrieden. Du kannst doch nicht sagen, die 780 Ti hätte ein besseres Performance/Watt Verhältnis. Dies dann weiterhin zu untermalen mit deinen Argumenten um dann aber gleichzeitig zu sagen es wäre in etwas gleich um es mir dann recht zu machen.
Ich habe nur von vergleichbar, bzw. ähnlich gesprochen, niemals von besser.
Ich hatte gehofft dass du Ruhe gibst wenn ich meine Zweifelhafte Formulierung korrigiere, leider suchst du weiter nach Angriffsflächen. Kein Problem, ich hab Erfahrung mit Leuten wie dir. Ich werde meinen Spaß mit dir haben :D

AMINDIA schrieb:
Was nun? Ist nun deine Aussage die 780 Ti hätte ein besseres Performance/Watt Verhältnis zur Titan richtig oder doch nur eine persönliche Einschätzung von dir?
Die Aussage stammt nicht von mir, sondern wurde mir von dir in den Mund gelegt. Und nein, sie ist nicht korrekt.

AMINDIA schrieb:
Was deiner Aussage die 780 Ti hätte ein besseres Performance/Watt Verhältnis zur Titan widerspricht. Du solltest also zugeben, dass du da was falsches geschrieben hast.
Da zitiere ich mich doch glatt selbst:
Thanok schrieb:
Die Karte ist in etwa so Effizient wie die Titan
Extra für dich die nicht-eindeutige Formulierung. Zur Erklärung: Effizient ist für mich eine Karte wenn sie mit wenig Strom viele fps auf den Schirm zaubert.
Wenn diese Aussage falsch ist darfst du gerne das "Neuland" Internet bemühen und mich widerlegen. Ich weiß dass du es nicht tun wirst, weil die Quellen für mich sprechen. Verflucht sei mein Drang nach fundierten Argumenten zu suchen ;)


*Dieser Post könnte geringe Mengen an Ironie und Selbstdarstellung beinhalten

Edit: Ich habe gerade nochmal den Post gesucht auf den du dich beziehst: Ich habe die Effizienz der Karte vergleichbar genannt und den Chip als etwas Effizienter. Dies lässt sich durch den aggressiver agierenden Turbo erklären der den Takt stärker hebt als noch bei der Titan wodurch auch höhere Spannungen anliegen die die Effizienz verschlechtern würden.
Da die Ti jedoch bei höheren Turbostufen genauso effizient agiert wie der "alte" Chip in niedrigeren habe ich gefolgert dass es leichte Steigerungen bei der Effizienz gegeben hat.
 
Zuletzt bearbeitet:
Hallo Miteinander,

es ist traurig, das alle im Prinzip das selbe meinen, jedoch jeder für sich recht behalten möchte, auf sein eigenes gewähltes Produkt, verständlich, jedoch nicht Diskussionsfördernd.

Die ganze Geschichte ist im Prinzip ziemlich einfach.

Standard
- Nvidia hat den besseren Kühler, garantiert damit einen halbwegs leisen Betrieb und kühlere Temperaturen und damit auch gleichzeitig besseren Stromverbrauch
- AMD verwendet einen, sagen wir wie es ist, miesen Kühler, welcher weder leise ist, noch gut kühlt und somit der Stromverbrauch auch noch steigt

Fazit Standard
- Nvidia kann in den meisten Fällen einen "Standardtakt" wahren und hier&dort auch eine "Boostnutzung" über dem Standardtakt gewährleisten
- AMD gelingt dies nicht im Quiet Mode, wo das Hauptziel war "leise" zu bleiben und den Takt entsprechend zu senken
- Beim Übermode wird die Karte extrem laut, hier ändert sich schlichtweg nichts anderes, als dass der Lüfter schneller arbeitet, bis zu einem gesetzten Limit, um die Karte "mal wieder", vom Takt zu beschneiden, sobald das Temperaturtarget erreicht wird

Übertaktung - Manuell -> Lüfter/Powertargetvorgabe
- Nvidia kann den Boosttakt in nahezu jeder Situation halten (außer Furmark&Co), so lange die Temperatur unter dem gesetzten Temptarget von Nvidia bleibt. Dies kann man mit dauerhaften 1100Mhz ebenfalls stabil halten, so lange die Temperatur stimmt, nur gelingt dies Nvidia eben weitaus kühler+leiser
- AMD kann dies theoretisch auch, stellt man den Lüfter über 55% und 1100Mhz, eben so schnell wie er drehen muss um die Karte unter dem Temptarget zu halten, so läuft auch die Karte bombenfest mit 1100Mhz

Fazit Übertaktung Beim Takt gibt es keinen Unterschied, beide Karten laufen prima mit Boost+OC, so lange die Temperatur und somit die Kühlung funktioniert. Nvidia ist da einfach nur leiser und AMD irre laut durch den schlecht gewählten Kühler.

Powertune/NvidiaBoost
GTX XXX PT 106% -> Standard 900Mhz -> 1100Mhz OC -> Kühlung passt -> hält
GTX XXX PT 106% -> Standard 900Mhz -> 1200Mhz OC -> Kühlung passt nicht -> Takt fällt
GTX XXX PT 106% -> Standard 900Mhz -> 1300Mhz OC -> Kühlung passt -> PT wird erreicht -> Takt fällt

AMD XXX PT 120% -> Standard 1000Mhz -> 1100Mhz OC -> Kühlung passt -> hält
AMD XXX PT 120% -> Standard 1000Mhz -> 1200Mhz OC -> Kühlung passt nicht -> Takt fällt drastisch
AMD XXX PT 120% -> Standard 1000Mhz -> 1300Mhz OC -> Kühlung passt -> PT wird erreicht -> Takt fällt
AMD XXX PT 150% -> Standard 1000Mhz -> 1300Mhz OC -> Kühlung passt -> hält

Fazit Boost
Das ist die Theorie und die Theorie funktioniert perfekt, wenn man sie versteht und sich auch daran hält. Man muss dabei nur beachten, dass wenn das Temptarget höher ausfällt, die Karte auch mehr Strom verbraucht und somit das PT schneller erreicht wird.

Zahlen AMD
Takt 1100Mhz
Temptarget 95C°
Lüfter@ 3000rpm

Takt 1100Mhz
Temptarget 80C°
Lüfter@ 5000rpm

Takt 1300Mhz
Temptarget 95C°
Lüfter@5000rpm

Takt 1000Mhz
Temptarget 60C°
Lüfter@ 1000rpm
3 Slot Kühler


Großes Fazit

Im Prinzip ist es völlig egal, was man testet, so lange die Grundlage eine andere ist. 2 Karten mit Boost gegeneinander antreten zu lassen, wo weder das eine, noch das andere Kühlsystem etwas taugt, ist gelinde gesagt realistisch, aber für viele hier uninteressant, da sich die Leistung der Karten (Temperatur+Stromverbrauch ausgeklammert) nicht vernünftig vergleichen lässt.

GTX 780Ti&AMD 290X + Prolimatech MK-26 im selben Gehäuse mit exakt der selben Lüfterkonfiguration, wie auch Lüfterdrehzahl wäre für mich persönlich die einzig interessante Variante, da man so wegen identischer Kühllösung die exakte Leistung einer Karte abrufen kann, indem man die selbe Grundlage schafft.

Dann heißt es nämlich, vorausgesetzt Nvidia würde sich mal von ihrer Limitation der Karten wegbewegen (106% PT), was welche Karte schafft, wenn man sie mit 1000/1100/1200/1300Mhz gegeneinander antreten lässt. So ließe sich zu 100% vergleichen, zu was die Karten im Stande sind, wenn man die selbe Kühllösung verwendet.

Beispiel
- Takt 1300Mhz
- Temperaturtarget 85/95C° (Nvidia/AMD)
- Kühlung+Lüftzerdrehzahl identisch
- Stromverbrauch
- welcher max. Takt kann unter der gleichen Voraussetzung und Arbeit am durch den Hersteller gesetzten Limit erreicht werden (PT+Temptarget)

Am Ende hätte man eine Liste, wo aufgelistet wird, bei welchen Taktraten, welche Temperatur erreicht wird, und wie hoch der Stromverbrauch ausfällt. So hätte man als Fazit einen erstmals vernünftigen Vergleich, herunter gebrochen auf die pure Leistungsfähigkeit der Karten unter identischen Umständen.

Solche Tests fehlen mir ein wenig. Es bringt schließlich auch nichts eine AMD 290(x)+Artic Xtreme III gegen eine Referenz Nvidia GTX 780ti antreten zu lassen um die AMD im besserem Licht dastehen zu lassen.

PS: Sollte jemand Schreibfehler finden, bitte nicht übel nehmen, ein doch recht langer Beitrag. Habe keine Lust den zu zu korrigieren, es ist WE :D
 
Zuletzt bearbeitet von einem Moderator:
Tja Galaxy das mit den gleichen lüftern wäre natürlich das optimum.

Ich finde es trotzdem gut das CB im geschlossenen System bencht da dies viel realitätsnäher ist als ein offenes Setup, vorallem seit die Grakahersteller mit dem ganzen Boost müll angefangen haben
 
Zuletzt bearbeitet:
@Athlonscout
Mag schon sein, das es bessere Retailkühler als die von EVGA gibt aber es gibt mit Sicherheit auch schlechtere. EVGA ist ja offiziell ein Premium Lieferant von Nvidia.
Ich bin weit weg davon das beste zu haben. Sieht man ja an meinen alten Ivy und an der GTX 770. Die ganzen Sachen sind sehr teuer hier und meine GTX 770 hat das gekostet, was eine GTX 780 in Deutschland kostet.
Eine R9 290x 4gb + Battlefield 4 kostet hier R$ 2.199,- was Euro 709,- entspricht. Soviel zum Thema billig.
 
Der Boost Modus von AMD und Nvidia unterscheidet sich insofern, dass man für maximale Taktraten bei Nvidia noch das Powertarget anheben sollte, während man bei AMD sich eigentlich nur um den Lüfter kümmern muss.

Ein Vorteil hat dies aber nicht.

Nvidias Lösung ist insofern besser, da die Karten die Taktraten nicht so massiv heruntersetzen wie bei AMD.
In der Praxis dürfte dies mit dem neuen Treiber aber keine Relevanz haben.

Insofern würde ich sagen, dass beide Lösungen sich nicht wirklich von einander unterscheiden.

Vorteil bei AMD ist wohl, dass spätestens, wenn ein Customkühler auf die Karte geschraubt wird, man durchgehend 1000mhz erreicht und man bei NV vieleicht noch etwas nachhelfen muss.

Das ist aber Korinthenkackerei.
 
@ V2.0 i
Mit Customkühler werden die Karten ziemlich sicher 1000 Mhz halten. Mit Wakü sollte es kein problem sein 1150 zu halten.
Und das auch bei moderater Spannung auf der CPU so wie hier.
http://abload.de/image.php?img=r9_290x_overclockingw8ufk.jpeg

Das sollte aber bei der 780i auch kein problem sein.
Das problem ist der Preis mit nem ordentlichen Kühler ist das teil für die Leistung viel zu teuer den wirklich schneller als ne gut gekühlte 290X ist sie nicht. Und für SLI mit 3 GB ein Witz- Das macht AMD besser bei einem Crossfire System.
 
Zuletzt bearbeitet:
Ist eine schoene Karte geworden.....leider wird zu oft ein Vergleich zur Titan gezogen. Diese beiden Karten befinden sich aber nun mal in 2 voellig unterschiedlichen Anwendungsgebieten, eine Titan war nie fuer das reine Spielesegment gedacht (was die meissten "ich kauf mir ne tolle Titan" Kaeufer fuer ihren Spiele-PC aber nie begriffen haben).
Somit ist das ein gutes Update zur GTX 780, was es mehr nicht werden sollte! Nur der Preis sollte etwas nach unten gehen.

Das staendig versucht wird eine R9 290X als die bessere GPU darstellen zu wollen (was sie auf jeden Fall nicht ist, einzig der Preis ist besser, denn nur darueber gleicht AMD leider seit Jahren aus) war vorhersehbar....die "alte" GTX 780 mit und ohne Ti haben immer noch keine Probleme gegen AMDs neue Generation zu bestehen und als Gesamtpaket empfehlenswerter zu sein.
Was nicht heisst das ich was gegen AMD haette oder man nicht ebenso mit einer 290 / 290X zufrieden gestellt wird.....und mit Customkarten scheint die 290X ja auch noch mal Boden gut machen zu koennen, nur wird es dies mit der 780 Ti genauso geben.

Fuer mein Anwendungsgebiet waere leider die Titan nach wie vor interessanter, aber bei dem bleibendem Preis und wenn man sieht wie die 780 Ti dagegen nun skaliert im Gaming-Bereich, werde ich wohl doch weiter warten falls sich bis Ende Dezember nicht was gutes ergibt.
 
Ich frage mich ob es eine 780 Ti Lightning geben wird. Die 780 Lightning hat mir nicht so gut gefallen wie die 680/7970 Lightning.
 
HÄÄÄÄ ????

Ich dachte immer, die "Ti"-Version sind abgespeckte Versionen von der normalen GTX...

?????
 
Lord_Morpheus schrieb:
Vergleicht man die beiden Referenzdesigns direkt miteinander ist das Ergebnis eindeutig. Hier verliert die R9 290x im Quiet Modus aufgrund der schlechteren Leistung. Und im Performance Modus verliert sie aufgrund der Lautstärke und des hohen Stromverbrauchs.
Aber wenn man der R9 290x einen guten Kühler spendiert sieht das Ergebnis anders aus:
Geforce GTX 780Ti = ca. 650 Euro
Radeon R9 290x = ca. 500 Euro + Guter Kühler je nach Modell 50-110 Euro

Vorteile GTX 780Ti
- Out of the Box problemlos lauffähig
- Übertaktungspotential vermutlich höher

Nachteile GTX 780Ti
- Immer noch teurer
- Kühler definitiv deutlich schlechter und lauter

...

Nachteile R9 290x + guter Kühler
- muß selbst umgebaut werden
- Garantieverlust(!)

Für Nutzer die so einfach wie möglich Performance haben wollen ist die 780Ti die bessere Wahl.
Für versierte Nutzer, die sich den Umbau zutrauen und denen ein leiser, effizienter und schneller Rechner wichtig ist, für die ist die R9 290x die bessere Wahl und das deutlich.

ich denke das kann man erst sagen wenn Custom Modelle da sind da der manuelle Lüftertausch für die meisten wohl kaum ne Option ist.
Im Prinzip geht es, so finde ich, weniger um 780 Ti vs R9 290X als eine recht weit OC GTX 780 gegen die AMD, die beiden Modelle sind recht ausgeglichen.

Radeon R9 290x = ca. 500 Euro + Guter Kühler je nach Modell 50-110 Euro

da kann man dann zb eine Palit SJ dagegen stellen, wobei die 290X dann wieder etwas mehr OC Potential oben raus haben dürfte.

Out of Box hab ich dann aber ne Karte die für 440€ ink Kühler die dabei auch noch einige W sparsamer zu Werke geht als eine R9 290X im Uber Mode.

Vorteile R9 290x + guter Kühler
- Super leise und kühl
- Stromverbrauch und Effizienz auf GK110 Niveau
- günstiger
- dabei Leistungsmäßig mindestens ebenbürtig

Hm naja, die 290X wird wie die 290 auch mit alternativem Kühler viel saugen... siehe hier, also etwa 420W im CB Testsystem mit AC Xtreme III (eher mehr da sie ja nicht throttelt) - eine 780 Ti oder eine Palit SJ bei selber Leistung etwa 340 -350W also ~ 70W weniger was nicht so wenig ist.

Keine Ahnung weshalb die AMD Karten oben raus gerade recht ineffizient sind, ich denke das liegt an der hohen Temp und daran, dass noch gar nicht ersichtlich ist welchen Takt die Karten bei selber Spannung und kleiner Temp machen. Maybe kann man eine R9 290X mit AC Xtreme III bis 1200Mhz und vielleicht gesenkter Spannung betreiben wenn sie unter 80°C hat.

Ich denke Platz ist für alle Karten, was man zu welchem Preis empfehlen kann hängt bei AMD wohl eher an der Qualität und Leistung der Custom Modelle die hoffentlich nicht so lange auf sich warten lassen. Eine 290X @ Wakü und massiv OC reizt mich auch - nur frag ich mich wieso der große 550mm² Chip bisher noch besser geht... naja vielleicht liegts allein an der Temp und @ Wakü dann bei 55°C macht die R9 290X vllt 1400 Mhz, who knows.
Ergänzung ()

M.B.H. schrieb:
HÄÄÄÄ ????

Ich dachte immer, die "Ti"-Version sind abgespeckte Versionen von der normalen GTX...

?????

Ti war schon immer ein gewisser Zusatz der Mehrleistung suggerierte. Eine GTX 670 Ti folglich schneller als eine GTX 670. Zum Bleistift.
Ergänzung ()

V2.0 schrieb:
Nvidias Lösung ist insofern besser, da die Karten die Taktraten nicht so massiv heruntersetzen wie bei AMD.
In der Praxis dürfte dies mit dem neuen Treiber aber keine Relevanz haben.

Insofern würde ich sagen, dass beide Lösungen sich nicht wirklich von einander unterscheiden.

das hat ganz erheblich Relevanz da die AMD Referenz Karten eben an ihrem Temp Limit arbeiten - bei Nvidia ist dem nicht so. Der neue Treiber bei AMD ändert daran 0 - die Karte throttelt ja trotzdem und nicht zu knapp - bei Nvidia dreht dann eben der Lüfter hoch um die ~ 83 °C bei selbem Powertarget zu halten.

Egal obs 10Grad oder 40 Grad in deinem Zimmer hat, die Nvidia Karte regelt eben auf ihren angegebenen Temp / PowerLimit. Mindestens den Baseclock hät man. (außer 100% Lüfter reichen für zb 95°C nicht mehr aus)

Die AMD wäre bei im Über Mode bei 10 Grad Zimmertemp mit Sicherheit immer am Max Boot Takt von 1000Mhz, der Lüfter fix bei 55% bzw nun bei XXXX rpm, die Karte vielleicht bei 85 °C.
Bei 40 Grad im Zimmer die Karte bei 95°C, Fan bei XXXX rpm bzw 55% und nebenbei throttelt die Karte auf 600-800 Mhz weil die Kühlung nicht hochfährt.

Merken tust de das ja erstmal nicht, weder an Lautstärke noch sonstwas. Da musst du erstmal deine FPS oder diene GPU Clocks überwachen ^^
 
Zuletzt bearbeitet:
V2.0 schrieb:
Der Boost Modus von AMD und Nvidia unterscheidet sich insofern, dass man für maximale Taktraten bei Nvidia noch das Powertarget anheben sollte, während man bei AMD sich eigentlich nur um den Lüfter kümmern muss.
Eigentlich muss man bei NV das Temp-Target anheben, das PT erreicht man nur mit größerem OC. Oder aber, alternativ, setzt man die Lüfterdrehzahl hoch.
 
Gibt es bei den nV und AMD Karten eigentlich die Möglichkeit, das Boost-Verhalten außer Kraft zu setzen und einen Permananten Boost Takt anzulegen, mit einer Maximaltemperatur, die vom Lüfter um jeden Preis gehalten wird (notfalls bis 100%)? Mit MSI Afterburner kann man sowas ja einstellen. Frage, ob das bei den neuen Karten so geht?

@Thanok
Du schreibst in der Signatur was von Perma-Boost, wie hast du das realisiert?
 
Die Karte taktet dank meines Kühlers immer mit dem Maximalen Turbotakt, da sie nicht warm genug wird.
Man kann allerdings auch den Turbo per BIOS-Flash deaktivieren, so dass die Karte dann statt des normalen 3D Takts direkt in den höchsten Turbotakt wechselt.
Ich vermute bei AMD geht es auch per BIOS-Flash.
 
Wer hat sich den Mist bloß ausgedacht. Wenn es im Sommer wärmer ist, will ich doch nicht, dass die Karte langsamer läuft, sondern dass der Lüfter höher dreht. :freak:
 
Zurück
Oben