Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

zeedy schrieb:
Das würde ja bedeuten, dass eine 290X, selbst wenn die CPU damit meinetwegen 20W mehr aufnimmt, über 300W zieht (970 180W ). Was jedoch nicht der Fall ist. Auch weil das Power Target deutlich darunter liegt.

Oder willst du mir erzählen, dass sich der reelle ~70W Verbrauchsunterschied zw 970 und 290X mehr als verdoppelt, sobald man eine Gesamtsystemmessung durchführt? :lol:

Keine Ahnung ob CB Mist misst oder die Werte einfach würfelt. Plausibel sind sie aber nicht.
Und wenn man noch bedenkt, dass die GPU beim Zocken nicht ständig voll ausgelastet wird, dann ist dieses Märchen, dass man den höheren Preis einer 970/980 durch den geringeren Verbrauch wieder ausgleicht, einfach nur lächerlich.

Der "höhere" Preis beträgt ja lediglich 20 - 50€ und die holt man in der Tat bei einer Nutzungsdauer von 2 Jahren als Zocker über den Strom locker wieder rein, also ist die Argumentation absolut plausibel. Das ist doch einfache Mathematik......hmmm was genau war jetzt "einfach nur lächerlich".....ah ich weiß was :D
 
Zuletzt bearbeitet:
Seeadler du hast den Test nicht wirklich gelesen oder?
 
Niceguys schrieb:
Gut Okay die Testweise ist vielleicht fragwürdig und der ein oder andere amd fan beschwert sich über die referenzkarten. Man vergisst dabei aber, das auch die nvidia karten referenz sind und nicht nvidia custom gegen amd referenz getestet wurde.


Wenn die NVidia Karten ebenso Probleme hätten im Referenz-Modell bezüglich Leistungsaufnahme und Takt hätte wegen der Abwärme, dann sollte da auch ein Custom-Modell verwendet werden, wenn dort keine Probleme auftreten würden.
Die Problematik ist ja seit kurz nach Release der R9-290er Serie bekannt und es wurde ja auch recht schnell festgestellt, dass ein halbwegs vernünftiger Custom-Kühler bei den Hawaii-Karten viel bringt.

Das ganze ist bald 2 Jahre her, im Forum wurde es auch mehrfach gefordert, dass doch bitte ein halbwegs gutes Custom-Modell als Referenz-Karte genutzt werden soll, da eben die Referenz-Kühler der R9-290er Reihe Mist sind und die Teile sowieso keiner kauft bzw. überhaupt nicht zu bekommen sind weiter.
Dass das ganze weiterhin ignoriert wird finde ich persönlich auch nicht okay. HT4U macht es doch auch, dort findet sich in den Test-Reihen auch Custom-Modelle mit eingereiht. Ich weiß ja, dass der Aufwand recht hoch ist, solche Tests durchzuführen etc. Zeitaufwendig usw. Aber beim nun neu aufgestellten Testparcours hätte man doch wenigstens das berücksichtigen können.

Btw. wegen der Preis-Leistungs-Sache: AMD scheint eine Preissenkung der R9-285 anzusetzen bei den Händlern. Der Preis soll auf 180€ fallen um gegen die GTX 960 mit dem The Witcher 3 Angebot anzukommen halbwegs.

Quelle: http://www.techpowerup.com/212206/amd-cuts-prices-of-radeon-r9-285.html
 
zeedy schrieb:
Gehts noch unseriöser? :rolleyes:
Manchmal hab ich echt das Gefühl hier sind nur kindische (Nvidia) Fanboys unterwegs.

Das ist Fakt, so ist das nun mal leider.
Man gewinnt da unweigerlich den Eindruck, daß einige Energieversorger bei AMD als Sponsor tätig sind.

Wird langsam mal Zeit, daß die EU auch für die übrigen Elektrogeräte (wie Hartware) auch bei CPU, Grakas und Netzteile,
das EU-Energielabel für die Energieeffizienz,
eu_energielabel.gif
als Entscheidungshilfe für die für Verbraucher einführen.
 
Zuletzt bearbeitet:
Nachfrage bzw. Anregung dazu: Ryse scheint ja eher ein AMD-lastiges Spiel zu sein, sind die Radeons dadurch bei der Leistungsaufnahme im Nachteil oder sind die Werte in anderen Spielen ähnlich? Warum wurde genau der Titel gewählt?
Ich habe fast jedes neue Spiel auf der GTX 980 und der R9 290X bezüglich Leistungsaufnahme kontrolliert, da wir einen Anno-2070-Nachfolger brauchten. Ryse hat schlussendlich gewonnen, da bei dem Spiel der Testrechner mit am meisten Strom benötigt, es noch eine gute Skalierung nach oben gibt (um nicht ins CPU-Limit demnächst zu geraten) und auch CF/SLI gut funktioniert. Wirkliche Nachteile für AMD/NVidia im Vergleich zu anderen Spielen gibt es nicht. Je nach Spiel kann es immer mal +-10W in eine Richtung gehen. Mehr ist es aber selten. Auch nicht bei Ryse.

Aber ich lass das mal so stehen, wenn die R300er wirklich als Ref. die WaKü bekommt ist, dass das nächste worüber sich beschwert wird, wie doof doch das Testverfahren ist. Wenn das nicht hier und jetzt kritisiert wird, hat in diesem eintretenden Fall besser niemand etwas am Testverfahren auszusetzen.
Warum sollte das Testverfahren mit einer Wakü dumm sein? Sehe da keinen Grund für.

Zum Argument: Es kauft niemand Referenz.
Das stimmt so ja auch wieder nicht. Von der R9 290(X) konnte man monatelang NUR die Referenz kaufen ;)

Bei der Preis/Leistungsbewertung fehlt der Unterschied im Stromverbrauch, der zum Beispiel bei der GTX970@OC vs R9 290X@OC eine deutlich höhere Netzteilklasse mit sich bringt sowie höhere Ansprüche an die Gehäusebelüftung stellt. Damit dreht sich das P/L-Verhältnis.
Das P/L-Verhältnis bei uns im Test ist eher ein reines Preis/Geschwindigkeits-Verhältnis. Da wird ja jede Menge anderer Sachen auch nicht mitein bezogen. Das ist der Nachteil daran.

1. Warum wurde nicht mit aktuellen Treibern getestet. Laut Gamestar sollte der GTAV Treiber von AMD (15.4) für ein großes Plus sorgen. Der NVIDIA Treiber ist anscheinend auch schon älter.
Die Arbeiten an dem Tetparcours finden schon an, da gabes die Treiber noch gar nicht.
Wie im Benchmark & Methodik Artikel drin steht, kommen in GTA V aber der Cat 15.4 und der GeForce 350.irgendwas zum Einsatz :)

zeedy hat schon bisschen recht. die custom 290x ist nur eine referenzkarte die oc wurde. die karte ist also keine z.b. asus direct cu oder ähnliches, welche besser kühlt.
Das OC mit Partnerkarten kann auch nach hinten losgehen.
Das haben wir mit einer R9 290X Referenz und der Gigabyte 290X WindForce ausprobiert. Selber Takt, die Gigabyte hat rund 15-20 Watt mehr verbraucht.

@Wolfgang - Der Test ist ne super sache, vielleicht täusche ich mich aber ich habe die Angabe der durchschnittlichen Taktrate der OC-Partnerkarten vermisst, denke das wäre ganz interessant.
Alle Stunden wieder - hier stehts :)
https://www.computerbase.de/artikel...eite-2#abschnitt_die_tatsaechlichen_taktraten

ja, die 280 habe ich auch vermisst
Natürlich ist es schade, dass nicht alle modelle drin sind.
Doch irgendwann muss man nunmal einen Schnitt machen, um nicht die Arbeit ausufern zu lassen :)

Performancetechnisch liegen die 285 und die 280 im Schnitt quasi gleich auf, erfahrungsgemäß.

Es wurde eine Chance vertan die kommenden technischen Neuerungen in der Entwicklung zu beobachten und ebenso bisherige Testmethoden endlich sinnvoller zu gestalten. Alleine, dass IMMER noch nicht von den Komplettsystem Verbrauchsmessungen abgegangen wird ist IMHO eines der KO Kriterien! Denn jedes System packt unterschiedliche zusätzliche Stromverbraucher mit in die Rechnung und das je nach Höhe des Strombedarfs auch mehr oder weniger.
Natürlich würden wir gerne auch die Leistungsaufnahme der Grafikkarte messen können.
Doch leider ist das ganze echt nicht leicht. Da geht es nicht nur die Anschaffungskosten, alleine dieKalibrierung der Geräte...
Und ganz ehrlich: Aktuell gibt es ein (ja, EIN) Magazin weltweit, das die Leistungsaufnahme richtig messen kann. Ein einziges. Alle anderen nutzen, hart ausgedrückt, Bastellösungen, die zwar nur die Leistungsaufnahme der Grafikkarte messen, dabei aber nicht wirklich korrektz sind - schon gar nicht bei den neusten Grafikkarten.

falsch, zumindest wenn man Tonga auf der R9 285 mit einbezieht und nur wenn man mit dem Windows Codec benutzt. Vielleicht geht es deshalb bei CB nicht?
Wir haben die Beschleunigung per UVD auf Tonga bei H.264 und Ultra HD einfach nicht hinbekommen. Ich kann es gerne noch mal probieren, doch es geht auf jeden Fall nicht "einfach so". Und wenn wer Tipps hat, nur zu - gewundert habe ich mich übrigens auch.
 
olalaaa schrieb:
amd sollte den preis der 290x auf 250€ senken, mehr ist die veraltete gpu einfach nicht wert.

Veraltete CPU? Wenn ich sowas mal wieder lese. Die Hawaii-Architektur hatte ihr Release im Herbst 2013 und ist sehr modern. 4 Rasterizer, 4 Tessellation-Units, Speicheranbindung mit ca. 330GB/sec, ... usw. usf. bevor ich mich hier in Details verliere, höre ich auf, wahrscheinlich verstehst Du das eh nicht und es ist Dir auch egal.

teLmi51 schrieb:
ich frag mich ja echt wie eine 290x auf einmal so viel besser sein kann als eine 780ti, die 780ti war anfangs sehr viel besser und ich hatte beide grafikkarten...

Vermutlich eine Sache der Treiber. AMD hat gut optimiert und Nvidia den Support für Kepler zurückgefahren.

White_Eagle schrieb:
Bei AMD hab ich da einfach nur das Gefühl, die Graka saugt jeden Moment doch glatt die Steckdose mit aus der Wand :eek: ,
so gierig ist deren Hartware (dies auch bei CPU). :rolleyes:
Was machen die denn nur? :mad:

Was die machen? Ich frage mich eher, was Du so treibst, wenn Du am Rechner sitzt. Ich habe hier gar 2 mal die 290 verbaut und kann das, was Du hier schreibst, überhaupt nicht nachvollziehen. Hast Du noch eine Webcam auf den Stromzähler gerichtet? Hast Du nix anderes zu tun, als damit Deine Zeit zu vergeuden? Ich finde das einfach nur noch lächerlich, was hier bzgl. Stromverbrauch diskutiert wird :(
 
@White_Eagle
Nur das die Label´s die größte Kundenverarsche ist ;)
PS: Es ist noch immer die Hardware
 
Der Test zeigt vor allem eines auf:
Bis man VR-4K Hardware mit einer Single-GPU bei 100fps befeuern kann, wird noch ein wenig Zeit ins Land gehen.
Naja, ich kann sparen und warten. ;)
 
Erstmal Kompliment zum neuen Testparcours. die meisten Veränderungen finde ich sehr sinnvoll und interessant.

An die CPU-Kritiker Kritiker:
Das hier ist kein CPU-Test, sondern es geht um den Einfluss der CPU auf die Performanceunterschiede zwischen den Grakas und das ist natürlich nur sinnvoll, wenn die CPUs auch eine deutlich unterschiedliche Leistung haben. Davon abgesehen finde ich einen 2500 @ Stock garkeine so unrealistische Wah, weil so einer (bzw. eine ähnlich schnelle CPU) sicher noch in vielen PCs steckt und viele Leute eben nicht übertakten wollen oder können (nicht jeder hat ne K Version). Dass CB jetzt einen K-Prozessor hergenommen hat, obwohl sie ihn nicht übertakten wird wahrscheinlich einfach daran liegen, dass eine solcher eben gerade rum lag.

Womit ich nicht so ganz einverstanden bin ist, dass ihr die "Referenz-OC-Karten" außerhalb der reinen Performance Benchmarks verwendet (P/L und Leistungsaufnahme). Es ist eine Sache zu zeigen, in welchem Leistungsbereich sich die Karten auf dem Markt "im Durchschnitt" (wie auch immer man den definiert) befinden in dem man die Frequenz entsprechend hoch schraubt und dann testet. Aber erstens wird die Leistungsaufnahme der übertakteten Partnerkarten nicht im gleichen Maßen skalieren wie bei eurem übertakteten Referenzmodel (z.B. dank besserer Kühlung oder Chipauswahl) und das P/L verhältnis einer nicht existenten Karte ist ohnehin nicht sonderlich sinnvoll (mir ist noch nicht mal klar, wie ihr das überhaupt berechnet).

Mein Vorschlag: Tragt einfach die getesteten Partknerkarten in die Tabelle ein und lebt damit, dass sie am Anfang noch schlecht gefüllt sind (so wier ihr das jetzt auch bei der Lautstärke macht).
 
White_Eagle schrieb:
Man gewinnt da unweigerlich den Eindruck, daß einige Energieversorger bei AMD als Sponsor tätig sind.
Achso warte dann Sponsoren Mineralölgesellschaften auch Sportwagen mit mehr als 3 Liter Hubraum. Cool muss ich mich gleich mal umschauen. So einen BS habe ich schon lange nicht mehr gehört, und die Label sind auch nicht gerade der Gelbe vom Ei.
 
Wolfgang schrieb:
Zum Argument: Es kauft niemand Referenz.
Das stimmt so ja auch wieder nicht. Von der R9 290(X) konnte man monatelang NUR die Referenz kaufen ;)
+
Das OC mit Partnerkarten kann auch nach hinten losgehen.
Das haben wir mit einer R9 290X Referenz und der Gigabyte 290X WindForce ausprobiert. Selber Takt, die Gigabyte hat rund 15-20 Watt mehr verbraucht.

Daher wäre eine "halbwegs vernünftige" Custom-Karte später neben den Referenz-Karten ganz nett, wenn die Werte mit dabei stehen würden. Am Anfang ist das immer problematisch, da es ja eine Weile dauert, bis Custom-Modelle flächendeckend verfügbar sind. Aber die Vorstellung bzw. der Release der R9-290er Serie ist ja nun schon eine Weile her.

Das P/L-Verhältnis bei uns im Test ist eher ein reines Preis/Geschwindigkeits-Verhältnis. Da wird ja jede Menge anderer Sachen auch nicht mitein bezogen. Das ist der Nachteil daran.

Ist ja auch so in Ordnung. Anders wäre es wirklich Problematisch das ganze mit einzuberechnen.

Performancetechnisch liegen die 285 und die 280 im Schnitt quasi gleich auf, erfahrungsgemäß.

Kommt auch hin. Wenn man z.B. bei 3DCenter schaut, die ja immer einen Mittelwert von allen Testseiten errechnen, dann liegen die 285 und 280 in etwa gleich auf.
 
Wow, vielen Dank für den ausführlichen und extrem umfangreichen Test! Ist wirklich alles dabei was man sich wünschen kann.
Großes Lob!!

Zu den Kritikern: Bitte sachlich und höflich bleiben, bei dem Gemosere auf den ersten Seiten verliert man den Glauben an die Menschheit!
Und: ihr seid nicht der Mittelpunkt der Welt! Die Tests sind nicht ausschließlich NUR für euch und genau eure Anforderungen und Wünsche gemacht! Der Test war sicher viel Arbeit, von euch unbezahlte Arbeit und es gibt für jede Entscheidung diverse Gründe, also haltet gefälligst den Rand!! Dumme Kinder und Fanboys hier...


Zu den hier immer wieder gebrachten Kritikpunkten:

- stock vs custom Modelle, speziell bei Hawaii und Maxwell Karten: stimmt, Referenzmodell kauft wirklich niemand, es sei denn er oder sie baut sowieso eine eigene Kühllösung drauf (Luft oder Wasser) und nimmt daher das günstigste Modell oder ein PCB mit Standard Lochabstand.
Sonst würde ich statt Refetenzkarten grundsätzlich Custom Modelle testen, so wie sie die meisten Leute im Handel kaufen. Also die beliebtesten. ASUS, MSI, Gigabyte. Wegen einem Mittelwert für die OC Frequenzen der Custom Modelle: man nehme das Custom Modell was bei den OC Frequenzen aller in Frage kommenden Custom Karten einigermaßen in der Mitte liegt.
Also einmal ists ne ASUS, dann wieder ne MSI, dann weder eine Gigabyte usw.
Denn: dir Referenzkarten mit Referenztaktraten hat/benutzt NIEMAND!! Folglich kann man sich die Tests eben dieser Modelle sparen.
Die entscheidende Frage wird sein: bekommt ihr diese gewünschten Custom Modelle alle irgendwoher für Tests?

- i5 2500K. Ich kann einige hier verstehen die meinen, warum ne alte K CPU wenn die doch nur Leute zwecks OC (Möglichkeit) gekauft haben und ebenso betreiben müssen. Gut, dann schreiben wir eben i5 2500, ohne K. Nicht alle Leute übertakten ihre CPUs, sogar nur ein kleiner Teil! Und wenn man das OC nicht braucht, was man ja an den fps sieht, tut es ja auch niemand! Warum auch? Erzeugt nur höhete Stromkosten und macht den Chip + Umgebung wärmer und belastet das Kühlsystem und andere Elektronik stärker --> senkt die Lebensdauer des Systems. Wieviel sei mal dahingestellt, aber zB Kondensatoren mögen höhere Temperaturen überhaupt nicht. Was ich damit sagen will: irgendein Teil fällt irgendwann einmal aus und mit einer höheten Temp halt früher, egal ob man dann das System schon lange nicht mehr benutzt (sondern die Eltern als Office PC, oder die Oma odet sowas). Es hat einfach 0 Vorteile die CPU zu übertakten. Von Spezialfällen wie etwa Video encoding und eine Erhöhung der min fps in Extremfällen im extremsten cpu lastigsten mp game usw sehe ich hier einmal ab.
Ich finde es jedenfalls gut so! Sandy Bridge i5 @ stock vs Haswell i7@4,4GHz, was fps Differenzen zwischen AMD und nVidia aufzeigt, toll!
Zudem ist das hier kein CPU Test, also bitte, wie umfangreich soll der Test denn noch werden?

- Leistungsaufnahme: siehe erster "Punkt": Tests mit ausschließlich kaufbaren Custom Modellen!! Alles weitere erübrigt sich. Und dass Hawaii Chips bei bessetem Kühlsystem und damit niedrigerer Temperatur sehr deutlich weniger Strom verbrauchen ist bekannt. Man nutze eine Suchmaschine um Tests auf andeten Webaeiten dazu zu finden! :)

- Getestete Modelle: ja, es wird immer gemosert dass ein/sein Modell nicht dabei ist! Aber wie ich oben schon geschrieben habe: man kann sicher nicht so einfach ALLE Karten bekommen, die man sich wünscht, zudem würde der Test EWIG dauern und wäre dann nicht mehr aktuell.
Es wurden ja R9 280, Titan Black und R9 290X 8GB genannt. Stimmt, finde ich aber nicht schlimm. Ist mir auch egal, dass meine GTX660Ti nicht mit drinnen ist. Ich weiß ca wie schnell sie ist und im Vergleich zu den anderen Karten, also egal. Da guter 16:10 FullHD (1920*1200) IPS Monitor mit 60Hz, der vl 1,5 Jahre erst alt ist, sind mir die UHD benches völlig egal.
Ansonsten wäre ne R9 290X Tri-X 8GB (oder wenns gibt die Vapor-X) interessant gewesen, ja :)

- Treiber: hat der Test vor dem letzten AMD Treiber, 15.4 begonnen? Der ist doch schon fast 3 Wochen alt? Gibts dazu eine kleine Anmerkung oder einen Vergleich, zm in GTA V, wofür der Treiber ja gedacht ist?
Muss wohl so sein, denn auch nVidia Karten wurden nicht mit dem neuesten WHQL 350er getestet. Naja, wenigstens sind die AMD Optimierungen schon dabei :)
Dx11 ist der AMD Treiber ja was die Anzahl der Draw Calls betrifft ja hinter nVidia, bei dx12 hat sich das Blatt ja geändert laut einer Vorschau hier auf CB.
Heißt: Ich freue mich auf den Test der R9 390(X) auf Windows 10 unter directX12!! :))


Vielen Dank nochmal für den fetten Test!!

MfG
 
black90 schrieb:
Da muss man ein echter Nvidia Hater sein, oder auf Nvida Hater reinfallen um sich sowas zu kaufen.
Ich bleibe dabei und halte AMD aus meinen PCs raus. Mit dem Notebook hatte ich mehr als genug Ärger mit Treibern...muss nicht auch noch beim Desktop sein.

Achja? Komisch:

https://www.computerbase.de/artikel...2#diagramm-rating-2560-1440-normale-qualitaet

Hier ist die GTX 970 OC 1 Frame for ner R9 290 OC. Ich spiele auf einem Dell U2713HM, also in 2560x1440 (und meist sogar mit Downsampling von 3200x1800). In der Auflösung müsste die R9 290 dann sogar knapp vor der GTX970 sein. Von daher passt der Vergleich absolut.

Zudem habe ich extra noch vergleichbare Modelle genommen (beide MSI Gaming). Da habe ich schlimmstenfalls 90W Differenz. Und um die in Strom umzumünzen, muss ich die Karte 2,23 Jahre 3h täglich unter Last haben.

Soweit so gut, kann ich also mal sagen die Karten liegen in der Leistung und Strom über übliche Nutzungsdauer gleich auf. Dann kann ich andere Faktoren einbeziehen. zB dass die R9 290 in PowerDVD 14 Blurays auf 60fps (von 24) sauber hochrechnen kann, was die sehr viel flüssiger erscheinen lässt. Oder dass ich tatsächlich voll angebundene 4GB habe, die gerade beim Downsampling je nach Titel doch genutzt werden.

Das ist eine ganz furchtbar nüchterne Betrachtung ohne jedes Fanboytum.
 
Zuletzt bearbeitet:
Daedal schrieb:
Richtig. Alleine Aufgrund dieser Methodik sind sämtliche Testresultate als fragwürdig einzustufen und eigentlich wertlos.
+ CyberdyneSystem
Die Tri X braucht doch im Einzeltest genauso viel. 411W Gesamtsystem Last https://www.computerbase.de/2014-01/sapphire-radeon-r9-290x-tri-x-oc-test/4/#abschnitt_leistungsaufnahme

Oder was hab ich übersehen? Andere Karten brauchen teils noch mehr.
 
Zuletzt bearbeitet:
CyberdyneSystem schrieb:
@White_Eagle
Nur das die Label´s die größte Kundenverarsche ist ;)
PS: Es ist noch immer die Hardware

Nun, es dient wenigstens als Anhalt für die Nutzer, wie effizient das Produkt ist,
was er dann letztendlich kauft ist ja seine Obliegenheit.

Aufgrund der sehr schlechten Effizienz von Glühlampen (mehr Wärmeabgabe als Nutzungsabgabe),
hat man die Herstellung und den Vertrieb von Glühlampen in der EU ja schon unterbunden.

Diese sind nur noch unter den Begriff: "Designer-Leuchtmittel" erhältlich. :cool_alt:
Ich wünsche AMD nun ja jetzt nix schlechtes, daß sie ihre Hartware irgendwann mal als Designerprodukte anbieten müssen. :freaky:
 
Zuletzt bearbeitet:
black90 schrieb:
@hraf
Du vergleichst die 290 mit der 970er ! Korrekt wäre 290X vs 970 , was Leistung angeht.
Das AMD Teil bekommst bestenfalls 10€ günstiger, doppelter Verbrauch und doppelte Lautstärke.

Da muss man ein echter Nvidia Hater sein, oder auf Nvida Hater reinfallen um sich sowas zu kaufen.
Ich bleibe dabei und halte AMD aus meinen PCs raus. Mit dem Notebook hatte ich mehr als genug Ärger mit Treibern...muss nicht auch noch beim Desktop sein.

Achtung, Trollalarm! Was macht man mit Trollen? Man ignoriert sie, das ärgert sie am meisten.
 
Zuletzt bearbeitet:
Die Tri X braucht doch im Einzeltest genauso viel. 411W Gesamtsystem Last

Ganz anderes Game und wenn du dir den Test der Tri-X ansiehst dann sieht man das die höher getaktete Tri-X weniger braucht wie die Referenzkarte. Noch deutlicher zu sehen im Vapor-X Einzeltest.
 
Bei drei Monitoren hat AMD die Nase jedoch knapp vor Nvidia, weil keine einzige Grafikkarte mehr vollständig die Frequenzen verringern kann.

Ist das denn tatsächlich so? Ich hab hier zwei GTX 780 die insgesamt drei Bildschirme per Surround ansprechen und im Windows GPU und RAM jeweils auf 324 MHz runtertakten. Sind das noch nicht die kleinstmöglichen Leerlauf-Taktraten der 780?
 
Ich verstehe auch nicht warum Spielegrößen wie League of Legends oder World of Tanks keine Beachtung finden. :rolleyes:
 
Zurück
Oben