Test Grafikkarten 2014 im Vergleich – Sommerausgabe

Ich spring auf den Zug auf. CB hat gute Arbeit geliefert. In den letzten Jahren waren und sind für uns die GPU-Roundups am aussagekräftigsten, da sich auf der CPU-Front nicht viel tut.

Ich verstehe, das hier nur Grafikkarten im Referenzdesign getestet werden können, da dann der Aufwand überschaubar ist, und der Vergleich autentisch und fair gestaltet werden kann.

Ich vermisse auf meiner favorite IT-Seite - das ist für mich CB, weil plausibel und user-nah - mehr Tests von Grafikkarten in Custom-Designs. Für AMD-GPUs hat CB schon geliefert, aber NV-GPUs waren bis jetzt außen vor.

Aber vielleicht werden in Zukunft die Karten ganz anders gemischt - neues Spiel, neues Glück. Die meisten von uns nutzen keine Grafikkarten im Referenzdesign. Die Redaktion erklärt uns auch immer warum wir auf Grakas im Custom-Design warten sollen, und das zurecht. Es gab auch viele Tests von Custom-Lösungen, aber leider überwiegend für AMD-Hardware. Etwas fern von ausgeglichener Berichterstattung, wie ich meine.

Na ja, ist mir im Grund total egal, ich werd mir dann die Infos, die ich brauche, von anderen Quellen holen.

Aber eins lese ich aus den letzen Tests raus. Die Referenzdesigns sind so was von grässlich, sind ne Spassbremse. Ich wünsche mir mehr Tests von guten Custom-Design-Grafikkarten, aber nicht erst, wenn schon die neue Generation in den Startlöchern steht.
 
smilefaker schrieb:
Der Test ist eindeutig wieder pro Nvidia gefärbt

Obwohl die AMD Karten alle ganz klar den oberen Haufen des Preis-Leistungs Vergleichs ausmachen... ?
Aha.

Die Sache mit Mantle ist nicht ganz so einfach zu sagen, denn dann könnte man ja auch PhysX bei den unterstützten Spielen einschalten und behaupten, dass die AMD Karten ja alle scheisse sind, weil sie es nicht unterstützen (ohne vorherigen Aufwand, jedenfalls).

Mantle ist eine coole Idee, aber keine Aussage darüber, wie zukunftssicher die Karte ist.
Erst wenn es so flächenddeckend wie DirectX ist, sollte man es für Tests heranziehen. Ansonsten würde es die Ergebnisse verfälschen.
Oder aber, man bindet es nicht in das abschließende Performancerating ein.
 
Eine frage, würde es was bringen Watch Dogs auf der SSD zu installieren. Ich habe ne GTX 780 und spiele auf 900p. Das Spiel zuckt die ganze Zeit also die FPS gehen immer auf 35-45 runter für einen Moment und das nervt. Könnte da die SSD Abhilfe schaffen oder sollte ich lieber auf den nächsten Patch warten?
 
@george
Nein das bringt nichts. Habe WD auf meiner 840 Evo installiert und erkenne keinen Unterschied. Einig das Laden des Spiels etc. ist gefühlt schneller sonst nichts.

Die grössten Ruckler wirst du nur los, wenn du die Texturen auf High oder Medium stellst. Denn glaube es oder nicht. Watch Dogs benötigt auf Ultra einiges mehr als 3GB. Afterburner zeigt (bei mir) 2,7gb an, egal ob High oder Ultra. Da ist irgendwo ein Wurm drin.

Bug Dogs lässt grüssen.
 
das ist zwar offtopic, aber ne SSD hilft in deisem Fall wahrscheinlich nicht. Ne SSD ist nur für schnelle Ladezeiten gut, ist richtig gut wenn man Nachladeruckler vermeiden will. Bei Games wie Watch Dogs hilft nur ein sauber aufgestztes System und gute Hardware. Ich würde auf den Patch warten
 
deh3nne schrieb:
Aber solange die AMD Karten einen solchen katastrophalen Idle Stromverbrauch mit 2 Monitoren haben, kann ich davon kleine in Betracht ziehen. Verbrauch unter Last ist mir Wurst, aber im Idle, also der meisten Zeit in der ich normal am PC im 2D arbeite, gibt es keine Entschuldigung.

Das kann man schon teilweise weg diskutieren, beim Idle verbrauch kann ich nix sagen, da scheints wohl ein reines treiber problem zu geben, das kann also gefixt werden. Da ja mit 2 identischen Monitoren der Verbrauch nicht so hoch ist, gibt es keinen technischen grund warum ploetzlich bei unterschiedlichen Monitoren mehr verbraucht werden sollte.

Also wuerde jetzt mal nicht von aus gehen das es noch 1 jahr oder gar mehrere Jahre so ist.

Weiter gehst du einfach aus, das wenn mit einem Spiel der Stromverbrauch so hoch ist, das er dann unter allen spielen so hoch ist, bei allen Mantle spielen als beispiel sollte der unterschied zumindest geringer sein, da die CPU deutlich weniger dann ausgelastet wird und sie daher weniger verbraucht.

Zu guter letzt haette ich noch einen Vorschlag, eine alternative, wie du unabhaengig vom Hersteller die hohen Jahreskosten sparen koenntest, muss bei dir nicht passen aber vielleicht doch, ich habe 2 pcs, einen NUR zum zocken mit windows yatx ... und einen fuer alles andere ein kabini System ITX Formfactor.

hmm http://geizhals.de/biostar-a68n-5000-a1131671.html 65,- board mit cpu 4gb ram 30,- euro gehause mit externem passiven netzteil ab 30,- ne kleine ssd 60gb ab 35,- euro, muesste alles haben.

also insgesamt: 160,-

Stromverbrauch geschaetzt idle 15-20W unter last maximal 30Watt.

Wenn du nicht 3d Studio Max benutzter oder sowas bist sollte der super aus reichen.

Fuer mich war einer der Hauptgruende wegen dem sTromverbrauch das ich auf dem kleinen Linux immer griffbereit habe und damit arbeiten kann, wenn ich spielen will drueck ich f9 (damit schalte ich in linux ein monitor aus), drueck auf den powerknopf vom spielesystem der wacht in 2 Sekunden ausm Schlaf auf und ist bereit zum spielen.

Eingabegeraete benutze ich uber synergie (kostenlose opensource software) funtzt auch in spielen ohne probleme. kanna lso ein paar eingabegeraete fuer beide benutzen.
 
ich verstehe die Aufregung hier nicht. Battlefield wurde mit Mantle getestet, wenn es hier eine Verfälschung gibt dann eher pro AMD. Denn aktuell gibt es nicht mal eine Hand voll Spiele welche diese API unterstützen und soviel wird dieses Jahr da auch nicht mehr dazu kommen. Ob die Schnittstelle sich überhaupt auf lange Zeit durchsetzen wird ist auch nicht klar. Wenn in so einem kleinen Testparkours also Mantle bei einem oder mehreren Spielen in das Leistungsrating mit einfließt, dann wird dieses eher Richtung AMD verschoben. Denn im Vergleich zum aktuellen Spielemarkt ist Mantle damit im Test überproporzional stark vertreten.
 
Okay weil es ist ja vor kurzen ein Patch raus gekommen aber der soll ja nur eine leichte Verbesserung gebracht haben, wie wir auch jetzt sehen. Denkt ihr das es überhaupt noch auf einer GTX 780 mit 3GB ruckelfrei laufen wird? Auf der R9 290 war es wie gesagt ganz okay aber die GTX 780 hat eindeutig etwas mehr FPS. Und ich kann mir nicht vorstellen das Nvidia die Leistung der GTX 780 durch den RAM so limitiert hat. Außerdem spiele ich das Spiel auf 900p ich meine sogar auf 1080p oder gar 1440p sollten die 3GB für eine flüssige Framerate ausreichen. Denn erst bei 4K kann man einen Unterschied zu der R9 290 mit 4GB und der GTX 780 mit 3GB spüren. Oder irre ich mich hier?

Ich denke für meinen Teil das Watch Dogs einfach den Speicher voll macht ohne das bestimmte Daten gebraucht werden.

Es wundert mich das es Leute gibt die schreiben das sie mit einer Titan Black genau das selbe Problem haben obwohl die Karte 6GB und 2880 CUDA Cores hat. Und andere wiederum schreiben das ihre GTX 780 mit 6GB wunderbar und sauber läuft ohne zu zucken. Auf Ultra Natürlich.

Gibt es hier irgend einen der eine Nvidia GTX 770 4GB oder GTX 780 6GB oder Titan/Black 6GB hat und damit Watch Dogs auf 1080p in Ultra Texturen spielt und es nicht ruckelt?
 
hmm finde auch interessant, das assassins creed anscheinend noch mit ner aelteren engine programmiert wurde, watch dogs mit dem nachfolger oder einer engine die auf die alte auf baut, dann koennte man meinen das spiele aus dem hause ubisoft tendenziel in zukunft eher von amd karte profitieren, ja farcry 3 war auch noch die alte engine, da war auch nvidia noch vorne.

Also gibt es doch anzeichen das zukuenftige spiele aus dem hause ubisoft mehr vram brauchen ums mal so zu sagen. Finds auch erstaunlich das hier nur relevante spiele von Ubisoft kommen, anno 2070 bitte.

Wenn man sich also mal auf Watchdogs konzentriert als einziges spiel das ein wenig zeigt wie die anforderungen bei den neuen Multiplattformtiteln zukuenftig sind, relativieren sich viele werte, so braucht z.B. ne GTX 760 10% weniger strom unter last, ist aber 20% langsamer wie eine R9 280 und die radeon kostet noch 20 euro weniger.

GTX 660 ist gleich schnell wie ne R9 270 verbraucht gutes stueck weniger unter last und kostet gleich viel, also das ist nach dem Massstab die einzige karte wo ich Nvidia empfehlen wuerde.

GTX 780 sieth auch nicht schlecht aus fuer nvidia, aber auch wenn sie einiges an Watt spart 85,- Mehrpreis muss man erstmal sparen auf der rechnung.

Also mein jetziges Zwischenfazit Amd gewinnt ueberall klar ausser im Preisbereich der GTX 660 da ist nvidia vorne.
 
Mal kurz zum Stromverbrauchs-Aspekt: Ich persönlich verlasse mich da weniger auf einen Artikel, sondern vergleiche die Messwerte verschiedener Tester. Diese Seite ist da recht gut, da gibts sogar schon den vorgerechneten Durchschnitt. Das ist ganz hilfreich für (Single-Monitor)-Idle und Lastverbrauch.
Spezialfälle wie Multi-Monitor oder "Halblast" (Blu-ray) fallen da natürlich raus.
Dachte mir nur, das wäre für den einen oder anderen ganz hilfreich. :)
 
@blackiwid
Du bastelst Dir da Deine eigene Welt zusammen.
Das mit 2 Rechner hatte ich auch als bei mir noch eine AMD GPU steckte. Habe mich mit der AMD GPU (das ist 2 Jahre her) nicht getraut meinen 2. Monitor an zu lassen, weil der Stromverbrauch enorm war. Einmal abgesehen von den Anschaffungskosten für den 2. Rechner und das ewige hin und her, weil ich zwischen 2 Spiele schon mal eine E-Mail beantworte oder etwas lese. ich fand es unpraktisch.

Du schreibst:
Weiter gehst du einfach aus, das wenn mit einem Spiel der Stromverbrauch so hoch ist, das er dann unter allen spielen so hoch ist, bei allen Mantle spielen als beispiel sollte der unterschied zumindest geringer sein, da die CPU deutlich weniger dann ausgelastet wird und sie daher weniger verbraucht.
Genau anders herum ist es richtig! Mantle lastet die CPU besser aus damit die GPU Ihre Daten effizienter bekommt. Somit steigt der CPU Stromverbrauch mit Mantle.

Ich habe selbst eine GTX770 die mir reicht, weil ich nur WOT spiele. Ja, die kostet etwas mehr aber ich brauche nur einen Rechner und mache mir überhaupt keine Gedanken mehr, wenn ich 8 Stunden am Rechner arbeite und die GPU läuft. Die ist leise und hat genug Power für alles was ich mache. Ich bin jetzt kein Fan Boy aber warum soll ich es verschweigen, wenn ich mit einem Produkt zufrieden bin.
Ich bin ja immer noch der Meinung, dass jeder dass kaufen soll, was er will. Den einen ist der Preis wichtiger und andere schauen auf Lautstärke und Stromverbrauch. Für mich ist es ein absolut NO GO, wenn die GPU seit Jahren bei AMD mit 2 Unterschiedliche Monitore meinen Strom Verbrät. Deswegen einen 2. Rechner finde ich lachhaft aber das ist halt meine Meinung.
 
George03 schrieb:
Denn erst bei 4K kann man einen Unterschied zu der R9 290 mit 4GB und der GTX 780 mit 3GB spüren. Oder irre ich mich hier?
Ich denke für meinen Teil das Watch Dogs einfach den Speicher voll macht ohne das bestimmte Daten gebraucht werden.
Gibt es hier irgend einen der eine Nvidia GTX 770 4GB oder GTX 780 6GB oder Titan/Black 6GB hat und damit Watch Dogs auf 1080p in Ultra Texturen spielt und es nicht ruckelt?

Bei mir ruckelt es seit dem letzten Patch gar nicht mehr. Selbst mit 4xTXAA und in meiner 2560x1600er Auflösung. Also deutlich mehr als "nur" Full-HD.
Und klar, der Speicher wird bestimmt auch zum Cachen benutzt, ABER ..... er wird auf einer Titan wirklich restlos gefüllt.



Ich hab leider nur ein Video vor dem Patch. Und da sieht man schon dass es praktisch Ruckelfrei ist. 4 Ruckler in 20 Minuten ist vertretbar. Nach dem Patch war auch das verschwunden.
Ach ja .... ich glaube ja dass man die Stadt schon mal komplett gesehen haben sollte, damit die Ruckler weniger werden/verschwinden. Eventuell legt ja der NV-Treiber für die verschiedenen Stadtteile erst mal Daten im Shader-Cache ab. Sind die vorhanden Ruckelt es eventuell weniger.
https://www.youtube.com/watch?v=PU48L8lZK4E&list=UUD2VSH41BHZqV28woAEXOWA

Allerdings find ich TXAA furchtbar matschig sowie in meiner Auflösung zu Performancehungrig und gehe lieber auf TempSMAA oder FXAA zurück. Vor allem weil TXAA wie im Bild oben zu sehen diese weißen Körperkanten an Handlungspersonen (nicht an dem normalo auf der Straße) erzeugt. Nogo.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Das kann man schon teilweise weg diskutieren, beim Idle verbrauch kann ich nix sagen, da scheints wohl ein reines treiber problem zu geben, das kann also gefixt werden.

Die Aussage kommt mir vage bekannt vor. Wann habe ich "da scheints wohl ein reines treiber problem zu geben, das kann also gefixt werden." zuletzt gelesen? Ach, ja, jetzt hab ichs. Das war bei der 4870 die im Idle gut geeignet war die Grundlast eines AKW zu stabilisieren. Da wars auch nur ein Treiber Problem das sicher gefixed werden kann. Es gibt %§$% die heute noch darauf warten.

Schade das man sich beim Kauf weiterhin zwischen AMDs hervorragender Unterstützung des Multimonitor-Modus und NVIDIAS sehr sehr gutem Verbrauch im Multimonitor-Modus entscheiden müsste. Allgemein scheint mir das aber ein Luxus-Problem zu sein, ich hab zwar eine Menge in meinem Bekanntenkreis die zocken, aber niemanden mit mehr als einem Schirm.
Gut das ich dieses Problem mit meiner HD4670 nicht habe :-)
 
Habe jetzt nicht alle Beiträge gelesen, aber wurde in dem Test tatsächlich immer noch eine GTX780 Referenz zum testen herangezogen?
Nvidia GeForce GTX 780 (863/900/3.004), 3.072 MB
das würde ja bedeuten, man müsste rund 20-25% auf die Leistung aufschlagen um auf ein "echtes" Ergebnis der diversen Custom Karten zu kommen!
Gleiches natürlich auch bei AMD, wo es wohl auch nur die Referenz-Karten sind!

Bitte nicht falsch verstehen, ich schätze eure Tests gerade zum release der Karten sehr, aber hier wird jeder Treiber mit Leistungssteigerung von 1,x% bewertet, aber wenn es eine brachiale Mehrleistung gibt durch ein vernünftiges Kühldesign bei Custom-Karten wird das dann nicht bewertet? Getestet wurden einige doch auch von euch!
Ist ja nicht so, dass es hier nur eine Karte gibt die dadurch schneller geworden ist!
 
Ja Lars, leider ist dem der Fall.
Hier werden Referenz 780er@900mhz durch den Parcour gejagt, die kaum ein Mensch hat.
Der Durchschnitt 780er User hat eine Custom 780er mit um die 1100mhz in der Kiste verbaut.

Die Benchmarkbalken und gleichzeitig Kaufempfehlungen gehen somit total an der Realität vorbei.
Habe ich hier oft schon angemerkt, zwecklos, schade.
 
bin ich verrückt wenn ich von der gtx 780 auf die 880 umsteige? ja bin ich.. aber die 880 sieht für mich sehr interessant aus. Ich mag keine AMD Karten und mit der 880 hätte ich endlich eine gute Karte aktueller Stand mit 4GB Vram... wobei es natürlich Preisabhängig ist.

Wenn die GTX 780 mit 6gb Billiger ist gehe ich auf diese karte. Aber was man so liest scheint die neue Generation ja nichtmehr solche enormen Preise zu haben. Aber wenigstens bleibt zu hoffen das die 7xx reihe dann etwas runter geht. Eine GTX 780 mit 6gb vram für 400€ und ich wäre zufrieden :)

Am besten diese hier http://geizhals.de/inno3d-ichill-geforce-gtx-780-herculez-x3-ultra-c78v-1sdn-n5hsx-a1120789.html aber die ist ja eh nie lieferbar :(
 
HisN

was interessant ist das es bei dir nicht mehr ruckelt
Du nutzt windows 7 oder?
denn kollegen von mir mit Titans im SLI unter 8.1 ruckelt es immer noch. Nicht mehr so schlimm wie vorher aber immer noch
 
Es wurde explizit danach gefragt ob es jemanden gibt. Mich gibt es.
Das es die meisten Leute nicht interessiert ist mir bewusst^^
Ist immer noch Win7 und kein SLI (gibts überhaupt ein funktionierendes SLI-Profil? Wäre kein Wunder wenn es ohne das Ruckelt^^).
 
Ich nutze Watch Dogs mit einer GTX 780 3GB unter Windows 8.1 Update 1 .. das einzige was manchmal kleine Probleme macht ist nach wie vor die 3 GB Vram aber die Ruckler sind weitestgehend weg. Ich kann das wie HISN auch bestätigen.

Allerdings sehe ich wohl bei HisN eine 6GB Vram karte oder ? da gibts dann natürlich garkeine Ruckler mehr.

Ap2000 schrieb:
Mantle ist eine coole Idee, aber keine Aussage darüber, wie zukunftssicher die Karte ist.
Erst wenn es so flächenddeckend wie DirectX ist, sollte man es für Tests heranziehen. Ansonsten würde es die Ergebnisse verfälschen.
Oder aber, man bindet es nicht in das abschließende Performancerating ein.

naja die meisten hier denken halt das nur durch mantle die amd karten den bringer machen. das ist ein denkfehler des menschen. Wenn ich schon sehe das man schon gerüchte verbreitet man soll eine amd karte kaufen wegen gta 5 weil irgend so ein hoschi schrieb das eventuell mantle unterstützt wird. Wie bei allem bleibt es abzuwarten und tee zu trinken.

Letzten Endes muss ja jeder das kaufen was er für richtig hält, von einem Test wie diesem hier kann da keiner gebrauch machen. Sogut wie keiner kauf eine Referenzkarte
 
Zuletzt bearbeitet:
@HisN

Das scheint ja mächtig Arbeitsspeicher zu brauchen. Hast du viele Hintergrundprozesse am Laufen?

Oder ist der neben "Sysram" angezeigte Wert inkl. Pagefile?
 
Zuletzt bearbeitet:
Zurück
Oben