Test Grafikkarten 2014 im Vergleich – Sommerausgabe

Also bisher hat jeder Treiber für meine 7950 Boost tadellos funktioniert. Unter Win7, Win8 und Windows 8.1, egal ob final oder Beta. Und das auch bei jeder andere AMD Karte, die ich in anderen Rechnern verbaut hab.
Nur einmal war merkwürdigerweise die HDCP-Kette unterbrochen, da musste ich den Treiber nochmal drüber installieren.
 
Marcello29 schrieb:
Ihr weicht hier grad enorm vom Thema ab....
Ist doch immer so. Da werden Argumente gewälzt, hin und her geschoben. AMD kann das besser, Nvidia kann das besser. Treiber hier schlecht, Treiber dort schlecht. Für mich alle nur Kleinfutzel.

Wenn man schon liest:
Ich hab das Gefühl das der Treibersupport bei ATI echt nachgelassen hat, oder lieg ich da falsch? Dann ist aber fett und breit in der Sig eine 1GB 6870 verbaut.
Das ist doch keine Grundlage so einen Satz zu schreiben. Schon überhaupt kann man damit nichts anfangen. Das einzig richtige hat Rodjkal geschrieben. Schön auf dem Niveau geantwortet wie es hergebracht wurde.


So ist einfach die Lage:
Nvidia = teuer, Leistungsstark, Effizent, schon als Standard
AMD = günstiger, Leistungsstark, nicht so effizient und man muss schauen welcher Hersteller mir was kühles, leises anbieten kann.

AMD hat noch Raum für Verbesserungen. Die Nebensächlichkeiten (ach der Treiber bla bla bla, Bildverbesserung hi hi hi und Speichergröße lö lö lö) kann man dann in der Kaufberatung explizit klären.
 
Ich habe vor kurzem die HD 7950 Boost in Einsatz und nun die GTX770.

Bei bestimmte spiele zb Thief ,Far Cry 3 und Crysis 3 laüft die Nvidia deutlich schneller (merkt man auch).

Die Boost funktioniert auch bei Nvidia besser. Bei die 7950 Boost musste ich +12% Powertune mehr geben um vernüftige FPS zu kommen. Ausserdem bei FC3 ist die Kart oft abgekackt wegen die heissen VRMs..

Dazu ziemlich LAUT).

MSi Gaming 770GTX.

OC ok ist mau aber dafür unhörbar unter Last und zb bei ältere Spiele reduziert die Takt bei zb Mass Effect 1 auf 767 Mhz (bleibt Kühler) und trotzdem kostant 60FPS.

Es geht hier nicht NUR um Leistung!

Watch Dogs: Immernoch Popups wenn um Fahren.. mindestens die Bug ist weg mit nur die PDA in der Hand! (War KOSTENLOS mit die MSI)
 
pookpook

du weisst aber das du bei The Thief hättest Mantle einschalten können
 
Klar aber bei Far Cry 3 ist die Preformance viel schlechter. (AC 4 auch)

wichtig für mich ist auch die Lautstärke

Bei meine Haushalt ist eine die 7950 Boost und 7870 noch in Einsatz :)
 
pookpook schrieb:
Die Boost funktioniert auch bei Nvidia besser. Bei die 7950 Boost musste ich +12% Powertune mehr geben um vernüftige FPS zu kommen. Ausserdem bei FC3 ist die Kart oft abgekackt wegen die heissen VRMs..

Du vergleichst eine Sommer 2012 erschienene Karte die zuletzt knapp 200€ gekostet hat mit einer 1 Jahr jüngeren Karte, die aktuell 270€ kostet und stellst fest, dass Letztere schneller ist?
Bemerkenswert.

Wenn die Karte wegen heißer VRM abkackt ist das auch die Schuld des OEM-Partners oder evtl. deines Gehäuses, aber kaum AMDs Schuld. Selbiges gilt für die Lautstärke, denn zumindest bei der GTX770 hast eine mit OEM-Kühllösung.

Von daher ist dein ganzer Beitrag irgendwie sinnfrei. Meine 7950 Boost (ASUS Direct CUII) ist noch nie zu heiß geworden und stellt auch noch 2560x1440 in hohen Details bei aktuellen Titeln akzeptabel dar.
 
pookpook schrieb:
Ich habe vor kurzem die HD 7950 Boost in Einsatz und nun die GTX770.

der direkte konkurent zur 770(680) ist und war eine 280x bzw. 7970,
die 280 bzw. 7950 ist und war der konkurent zur 760(670).


und dann wunderst du dich warum eine 680 mehr fps liefert:lol:
 
Die veränderte Testmethodik finde ich gut!. Ich hoffe mal Assetto Corsa kommt später mal hinzu, wenn es denn fertig ist.
Wenn es fertig und sinnvoll für Grafikkartentests zu benchen ist - why not?

260X die lauteste und am schnell drehenste Karte? ;-)
das glaube ich nicht Wolfgang
Die 260X ist wirklich so laut. Die 260 dagegen nicht, da war ein nun korrigierter Fehler drin.

Leider muss man bei dem Test an euro Objektivität appellieren.
In Battlefield 4 und in Thief wird die Schnittstelle Mantle nicht mitgetestet, daher verlieren die AMD High End Karten wertvolle Prozente im Schnitt des Tests.
Lese nochmal den Text.
In BF4 nutzen wir Mantle, in Thief dagegen nicht, was AMD aber selbst schuld ist und wir auch im Text begründen.

edit: Wird's denn ein update geben, wenn auch AMD ein treiberupdate rausbringt? Wie mir scheint, sind die Leistungssprünge vor allem auf das nVidia-Update zurückzuführen?!
Wenn es sich lohnt, würden wir es zumindest in Erwägung ziehen.

Die Lautstärke der Nvidiakarten hat sich magisch weit nach unten gedreht, während sich bei den AMD Karten nichts tut.
Hinzukommt, dass die API Mantle schlichtweg nicht zu existieren scheint und die in diesem Test bei den Werten keinerlei Beachtung findet.
GTX 780 TI max Lautstärke von 58,5 auf 50,5DB gesenkt... das ist unmöglich.
Zu allen drei Punkten sage ich nur: Lese den Text!

eine frage für mein verständniss wo kann ich denn meine ATI 7950 Boost einordnen ?
Sehr ähnlich der R9 280

Wenn man eine AMD 295X2 als einzige Dual-GPU Karte in den Parcour aufnimmt muss man auch eine entsprechende Nvidia Karte aufnehmen. Das wäre in diesem Fall eine Titan Z, egal wie schwachsinnig es ist sich solch eine Karte zu kaufen.
Das ist leichter gesagt als getan...Nvidia verschickt keine Samples, die Boardpartner nicht und Shops geben die Karte aus verständlichen Gründen auch nicht raus.

Im Vision-Surround-Betrieb mit 3 Monitoren taktet meine Titan runter. Und im Notfall gibts ja immer noch den MMPS vom Inspector. Ich schau mir das heute Abend auch gerne mal ohne VS an.
Mit drei Monitoren? Sind es drei Mal genau dieselben?

@Mantle
Also ich verstehe diesen Satz "Darüber hinaus nutzt ComputerBase in Battlefield 4 auf Radeon-Grafikkarten die Low-Level-API Mantle." eigentlich so, dass Mantle bei BF4 an ist auf den Radeons?! Wenn dann sehe ich das Problem bei Mantle eher darin, dass Mantle eigentlich nur was nützt bei ner schwachen CPU und der CB Test verwendet - imho völlig korrekt - eine starke CPU um die Karten möglichst wenig zu bremsen...
Das ist korrekt. In BF4 kommt Mantle zum Einsatz.

Ich hätte mir eine 4k-Auflösung gewünscht, zum einen fordern die Downsampler sowas schon lange, zum andern sind die 4k-Monitore innerhalb eines halben Jahres auf weit unter 500€ gefallen. Dieses 2,5k ist da eher exotisch, sollte aber wg. der Vergleichbarkeit beibehalten werden.
Mhm? Wir testen doch 4K.

wurden die Tests nun auf Standardtaktraten durchgeführt, oder munter geboostet.
Zumindest in einem Test zum Realzustand, also im Gehäuse, wäre es an der Zeit den AVG-Boostclock mitanzugeben.
Wir heizen ie Karten vor jedem Spieletest auf und benchen dann.
Ist der Takt für jedes Spiel wirklich interessant? Wenn ja ist das etwas, was sich in Zukunft (irgendwann) sicher einrichten lassen könnte.

Wie wird eigentlich Energieeffizienz bei CB definiert?

Allgemein heißt es ja "Energieeffizienz ist ein Maß für den Energieaufwand zur Erreichung eines festgelegten Nutzens." Nur was ist der Nutzen? Ein Bild auf den Monitor zu zaubern oder die erreichbaren FPS?
"Energieeffizienz" setzt sich aus Geschwindigkeit und Leistungsaufnahme zusammen. Nur einen Punkt zu beachten wäre ja etwas anderes.

Insgesamt ein guter Test, allerdings vermisse ich gerade bei den Lautstärken Tests, die Custom Kühler Modelle. Ihr testet immer in diesen Vergleichstests die Ref. Kühler und die kauft sich kaum einer, weil nicht billiger und zum großen Teil auch gar nicht verfügbar.
Wir teilen die Meinung, dass es schön wäre, Custom-Karten mit auf zu nehmen. Da gibt es aber verschiedene Punkte (Karten müssen da sein, Custom-Modell ist nicht gleich gut wie Custom-Modell...), die sich nicht einfach lösen lassen, ohne eine Seite zu bevorzugen.

Abschliessend:
es wird ja mit dem NV tool FCAT gearbeitet,
und dies hat bei anderen seite gegenüber amd teils verfälschte FPS werte geliefert.
abgesehen davon ist bf4 mantle mit fcat nicht messbar
(auch suspekt ist das cb ja mantle bei bf4 testet aber 75% der anderen einschägigen seiten im fast selben setting,
15-25% höhere werte bekommen)
@dark
bf4 wurde mit dx getestet,
weil die werte fast 1zu1 mit den werten von bf4 dx auf einschlägigen anderen seiten ist
warum sollte thief nicht mit mantle getestet werden können , genau mit fcat geht es nicht,
aber bf4 sollte gehen?, nicht wirklich fcat funktioniert bei mantle allgemein nicht
Nimms mir nicht übel, aber an deinem Post stimmt nichts.
a) Wir arbeiten nur bei MultiGPU mit FCAT
b) BF4 ist sehr wohl mit FCAT nutzbar
c) Wir testen BF4 mit Mantle
d) Du kannst Ergebnisse zwischen zwei Seiten nicht vergleichen. Du weißt nie, welches Testsuenario genutzt wird.
e) Warum wir in Thief kein Mantle nutzen steht im TExt. Den offensichtlich keiner liest und dennoch genau die Punkte kritisiert werden. In Thief kann man derzeit nur den integrierten Benchmark testen, der einfach nicht die Realität wieder spiegelt. Es gibt zur Zeit einfach kein FPS-Tool für Mantle. Auch von AMD nicht. Ist ja nicht so, als hätten wir AMD mehrmals danach gefragt.
 
Wolfgang schrieb:
Mit drei Monitoren? Sind es drei Mal genau dieselben?

Jupp, ich benutze einen Samsung MD230x3 für die Vision-Surround-Gruppe.
 
Teil 2:

Das liegt aber auch daran, dass der Testparkour (unabhängig davon ob beabsichtigt oder nicht) etwas mehr auf Nvidia Karten zugeschnitten ist. In der Praxis können die paar Prozent Unterschied dann schon anders aussehen.
Wir suchen Spielebenchmarks anhand ihrer Beliebtheit, Grafikqualität und "benchbarkeit" heraus, nicht ob AMD oder Nvidia vorne ist. Letzteres finden wir oft erst heraus, wenn alle Benchmarks fertig sind. Und das Pendel kann da natürlich mal mehr in die eine und mal mehr in die andere Richtung schwingen.

An sich schöner Test, ABER ich finde das Fazit passt nicht zum P/L Diagramm. Die 270X ist zwar generell etwas langsamer als die GTX 760, aber kostet entsprechend 50€ weniger und somit bietet die Nvidia absolut keinen Mehrwert. Außerdem interessiert ab einer bestimmten Preiskategorie die Energieeffizienz kein Stück.
Das Problem am P/L-Diagramm ist, dass es eben nur Preis und Leistung berücksichtig, sonst aber nicht. Wenn für einen nur das zählt, muss man die bevorzugten Karten natürlich etwas anders wählen.

ich versteh das nicht @ Testteam ... ich hab mulimonitor getestet und bei mir stellt sich keine Verdoppelung des Verbrauches bei der 290x im Dualbildschirmbetrieb ein ....
Kommen Monitore mit denselben Auflösungen und denselben Timings zum Einsatzm kann auch AMD bei zwei Monitoren heruntertakten., Das Problem ist, dass die Kombination aus selber Auflösung und selben Timings sehr selten sind. Bei Nvidia gehts eben immer (außer bei 144 Hz).

Ich vermisse auf meiner favorite IT-Seite - das ist für mich CB, weil plausibel und user-nah - mehr Tests von Grafikkarten in Custom-Designs. Für AMD-GPUs hat CB schon geliefert, aber NV-GPUs waren bis jetzt außen vor.
Wir möchten auch mehr Custom-Karten testen!
Aber das ist eben nicht ganz einfach, da das Zeit kostet und wir nicht unendlich Man-Power haben.
Aber hier findest du doch einiges:
https://www.computerbase.de/news/grafikkarten/

Und "Nvidiabase" hat damit wohl im Web vielleicht die meisten R9 290(X) Custom Karten getestet. Und "Nvidiabase" hat gar einer einen Award gegeben und keiner Nvidia-Karte in diesem Jahr bis jetzt. Aber trotzdem: "Nvidiabase". Entschuldigt, aber ein bischen Sarkasmus nach einigen Kommentaren kann ich mir einfach nicht verkneifen.

Habt ihr auch festgestellt, dass die R9 290(X) in einigen Spielen, die weniger Grafiklastig sind, ihren Takt deutlich verringert? Das hat ja auch einen Einfluss auf die FPS und dürfte für Vergleichszwecke relevant sein. Auf meiner G19-Tastatur sehe ich häufig, wie der Takt aufgrund dieses "Stromsparfeatures" von 1040Mhz auf 800Mhz einbricht (z.B. in ARMA III). Bei grafisch anspruchsvollen Spielen wie BF4 oder Crysis hält sie ihren Takt dagegen immer.
Je nach Spiel kann es das geben, ja. Das geht bei Nvidia aber genauso.
 
Schöner Test. THX CB.

Für mich heisst es weiterhin bis zur nächsten Grafikkartengeneration von AMD / NVIDIA zu warten, da in Full HD zur Zeit alle Spiele für mich flüssig laufen. Mal schauen wie es ausschaut, wenn The Witcher III & Star Citizen draussen sind. Vielleicht rüste ich auch noch meinen Monitor auf.......dann wird so oder so eine neue GPU fällig.

@PookPook
Ist klar, das die GTX 770 schneller als deine 7950 Boost ist. Unterschiedliche Grafikkartengenerationen und zudem ist die 7950 nicht der erklärte Gegner der GTX 770.
Aber deine Probleme bei FC3 kann ich nicht nachvollziehen. Da hast du wohl ein falsches Customdesign gewählt. Ich nutze die 7950 ohne Boost von ASUS und die Karte bleibt immer schön kühl und leise (max 63 Grad, bei max 25 % Lüfterlaufleistung).
 
Schön dass du hier postests Wolfgang !


Würdest du bitte noch Stellung dazu nehmen wieso euer "neuer" Mantle/BF4 Benchmark komischerweise nahezu exakt die Werte liefert die ihr im Mantle vorab test mit DIRECTX auf der R9 290X gefunden habt?

Siehe auch:
https://www.computerbase.de/forum/t...ch-sommerausgabe.1375704/page-5#post-16062852

Euer eigener Test
https://www.computerbase.de/2014-02/mantle-benchmarks-mit-2x-r9-290x-in-battlefield-4/

R9 290X
1920x 4AA x 16AF etc....
62.7 FPS Mantle
54.9 FPS DX

Davor schon im vorabtest identische werte
https://www.computerbase.de/2014-02/amd-mantle-ersteindruck/2/

Nun einige monate später und mit Mantle nach euren Angaben Aktiviert dann:
https://www.computerbase.de/2014-08...erausgabe/3/#diagramm-battlefield-4-2560-1600

R9 290X
1920x 4AA x 16AF etc....
57.4 FPS Mantle

Warum ? plötzlich 10% weniger ?
CPU gleich, GPU gleich ?

War Mantle wirklich "aktiviert" ? Bug ? Aus versehen in DX mode getestet ?
 
Eine gute Frage.

Und hoffentlich wird darüber hinaus auf das "(Max)" bei der 780Ti eingegangen. Also warum gibts denn keine 780 Max in eurem Test? Und 780Ti Max ist nicht gleich 290X Max, da es sich bei der AMD Referenzkarte um den Performance Mode mit dem Standardtakt handelt, während ihr bei der 780Ti die TT und PT im Treiber auf maximum stellt und somit die Karte nicht mit dem vorgesehenen Standardtakt bencht, also übertaktet. Eigentlich ein Unding.
 
ja und welche Grafikkarte ist HEUTE der Preis-Leistungssieger? (zwischen 100 und 200 Euro) Die Preise variieren ja jeden Tag.
 
Ich finde den Test dieses mal leider auch mehr als misslungen, im Gegensatz zu älteren Grafikkartentests von Euch.

Sowohl bei den AMD Grafikkarten, wie auch bei den Nvidia Grafikkarten wurden nur die Referenzmodelle getestet, welche im Gegensatz zu den besten AMD Custom Modellen von Sapphire das Ergebniss für AMD deutlich verschlechtern: sowohl bei der Leistung, wie auch bei der Lautstärke.

Bei AMD Grafikkarten wurde bei BF4 nicht mit der Mantle API gebencht, wodurch AMD Grafikkarten hier natürlich an Leistung verlieren und wieder schlechter dastehen gegenüber der Nvidia Konkurenz.

Und das neue Gehäuse CM690 III, sowie der CPU Kühler Prolimatech Armageddon sind ja mal ein erhebliches Downgrade im Vergleich zum alten Corsair Obsidian 800D und dem Noctua D14 CPU Kühler, wodurch wohl die Leistung aller getesteten Grafikkarten negativ beeinflusst wird.
Warum habt ihr das nur gemacht, wo doch die Mehrheit der PC Spieler bessere Gehäuse und Kühler besitzt ...

Das jetzt aber auch der König der gedämmten Gehäuse mit dem Fractal Design Define separat getestet wird ist super und absolut zeitgemäss.

Ein absoluter Fehlschlag bei der Kaufberatung stellen das komplette fehlen von Custom Designs bei beiden Herstellern dar.
Hierdurch wird die komplette Kaufberatung verzerrt und unbrauchbar gemacht, weil man gerade bei den Custom Designs von AMD die deutlich besseren Grafikkarten bekommt, welche nicht nur leiser, sondern auch deutlich schneller sind als das Referenzdesign, ohne dabei teurer zu sein.
 
Zuletzt bearbeitet:
Genau die gleiche Vermutung habe ich auch. Die Programmierer nutzen zunehmend den verbreiteten Grafikspeicher durch schlampige Programmierung aus und Watch Dogs war das Sahnehäubchen. Bisher reichten die 2 GB meiner 770 locker für alle Spiele und entsprechenden FHD Einstellungen aus.

X1 und PS4 haben 8GB Speicher (real zur Verfügung ~6GB) und Watch Dogs läuft auf der PS4 in 900P und in MEDIUM.
Die Texturen auf der PS4 und Schatten sind niemals "High" und schon gar nicht "Ultra".

Wenn die Chipleistung limitiert bringt MEHR Speicher nun mal gar nichts - Egal ob du 2GB oder 1000GB hast.

??? Was ich da sehe ist, dass eine 290X@ref Takt von 51fps in DX11 auf 76fps durch Mantle beschleunigt wird. Mit einem i7@4.6Ghz. So viel auch zum Thema Mantle bringt nur was bei schwachen CPUs.

Weil AMD mittlerweile in Mantle Spielen die D3D Optimierung komplett fallen lässt.
Unter D3D kommt eine gleichwertige Nvidia Karte auf dasselbe Ergebnis wie AMD mit Mantle (+/- 2 FPS).

Ist dir das seit dem 33x Treiber von Nvidia noch nicht aufgefallen?

Das Leute Mantle in den Himmel loben liegt daran weil AMD schlichtweg D3D absichtlich schlecht aussehen lässt.
Unter D3D ist eine 760 so schnell wie eine 290X in BF4...
AMD optimiert in Mantle Spielen nun mal nicht für D3D.

Unterm Strich hat Nvidia unter D3D in Star Swarm und BF4 seit dem 33x Treiber die gleiche Leistung raus geholt wie AMD mit Mantle - Vorausgesetzt man besitzt mindestens eine 150€ CPU.

Mantle ist schön und gut für irgendwelche 50€ CPUs ... ab dem billigsten i5 bringt Mantle quasi überhaupt nichts mehr.

Aber dennoch könnte Mantle in 2..3... Jahren interessant sein wenn wirklich viele Spiele diese API unterstützen. (STEAM OS & MAC).
 
Zuletzt bearbeitet:
Zurück
Oben