Test Test: 17 Grafikkarten im Vergleich

Typisch AMD: Quetschen die letzten Mhz aus ihrem Silizium, nur um 3% schneller als nvidia zu sein. Wenn ich die GTX 680 übertakte, bekomme ich ca. 15% mehrleistung bei geringerem verbrauch.

Außerdem geht der Verbrauch der 7970 gar nicht. Fast 80W mehr als die 680.
 
cornix schrieb:
Typisch AMD: Quetschen die letzten Mhz aus ihrem Silizium, nur um 3% schneller als nvidia zu sein. Wenn ich die GTX 680 übertakte, bekomme ich ca. 15% mehrleistung bei geringerem verbrauch.

Außerdem geht der Verbrauch der 7970 gar nicht. Fast 80W mehr als die 680.

Typisch Fanboyhorizont!

Die 7970Ghz ist 10%+ aufwärts über der 680...

Die 7970Ghz lässt sich ebenfalls noch ordentlich hochtakten, womit dein Argument ebenfalls nicht zieht.


Der Mehrverbrauch kommt nicht von ungefähr. Die 680 hat in GPGPU nichts zu melden.
Die überschaubaren Stromkosten wiegt die 680 mit dem unverhältnismäßig hohem Preis zur Konkurrenz auf.
 
Die ganze "microruckel" thematik ist schon seltsam - erinnert aber auch an das fast totgeschwiegenen QPI-FSB ruckeln von Intel.

Könntet ihr mal einfach ein AMD system vs ein Intel system bei EINER der Grafikkarten die das Phänomen zeigen untersuchen....mich würde es nicht wundern wenn es am ende doch ein Chipsatz problem von Intel ist das AMD wieder mal ausbaden muss.

Der Test dauert ja ungefährt nur wenige Minuten denn ihr habt bestimmt ein AMD referenzsystem rumstehen und die GK aus und einbauen dürfte ja auch kein Akt sein.

Ansonsten interessant zu lesen: http://benchmark3d.com/benchmarks

Komischerweise ist eine Lösung für das Ruckelproblem auch die CPU Affinity der Intel CPU auf 1 Core zu setzen:
http://benchmark3d.com/microstutter-case-study-skyrim-wtf-edition

Ist also wirklich NUR die Grafikkarte/-Grafiktreiber schuld ?

Bitte untersucht das mal !!!!
 
cornix schrieb:
Typisch AMD: Quetschen die letzten Mhz aus ihrem Silizium, nur um 3% schneller als nvidia zu sein. Wenn ich die GTX 680 übertakte, bekomme ich ca. 15% mehrleistung bei geringerem verbrauch.

Außerdem geht der Verbrauch der 7970 gar nicht. Fast 80W mehr als die 680.

Ne , das geht gar nicht, dafür ist die 680 = 121€ teurer

Dafür kannst du (Strompreis 25Cent) die 7970 Ghz aber 24/7 = 252 Tage durchlaufen lassen oder bei 8 Spielstunden jeden Tag 756 Tage, das geht gar nicht, das stimmt, danke fürs flammen.
 
1. Hat das einen Grund, daß die GTX690 aufgenommen ist, die HD7990 nicht?

2. Die Benchmarks im GPU-Compute_teil scheinen alle SP zu sein, das beschönigt die NV-Leistung auf diesem Gebiet um Größenordnungen.
 
@ Emploi: Der Stromverbrauch hat allerdings noch andere Auswirkungen und Kosten, ausser die reinen Stromkosten. Ein höherer Stromverbrauch führt auch zu einer höheren Wärmeabgabe. Die höhere Wärmeabgabe führt dazu, dass stärkere Kühlsysteme benötigt werden. In manchen Fällen (wie z.B. bei mir) führt dies dazu, dass die Gesamtkosten steigen würden. Ich bin mit meiner Konfig z.B. am Rande dessen, was ich an Wassertemperatur vertreten kann. Würde ich die gleiche Leistung mit AMD-Karten erreichen wollen (GPU-Computing spielt für mich keine Rolle), würde ich mehr/größere Radiatoren benötigen und dazu wahrscheinlich ein großeres Case und ein stärkeres NT.

Dies mag vielleicht ein extremes Beispiel sein, nur verdeutlicht es, dass Mehrkosten durch Stromverbrauch nicht die einzige Möglichkeit ist (und sein sollte) den Stromverbrauch zu bewerten.
 
Zu dem Performancerating: Dort ist uns tatsächlich ein kleiner (blöder) Fehler unterlaufen, weswegen die Werte zwar prozentual untereinander stimmten (sprich, an der Reihenfolge hat sich nach dem Fix nichts veränert), jedoch die Prozentangaben der Karten nicht richtig waren.

Und zwar ging unsere Crysis-3-Vorbereitung etwas zu weit: Die Diagramme hatten wir schon alle erstellt und auch schon in die Ratings mit ein fließen lassen. Da dort nun alle Karten auf eben Null Prozent gekommen sind, haben diese Werte das Endergebnis stark beeinflusst. Wie aber bereits gesagt: Die prozentualen Unterschiede zwischen den Karten sind gleich geblieben!

Einen dritten Teil von "GPU braucht CPU" hätte ich interessanter gefunden!
Der steht auf der To-Do-Liste! :) Aber derzeit noch unter "When it's done".

Aber warum wird immer die Leistungsaufnahme vom gesammten System gemessen?
Wir haben technisch leider keine andere Möglichkeit. Und nur die Grafikkarte zu messen ist teuer. Sehr teuer.

wenn ihr sowas das nächste mal macht wäre es nett wenn ihr zu den framelatenzen noch Diagramme mit den Tatsächlich anliegenden taktraten der GPU´s über den getesteten Zeitraum mitliefert. Mich würde es nicht wundern wenn dann herauskäme dass die auftretenden probleme mit einem stark schwankenden Takt einhergehen (eventuell Powertune bzw boost probleme).
Das geht nicht, da dies bei den Nvidia-Karten lustig aussehen würde. Deswegen kann man deine Vermutung eigentlich schon ausschließen: Die Taktraten der Kepler-Karten ändern sich ja durchweg in einem Stück.

Das mit der HD 7990 ist AMDs Schuld, wäre es eine offizielle Karte hätte CB wohl schon ein Sample das man gut verwenden kann. Die GTX 690 hätte ich aber aus dem Test wie er jetzt ist raus gelassen. Aus zig gründen...
Die ist alleine schon Pflicht wegen...wegen...naja, du weißt schon ;)

Für mich wär nur noch interessant zu wissen, wie sich die Frametime Problematik bei aktivem Vsync auswirkt. Hier wird ja die Bildausgabe mit dem 60Hz Zeitraster des Monitors synchronisiert. Da dieses zeitlich immer exakt ist, müsste sich die Problematik damit ja eigentlich "lösen" lassen.
Imo (muss aber nix heißen) sollten ein Framelimiter/Vsync dabei helfen. Aber müsste man einfach mal ausprobieren.

Ist es eigentlich so schwer zumindest die Grafikkarten Generation davor noch mit einzubeziehen als Vergleich?
Nicht jeder kauft sich jeden 6. Monat ne neue Grafikkarte!!!
Schwer nicht, aber zeitlich eben einfach nicht einfach. Und eine GTX 580 sowie HD 6970 sind ja mit dabei.

Allerdings kann man das auch nur im High End Sektor als positiv bewerten, weil wohl keine auf die Idee kommt mit einer HD 7770 SSAA und Downsampling zuzuschalten.

Die Benchmarks wurden immer erst nach einer kurzen Aufwärmphase gestartet, oder?
Du merkst selber: Es ist nicht gerade einfach zu entscheden, was ein ++, ein + oder was auch immer bekommt :)
Natürlich kann man solche Features nicht auf einer langsameren Karte benutzen. Funktionieren würde es aber. Da wird die Performance dann ja schon entsprechend im Kasten abgewertet.

Dass die Geld bekommen, glaube ich nicht. Aber es gibt im Netz ja inzwischen zahlreiche Berichte von (Ex-)Redakteuren, die beschreiben, was für Probleme eine Redaktion bekommt, wenn nicht das rauskommt, was rauskommen soll. Zur Not wird halt der Testmusterhahn zugedreht....
Auch wenn mir keiner glaubt: Solche Berichte stimmen einfach nicht.
Wir hatten auch schon öfter Ergebnisse, die von denen der Hersteller abweichen. Und die meisten arbeiten dann auch ordentlich mit uns zusammen um das herausfinden zu können. Noch nie hat AMD/Nvidia oder ein Bordpartner angekündigt, uns wegen schlechter Ergbenisse nicht mehr samplen zu wollen. Nicht immer alles glauben war frustrierte Menschen irgendwo schreiben :)

Bei der 7850 steht als einzigste AMD Grafikkarte als Minuspunkt "AA/AF in Zukunft nicht mehr möglich"

Warum nur bei dieser?
Bei ncoch langsameren kasten merken wir an, dass AA/AF bereits jetzt nicht mehr (sinnvoll) gehen. Bei der HD 7850 geht dies derzeit eben noch ganz gut, doch sehen wir da bei zukünftigen Spielen schwarz. Die schnelleren Karten haben eben noch ein wenig mehr Spielraum.

mich würde mal ganz genau interessieren welcher treiber da wirklich verwendet wurde:
Framelatenz-Diagramme
Steht doch im Abschnitt "Testsystem". Oder wills du uns etwas unterstellen? ;)

WER bitte interessiert sich nach über einem Jahr für eine 7970 in Referenzausführung, bzw. generell für irgendwelche Referenzkarten, wenn es 100 verschiedene, vor allen Dingen, bessere Costumdesigns gibt (690 mal ausgenommen)??

Dadurch verwässert ihr z.B. den Gesamteindruck wieder in dem steht, eine 7970 ist im Referenzdesign mega laut.
Unbedarfte dürften dann wohl wieder denken, es sei ein generelles Problem, obwohl ihr das in Klammern da hin schreibt.
Du hast natürlich recht, dass sich einige Zeit nach einem Launch wohl nur noch wenige Referenzkarten kaufen. Dennoch sind die Modelle eben jene, die meistens von vielen Partnern angeboten werden. Und auch wenn wir eine Grafikkarte aufgrund der Lautstärke "abwerten", schreiben wir ja im schlimmsten Fall nur, dass man eben zu einer besseren Partnerkarte greifen sollen. Wir schreiben nie, dass man deswegen unter keinen Umständen Karte X kaufen sollte.

Die 660Ti wurde durch ne heruntergetaktete 670 simuliert.
Allerdings frage ich ich wie das bei der 660 gemacht wurde? Auch durch ne 670 simuliert?
Das würde natürlich nicht gehen :)
Die GTX 660 Ti haben wir durch eine heruntergetaktzete Partnerkarte der GTX 660 Ti getestet. Und die GTX 660 durch eine heruntergetaktzete Partnerkarte der GTX 660.

Wie oft hab ich das schon hier kritisiert; neben so einigen anderen Punkten.
Und noch nie gab es von CB eine auch nur ansatzweise vernuenftige Erklaerung.
Das stimmt einfach nicht. Wir haben bereits öfter erklärt, wie sich das Rating berechnet. Hier ein Zitat unseres Admins:
"Die Option beudetet, dass bei jedem Benchmark einzeln das jeweils beste Element die 100% markiert. D.h. dass selbst die beste Grafikkarte bei dieser Einstellung nur dann 100% im Rating erreichen wird, wenn sie jedes einzelne Diagramm gewinnt. "

Mir fehlt immer noch von der 7870 die Ghz-Edition (oder auch OC-Version) in eurem Test.Von der 7950 und 7970 ist sie doch auch vorhanden.
Die 7870 Ghz Edition ist doch drin! Das ist die ganz normale HD 7870 :) Meinst du die Tahiti-LE-Variante?

Ich frage mich ob womöglich nur die HD 7900-Karten mit dem "Problem" zu kämpfen haben. Ich habe eine HD 7870 im Rechner und kann keine unregelmäßige Bildwiedergabe feststellen. Und ich bin was das angeht wirklich sehr empfindlich.
Es sind auf jeden Fall alle GPUs der GCN-Generatio nbetroffen. Wir haben hier deutlich mehr Messwerte als nur die gezeigten.

Es wäre beispielhaft - und würde dem Beispiel anderer auf diesem Gebiet engagierter Netz-Magazine folgen - wenn mit angegeben werden würde, mit welcher Rechenpräzision die Fließkommaarithmetik erfolgte.
Es ist immer FP32 Single Precision. Double Precision wird nur von dem einen SiSoft-Sandra-Test genutzt. Es gibt leider kaum Programme, die DP-nutzen und sich ordentlich benchen lassen (oder ich kenne zumindest keins). Wenn ihr da Tipps habt: Nur raus damit.

Könntet ihr mal einfach ein AMD system vs ein Intel system bei EINER der Grafikkarten die das Phänomen zeigen untersuchen....mich würde es nicht wundern wenn es am ende doch ein Chipsatz problem von Intel ist das AMD wieder mal ausbaden muss.
Ich kann das jetzt natürlich nicht ausschließen, aber warum hat den nvidia keine proleme (bzw. deutlich weniger).
 
Sofern die Tetsts mehr oder weniger zutreffen war der Kauf einer 660 SC die richtige Entscheidung, zumal die Karte rechte konstante Fps liefert bei niedrigem Stromverbrauch was ich mit einem Messgerätbestätigen kann, eigentlich bei Last sogar weniger wie beim Test angegeben.

EDIT: Hatte es flüchtig gelesen gehabt, ist Crysis 3 schlecht programmiert oder ist es erneut eine Treiberproblematik das das Spiel trotz guter Hardware ruckeln soll?
 
Zuletzt bearbeitet:
Mantarrochen schrieb:
Dein Argument lautet demnach 4 Prozentpunkte = 6%.
Ich hoffe, du merkst selber, woran es hier hapert. Was du meinst, ist andererseits ebenso simpel wie nichtssagend: 66 verhält sich zu 62 wie 100 zu 94. Das Mouseover-Diagramm zeigt lediglich, in welchem Verhältnis die genannten Zahlen aus dem Ursprungsdiagramm zueinander stehen. Die "Verhältniskrämerei" nützt jedoch nur etwas, wenn man die Bedeutung der Zahlen kennt.

Prozentrechnung halt... Wenn sich die Relation ändert, ändert sich natürlich der Abstand in Prozent...
Das ist wie:
1L sind 100%
500 ml sind 50%
250 ml sind 25%
Wenn ich nun allerdings mit der Maus über die 500 ml fahre, dann sind diese die 100%. Die 250 ml sind dann 50% und die 1L sind dann 200%.
Daher verändern sich die Prozentualen Werte.
Wenn du nun 250 ml als 100% siehst (mit der Maus drauf gehst), dann sind 500 ml 200% und 1 L nunmal 400%. Das ist einfach so.
 
es wäre super wenn ihr eine blender-cycles-render engine benchmark szene aufnehmen würdet - es gibt sehr viele die das nutzen. ja, leider funktioniert das nicht mit AMD grafikkarten, aber für die blendercommunity wäre das GOLD wert, und würde sicher eine masse an hits produzieren, weil es eben noch keine andere seite gibt, die diese benchmarks übersichtlich und zuverlässig produziert. blender ist open source und hat eine gut funktionierende community... die es wert ist... der benchmark muss ja nicht in der zusammenfassung auftauchen.
 
Zuletzt bearbeitet:
Die Nvidiaboys reden von Stromverbrauch. was war denn bitte vor der 600er Serie. Da haben die Nvidias gefressen ohne Ende. Dazu hat ne 680er nur abgespecktes und im GPGPU Breich nichts zu melden. Diese Einheiten fehlen auch. Dazu ist ne 7970 in meinen Augen das klar rundere Paket
 
Ohh, jetzt habe ich aber den AMD-fans den Sonntag versaut

Du hast niemanden den Sonntag versaut. Du hast dich schlicht als Troll geoutet, was du mit deiner Reaktion nur weiter untermauert hast. Stichhaltige Argumente kannst du ebenfalls keine weiteren zum Thema beisteuern.

Ich empfehle dir einen Besuch auf, www.wahrheit-tut-weh.de
 
versus010919761 schrieb:
Die Nvidiaboys reden von Stromverbrauch.
Welche Fanboys denn?
90% hier sind AMD-"Underdogs", die irgendein Problem haben und schreien, CB sei von nVidia gesponsort, obwohl die single Core AMD doch klar vorne liegt, oder?
Bei einigen hier gibts wohl Lags im Hirn...

CB ist jedes Mal äußerst neutral und zudem sind hier auch (6 Seiten habe ich gelesen) keine Fanboys aufgetaucht. Keine von nVidia Seite, zumindest, versus...

*edit:
Ok, den einen hab ich gefunden (is aber eh nur n Troll, steht doch drüber). Aber ist es nicht tatsächlich so (wie immer im Highend Bereich, Herstellerunabhängig), dass sich AMD das letzte Quentchen Leistung hart erkauft hat in Sachen Stromverbrauch? Also nur mal neutral dargestellt wirkt es nicht wirklich besser wie die "Highend Karten" der 400-er nVidia Serie.
 
Zuletzt bearbeitet:
@Wolfgang:

Könntet ihr mal einfach ein AMD system vs ein Intel system bei EINER der Grafikkarten die das Phänomen zeigen untersuchen....mich würde es nicht wundern wenn es am ende doch ein Chipsatz problem von Intel ist das AMD wieder mal ausbaden muss.
Ich kann das jetzt natürlich nicht ausschließen, aber warum hat den nvidia keine proleme (bzw. deutlich weniger).

Ich kann das auch nicht erklären/ausschließen.
Ich meine offenbar kann man durch anderes Daten-Prefetching das Problem umgehen/lösen (sonst würde der Treiber da nicht so eine Rolle spielen).
Aber um der Ursache nachzustellen wäre es schon interessant das mal zu testen - wie gesagt wer außer Hardwaremagazinen kann so was schonmal in seinem privatdesktop testen.

ABER:
Warum sonst sollte denn ein Core-affinity wechsel so einen Einfluss auf das Problem haben - wenn nicht doch was fundamentaleres am Windows core oder chipsatz/CPU bus da hineinemurkst ???
http://benchmark3d.com/microstutter-case-study-skyrim-wtf-edition

Warum sollte die Core affinity den Grafiktreiber so verwirren wenn da nicht noch was anderes abgeht ?

Wie gesagt - eine Untersuchung des ganzen in mehr Detail fände ich wesentlich interessanter als noch 20 weitere GK tests oder 3 mehr spiele Testreihen.
 
cornix schrieb:
Eure Behauptungen sind wohl reines Fanboy-gelaber. Und Ihr wollt mir von demselben erzählen.

Ohh, jetzt habe ich aber den AMD-fans den Sonntag versaut :D

Immer wieder lustig, wenn kinder auf CB so richtig in Rage geraten. Schlimmer als Islamisten im Jihad.:D

Aber stimmt, AMD hat richtig tolle karten: HEC Hard egg cooking und Rauchmelder inklusive.


obwohl du offensichtlich ein unbelehrbarer Troll bist : Schau doch mal wo die gtx680 im momentan wohl mit fordernsten Grafik-Benchmark neben Unigine Heaven landet.

https://www.computerbase.de/2013-02/futuremark-3dmark/9/

Da kannst du sie auf 1250+ Mhz übertakten, sie wird trotzdem von HD 7970 Ghz und ja sogar übertakteten HD 7950 vernascht.
Die eine Single-Nvidia die noch oben im Diagramm rumpimmelt tut dies auch nur weil sie auf Anschlag übertaktet ist und n starken Intel Sechskerner an ihrer Seite hat. Leider sind keine Graphics Scores angegeben dann wär es noch deutlicher
 
Zuletzt bearbeitet:
@cornix
Dann wieder leg sie. Wer hier von uns beiden ein Kindertroll ist, steht wohl außer Frage.

@PeterIndustries
Die gesparte Heizkosten musst du dann aber auch mit einrechnen. ;)
 
Ich finde den Test ein wenig fragwürdig da grundsätzlich immer noch davon ausgegangen wird, daß man mindestens 200EUR ausgeben muß um ein paar grafische Features aktivieren zu können/dürfen.

Vor ein paar Jahren wurde eine 5770 angepriesen als das P/L Wunder und hier wird einer 7770 lediglich das "unter 100 EUR" Prädikat ausgegeben? Das ist seltsam oder? Schließlich ist diese Generation gut 20-30% schneller und vergleichbar mit einer 6850 die quasi eine Liga höher mitgespielt hat.

Sind in so kurzer Zeit die Anfoderungen gestiegen, die Spiele gar aufwendiger geworden, daß eine 6850/7770 damit nicht mehr klarkommt und 4xAA ein Tabuthema ist?

Die Antwort lautet ganz klar: Nein.

Ich finde solche allübergreifenden Tests sehr fragwürdig, das ist als ob man einen Renault Clio mit einem Audi A4 vergleichen würde.
 
ex()n schrieb:
Typisch Fanboyhorizont!

Die 7970Ghz ist 10%+ aufwärts über der 680...

Die 7970Ghz lässt sich ebenfalls noch ordentlich hochtakten, womit dein Argument ebenfalls nicht zieht.

Bestes Beispiel die Gigabyte HD 7970 GHz Edition die schon mit 1,1GHz (Werksübertaktung) taktet, statt der von AMD empfohlenden 1,0GHz.


ex()n schrieb:
Der Mehrverbrauch kommt nicht von ungefähr. Die 680 hat in GPGPU nichts zu melden.
Die überschaubaren Stromkosten wiegt die 680 mit dem unverhältnismäßig hohem Preis zur Konkurrenz auf.

Sind nur 60€ Unterschied zwischen der HD7970GHz und der GTX 680 und beide sind Werksübertaktet
Die HD 7970GHz verbraucht im Test genau 75Watt mehr als die GTX 680 unter Last.
Angenommen es spielt jemand jeden Tag 2 Stunden und benutzt die Karte 2 Jahre lang, hat die HD 7970GHz einen mehr Verbrauch von
75Watt x 2Stunden= 150Watt x 365Tage=54750Watt x 2Jahre=109500Watt= 109,5KW/h x 0,30€=32,85€ also sind es nur noch 27€ mehr für die GTX 680
 
MikelMolto schrieb:
Finde es schade, dass im Test die HD 7770 im Test so aussieht, als ob man damit nicht gescheit spielen kann. Ich spiele mit der auf 1.920 × 1.200 und bin Top zufrieden.
Schon klar, dass die mit den teuren Karten nicht mit kommt aber für den Preis ist das eine Tolle und sparsame Karte.

Genau das denke ich mir nämlich auch. Ich spiele sämtliche Spiele in 1680x1050, 4xEQ AA, 16xAF und Qualität auf high. Keine Probleme bisher.
(zB Diablo 3, Skyrim)
 
sonyfreak1234 schrieb:
Ergänzung ()

hmm erfolgreich, is wohl übertrieben, denn dann sollte man sich fragen wiso ein privat entwickler (radeon pro) das problem schon seit ca.2 jahren fast ausgemurkst hat.

Fps-Limiter sind für mich der falsche Weg. Man sollte die Ursache bekämpfen und nicht die Symptome. Nvidia macht das genau richtig.

Passend dazu noch ein ComputerBase Zitat aus dem gtx690 Test vom Mai 2012:

Bislang hat Nvidia nämlich nur versucht, diesem Problem per Treiber zu begegnen, die Kepler-GPU soll nun auch in Hardware dagegen vorgehen können. Genauere Informationen bleibt Nvidia schuldig, die Technik soll jedoch von allen Kepler-Karten unterstützt werden. Auf zwei GeForce-GTX-680-Karten können wir die Besserung derzeit nicht bestätigen, was aber an einem etwas älteren Treiber liegen könnte. Hier müssen erst weitere Untersuchungen Klarheit ergeben. Auf einer GeForce GTX 690 funktioniert der Mechanismus aber und gefällt uns durchweg gut. AFR (SLI) ist damit so gut wie nie zuvor und SLI ist CrossFire diesbezüglich mittlerweile einen riesigen Schritt voraus. Anders als Nvidia hat AMD gegen Mikroruckler bis jetzt noch nicht viel unternommen – unverständlich! Nunmehr sprechen eigentlich nur noch die notwendigen Profile gegen ein Multi-GPU-Setup.
 

Ähnliche Themen

Zurück
Oben