Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGrafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich
Schöner ausführlicher und übersichtlicher Test. Nervig, dass man bei iOS den 100% Balken nicht verschieben kann, so muss man schätzen, aber das ist verkraftbar. Gefällt mir sehr gut.
PS: Ob man nun eine 2500K mitzunehmen ist, muss eure Entscheidung sein. Extra CPU Benches hinsichtlich der Gaming-Quali macht ihr ja auch regelmäßig. Aus meiner Sicht unnötig.
Schöner Test.
Beim i5-2500K-Test hätte man ruhig noch OC drauf machen können, ich denke mal die meisten hier die ihn noch nutzen werden jetzt auch übertaktet haben.
Zeigt eigentlich ganz gut, dass AMD auch tatsächlich gegen Maxwell gerüstet ist mit Hawaii. Die Leistungsunterschiede im einstelligen Prozentbereich merkt man beim Zocken so gut wie garnicht, also muss der Preis entscheiden.
Auch die Lautsärke hat z.B. Sapphire gut im Griff, bleibt nur noch die Energieeffizienz als Negativpunkt. Mit längerer Nutzungsdauer der Karte schwindet so natürlich langsam der Preisvorteil. Aber da sich die Kosten über einen langen Zeitraum aufteilen, kann es eigentlich auch schon wieder egal sein.
Ich habe beim Wechsel von der GTX970 auf die R9 290 über 100€ gespart, bei 4% weniger Leistung im Schnitt...das lässt sich doch sehen. Um das Geld mit dem Stromverbrauch wieder zu verpulvern muss ich deutlich mehr als 3000 Stunden spielen.
Ich bin mal gespannt wie es mit den neuen Grafikkarten aussehen wird.
An die Leute die hier WOW vermissen. WoW hat noch nie was in einem Grafikkartentest zu suchen gehabt. Ab der R7 260X(schwächste Grafikkarte im Test(im Bezug auf WoW)) schaffen alle Grafikkarten mehr als 40fps bei max quality und Full HD.
Was mich etwas stört ist den aktuellen i7 zu übertakten und den alten i5 auf Stock laufen zu lassen. Anderes herum wäre es schon interessanter, da hätte der i5, wohl knapp 30 % Frames mehr und der i7 wohl ein paar weniger...
Also ich würde mir das nächste mal wünschen entewder beide Stock oder beide übertakten oder beides
in einem Backofen ohne Airflow sicherlich.
Allerdings völlig nebensächlich. Man tut schon fast so, als ob alles ringsherum anfängt in Flammen aufzugehen.
Vrams der Titan X sind auch nicht so die Eiswürfel und darüber regt sich schließlich auch niemand auf, weil unter Umständen die mögliche Soundkarte darüber paar Grad wärmer wird, oder die Gehäuse-Lüfter nun um 50-100rpm schneller drehen müssen.
Das ist alles Erbsenzählerei. Wer die Kohle hat, dem interessiert das nicht die Bohne.
Lautstärke ist hingegen ein super Argument, da bin ich voll dabei. Aber dafür gibt es ja verschiedene Modelle, da ist für jeden was dabei und wenn nicht, auch nicht schlimm. Gibt genug alternativen.
Auch was das NT betrifft wird übertrieben, da immer wieder gerne die TDP zwischen beiden völlig missverstanden wird. Auf die Werte der Hersteller, was Verbrauch betrifft, was " Hersteller " Messungen betrifft, kann der deutsche ja ein Lied singen. Wenn der Mercedes doch mehr verbraucht als wie angegeben... sowas nimmt man stillschweigend hin, aber als Vergleich werden stets immer diese Werte als Maßgebend angenommen, obwohl völlig an der Praxis vorbei.
Auch bei den ganzen Haushaltsgeräten ( Waschmaschine, Spülmaschine usw ) mit ihren netten A+++ wird der Kunde oft und gern in die Irre geführt. " Eco " Modus... wenig Wasserverbrauch usw...
Das die Maschine dafür aber auch öfters das Wasser wiederverwenden muss, wo dieses jedesmal abgepumpt werden muss, zwecks Filtern/reinigen und sich dabei der Stromverbrauch erhöht interessiert auch niemanden mehr. Wichtig ist nur, dass es ein A+++ Gerät ist mit Eco-Modus. Voll Grün und so. Voll Öko!
@meckswell,
was ist daran unverschämt?
Definiere das bitte mal genauer, und was das mit Staubsauger zutun hat?
Meiner Meinung nach gehört WOW wirklich mit in den Testparcour, weil es noch immer viele Spieler gibt, die sich extra für WOW und Diablo 3 einen neuen PC aufbauen und sogut wie nichts anderes spielen.
Der Test kann dann zeigen ob Nvidia bei WOW/Diablo 3 noch immer weiter im Vorteil ist oder ob AMD da inzwischen aufgeholt hat. Es zeigt sich zumindest so in dem letzten Test der PCGH zum letzten Addon.
Ansonsten ein schöner Test, der mir zeigt, das mein 2500k@OC mit meiner 670@OC (= 680 = 770) noch immer ausreicht um aktuelle Titel einigermaßen in mittlere bis hoher Qualität auf FullHD spielen zu können. Da kann ich dann noch die 9xx Serie von Nvidia überspringen und auf die neue Generation warten.
Nachfrage bzw. Anregung dazu: Ryse scheint ja eher ein AMD-lastiges Spiel zu sein, sind die Radeons dadurch bei der Leistungsaufnahme im Nachteil oder sind die Werte in anderen Spielen ähnlich? Warum wurde genau der Titel gewählt?
Hätte nicht gedacht dass die R9 290X so viel verlieren kann (Ryse) denn der i5 2500K ist jetzt ja nicht gerade langsam unterwegs. Bedeutet im Umkehrschluss dass jemand der ne Fiji betreiben will ne richtig dicke CPU haben sollte.
auch sehr interessant. Wer hätte gedacht dass die Intel iGPU derweil so brauchbar ist. Ich denke auch die kleineren Modelle (U/Y) stehen da nicht übel da.
Die AMD-Grafikkarten haben bei dieser Disziplin dagegen deutlich das Nachsehen. Den H.265-Codec können die Radeon-Produkte überhaupt nicht beschleunigen, dasselbe gilt für Ultra-HD-Videos. Einzig 1080p-Videos mit H.264 können beschleunigt werden.
liegt schlicht daran dass AMD zur Zeit quasi nur alte GPU im Portfolio hat und bei den APU ist es nichts anderes. Ein unschöner Nebeneffekt zu den langen Zyklen. 1080p und H.264 ist nicht mehr ganz zeitgemäß. Ich habe meine größten Filme bereits in X265 gewandelt, zum Teil wirklich erstaunlich mit wenig Bitrate man da hinkommt.
Seh ich das richtig dass bisher kein AMD Produkt UHD beschleunigen kann?
Dieser Test wäre gerade mal in kleineren Leistungsklassen interessant. zB bei den Zboxen, CI320, CI540, kleine AMDs APU usw... im hinblick auf Multimedia PCs da man öfters liest dass man bei AMD ne bessere BQ rausholt.
@ Leistungsaufnahme
hm, hätte nich gedacht dass der Unterschied der R9 290X OC und non OC zu den Nvidia Karten noch so groß ist. Man liest ja öfters 100W die dann abgetan werden als würden sich GTX 970/980 OC und 290X OC nichts schenken...
So wie ich das sehe sind es fast 150W im Falle GTX 970 OC zu R9 290X OC.
Es sind zwar nur 30W bei GTX 980 OC zu R9 290X, aber erstere ist auch 37% schneller. Von BD und Multimonitor muss man erst gar nicht reden.
Ein stückweit stimmt es also schon dass die Maxwell Karten deutlich effizienter sind. Wie sehr das für ein selbst Kaufargument ist muss man mit sich ausmachen. Ich fände es weniger kritisch wenn die Karte @ Gaming Last 100W mehr frisst. Da stören mich ein fehlender HDMI 2.0 und die Multimedia Features mehr.
Ergänzung ()
zeedy schrieb:
Wenn die Ergebnisse so unterschiedlich sind, der eine Reviewer aber sehr teure Messhardware verwendet und direkt am PCI Slot misst und ihr Gesamtsystemmessungen an der Steckdose durchführt, dann ist das denke ich legitim zu sagen, dass eure Ergebnisse ziemlich unbrauchbar sind
Und sie sind auch deshalb unbrauchbar, weil ihr anscheinend die 94°C heißen Referenzmodelle verwendet habt, was die Energieaufnahme nochmal um 20-30W erhöht im Vergleich zu den Partnermodellen der R9 290, die 10-20°C kühler sind. Die Temp- und Lautstärkemessungen hättet ihr euch daher auch sparen können, da eben kaum jemand Referenzkarten im Rechner hat.
deswegen gibts ja nun auch die OC Modelle im Test. Zudem kann man darüber streiten ob Messen am PCIe Slot oder Gesamtsystem wichtiger ist. Ist die GPU schneller lastet sie auch die CPU und den Rest mehr aus... soll das unter den Teppich fallen?
Der höhere AMD Verbrauch kann zb schon mit dem schlechter auf CPU getrimmten Treiber von AMD liegen. Eventuell ist die CPU deutlich ausgelasteter, siehe test mit dem i5 2550K und auch die anderen Games können den i7 4770K vielleicht mehr belasten, dieser selbst aber nicht limitieren -> höhere Gesamtsystemaufnahme @ Last.
Und schon machts wieder Sinn.
@Krautmaster,
im Falle einer Referenz. Kauft sich aber keine Sau, außer die wird umgebaut oder unter Wasser gesetzt.
Du wiederholst dich aber, du weißt es, tust es aber ab bzw. ignorierst das.
Und was Blu-Ray betrifft können sich beide Hersteller an die Nase packen. Völlig versagt in der Hinsicht.
Aber ich lass das mal so stehen, wenn die R300er wirklich als Ref. die WaKü bekommt ist, dass das nächste worüber sich beschwert wird, wie doof doch das Testverfahren ist. Wenn das nicht hier und jetzt kritisiert wird, hat in diesem eintretenden Fall besser niemand etwas am Testverfahren auszusetzen.
Nun es sind ja keine OC Modelle mit Customkühler sondern Referenzmodelle die auf einen bestimmten gemittelten OC Wert getaktet wurde. Und was Zeedy aufgezeigt hat ist eben dass sich die Kühlung massiv auf die Leistungsaufnahme auswirkt. Das kann man mit der Referenz @ OC so eben nicht darstellen. AMD kommt bei der Leistungsaufnahme wegen dem üblen Referenzkühler nochmal schelchter weg. Nicht zu vergleichen mit den Customkühlungen.
sehr guter und umfangreicher Test, es steht natürlich nichts darin, was nicht in Einzeltests zuvor schon gesagt wurde, aber dennoch, eine sehr gute Zusammenfassung. Danke CB
du weißt genau auf was es bezogen war, und worin sich deine Aussage, die sich Allgemein Formuliert bezieht... es ist stets das selbe bei dir. Du ignorierst das Kaufverhalten und die Praxis beim Kunden...
Das Testverfahren wird sich spätestens zur r300 zugunsten AMDs verschieben. Genauso wie es jetzt umgekehrt ist, bezg. der Ref 290/x die mit den Customs nix gemein ha, in der Praxis aber verwendet werden, anstelle der mülligen Refs. Ich will es ja nur mal erwähnen, wenn die r300 wirklich ne WaKü als Ref bekommt,
dann verfälscht das den Test als solcher wieder zu krass in eine Richtung. Fair ist das nicht. Aber jetzt ist es noch gut....
Ich bin mal gespannt... so ganz ausgeglichen ist das nicht.
Das ist eine Eigenheit der Referenzkarten. Da AMD bei der 290 die Lüfter höher drehen lässt als bei der 290X, taktet die 290 durchweg höher als die 290X - und hat zugleich eine höhere Leistungsaufnahme. Die 290X kann den Taktunterschied dann durch die zusätzlichen Einheiten kompensieren.
Viele neue Änderungen, war bestimmt viel Arbeit, aber es hat sich gelohnt. der Test gibt jetzt noch mehr Einblick, mehr kann ich mir eigentlich nicht wünschen.
Staubsauger dürfen nur noch 1600Watt haben. Wieso wird etwas vergleichbares nicht generell eingeführt, z.B. für Grafikkarten. Die Leistungsaufnahme einiger Karten ist echt unverschämt.
Sowas sollte nicht in den deutschen Handel gelangen dürfen.
Was soll das denn?
Wenn der Stromverbrauch nicht passt, kauf ich eben ein geeigneteres Produkt.
Ich brauch doch dafür keine gesetzliche Bevormundung vor allem wenn Nutzern wie mir, der Stromverbrauch bei Grafikkarten egal ist!
Ego Trip.
Muss CB wirklich loben, vorallem da ich in der Vergangenheit gerne Subjektivität vorgeworfen habe.
Ist eigt alles dabei was ich mir gewünscht habe.
- 4k Auflösung für eine relativ sichere Zukunftstendenz
- Frameverlauf um das Einbrechen der GPU zu sehen
- Vram Auslastung um zu erkennen das 4+GB Sinn ergeben
Und sogar Partnerdesigns und einen CPU Vergleich der sowieso immer ein GPU Limit zeigt.
Wirklich Klasse. Manche Magazine bekommen das noch nicht einmal hin!
ich kann auch nicht nachvollziehen warum der 2500K @stock läuft, es gibt sehr viele Leute die lieber wüssten wie sich ein übertakteter 2500K >4ghz gegen einen aktuellen i5/7 4xxx schlägt. Dadurch hätte man eine viel bessere Einordnung.
Kein Battlefield, dafür aber gleich mehrere Spiele die kaum noch jemanden interessieren, nach dem der Singleplayer einmal durchgespielt wurde? Muss man nicht verstehen, oder?