Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Sontin schrieb:
Man sollte das P/L-Rating einfach rausnehmen. Denn Leistung alleine auf Performance zu reduzieren, ist auch nicht das Wahre.

Man muss sich ja nur ansehen, wie die Sache mit einem Prozessor aussieht, der nicht zum absoluten Besten gehört:
In Ryse ist eine 290X-OC nur auf dem Niveau einer GTX970 mit dem 2500K Prozessor. Mit dem 4770K@OC sind es 15% mehr Leistung. Je langsamer der Prozessor, umso besser stehen nVidia Karten da.

Gibt viel zu viele Variablen, die das P/L beeinflussen.

Die größte Variable ist, dass die Preise jederzeit beliebig angepasst werden können. Die Performance nur bedingt. Insofern stimme ich Dir zu. Ich würde den Preis grundsätzlich nennen und auch immer mal wieder aktualisieren aber keine P/L Graphen hinstellen und zwar aus den genannten Gründen.
 
Flatan schrieb:
Nur gut, dass die R9 290 50-90€ günstiger ist als eine GTX 970.

Kommt ganz darauf an wann man sie gekauft hat, ich habe im Dezember für die Inno3D GTX 970 HerculeZ X2 (welche zudem auch noch relativ leise bleibt und erst bei FPS Raten jenseits von 500 mit dem Spulenfiepen anfängt) knapp 305€ bezahlt, ne brauchbare R9 290 kostete da auch schon um die 285€, dafür das die Karte weniger Strom verbraucht und mir zudem auch noch ein Spiel mitbrachte was ich sowieso gekauft hätte (The Crew) ist das für mich klar das bessere Gesamtpaket gewesen.
Hätte ich das mit den 3,5GB aber schon im Dezember gewusst, dann wüsste ich ehrlich gesagt nicht ob ich sie gekauft hätte.
 
Sahit,
die Gigabyte GTX970 ist die ineffizienteste GTX970, da Gigabyte hier alle Limitierungen gelöst hat. Und diese Karte verbraucht bei besserer Leistung zur 290X von Gigabyte 40-80W weniger Strom. Preislich ist die GTX970 Karte auch noch günstiger.

Halten wir fest:
Gigabytes GTX970 ist im Vergleich zur ähnlichen 290X Karte günstiger, schneller und stromsparender.
 
Das mit der CPU-Nutzung kommt ja noch dazu. Wenn man jetzt unter Beibehaltung der älteren CPU die Grafikkarte tauscht, hat nVidia hier noch mal ein Vorteil. Zum Beispiel. Und bei einem jetzt gekauften System läuft eine AMD-Karte in Zukunft in CPU-Schwierigkeiten. Selbst wenn die Speicherausstattung dann zu einem Vorteil würde, was sehr fraglich ist, würde dieser Vorteil an der CPU wieder scheitern. Das AMD also langfristig die bessere Wahl wäre, halte ich für sehr unwahrscheinlich. Verstärkt wird das dann noch durch DX12.
Ergänzung ()

Beim Aufrüsten zeigt die Wirklichkeit hier im Forum auch vielfach, dass bei einer Entscheidung für AMD oft das Netzteil mit aufgerüstet werden muss, was bei nVidia nicht nötig wäre. Nicht immer, klar - aber oft. Und das ist mir dann völlig unverständlich, weil dann bereits die Anschaffungskosten höher sind. Für weniger Leistung bei der GPU, für CPU-Schwierigkeiten und für mehr Stromverbrauch. Völlig sinnfrei.

EDIT: Manchmal geht das dann sogar Richtung neues Gehäuse oder zumindest neue Lüfter, weil es sonst zu heiß wird. Das ist dann nur noch absurd.
 
Zuletzt bearbeitet:
Sontin schrieb:
Es ist erstaunlich, dass Stromverbrauch für einige angeblich keine Rolle spielen sollte, wenn man Karten vergleicht, die fast identisch sind und genauso viel kosten. Wer würde sich denn da die Karte kaufen, die 100W mehr braucht? Das ist rein rational nicht zu erklären.

- Features
- Firmenbindung
- Underdog-streben
- "schon immer Firma XYZ gekauft"
- Entwicklung über Zeit (schönes Beispiel dafür ist die HD 7950/R9 280 gegenüber der GTX 760)
- Rationalität hat hier wenig zu suchen, sonst hätte man ja damals auch nicht die GTX 400er Serie kaufen dürfen

Ja eben. Exakte Messungen ergeben einen Unterschied von 35W[...]

Falls du nochmals die HT4U Werte bei dem Performance Bios ansprichst, dass scheint ein sich über mehrere Tests hinweg ziehender Fehler zu sein. In einem Test, als das Performance Bios das erste mal angewendet wurde, waren die Bezeichnungen gedreht, Performance Bios verbrauchte den meisten Strom, macht auch eher Sinn, da ich nicht glaube, dass die R9-290x im Quiet-Bios Modus so viel mehr Strom zieht, wenn das Quiet-Bios doch eigentlich Power-Tune nach unten regelt, damit die Karte nicht so viel Strom verbraucht und Ruhig ist.

Völlig in Ordnung, solange nicht behauptet wird, es ginge ein besseres P/L-Verhältnis damit einher.

Wenn man nur Leistung für den Preis beachtet ohne Strom-Verbrauch und andere Komponenten, dann stimmt das ganze auch. Dann liefern die AMD Karten die bessere Leistung fürs Geld. Zieht man Lautstärke, eigenes Spielverhalten, Nutzungsdauer der Karte, Vorlieben bei Spielen, Moral und Ethik (als Philosophie (ehemals)/Religionswissenschaftsstudent lach ich aber darüber herzlich), etc. hinzu kann sich das klar wandeln. Aber darüber können weder die Tester noch Foren-Mitglieder informieren, geschweige denn alles erfragen und dann ein möglichst auf die Person zugeschnittenes Produkt empfehlen.
Also einigt man sich auf den kleinsten gemeinsamen Nenner, der möglichst wenig Zusatzinformationen benötigt.
 
Statistisch ist das Nutzerverhalten aber so, dass nVidia günstiger ist ... in sofern müsste das der Standard sein und AMD nur da, wo solche Sachen unerwartet liegen.
 
Könntest du mir sagen, welches Magazin das ist.

P.S. keine Sorge, ich werde auch weiterhin eure Tests lesen
Ja, Tomshardware ist das. Auch wenn Kollege Igor sich nicht in dem Thread "getraut" hat das zu sagen (dafür aber was gepostet hat^^).

Nun CB, ich werde dann mal versuchen darzulegen warum hier relativ viele ungehalten über Ihre Testmethoden sind, vor allen im Bereich Stromverbrauch. (zumindest soweit ich glaube woran dies liegt)
Diese benachteiligen anscheinend AMD Karten und bevorteilen anscheinend NVidia Karten gegenüber den Referenzkarten
und wenn man die einen schlechter darstellt und die anderen besser darstellt, verdoppelt sich dieser Effekt unpraktischerweise.
Relativ viele? Ich finde, es sind so wenig wie selten zuvor :)
Aber wo benachteiligen wir denn AMD bei der Leistungsaufnahme?

„Ab sofort werden Partnerkarten nicht mehr ignoriert.“
Vielleicht werden Sie im Bezug auf Taktraten nicht mehr ignoriert, aber sämtliche weiteren Erkenntnisse (Stromverbrauch (NVidia steigt deutlich an), Lautstärke)die Sie mit diesen gewonnen haben ignorieren Sie, warum? Ich hoffe, dass die Lautstärkemessungen nicht auch mit so einem Flickenteppich versehen sind im Bezug auf Vergleichbarkeit.
Die werden audch in Zukunft nicht ignoriert. Partnerkartentests stehen auch in Zukunft bei neuen Grafikkarten wieder ganz oben auf der To-Do-Liste.
Aktuell sehen wir jedoch einfach keinen Nachteil durch die aktuellen methoden. Wie gesagt: Eine Gigabyte 290X WindForce hat gar noch mehr Strom benötigt.

Ist die Bildqualität in Videos bei NVidia immer noch schlechter, wie damals? (Achtung: absichtlich provokative Frage!)
Und worauf spielst du da an? beim Abspielen ist da schon nichts schlechter.

Sinnloser "Vergleich", also ist deutlich was das hier eigentlich ist.

Hier werden Nvidias neueste Karten dieses Jahres, mit AMD Karten von vor mehreren Jahren verglichen. Bravo CB
Der Kommentar ist wohl kaum mehr "Bravo". Was zu Hölle sollen wir denn sonst bei AMD testen?

Die 290 um 3% gesteigert, die 970 um ca. 20%, weil CB meint es ist richtig. Wenigstens gebt ihr eure Beeinflussungen noch zu, auch wenn nur verlinkt. Wer macht sich schon die Mühe das zu lesen oder die Kommentare. Balkenbilder anschauen und Nvidia kaufen!
Beim Takt, oder was meinst du? Nunja, es ist wohl kaum unser Problem, wenn die AMD-Karten im Handel kaum übertaktet sind und die Nvidia-Karten deutlich mehr.

Warum wurde die 295X2 nicht getestet?
Es wurden nur Grafikkarten mit einer GPU getestet. Die 295X2 ist da eben ein kleiner (großer) Exot, der jedoch wie alle Multi-GPU-Karten im Duell mit Single-GPU-Karten recht schnell unattraktiv wird.
 
Hier habt ihr noch mehr Munition: http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index55.php

Wie man sieht, hängt die LA doch sehr vom einzelnen Modell ab (was ja auch schon die Round-Ups auf cb gezeigt haben) und die Unterschiede innerhalb einer GPU-Serie sind so groß, dass sich nur schwer allgemeine Aussagen darüber treffen lassen.

Die Idee der cb-Redaktion, einen Durchschnittswert für eine ganze Serie zu bilden, ist vor diesem Hintergrund in der Theorie zwar nicht ganz verkehrt, in der Praxis aber kaum zufriedenstellend umzusetzen.
 
slsHyde schrieb:
Ergänzung ()

Vielleicht kann man sich dem Thema auch statistisch nähern:

http://de.statista.com/statistik/da...n-und-jugendlichen-in-deutschland-nach-alter/
https://www.computerbase.de/forum/threads/eure-durchschnittliche-spielzeit.941085/
http://de.statista.com/statistik/da...eit-pro-gamer-in-ausgewaehlten-laendern-2011/

Hmmm, statistisch also 1,5 bis 2h am Tag, nicht pro Woche, zzgl. BluRay und zweiter Monitor. Und bei den Forennutzern deutlich mehr. Statistisch ist AMD teurer. Statistisch hier der Rat dazu meist eine Fehlberatung.

Und dann bringst du zwei Statistiken, in die auch noch Konsolen reingerechnet werden? Leider steht eine R9 290 damit gegenüber einer GTX 970 noch besser da...
Die Ignorierliste hier ist echt ein Segen.
 
Bitte passt noch den Terminus "Speicherverbrauch" an, der ist sachlich falsch. Speicher wird nicht verbraucht, er wird belegt. Man braucht zwar Speicher, aber er wird nicht umgewandelt, wie beispielsweise Strom bzw. Kraftstoff, welcher wirklich verbraucht (umgewandelt) wird.
 
Das ist doch auch nur Rosinenpickerei. Strom/Energie kann auch nicht verbraucht werden, sondern wird umgewandelt, und nicht "wirklich verbraucht", und trotzdem wird überall von Strom-/Energieverbrauch geschrieben und geredet, und jeder weiß was gemeint ist. Kraftstoff wird vielleicht "wirklich" als (meist) flüssiger Stoff "verbraucht", die Energie darin aber nicht im Sinne von "nicht mehr da sein".
 
slsHyde schrieb:
Das mit der CPU-Nutzung kommt ja noch dazu. Wenn man jetzt unter Beibehaltung der älteren CPU die Grafikkarte tauscht, hat nVidia hier noch mal ein Vorteil. Zum Beispiel. Und bei einem jetzt gekauften System läuft eine AMD-Karte in Zukunft in CPU-Schwierigkeiten. Selbst wenn die Speicherausstattung dann zu einem Vorteil würde, was sehr fraglich ist, würde dieser Vorteil an der CPU wieder scheitern. Das AMD also langfristig die bessere Wahl wäre, halte ich für sehr unwahrscheinlich. Verstärkt wird das dann noch durch DX12.
Eine äußerst fragwürdige Argumentation. Vor allem da AMD schon jahrelangen Vorsprung mit Mantle hat und auch schon deutlich mehr Hardware in den vorhandenen GPUs verbaut die erst mit DX12/Vulkan ihre Leistung zeigen können. Darunter gemeinsame Speicherbereiche, ACE und vor allem die Fähigkeit zu DP Berechnungen in Hardware Einheiten.

Mantle entlastet die CPU deutlich mehr als was hier an Unterschied bei DX11 vorzufinden ist und vor allem ist DX11 Geschichte was die AAA Titel angeht. DX12,und Vulkan folgen in grossen und ganzen den Vorgaben von AMD und es wird sich zeigen ob Nvidia den Zug nochmal aufhalten kann wie zu DX10/11 Zeiten wo sie immer noch einige Jahre raus schinden konnten damit sie Tesselatoren einbauen können oder nun das bei Maxwell gestrichene Unified Memory realisieren können. MS muss DX12 Featureseitig mindestens mit Mantle gleichziehen lassen um nicht den Einfluss zu verlieren. Und hier lösen sich die CPU bremsen und nicht weil man Nvidia kauft....Nvidia hat noch kein Spiel das es unterstützt wo schwächere CPUs profitieren. AMD hat alle Mantlespiele...Jetzt, wie ja viele gerne betonen, und nicht irgendwann vielleicht.

Also spare ich deutlich an Kosten wenn ich eine Mantlefähige GPU kaufe und diese mit einem Freesync Monitor kombiniere. Der braucht weniger Strom als Gsync und kompensiert beim Kaufpreis mehr als nur die 40W Mehrverbrauch gegenüber einer 970..
Eine neue CPU spare ich mir erst recht oder kann sogar eine günstigere kaufen, wozu Nvidia mich erst irgendwann Mitte 2016 befähigen wird, wenn es nicht wieder 1 Jahr Verzögerungen gibt wie bei Maxwell und es erneut in gestrichenen Features endet. Das alles in Hardware nachzurüsten was Maxwell noch fehlt (DP, Unified Memory, Asyncronous Compute) und gleichzeitig den 14nm Shrink inkl. neuen HBM Speicher einzuführen ist ein gewagtes Unternehmen. Da ist viel zusammen gekommen und wir werden sehen ob Nvidia da direkt klar kommt damit-historisch eher nicht wenn ein Fertigungswechsel ansteht. Siehe Fermi in 40nm und diesmal wird Nvidia nicht dort produzieren lassen wo der Fertiger schon ein halbes Jahr Erfahrungswerte mit AMD sammeln konnte. Da ist AMD besser positioniert.
 
Zuletzt bearbeitet:
VinnyD schrieb:
Sinnloser "Vergleich", also ist deutlich was das hier eigentlich ist.

Hier werden Nvidias neueste Karten dieses Jahres, mit AMD Karten von vor mehreren Jahren verglichen. Bravo CB :rolleyes:

Wenn AMD nur umlabelt ist das deren Problem und nicht jenes von Nvidia oder CB. Und auch die neuen 300er Karten werden nur neu im High-End Bereich sein der Rest wird einfach ein zweites mal umgelabelt und fertig ist die R9 370 ach nein R9 270 ups ich meinte HD 7870.
 
Bin ich der einzige, der es so absurd findet in diesem Thread über Hardware zu reden, die in einem Jahr auf dem Markt kommt? :freak:

Dieser AMD-TV Verkäufer: "Wie, die 290X ist schlecht? Quatsch. Die kann doch Craptle. Da braucht man keine High-End CPU mehr. Und wer spielt bitte all die Games auf dem Markt?! GTA5? Haha. Thief aus dem Jahr 2014 ist das beste vom Bestem. Und mehr als die 7 Craptle Games schafft sowieso keiner in seiner Lebenszeit. Wer was anderes behauptet ist ein Troll. TROLL! Und wenn dann DX12 kommt. Genau, das DX12, dass meine 290X garnicht richtig unterstützt. Dann, dann wird meine 290X soviel besser sein. Glaubt mir. Ich arbeite im Fernsehen". :evillol:
 
Absurd ist vielleicht der Inhaltsleerere Beitrag ohne Argumente. Mir ist schon klar, das rationale Überlegungen nicht jedermanns Sache sind, doch bei Technik sollte man sich darauf beschränken und weniger rabulistische Methoden nutzen wie hier immer wieder demonstriert, wenn man bestimmte Tatsachen einfach nicht akzeptieren möchte.

Man muss sich nur mal die Einzeltests von Dragon Age und Civ anschauen und dann noch in 2K und 4K. Da sind die 290 allesamt auf 980 Niveau. Damit ist auch das Stromargument hinfällig. Es muss mir keiner erzählen er sei mit einer 3,5 GB 970er besser gerüstet für Spiele die dieses Jahr raus kommen.
 
Zuletzt bearbeitet:
Daedal schrieb:
...... in 2K und 4K. Da sind die 290 allesamt auf 980 Niveau. Damit ist auch das Stromargument hinfällig. Es muss mir keiner erzählen er sei mit einer 3,5 GB 970er besser gerüstet für Spiele die dieses Jahr raus kommen.

Warum will jemand messwerte von 2k und 4K mi hochen details sehen wenn die karten nichtmal 20-30 fps machen können? Keine von diesen Karten ist für 2K und 4K gaming auf Ultra mit aa&msfsa gedacht.
Nichmal 1080p lauft gerade auf konstant 60fps, wenn man alles hochschraubt.
Tests unter 60avg fps sind irelevant. Wer noch mit 30-40fps heutzutage spielt muss ja blind sein.

Oder willst du sagen das die 290X für 4K medium gedacht ist, aber die 970 nicht? Da liegst du leider falsch.
So wie die 970 nicht für 2K und 4K ultra mit AA,fsaa,msaa die 60 fps rausrücken kann, so kann es leider keine andere AMD karte momentan, nichtmal ob sie 8gb vram hätte.
 
Sontin schrieb:
Es ist erstaunlich, dass Stromverbrauch für einige angeblich keine Rolle spielen sollte, wenn man Karten vergleicht, die fast identisch sind und genauso viel kosten. Wer würde sich denn da die Karte kaufen, die 100W mehr braucht? Das ist rein rational nicht zu erklären.

Man muss die >100W auch mal in Relation mit anderen Dingen setzen:
Das ist mehr als mein 55" Fernsehr an Strom benötigt.
3h spielen mit einer GTX970 bedeuten für mich, dass mein Akku des E-Bikes aufgeladen werden kann.

Also wenn ich das Fahrrad nutze, dann heisst die Energiequelle Muskelkraft. Ein E-Bike ist genau wie eine teuere Grafikkarte ein Luxusgut das man eigentlich nicht braucht.
Für den Preis des Ebike kann man 2 gute Stevens /Morrison Bike kaufen und hat Geld übrig ^^
 
Zuletzt bearbeitet:
Zurück
Oben