Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

VinnyD schrieb:
Sinnloser "Vergleich", also ist deutlich was das hier eigentlich ist.

Hier werden Nvidias neueste Karten dieses Jahres, mit AMD Karten von vor mehreren Jahren verglichen. Bravo CB :rolleyes:

Du kleiner Scherzkeks, wie Wolfgang schon schrieb, wenn AMD die Radeon R9 390X mit dem Fiji-XT-Chip erst nach Juni rausbringt, und dann die anderen zünftigen alten R9 3xx dann nur als umgelabelte Karten weitergeführt werden.

...Radeon R7 360 bis R9 380X: Rebrands oder nicht?
Ein großes Fragezeichen steht derweil bei den Modellen unterhalb der R9 390(X). Während frühere Gerüchte davon sprachen, dass es sich ausschließlich um Rebrands von bereits erhältlichen Grafikkarten handeln soll, habe sich AMD laut späteren Gerüchten gegen eine solche Vorgehensweise entschieden. Wiederum kürzlich eingetragene Device-IDs für kommende Mittelklasse- und Einsteiger-Radeons sprachen dafür, dass es sich doch um Rebrands handeln könnte (Achtung: Konjunktiv II). Aus dem Computerbase-Forum stammt der Hinweis, dass die IDs bestenfalls als Hinweis auf eine Wiederverwertung alter Grafikchips zu verstehen sind...

...Die Gerüchte basieren laut Tweaktown auf Insider-Hinweisen aus der Industrie. So soll die neue Grafikkarte sogar bis zum Ende des Jahres nur in einer begrenzen Anzahl lieferbar sein. Grund hierfür soll eine Verzögerung der Produktion der HBM-Speicher-Komponenten der Grafikkarten sein...

...Als Grund für die mehrmaligen Verschiebungen gibt AMD Probleme mit der Leistung sowie der Fertigung an, wobei die Fehler in der zweiten Revision bereinigt worden sein sollen...
 
Zuletzt bearbeitet:
White_Eagle schrieb:
Das ist Fakt, so ist das nun mal leider.
Man gewinnt da unweigerlich den Eindruck, daß einige Energieversorger bei AMD als Sponsor tätig sind.

Wird langsam mal Zeit, daß die EU auch für die übrigen Elektrogeräte (wie Hartware) auch bei CPU, Grakas und Netzteile,
das EU-Energielabel für die Energieeffizienz,
Anhang anzeigen 490841
als Entscheidungshilfe für die für Verbraucher einführen.

Also wird nun offensichtliches Getrolle tolleriert oder wie? :rolleyes:
 
@zeedy, vieleicht war es minimal etwas übertrieben, aber Fakt ist, daß dies in der heutigen Zeit eine wichtige Rolle spielt.
Übrigens, trotz Energieeinsparung durch Einsatz/Umstellung auf moderne "Verbraucher" meinerseits, hab ich meine meine Endabrechnung erhalten, mit Nachzahlung und einer höheren Neueinstufung. :freak:
U.a. daher sehr fustriert.
 
m0LN4r schrieb:
Warum will jemand messwerte von 2k und 4K mi hochen details sehen wenn die karten nichtmal 20-30 fps machen können? Keine von diesen Karten ist für 2K und 4K gaming auf Ultra mit aa&msfsa gedacht.
Nichmal 1080p lauft gerade auf konstant 60fps, wenn man alles hochschraubt.
Tests unter 60avg fps sind irelevant. Wer noch mit 30-40fps heutzutage spielt muss ja blind sein.

Oder willst du sagen das die 290X für 4K medium gedacht ist, aber die 970 nicht? Da liegst du leider falsch.
So wie die 970 nicht für 2K und 4K ultra mit AA,fsaa,msaa die 60 fps rausrücken kann, so kann es leider keine andere AMD karte momentan, nichtmal ob sie 8gb vram hätte.
Da ich schrieb, dass Nvidia hier keineswegs zukunftssicherer Aufgestellt ist, wirst du meinen Beitrag schon im Kontext sehen müssen mit dem Beitrag auf welchen ich geantwortet habe.

Wer zockt der kauft sich einen Freesync Monitor und spielt zwischen 40-60 FPS. Da brauchts keine 60 FPS mehr für ein flüssiges Spielgefühl, falls du das verpasst hast.

Dennoch zu deinem 4K Argument:
Aus dem Test https://www.computerbase.de/2015-05...#diagramm-civilization-beyond-earth-2560-1440
In anderen Spielen dagegen ist die Radeon-Riege stärker als gewöhnlich. Darunter fallen Civilization: Beyond Earth sowie Ryse: Son of Rome, wo es die OC-Modelle der Radeon R9 290X gar schaffen, schneller als die GeForce GTX 980 im Referenzdesign zu arbeiten.

Einen Blick wert ist darüber hinaus die Differenz der Radeon R9 285 zur Radeon R9 280X. Obwohl die Radeon R9 280X eigentlich ein gutes Stück rechenstärker ist, mehr Speicherbandbreite und auch mehr Speicher besitzt, rückt die Radeon R9 285 in einigen Spielen nah heran und überholt die theoretisch schnellere AMD-Grafikkarte in einem Spiel sogar. Dort zeigt sich das deutlich verbesserte Front-End mit der (unter anderem) höheren Tessellation-Leistung der Tonga-GPU. Betrachtet man die Verhältnisse zur Radeon R9 290X, wird zudem auffällig, dass die Hawaii-GPU das ebenso verbesserte Front-End (aber nicht auf Tonga-Niveau) offensichtlich kaum in mehr Leistung umsetzen kann. Zukünftige AMD-Grafikkarten mit dem Tonga-Front-End beziehungsweise einer weiteren Ausbaustufe können also bei ansonsten gleicher Hardwareausstattung an Geschwindigkeit zulegen.

In Civilization: Beyond Earth dagegen liegen die schnellsten AMD-Karten gar minimal vor den übertakteten GeForce-GTX-980-Varianten. Dasselbe gelingt auch in Ryse. Als Ausgleich dafür agiert die Radeon R9 290X in The Talos Principle minimal langsamer als die GeForce GTX 780.
https://www.computerbase.de/2015-05...#diagramm-civilization-beyond-earth-3840-2160
Die AMD-Karten rücken bei der hohen Auflösung also wieder näher an die Nvidia-Konkurrenz heran.
 
VinnyD schrieb:
Sinnloser "Vergleich", also ist deutlich was das hier eigentlich ist.

Hier werden Nvidias neueste Karten dieses Jahres, mit AMD Karten von vor mehreren Jahren verglichen. Bravo CB :rolleyes:

Es sind doch auch AMDs "neueste" Grafikkarten mit dabei, nur gibts dort noch nichts neues, da sie noch nicht fähig sind etwas einigermaßen Vernünftiges auf den Markt zu bringen :D
 
Zuletzt bearbeitet:
Daedal schrieb:
Wer zockt der kauft sich einen Freesync Monitor und spielt zwischen 40-60 FPS...
Ich ergänze ...Wer zockt, der kauft sich einen GSync-Monitor & spielt zwischen 30 Frames bis zur maximalen Hertzfrequenz vom Moni. Folglich "mehr Spielraum" & ist auch im Sinne eines Gamers.^^
Falls Freesync doch in die engere Wahl kommen sollte, dann unbedingt auf die Graka achten. Dies muss bzw. sollte man bei NV ebenfalls, aber auch hier gibt es (wieder) "mehr Spielraum"... ;)
 
Hallo Wolfgang,

Ich hätte eine Frage zu folgendem Abschnitt und dazu einen riesen Kritikpunkt:
Nvidias Vorgängergeneration in Form der GeForce GTX 760 braucht trotz einer geringeren Leistung mit 242 Watt ebenso mehr Strom. Die gute Effizienz zieht sich bis hinauf zur GeForce GTX Titan X durch. Der generelle Verbrauch bei dem Nvidia-Flaggschiff ist mit 374 Watt im maximierten Modus aber dennoch sehr hoch.

Die AMD-Grafikkarten haben dann mit dem Problem zu kämpfen, dass die 3D-Beschleuniger eine sehr hohe Leistungsaufnahme aufweisen, wenn diese mit dem vollen Takt arbeiten. So kommen die leicht übertakteten Probanden der Radeon R9 290X auf sehr hohe 411 Watt. Das Referenzdesign mit den Standardeinstellungen ist mit 326 Watt deutlich genügsamer, aber auch ein gutes Stück langsamer.
Wo setzt du Grenzen zwischen einer hohen und sehr hohen Leistungsaufnahme?
Was hier geschrieben wird, ist eine äußerst subjektive Einschätzung (deine persönliche Meinung?).
Was ist eigentlich eine hohe Leistungsaufnahme? Wie ist das definiert? Wie beschreibst du die Effizienz?
Könntest du dazu bitte einheitliche Bestimmungen verfassen die ich als Leser nachvollziehen kann.

Ich bin durchaus dabei, dass ein Review von diesem Umfang zu schreiben und Korrekturlesen ein riesen Aufwand darstellt.
Aber wenn ihr euch als Fachpresse bezeichnet, dann solltet ihr euch bitte mal angewöhnen physikalische Begriffe bzw. Fachbegriffe allgemein korrekt zu verwenden und auch entsprechend lückenlose Testkriterien aufstellen.
mit 242 Watt ebenso mehr Strom
Watt und Strom sind Zwei paar Stiefel.
Zum Glück habt ihr euch wieder Abgewöhnt das Kapitel Leistungsaufnahme als "Stromverbrauch" zu titulieren.
Dennoch erwarte ich so etwas nicht von einer Fachpresse und schon gar nicht von einem technischen Redakteur der bereits seit mehreren Jahren solche Artikel schreibt und mit der Materie verheiratet sein müsste.
Sorry lieber Wolfgang, aber solche Schreibweisen rauben Dir deine fachliche Kompetenz und lässt ein Review als mal nebenher schnell heruntergetippt erscheinen.
Im Übrigen ist diese Passage nur ein Beispiel und so ein Ausrutscher kann mal passieren, aber ehrlich gesagt zieht sich das schon seit Jahren quer durch eure (CB) und ganz besonders durch deine (Wolfgang) Reviews und News.
Das ist auch nicht das erste mal, dass ich eure Qualität das kritisiere oder verstehe ich euren Qualitätsanspruch einfach nur falsch?
 
Zuletzt bearbeitet:
Sontin schrieb:
Computerbase hat alle Limitierungen gelockert - darunter auch das Power-Limit. Das Referenzdesign kann sehr wohl mehr als 300W benötigen: http://ht4u.net/reviews/2015/nvidia_geforce_gtx_titan_x_im_test_-_gm200_im_vollausbau/index18.php
Und wenn du auch lesen würdest, statt nur Balkendiagramme zu betrachten, dann wüsstest du, dass das Höchstwerte sind -> für den Stromverbrauch irrelevant. Wie im Test zur GTX980/970 von Toms Hardware erklärt, ist die Lastanpassung von Maxwell extrem schnell, die echten Peakwerte kann man nur mit entsprechender Hardware messen, die extrem hoch auflöst.
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-11.html


Sontin schrieb:
Der reale Verbrauch liegt bei >100W, siehe den Link von Oben. Die MSI 290X liegt bei 298W, die gleichwertige MSI GTX970 bei 198W.


Da beide Karten im Durchschnitt gleichschnell sind, wird der Verbrauch immer dort bleiben.
Und da du meinst, dass man den "höheren" Preis nicht ausgleichen könnte - bleiben wir bei der MSI:
MSI 290X: 350€
MSI 970: 375€

Stromkostendifferenz: (100W*0,27€*2h*7Tage*52Wochen) = 19,66€.
Nach knapp 15 Monate bei 2h täglichen Spielens ist man pari bei der MSI. Wer mehr spielt, der erreicht den Turnaround früher.
Und das ignoriert alle anderen Kosten - Aufpreis Netzteil, Aufpreis Gehäuse, Aufpreis Gehäusekühlung etc.

So und nun kehren wir zurück zur Realität und betrachten die Fakten: Die Peakwerte sind quasi identisch, wobei sie bei Nvidia sogar etwas höher sind. Bis 390W (!)
http://www.tomshardware.de/nvidia-g...up-vergleichstest,testberichte-241658-20.html
Anhang anzeigen 490760Anhang anzeigen 490762

Selbst wenn wir Custom GTX970 vs Referenz 290X vergleichen, deren Lüfter allein schon gut 10W verbraucht (!), selbst dann sind wir bei nicht einmal 70W. Das ist keine Kleinigkeit, gar keine Frage, aber das ist auch ein Worst Case Szenario. Und das ist Last gen vs. current gen. Die eigentlichen Gegner der 290er waren 780er GTXen. Diese haben 1 GB weniger Speicher, verbrauchen in etwa gleich viel Strom und sind momentan meist langsamer. Entweder weil Nvidia den Treibersupport für sie vernachlässigt, damit die 900er Karten besser aussehen, oder weil die Radeon Treiber an Performance zugelegt haben.

Nimmt man eine R9 290 Tri-X o.ä. die noch einmal deutlich günstiger und kaum langsamer ist, dann ist der Verbrauchsunterschied noch deutlich kleiner. Damit ist dein Netzteil-Argument auch sinnlos. Wenn man noch bedenkt, dass die GPU beim Zocken nicht permanent voll ausgelastet wird, dann kann man deine Milchmädchenrechnung komplett vergessen.


Also Sontin, jeder weiß dass du ein Hardcore Nvidia Fan bist und seit Jahren jedem versuchst weis zu machen, AMD Karten wären überhaupt nicht konkurrenzfähig etc. Und ich erinnere mich noch, als du mit dem Igor von Toms Hardware eine Diskussion hattest, bei der du meintest er wüsste nicht was er misst bzw dass er Mist misst. Ganz schön peinlich diese einseitige Betrachtungsweise. Steckdosenmessung von CB: perfekte Wahrheit, exakte Oszilloskopenmessung am PCI Slot: irrelevanter Käse :rolleyes:
Wolfgang schrieb:
Natürlich würden wir gerne auch die Leistungsaufnahme der Grafikkarte messen können.
Doch leider ist das ganze echt nicht leicht. Da geht es nicht nur die Anschaffungskosten, alleine dieKalibrierung der Geräte...
Und ganz ehrlich: Aktuell gibt es ein (ja, EIN) Magazin weltweit, das die Leistungsaufnahme richtig messen kann. Ein einziges. Alle anderen nutzen, hart ausgedrückt, Bastellösungen, die zwar nur die Leistungsaufnahme der Grafikkarte messen, dabei aber nicht wirklich korrektz sind - schon gar nicht bei den neusten Grafikkarten.
...[]
Ja, Tomshardware ist das. Auch wenn Kollege Igor sich nicht in dem Thread "getraut" hat das zu sagen (dafür aber was gepostet hat^^).

;)
 
SuddenDeathStgt schrieb:
Ich ergänze ...Wer zockt, der kauft sich einen GSync-Monitor & spielt zwischen 30 Frames bis zur maximalen Hertzfrequenz vom Moni. Folglich "mehr Spielraum" & ist auch im Sinne eines Gamers.^^
Falls Freesync doch in die engere Wahl kommen sollte, dann unbedingt auf die Graka achten. Dies muss bzw. sollte man bei NV ebenfalls, aber auch hier gibt es (wieder) "mehr Spielraum"... ;)
Das ist absolut richtig. Hier bietet Nvidia sogar zwischen 30-40 FPS zusätzlichen Spielraum, doch dies gilt zum einen nur für die erste Panel-Generation der Sync-Techniken und zum andereren muss man mit flimmern rechnen zwischen 37-30 FPS wegen der Gsync-Technik. Damit ist das kein aktzeptabler Framebereich. Die fehlenden Anschlüße und weitere Beschneidungen bei der Monitorsteuerung machen das ganze noch weniger attraktiv und einschränkend für sehr wenig Mehrwert.
 
Lumi25 schrieb:
Wenn AMD nur umlabelt ist das deren Problem.

Nun kommen wir mal zu nem Fakt:
Die GTX 7xx Reihe ist voller umgelabelte Karten genau so wie die R9 und R7 Karten die beide relativ zeitgleich erschienen sind.

Neue Karten waren GTX 780, 780Ti, 750, 750Ti (Titan Black zähl ich nicht dazu. Ist einfach ne 780Ti mit mehr Speicher und weniger Limitierungen).
Bei AMD das gleiche Spiel: Neue Karten R9 290, 290x, 285. 295X2 zähl ich mal nicht dazu, weils einfach ne dual GPU Karte ist mit Chips die schon existierten (290x).

Noch schlimmer war es zu den GTX 5xx und HD 6xxx Zeiten.


Also dass AMD nur umlabelt stimmt. Aber Nvidia macht das auch.

GTX 9xx sind momentan voller neuer Chips.
Und bei AMD fliegen nur Gerüchte rum. Niemand weiss da irgendwie nur ansatzweise bescheid wie es aussieht.


Also bleib mal auf dem Teppich, Junge :rolleyes:
 
Daedal schrieb:
...und zum andereren muss man mit flimmern rechnen zwischen 37-30 FPS wegen der Gsync-Technik. Damit ist das kein aktzeptabler Framebereich.
Kann ich nicht bestätigen & bei mir flimmert nichts, egal was der Framecounter anzeigt.

Daedal schrieb:
Die fehlenden Anschlüße und weitere Beschneidungen bei der Monitorsteuerung machen das ganze noch weniger attraktiv und einschränkend für sehr wenig Mehrwert.
Solch einen Moni & das besonders mit einer hohen Hertzfrequenz, steuert man über Displayport an.
Im Bereich Anschlussvielfalt könnte der neue ASUS mit IPS ggf. punkten können. Natürlich nur, falls überhaupt Bedarf besteht.
 
Sry Deadal,
aber ich höre das 60 konstante fps das beste spieler erlebniss heutzutage ist.

Warum hast du civilisation gelinkt? Ist doch das uninteresanteste Spiel von allen in der tabelle.
Bei anderen kannst du es sehr schön sehen, das eine 290 oder 970 bei der gränze liegt für 1440p für 60fps vsync.
und das is noch weit weg vom 4K mit max details.

Wer 2K oder 4K will muss sich mindestens zwei high-end karten kaufen um alle spiele geniesen zu können.
Aber es gibt auch Leute die 4K mit medium und low spielen wollen und mit hochgeschraubtem filtern, das gebe ich dir zu.
------
An alle IMHO:
Die EE (energie effizienz) die mag im privaten leben wirklich keine rolle spielen,
aber es muss man aus globalem grund betrachten. Heutzutage werden wesentlich mehr GPUs gebraucht als vor 20 Jahren. So wie andere Elektrogeräte.

Die menscheit muss nach der EE streben, oder es wird einen Stromversorgungskolaps geben.
 
Und das muss bei Grafikkarten anfangen? Könnten ja Schmelzöfen effizienter machen. Die brauchen bestimmt mehr als 400 Watt ^^
 
Ich drücke es mal salopp aus: glaubt ihr wirklich, daß jemand, der sich einen 2K / 4K Monitor und möglichst passende Grafikkarte oder passende Grafikkarten für 4K mit 20000x Kantenglättung zu den momentanen Preisen holt, sich dafür interessiert, ob seine Stromkosten über das Jahr verteilt 30 Euro oder 40 Euro in der einen Kombination teurer oder billiger sind?

Wäre so, als wenn sich jemand, der sich einen dicken Audi A8 oder eine Mercedes S-Klasse holt, dadurch entscheidet, welcher im Monat für 30 Euro weniger Sprit verbraucht.

Eine Packung weniger im Monat rauchen, sind im Jahr auch schon 72 Euro, wenn ich einen Preis von 6 Euro pro Packung nehme. Und das ist so meine Rechnung als Nichtraucher.
 
m0LN4r schrieb:
Sry Deadal,
aber ich höre das 60 konstante fps das beste spieler erlebniss heutzutage ist.

Warum hast du civilisation gelinkt? Ist doch das uninteresanteste Spiel von allen in der tabelle.
Weil die Ausgangsaussage war, dass AMD für DX12 schon heute bereit ist, wie man an den Mantle Spielen sehen kann: Civ und Dragon Age sind die einzigen hier im Test. Daher sind dies auch die interessanten Spiele wenn man DX12 Performance oder CPU entlastende Argumente in die Diskussion einbringt. Wer behauptet, dass Nvidias GPUs CPU schonender sind, der lässt ausser Acht, dass mit Mantle eine komplette API deutlich mehr CPU entlastet, wie man sehr gut bei den CIV Werten sehen kann wo die R9 290X mit der GTX 980 auf Augenhöhe performt.
 
Wolfgang schrieb:
Ja, Tomshardware ist das. Auch wenn Kollege Igor sich nicht in dem Thread "getraut" hat das zu sagen (dafür aber was gepostet hat^^).
...

hehehe. Sag mal mein lieber Wolfgang, wie kommst gerade du mit deinem beschränkten Wissen um Messtechnik dazu diese Aussage zu treffen? Nur weil Igor das in seinem Artikel so darstellt? Da kommen wir in Kürze drauf zurück.
 
Wolfgang schrieb:
Der Kommentar ist wohl kaum mehr "Bravo". Was zu Hölle sollen wir denn sonst bei AMD testen?

Deren neue Generation wenn sie rauskommt. Davor ist dieser Test sinnlos. Was ihr hier also macht ist ihr vergleicht Nvidias neueste Karten mit AMDs 3 Jahre alten Karten. Absolut sinnlos, ich weiß nicht wie das niemandem in eurer "Redaktion" aufgefallen ist bevor ihr das gemacht habt. Ihr müsst den ja nicht machen, ihr könnt also warten bis ihr da was sinnvolles macht.
 
Wolfgang...da einige hier die gesamte Arbeit eher nicht zu schätzen wissen, mach es demnächst so: machst einen Artikel und deaktivierst einfach die Kommentarfunktion.

Ginge es danach, was AMD derzeit macht, bräuchte man gar keine Vergleichstests mehr anstellen. Weder bei Grafikkarten, noch bei Prozessoren.

Nachtrag @VinnyD: zwischen einer R9 290X a.k.a. "Titan Killer" aus dem Jahr 2013 und der GTX 980 aus dem Jahr 2014 stehen keine 3 Jahre...

...und nein, ich bin kein AMD-Hasser. Hatte vor meiner GTX 970 eine HD 7970...
 
Zuletzt bearbeitet:
Denk doch mal darüber nach. Hier haben Nutzer 419 Kommentare hinterlassen und dabei über 28000 Hits generiert. Wenn man bei solchen Themen die Kommentarfunktion deaktiviert, gehen Hits entsprechend runter und so auch die Einnahmen.
 
dass sich die 580 derart schlecht in GTAV schlägt verwundert mich dann doch ein bisschen.
 
Zurück
Oben