Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

leckerKuchen schrieb:
dass sich die 580 derart schlecht in GTAV schlägt verwundert mich dann doch ein bisschen.

Da muß man jetzt aber sagen, die stammt auch aus dem Jahr 2011, wie eine HD 6970. Hier würde ich jeder Altersdiskussion zustimmen.
 
Wolfgang schrieb:
Ja, Tomshardware ist das. Auch wenn Kollege Igor sich nicht in dem Thread "getraut" hat das zu sagen (dafür aber was gepostet hat^^).

Könntest du dann nicht das Thema Leistungsaufnahme aus deinem Review streichen und auf die Messungen von FormatC (Igor) verlinken ? (oder mit dem Hinweis auf diese Messungen)

Die Leistungsaufnahme an einem Spiel festzumachen ist auch fast unmöglich, da jede Engine die Karten unterschiedlich auslastet.

siehe z.B.
http://ht4u.net/reviews/2015/watt_v...nd_nvidia_gtx_980_im_effizienztest/index7.php

MfG
 
Sicherlich, aber immerhin war die GTX 580 stets immer stärker als die HD 6970. Wobei ich annehme, dass die 1,5GB Speicher der GTX 580 nicht mehr ausreichen (denke doch, dass das 1,5gb Modell für den Test genutzt wurde), da sie genau in den Spielen, die relativ viel Speicher brauchen, einbricht.
 
nobody01 schrieb:
Die Karten haben echt ein mieses Preisleistungsverhältniss. Die 290er und die 970 sind einfach keine 300 Euro Wert. Ich warte schon seit einem 3/4 Jahr darauf meine 6870 (die mich neu 130 Euro gekostet hat) aufzurüsten aber das ist es mir nicht Wert.
Soweit ich mich erinnern kann musste ich noch nie so viel Geld für so wenig Mehrleistung bezahlen.

WC_Ente schrieb:
Sags dem Draghi,
Die 290 gabs vor dem schlechten Eurokurs teilweise ab 240euro

Das liegt nicht nur am Eurokurs, die 290 gabs vor 2-3 Monaten für 250 Euro, da war der Eurokurs schon ein paar Monate so hoch. Selbst 250 Euro sind für die Karte viel aber das würde ich mit leisem Kühler noch zahlen.
Die 970 ist auch keinen cent Billiger geworden seit ihrem erscheinen.
 
Peter/HT4U schrieb:
hehehe. Sag mal mein lieber Wolfgang, wie kommst gerade du mit deinem beschränkten Wissen um Messtechnik dazu diese Aussage zu treffen? Nur weil Igor das in seinem Artikel so darstellt? Da kommen wir in Kürze drauf zurück.

@Peter:
Habe ich das wirklich? Vielleicht wurde ja aber auch in dem von Dir kritisierten Artikel nur beschrieben, wie etwas gelöst wurde und warum gerade dieser Weg eingeschlagen wurde? Das Ganze nennt sich übrigens Transparenz. :)

Und bitte fair bleiben: Ich schrieb definitiv nichts von anderen Redaktionen und der Einmaligkeit des eigenen Seins. Im Gegenteil. Und falls es Dich interessiert: Wolfgang war hier (wie andere auch) einen ganzen Tag bei mir im Labor, denn zu verbergen haben wir nämlich nichts. Und falls Du die PCGH-Print ab und an zur Hand nimmst: der gute Philip Pfab hat zusammen mit Agilent das Ganze mal unabhängig nachgebaut, ebenfalls basierend auf den vorher ausgetauschten Gedanken. DAS ist, was ich unter Kollegialität verstehe, nichts anderes.

Ich kann Dir versichern, dass einige R&D-Kollegen der Boardpartner (und einiger Netzteilhersteller) ähnliches gemacht und die Ergebnisse mittlerweile auch bestätigt haben. Wenn man sich ein klein wenig näher mit der Funktionsweise von Boost oder Power Tune beschäftigt, die Funktionsweise der Firmware hinterfragt und auch mal in Asien bei den Platinendesignern anklopft und aufmerksam zuhört, dann wird man schnell feststellen, dass bestimmte Werte aus Veröffentlichungen einfach nicht stimmen können, weil es auch theoretisch schon nicht möglich ist. Genau das war übrigens auch der Ausgangspunkt für eben jenen Artikel.

Du bist leider einer der wenigen, die nie an einem Gedankenaustausch zu diesem Thema teilgenommen haben. Eigentlich schade. Und Wolfgang ist durchaus in der Lage, die Problematik zu erfassen, das nur mal am Rande. Mir würde zudem auch nie einfallen, Kollegen in deren eigenem Forum derart abzufertigen.
 
Zuletzt bearbeitet:
@Computerbase


Anders sieht es dagegen aus, wenn der Monitor durch Windows abgeschaltet wird. Dank ZeroCore Power benötigen die meisten Radeon-Grafikkarten dann weniger Strom als die GeForce-Konkurrenz.

Könnt Ihr bitte bei den Balken noch einen Beispielwert für AMD ZeroCore einfügen? Dürfte ja bei allen AMD Karten dann identisch sein. Mir ist nämlich nicht klar ob der Idle-Wert des 4770k dem ZeroCore Verbrauch entspricht oder die iGPU des 4770k lief. Denn mit ZeroCore dürfte der Verbrauch unter der aktiven iGPU liegen, da diese ja nicht verwendet wird und die AMD Graka ja keinen Strom mehr zieht.

Zur Volllastdarstellung ist es ungünstig einen Titel mit klarer AMD oder Nvidia-Bevorzugung zu wählen, da die Grafikkarten in diesen Titeln nicht nur mehr fps rendern, sondern auch logischwerweise all umfassender ausgelastet werden. Das betrifft nicht nur die GPU, sondern auch die CPU verbaucht hierbei mehr Strom. Der Stromverbrauch ist also entsprechend höher.

Ideal wäre natürlich ein Schnitt über mehrere Spiele, oder ein Watt-pro-fps-Wert an Hand des Frameverlaufdiagramms. Es wäre aber schon deutlich besser eben einen Titel zu wählen welchem AMD und Nvidia gleich gut schmeckt.
 
Anstelle davon die Fettschrift zu benutzen, einfach mal die Balkendiagramme anschauen.
Windows Leerlauf, kein Monitor repräsentiert die Verbrauchswerte der AMD Karten mit ZeroCore.
 
Zuletzt bearbeitet:
nobody01 schrieb:
Das liegt nicht nur am Eurokurs, die 290 gabs vor 2-3 Monaten für 250 Euro, da war der Eurokurs schon ein paar Monate so hoch. Selbst 250 Euro sind für die Karte viel aber das würde ich mit leisem Kühler noch zahlen.
Die 970 ist auch keinen cent Billiger geworden seit ihrem erscheinen.

Die Asus-Variante der R9 290 (DirectCU-Kühler & Werks-OC) gabs im Dezember 2014 / Januar 2015 mit 30€ Cashback für ca. 230€. Das konnte sich sehen lassen :)

Ltcrusher schrieb:
Da muß man jetzt aber sagen, die stammt auch aus dem Jahr 2011, wie eine HD 6970

... und basiert damit noch auf der Fermi-Architektur, die nun nicht sooo überzeugend rüberkam.
 
Shadow Complex schrieb:
Anstelle davon die Fettschrift zu benutzen, einfach mal die Balkendiagramme anschauen.
Windows Leerlauf, kein Monitor repräsentiert die Verbrauchswerte der AMD Karten mit ZeroCore.

Sicher? Ich lese da:
Computerbase schrieb:
Leerlauf Windows, ein Monitor:

Und nun? Ich würde davon ausgehen, dass ist der Verbauch mit der iGPU mit einem Monitor im Idle Betrieb.
 
Sicher? Ich lese da:

Computerbase schrieb:
Leerlauf Windows, kein Monitor:


Kein Monitor.JPG
 
Miuwa schrieb:
Erstmal Kompliment zum neuen Testparcours. die meisten Veränderungen finde ich sehr sinnvoll und interessant.

An die CPU-Kritiker Kritiker:
Das hier ist kein CPU-Test, sondern es geht um den Einfluss der CPU auf die Performanceunterschiede zwischen den Grakas und das ist natürlich nur sinnvoll, wenn die CPUs auch eine deutlich unterschiedliche Leistung haben. Davon abgesehen finde ich einen 2500 @ Stock garkeine so unrealistische Wah, weil so einer (bzw. eine ähnlich schnelle CPU) sicher noch in vielen PCs steckt und viele Leute eben nicht übertakten wollen oder können (nicht jeder hat ne K Version). Dass CB jetzt einen K-Prozessor hergenommen hat, obwohl sie ihn nicht übertakten wird wahrscheinlich einfach daran liegen, dass eine solcher eben gerade rum lag.

Womit ich nicht so ganz einverstanden bin ist, dass ihr die "Referenz-OC-Karten" außerhalb der reinen Performance Benchmarks verwendet (P/L und Leistungsaufnahme). Es ist eine Sache zu zeigen, in welchem Leistungsbereich sich die Karten auf dem Markt "im Durchschnitt" (wie auch immer man den definiert) befinden in dem man die Frequenz entsprechend hoch schraubt und dann testet. Aber erstens wird die Leistungsaufnahme der übertakteten Partnerkarten nicht im gleichen Maßen skalieren wie bei eurem übertakteten Referenzmodel (z.B. dank besserer Kühlung oder Chipauswahl) und das P/L verhältnis einer nicht existenten Karte ist ohnehin nicht sonderlich sinnvoll (mir ist noch nicht mal klar, wie ihr das überhaupt berechnet).

Mein Vorschlag: Tragt einfach die getesteten Partknerkarten in die Tabelle ein und lebt damit, dass sie am Anfang noch schlecht gefüllt sind (so wier ihr das jetzt auch bei der Lautstärke macht).

Deiner Argumentation zu folge müsste dann der Haswell ebenfalls unübertaktet antreten. Also irgendwie nicht schlüssig. Im Amiland sagt man apples to apples. Das wird hier nicht gemacht und ist Hauptkritikpunkt ;)
 
FormatC schrieb:
@Peter:
Habe ich das wirklich? Vielleicht wurde ja aber auch in dem von Dir kritisierten Artikel nur beschrieben, wie etwas gelöst wurde und warum gerade dieser Weg eingeschlagen wurde? Das Ganze nennt sich übrigens Transparenz. :)

Servus Igor,

ich habe doch noch keine Kritik an deinem Artikel geäußert. Es ging hier um Wolfgangs Rechtfertigung, die direkt impliziert, dass andere Messungen offenbar falsch sein müssen und lediglich eure Messungen korrekt wären. Das ist so dann aber wieder nicht korrekt, zudem Wolfgang seit etwa einem Jahr weiß, wie weit wir die Messungen vorangetrieben haben. Ungeachtet dessen hast du natürlich Recht im Hinblick auf die Transparenz und ein passender Artikel dazu ist in der Mache, der unsere Herangehensweise klärt.

Meine Aussage mag dir nicht kollegial vor kommen, da interpretierst du dann aber zu viel hinein und vielleicht habe ich zu viel in Wolfgangs Rechtfertigung hineininterpretiert.
 
@Peter:
Schön, das wir das Ganze richtiggestellt haben. :)

Was die Messungen und den Aufwand betrifft:
Das Problem ist meist zunächst ein finanzielles, erst danach ein (personal)technisches. Lernen kann man am Ende nämlich alles, aber auch ich würde mir nie anmaßen, z.B. die auftretende Zeitverschiebung durch die verbaute Elektronik jeder meiner Stromzangenadapter selbst zu ermitteln, denn die Tastköpfe für die Spannungen haben diesen Delay ja nicht. Oder zu behaupten, zwei gekoppelte Oszis wären bei der gemeinsamen Aufzeichnung wirklich out of the box schon richtig synchron. Frag mal Agilent :D Ohne Kalibrierung sind solche Messungen am Ende schlicht wertlos und das ganze Theater fängt ja schon bei der Umsetzung einer zweckmäßigen Masseverbindung an. Allein durch nicht zu den Stromwerten korrekt verlaufende Spannungswerte kommt man schnell auf über 10% Messungenauigkeit und mehr. Und es ist beileibe kein Eingeständnis eigener Unfähigkeit, dies wie Wolfgang anzuerkennen und besser (vorerst) zu lassen, als irgendwelche Daten zu erzeugen, die keiner brauchen kann. Dann lieber althergebracht, aber reproduzierbar :)

Wir alle wissen übrigens, dass die Streuungen der Chipqualität oft größer sind als mögliche Messtoleranzen und Unterschiede bei den Methoden. Ich habe übrigens intern ebenfalls wesentlich mehr Daten zur Verfügung, bis hin zu den jeweiligen Verlusten der Spanungswandler und dem Vergleich zwischen Leistungsaufnahme des Chips und dem, was man dann an den Schienen wirklich messen kann. Letzteres ist eigentlich als Einziges von Belang, der Rest ist eher was für den Elfenbeinturm. Deshalb verzichte ich aktuell auch auf einen solchen Datenhaufen, denn das ist für die meisten eher verwirrend als hilfreich. Die Grafikkartenhersteller sehen das ähnlich und gehen zudem immer vom Worst-Case aus. Deshalb wird vieles vorsorglich überdimensioniert und dann leider wegen des Cost-Down-Drucks qualitativ etwas eingeschränkt.

Mein Artikel war übrigens auch als Anstoß gedacht, die Kollegen mal aufzurütteln, sich mehr mit der Materie zu beschäftigen. Und glaube nicht, es hätte niemand nachgeprüft. Das Feedback nach der US-Veröffentlichung war nicht von schlechten Eltern, aber am Ende kann ich jetzt wirklich ruhiger schlafen. Denn Lehrgeld habe ich, vor allem am Anfang, genügend gezahlt, das kannst Du gern glauben. :D
 
Zuletzt bearbeitet:
dass die GM206-GPU die besten Video-Fähigkeiten der Maxwell-Serie besitzt. Unabhängig davon, ob Videos abgespielt oder decodiert werden sollen

Keine Ahnung ob es schon irgendwo geschrieben steht, aber was wäre denn der Unterschied von Abspielen zu Decodieren? Wer decodiert spielt meistens auch ab. Oder er konvertiert dann wird auch zuerst decodiert.(Bildausgabe entfällt dann eventuell)
Encodierleistung wäre intressant falls das überhaupt schon unterstützt wird bei h265.
Ansonsten sehr informativ für mich, danke, h265 ist ein Thema speziell auf "älteren" PCs
 
Zuletzt bearbeitet:
FormatC schrieb:
@Peter:
Schön, das wir das Ganze richtiggestellt haben. :)

Was die Messungen und den Aufwand betrifft:

....

Wir alle wissen übrigens, dass die Streuungen der Chipqualität oft größer sind als mögliche Messtoleranzen und Unterschiede bei den Methoden.

Schön, dass wir das geklärt haben. Und auf die Messtechnik und Oszi gehen wir noch ein :).

EDIT: Nein, alle hier wissen das nicht und oft sind sie auch nicht so riesig, manches Mal eben doch. Es ist aber umso besser, wenn man Vergleichswerte des gleichen Chips hat und dann auch noch von zwei Messstationen ;).
 
Zuletzt bearbeitet:
Sontin schrieb:
Bin ich der einzige, der es so absurd findet in diesem Thread über Hardware zu reden, die in einem Jahr auf dem Markt kommt? :freak:

Dieser AMD-TV Verkäufer: "Wie, die 290X ist schlecht? Quatsch. Die kann doch Craptle. Da braucht man keine High-End CPU mehr. Und wer spielt bitte all die Games auf dem Markt?! GTA5? Haha. Thief aus dem Jahr 2014 ist das beste vom Bestem. Und mehr als die 7 Craptle Games schafft sowieso keiner in seiner Lebenszeit. Wer was anderes behauptet ist ein Troll. TROLL! Und wenn dann DX12 kommt. Genau, das DX12, dass meine 290X garnicht richtig unterstützt. Dann, dann wird meine 290X soviel besser sein. Glaubt mir. Ich arbeite im Fernsehen". :evillol:

Craptle?
Da ist wohl jemand grün vor Neid...
 
Netter Testaufbau ;) Aber dass mein System noch schnell genug für WQHD ist, wusste ich auch so schon :P Mit meiner 670 4GB kann ich eigentlich alle Spiele mit vollen Details locker zocken, manchmal muss halt die Kantenglättung runtergschraubt werden aber wen juckts?! ^^ Bin mal gespannt auf die nächste Generation ;)
 
Auf die Idee das Dropdown zu benutzen, seid ihr beiden Spaßvögel noch nicht gekommen?
 
Zurück
Oben