Fetter Fettsack
Fleet Admiral
- Registriert
- Nov. 2009
- Beiträge
- 10.216
Nicht alles, das man beachtet, wird auch beantwortet.
Zuletzt bearbeitet:
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Der Vergleich hinkt insofern, dass man sich ungerne eine Grafikkarte mit rund 120 Watt Lastverbrauch in einen "HTPC" zimmern wollen würde. Die HD6670 hat ungefähr (!) nur 60% des absoluten Lastverbrauchs wie ihn eine 8800gt, HD5770, GTX460 oder HD5850 hat. Das sind grobe Werte, bevor wieder jemand mit dem Maßband kommt...SavageSkull schrieb:Die 460 braucht im Idle 1W mehr, was wohl unter Messtoleranz fällt und im BluRay Modus sogar 9W weniger. Einzig im Spiele/LastModus, nur bringt sie dort wesentlich mehr Leistung und gespielt wird ja nicht 24/7 an einem HTPC/Konsolenersatz, als dass das auf der Stromrechnung eine wesentliche Rolle spielen würde. Das die 460 sogar noch leiser ist als die 6670 spricht zudem auch noch für sie...
Theoretisch ja, Praktisch in dem Fall nicht:Das widerspricht sich doch, denn wenn eine GPU weniger gut ausgelastet wird, gibt es logischerweise weniger Performance,
Es könnte durchaus sein das es doch irgend was am System ist. Das könnt nur ihr raus bekommen und dem Fehler auf die Spur kommen. Auf jeden Fall kann es nicht so weiter gehen und nochmal 10 Tests geben, die die AMD Paradedisziplin so schlecht darstellt. Im Prinzip bescheinigt ihr der HD 6670 eine schlechte Effizienz -> da Konkurrenz deutlich besser.Ich kann mir eher vorstellen, dass der große Posten des restlichen Systemes deine Rechnung im Ergebnis derart verzerrt, sodass diese komischen Ergebnisse dabei herauskommen.
Wie oft wollt ihr euch das eigentlich noch anhören, bevor ihr meinen Vorschlag umsetzt und die alten Karten in der Leistung zu den neuen Einordnet zb. so irgend wo im Artikel auflisten oder verlinken.Ist es euch nicht Möglich ältere Vergleichsmodelle [also ähnliches Kundenprofil (in diesem Fall wohl Gelegenheitsspieler, der auf hohe Grafikqualität notfalls verzichtet)] (8800 GT z.B. wurde genannt) in den Test aufzunehmen?
Das liegt wie gesagt daran weil die Game Engine nicht so gut skaliert mit der NV GPU Architektur, die 1D Shader sind hier mehr ausgelastet als die 5D Shader(trotzdem bringen die 5D Shader mehr FPS ua. wegen AF Cheaterei).
Was sind denn "die nennenswerten"?Irgendwie hab ich das Gefühl auf CB kriegen alle LowEnd-GPU's einen richtigen Test und die nenneswerten nur Kurztest's? -.-
Das einzige was wir in letzter Zeit (dabei rede ich von etwa einem Jahr) bei den messungen der Leistungsaufnahme geändert haben ist das Spiel. Früher war es Crysis Warhead, mittlerweile Battlefield Bad Company 2. Das hat die Verhältnisse durchaus etwas verschoben, da manche (nicht alle!) AMD-Karten in dem Spiel im Verhältnis anscheinend etwas mehr schuften müssen als die Nvidia-Karten. Aber generell denke ich nicht, dass wir da groß andere Verhältrnisse als die kollegen haben. Bei uns liegt eine GTX 570 auf dem Niveau einer HD 6970, was bei den meisten anderen Tests ja auch so ist. Bei HT4U zieht die 6970 gar im Verhältnis noch mehr als bei uns.Früher ging das bei euch aber noch, irgend was hat sich so extrem verändert das sich die Werte extrem ins negative für AMD verschoben haben, eine GTX 580 hat bei euch eine extrem gute Effizienz unter Last und kommt fast schon an AMD ran. ZB bei der GTX 550 habt ihr im System irgend wo einen Nachteil für AMD der zu 70% schlechterer Effizienz führt. Sei es das NT, der Test an sich oder sonst was. Das ist wirklich ein harter Brocken, mich würd echt mal interessieren was genau diesen Unterschied hervorruft, da gibts ja zig Möglichkeiten. (CPU braucht mehr Strom? Mainboard braucht mehr Strom? Netzteil zieht bedeutend mehr mit AMD Karten?)
Könnt ihr der Sache mal auf den Grund gehen, würde bestimmt viele interessieren was man unbedingt vermeiden sollte um seine AMD Karte um so viel Potenzial zu rauben.
Als direkten Vergleich haben wir die HD 5670, ist ja der direkte Vorgänger der HD 6670. Andere DX11-Karten in der Leistungsklasse gibt es eben nicht.Kein Kommentar auf die Kritik, dass ihr eine Karte gegen Modelle testet, die in einer viel tieferen Leistungs- und/oder Preisklasse spielt?
Nochmal zu dem Thema. ich habe mal unsere Ergebnisse mit denen von HT4U verglichen. Wie schon geschrieben, die HD 6970 schneidet bei uns gegen die GTX 570 gar besser als bei den Kollegen ab. Da sehe ich absolut überhaupt kein Problem.Die GTX 580 braucht bei den Kollegen rund 40 W mehr als die 570, bei uns ist es dasselbe. Die 6950 benötigt bei HT4U etwa 50 Watt weniger als die GTX 570. Bei uns sind es gar deutlich mehr, also wieder Vorteil AMD. Dasselbe gilt für den Vergleich GTX 560 gegen HD 6950. Bei uns schneidet die AMD-Karte deutlich besser als bei HT4U ab.Theoretisch ja, Praktisch in dem Fall nicht:
Beispiel A: Starcraft II läuft mit 500FPS im Menü, die GPU ist 100% ausgelastet, alles was geht wird rausgepumpt -> Karten überhitzen, Furmark ähnliches Setting
Beispiel B: Crysis, AMD hat hier leicht mehr FPS als NV, AMD braucht aber ein Ruckerl weniger Strom, weil die GPU-Engine hier einfach effizienter ausgelastet wird. Das heißt in der Praxis liegt den AMD Karten von der GPU Architektur her Crysis einfach besser als NV Karten, die hier sogar einen kleinen Nachteil haben in Sachen Stromverbrauch messen. ZB HD 4870 und GTX 260 haben hier ca. die gleichen FPS(perfekt für Lastmessungen), aber die NV Karte zieht ein wenig mehr Saft als durchschnittlich. Das liegt wie gesagt daran weil die Game Engine nicht so gut skaliert mit der NV GPU Architektur, die 1D Shader sind hier mehr ausgelastet als die 5D Shader(trotzdem bringen die 5D Shader mehr FPS ua. wegen AF Cheaterei). Und das genaue Gegenteil ist bei Battlefield der Fall. Ich sollte vielleicht noch erwähnen das PCGH auch Battlefield verwendet, hier aber die Messungen im Rahmen bleiben und NV keineswegs stark positiv aus dem Rahmen fällt. Somit ist wohl eure Testsequenz extrem NV freundlich ausgefallen. Absicht unterstelle ich euch nicht, aber ihr könnt das unmöglich so lassen, die Ergebnisse sind ganz weit weg vom durchschnittlichen Verbrauch der NV Karten. Die Effizienz wird somit stark beschönigt.
Ja stimmt, Bad Company ist nicht ganz neutral, aber so schlimm wie befürchtet ist es nicht, im Schnitt ist die Effizienz bei AMD Karten in letzter Zeit bei euch um ca. 5% gefallen, was aber durchaus schon mit der berechtigen AF Strafe erklärbar ist und nicht unbedingt am neuen Spiel liegt. Das ganze Durcheinander entstand durch die Steinzeitlichen Messmethoden des Gesamtsystems und der daraus gezogenen % Rechnungen. Die sind alle hinfällig, alles im grünen Bereich, war alles ein Missverständnis. Ich wünschte mir nur ihr würdet auch endlich nur die Grafikkarte testen und die Lautstärke genauer testen mit Sone, dann wäre vieles einfacher vergleichbar und sofort direkt ersichtlich. Könnte man im Fazit erwähnen das AMD Kreise um NV zieht in Sachen Energieeffizienz, das kommt mir bei euch ein bisschen zu kurz.Das hat die Verhältnisse durchaus etwas verschoben, da manche (nicht alle!) AMD-Karten in dem Spiel im Verhältnis anscheinend etwas mehr schuften müssen als die Nvidia-Karten.
Der Preis ist nicht falsch. Zu dem Zeitpunkt als wir geguckt haben war die Grafikkarte für den Preis nicht erhältlich. Und damit hat sie einfach pech gehabt. Das gilt für alle Karten. Die 5830 befindet sich nicht im aktuellen Testparcours und fällt damit gänzlich raus.Der Preis für die 5850 im Preis-Leistungs-Rating ist immer noch falsch. Seit ~12 April gibt es die guten Preise. Auch würde eine 5830 für ~90€ weiterhin in das Preis-Leistungs-Rating passen. Auch die 100€ 5830 von XFX 105W Spiele-Last (550 Ti ~120W) l~20% schneller als die 550, das Preis-Leistungs-Rating bereichern.
Wo ist für uns die Sapphire Radeon HD 6790 die Referenz? Sämtliche Werte stammen vom Referenzdeign. Was du auch wüsstest wenn du dir die Werte genau angeschaut hättest.Was noch nicht gefällt am Test ist das der gute Idle Gebrauch der Asus 550 Ti (bei HT4U ~15W) bei euch nicht kommuniziert werden kann, da eure Testmethode dies nicht hergibt. Die Sapphire 6790 nimmt sich zB bei HT4U 21W. Allerdings zeigt HT4U auch auf, dass die Referenz 6790 von AMD, die ihr ja nicht als Referenz anseht, sondern für euch ist Sapphire (wusste nicht, dass Sapphire die Grafiksparte von AMD übernommen hat) die Referenz, nur ~17W.
Wie du selber sagst, können wir das mit der Messmethode eben nicht messen. Die Chance ist aber gar nicht so klein, dass das in der Praxis niemand wirklich ermitteln kann. Im Rechner steckt ja nicht nur die Grafikkarte, sondern eben der gesamte Rest auch.Was auch schlecht ist und somit dann falsch kommuniziert wird ist die Tatsache, dass eure Messmethode (gesamte System) 162W mit einer 6670 erzählt, aber auch 162W mit einer 560 Ti. Bei HT4U sieht man aber, dass es real nur ~11W sind für die 6670 und die 560 Ti 16W. Ohne Zweifel sind die 16W ein sehr gutes Ergebnis, macht aber die Tatsache nicht wett, dass man hier eher falsch als richtig informiert wird.
Fazit von CB zum 6790 TestWo ist für uns die Sapphire Radeon HD 6790 die Referenz? Sämtliche Werte stammen vom Referenzdeign. Was du auch wüsstest wenn du dir die Werte genau angeschaut hättest.
Der Wert ist sicherlich sehr interessant, aber nicht alleine ausschlaggebend.
Zamspezl schrieb:Fazit von CB zum 6790 Test
Auf das Referenzdesign von AMD wollen wir an dieser Stelle nicht genauer eingehen, da dieses voraussichtlich nicht in den Handel kommen wird.
https://www.computerbase.de/artikel...-radeon-hd-6790.1466/seite-13#abschnitt_fazit
Wolfgang schrieb:Der Preis ist nicht falsch. Zu dem Zeitpunkt als wir geguckt haben war die Grafikkarte für den Preis nicht erhältlich. Und damit hat sie einfach pech gehabt.
Da wäre ich mir nicht mal so sicher. Schon gar nicht, wenn ein dicker x58 i7 oder seinesgleichen zum Einsatz kommt.[...] alle Komponenten verbrauchen im gleichen Lastzustand gleich viel (außer eben die Grafikkarte)
Ich habe nicht behauptet, dass ich das gutheiße. Aber wenn du der Freizeit zu viel hast, dann engagier dich bei CB und stifte ihnen ein solches Testsystem und führe Tests für solche Grafikkarten wie die HD6670 durch Leisten können und leisten wollen sind 2 paar Schuhe. Das alles kostet Zeit und der Großteil der Arbeit wird meines Wissens noch immer ohne umfassende Vergütung geleistet.yasu schrieb:Nur weil man einen Fehler über Jahre mitgeschleift hat ist es richtig, diesen auch weiterhin nicht zu beheben? Ich denke nicht.