Test Radeon HD 6670 im Test: Sinnvolle Erweiterung von AMD mit zu hohem Preis

SavageSkull schrieb:
Wollte ich einen HTPC haben, wäre wohl meine Wahl so etwas wie eine 460, da man damit einfache Spiele per Gamepad am Fernseher spielen kann und diese leise ist, sowie "bezahlbar".

Da nehm ich lieber gleich ne HD6850, die ist sogar billiger...
Was ich nicht verstehe ist warum man Display Ports verbaut, wer verwendet die denn?
 
Scheinweltname schrieb:
[...]Hat jemand nen Orientierungswert, (wenn überhaupt) wie viel leistungsfähiger die 6670 im Vergleich zu einer 4870 ist (ohne AA/ AF).

Edit: Zumindest ist meine 4870 leiser und verbraucht weniger Strom ...

Wie komsmt du darauf? Die 4870 ist DER Stromschlucker überhaupt. Verbraucht 'mal eben 100W mehr im 3D.
 
Hmmmmm also wenn man die Karte separat betrachtet, finde ich sie ok. Aber zwischen einer 5670 und einer 5750 finde ich die karte ehrlich gesagt überflüssig. Der Zugewinn zur 5670 ist zu gering und die Überlegenheit der 5750 zu hoch. Zumal es die 5750 als passive Lösung gibt und diese somit für einen HTPC wesentlich besser geeignet ist
 
Zuletzt bearbeitet:
Bezüglich der Leistungsaufnahme schlägt sich die Radeon HD 6670 durchweg gut. Die Radeon HD 5670 zieht zwar etwas weniger Saft aus der Leitung, dennoch können sich die Messwerte unter Windows und unter Last sehen lassen – Stromsparer können sich also angesprochen fühlen. Einzig im Blu-ray-betrieb hinterlässt das Produkt einen schwachen Eindruck, da dort die Leistungsaufnahme unerklärlich hoch ist. Ein kleiner, aber fader Beigeschmack also.

Als ich den Test von CB gelesen habe war ich leicht enttäuscht wegen der Leistungsaufnahme. Genau deswegen hatte ich mir mal die HD 5670 zugelegt gehabt. Halbwegs schnell und geringer Stromverbrauch und nun soll sie laut CB in allen Belangen mehr Saft ziehen...

DOCH bei HT4U zeigt sich da ein besseres Bild der HD 6670 http://ht4u.net/reviews/2011/amd_radeon_hd_6570_hd_6670_turks_im_test/index32.php

ZItat:
Dafür gelang es AMD mit ihrer Referenzdarbietung die Leistungsaufnahme in einigen Bereichen auch etwas zu senken. Unter dem Strich bewegt man sich aber auf dem Niveau einer Radeon HD 5670.

Hier ist die HD 6670 im Idle genügsamer als die HD 5670. Bei BluRay sind es auch nur 4 Watt Mehrverbrauch. Bleibt zu hoffen das einige Hersteller einwenig daran arbeiten und die Spannung runter nehmen. Durch eine Passivkühlung könnte der Verbrauch eventuell auch reduziert werden, da der Lüfter weg geht.
 
Zuletzt bearbeitet:
@ Kasmopaya

Also wenn mich nicht alles trügt, wirbelst du munter den Strombedarf einer ganzen Karte mit der Energieeffizienz einer GPU durcheinander, um dann in der sonderbaren Konklusio zu enden, dass der Artikel indirekt behaupten würde, dass GF1XX-GPUs effizienter als seine Pendants von AMD wären.

Außerdem ist es ja wohl naheliegend, dass eine Angabe, die den Verbrauch des Gesamtsystemes darstellt, wohl kaum für solche Überlegungen heranziehbar ist.
 
Sentionline schrieb:
1680x1050 für so ne Karte ist jawohl fail. Das braucht man ja nicht zu testen.

Solche arroganten Kommentare prägen mehr und mehr das Forum hier auf CB - echt schade!
Warum das ganze alles andere als "fail" ist, müsste dir eigentlich selbst klar sein.

Aber zum Test selbst:

Ich persönlich finde es sehr schade, dass Grafikkarten wie diese hier gegen die High-End-Modelle verglichen wird.
Wer ist denn so dämlich und rüstet ab? Und wer aufrüstet, also noch eine langsamere, ältere Grafikkarte (3er oder 4er Serie von ATi z.B.; so wie ich) hat, kann die getestete Grafikkarte überhaupt nicht einordnen.

Ist die HD6670 nun doppelt, dreifach oder nicht viel schneller als eine HD 3850 - und wie siehts bei einer HD 4870 aus?

Bitte, liebes CB-Team - schmeißt doch eine HD 6990 oder eine GTX 590 aus dem Vergleich und packt ein paar ältere Modelle mit rein (muss ja keine 6600 GT drin sein, aber z.b. eine 8600 GT im Vergleich wäre nicht verkehrt.
 
RubyRhod schrieb:
Und wer aufrüstet, also noch eine langsamere, ältere Grafikkarte (3er oder 4er Serie von ATi z.B.; so wie ich) hat, kann die getestete Grafikkarte überhaupt nicht einordnen.

Ist die HD6670 nun doppelt, dreifach oder nicht viel schneller als eine HD 3850 - und wie siehts bei einer HD 4870 aus?

Bitte, liebes CB-Team - schmeißt doch eine HD 6990 oder eine GTX 590 aus dem Vergleich und packt ein paar ältere Modelle mit rein (muss ja keine 6600 GT drin sein, aber z.b. eine 8600 GT im Vergleich wäre nicht verkehrt.

hier wirst Du einigermaßen fündig im Vergleich zur HD 4xxx Serie

http://ht4u.net/reviews/2011/amd_radeon_hd_6570_hd_6670_turks_im_test/index30.php

Die HD 6670 dürfte eindeutig schneller sein als die HD 38xx, da die HD 5670 schon schneller gewertet wurde als die HD 38xx Reihe

http://www.3dcenter.org/artikel/zum-launch-der-radeon-hd-5670
 
die leistung ueberzeugt mich nicht so ... . wieso entwickelt amd einen redwoodaehnlichen chip nochmal? interresant waere es auch zu wissen wie groß die die-groese ist im vergleich.
 
SavageSkull schrieb:
Wollte ich einen HTPC haben, wäre wohl meine Wahl so etwas wie eine 460, da man damit einfache Spiele per Gamepad am Fernseher spielen kann und diese leise ist, sowie "bezahlbar".


Also ich hätte keine Lust auf eine Stromfressende neben meinem Fernseher. Man kann genauso mit der HD 6670 einfache Spiele am Fernseher spielen. Von den Größenverhältnissen ganz zu schweigen.
 
Kasmo, jetzt mach dich doch nicht lächerlich, oder bist du wirklich so naiv und rechnest das ganze System mit? Du weist doch das CB immer den ganzen Rechner misst, und dadurch scheint es so als ob die schnellere Karte effizienter ist. Egal ob nVidia oder AMD. Das System alleine verbraucht ohne GK etwa 150W, sie musst du - wenn du die Effizienz berechnest - wegrechnen. Allerdings - im Gesamtsystem ist die Geforce effizienter, das ist auch wirklich so - denn diese 150W werden bei der geforce GT450 auf meinetwegen 45fps aufgeteilt, bei der HD 6670 nur auf 35fps. So gesagt arbeitet mit einer schnelleren Grafikkarte das restliche System effizienter.

Und jetzt kommt der Überhammer: mach die Rechnung mal mit einer GTX 590. Wir beide wissen dass das eine leistungshunrige, ineffiziente Grafikkarte ist.
Leistung mit AA / AF: 385% schneller
Leistungsaufnahme: 166% höher
Nach deiner Rechnung wär also die GTX 590 mehr als doppelt so effizient (+119%). Das die Rechnung nicht stimmt sollte spätestens jetzt klar sein, abgesehen vom Fehler in der Prozentrechnung (die richtige Rechnung lautet 485/266 = 182%, da man prozente mit unterschiedlicher Basis nicht addieren / subtrahieren darf, sondern multiplizieren / dividieren muss)

Des weiteren wird dieses Fazit einzig und alleine von dir gezogen, der Wert den du berechnest ist so absolut nirgends zu finden. Im Fazit steht ja auch dass sie eine sehr gute Stromaufnahme hat, außer beim abspielen von Blu-Rays.

mfg
 
Zuletzt bearbeitet:
Ich muss RubyRhod zustimmen. Es fällt schwer die Leistung der neuen Karten einzurordnen, wenn keine alt bekannten Karten dabei sind. Ein Vergleich zur beliebten 8800GT z. B. wäre interessant.
 
@SB1888
das habe ich nicht gesagt, aber die Karte ist nichts Halbes nichts Ganzes.
Wenn ich Grafikleistung nicht brauche, reicht auch ne Onboardkarte.
Und warum soll man für 90 € (vielleicht irgendwann mal 70 €) ne Kompromislösung (wenn man sie als solche überhaupt bezeichnen kann) kaufen, wenn man für wenige € mehr ne richtig Gute Lösung hat, die auch länger als ein halbes Jahr brauchbar ist. Mit der Karte 6670 kannst Du ja jetzt schon viele Spiele nicht (mehr) in vernünftiger Auflösung spielen. Was soll da erst in einem Jahr sein. So sehe ich selbst die 70 € als rausgeschmissenes Geld an, es sei denn man spielt auf 1280er Auflösung. Aber wer macht das heute schon noch?
Also lieber ein bissle mehr und dafür richtig oder ne onboard Lösung. So ist das Geld verbrannt, denn damit kann man nicht mal ne Simulation ala Anno1404 oder Civ5 sinnvoll spielen. Also rausgeschmissenes Geld. Aber es gibt ja immer die Billigkäufer. Hauptsache sparen. Es gilt nur nachwievor der Spruch, wer billig kauft, kauft zwei mal.

@Floletni
Jedem das seine. Ich bin auch kein Stromverschwender, andererseits geht der Stromsparzwang bei mir auch nicht so weit, dass ich letzten Endes auf Qualität verzichte. Und mir wäre die Karte eindeutig zu lahm, weshalb ich dann eher auf Onboard setzen würde und damit richtig Strom sparen würde.
 
Je nachdem, wie sich der Preis einpegelt wär sie für mich sogar sehr interessant.
In anderen Tests war der Verbrauch deutlich niedriger, für meinen kleinen Monitor ist sie sicher schnell genug und macht deutlich mehr Tempo als meine überalerte 3850. Mit Referenzkühlung ist sogar die Lautstärke auf ähnlichem Niveau, also recht leise.

Ein leiserer Alternativkühler schadet allerdings auch nicht.
 
in der Form gefällt die Karte nicht so recht.
Erstens ist der Dual-Slot Kühler in Kombination mit halber Bauhöhe ein unnötiger Platzfresser auf einem kleinen Mainboard, wo eine Fullsize-Karte mit Einslot-Kühler auch passen würde. Auch wären andere Anschlussoptionen interessanter, wie 1xDVI, und 3x Mini-DP.
Vielleicht gibt es eine solche Lösung ja von div. Herstellern,
aber das Leistungsupdate und zus. Features gegenüber dem Vorgänger sind trotzdem recht gering.

Die nächste Grafikkartengeneration (Southern Islands) mit Vec4 Shadereinheiten und 28nm Strukturgröße dürfte dafür umso interessanter sein.
 
Es gibt durchaus Menschen die "noch" auf 1280x1024, 1440x900 oder Ähnlichem spielen.
Das ist auch keine Minderheit nur halt nicht mehr die größte Gruppe.

Flames á la braucht kein Mensch und wer auf solchen Monitoren spielt tut mir Leid etc etc...
Sind absolut überflüssig.

Wem 1440x900 reicht, dem reicht es, PUNKT!!!

Und um etwas konkreter zu werden:

Meine Liebste hat noch nen schönen 4:3 19" mit eben 1280x1024,
da Madame nur Sims 2-3 und WoW spielt würde ihr die 6670 absolut zusagen!
Hätte ich ihr nicht letztes Jahr schon ne 5670 besorgt, würde ich jetzt hier zuschlagen ;)

Diese Karten haben durchaus ihre Daseinsberechtigung und Ende.
Diskutiert über Effizienz, OC, Design etc.
aber lasst doch bitte bitte endlich diese Grundsatzdiskussion über solche Karten an sich!


Achso und ja, Hardware kann nie günstig genug sein ;)
 
Zuletzt bearbeitet:
bleib mal ganz locker
weder habe ich geflamt noch sowas geäußert wie, "Leute mit solchen Monitoren tun mir Leid..."
obendrein glaube ich es nicht, da mittlerweile mindestens 16xx Auflösung Standard am Desktor-PC ist und die Zahl derer, die in geringeren Auflösungen arbeiten sicher sehr gering ist.
Und nur weil Du Deine Meinung hast, lass ich mir noch lange nicht meine verbieten.
 
Sentionline schrieb:
1680x1050 für so ne Karte ist jawohl fail. Das braucht man ja nicht zu testen.
AMD hält die Karte gar für 1920x1080 geeignet =) Natürlich liefert die 6670 in 1680 längst nicht immer spielbare Werte. öfters dann aber eben doch.

Wenn man aber das gesamte Testsystem nur vermessen kann, dann simulierte Werte benutzt, kann ja nichts tolles dadurch entstehen.
Simulieren? Wir simulieren keinen einzigen Wert. Deine angeblichen Tatsachen sind leider unwahr.
Mal ehrlich, warum schaust du dir die Tests überhaupt an? Du weißt doch sowieso schon vorher, wie diese sind.

Also schön langsam wirds eng mit dem Infogehalt hier wenns um Leistungsaufnahme geht, hier werden Tatsachen komplett verdreht, eine Fermi ist niemals effizienter als die kleinen HD 6000er. Das ging mal komplett in die Hose, der Test sollte angepasst/geändert werden. Flasche Tatsachen helfen keinem weiter, da hat ja NV leichtes Spiel wenn so schlampig getestet wird, warum sollten die jemals wieder effiziente Karten bauen wenn sie bei euch heute schon effizienter sind als AMD?
Der überarbeitete Fermi ist auf den kleinen Karten verdammt Effizient unter Windows. Das besagt übrigens auch HT4U :) Und sonst wüsste ich nicht, wo Fermi in unseren Messungen effizienter ist.

Die Rechnung von deinem Post 17 kannst du so auch nicht machen. Wir messen ja das Gesamtsystem, da kann man so nicht rechnen.

Hier werden ja Refferenzmodelle gegen ?Endprodukte? verglichen, was wenn man davon ausgehen kann das die Refferenzmodelle eigentlich immer einwenig mehr Leistung aufnehmen als nötig
Es ist öfters sogar eher das Gegenteil der Fall :)
 
Etwas enttäuschend, ich hätte doch mehr Leistung erwartet. Und wenn man eigentlich AMDs neue tolle Namensgebung durchziehen würde, dann sollte eine 6670 doch eigentlich etwas langsamer als eine 5670 sein ;)
Bitte nicht so ernst nehmen.

Weil einige ja gern mit der 4870 vergleichen würden: 5570~4870

edit: meinte natürlich 5770~4870
 
Zuletzt bearbeitet:
strohhaar schrieb:
Und wenn man eigentlich AMDs neue tolle Namensgebung durchziehen würde, dann sollte eine 6670 doch eigentlich etwas langsamer als eine 5670 sein ;)
Bitte nicht so ernst nehmen.

Weil einige ja gern mit der 4870 vergleichen würden: 5570~4870

Seit wann liegt bitte die HD5570 auf HD4870-Niveau?

Und wieso sollte die HD6670 auf Grund der Namensgebung langsamer als die HD5670 sein? Der Smilie hilft da auch nicht weiter.

Also absichtlich Nonsens posten muss echt nicht sein.
 
Zurück
Oben