Test Test: AMD Radeon HD 7950 (CrossFire)

hill01 schrieb:
Ich hab erst gedacht, dass die im Last-Test vergessen wurd (hab von unten nach oben gesucht). Nächster Gedanke: Kann doch net sein, dass die so leise ist. Dann den Text dazu gelesen. Ok kann sein. Respekt.

...

Ich wollte keine physikalische Erklärung. Das ist mit schon bewusst. Es geht einfach um die Tatsache das die "negative Eigenschaft" bei der PowerColor Karte nicht gerechtfertigt ist. Würde die Karte für die 9% Mehrleistung mehr VCore brauchen und dadurch deutlich mehr verbrauchen, wäre die Kritik berechtigt. So ist sie es aber nicht. Außer am Verbrauch bei BluRay ist an der Karte wirklich nichts auszusetzen.

@Volker

Es gibt immer Leute die Marktwirtschaft nicht verstehen und denken das X% Mehrleistung maximal X% mehr kosten darf.
 
Zuletzt bearbeitet:
Volker schrieb:
Ich versteh die Preisaufregung nicht. Du bekommst hier die zweitschnellste Karte auf dem Markt. Und AMD ist nicht die Wohlfahrt, deren Grafiksparte machte zuletzt weniger Umsatz und weitehin nur wenig Gewinn - wieso sollten sie also das Ding verramschen, wenn es doch absolut richtig ist, diese zu genau dem Preis anzubieten? Hier sind sie mehr als konkurrenzfähig, also Feuer frei, die Leute kaufen schon. You get what you pay for.

Es ist aber auch immer das gleiche irgendwie. Bei CPUs regen sich auch alle über den Preis der Intel XE für 999 Euro auf, aber genug sind losgerannt und haben sich für 450 Euro den 3930K geholt - ebenfalls das zweitschnellste im Markt. Die Grafikkarte für den Preis hat in den meisten Systemen aber wohl weitaus mehr Sinn, da du 10 Prozent bei CPUs nicht merkst, die Grafikkarte weitaus mehr reinknallen kann.

Wenn man dazu noch bedenkt, dass die Verfügbarkeit momentan nicht so rosig sein dürfte, wäre es aus unternehmerischer Sicht schwachsinnig, die Karte zu verramschen. An der eher niedrigen Verfügbarkeit der Karten sieht man ja schon, dass die Nachfrage anscheinend hoch genug ist, um diese Preise zu halten.
Es ist ja auch gut möglich, dass die Hersteller oder Händler aufgrund der Verfügbarkeit einen Großteil der höheren Einnahmen für sich beanspruchen.

Dein Vergleich mit den CPUs ist übrigens sehr gut, aber wie will man das diesen Leuten klar machen? Die neueste Intel-CPU zu haben hört sich halt toller an als eine AMD HD7950...
 
onkel_axel schrieb:
dieses hypotetische diskutieren bringt aber nichts, denn dann könnte man, bei erscheinen von keppler, ja so argumentieren, dass in x monaten amd mit der 8000er reihe um die ecke kommt und alle wegbretzelt.

entsprechend habe ich ja auch bewusst gesagt, dass man bei erscheinen von keppler die lage neu bewerten muss. bis dahin hat nvidia mit seiner gtx580 im vergleich zur 7950 das klare nachsehen.
*wer _heute_ zu einer gtx580 greift, muss entweder zwingende gründe für die nvidia karte haben, oder ein fanboy der schlimmeren sorte*

einfach mal den "beratungsgespräch"-link in meiner signatur anklicken und die fachtermini als variable betrachten, wechselseitig für nvidia und amd. das sollte das bild verdeutlichen.
 
Also wenn die Karten bei PCI 2.0 8x voll laufen, wieso steht dann in der Liste bei positiv 3.0 drinnen, wenn das noch gar nichts bringt?!
 
sehr schöne karte, gefällt mir richtig gut - aber echt sehr sehr teuer (noch) :/
da die leistung aber nur 1/3 höher ist als bei einer 6950 2gig ist der vorteil für mich zu gering, ich lasse mal die 7xxx generation aus wie ich es bei der 5xxxer gemacht habe. (4850 hatte ich, dann 6xxxer reihe)
was mir am besten gefällt ist neben dem tollen übertakten die geringe hitzeentwicklung und die daraus resultierende geringe lüfterlautstärke.
 
Die HD7950 ist von dem fps zu Watt Verhältnis echt gut,
Echt gut ist eine Untertreibung, wie vermutet das mit Abstand effizienteste überhaupt. Und das bei der Performance: http://www.techpowerup.com/reviews/AMD/HD_7950/28.html

Und da effiziente Produkte immer teurer sind als Energieverschwender, ist der Preis sogar recht niedrig im Vergleich zu NV.

Genau das will ich erst mal von Kepler sehen...
 
oliveron schrieb:
Wenn es dann sogar so ist, dass 2 identische Monitore mal nicht als solche erkannt werden umso ärgerlicher.
...
Ich wäre auch hocherfreut, wenn man es hinbekommen würde für Office die IntelGrafik verwenden zu können ...
Könnte man sowas nicht mit Onboard Chip + Mainstream/Highendgrafik verbinden ?

hm joa, dazu müsste man aber das Signal erstmal an das Board weiter geben. Der eigentlich idle Verbrauch ist ja mit 16W schwer in Ordnung, wenn das auch bei 2 Monitoren zutreffen würde wäre das ja okay. Das das so schwer ist versteh ich nicht.

Knuddelbearli schrieb:
ne HT4U misst schon richtig lies den text darunter

Du meinst:

Übersetzt heißt dies für Anwender, welche mit zwei Monitoren arbeiten, dass im Falle von zwei Geräten, welche mit gleicher Auflösung betrieben werden und zudem die gleichen Timings verwenden, eine solche GTX-500-GPU (aber auch GTX 460) in den typischen Idle-State wechseln. Trifft dies nicht zu, greift der Multi-Monitoring Power-State, was sich dann so auswirkt, wie in unserer vorstehenden Messung zur Leistungsaufnahme.

HT4U misst also mit 2 verschiedenen Monitoren, CB mit gleichen wie es scheint.

Man kann sich darüber streiten was nun richtiger ist. Ich sage mal für Office werden wohl meistens 2 baugleiche Modelle auf dem Desktop stehen, wie bei mir auch. Wer natürlich immer den Tv über HDMI dran hat hat verloren.

Bei AMD schnellt aber auch der Verbrauch bei zwei gleichen Monitoren in die höhe, das scheint Nvidia besser im Griff zu haben. Eventuell lässt sich auch via Software der Low Power State forcen (nicht schön aber besser als 90W idle)
 
rille schrieb:
Die Frage ist ja nicht, wieviel Speicher belegt wird wird, sondern ob die Karte mit mehr Speicher schneller ist.
Solang genug Speicher zur Verfügung steht, ist es der Karte egal wieviel da noch in Reserve ist. Ob du jetzt auf einer 1.5 oder 3 GByte VRAM Karte nur 500 MB auslastest macht keinen Unterschied. Erst wenns an die Grenze geht wird die 1.5 GByte Karte einbrechen während die Karte mit dem größeren Speicher fröhlich weiterrechnet. Stells dir ein bisschen so vor wie wenn deinem PC der Arbeitsspeicher ausgeht und er auf einmal alles auf die (mechanische) Festplatte auslagern muss, da geht er auch in die Knie.


TeHaR schrieb:
Ich wollte keine physikalische Erklärung. Das ist mit schon bewusst. Es geht einfach um die Tatsache das die "negative Eigenschaft" bei der PowerColor Karte nicht gerechtfertigt ist. (...)
Sorry hab dich falsch verstanden - ja 9% mehr Verbrauch bei 8% mehr Takt sind keine negative Eigenschaft sondern völlig normal. Wenn gleichzeitig noch die Spannung hätte erhöht werden müssen, dann könnt man es als negativ auslegen, aber so nicht.
 
@CB

Naja, mal abgesehen das es grundsätzlich an der Testmethodik nichts auszusetzteen gibt, würde es mir angebracht erscheinen die HD7970 mit dem gleichen Treiber zu testen wie die HD7950 ansonnsten ist das Ergebnis der Einheitenskallierung nur Brei. Zumal da die GCN bei jeder Treiberversion siecher ein Paar FPS noch mehr zulegen wird als es mit anderen Karten der Fall ist, da der Treiber noch nicht optimal arbeitet, vorallem der Metro 2033 bench zeigt das gut das da der Treiber viel ausmachen wird da die kleine Karte sogar die Grosse schlägt.
 
Ist es also mal wieder soweit, dass meine Grafikkarte bei Benchmarks ganz unten ist :( Wie schnell das doch geht ^^
 
hill01 schrieb:
Ob du jetzt auf einer 1.5 oder 3 GByte VRAM Karte nur 500 MB auslastest macht keinen Unterschied. Erst wenns an die Grenze geht wird die 1.5 GByte Karte einbrechen

Nur weil eine Karte, die die Möglichkeit dazu hat, über 1.5 GB VRAM belegt, heißt das nicht automatisch, dass eine Karte mit weniger Speicher gleich in den fps einbricht. Je nach Speicherverwaltung kann es eben sein, dass Karten mit weniger Speicher gleich gute Ergebnisse erzielen, weil die bei der Karte mit mehr VRAM mehr gespeicherten Daten eben nicht so schnell wieder gebraucht werden, als dass sie mit einer besseren Speicherwerwaltung nicht schon längst wieder nachgeladen werden konnten. Das kein Unterschied besteht, wenn auch der kleinere Speicher nicht voll ausgelastet wird, ist klar.
 
Schöner Test mit einigen Makeln.

Altes Thema Treiber. Es ist doch einfach nur Absurd, wenn in Skyrim die 7970 geschlagen wird.
Und wenn man die falschen Temperaturwerte der Pressesamples mit der falschen WLP nutzt.
Das verzerrt doch beides das Ergebnis.

AMD ermöglicht SSAA offiziell im Control Panel, dafür aber nur in DirectX-9-Titeln. Bei Nvidia ist SSAA dagegen unter allen APIs inklusive DirectX 11 möglich, dafür muss aber auf ein (Nvidia eigenes) externes Tool zurückgegriffen werden.
Dann bleiben solche Áussagen stehen, obwohl der entsprechende Treiber nun schon einige Zeit öffentlich ist.

bilden wir neben den Benchmarkergebnissen der Radeon HD 7970 sowie Radeon HD 7950 (mit identischem Treiber) noch eine Radeon HD 7950 mit den Taktraten der Radeon HD 7970 ab.
Super das im Sondertest Skalierung auf den Treiber geachtet wurde. Leider wurde nicht angegeben, welcher Treiber es war.
Schön wäre hier auch gewesen, die Werte der 7950 bei 800/2500 anzugeben, die sollte man ja eh haben....bei genauerer Beobachtung soll HD 7970 @ 800/2.500 wohl 7950 sein, und dann ist der Treiber auch offensichtlich.
 
Krautmaster schrieb:
HT4U misst also mit 2 verschiedenen Monitoren, CB mit gleichen wie es scheint.

Man kann sich darüber streiten was nun richtiger ist. Ich sage mal für Office werden wohl meistens 2 baugleiche Modelle auf dem Desktop stehen, wie bei mir auch. Wer natürlich immer den Tv über HDMI dran hat hat verloren.

Bei AMD schnellt aber auch der Verbrauch bei zwei gleichen Monitoren in die höhe, das scheint Nvidia besser im Griff zu haben. Eventuell lässt sich auch via Software der Low Power State forcen (nicht schön aber besser als 90W idle)

Ich sehe es gerade umgekehrt gerade Leute die damit auch Office machen haben 2 nicht identisch große. da sie den alten Monitor weiterverwenden. Nur Leute mit Surround Gaming nutzen immer 2 genau gleiche aber selbst da hast du 2 Probleme.

a.) funktioniert das bei NV auch bei 2 identischen Monitoren nicht immer
b.) ist Surrroundgaming bei 2 Monitoren eh kacke

99% der User werden also nicht die CB Werte haben sondern die HT4U werte.
 
Zuletzt bearbeitet:
hill01 schrieb:
Erst wenns an die Grenze geht wird die 1.5 GByte Karte einbrechen während die Karte mit dem größeren Speicher fröhlich weiterrechnet.
Ist das wirklich so? Dass der Speicher voll ist, heisst ja noch nicht, dass das auch wirklich alles gebraucht wird. Die Karte kann ja auch eigentlich im Moment nicht benötigte Daten im RAM halten, wenn davon genug da ist.

Lt. diesen beiden Tests bringt es selbst bei 2560x1600 bei einer GTX580 nichts:
https://www.computerbase.de/2011-02/test-2x-geforce-gtx-580/4/#abschnitt_performancerating
http://www.pcgameshardware.de/aid,809415/Palit-Geforce-GTX-580-im-Hands-on-Test-Was-bringen-3-GiByte-RAM/Grafikkarte/Test/
 
hill01 schrieb:
Sorry hab dich falsch verstanden - ja 9% mehr Verbrauch bei 8% mehr Takt sind keine negative Eigenschaft sondern völlig normal. Wenn gleichzeitig noch die Spannung hätte erhöht werden müssen, dann könnt man es als negativ auslegen, aber so nicht.

nur nimmt CB wie immer den ganzen PC verbrauch her weshalb es nur Grafikkarte eher 20% mehr Verbrauch sind
 
@Knuddelbearli

nur weil es NV unter Umständen schlechter macht heißt das nicht dass es bei der HD7970 / HD7950 berechtigt ist bei 2 Monitoren den eigenen Verbrauch zu verdreifachen. In Meinem Szenario und offensichtlich auch im CB, mit 2 Monitoren selber Art oder zumindest kompatibel, kommt Nvidia zur Zeit besser weg.

Gaming über mehrere Screens setze ich nicht ein, da reicht mir ein Monitor und auf 2 ist eh kacke.

Kommen aber auch noch andere Probs dazu , zb gehen bei mir die DPs nicht. Rechner ist im Bootloop wenn ich DP anstecke. =/ bräuchte ich aber wenn beide Monis + TV anstecken wöllte.
 
PiPaPa schrieb:
Ich habe mich ja bei dir bisher zurückgehalten, aber bei einem Chip kann man höchstens die Übertaktbarkeit selektieren, aber nicht den Verbrauch.
Nein? Warum nicht? Die einzelnen GPUs unterschieden sich auch bei den Leckströmen und eventuell sogar bei der Spannung.
Aber ansonsten hast du natürlich recht. Der Vergleich der da mit der Powecolor herangezogen wurde ist dämlich, da die Spannungsversorgung komplett unterschiedlich ist. Und die vergangenheit hat ja schon öfters gezeigt, wie stark sich unterschiedliche Spannungsregler auswirken können.

Knuddelbearli schrieb:
Und was stimmt jetzt daran nicht? Der Verbrauch ist im Multibetrieb doch eindeutig extrem höher als bei der Nutzung von einem Monitor. Ob jetzt die GTX580 in manchen Situationen ebenso patzt ändert doch nichts am Ergebnis der Radeon. :rolleyes:
Knuddelbearli schrieb:
99% der User werden also nicht die CB Werte haben sondern die HT4U werte.
Das glaubst du doch nicht ernsthaft. Über genaue Zahlen kann man sich streiten, aber bei der Verbreitung von 1080p die letzten Jahre von 22"-27" ist die Wahrscheinlichkeit das wer 2 gleiche Auflösungen fährt mit Sicherheit deutlich höher als 1%. :rolleyes:

Fakt ist das dort bei beiden Herstellern enormer Handlungsbedarf besteht, denn Multimonitorszenarien sind mittlererweile alles andere als selten.
Mit dem Nvidia Inspector kann man die Nvidia-Karten übrigens in den Idlemode zwingen, aber schöner wäre eine offiziele Lösung direkt von Nvidia.
Weiterhin besteht auch noch enormer Handlungsbedarf bei AMD in Sachen Decodierung. Da verbrät das System 60W mehr als bei ner Nutzung der HD3000. Da stellt sich schon fast die Frage ob es sich lohnt DXVA zu nutzen oder ob man das gleich die CPU machen lassen soll.

Ansonsten steht die Karte so insgesamt sehr gut da. Der reine Idle-Mode geht ja wohl kaum besser und unter Last sieht das ja auch alles gut aus. Die Performance ist etwas über die der GTX580.
Mich würde noch interessieren in wie weit man den Lüfter runterregeln kann (im treiber oder per Tool). Denn die laustärke ist doch zu hoch, vor allem im Idle will ich nichts von der Karte hören. Reserven hat das Kühlsystem ja genug.

Der Preis ist vielen vielleicht zu hoch, ich kaufe mir auch keine Karten in dem Preisrahmen. Aber AMD setzt den so hoch, weil man es eben kann. Solange es keine richtige Konkurrenz gibt wird eben der maximale Preis ausgereizt.
Das sind alles börsennotierte Firmen und nicht das Sozialamt. Man ist ja nicht gezwungen die teile zu kaufen. Die die AMD produzieren lässt werden schon weg gehen, ansonsten wird der Preis ganz automatisch sinken.
 
Zuletzt bearbeitet:
Eine sehr schöne Karte, die vielleicht bald meine 5870 beerben könnte. Guter Leistungssprung, erträgliche Lautstärke, Leistungsaufnahme auf Niveau meiner Karte.....

Nur der Preis ist noch der Knackpunkt, ab 300 Euro würde ich kaufen.
 
bensen schrieb:
Das glaubst du doch nicht ernsthaft. Über genaue Zahlen kann man sich streiten, aber bei der Verbreitung von 1080p die letzten Jahre von 22"-27" ist die Wahrscheinlichkeit das wer 2 gleiche Auflösungen fährt mit Sicherheit deutlich höher als 1%. :rolleyes:


den :rolleyes: smiley kannst du dir sparen, setzte dich bitte mit der Thematik auseinander. es kommt nicht nur auf die Auflösung an sondern auch auf die interne Timings. selbst der selbe Monitor vom selben Hersteller zeitgleich gekauft kann unter Umständen verschiedene timings haben wodurch dann der HT4U verbrauch zuschlägt. Bei verschiedenen Marken ist das sogar sogut wie immer der Fall.

Ebenso geht es nicht um das wollend er Hersteller. das Problem ist wenn die Timings und Auflösung nicht 1:1 die gleichen sind kann es zu flackern kommen beim Umschalten in und aus dem idel, und das wird eben noch weniger toleriert als der höhere verbrauch. Da ist auch nicht die GPU drann Schuld sondern vor allem der VRAM.
 
Zurück
Oben