Test AMD Radeon HD 7970 im Test: Neue Radeon-GPU weiß zu überzeugen

McDaniel-77 schrieb:
Eine GTX 580 läuft mit 772 MHz, die neue Radeon 7970 mit 925 MHz, hat also eine um rund 20% höhere Taktfrequenz. Eine GTX 580 in 28 nm Strukturbreite würde sicher locker die 925 MHz erreichen und wäre somit verdammt nah an der Radeon 7970.

Auch wenn ein LKW die gleichen PS hat wie ein Auto, sind sie trotzdem nicht gleich schnell.

Äpfel und Birnen und so...
 
Zum Flimmern schreibt HT4U:

"Damit dürfen wir am Ende des Kapitels Bildqualität attestieren, dass es nun nichts mehr bei der neuen Radeon HD-7900-Serie zu bemängeln gibt."

http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index11.php

Auf Nachfragen sagte Peter (HT4U.net Redakteur):

"Im Witcher-Video kann ich eine einzige Stelle in der Distanz ausmachen, wo ein Flimmern noch leicht zu erkennen ist. Ansonsten ist die herangezogene Referenz mittels des 3DC-Filtertesters als sehr gut zu bezeichnen."

http://ht4u.net/forum/index.php/topic,56307

Ich sehe das ähnlich und muss sagen, es ist eine brachiale Verbesserung zu 6970 vorhanden. Der Unterschied zu NV ist (für mich) nicht mehr erkennbar. Gibt es bei der Wahrnehmung vielleicht subjektive Unterschiede (hat man ja auch schon bei der MR-Problematik gehört)?
 
Schranzer85 schrieb:
Netter Test, nette Karte, mir aber zu teuer. Meine teuerste Karte war eine Voodoo 5 5500 für 550DM, mehr als 140€ braucht man meiner Meinung nach nie auszugeben um alle aktuellen Spiele auf vollen Details zu zocken... Ich kaufe seit Jahre gebrauchte GPUs... 5870er gehen für 130€ -150€ weg wie warme Semmel auf Ebay. Wofür dann 300€ und mehr ausgeben :D.

Entweder kann man mit einer 140€ Karte alle Spiele auf volle Details zocken oder nicht.. das ist keine Meinungsfrage.
Aber leider ist deine sog. "Meinung" falsch.
Mit einer HD 5870 wirst du aktuelle Spiele unter FullHD nichtmal ansatzweise in vollen Details zocken können.
Volle Details versteht sich inklusive AA und AF.


Schranzer85 schrieb:
@HisN Dann sag mir mal ein Spiel was @1920x1080 mit einer 5870 in die Knie geht? Und höher als 1920x1080 nutzt kein Spieler, der sinnvoll zocken will.

Serious Sam 3
Battlefield 3
Metro 2033
Crysis 2
Crysis 1 & Warhead
Starcraft 2
GTA 4 (100% view distance)

und wahrscheinlich noch einige mehr die ich vergessen habe.
Unter FullHD und allen möglichen Einstellungen wirst du bei diesen Games mit einer HD 5870 unter 30 fps fallen (milde Spiele wie GTA oder SS3) und bei den härteren wie Metro, Starcraft wirst du keine 25 fps sehen... und ob man da noch von "sinnvoll zocken" sprechen kann ist fraglich :D

Und das zweite Kommentar ist ja mal total bescheuert.
Es gibt genügend Leute die auf 2560x1600 oder gar mit mehreren Monitoren zocken, was is da "nicht sinnvoll" dran?
Könnt ja auch sagen FullHD ist nicht sinnvoll, wieso zocken wir nicht alle auf 800x600, dann kann jeder max Details fahren..... *facepalm*
 
Zuletzt bearbeitet:
Netter und interessanter Test, leider fehlen Vergleichswerte zur Vor-Vorgängergeneration (konkret: 5870/5850). Somit für mich nur begrenzt wertvoll/nützlich, da ich seit Jahren schon immer nur jede 2. Generation in Betracht ziehe.
 
Die 5870 mit 1GB ist etwa so schnell wie eine 6950 mit 1GB
 
Wann erscheinen bzw... wird es Tests über HD7950, 7870 und 7850 geben?

Die sind in meinen Augen interessanter. ;) Vor allem HD7870... Ich hoffe, dass diese sowie ihr Vorgänger ein P/L Knüller wird.
 
Koka2009 schrieb:

Januar/Februar

Definitv Anfang Januar wird die 7950 kommen.
Dann wahrscheinlich eine oder zwei Wochen später die 7870/7850 Ende Januar / Anfang Februar


7950 Tippe ich auf 2.-6 Januar
7870/7850 Tippe ich auf 9.-20. Januar
 
Zuletzt bearbeitet von einem Moderator:
7950 Tippe ich auf 2.-6 Januar
7870/7850 Tippe ich auf 9.-20. Januar

Bleibt zu hoffen.

Bleibt nur noch zu sehen wo sich die einsortieren.

Ich denke mal eine 7950 =~ 6970 niveau (ggf. +10% ?)
7870 =~ 6950 (+10% ?)
7850 =~ 6870 (+10 %?)

Wenn das so stimmt und der Verbrauch ähnlich gut runterskaliert dann ist mit der 7950 eine Karte auf dem Markt die mit 150-160W die Performance der 6970 bringt ! Falls die damit verfügbaren Kühllösungen (Luft) immer noch zu laut für meinen Geschmack sind - reicht mir als Upgrade erstmal eine 7870 mit vielleicht 130-140 W und 6950er Leistung auch aus.

Vorausgesetzt die Karte hat mal mindestens 1.5GB VRAM - bessser 2GB.
 
Im gleichen Monat denke ich nicht das da auch die 7800 gleich erscheinen wird. 2. Januar kommt definitv nix, die 7950 wird einfach das original angesetzte Launchdatum vom 9.1. einhalten. Und danach jeden Monat etwas, so hat man andauernde Medienpräsenz und kann zudem auf bessere Ausbeute warten. Denn viele Karten gibt es bisher nicht, es gab ja für Deutschland nur ne Handvoll Samples und nichtmal alle die beim Briefing dabei waren haben eine bekommen, ein Austauschmodell kann man direkt von AMD auch nicht ergattern, es gibt einfach keine.
 
Zuletzt bearbeitet:
Nette Karte, aber ein umstieg von meiner GTX580 3GB im erst Rechner und der HD6970 im zweit Rechner ist komplett unsinnig. Es gibt eh keine Spiele die die Power benötigen dank der beschissenen Konsolenports. Es sei denn ich will mir die meist grausige Grafik auch noch in 2560x1600 oder gar auf mehreren Monitoren antun. Und selbst dafür reichen meine jetztigen Karten mehr als dicke aus.
Werde also diese Generation von ATI und Nvidia überspringen bis es sich wieder lohnt eine GPU zu kaufen.
 
Ich finde die Effizienz wird in diesem Test nicht genug gelobt, die Karte hat eine Mehrleistung von ca. 25%-30% gegenüber der GTX 580 und verbraucht dabei 10% weniger Energie(!), der Idle ist zudem überragend für eine so schnelle Karte.


MfG
 
Hätte mal eine Frage. Inwieweit kann man es ausschließen, dass bei einigen Spielen im Testparcour doch an einigen wenigen Stellen ein CPU Limit zum Tragen kommt?

Nehmen wir an während 10 % eines Benchmarks könnte die GPU 50 % mehr fps liefern. Dann sind das in der Summe auch 5 % im Gesamtrating. Ich weiß es nicht und das bezieht sich sowohl auf GTX580 und folgende, als auch auf 6990, 7970 usw. ...
 
@the_ButcheR

Effizienz sollte man immer auch im Hinblick zur Fertigung loben. Unter OC scheint die Effizienz besser zu sein als per default.
 
jamira1976 schrieb:
Image quality enhancement technology

- Up to 24x multi-sample and super-sample anti-aliasing modes
- Adaptive anti-aliasing
-Morphological Anti-Aliasing (MLAA)
-DirectX® 10/11 Super-Sample Anti-Aliasing (SSAA)-16x angle independent anisotropic texture filtering
-128-bit floating point HDR rendering


Schaut mal. soll in den nächsten Treibern kommen.
Quellenangabe schadet nie!
http://www.amd.com/us/products/desktop/graphics/7000/7970/Pages/radeon-7970.aspx#3

Anandtech
hatte AMD dazu befragt.
AMD schrieb:
Basically the fact that most new game engines are moving to deferred rendering schemes (which are not directly compatible with hardware MSAA) has meant that a lot of attention is now being focused on shader-based AA techniques, like MLAA, FXAA, and many others. These techniques still tend to lag MSAA in terms of quality, but they can run very fast on modern hardware, and are improving continuously through rapid iteration. We are continuing work in this area ourselves, and we should have some exciting developments to talk about in the near future. But for now I would just say that there is a lot more we can still do to improve AA quality and performance using the hardware we already have.

Regarding AAA & SSAA, forcing these modes on in a general way for DX10+ games is problematic from a compatibility standpoint due to new API features that were not present in DX9. The preferred solution would be to have games implement these features natively, and we are currently investigating some new ways to encourage this going forward.

Aza* schrieb:
Gibt es bei der Wahrnehmung vielleicht subjektive Unterschiede (hat man ja auch schon bei der MR-Problematik gehört)?
Definitiv. Manche sehen ja nichtmal ob überhaupt AF an ist.

Ich versteh auch nicht was da alle so ein Fass aufmachen. Einige tuen so, als wäre die Bildqualität abgrundtief schlecht und verursache Augenkrebs, obwohl das AF ja wohl eindeutig stark verbessert wurde. Und die nächsten kommen an und bezeichnen alle die noch nen Unterschied sehen als blöd oder Fanboy die sich nur einbilden was zu sehen.

Fakt ist doch wohl, dass das AF stark verbessert wurde und es nur noch nen sehr kleinen Unterschied gibt. Ob man den noch wahr nimmt ist wohl sehr subjektiv und ob es einem stört muss doch wohl jeder selber entscheiden.
Aber da kommen dann ja immer Typen die nen Markenkrieg rausmachen müssen. Die die andere lauthals als Fanboys bezeichnen sind dann meist noch die, die selber "ihre Marke" als heiligen Gral hinstellen.
 
Für mich selbst wäre die BQ jedenfalls so ähnlich gut, dass ich bei meiner Kaufentscheidung die HD7970 und Nvidia nicht getrennt betrachten müsste. Bei der HD6XXX Serie ist das noch anders.

Was Kepler angeht, so könnten diese Werte durchaus drin sein

http://videocardz.com/29903/no-nvidia-600-series-leaked-gtx-780-kepler-benchmark

Rz14W.jpg


Die Frage ist eher wann die Karte kommt. Nvidia hat ja offenbar lauffähige Karten, dennoch könnten noch 3-6 Monate vergehen.

Für Kepler sage ich eine Starke GPU vor raus, die mit der HD7970 wieder den Boden wischt, leistungstechnisch. Auch die GTX 770 dürfte schneller sein.

Dementsprechend werden sie aber auch mehr Saft ziehen und AMD wird bis dahin die 7990 in Petto haben.
 
bulldozer1 schrieb:
Serious Sam 3
Battlefield 3
Metro 2033
Crysis 2
Crysis 1 & Warhead
Starcraft 2
GTA 4 (100% view distance)

und wahrscheinlich noch einige mehr die ich vergessen habe.

FEAR3, Anno2070, je nach dem wie anspruchsvoll du mit den FPS bist auch BFBC2. Mit HBAO und vollem AA etc. merkte ich schon ein leichtes Ruckeln mit meiner GTX570.

@über mir: GTX780 != GTX680? Oder hab ich da was verpasst bei der Namensgebung?
Von einer Generation zur anderen scheint mir eine Leistungssteigerung von 100% auf 220% auch illusorisch. Zudem: Herstellerbenchmark :)
 
Zuletzt bearbeitet:
Im Gegensatz zu seinem Vorgänger kann dieser jedoch nur den MPEG-4/DivX-Codec ...
Das "nur" ist da falsch oder? Sollte vllt "nun" heißen, da die Codecs ja hinzu gekommen sind.

Beim Performancerating stimmen die verlinkten Seitenzahlen der Spielebenchmarks nicht.


An sonsten schöner Artikel soweit ich gelesen habe :)
 
Zuletzt bearbeitet:
@ Masterchief79
Das stimmt schon. nV überspringt im Desktopbereich den Namen GTX 6xx, so heisen nur die jetzt kommenden Notebook GraKas.

@ Leistungsdiskussion:
Leute vergesst nicht wie geil sich das Teil bei CB übertakten lies ;) und das ist einer der ersten Chips, man stelle sich vor in paar Wochen laufen die Dinger erfahrungsgemäß noch nen Tick besser oft, wenn der Fertigungsprozess immer bessere Yields erreicht. Dazu hat das Teil bei CB vom Stromverbrauch her noch nichtmal so krass zugelegt wie es oft bei anderen Karten der Fall ist. Mit dem Namensschema haben sie sichs etwas verbockt, aber sie könnten z.B. in paar Monaten eine HD7975 bringen, die dann nochmal 20% mehr leistet, dass wär doch was :D

Die Karte ist meiner Meinung nach sowieso die totale Bastlerkarte. Man überlegt mal wie geil man diese Karte noch aufrüsten kann wenn man selbst Hand anlegt:
1. Anderen Kühler drauf -> Karte nun schön leise und noch Kühler
2. Dank DualBIOS das modbare BIOS optimieren und dem Teil 20% mehr Leistung verpassen
Das Ergebnis: Eine mMn perfekte Karte, Leistung satt und angenehm leise :)

BTW muss ich sagen, dass ich recht beeindruckt von der Übertaktbarkeit der Karte bin. Klar nicht jeder übertaktet, aber für mich persönlich hat das immer das P/L etwas beeinflusst, weil die nV Karten ja immer im Vgl. zu den AMD Karten ja meist mehr OCspielraum boten. Und wenn ich sowieso das Maximum aus de Karte hole, war am Ende nV garnicht so schlecht dabei, weil die nV einfach im Schnitt mehr mitmachten, vor allem mittleren P/L-Bereich aka HD68x0 und GTX 460 war das z.B. für mich ein fach ein Kaufkriterium.
 
Zuletzt bearbeitet:
@Gorby
Mal über den Tellerrand hinaus schauen. Bei den luxxern war bei 1045mhz core schon schluss. CB hat sicherlich ein ausserordentlich gutes Exemplar erwischt.
 
Zurück
Oben