Test AMD Radeon HD 7970 im Test: Neue Radeon-GPU weiß zu überzeugen

Habe jetzt sicher nicht alle Beiträge gelesen, evtl wurde das folgende ja schon besprochen...

Ist es so das die hier (und auch anderswo) erzielten OC-Ergebnisse ohne Spannungserhöhung erreicht wurden?
Wenn ja, sollte man da große Aufmerksamkeit drauf legen. Denn es würde zeigen das die GPUs von Hause aus mit ziemlich hoher VCore befeuert werden. Wahrscheinlich um die Ausbeute erstmal anzuheben.

Klären würde dies ein Undervolting Test :-)
Über einen solchen würden sich sicher viele freuen! Evtl wird ja die Spannung auch noch durch ein Firmwareupdate gesenkt. Dies halte ich durchaus für vorstellbar, bei diesem sehr überdurchschnittlichen OC Potential!

Interessant finde ich auch das die übertaktete 7970 einen identischen Stromverbrauch zur 580 hat. Der Leistungsvorsprung unter diesem Setup ist schon sehr ordentlich! Man hätte 590'er Leistungsniveau bei einem 580'er Stromverbrauch!!!
 
Zuletzt bearbeitet:
und die nicht vorhandenen SSAA-Modi unter DX10/11.
Ka was ihr immer mit eurem SSAA habt, ich als GTX 580 3GB Besitzer schalte das Zeug nie ein, weil es viel zu viel Leistung frisst und noch schlimmer, alles vermatscht. Grad unter DX 10/11. Der Punkt ist totales blabla solange das nicht so wie in DX 9 gemacht wird mit automatischer LOD Korrektur. Und NV macht das nicht! Sollte das AMD hin bekommen in DX 10/11 mit automatischer Korrektur, dann sind sie in dem Punkt vor NV.



Teilweise Performance auf 6990/590-Niveau spricht sehr für die 7970 und Eyefinity ist hier mit fast jedem Spiel in sehr hohen Einstellungen machbar. Sehr geil!!
Eigentlich ist die HD 7970 sogar schneller, weil sie nicht mit Fake FPS arbeitet sondern saubere FPS raushaut. Die Karte hier plättet jede erhältliche Karte auf dem Markt. Und wer denkt er ist schneller, sollte sich vor CFX Settings mit multiplen HD 7970 3GB vorsehen, die machen dann kurzen Prozess mit jedem SLI/CF Gespann das es gibt. 500€ sind ein typisches AMD Schnäppchen für so einen Koloss.


Soweit ich gelesen habe, macht es leistungsmäßig keinen Unterschied. Egal ob du falsch oder richtig rechnest, rechnen musst du. Da kann man quasi nix sparen.
Ich glaube man kann Vram sparen, traue mich wetten das die HD 7000 wieder einen höheren Vram Verbrauch aufweist als ihre Vorgänger, wegen dem neuen HQ-AF. Darum auch nicht gekleckert und gleich 3GB... Zum Spaß verbaut AMD so eine Menge nicht.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Stromverbrauch sollte unter Wasser auch sinken, ergo eine noch höhere Effizienz. Mein Tipp bei der HD 7950 3GB ist übrigens ca. 50% mehr Effizienz als NV... Das schafft Kepler nie...

Abwarten, bevor man solche Reden schwingt !

Das Einzige, was man AMD an der HD7970 zugute halten kann ist, das sie die Ersten sind, die 28nm Grafikkarten auf den Markt bringen.
Das verdient großes Lob und Anerkennung (Applaus).

Aber, und jetzt kommt die alles entscheidende Frage, "Wie würde die neue Architektur von AMD abschneiden, wenn AMD gezwungen gewesen wäre, ihre HD7970 noch in 40nm Strukturbreite herzustellen ?"
Wären dann über 2000 1D-Shader möglich ?

Nein !
Sie hätten auf ca. 1000 1D-Shader heruntergehen müssen und würden nun schwer mit der GTX560 zu Kämpfen haben !
Da sieht man mal wie effizient ihre neue Architektur ist. Nämlich überhaupt nicht !
AMD hat ihren 20% Sieg einzig und alleine der 28nm-Fertigung zu verdanken.
Von ihrer ach so tollen neuen Architektur, bleibt ohne diesen Fortschritt, leider so gut wie nichts übrig. HD2900XT lässt grüßen. :freak:

Fassen wir also zusammen:

AMD hat ihre BQ verbessert. Schön, das sie auch mal daran denken und endlich mal in diese Richtung etwas unternehmen. Sie dafür aber in den Himmel zu loben, ist wirklich völlig fehl am Platz. NVIDIA kann über solche kleinen Verbesserungen und selbst Belobigungen nur müde lächeln. Sie dominieren das Feld mit ihrem (perfekten) Anisotropes Filterungen und der vollen Unterstützung für SuperSamplingAntiAlaising kurz SSAA ect. in allen DX-Modien.

Desweiteren hat AMD ihrer HD7970 beigebracht, im aller wenigstens benutzten Idle etwas weniger Watt zu ziehen. Nämlich dann, wenn der ganze PC sich schlafen legt. Wir reden von höchstens 5 Watt !
Dabei verbrät sie wiederum in Bluray-Wiedergaben ect. unmengen an Energie. :rolleyes:

Die ganze ZeroCore-Technologie ist einzig und allein nur für einen weiteren Punkt in der Marketingstrategtabelle zuzuordnen und hat so gesehen kaum einen Nutzen für den Endanwender.
Denn sind wir doch mal ehrlich und fragen uns, wann der PC das letzte mal im Schlafzustand war ? (PC StandBy, Monitor aus).
Selbst jetzt, wo ich das Schreibe und jemand das Liest, ist der PC nicht in diesem stromsparenden ZeroCore tätig.
Erst bei MultiGPU-System wird endlich deutlich mehr Strom gespart. Aber wer kümmert sich schon über 20Watt mehr oder wenige, wenn der PC mit einem 1300 Watt Netzteil versorgt werden muss ?

Kommen wir also zum Load-Energieverbrauch.

Dieser hält sich erfreulicherweise auf einem Level, der glücklicherweise nicht ansteigt. Also auf dem Niveau der Vorgänger High-End-Karte HD6970. Dies ist zwar so gesehen kein Rückschritt, aber auch kein Fortschritt. Es ist einfach ein Stillstand in Sachen Energieverbrauch ! CB hat da völlig Recht, wenn sie in ihrem Review schreibe, dass die HD7970 einen zu großen Stromverbrauch hat.
Klar, rendert die HD7970 schneller als die HD6970 und gar schneller als die GTX580. Aber ein wirklicher Fortschritt ist es nicht, wenn die Karte immer noch einen 8Pin + 6Pin PCIe-Anschluss benötigt.

Thema Lautstärke:

Da gibt es wohl nichts schön zu reden.
Die HD7970 ist ein Epic Fail in Sachen Kühlrekonstruktion. Eine Karte, die es mit der HD6990 und GTX590 in db aufnehmen kann, braucht kein Mensch mehr.
Da hätte AMD ruhig etwas mehr von den 499 Euro ihrer Preisempfehlung abzweigen können und in einen deutlich besseren Kühler investiert.
Auch da macht NVIDIA alles besser und kann trotz höheren Energieverbrauch, angenehm leise Referenzkühler anbieten.

Schlussendlich die Preisfrage:

Was hat AMD eigentlich geritten, fast 500 Euro für ihre Karte zu verlangen ?
Wir reden von einer Karte, die es gerade mal schafft 20% vor der High-End-Karte der Konkurrenz zu agieren.
Was benötigt NVIDIA eigentlich zum Kontern außer einer GTX580 mit etwas mehr Takt ?
Sind da wirklich 500 Euro für die neue Grafikkartengeneration von AMD gerechtfertigt ?

Ich sage NEIN !
Und genau das spiegelt sich zur Zeit im Preisschema der aktuellen GTX580er wieder. Sie steigen alle stark im Preis an, weil man sie einfach nicht als veraltet ansehen kann.

Bei NVIDIA feiern sie wohl alle. Sie haben sich durch die ganzen Marketingsprüche wie über 2000 1D-Shader blabla 28nm Fertigung blabla neue Architektur blabla mehr Takt blabla 384bit Speicherinterface blabla doch ziemlich Angst machen lassen und müssen jetzt feststellen, das ihre zur Notkonterung zusammengeflickte GTX585 auf ihrem Schreibtisch gegen das phänomenale unbeschreibliche superhyper Ungeheuer HD7970 *glänz* nun völlig ausreichend ist um die nächsten 6-12 Monate gegen AMD bestehen zu können bis ihre eigentliche neue Generation mit Kepler den marktreifen Status erreicht.

Allerdings, und das ist wiederum ein positiver Punkt, braucht man sich über Verfügbarkeit der HD7970 wohl keinerlei Gedanken zu machen.
Bei dem Preis ist die Absatzzahl eher als gering einzuschätzen und die HD7970 wird als schönes Objekt in den Schaufenstern der Händler zu bestaunen sein.

Wir werden sehen, was AMD noch mit Treibern zurechtrücken kann, aber so richtig konkurrenzfähig wird es wohl in dieser Generation nicht mehr werden. Leider :(
 
Zuletzt bearbeitet:
Denkt euch an dieser Stelle einfach ein verbotenes Fullquote von Pickebuhs Post! Full Ack und so :)

Sollte das AMD hin bekommen in DX 10/11 mit automatischer Korrektur, dann sind sie in dem Punkt vor NV.
Im Moment hat es anscheinend keiner. Wie wäre es es mit: „Wer es zuerst hinbekommt ist eine Punkt vor”?

500€ sind ein typisches AMD Schnäppchen für so einen Koloss.
Wo ist das ein Schnäppchen? Es ist die stärkste Karte zum stärksten Preis. Andere Karten mit nicht viel weniger Leistung haben ein deutlich besseres P/L Verhältniss.

Wenn man sich die Vergangenheit anguckt sind Schnäppchen auch nicht AMD typisch. Da hatten wir leistungsmäßig die Reihenfolge: 6870, 560, 6950, 570, 6970, 580, 6990, 590. Jeweils 10% mehr Leistung und 20% größerer Preis. You get what you paid for :p



Was mich in diesem Zusammenhang eher stört ist die Änderung des maximalen Preises, im Verhältniss zur maximalen Leistung, und zum maximalen „Verbrauch”. Man muss sich mal die Werte von 4890, 5870, 6970 und jetzt 7970 vor Augen führen, oder eine Klasse darunter 4770, 5770 und 6870: Leistung/ Preis/ Leistungsaufnahme, bleibt fast gleich. Meiner Meinung nach sollte aber, bei gleichem Preis und gleichem Verbrauch, die Leistung steigen :o

Demnach war es gar nicht so falsch, das AMD die 6870, 6870 genannt hat, denn Preis und verbrauchsmäßig ist sie der Nachfolger der 5870, leistungsmäßig natürlich aber der 5770. Aber egal welcher Name, das Prinzip greift bei Grafikkarten anscheinend bei jedem Generationswechsel. Bei allen anderen Dingen (Fernseher, Autos, CPUs, Flugzeuge) läuft es allerdings anders. Ist der Fortschritt hier irgendwie am Ende?
 
Zuletzt bearbeitet:
Jenergy schrieb:
30% weniger? Eine HD 6870 ist gerade einmal halb so schnell wie eine HD 7970! Und das Performance/Watt-Verhältnis ist bei letztgenannter ebenfalls besser. (siehe hier bspw. techpowerup.com)

ich gehe stets nach den computerbase tests, und da ist die hd6870 praktisch gleichauf mit einer hd6950.. siehe https://www.computerbase.de/artikel...-hd-6950-test.1389/seite-26#abschnitt_ratings

und die hd6950 ist laut CB tests 32% langsamer als die hd7970.. gut, ist die hd6870 dann halt 35% langsamer.. tut mir nicht weh, wegen dem kauf ich mir noch lang keine neue karte die ein paar hundert euro mehr kostet und 10db lauter ist


Enigma schrieb:
Diese Aussage wirst du bei jedem Launch-Artikel zu einer Grafikkarte finden. Ich kann dir aber aus längerer Beobachtung versichern, dass es höchst unwahrscheinlich ist einen allgemeinen Performancezuwachs im mittleren einstelligen Bereich zu sehen. Es wird optimierungen für einzelne Spiele geben, aber selbst hier sind es selten mehr als zwei, drei Prozent.

da stimm ich zu, über jahre hinweg gabs kaum verbesserungen mehr zu einem launch treiber, egal ob AMD oder nvidia
 
Schöner Test CB!

Heute Morgen endlich mal Zeit gefunden den Test in aller Ruhe zu lesen,nach einer Woche fast nonstop Schneepflügen/räumen :)
Finde die HD7970 echt Top,errinnert mich ein wenig an den Launch der HD 5850,wo sich auch ein wenig der woww Effekt einstellte,zumindest bei mir.
Werd mir die Karte kaufen,allerdings erst wenn die Hersteller leise Modelle anbieten,oder idealerweise,mein Alpenföhn Peter problemlos drauf passt.
Klar würd mir Persönlich die Leistung meiner GTX 570 reichen,doch 1. ist der Drang/Bastelwille einfach stärker was neues stärkeres zu haben und 2. bin ich,sorry,mit der GTX 570 nicht ganz so glücklich,deswegen jetzt meine gute "alte" HD 5850 im PC steckt.(oh wunder sind die CtD bei Skyrim plötzlich verschwunden)

gruss und schöne Weihnachten,ein halt schon immer ein wenig AMD Fan.
 
Sie hätten auf ca. 1000 1D-Shader heruntergehen müssen und würden nun schwer mit der GTX560 zu Kämpfen haben !
Da sieht man mal wie effizient ihre neue Architektur ist. Nämlich überhaupt nicht !
Warum hätten sie das müssen? Dann hätte das Ding eben so viel wie Fermi verbraten, nämlich 320Watt @ max.

AMD hat ihren 20% Sieg einzig und alleine der 28nm-Fertigung zu verdanken.
Nope, die HD 7970 3GB wird wohl (wie HD 6970 2GB) eine der ineffizientesten Karten der HD 7000er Reihe werden. Wartet ab und staunt was da noch an Effizienzwunder auf uns zu kommt.

Laut euren 28nm Gelaber müsste Kepler ca. 100-200Watt max. verbrauchen. Also von 320Watt runter wegen dem ach so tollen Shrink. Wenn überhaupt wird Kepler noch mehr verbrauchen, weil NV unbedingt die Leistung der HD 7970 toppen will. Wenn die 300 Watt unter Spiele Last erreicht wird, würde ich mich nicht wundern. Durch die neuen Stromüberwachungstechniken kein Problem. Sollten die ausfallen ist die Karte Toast, schon gehabt bei der GTX 590.


Und Picke, von dir hätte ich mehr erwartet. Du bist nun schon lange genug dabei um zu wissen wo die Reise hin geht... AMDs Weg war jetzt wirklich keine Überraschung, Effizienz, Effizienz, Effizienz, oberstes Gebot einer neuen AMD Karte seit Jahren(ja auch über BQ)... Mittlerweile sind sie so effizient, das sie die Leistung eben nebenbei ins unermessliche steigern können(inkl BQ), ohne ins Schwitzen zu geraten. Eben der elegante Weg an die Spitze.

Ich hoffe mit Maxwell geht NV auch in die Richtung, der "brute Force" Weg von Fermi ist eine Sackgasse.


Die ganze ZeroCore-Technologie ist einzig und allein nur für einen weiteren Punkt in der Marketingstrategtabelle zuzuordnen und hat so gesehen kaum einen Nutzen für den Endanwender.
Aber sonst gehts noch gut? Die HD 7970 führt als erste high end Karte ever den passiven Idle Zustand ein. Nochmal zum mitschreiben, die schnellste GPU des Planeten, schaltet sich komplett ab, inkl. Lüfter, macht sich also zur passiven Grafikkarte mit 0 Sone. Ein Novum, eine Innovation, die wohl Kepler nicht haben wird...

Nichtmal Optimus high End Notebook Karten haben den Stunt drauf. Da kann man nur den Hut ziehen von AMD. Hätte ich niemals gedacht das die das schaffen. Obwohl auch das abzusehen war, da AMD in den letzten Jahren immer Führend war im Idle Strom sparen. (Intel mal ausgenommen)


dass die HD7970 einen zu großen Stromverbrauch hat.
Es ist die schnellste single GPU also auf Leistung getrimmt, Strom sparen gibts mit der HD 7950 3GB/7850/7770, aber damit dann gewaltig...

Aber ein wirklicher Fortschritt ist es nicht, wenn die Karte immer noch einen 8Pin + 6Pin PCIe-Anschluss benötigt.
Ach jetzt verstehe ich dich, du willst die nächsten 30 Jahre meckern, bis die ersten Quantencomputer aufschlagen, das die GPUs immer noch nicht bei 5 Watt max. angekommen sind. Na dann... Man vergleicht immer im zur Konkurrenz, und wenn die Konkurrenz langsamer ist und mehr Strom verbraucht gibts nix zu meckern. Da müsste man ja auch Sandy kritisieren, so wenige Flops und so viel Stromverbrauch(die verbrauchen ja zig mal mehr als ein P1 so ein Unding), geht ja mal gar nicht. Die alten CPUs waren passiv gekühlt, richtig schwach von Sandy das man die nicht ohne Kühler fahren kann. Intel fail etc...

Die HD7970 ist ein Epic Fail in Sachen Kühlrekonstruktion.
Und welcher Enthusiast kauf sich Standard Karten? Also ich kenne keinen, selber schuld wenn man das macht. Ob 60db oder 70 etc. spielt doch überhaupt keine Rolle. Leiser Staubsauger, lauter Staubsauger, wo soll da der Unterschied sein? Man muss so oder so auf eine Asus DC II HD 7970 3GB warten für ein gutes Modell. Das war schon vor dem Erscheinen der Karte klar, der Stock Preis muss niedrig gehalten werden, klare Sache und auch logisch...


Und genau das spiegelt sich zur Zeit im Preisschema der aktuellen GTX580er wieder. Sie steigen alle stark im Preis an, weil man sie einfach nicht als veraltet ansehen kann.
Find ich auch, ein wenig OC, Kühler optimieren, 3GB Version und schon hat man zumindest wieder eine Karte die man nicht sofort gegen das Prachtstück hier austauschen muss. Wär ja auch schlimm würde die GTX 580 so unter buttert das man später sagen müsste wie zu GF 7 Zeiten, "Tja da hätte man auf die HD 7000 warten sollen." Noch ein paar mehr Games wie 2070 und es sieht schlecht aus für die GTX 580.

Im Moment hat es anscheinend keiner. Wie wäre es es mit: „Wer es zuerst hinbekommt ist eine Punkt vor”?
Unwahrscheinlich da NV anscheinend nicht mal DX 9 auto Korrektur bieten will. Warum dann auf einmal DX 10/11 auch noch? Nene, in Sachen SGSSAA traue ich AMD mehr zu.

Wo ist das ein Schnäppchen?
NV würde sich so eine frühe Marktdominanz extrem vergolden lassen. 500€ könntet ihr bei NV vergessen -> ergo AMD Schnäpple
 
stoneeh schrieb:
da stimm ich zu, über jahre hinweg gabs kaum verbesserungen mehr zu einem launch treiber, egal ob AMD oder nvidia

Da solltest du dich aber besser informieren, auch wenn Enigma versichert.:D

Anbei eine kleine Lektüre: AMD's Radeon HD 5870: Before And After A Year Of Driver Updates

Man sollte auch bedenken, dass bei der 5870 kein kompletter Architekturwechsel stattfand, so dass man bei der 7970 eher von noch höheren Zuwächsen ausgehen kann.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Aber, und jetzt kommt die alles entscheidende Frage, "Wie würde die neue Architektur von AMD abschneiden, wenn AMD gezwungen gewesen wäre, ihre HD7970 noch in 40nm Strukturbreite herzustellen ?"
Wären dann über 2000 1D-Shader möglich ?

Sofern ichs richtig in Erinnerung habe, löst AMD die VLIW4-Shadercluster auf und so werden aus 384 (4D) einer HD6970 werden 1536 1D-Einheiten einer wohl zukünftigen HD7870. Also braucht auch diese Karte nicht mit der GTX560 kämpfen...

Da sieht man mal wie effizient ihre neue Architektur ist. Nämlich überhaupt nicht !
AMD hat ihren 20% Sieg einzig und alleine der 28nm-Fertigung zu verdanken.

In der 40nm-Fertigung hätte der Chip auch nen 20% Vorsprung weggetragen - nur auf einem glühenden Thermi-Niveau.

Dabei verbrät sie wiederum in Bluray-Wiedergaben ect. unmengen an Energie. :rolleyes:

Dann lass die Karte öfters im Idle und schau nicht soviele Bluerays - dann sparst den Mehrverbrauch auch wieder ein.

Die ganze ZeroCore-Technologie ist einzig und allein nur für einen weiteren Punkt in der Marketingstrategtabelle zuzuordnen und hat so gesehen kaum einen Nutzen für den Endanwender.

Wenn es der Einstieg zu einer NVidia-Optimus - Analogie ist, wird der normale Heimanwender zukünftig auch profitieren. Der spielende Heimanwender mit seinem CF-System wird sich über die Energieeinsparungen der zweiten Karte zum Beispiel beim Blueray-Schauen oder surfen mehr als freuen.

Aber ein wirklicher Fortschritt ist es nicht, wenn die Karte immer noch einen 8Pin + 6Pin PCIe-Anschluss benötigt.

benötigen =/= wirklich ausnutzen. Ebenso ist TDP =/= Verbauch.

Thema Lautstärke:
Da gibt es wohl nichts schön zu reden.
Die HD7970 ist ein Epic Fail in Sachen Kühlrekonstruktion. Eine Karte, die es mit der HD6990 und GTX590 in db aufnehmen kann, braucht kein Mensch mehr.
Da hätte AMD ruhig etwas mehr von den 499 Euro ihrer Preisempfehlung abzweigen können und in einen deutlich besseren Kühler investiert.
Und warum haben AMD und NVidia bei den Dualkarten mit noch höherem Preis keinen besseren Kühler montiert? Zur Maximierung der Gewinnspanne :lol:
Übrigens liegt die HD7970 mit neu aufgetragener Wärmeleitpaste gar nicht mehr soweit weg von einer GTX580 - dazu ist sie kühler. Mit etwas verminderter Lüfterdrehzahl sollte bei annähernd gleicher Temperatur auch eine annähernd gleiche Lautstärke aus dem Fön kommen.

Auch da macht NVIDIA alles besser und kann trotz höheren Energieverbrauch, angenehm leise Referenzkühler anbieten.
Eine Hörschwäche auf dem grünen Ohr?

Schlussendlich die Preisfrage:
Was hat AMD eigentlich geritten, fast 500 Euro für ihre Karte zu verlangen ?
Wir reden von einer Karte, die es gerade mal schafft 20% vor der High-End-Karte der Konkurrenz zu agieren.

Mehrpreis für Mehrleistung - eine 3Gb-Variante der GTX580 kostet doch auch nur fast 500€.

Was benötigt NVIDIA eigentlich zum Kontern außer einer GTX580 mit etwas mehr Takt ?
Einen zweiten 8-Pin-Anschluss?


Schade zum Thema Undervolting habe bei keinem Test eine solche Rubrik gefunden :(
 
Meine GTX580 @900 Mhz kommt trotzdem nicht an eine 7970 ran!

Lautstärke:
Hier müsst bedenken, dass die ersten 7970 Modelle eine sehr hohe Vcore haben.
Dadurch erhöht sich natürlich die Abwärme und der Lüfter wird laut.
Bei einem Referenzkühler fällt jede Spannungserhöhung deutlich mehr auf als bei einem Customkühler. (Kann das anhand der GTX580 bestätigen)
Dass würde auch das sehr hohe OC Verhalten erklären.

Zudem wird mit Sicherheit noch die Lüftersteuerung angepasst.
Wann gab es den mal ein High-End Model, welches nur 74 Grad mit Referenzkühlung aufgewiesen hat??? Hier wird man die Steuerung auch wieder auf die 86 Grad anpassen.
Dann wird es deutlich leiser.

Alle Leute mit Referenzkarten können dass ja selber testen.
Erstellt Euch ein Lüfterprofil, welches bei absoluter Volllast die 74 Grad hält.
Meine alte Zotac GTX580 wurde bei meiner 78 Grad Einstellung richtig laut. (Normal 86 Grad)
 
man man was hier so leute alles reinschreiben? ich wundere mich warum arbeitet ihr dann nicht bei AMD wenn ihr alles besser wisst was wie und wo welche amd / nvidia besser ist und was man besser machen kann könnte.
 
CompuChecker schrieb:
Meine GTX580 @900 Mhz kommt trotzdem nicht an eine 7970 ran!

Lautstärke:
Hier müsst bedenken, dass die ersten 7970 Modelle eine sehr hohe Vcore haben.
Dadurch erhöht sich natürlich die Abwärme und der Lüfter wird laut.

Wie kommst du denn darauf das die ersten Modelle mehr Spannung haben sollen wie spätere Modelle? ...da würd sich ja AMD selbst eins reinwürgen in Sachen Stromverbrauch Tests, so wie CB sie ja gemacht hat!
Aber das wär ja ultrageil, das würde ja bedeuten das spätere Karten noch weniger brauchen und nochmals besser bei Tests abschneiden.

Dass würde auch das sehr hohe OC Verhalten erklären.

Sorry, absoluter Bullshit, es gab auch Exemplare die nicht so hoch gekommen sind, das hängt einzig von der Qualität der Chips ab und da gibt und gab es schon immer Streuungen!

Zudem wird mit Sicherheit noch die Lüftersteuerung angepasst.

Wie soll das denn funktionieren bei den Karten die schon raus sind? ...dann müsste AMD ja mit dem Release nochmals Testsamples verschicken!
Wenn dann hätten sie so schlau sein müssen die Samples vorher handverlesen nachzubearbeiten, sprich so wie CB es gemacht hat mit WLP richtig drauf und hätten da ja auch leicht ein angepasstes Bios schon drauf machen können, ich mein jeder halbwegs begabte PC Freak kriegt ne selbst gebastelte Lüftersteuerung im Bios hin!

Wann gab es den mal ein High-End Model, welches nur 74 Grad mit Referenzkühlung aufgewiesen hat???

Das gabs schon öfters, ich erinner mich glaub an die 5870 die hatte sogar noch weniger wenn ich mich nicht irre bei ertragbaren Geräuschkulissen.

Meine alte Zotac GTX580 wurde bei meiner 78 Grad Einstellung richtig laut.

Naja war ja auch ne Nvidia :lol:
 
Zuletzt bearbeitet:
Super Test, ein großes Lob an CB.

Zur Karte:
Die HD7970 kann ihre Leistung mit dem verbauten Kühler garnicht richtig entfalten.
Denke das AMD da die Taktdrossel angesetzt hat um die Temps und Lautstärke im Zaum zu halten.
Von Haus aus sollte da schon 1 Ghz drin sein, aber nicht bei soner verbauten Heizplatte wo der Radial Lüfter es gradeso schafft die 200watt abzuführen ohne zur Turbiene zu motieren.

Warum die Spannung nicht gesenkt wurde, lässt sich nur so erklären das AMD 100% Stabiltät gewährleisten muss da nicht jeder Chip die gleiche Güte hat. Siehe OC Ergebnisse auf anderen Test-Seiten.
Nicht jede 7970 schafft den Takt von 1125 mhz wie hier stabil. Manche erreichen grademal 1070mhz.

Letzten Endes ist es für mich eine Beta-Karte der neuen Generation, wo man sich freut wieder selbst Hand anzulegen. Um mehr aus den Karten rauszukitzeln. Ich rechne daher schon von vornerein den Aufpreis des Kühlerwechsels mit ein.

Leider sagt mir der momentane Preis für die gebotene Leistung nicht zu, ist aber auch gerechtfertigt wenn ich mir die Preise von den NV Karten anschaue. Wobei ich von ausgehe das Dieser sich noch Stabilisiert sobald AMD mehr Stückzahlen absetzen kann.

Ansonsten macht die HD7970 ein ordenlichen Eindruck und was die technische Umsetzung angeht, und trumpft da wo die alten AMD Karten bemängelt wurden.
So nebenbei Nv Karten interessieren mich kein Stück, daher vergleiche ich auch lieber Alt gegen Neu als Hersteller zu Hersteller, und muss sagen das AMD seine Hausaufgaben bei der 7000 gemacht hat. Und zwar genau da woran ich als Bastler nix ändern kann.

Mal abwarten wie die 7950 und deren Ableger ( 7800/7700) sich schlagen.
Im diesen Sinne, wünsch ich allen ein Frohes Weihnachstfest.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@derGrimm

Aktuell muss man also festhalten dass 4,3 Mrd gegen 3 Mrd stehen und 28 gegen 40nm.
[..]

Was die Leistung / Transistor jedoch angeht hat AMD nachgelassen. Folglich wirds spannend wie das bei Kepler aussieht in 28nm

Vielleicht gehts nur mir so, aber als Endkunde interessiert es mich genau 0 wieviele Transistoren das Teil hat. Und wenn sie es mechanisch mit Zahnrädern betreiben ist mir das auch egal, hier zählt Performance oder auch Performance/Watt. Die Preise finde ich für die Mehrleistung zur 580 etwas hoch, aber die fallen früher oder später sowieso, davon abgesehen sind die Preisvergleiche bei CB eher mau, weil immer das günstigste Modell angenommen wird. Die 580 hat ca 82% der Leistung bei 74% des Preises, setzt man aber 400€ für den Preis an, was eher dem Durchschnittspreis der 580 entsprechen sollte, geben sich die beiden nichts mehr: 82% Leistung bei 80% des Preises.
 
Hawk1980 schrieb:
[...]Mal abwarten wie die 7950 und deren Ableger ( 7800/7700) sich schlagen.
Die HD 78xx/77xx sind im Grunde genommen keine Ableger der HD 7950 bzw. 7970, sondern basieren auf anderen Chips: "Pitcairn" für HD 78xx, "Cape Verde" für HD 77xx und weitere.
 
Klar würd mir Persönlich die Leistung meiner GTX 570 reichen,doch 1. ist der Drang/Bastelwille einfach stärker was neues stärkeres zu haben und 2. bin ich,sorry,mit der GTX 570 nicht ganz so glücklich,deswegen jetzt meine gute "alte" HD 5850 im PC steckt.(oh wunder sind die CtD bei Skyrim plötzlich verschwunden)
Naja ich hatte auch mit meiner NVIDIA bei Skyrim immer CTD, doch vor ein paar Tagen kam ein Patch raus der das ganze behoben hat. Kannst also wieder guten Gewissens deine GTX570 einbauen.
Und das mit dem Bastelwille kenn ich. Würd mir auch sofort die HD7970 holen wenn ich die Karte geschenkt bekäme ;) ! Naja bin halt ein Schwabe
 
der Transistorvergleich hinkt eh.
AMD musste zusätzliche Transistoren verbauen , um auf der computing schiene weiter mitzufahren. Dazu kommt der aufgestockte interne Cache.

Wer nebenbei auch mal 3dcenter liest, sollte schon verstanden haben, dass der Architekturwechsel primär nicht dazu da war, die Effizient in Spielen zu erhöhen.
Ein hochgezüchteter Cayman in 28nm könnte tatsächlich am Ende mehr frames in Spielen erzeugen, aber auf Kosten der Flexibilität.
Nvidia machts kein bisschen anders, Fermi als auch Kepler sind wahre Monster in Sachen Die-Größe. Wen wunderts da, dass Outputleistung in Sachen frames UND in sachen TDP immer darauf ausgerichtet sind, über AMD zu stehen. Wer das so mag und akzeptiert, solls kaufen.

und btw, alle Jahre wieder gibts Gemecker über den marktwirtschaftlich nicht mehr als notwendigen Akt, den Preis wieder auf NORMAL-Niveau zu setzen.

Gf2 Ultra 1500 DM bei Release!
Gf 8800 Ultra war irgendwo bei 700 Euro meiner Erinnerung nach

Nun mag man streiten über den nicht mehr so stark vorhandenen Performance Sprung.
Bedenkt man aber, dass die grossen Performancesprünge der Vergangenheit IMMER mit einer Erhöhung des Stromverbrauchs einhergingen, was damals auch noch absolut unkritisch war, kann weder AMD noch Nvidia diesen Weg gehen.
Ergo bekommen wir keine 80-100% Performancesprung durch doppelte Recheneinheiten PLUS 20 - 50% Mehrverbrauch zu 700 bis 800 Euro,
sondern es ist so wie es halt jetzt ist, und das ist in meinen Augen auch gut so.
Würd ein grüner Aufkleber auf der Karte sein, würde ich übrigens das selbe schreiben.

Ich persönlich werde wohl zur 7950 greifen, da es nunmal zu dem Zeitpunkt die einzige Karte auf dem Markt ist bzw sein wird, die in mein Preis/Leistungsgefüge bei vorgegebener Preisspanne liegen wird, sobald der PC-Neukauf ansteht. Wann GK104 kommt, weiss noch keiner so genau.
 
Die Grafikkarte ist sicherlich nicht schlecht, aber es bleibt mal wieder die frage ! ! ! Was will man mit soviel Performance ? Denn mir ist nicht bekannt das ein neues Unreal Tournament 4 raus kommt wo man dann wieder diesen WoW Effekt hat. Und erlich Windows 8 mit 3D kann mir ziemlich gestohlen bleiben. Ich habe es auf einem 47 LG 3D HDTV bei meinem Vattie getestet wenn man 3D Games Zockt denkt man man sei auf irgend welchen Drogen. Viel wichtiger für mich ist doch die Frage. Was für Spiele kommen in Verbindung mit Direct X 11.1 raus ? Werde ich gegen über jemanden der ne DX 10 oder 11 Karte hat vorteile in der Grafik haben ? Sind die Karten überhaupt Stark genug um DX 11.1 Voll dar zustellen oder kommt wieder ein Update der Karten. Es bleibt Spannend aber wenn ich erlich bin, warte ich lieber auf dide nägste nVidia Graka die wird eh besser und macht auch weniger probleme. Hoffentlich kommen mal wieder nen paar hoch karätige Games raus wo sich der kauf einer solchen Karte auch lohnen tut. Z.b Diablo 3 oder HL³ Doom4 oder was weiss ich dickes gg :P
 
Nach einigen Überlegen habe ich mich dann doch dazu durchgerungen meinen Comment abzusetzen.

Die Karte sieht natürlich schon gut aus - 35% und mehr Leistung als der Vorgänger, bei (leicht) geringerem Stromverbrauch. Was man aber nicht vergessen darf ist dass es sich hierbei um einen Shrink handelt und solche Zahlen im Grafikbereich durchaus noch höher ausfallen können.
Die Tests haben gezeigt dass das neue, größere, Speicherinterface alleine schon ~15% dieser Mehrleistung ausmacht, was also den reinen Leistungssprung auf GPU-Seite auf ~25% (da komplexeres Speichermanagement) reduziert. 25% für einen Shrink ist jetzt nicht so super.

Klar ist die Karte im Vergleich zu den 40nm Modelen genial, aber für ein ordentliches Urteil sollte man auf den Kepler warten. Mir scheint durchaus als ob AMD einen eigenen Fermi entwickelt hat der durch einen Refresh einiges an Leistung gewinnen kann (siehe 480->580). Da NV bereits bei 40nm die forcierung auf GPU-Computing vorgenommen hat hat man dort schon ein wenig Erfahrung, weshalb ich solche "Probleme" wie auf der 7970 nicht erwarte.

Ich denke daher dass es gut möglich ist dass Kepler bei gleichem Verbrauch wie die 7970 erstmal 30+ x% mehr Leistung bringen wird, AMD aber einen Refresh (da die Zahlen knapp werden tippe ich auf HD 8xx0) nachlegen wird und alles wieder ausgleicht. Einzig die 680 dürfte wohl über allem stehen, abermals durch den höchsten Stromverbrauch erkauft.

Zur Kühlung äussere ich mich jetzt mal nicht, vielleicht hat CB ein verkorkstes Modell bekommen, vielleicht auch nicht, aber ich möchte da keine falschen Behauptungen stützen.

Lobenswert finde ich hingegen die neuen Stromsparfeatures die noch mal ein paar Watt mehr rausholen können.

Jeder der noch mit dem Kauf einer neuen GraKa warten kann sollte entweder auf Kepler warten um die 7970 wirklich einordnen zu können oder zumindestens noch ~Monate warten bis der 28nm Prozess noch ein wenig verfeinert wurde. Das dürfte den dazugehörigen Karten nochmal einen besseren Stromverbrauch und/oder ein höheres Taktpotenzial geben. Beides Dinge die durchaus annehmbar sind ;)
 
GrEmLiNg schrieb:
Die Grafikkarte ist sicherlich nicht schlecht, aber es bleibt mal wieder die frage ! ! ! Was will man mit soviel Performance ?

Nein, die Frage ist, was willst du mit so viel Performance? ;)

Ich sag nur: Eyefinity, Downsampling... usw. und ruckzuck stößt auch eine 7970 an ihre Grenzen. Nur weil sie deine Anforderungen weit übertrifft, heißt das nicht, dass andere ihre Leistung nicht benötigen.

Genauso gut könntest du fragen, warum manche Quad-SLI brauchen oder sogar ne Dualcore-Grafikkarte noch doppelt verbauen.
 
Zurück
Oben