Test AMD Radeon HD 7970 im Test: Neue Radeon-GPU weiß zu überzeugen

KAOZNAKE schrieb:
1. Technisch durchaus möglich. Wirtschaftlich sinnvoll? Vielleicht. Bei der 480 hats grad so funktioniert.

Wollen wir also eine GTX480 zurück ?
Ich glaube kaum, das jemand sich dies wünschen würde !
Hätte AMD die HD7970 noch in 40 nm fertigen lassen müssen, so würde sie nur mit deutlich weniger Shadern funktionieren, ohne das man eine neue PCIe-Spezifikation mit der maximalen Watt-Leistung in Auftrage geben müsste. :cool_alt:

2048 Shader sind nur Dank dem 28nm-Fertigungsprozess möglich. Finde ich auch klasse, das AMD die ersten sind, die 28nm-Karten auf den Markt werfen. ;)

Aber in meinen Augen wurde dieser Vorsprung in der Fertigung komplett verhunzt.
Sie hätten für die High-End-Karten ruhig noch ihren lang bewährten und durch getesteten sowie treiberoptimierten Northern Islands mit 3000+ 4D-Shader oder mehr auf den Markt werfen sollen.
Dadurch würde die Leistung durchgehend 50-60% steigen in manchen Fällen sogar bis zu 100% mehr Leistung erzeugen (optimistisch geschätzt natürlich).

Ihre neue Architektur hätten sie dann in den kleineren Ablegern testen und optimieren können und gegebenenfalls wieder verwerfen.
AMD hat alles auf ein Pferd gesetzt und benötigt nun zur Optimierung wieder Jahre der Reifung.

2. Weil TSMC den 32nm Prozess gecancelt hat. Blöd das AMD quasi schon fertig war mit der Entwicklung (Tapeout) und sich fix was neues überlegen musste!

So ist eben der Markt, wo man nur einen Fertigungslieferanten hat.
Mir geht es nicht darum, das AMD wegen TSMC Probleme hatte ihre neue Architektur marktreif zu bekommen.
Mir geht es darum, das ihre neue Architektur keinesfalls das Rad neu erfinden, so wie es von so manchen hier propagiert wird. Ihre neue Architektur ist schlechter als ihre Alte und alles andere als effizient. Das was effizient ist, ist eben einzig und allein die Strukturverkleinerung von 40 auf 28 nm.

3. Hätte schon funktionieren können, aber dazu braucht man eben auch genug Zeit, die man aufgrund der kurzfristigen Absage von 32nm nicht hatte. Die aktuelle Architektur kann man problemlos auf 40nm verwenden, halt nicht problemlos in so einer starken Ausbaustufe

Meine Rede.
Die neue Architektur ist schlechter als die Alte, wird aber Dank der Ausbaufähigkeit des neuen 28nm Fertigungsverfahren komplett kompensiert. Ohne die neue Fertigungsmöglichkeit, wäre die HD7970 ein Epic Fail !!
Schade, das AMD da soviel Potenzial verschenkt. :(

4. Wegen der 580 musste AMD sicher nix auf die Beine stellen, durch die 6990 hatte man die problemlos im Griff und auch sonst war und ist man durch die Bank besser aufgestellt. Wie gesagt war die HD6k schon in 32nm fertig entwickelt, AMD könnte gar nicht in so kurzer Zeit auf eine Grafikkarte reagieren so nach dem Motto: "Ups, die haben was schnelleres gebracht, los schraub mal schnell was zusammen und brings nächste Woche unters Volk". So ein Käse!!!

Nö, nur die HD6000 Serie im halb fertigen Southern Islands Produkt, welches dann schnell auf Northern Island umbenannt worden ist und ein Zwischenschritt zur Southern Island darstellen sollte.
Sie wussten, das ihre neue Architektur ohne neuem Fertigungsverfahren nicht besonders positiv dasteht. Deshalb den Zwischenschritt noch in 40nm mit den alten Shader allerdings auf 4D kastriert.

So etwas geht relativ schnell 6 Monate Entwicklung + 3-6 Monate Tapeout und vola die HD6000 ist gebohren.

5. Siehe oben. Reiner Spekulatius deinerseits. Ich sehe bei Anno bis zu 70% Vorsprung mit der neuen Architektur ggü. der 6970, die neue Architektur hätte also auch in 40nm Vorteile gebracht. Ausreißer bei denen es keinen Vorsprung gibt, lassen sich durch viele Argumente begründen, vielleicht sind da die 5D-Shader einfach voll ausgelastet und einfach genauso schnell, oder hier hats noch Treiberprobleme.

Kleiner Widerspruch von dir ?
Bei Punkt 3 hast du es noch bestätigt und nun siehst du es als reine Spekulation an ?
Fakt ist einfach, das die neue HD7970 ohne 28nm ein riesen Flop wäre.
Das ist weder spekuliert noch frei erfunden. Der Beste Beweis ist unter Punkt 4 zu erkennen.
AMD hat erst bei 28 nm ihre neue tolle Architektur auf den Markt bringen können.
Alles andere wäre zum Gespöt der Leute geworden !

Das Anno so gut funktioniert ist wohl das Best-Case-Szenario. Warum da die Architektur so gut funktioniert und bei anderen Spielen deutlich unterhalb der GTX580/570 agiert, ist wohl reine Glückssache.

Allerdings, und das ist einfach Fakt, ist es mit weniger Shader auch deutlich weniger Leistung und vergleicht man es dann wiederum mit der Konkurrenz, die allseits bekanntlich noch in 40nm Produziert, so wäre die neue Architektur nicht so besonders gut aufgestellt.


WIE begriffsstutzig kann man eigentlich sein?? Die 7970 ist 4° KÜHLER als die 6970, die Leistungsaufnahme IDENTISCH und nach dem Tausch der WLP ist man grade mal 2,5dB lauter!! (und somit leiser als die 590). Summa Summarum ist die 7970 nicht besonders leise, aber im Rahmen und absolut vergleichbar zur 580/6970!!!

Da hat wohl einer in der Schule nicht aufgepasst.
2,5 db sind sehr viel ! Der Luftdruck verdoppelt sich dabei fast !!
Was das für ein Unterschied ist, kann man sich ja sogar hier auf CB anhören:
https://www.computerbase.de/downloads/audio-und-video/grafikkarten-lueftergeraeusche/

Und das man sich natürlich die Verlustleistungsmonster alla HD6990 und GTX590 als Referenz zur HD7970 heranzieht ist wirklich kaum von objektiver Intelligenz geprägt !! :freak:
Schön das die HD7970 leiser ist als die gängigen 300+ Watt-Dual-Karten, aber das ist für mich kein Grund stolz auf AMD zu sein ! :rolleyes:

Wenn die Leistungsaufnahme identisch ist, ist auch die Verlustleistung identisch. Das hat nix mit der erbrachten Leistung (in fps) zu tun ;)

Ganz genau !
Sie hätten einfach den Kühler der HD6970 hernehmen können. Haben es aber nicht.
Aber das muss ja schlussendlich niemand verstehen. :p
 
Zuletzt bearbeitet:
Viel wichtiger für mich ist doch die Frage. Was für Spiele kommen in Verbindung mit Direct X 11.1 raus ? Werde ich gegen über jemanden der ne DX 10 oder 11 Karte hat vorteile in der Grafik haben ? Sind die Karten überhaupt Stark genug um DX 11.1 Voll dar zustellen oder kommt wieder ein Update der Karten.
Es wird Spiele mit DX 11.1 geben, aber NV lässt das dann wieder wegpatchen weil sie nur DX 11 haben. :rolleyes:

Diesen Sprung erwarte ich auch von AMD, wenn die Q3/2012 eine 8970 bringen, sollte die min. 15-25% mehrleistung bringen. Bei weniger darf man von einere neuen Generation wohl entäuscht sein.
Den kleinen Sprung wirst du schon früher haben, da max OC Versionen der Hersteller das schon schaffen. An eine HD 8000 bei Kepler Start glaube ich nicht, das dauert jetzt ewig bis die 28nm Karten gut verfügbar werden. Bis Kepler da ist sind die HD 7000 vielleicht flächendeckend verfügbar.

Auf Geizhals ist die erste 7970 für 640€ gelistet.
Solange da nicht Alternate mit dem UVP aufschlägt hat das wenig zu bedeuten. Ich glaub die Karten werden Richtung 450€ gehen, vorausgesetzt AMD(TSMC) kann gut genug liefern.
 
Wie immer enttäuscht AMD.
NVidia bringt schnellstmöglich eine neue Grafikkarte, welche die AMD Konkurrenz komplett hinter sich lässt.
 
Kayzah schrieb:

Hast Du eigentlich nur ein Wort vom Test gelesen oder bist Du mit Deinen Binsenweisheiten gleich hier in den Kommentar-Thread gekommen!? :rolleyes:
 
Zuletzt bearbeitet von einem Moderator:
Manche tun so, als ob durch Kepler AMDs gesamte GPU-Generation gefährdet wäre. Dabei geht es hier doch lediglich um die Performancekrone bezgl. Single-GPU, die wiederum den Marktanteil nur lau beeinflusst. (bezieht sich auf #683)
 
@Falcon:
AMD holt Leistungskrone:
"Enttäuschend, bald holt sich nVidia die Leistungskrone zurück!"

6 Monate später


nVidia holt Leistungskrone:
"Ich hab's euch doch gesagt, AMD verpufft im Vergleich zu dieser Karte!"

6 Monate später


AMD holt Leistungskrone:
"Schwach AMD! Bald bringt nVidia wieder eine Karte, die alles in den Schatten stellt!"

6 Mona...
 
Wichtig ist nur, das alle kommenden Games dicke aussehen, und flüssig laufen der rest ist doch Wayne ob nVidia oder ATI ob amd oder intel man nimmt das. Was man man sich in dem Augenblick leisten kann. Ohne gegen irgend jemanden anzustinken. Es geht nur um Gaming Fun nicht mehr nicht weniger.:king:

P.S Aber abwarten tu ich troztdem auf den Kepler, und wenn er mir gefallen tut. Wird er gekauft :D
 
Zuletzt bearbeitet:
Vielleicht fuer dich... Aber wenn du Battlefield 3 fluessig spielen kannst, bringt das einem 3Ds Max user nix, da er stundenlang warten muss, bis der Render fertig ist. (Klar kommt es auch noch auf die CPU und RAM an). Wo die Power User aber eher auf Quadro oder AMD FX zurueckgreifen wuerden.

Ein Extremes Beispiel, aber Grafikkarten werden nicht nur zum gamen benutzt, auch wenn es der Hautpteil der User von Grafikkarten im 100 - 400 Euro Segment macht.

mfG, und Merry Christmas!
 
Naja die einzige frage ist, wie geht es weiter mit dem PC ? Wird ma Zeit für neue Grafik Gerüste gg. Wenn Retraycing ma flüssig laufen würde, dann wäre Gaming dick gg :D Dauert aber wohl noch 10 j oder so :P

P.s Und Consolen Ports nen bissel besser aufn PC zu machen lohnt doch garnicht, der PC braucht auch seine eignen dinge und sachen. Sonst hält die nägste Graka ja wieder 5j ;O
 
Mir ist die Karte viel zu teuer. Da ist man mittlerweile besser dran, sich eine 150 Euro Karte zu holen, damit zur Zeit alles flüssig zu spielen, 1-2 jahre warten und dann wieder 150 Euro ausgeben. Da hat man immernoch 150 Euro gespart, als wenn man sich jetzt die 7970 holt.

Der Preis von 450-500€ ist in meinen Augen auf keinen Fall gerechtfertigt. Ich habe eher das Gefühl, dass AMD die 6970 und 6950 da stehen lassen will, wo die jetzt sind und 7950 und 7970 einfach drüber stehen lassen. Ist ein super Preisgefüge und man braucht nicht dran rütteln.
Früher wurden die Karten "direkt" getauscht. Dieses mal sehen sie die Geldkuh :-(
 
allegoric schrieb:
Da ist man mittlerweile besser dran, sich eine 150 Euro Karte zu holen, damit zur Zeit alles flüssig zu spielen

Klar, flüssig auf 1280x1024 ohne AF/AA vielleicht... Ist der Tellerrand eigentlich so hoch bei manchen?:freak:
 
@allegoric:

Der Preis von 450-500€ ist sehr wohl gerechtfertigt (wenn er denn real wäre), da der direkte Konkurrent in Form einer GTX 580 derzeit auch nicht weniger kostet. Ich kann mich nicht daran erinnern, dass jemals eine Highend-Grafikkarte nach deren Veröffentlichung für deutlich weniger Geld zu haben war.

Was HD 6970 und HD 6950 betrifft, werden diese Karte bestimmt nicht mehr produziert, sobald die Ausbeute der 28nm-Fertigung gestiegen ist.

Früher wurden die Karten "direkt" getauscht.
AMD hat mit der Umbenennung der Enthusiast-Karten von x8xx zu x9xx gezeigt, dass sie nun ein anderes Preissegment ansteuern werden.
 
Kayzah schrieb:
Wie immer enttäuscht AMD.
NVidia bringt schnellstmöglich eine neue Grafikkarte, welche die AMD Konkurrenz komplett hinter sich lässt.

Unser bestes Pferd im Stall :evillol:


@Topic

nVidia wird es sehr schwer mit der 7970 haben. Denn wo jetzt noch die ganzen grünen Tellerrandfanboys rumflamen wie "langsam" die 7970 ist, wird die Situation bei Kepler Markstart eine ganz andere sein. AMD wird bis dahin locker 10-20% über Treiber rausgeholt haben, in manchen Fällen auch mehr. Allein das wird schonmal ein deutlicher Sprung, denn immerhin hat man hier ne neue Architektur, die muss man erstmal über Treiber optimieren. Vielleicht sind auch 30% drin, in Einzelfällen sicher.

Zweitens wird es OC Versionen oder eine 7975 geben. Die 7970 schafft oft schon 20% OC OHNE Spannungserhöhung! Das heißt bei fast gleichem Stromverbrauch 15-20% mehr Performance. Und schwubs ist in nem halben Jahr die 7970 50-90% schneller als ne GTX 580, je nach Spiel und Auflösung. Das wird ein harter Brocken, selbst für eine 1024 Shader GTX 780. Und die muss nV ersteinmal fertigen und kühlbar machen. Es ist gut möglich, dass AMD die Performancekrone über die ganze erste 28nm Gen hält. Wir sehen uns Ende 2012 wieder ;)
 
Bei Anno ist die 7970 auch jetzt schon 70% schneller ;)

Wenn erste Partnerkarten auf CB getestet werden (Anfang bis Mitte Januar hoffe ich ), kann ich mir schon sehr gut vorstellen, dass die Leistung im Vergleich zur 580 bereits spürbar anziehen wird.
 
Pickebuh schrieb:

Also kurz gesagt: Du hast deine Meinung, ich meine.

1. Bin ich nicht der Meinung, das GCN @ 40nm schlechter wäre als Caymen. Auf den gleichen Verbrauch gelevelt, wären Unterschiede da, aber alles in allem wäre GCN wohl ziemlich gleichschnell, wenn nicht schneller. Ist aber mühselig zu diskutieren, denn keiner von uns wird das je "beweisen" können, denn es gibt keinen GCN @40nm, genausowenig wie es einne HD6k @ 28nm gibt

2. Die 5D/4D-Shader waren zwar gut zum Zocken, aber relativ ungeeignet für GPGPU. Eigentlich nur aus diesem Grund wurde GCN eingeführt. Somit wäre es sinnlos gewesen, die 4D-Shader weiter zu shrinken, da dies AMD nicht weitergeholfen hätte, was GPGPU angeht. Genausowenig wie GCN erstmal auf kleinen Karten zu testen. Dann hätte man wieder eine Generation verschenkt, bei denen die GPGPUler dann lieber zu NVIDIA gegriffen hätten. Denn diese Leute kaufen mit Sicherheit kein Lowend. Und Jahre wird AMD auch nicht brauchen, um GCN auf Spiele zu optimieren, aus meiner Sicht sehen die Ergebnisse schon sehr brauchbar aus (siehe Anno). Ausreißer die nicht so gut unterwegs sind, wird man auch noch einfangen.

3. Nochmal zur Lautstärke: 2,5dB sind fast nichts. Erst bei 10dB tritt eine gefühlte Lautstärkeverdoppelung ein. Bei 3dB verdoppelt sich nur der Schalldruck.

Was daran so schwer zu verstehn ist, das AMD sogar einen verbesserten Kühler auf die Grafikkarte (im Vergleich zur 6970) gesetzt hat, der bei gleicher Verlustleistung den Chip einfach mehr kühlt und dadurch lauter ist, kann ich nun wirklich nicht mehr begreifen. Aber ist auch früh am Morgen...
 
Von einem besseren Kühler zu sprechen nur weil die Temperaturen bei höherer Lautstärke niedriger sind halte ich für gewagt. Ob der Kühler deswegen gleich schlecht ist muss jeder selbst entscheiden. Meiner Meinung nach hätte es der 6970-Kühler (evtl mit leichten optimierungen) auch getan. Es gibt immer noch genug Leute die sich so eine Karte ohne extra Kühler kaufen.

Seit ich meine 580 unter den Shaman gesetzt habe gehöhre ich nicht mehr dazu ;)
 
Also, ich finds ja gut, dass es das ZCP Feature gibt. Aber ein bisschen schade ist es, dass das System bei abgeschaltetem Monitor (also gar keine Grafikdarstellung mehr) immer noch mehr verbraucht, als die integrierte Intel-Grafik im idle, also bei Darstellung des 2D-Desktops.
Trotzdem ist die Herabsenkung des Idle-Verbrauchs gegenüber der Vorgängergeneration sehr erfreulich.
 
Zuletzt bearbeitet:
Wenn die Leistung unter Battlefield 3 so wäre wie unter Anno dann wäre es eine gute Karte,eine gute Generation.
Aber in allen Spielen wo wirklich Grafikpower gefordert wird ist die Karte ein klarer Flop.

Und jeder mit langjähriger Erfahrung weiß dass.
 
Zurück
Oben