P
Pickebuh
Gast
KAOZNAKE schrieb:1. Technisch durchaus möglich. Wirtschaftlich sinnvoll? Vielleicht. Bei der 480 hats grad so funktioniert.
Wollen wir also eine GTX480 zurück ?
Ich glaube kaum, das jemand sich dies wünschen würde !
Hätte AMD die HD7970 noch in 40 nm fertigen lassen müssen, so würde sie nur mit deutlich weniger Shadern funktionieren, ohne das man eine neue PCIe-Spezifikation mit der maximalen Watt-Leistung in Auftrage geben müsste.
![Cool :cool_alt: :cool_alt:](/forum/styles/smilies/cool.gif)
2048 Shader sind nur Dank dem 28nm-Fertigungsprozess möglich. Finde ich auch klasse, das AMD die ersten sind, die 28nm-Karten auf den Markt werfen.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Aber in meinen Augen wurde dieser Vorsprung in der Fertigung komplett verhunzt.
Sie hätten für die High-End-Karten ruhig noch ihren lang bewährten und durch getesteten sowie treiberoptimierten Northern Islands mit 3000+ 4D-Shader oder mehr auf den Markt werfen sollen.
Dadurch würde die Leistung durchgehend 50-60% steigen in manchen Fällen sogar bis zu 100% mehr Leistung erzeugen (optimistisch geschätzt natürlich).
Ihre neue Architektur hätten sie dann in den kleineren Ablegern testen und optimieren können und gegebenenfalls wieder verwerfen.
AMD hat alles auf ein Pferd gesetzt und benötigt nun zur Optimierung wieder Jahre der Reifung.
2. Weil TSMC den 32nm Prozess gecancelt hat. Blöd das AMD quasi schon fertig war mit der Entwicklung (Tapeout) und sich fix was neues überlegen musste!
So ist eben der Markt, wo man nur einen Fertigungslieferanten hat.
Mir geht es nicht darum, das AMD wegen TSMC Probleme hatte ihre neue Architektur marktreif zu bekommen.
Mir geht es darum, das ihre neue Architektur keinesfalls das Rad neu erfinden, so wie es von so manchen hier propagiert wird. Ihre neue Architektur ist schlechter als ihre Alte und alles andere als effizient. Das was effizient ist, ist eben einzig und allein die Strukturverkleinerung von 40 auf 28 nm.
3. Hätte schon funktionieren können, aber dazu braucht man eben auch genug Zeit, die man aufgrund der kurzfristigen Absage von 32nm nicht hatte. Die aktuelle Architektur kann man problemlos auf 40nm verwenden, halt nicht problemlos in so einer starken Ausbaustufe
Meine Rede.
Die neue Architektur ist schlechter als die Alte, wird aber Dank der Ausbaufähigkeit des neuen 28nm Fertigungsverfahren komplett kompensiert. Ohne die neue Fertigungsmöglichkeit, wäre die HD7970 ein Epic Fail !!
Schade, das AMD da soviel Potenzial verschenkt.
![Traurig :( :(](/forum/styles/smilies/frown.gif)
4. Wegen der 580 musste AMD sicher nix auf die Beine stellen, durch die 6990 hatte man die problemlos im Griff und auch sonst war und ist man durch die Bank besser aufgestellt. Wie gesagt war die HD6k schon in 32nm fertig entwickelt, AMD könnte gar nicht in so kurzer Zeit auf eine Grafikkarte reagieren so nach dem Motto: "Ups, die haben was schnelleres gebracht, los schraub mal schnell was zusammen und brings nächste Woche unters Volk". So ein Käse!!!
Nö, nur die HD6000 Serie im halb fertigen Southern Islands Produkt, welches dann schnell auf Northern Island umbenannt worden ist und ein Zwischenschritt zur Southern Island darstellen sollte.
Sie wussten, das ihre neue Architektur ohne neuem Fertigungsverfahren nicht besonders positiv dasteht. Deshalb den Zwischenschritt noch in 40nm mit den alten Shader allerdings auf 4D kastriert.
So etwas geht relativ schnell 6 Monate Entwicklung + 3-6 Monate Tapeout und vola die HD6000 ist gebohren.
5. Siehe oben. Reiner Spekulatius deinerseits. Ich sehe bei Anno bis zu 70% Vorsprung mit der neuen Architektur ggü. der 6970, die neue Architektur hätte also auch in 40nm Vorteile gebracht. Ausreißer bei denen es keinen Vorsprung gibt, lassen sich durch viele Argumente begründen, vielleicht sind da die 5D-Shader einfach voll ausgelastet und einfach genauso schnell, oder hier hats noch Treiberprobleme.
Kleiner Widerspruch von dir ?
Bei Punkt 3 hast du es noch bestätigt und nun siehst du es als reine Spekulation an ?
Fakt ist einfach, das die neue HD7970 ohne 28nm ein riesen Flop wäre.
Das ist weder spekuliert noch frei erfunden. Der Beste Beweis ist unter Punkt 4 zu erkennen.
AMD hat erst bei 28 nm ihre neue tolle Architektur auf den Markt bringen können.
Alles andere wäre zum Gespöt der Leute geworden !
Das Anno so gut funktioniert ist wohl das Best-Case-Szenario. Warum da die Architektur so gut funktioniert und bei anderen Spielen deutlich unterhalb der GTX580/570 agiert, ist wohl reine Glückssache.
Allerdings, und das ist einfach Fakt, ist es mit weniger Shader auch deutlich weniger Leistung und vergleicht man es dann wiederum mit der Konkurrenz, die allseits bekanntlich noch in 40nm Produziert, so wäre die neue Architektur nicht so besonders gut aufgestellt.
WIE begriffsstutzig kann man eigentlich sein?? Die 7970 ist 4° KÜHLER als die 6970, die Leistungsaufnahme IDENTISCH und nach dem Tausch der WLP ist man grade mal 2,5dB lauter!! (und somit leiser als die 590). Summa Summarum ist die 7970 nicht besonders leise, aber im Rahmen und absolut vergleichbar zur 580/6970!!!
Da hat wohl einer in der Schule nicht aufgepasst.
2,5 db sind sehr viel ! Der Luftdruck verdoppelt sich dabei fast !!
Was das für ein Unterschied ist, kann man sich ja sogar hier auf CB anhören:
https://www.computerbase.de/downloads/audio-und-video/grafikkarten-lueftergeraeusche/
Und das man sich natürlich die Verlustleistungsmonster alla HD6990 und GTX590 als Referenz zur HD7970 heranzieht ist wirklich kaum von objektiver Intelligenz geprägt !!
![Freak :freak: :freak:](/forum/styles/smilies/freak.gif)
Schön das die HD7970 leiser ist als die gängigen 300+ Watt-Dual-Karten, aber das ist für mich kein Grund stolz auf AMD zu sein !
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Wenn die Leistungsaufnahme identisch ist, ist auch die Verlustleistung identisch. Das hat nix mit der erbrachten Leistung (in fps) zu tun![]()
Ganz genau !
Sie hätten einfach den Kühler der HD6970 hernehmen können. Haben es aber nicht.
Aber das muss ja schlussendlich niemand verstehen.
![Zunge rausstrecken :p :p](/forum/styles/smilies/tongue.gif)
Zuletzt bearbeitet: