News Finale Spezifikationen der AMD Radeon R9 290 und 290X

reapy0815 schrieb:
Ich glaube, AMD reißt sowohl bei CPU als auch GPU immer mehr das Ruder rum. Wünschen würde ichs den Jungs allemal.

Du glaubst dies auf welcher Basis? Intel CPU's mit HT laufen absolut top in Bezug auf 8-Kern optimierte x64 Anwendungen und die Fakten zur 290X sind quasi nicht existent (Preis, Leistung, OC-Eigenschaften). Und ob Mantle irgendwas bewirkt oder sich überhaupt etabliert, sieht man in 1-2 Jahren. Ein "rumreißen" kann ich hier nicht erkennen, eher ein neues & interessantes Konzept.

Ich bin ebenfalls sehr gespannt auf die 290X, aber ich denke nicht, dass wir hier das große Wunder zu kleinem Preis bekommen. Vielleicht kann man in BF4 oder anderen Mantle Games etwas gegenüber NV rausholen, aber generell ist das garantiert keine Wunderkarte. Aber wir lassen uns überraschen ;)
 
Zuletzt bearbeitet von einem Moderator:
AMDs Konkurrenz - also Intel und Nvidia - steht es angeblich frei, das Mantle-API mit eigenem Treiber zu unterstützen, da AMD die Schnittstelle offen konzipiert haben soll (nicht aber Open Source). Auch eine Unterstützung von Linux und somit den Steam-Gaming-Maschinen durch das Mantle-API ist wahrscheinlich, wenngleich sich AMD hierzu bisher nicht geäußert hat. Vielleicht gibt es auf der APU13 neue Informationen zu diesem Thema, denn für die Developer Summit im November hat AMD weitere Details zum Mantle-API angekündigt.
 
@txcLOL: Ja, so in der Richtung hab ich das ja gemeint :)
Ich wollte nicht mit Intel oder Nvidia vergleichen.
Aber was AMD im Moment macht gefällt mir wirklich gut.
Ich überlege, meinen Rechner abzuschaffen, da ich nicht mehr spiele.
Und ein Office-PC auf APU Basis wäre wirklich interessant. Ich muss mir da mal Gedanken machen :)

Edit: Nein an die Wunderkarte glaube ich auch nicht. Letztendlich kochen ja doch alle nur mit Wasser ;)
 
Also ich freu mich wie nen keks ;)!
Ich gönne es amd und hoffe das ihre taktik mit mantle aufgeht :)
 
aylano schrieb:
Wir sind überhaupt nicht einer Meinung, und dass du mein Zitat für deine Meinung missbrauchst, ist mir überhaupt nicht recht.
Dass wir überhaunpt nicht einer Meinung sind, erkennt man eben daran, dass du mir Beschimpfung & Co unterstellst.
Und genau das verstehst du nicht und regierst wieder nur emotional.

Wer war denn der, der mit dem "blinden Huhn" angefangen hat? Du oder ich?

Was unsere Argumentation angeht, kann man die wesentlichen Differenzen doch in den Punkt sehen, dass du meinst (oder bis vor Kurzem meintest), dass auf der selben Strukturgröße einfach keinen wesentlichen Leistungssteigerungen möglich sind. Du meintest, dass es nur darauf ankommt möglichst viele Transistoren auf möglich kleiner Fläche unterzubringen.

Das sehe ich anders und bin damit auch nicht allein. Dr. John Gustafson von AMD sieht das zufällig genauso wie ich, dass es heutzutage primär auf Optimierungen der Architektur ankommt, die es überhaupt erst möglich machen, die kleineren Strukturgrößen auszunutzen.

Außerdem sehe ich es so, dass eine Karte mit GTX780-Leistung zum GTX780-Preis schlicht und einfach keinen Sinn ergeben würde. AMD wäre bescheuert ein halbes Jahr nach der GTX780 mit sowas anzukommen. Und anders als du sehe ich in TrueAudio und Mantle (das ja bei allen GCN-GPUs funktioniert) keine absoluten Killerfeatures, die es rechtfertigen würden, eine ansonsten nicht bessere oder günstigere Karte vorzuziehen.
 
Zuletzt bearbeitet:
@Metera
Wo wird denn Mantle gehyped? Der Ansatz ist einfach genial. Hoffe nur die Rechnung geht auf.
 
@deathscythemk2

Der Ansatz von Mantle ist nicht neu. Das wurde schon zu Urzeiten der 3D-Beschleuniger z.B. mit Glide (von 3Dfx) ganz genauso gemacht. Letztlich haben sich damals aber doch die abstrakteren APIs OpenGL und Direct3D durchgesetzt, weil die herstellerunabhängig funktionieren.

Das würde Mantle ganz genauso ergehen, wenn es nicht die neuen Spielkonsolen gäbe, die wie AMDs aktuelle Desktopkarten und APUs auf GCN-GPUs setzen und sowieso hardwarenah programmiert werden müssen, um überhaupt genug Leistung aus der (im Vergleich mit Gaming-PCs) eigentlich recht bescheidenen Hardware herauszukitzeln.

Das Besondere an Mantle ist also nicht das Konzept oder die Umsetzung, sondern der Umstand, dass es sich über Konsolenportierungen tatsächlich auch auf dem PC etablieren könnte.
 
da macht wohl nur die 290er sinn wenn man was geiles neues im rechner braucht. die xer wird zu teuer und die kleineren modell sind ja oller aufgewärmter eierkuchen
 
Herdware schrieb:
Letztlich haben sich damals aber doch die abstrakteren APIs OpenGL und Direct3D durchgesetzt, weil die herstellerunabhängig funktionieren.

Nicht nur das. Mit abstraktionen lässt sich oft besser und schneller arbeiten. Außerdem werden die möglichen Fehler reduziert wenn Abstraktionen genutzt werden.
Es gibt ja auch gute Gründe warum nicht jeder in Assembler programmiert. Abstraktionen erleichtern einem auch dort den Alltag. Daher fragt ich mich beim Thema Mantle hauptsächlich wie kompliziert und zeitaufwändig die Programmierung wird, ob Hersteller diesen Aufwand nicht scheuen und wie es um Bugs bestellt ist.

Ob es Multiplattformentwicklungen tatsächlich vereinfacht? Kommt hier (ironischerweise) auch auf den Abstraktionsgrad an.
 
maximus_hertus schrieb:
Nein. 1 Modul = 1 FPU = 2 Integercores = 2 "AMD Kerne"
2 Module = 2 FPUs = 4 Integercores = 4 "AMD-Kerne" usw.

Wobei sich die FPU meines Wissens auch teilen läßt in 2x"einfache Genauigkeit".

AMD hat immer innovative, hervorragende Dinge entwickelt, aber am Ende die Produkteinführung mit irgendeinem Mist vergeigt. Aktuell ist es wohl die Befehlsqueue, die das schöne Design ausbremst.

Erschrenkend ist, dass die integrierten GPUs von intel derzeit so rasend schnell aufholen.

Mantle soll lt. c´t unabhängiger von Windows machen, weshalb SteamOS wohl daran interessiert ist. Aus diesem Grunde ist AMD auch nicht abgeneigt intel und nVidia mit ins Boot zu holen.
Wenn Windows nicht die einzig echte Spieleplattform wäre, hätte Linux bereits eine deutlich weitere Verbreitung gefunden.
 
Zuletzt bearbeitet:
@Herdware
Ja der Umstand ist mir bekannt. Aber soweit ich weiß, funktioniert Glide gerade nicht genauso wie Mantle, auch wenn es natürlich vom Ansatz gleich ist. Außerdem geht es hier nicht nur um Mantle sondern das Gesamtpaket inkl. GCN etc. Das ist endlich mal wieder ein großer Schritt in der Gesamtentwicklung, auch wenn ich es natürlich auch kritisch sehe, dass es nicht "open source" ist.
 
Herdware schrieb:
Das sehe ich anders und bin damit auch nicht allein. Dr. John Gustafson von AMD sieht das zufällig genauso wie ich, dass es heutzutage primär auf Optimierungen der Architektur ankommt, die es überhaupt erst möglich machen, die kleineren Strukturgrößen auszunutzen.
Auf die Gefahr, dass ich wegen dir wieder Verwarnt werde, kann ich mir nur wiederholen.
Du Argumentierst nicht, sondern meinst. Das ist nicht das selbe, außer in der Schule und im verblödungsfernsehen.
Wenn du das gleiche siehst, wie Dr. John Gustafson, dann zitiere es raus und zeigt und seine Zahlen.

Eine Linke in den Raum zu werfen, ohne zu zitieren ist fast so sinnlos, wie keinen link zu bringen, weil ich ja nicht weiß, welche Aussage du meinst.

Wenn Hawaii in der Architektur effizienter ist als Thaiti, dann ist es auch kein Beweis bzw. Indiz für deine Aussage.
Denn GK110 ist genauso effizienter wie GK104, aber eben die selbe Architektur.

Die Logik in dieser Aussage von Dr. John Gustafson liegt daran, dass in Zukunft nicht mehr solche Steigerungen in der Fertigungen möglich sind, sodass die Architektur-Steigerungen daher wichtiger werden.

Weiters kannst du nicht wissen, welches Ziel AMD mit Hawaii genau gehabt hat.
Denn wenn man 512-SI sowie 4 Rasterizer & 4 Tesselation-Units sowie 48 Rops (= +50%) einbaut, dann wären 48 CUs mit 3072 Shadern nicht nur auch sehr einfach gewesen, sondern hätte das selbe Rops & Shadern-Verhältnis wie @ Thaiti gehab (4 CUs pro Rops-Unit).

Nebenbei hätte Hawaii schneller sein können. Aber aus irgendwelchen Gründen machten sie es nicht, was offensichtlich zeigt.
Wäre die Performance-Steigerung soooooo wichtig, wie du es ständig sagts, dann hätten sie es gemacht.
Daher ist deine Aussage schnell falsch, wenn du nur die Karte über <30 oder >30% nichtnachvollziehbar beurteils, wenn AMD ganz andere Prioritäten hat.

Und die liegen offensichtlich in dem schnellen bringen von GCN 2.0.
Denn 512-SI für 425mm² ist schon fast ineffizient. Das würde aber nicht so sein, wenn Hawaii ursprünglich für 20nm mit 64-Shadern geplant war.

Daher muss man auch verstehen, dass die Geschwindigkeit & Markteinführung von Architekturen auch eine wesentliche Leistung ist und nicht nur primitive Performance-Balken, wo man Grafikkarten vergleicht, deren Einführung 14 Monate auseinander lagen.

Herdware schrieb:
...... , dass du meinst (oder bis vor Kurzem meintest), dass auf der selben Strukturgröße einfach keinen wesentlichen Leistungssteigerungen möglich sind. Du meintest, dass es nur darauf ankommt möglichst viele Transistoren auf möglich kleiner Fläche unterzubringen.
Das ist falsch.
Ich sagte, dass möglichst viele Einheiten untergebracht werden können.
Also ist bei einer neuen Architektur die Transistoren-pro-mm² ein wichtiger Faktor.
Aber große Sprünge genau in diesem Bereich sind selten. Du hingegen glaubst, dass sie oft vorkommen, was deine Erwartungen völlig übertreibt und somit nichtnachvollziehbar macht.
 
Mantle hin oder her... amd beliefert die 2 großen konsolen und hat somit extrem viel werbung für mantle. Ich denke schon das es sich etablieren wird. Natürlich ist es riskannt von amd. Aber wenn es sich durchsetzt dann haben sie sichs verdient. Denn solche konzepte hat nvidia selten. True audio sehe ich ebenfalls als sehr guten ansatz ;)
 
Es laufen alle Spiele auch auf den Karten des letzten Jahres auf ULTRA Einstellungen flüssig. ...und bitte kommt nicht mit dem 4K Argument.

Naja, ich kenn sogut wie KEIN SPIEL, das flüssig läuft in den höchsten(!) Einstellungen - auch nicht "nur" in FullHD.
Da sind dann selbst 2x Titan zu wenig.
Stichwort Antialiasing (genauer: SG/OG-SSAA).
Und da reicht einfach kaum/keine erdenkliche Kombination.

Dazu noch ggf. Mods oder noch mehr Auflösung beim Monitor (muss ka kein 4k sein, da ist eh Schluss mit allem).

Also: Tellerrand (auch wenn es nur ein einziges Spiel/Gegenbeispiel gibt!).

Wenn ich natürlich in 640x480 in niedrigsten Details spiele, dann laufen auch meistens (es gibt bestimmt eine/zwei Ausnahmen;)) alles flüssig.
 
aylano schrieb:
Die Logik in dieser Aussage von Dr. John Gustafson liegt daran, dass in Zukunft nicht mehr solche Steigerungen in der Fertigungen möglich sind, sodass die Architektur-Steigerungen daher wichtiger werden.

Weiters kannst du nicht wissen, welches Ziel AMD mit Hawaii genau gehabt hat.
Denn wenn man 512-SI sowie 4 Rasterizer & 4 Tesselation-Units sowie 48 Rops (= +50%) einbaut, dann wären 48 CUs mit 3072 Shadern nicht nur auch sehr einfach gewesen, sondern hätte das selbe Rops & Shadern-Verhältnis wie @ Thaiti gehab (4 CUs pro Rops-Unit).

Nebenbei hätte Hawaii schneller sein können. Aber aus irgendwelchen Gründen machten sie es nicht, was offensichtlich zeigt.

Nebenbei nähern wir uns so langsam der 10.000.000.000 Transistoren/GPU Marke an. Diese Marke wird mit Sicherheit mit dem 20nm Prozess geknackt.
So einen Prozesor kann man heutzutage nicht einfach mal so nebenbei produzieren... Das sollte jeder verstehen.
Auch ein Grund warum Titan so teuer ist ;)
Ergänzung ()

SaarL schrieb:
Naja, ich kenn sogut wie KEIN SPIEL, das flüssig läuft in den höchsten(!) Einstellungen - auch nicht "nur" in FullHD.
Da sind dann selbst 2x Titan zu wenig.
Stichwort Antialiasing (genauer: SG/OG-SSAA).
Und da reicht einfach kaum/keine erdenkliche Kombination.

Dazu noch ggf. Mods oder noch mehr Auflösung beim Monitor (muss ka kein 4k sein, da ist eh Schluss mit allem).

Also: Tellerrand (auch wenn es nur ein einziges Spiel/Gegenbeispiel gibt!).

Wenn ich natürlich in 640x480 in niedrigsten Details spiele, dann laufen auch meistens (es gibt bestimmt eine/zwei Ausnahmen;)) alles flüssig.

Es gibt Leute, für die ist 25FPS flüssig,
Bei anderen muss es 60+ FPS sein ;)
 
john carmack schrieb:
Nebenbei nähern wir uns so langsam der 10.000.000.000 Transistoren/GPU Marke an. Diese Marke wird mit Sicherheit mit dem 20nm Prozess geknackt.
So einen Prozesor kann man heutzutage nicht einfach mal so nebenbei produzieren... Das sollte jeder verstehen.
Auch ein Grund warum Titan so teuer ist ;)
Ob es 1. Mrd. Transistoren sind oder 10 Mrd. Transistoren, ist es doch bei einem Zwei-Jährigen Fertigungs-Rythmus mit je Transistoren-Verdopplung ziemlich egal.
Hawaii mit 4072 Shader wäre in 20nm auch nicht besonders groß und mit 48 CU statt 44 CU wäre ein Hawaii auch nur so 22mm² größer ala (450mm² statt 448mm²).
Falls sich ein Hawaii mit 4 Grafik-Engines und somit 4 Rasterizer & 4 Tesselation-Units bestätigt, dann wäre der aktuelle Hawaii auch nur ein mit 20 CU abgemagerter Hawaii @ 20nm, wo es ja die 4092 Shadergerüchte gab.

So ein 64-CU-Hawaii @ 28nm hätte kein Die-Größen-Problem sondern ein Stromverbrauchsproblem.
Denn ein 44 CU-Hawaii @ 28nm ist so 430mm² große und 20 CU wären mit 5,5 mm² so 110mm² Groß, was gesamt mit 540mm² eben quasi-Exakt wie GK110 machen würde.

Damit wäre so ein 64CU-Hawaii doppelt so große wie ein 32nm-Thaiti.
Aber weil der Thaiti schon so 220-250W hat, sind große Stromverbrauchsteigerungen nicht möglich und deutlich schon garnicht, vorallem weil der Stromverbrauch viel mehr mit den Einheiten skaliert, als z.B. die Die-Größe mit den Einheiten.

Titan hat ja neben den Yields & Die-Größe ja noch andere Probleme. Und zwar hat jede Firma nur begrenzte Wafern-Anzahlen.
Deshalb müssen sie eben mit Titan-Wafern sehr sparsam umgehen. Denn sonst hätten sie Tegra 4 (ebenfalls 28nm) eben noch später rausbringen müssen, hätten sie Titan billiger angeboten.

Aus diesem Grund sind diese Yieldprobleme eben so problematisch, weil sie auf grund der Begrenzungen schnell zu Kapazitätsproblemen führen. Genau dieses Problem wird auch ein 550mm²-GM110 haben, wenn sie in auch so machen.

Eigentlich wird es nächstes Jahr für Nvidia zur Pflicht, so wie bei AMD im Einführungsjahr einen 350mm²-High-End-Chip mit GPGPU-Einheiten zu bringen und im Fertigungs-Refresh-Jahr dann mit 550mm², weil es sehr wahrscheinlich zu lange brauchen wird, bis so ein 550mm²-Chip dann wirklich für Quadro & Tesla & Geforce ausgereift ist. Der Zwang kommt eben davon, weil AMD mittlerweile so gute FirePro-Treiber haben, dass die FirePro-Karten schon gleich nach den Game-Karten rausbringen können.
Seitens Tegra muss diesesmal Nvidia von anfang an auf 20nm setzen, weil die Tegra 3 -Strategie nicht mehr funktioniert.

Also, bei Nvidia wird es nächstes Jahr noch schwieriger Große Dies zu günstigen Preise rauszubringen als es bei 28nm war.
Natürlich hat AMD das selbe Problem, aber AMD muss mit Kabini nicht gegen 20$-ARM-Chips konkurrieren sondern nur gegen 50-100$-Intel-CPUs. Ähnliches gilt für APUs, während bei GPUs Nvidia eben auch mit 20nm-Wafer eingeschränkt sein wird.

Die Besonderheit bei 20nm wird diesesmal sein, dass 14nm bzw. 16nm-FinFET gleich 1 Jahr danach kommt, was gerade für Nvidia Schwierigkeiten bereiten, wenn der Gx100-Chip schon über 1 Jahr braucht, weil dann AMD schon längst auf 14/16nm-FinFET umsteigen kann, wenn Nvidia gerade ihr Big-Die @ 20nm rausbringt. Deshalb bin ich mir garnicht sicher, ob es in 20nm überhaupt >400mm²-Dies geben wird.

AMD-Seits bräuchte nur den Hawaii @ 4096 Shadern bringen und trotzdem wäre er nur so 350-400mm² @ 20nm groß.
Und wenn diesen Chip in Betracht zieht, versteht man auch, warum AMD beim 28nm-Hawaii nur 44 statt 48-CU verwendete.

Thaiti-2048 ---> Hawaii-28nm-2816 ---> Hawaii-20nm-4096
100% ----> +37 -------> 137% ------> +45% ----> 200%

Thaiti-2048 ---> Hawaii-28nm-3072 ---> Hawaii-20nm-4096
100% ----> +50 -------> 150% ------> +33% ----> 200%

Also, man sieht, dass ein 28nm-Hawaii mit 44CU viel besser in die Zukunft passt, als ein 48 CU-Hawaii, weshalb ich Annehme, dass dies der offensichtliche Grund ist, warum Hawaii @ 28nm nur mit 44 CU und nicht 48 CU kommt.

Natürlich könnte AMD beim so 350mm²-GPU @ 20nm genauso noch 4 CU (+6,5%) oder 8 CUs (+13%) angehängen und so den Hawaii-Chip @ 20nm weiter weg von einem möglichen 48 CU-Hawaii @ 28nm zu bringen.
Das Problem wäre einerseits die Auslastung des 17 oder 18. CU pro Grafik-Engine und andererseits die Yield & Wafer-Kapazitätsprobleme @ 20nm durch den größeren Die, die eine Verspätung verursachen könne oder eine Frühe Einführung verhindern können.

Seitens Nvidia wird es schwieriger, wenn sie mit einem 550mm²-Ultra-Die noch ordentlich zulegen können. Denn dann wäre es nicht mehr so einfach, den 550mm²-Die mit einen fast halbsogroßen 300mm²-Die zu übertrumpfen. Dieses Problem hat AMD dann nicht, weil ihr Big-Die nur so 430mm² groß ist und nicht bis aufs letzte ausgereizt wird.
 
Warum hat jede Firma nur begrenzte Wafer (n = ?) Anzahlen?
 
Panerai schrieb:
Warum hat jede Firma nur begrenzte Wafer (n = ?) Anzahlen?
Weil die Wafer-Tools einerseits eine bestimmte Anzahl an Wafern auspuckt, andererseits die bestimmte Anzahl der Wafer nicht den Wafer-Bedarf abdecken kann.
Begrenzt ist nicht (n= ?) sondern (n-Vorhanden/Möglich < n-Bedarf)

Genau aus diesem Grund, kam Tegra 3 nur in 40nm statt 28nm, obwohl im Selben Monat schon GTX 680 @ 28nm vorgestellt wurde.
Und man kann natürlich 3 mal raten, welches von beiden so 100mm² oder 300mm²-Die einfacher zu produzieren ist und dann nochmals 3 mal raten, warum doch 300mm²-Produziert ist.

Damals konnte Nivida sehr gut mit Tegra 3 (Quad-Core @ 40nm) gegenüber High-End-Konkurrenten (Quad-core @ 28nm) profitieren, weil die Konkurrenz mit ihren 28nm-Quad-Core eingeschränkt war und Nvidia eben mit Tegra 3 den Restlichen Bedarf abdecken konnte. Und im 1Q 2013 war dann der Punkt, wo die Konkurrenz mit 28nm-Dies schon die kompletten Quad-Core-Bedarf abdecken konnte, sodass Nvidias-Tegra 3-Verkäufe zuerst um 40% und dann um weitere 50% eingebrochen sind, sodass sie innerhalb von 2 Quartalen dann -70% erreichten.

Und genau solche Probleme haben eben Auswirkungen, wann Produkte genau eingeführt werden.
Sowohl bei Nvidia (GK104 @ April 2012 bis Juni-2013 @ Tegra 4) dauerte die gesamte 28nm-Produkt-Einführung bei TSMC ganze 15 Monate. Bei AMD (Thaiti @ Januar 2012 bis April-2013 @ Kabini-Embedded) genauso, wobei Kabini & Temash 3 Monate später kamen und man diese eigentlich auch dazuzählen muss.

Und wenn man diese beschränkten Wafer-Liferungen (auch genannt Lieferengpässe) von 15-18 Monaten versteht und die Ankündigungen von 14nm/16nm kennt, die nur 12 Monaten sind, dann wird man vielleicht langsam verstehen, welche Probleme/Herausforderungen Nvidia & AMD 2014 mit 20nm haben wird.

Aber genau diese 20nm-Liefersituation hat dann auch Auswirkungen auf die Hawaii gehabt, weil man in 20nm eben einen guten Kompromiss von Einführungszeitpunkt & Yields und Performance-Steigerungen zum Vorgänger & Nachfolger finden muss.

Deshalb wird der Hawaii den wesentlich Erfolgreicher als viele Denken, wenn er mindesten selbe Titan-Performance hat.
Denn die Chance ist sehr groß, dass 2014 nur so 350mm²-Dies für den Massen-High-End-Markt (= <600$) möglich sind.
Und da wird es AMD mit ihren 420mm²-Vorgänger eben wesentlich einfacher haben, 2014 mit einem 20nm-High-End-Produkt draufzulegen, als Nvidia mit ihren 550mm²-Vorgänger, vorallem wenn sie einen Ultra-Titan bringen.
2015 geht der Spaß mit 16nm-FinFET bzw. 14nm-FinFET vom neuem Los, deren Cunsumer-Design-Start schon nächstes Quartal beginnen soll.
 
Zurück
Oben