News AMD bestätigt Hawaii-GPU in 28 nm

Tidehunter schrieb:
Die Toxxic ist schon übertaktet und muss noch mehr im takt gehoben werden damit sie die titan einholt. Die taktsteigerung von fast 50%(!) ist dafür nötig. Dabei explodiert der Verbrauch udn die abwärme. Alles in allem kostet sie für den verbrauch und die tatsache dass der speicherausbau unnötig ist am ende einfach zu viel.

wo sind 1200Mhz zu 1380Mhz = 50% mehr Takt?

Mensch Leute... ein wenig % Rechnung sollte man schon beherschen!
Kein Wunder das die Jugend heut zu tage so verdummt ist...
 
Zuletzt bearbeitet:
Thanok schrieb:
Den angepeilten Preis hätten sie wohl bei 20nm nicht halten können. Ich lasse mich mal überraschen was AMD da aus dem Hut zaubert. Auf jeden Fall sollte dass doch noch für ein wenig Preiskampf sorgen.
Der Preis wäre nur ein, aber auch kurzfristiges Problem.
Denn die Großen Gewinne machte AMD bei HD 7970 und HD 5870 ab dem 2. Quartaln, während der erste Quartal kaum in den Finanzen zu spüren war.
Größeres Problem ist der große R&D-Zeitaufwand, wenn man nachher zur Yield-Verbesserung aufwenden muss. Genau bei R&D ist AMD sehr beschränkt und sie müssen eben langfristig Denken, wenn man mit ARM & Bobcat & GPUs & Bulldozer eben 4 Chip-Architekturen sowie deren Verschmelzungen am Markt bringen will.

Zusätzlich hängt das auch von der Konkurrenz-Situation ab.
Denn wenn Nvidia in naher Zukunft mit einem schnelleren @ 20nm kontern könnte, würde sich eine High-End @ 28nm eben nicht auszahlen.
Wenn man in Idealfall mit der alten Fertigung schneller ist als die Konkurrenz, dann kann man sie erst recht mit der alten Fertigung bei Bedarf unter Druck setzen und beim 20nm-Weseln die Passive Rolle spielen.

Aber so wie ich den Rory-Read kenne, geht es in erster Linie darau, die neusten Chip-Architekturen, möglischt schnell & unproblematisch am Markt zu bringen.

Thanok schrieb:
Ich hoffe nur dass "sehr effizient" sich nicht auf den Vergleich zu den Tahitis bezieht. Denn, auch wenn ich dann von Rationalen-Bewerter-Boys Schläge bekomme, Tahiti ist nun wirklich keine sonderlich effiziente GPU; dies wurde allerdings durch den Release vor Kepler ganz gut verdeckt.
Natürlich ist Thaiti @ Games etwas ineffizient, weil es ein vollwertiger GPGPU-Chip ist, die mit ECC & hoher Double-Precise-Performance im HPC-Markt eingesetzt werden kann. GTX 680 ist eine reine Game-Grafikkarte.
Die große Stärke des Thaiti (DP-Performance @ Double-Precise) hatte man ja nur nicht sehen können, weil die Treiber die ersten 3 Quartale noch keine HPC & Workstation-Qualität hatten. Dann hätte Nvidia es im Tesla- & Workstation-Markt schon viel früher zu spüren bekommen.

Das schimmste was Nvidia passieren kann, ist wenn so ein Thaiti-Nachvolger (als 350mm² @ 20nm mit ECC & GCN 2.0/2.1) mehr als 6 Monate vor GM100/110 daherkommt, weil der ganze Tesla & Quadro-Markt in Gefahr wäre.

Wobei Nvidia auch noch Hawaii verkraften muss.
Denn wenn Hawaii @ Games Titan-Effizienz erreichen soll, dann kann man davon ausgehen, dass es auch für Tesla gilt.
Wobei man nicht vergessen sollte, dass eine echte bzw. grobe neue GPU-Architektur deutliche GPGPU-Sprünge bedeuten kann.
So wie R600 (Double-Precise) und RV870 (HD 5870) und GCN (ECC und CUs).
Okay, RV870 brauchte keine GPGPU-Sprünge über Technologie-Verbesserungen sondern über den großen-Einheiten-Sprung von +100%, aber RV770 und RV970 (= kleine Archiketur-Änderungen) brauchten nur Verbesserungen im Game-Bereich, während die Verbesserungen seitens GPGPU praktisch nicht vorhanden waren.
 
Zuletzt bearbeitet:
booh... jetzt macht AMD/ATI Nvidia schon wieder nach beim Bezug auf GF Expr.
 
john carmack schrieb:
wo sind 1200Mhz zu 1380Mhz = 50% mehr Takt

925 zu 1380mhz entsprechen 49.18%

Ich bin von der 7970 stock ausgegangen, die ist zur Titan nicht so blendend.
 
Herdware schrieb:
Ich wünsch mir halt einfach die alten Zustände wieder zurück, wo jedes Jahr eine neue Generation rauskam, die ein wesentlich besseres P/L-Verhältnis und insgesamt viel mehr Leistung bot.
Heute spekuliert man über eine nach fast 2 Jahre erscheinende neue Generation, die bei P/L auf der Stelle tritt (oder sogar rückwärts geht) und nicht mehr leisten soll, als 1 Jahr alte Karten der Konkurrenz. :(

Dafür kann aber Nvidia nichts, im CPU Markt humpelt AMD mit einem Technologieabstand von 3 Jahren umher.
Leistungssprünge sind einfach nicht mehr so leicht zu realisieren.
Auch früher gabs wenige Generationen die einfach mal 50% mehr Leistung draufgepackt haben, eine ATI 9800, eine 280GTX, aber ansonsten gabs durch zwischengeschobene Karten zwischen ehemaligem Highendmodell und neuer Generation fast ausschließlich nur kleine Sprünge.

+20% bei gleichem Verbrauch, mehr sollte man nicht mehr erwarten, Intel bietet dir da ja noch weniger, da bekommst du Speed im einstelligen Prozentbereich.
 
digitalangel18 schrieb:
Das hat er mit "die üblichen 500-600 Dollar" doch quasi schon dementiert.
Wo wurde es quasi schon dementiert?

Als ob AMD eine deutlich bessere GPU für erheblich weniger Geld auf den Markt werfen würde ;) Da müsste man das Management dann erstmal feuern...
So einfach geht es nicht.
Das Managment muss auch langfristig denken und wenn sie die Preise und somit Margen-Pro-Stück deutlich erhöhen, dann kommt irgendwo der Punkt, wo sie die Potentiellen Käufer abgezockt fühlen. Dass AMD früher niedrige Preise brachte, war aus der Notewendigkeit gegeben das Image zu verbessern. Durch diese Image-Verbesserungen steht AMD heute völlig anders da als früher zur R600 bis RV870 Zeit.

Selbst 500 Euro @ High-End wären schon fast gesalzene Preise, weil es mit 28nm immer noch um eine alte alber ausgereifte Fertigung handelt.
HD 7970 wurde damals von vielen mit 500 Euro als völlig überteuert runtergeredet. Ein Hawaii mit selbst 500 Euro würde für AMD hohe Margen bringen, weil ein 420mm²-Die auch nur 15% größer ist als ein jetziger 365mm²-Die, der aber schon um 300 Euro verkauft wird.
 
aylano schrieb:
Dass doch 28nm kommt, hast du gut geraten, denn erklären konntest du es nie. Denn beton wird ja extra, dass 20nm technisch möglich wäre, wie wir es ja ständig sagten. Dass es bei Titan einen Vollaktiven Die geben wird, haben alle vorausgesetzt, weshalb da wenig drüber geredet wurde.

;)

ich hab dir jedes mal, und wirklich jedes mal gesagt dass 20nm sicher technisch möglich wäre, aber eine 28nm Karte wohl wirtschaftlicher ist. Und ganz ehrlich, besonders viel Hirnschmalz brauchte es dazu nicht ^^
Dass Lesen nicht besonders deine Stärke ist beweist du ja in letzer Zeit des öfteren.
Anbei der Link zu meiner Aussage wo ich dir genau schreibe weshalb ich von 28nm ausgehe:
https://www.computerbase.de/forum/t...noch-dieses-jahr.1244412/page-6#post-14408131

Krautmaster schrieb:
...das ist auf genau die gleiche Problematik zurückzuführen wie wenn Maxwell oder AMDs neuer (großer) 20nm Chip später kommen würde als gedacht. Nicht mehr nicht weniger.
Wie ich bereits sagte, mehr eine Frage der Wirtschaftlichkeit als der Technik oder Entwicklung.

Die Nachfrage nach 20nm Produkten wird nicht zuletzt wegen dem gewachsenen Tablet / Smartphone / ARM Markt hoch sein. Die Preise für den mm² dürfen um ein vielfaches über dem der heutigen 28nm liegen. Da ist nicht die Frage wann es technisch geht, sondern wann es sich rechnet.

AMD schreibt letztes Quartal bei GPUs ne schwarze Null, dabei sollte 28nm mittlerweile reif und günstiger sein da große Kapazitäten zur Verfügung stehen. Meinst du man bleibt eben mal in den schwarzen Zahlen wenn man noch größere 20nm DIE bringen würde die weit teurer zu fertigen sind? Gehen tut sowas auch mit der Risk Production, aber ob es wirklich wirtschaftlich ist wissen nur AMD und Nvidia- und mit entsprechend gesalzenen Preisen... So wird ja auch spekuliert, dass Maxwell noch in 28nm kommt... (was ich irgendwie weniger glauben tu da 28nm von Nvidia mit 550mm² recht ausgelutscht ist).
.
.
.

Rein zufälligerweise schrieb ich das als ne Antwort auf nen Post von dir ^^

Abgesehen davon wird in meinen Augen quasi gar nichts außer 28nm bestätigt, hier Ableitungen zur Effizienz von TITAN zu machen ist Humbuck. Beide setzen (vermutlich) auf dieselbe Fertigung, nur logisch dass die Effizienz leicht darunter, darauf oder darüber liegen kann. Ausgehend von den spekulierten Daten (kleinerer Chip bei höherem Takt) ist es meist so, dass die Effizienz eher darunter leidet, gerade der höhere Takt oftmals mehr Spannung nach sich zieht.

Im Übrigen hat die GTX TITAN keine 1.0V, default taktet sie beim Turbo auf 1.162V was via SW auf 1,2V erhöht werden kann (ebenfalls default)

https://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/19/

Mich würde es freuen wenn man die TITAN ordentlich in die Schranken weist, erstmal gilt es jedoch die GTX 780 zu schlagen die ja auch mit Handbremse läuft.
Und ja, es braucht auch nicht viel Hirnschmalz um sich Nvidias Konterantwort noch dieses Jahr auszumalen... was mir ebenfalls recht kommt da ich bei beiden Seiten gerne Leistungs und Effizienzsteigerungen sehe...
 
Zuletzt bearbeitet:
Krautmaster schrieb:
;)
ich hab dir jedes mal, und wirklich jedes mal gesagt dass 20nm sicher technisch möglich wäre, aber eine 28nm Karte wohl wirtschaftlicher ist. Und ganz ehrlich, besonders viel Hirnschmalz brauchte es dazu nicht
Nochmals für dich. HD 5870 und HD 7970 waren trotz Miserablen Yields gerade noch wirtschaftlich und das sogar im 1. Quartal.
Als, dann die Nvidia-Konkurrenz rauskam, waren die Yields längst wirtschaftlich.
Technisch nichtzuproduzierende Dies waren R600 & GF100 @ Herbst vorm Einführungsjahr mit -30%-Takten oder 2%-Yields.

Dazu muss man noch verstehen, dass AMD trotz miserablen Yields @ HD 5870 und HD 7970 immer noch alle CUs aktivieren konnte.
AMD hätte noch die Möglichkeit bei achsomiserablen-20nm-Yields, so GTX 480 und Titan, eben 1 oder gar 2 CUs für das Top-Modell zu deaktivieren, was mit 1/40 oder 1/20 der Leistung sogar ein viel geringerer Leistungsverlust wäre als bei Titan mit nur einem deaktivierten SMX (= 1/15)


Was du offensichtlich nicht verstehen willst ist, dass AMD Hawaii noch nicht rausbringen müsste, wenn es (so wie du es meinst) noch nicht wirtschaftlicher wäre, weil eben die Konkurrenz noch keine 20nm-Karten draußen hat. Genauso wie damals HD 5870 und HD 7970 um 1-2 Quartale später rausgebraucht wurden, hätte es AMD diesesmal die Hawaii-Familie genauso später bringen können.

Würde deine Aussage stimmen, so würde auch Nvidia Maxwell jetzt in 28nm fertigen. Schließlich ist ja 28nm laut dir sooo viel wirtschaftlicher.
Würde deine Aussage stimmen, so hätte Nvidia bei Titan keine 550mm²-Fertigung riskiert und dann für die erste lange Zeit einen Teil zu deaktivieren.
Im Gegensatz zum Fermi @ GTX 480 hat Titan keinen Defekt im jedem 15. SM-Block.
Wirtschaftlicher ist man mit Riskanten Wegen, den AMD bisher immer in der neuen früher eingeführten Fertigung machte, und Nvidias in den 500+mm²-Big Dies. Eben weil der Preis im High-End-Markt sehr stark ansteigt.


Die Gründe liegen eben woanders. Einer ist offensichtlich:
Es ist offensichtlich, dass die GPU-Architektur-Entwicklung bei AMD schneller war als die Fertigungs-Entwicklung und AMD früher oder später gezwungen war den alten Takt (neue Architektur bei neuer Fertigung) zu verlassen und die neue High-End-Architektur vorzuschieben.

Krautmaster schrieb:
Abgesehen davon wird in meinen Augen quasi gar nichts außer 28nm bestätigt, hier Ableitungen zur Effizienz von TITAN zu machen ist Humbuck.
Das wollte ich gerade dir klar machen, nachdem du dir paar geratene Aussagen aus alter Zeit selbst zitiertest und du dir selber auf die Schultern klopftest, wie toll paar Aussage-Fetzen deiner Aussage zufällig in die Aussagen des AMD-Mitarbeiter passten.
Genauso wie man damals deine Aussage nicht nachvollziehen konnte, kann man sie auch nicht.


Krautmaster schrieb:
Beide setzen auf dieselbe Fertigung, nur logisch dass die Effizienz leicht darunter, darauf oder darüber liegen kann. Ausgehend von den spekulierten Daten (kleinerer Chip bei höherem Takt) ist es meist so, dass die Effizienz eher darunter leidet, gerade der höhere Takt oftmals mehr Spannung nach sich zieht.
Das ist eben falsch.
Selbst TSMC hat mit HPM eine andere 28nm als die schon alte HP.
Parallel dazu gäbe es noch HPP von GF.
Bei einer Architektur-Verbeserung musst du auch einmal verstehen, dass es bei CU-Optimierungen eben auch zu deutlichen Transistor-Einsparungen kommen kann. So wie eben bei RV770, wo das Front-End des RV670 noch völlig überdimensioniert war und eben beim RV770 weitere 6 SIMD versorgen konnte.
Doppelte Shader-Anzahl heißt nicht immer doppelter Stromverbrauch, was man auch bei SMX @ Nvidia sehen konnte.

PS: Nur weil den Raten einmal eines Produktes (Hawaii-Only) getroffen hat, heißt es noch lange nicht, dass du die Sache richtig erkanntest.
Denn abseits Hawaii bleiben Sea-Island-GPUs noch immer voll ein Rätsel. Egal ob sie in 20nm oder 28nm kommen, bleiben sie weiterhin ein Rätsel. Denn während die 28nm-Sea-Island schon vor 9 Monaten angekündigt worden waren und offensichtlich längst fertig waren, wären 20nm-Sea-Island deshalb ein Rätsel, weil man sie wie Hawaii genauso in GCN 2.0 rausbringen hätte können.
Das Blöde ist nur, die momentan kurisosen Sea-Island-Entscheidungen (abgesehen von den anderen Einflüssen wie Rory-Read oder APU-iGPU-Integraiton) haben trotzdem noch Einfluss auf Hawaii.

PS2:
Krautmaster schrieb:
Wie ich bereits sagte, mehr eine Frage der Wirtschaftlichkeit als der Technik oder Entwicklung.

Übrigens, so wurde es nie gesagt.
Das "Technisch Mögliche" (was sich der News-Schreiber zusammenreihmt und diesesmal nicht falsch ist) hast du in Bezug auf non-Wirtschaftlichkeit bezogen, während aber höhre Takte und absolute Performance gesagt wurden.


Konkret wird gesagt:
Some have speculated that it was 20nm and it’s not for a specific reason: At 28nm for an enthusiast GPU, we can achieve higher clock speeds and higher absolute performance

Mit Google-Übersetzer
Einige haben spekuliert, dass es 20nm war und es ist nicht aus einem bestimmten Grund: Bei 28nm GPU für einen Enthusiasten, können wir höhere Taktraten und höhere absolute Performance zu erzielen "

Es gibt eben mehrere Gründe und wir wissen nichteinmal ob er alle aufgezählt hat, weil er nur "einen bestimmten Grund für 28nm statt 20nm" ausschließt. Für so einen unwichtiges Interview kann man nicht erwarten, dass die wesentlichen Eckpunkte kurz vor dem Hawaii-Tech-Day erläutert werden.
 
Zuletzt bearbeitet:
Thanok schrieb:
Kommt auf die Nutzung der Fläche an - die Titan hat viel Fläche für GPU-Computing geopfert, eine reiner Gaming Chip kann bei geringerer Fläche an die Leistung rankommen.

Das würde für AMD bedeuten mit Hawai'i keinen Nachfolger mehr für Tahiti im (margenträchtigen) Profi-Segement zu haben. Das ist nur wahrscheinlich, falls der 20nm-Nachfolger (dann wieder mit voller GPGPU-Tauglichkeit) sehr früh geplant ist.
 
digitalangel18 schrieb:
Das hat er mit "die üblichen 500-600 Dollar" doch quasi schon dementiert. Als ob AMD eine deutlich bessere GPU für erheblich weniger Geld auf den Markt werfen würde ;) ...

Dann könntest du dir keine Technik kaufen, ev. noch nen altes Röhrenradio oder nen Fernsehr mit braunscher Bildröhre, an Plasma, LCD usw. wäre nicht zu denken...
Nen Kühlschrank wär auch nicht drin, nur nen Eisschrank und 1x wöchentlich kommt der Eismann und liefert dir nen Eisblock als Kühlmittel.
Waschmaschine? nen Waschbrett wär für dich ja aktuell.

Wir würden nach deiner Meinung immer noch im Bärenfäll mit nem Faustkeil rumrennen.
Jetzt weiß ich auch, warum die Neandertaler ausgestorben sind, die hatten offenbar dir ähnliche Gedankengänge und waren alle BWL-er. :D

Mehrleistung für'n vergleichbaren aktuellen Preis od. günstiger ist ja ok, sonst stagniert ja die Entwicklung.
 
Zuletzt bearbeitet:
aylano schrieb:
Nochmals für dich. HD 5870 und HD 7970 waren trotz Miserablen Yields gerade noch wirtschaftlich und das sogar im 1. Quartal.

beide kamen nicht vor Start der Serienproduktion bei TSMC, die für 20nm für Anfang 2014 angesagt ist ^^
Im Gegenteil, auch die AMD Chips kamen 3-6 Monate danach und dann im Falle der HD7970 als Paperlaunch. Mit 20nm Q3 2013 hat schon lange keiner mehr gerechnet, bis auf du vllt ;)

Natürlich hat AMD bei den letzten 3 Gen immer alle CUs aktiv gehabt - und wieso? Weil der Top-End CHip deutlich kleiner als bei Nvidia war und im Falle der GTX780 / TITAN wären volle CU auch gar nicht wirtschaftlich (wirtschaftlich zu denken scheint dir schwer zufallen).
Zudem werden die Prozesse zunehmend teurer während der Desktop-Markt zurückgeht.

Nvidia erhöht mit der Teildeaktivierung natürlich die Ausbeute (ich denke aber dass die Ausbeute da nur geringfügig höher ausfällt da der Fehler ja genau in einem oder 2 CU liegen muss) - viel eher brachte man TITAN als auch GTX780 teildeaktiviert + Handbremse wohl-wissend, dass man noch nen vollaktiven Chip in 28nm nachlegen muss bzw die Option hielt man sich offen.

AMD hat sich, vermutlich aus genauso rein wirtschaftlicher Natur, dagegen entschieden den nun anstehenden Chip schon früher zu bringen. Der ist vermutlich schon über ein Jahr fertig und war mal für Ende 2012 / Anfang 2013 geplant, üblicherweise etwa 1 Jahr nach HD7970 also etwas vor Nvidias 7XX Generation. Dazu passen ja auch die sehr alten Leaks (über 12 Monate) die ins Schwarze treffen könnten.

Was GCN 2.0 angeht, da lass ich mich überraschen was da kommt. Ist denn überhaupt gesichert das Hawaii in 28nm architektonisch und Fertigungstechnisch überhaupt etwas anders macht, oder hebt sich das AMD vllt bis 20nm auf (die ja nach ursprünglicher Planung gegen Ende des Jahres dran gewesen wären)?
Wie gesagt, ich erwarte da schon Optimierungspotential bei AMDs GCN, jetzt aber nicht in einem überoptimistischen Umfang. Der Großteil der Mehrleistung wird vermutlich, wie üblich, durch Takt und Shaderzahl/Transistorzahl erzielt.
Abgesehen davon hat man in den letzten Generationen mit dem starken Computing Fokus den Chip eher aufgeblasen statt ausgeschlankt, was auch absolut in AMDs Strategie hin zu HSA liegt. Dass dabei etwas Spiele-Effizienz auf der Strecke bleibt wissen wir nicht erst seit GF100 / Tahiti.

Würde deine Aussage stimmen, so würde auch Nvidia Maxwell jetzt in 28nm fertigen. Schließlich ist ja 28nm laut dir sooo viel wirtschaftlicher.

wiedereinmal macht sich die Leseschwäche breit, schau dir meinen letzten Post nochmal genau an.

Krautmaster schrieb:
So wird ja auch spekuliert, dass Maxwell noch in 28nm kommt... (was ich irgendwie weniger glauben tu da 28nm von Nvidia mit 550mm² recht ausgelutscht ist)...

Auch bei Nvidia erwarte ich keinen Durchbruch in der 28nm Fertigung oder Architektonische Wunder - und Nvidia wird wohl keinen 700mm² Chip bringen, wieder mal nicht weil es nicht möglich wäre, viel eher da nicht wirtschaftlich (außer vllt 20nm lassen nochmal 2 Jahre auf sich warten ^^).
Ergänzung ()

smalM schrieb:
Das würde für AMD bedeuten mit Hawai'i keinen Nachfolger mehr für Tahiti im (margenträchtigen) Profi-Segement zu haben. Das ist nur wahrscheinlich, falls der 20nm-Nachfolger (dann wieder mit voller GPGPU-Tauglichkeit) sehr früh geplant ist.

denkbar, dass hier AMD wie Nvidia bei GK110 verfährt, erst den ProfiChip in 20nm zu hohen Preisen bringt, einige Monate später den Gaming-Ableger.
 
Zuletzt bearbeitet:
john carmack schrieb:
wo sind 1200Mhz zu 1380Mhz = 50% mehr Takt?

Mensch Leute... ein wenig % Rechnung sollte man schon beherschen!
Kein Wunder das die Jugend heut zu tage so verdummt ist...

danke :) ich wollt nichts schreiben
 
Precide schrieb:
Hoffentlich blamiert sich AMD hier nicht.
Aber ich seh es schon fast vor mir: Schlägt mit Ach und Krach die GTX 780 aber verbraucht 100W mehr....

Denke ich mal eher nicht. Der Duellant wird wohl eher Titan heißen. Hier mal ein älterer Detailvergleich (noch unter HD9970): http://gpuboss.com/gpus/Radeon-HD-9970-vs-GeForce-GTX-780

Keine ahnung woher die Specs kommen, jedenfalls dürften die GPUs aus der Volcanic Islands Reihe schon mächtig Druck machen. Nvidia ahnt ja auch schon Böses. Immerhin ziehen sie den Release weiterer High End GPUs in Betracht.
 
Krautmaster schrieb:
beide kamen nicht vor Start der Serienproduktion bei TSMC, die für 20nm für Anfang 2014 angesagt ist ^^
Im Gegenteil, auch die AMD Chips kamen 3-6 Monate danach und dann im Falle der HD7970 als Paperlaunch.
Typisch Falschaussagen.
Es bestand bis zum Schluss die Möglichkeit, dass Globalfoundries 20nm bringt, der seit 4Q 2012 Desgins zulässt, womit 4Q 2013 exakt reinpasste.

Mit 20nm Q3 2013 hat schon lange keiner mehr gerechnet, bis auf du vllt ;)
Typisch Falsch-Aussage,
Hawaii im 4Q 2013 kommt, so wie es konkret der AMD-Mitarbeiter @ News sagte.

Natürlich hat AMD bei den letzten 3 Gen immer alle CUs aktiv gehabt - und wieso? Weil der Top-End CHip deutlich kleiner als bei Nvidia war und im Falle der GTX780 / TITAN wären volle CU auch gar nicht wirtschaftlich (wirtschaftlich zu denken scheint dir schwer zufallen).
Zudem werden die Prozesse zunehmend teurer während der Desktop-Markt zurückgeht.
Was ist das für ein Unsinn?
Der 550mm² ist 14 Monate nach Thaiti gekommen.
Ein eventueller Gegner von einem 350mm²-20nm-Haweaii wäre so ein 300mm²-20nm-Maxwell-Die gewesen, was sogar kleiner ist Thaiti.

500+ Dies kommen mittlerweile 14 Monate später.
Es gehe darum, dass wenn man 350mm²-Die mit 1-2 CU-Deaktivierungen sogar 1 Quartal früher als üblich kommt und dann sogar 2 Quartale früher gegenüber Gx104 derherkommt.

Du redest von Wirtschftlicher, aber ignorierst völlig die FirePro-Versionen, wo dann Nvidia viele Quartale nichts zu bieten hätte.
Auch sollte man so nebenbei wissen, dass die 225W-FirePro genauso schon deaktiviert werden.
S9000 hat schon 4 deaktiverte CUs um 225W-TDP zu erreichen.
Also, 20nm-Hawaiis @ FirePro wäre nicht nur wegen 3000$ pro Stück wirtschaftlicher, sondern sie hätten sogar 8 CUs deaktivieren können. (Siehe S9000)

AMD hat sich, vermutlich aus genauso rein wirtschaftlicher Natur, dagegen entschieden den nun anstehenden Chip schon früher zu bringen.
Der ist vermutlich schon über ein Jahr fertig und war mal für Ende 2012 / Anfang 2013 geplant, üblicherweise etwa 1 Jahr nach HD7970 also etwas vor Nvidias 7XX Generation. Dazu passen ja auch die sehr alten Leaks (über 12 Monate) die ins Schwarze treffen könnten.
Du hast noch immer noch keine Ahnung was GCN 2.0 @ Hawaii sowie GCN 1.1 ist bzw. bedeutet bzw. was eben bei neuen Architekturen üblich so technisch verändert werden.

Was GCN 2.0 angeht, da lass ich mich überraschen was da kommt. Ist denn überhaupt gesichert das Hawaii in 28nm architektonisch und Fertigungstechnisch überhaupt etwas anders macht, oder hebt sich das AMD vllt bis 20nm auf?
Hättest du von GPU-Architektur eine Ahnung, dann wüsstest du, dass immer etwas Architektonisch was anders Gemacht wird. So wie bei R600 & RV670 & RV770 & RV870 & RV970 & GCN.

Außerdem muss man dir noch klarmachen,dass die nearly 30% größere Titan, eben keine Bestätigung für Sea-Island -High-End @ 420mm² sind.
Es kann ein Zufall sein, dass Hawaii mit so 435 (*1,27 = 551mm²) auch ungefähr so groß ist wie der alte spekulierte Sea-Island @ 420mm.
Und das ist logisch, weil AMD selbst mit 365mm² schon bis zu 250W erreichen kann.
Ich hatte dir nicht umsonst erklärt im ersten Posting dieses Threads erkärt, dass die Die-Größe keine Bestätigung für deine geratenen 2500-Shader sind.

Wie gesagt, ich erwarte da schon Optimierungspotential bei AMDs GCN, jetzt aber nicht in einem überoptimistischen Umfang. Der Großteil der Mehrleistung wird vermutlich, wie üblich, durch Takt und Shaderzahl/Transistorzahl erzielt.
Schön gesagt, aber das Know-How einer Architektur liegt eben per Front-Ends so viele Shader @ Takt auszulassen wie möglich.
Deshalb wurde GCN erfunden, weil SIMD ein sehr primitives Front-End ist.
Deshalb hat AMD mittlerweile 2 Grafik-Engines und 4 ACE (siehe Kabini), weil eine Grafik-Engine eben nicht 60 CU oder mehr SIMD auslasten kann.

Selbst eine GCN 1.1 brachte ein neues Front-End @ Grafik-Engine, was sich mit den 4 ACE (siehe Kabini) schon bestätigt hat.
GCN 2.0 soll laut gerüchten ja ein neues CU bedeuten, was (wenn es so kommt) nicht nur ein neues Front-End @ CU bedeutet sondern parallel massive an Shader zugelegt wird.

Außderdem kann die Shader selbst auch durch Transistor-Verbesserung verkleinert werden, sodass dann mehr auf die GPU draufpassen.

Und das ist eben das Spannende an der neuen Architektur.
Nicht umsonst gibts den Hawaii-Tech-Day, wie es bei GCN sowie DX11 damals bei extra Veranstaltung vorgestellt wurde.

Einheiten-Neukonfigurationen bekommt man nur bei Refresh-Architektur, wie es bei RV770 und RV970 und GCN 1.1 war.

wiedereinmal macht sich die Leseschwäche breit, schau dir meinen letzten Post nochmal genau an.
Du machst ganz schön den Mund auf, nachdem du die "Technischen Möglichkeiten" von der News dir als "non-wirtschaftliche Produktion" zusammenreimtest.

Auch bei Nvidia erwarte ich keinen Durchbruch in der 28nm Fertigung oder Architektonische Wunder - und Nvidia wird wohl keinen 700mm² Chip bringen, wieder mal nicht weil es nicht möglich wäre, viel eher da nicht wirtschaftlich
Titan ist mit 840 Mhz und 1 Teildekativierung noch nicht ausgereizt. Nvidia brächte nichteimmal ein 700mm²-Die, sondern es würde ein vollaktiver 550mm²-Maxwell reichen.

Bei Nvidia ist es keine Wirtschaftliche, sondern ein Technischer Grund, weil sie in den letzten 6+ Jahren nie eine Architektur mit neuen Design vorgeschoben hat.
 
Zuletzt bearbeitet:
naja, wird man ja sehen ob du mit einem 550mm² 28nm Maxwell recht behältst. Ich kann mir beim besten Willen nicht vorstellen, dass Nvidia in 28nm noch nen zusätzlichen BigDIE bringt, abseits des GK110. Und ein vollaktiver GK110 wäre in meinen Augen nicht Maxwell auch wenn Name, wie man bei Hawaii/Sea Island *hust* sieht, Schall und Rauch ist.

Naja, lassen wir uns überraschen ob AMDs "Hawaii" wirklich von GF in 28nm gefertigt wird, in meinen Augen wäre das nen größerer Unschärfefaktor bezüglich Performance als die Architektur selbst. Bin mal gespannt was sich am einzelnen CU/GCN bezüglich Architektur tut, sicher tut sich was, aber eine Änderung wie von VLIW-Design -> GCN dürfts wohl kaum geben.

Wieviel % GamingPerfomance-Gewinn auf Architekturseite erwartest du denn?

Was hat sich bei Jaguar bezüglich GCN getan?

36-1080.2999312801.jpg


17-1080.393690654.png


Meinst du jetzt die 4 (Kabini) statt 2x ACE (Tahiti)? Das ist in meinen Augen aber ne sehr flache Änderung. Bei GCN 2.0 kann ich mir durchaus vorstellen, dass sich was bei der einzelnen CU ändert, darauf bin ich mal gespannt. Ich denke dennoch, dass ich mit meinen 10% über Architektur schon optimistisch bin. Abh. von der Fertigung, neuem Layout und Density packt man dann vllt. mehr Shader / Transistoren auf den mm², das aber in meinen Augen keine Architektursache.

Du hast noch immer noch keine Ahnung was GCN 2.0 @ Hawaii sowie GCN 1.1 ist bzw. bedeutet bzw. was eben bei neuen Architekturen üblich so technisch verändert werden.

dann klär mich auf was GCN 2.0 alles anders macht ;)

Schau mer mal ob sich am 23.9. - 1.10. was tut... ich tippe immer noch auf 2560 Shader bei ~1000-1150 Mhz und 3/6Gb GDDR5 und TSMC als Fabrikant.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
naja, wird man ja sehen ob du mit einem 550mm² 28nm Maxwell recht behältst. Ich kann mir beim besten Willen nicht vorstellen, dass Nvidia in 28nm noch nen zusätzlichen BigDIE bringt, abseits des GK110.
Der Sinn einer neuen Architektur ist, sich gegenüber der Konkurrenz einen Vorteil zu erschaffen und Konkurrenzfähiger zu sein, weshalb sie ihre Architekturen so schnell wie möglich am Markt birngen woll. Dass du sowas nicht vorstellen kannst und siehst, liegt leider an deiner Architektur-Unkenntnis, die du auch in diesem Thread wunderbar zeigst.

Und ein vollaktiver GK110 wäre in meinen Augen nicht Maxwell auch wenn Name, wie man bei Hawaii/Sea Island *hust* sieht, Schall und Rauch ist.
Wie wäre es mal, wenn du bei der Sache bleibst, anstatt von irgendwelchen Namesspielerein abzulenken.
GCN 1.1 ist nun mal was anderes als GCN 2.0. Dass sie GCN 1.1 verschoben haben, hat eben gründe die wir nicht kennen.
Das hat nichts mit Schall und Rauch zu tun, sondern um eine Roadmap-Änderung, die bei GPUs so ziemlich einmalig ist.

Naja, lassen wir uns überraschen ob AMDs "Hawaii" wirklich von GF in 28nm gefertigt wird, in meinen Augen wäre das nen größerer Unschärfefaktor bezüglich Performance als die Architektur selbst. Bin mal gespannt was sich am einzelnen CU/GCN bezüglich Architektur tut, sicher tut sich was, ...
Sinn von Spekulationen ist es, anhand von Gerüchten herauszufinden, welche Änderungen in Zukunft kommen können und nicht wie ein Kind sich beim Geburst-Tag auf ein neues Geschenk zu warten.

... aber eine Änderung wie von VLIW-Design -> GCN dürfts wohl kaum geben.
Da du nicht erklärst, was da geändert wurde, zeigst du gleich deine Unkenntnis über VILW-Desgin --> GCN.

Logisch wird es diese Änderung nicht geben, oder glaubst du CU bekommt ein 2. Front-End.
GCN wird auch nicht deshalb geändert, weil es weiterhin GCN mit der Bezeichnung 2.0 heißt und nicht Hugo 1.0.

Wieviel % GamingPerfomance-Gewinn auf Architekturseite erwartest du denn?
So einfach kann man es nicht sagen, wenn
a) man z.B: nicht weiß, wie viel Fläche & Transistoren die einzelnen Einheiten brauchen und
b) wie stark z.B.: das Front-End des CUs ausgelastet ist.

Bestes Beispiel ist R600, wo man vor RV770 nicht wusste, dass das Front-End völlig unterausgelastet ist.

Ich wäre nicht überrascht, wenn das beim CU auch so ähnlich der Fall ist, weil AMD mit 80-Shaders pro SIMD/CU nicht nur schon seit 6 Jahren auf diesem Level ist, sondern mittlerweile auf 64 runtergeangen ist.

Mich würde es nicht wündern, wenn ein CU so 8 Waferfronts mit 16-SIMDs übergehst und so auf 256 Shaders gelangt.

Diese 256er-Spekulation errinnert mich an meine GCN (= CU-Front-END mit ECC und non-AF-Flimmern) Spekulation.
Diese Gerüchte gab es vor der HD 6970 und ich dachte damals, dass HD 6970 solche Techniken haben könnte, wo ich mich aus den Fenster lehnte. Damals zeigte sich, dass eben viele Gerüchte nicht die nächste Generation betreffen, sondern die übernächste.

Was hat sich bei Jaguar bezüglich GCN getan?
Meinst du jetzt die 4 (Kabini) statt 2x ACE (Tahiti)? Das ist in meinen Augen aber ne sehr flache Änderung.
Ich habe es schon so oft gesagt, dass GCN 1.1 primär nur beim High-End bemerktbar wäre, weil dieser entweder 4 Grafik-Engines bekommen hätte oder 2 Big-Grafik-Engines mit je zwei Rasterizer. Passend zur Anzahl der Rasterizer wäre ACE. Somit liegt es wieder an deiner völligen Unkenntnis, dass du GCN 1.1 oder gar GCN 2.0 als kleinlich siehst, weil man es bei Kabini logischerweise nicht sehen kann.

Bei GCN 2.0 kann ich mir durchaus vorstellen, dass sich was bei der einzelnen CU ändert, darauf bin ich mal gespannt. Ich denke dennoch, dass ich mit meinen 10% über Architektur schon optimistisch bin.
Denken tut man, wenn man Logische Zusammenhänge finden. Ohne einzelne Info darüber erwähnen ist es ausschließlich raten.
VILW-4 gegenüber VILW-5 brachte übrigends auch diese 10% und diese Änderung war garnicht so aufwendig.

Was du nicht versehst ist, dass es neben Performance-pro-Watt auch Performance-pro-mm² oder gar Einheiten-pro-mm² gibt und daher ist diese "Archtektur-Verbesserung" schon mal von dir Falsch, weil es nicht nur eine Verbesserung gibt.
Wenn ich von 256er spreche, dann ist die Wahrscheinlichkeit sehr groß, dass vorallem Performance-pro-mm² zulegt, während Performance-pro-Watt seitens der Architektur wahrscheinlich nicht im diesen Ausmaß zulegt.

Bei RV770 war so +100% Einheiten pro mm², während die Performance-pro-Watt nur so 10-15% zulegte.
Das ist nicht weltbewegenden, weil man das in einem Refresh großteils schon über die Fertigung bekommen kann oder eben einer neuen mit HPM statt HP.

Abh. von der Fertigung, neuem Layout und Density packt man dann vllt. mehr Shader / Transistoren auf den mm², das aber in meinen Augen keine Architektursache.
Dieser Unsinn ist nur in deinem Wissen entstanden.
Kein Mensch redet über Density oder Transistoren pro mm².

Wie viel Transistoren ein Shader in der CU benötigt, ist das ganze Know-How bzw. das A und O einer Architektur-Verbesserung.
Das ich dir die ganze Zeit Architektur-Unkenntnis vorwerfe, kommt nicht von irgendwo.

dann klär mich auf was GCN 2.0 alles anders macht ;)
Das habe ich schon oft genug gemacht.
Aber du müsstest ja den anderen Technisch erklären können, warum GCN 2.0 nicht sooo viel bringen sollte. Schließlich prahlst du ja ständig, dass du so ein toller GPU und CPU-Experte bist. Abgesehen davon studierst du ja noch Information oder Fertigungstechnik, weshalb du ja solche Techniken erst recht wissen solltest.

Schau mer mal ob sich am 23.9. - 1.10. was tut... ich tippe immer noch auf 2560 Shader bei ~1000-1150 Mhz und 3/6Gb GDDR5 und TSMC als Fabrikant.
Du Ratest oder tippst im Lotto.

Ich zeige dir mal wie Spekulieren funktioniert.
So 420mm² wären mit alten 40CU @ GCN 1.0 auch möglich.
365mm² + 8*5,5mm² = 409mm²

Also, wenn Hawaii ebenfalls so 420mm² haben soll, sowie meine erwähnten 256 Shader-pro-CU, dann müssten es mehr als 2560 Shaders sein.

Andererseits könnten diese so 420mm² des Hawaii auch wieder hindeuten, dass AMD bei Hawaii beim alten 64-Shader-CU (noch) geblieben sind (und GCN noch weiter für HSA entwickelt haben.)
 
Zuletzt bearbeitet:
Mensch ihr beide liefert eine Tolle Show ab!
Ich werde mich mal nicht groß einmischen da mich die Feinheiten der Architekturen eher wenig interessieren (bzw. ich mein Wissen sich auf "Gibt's halt" beschränkt). Allerdings...

aylano schrieb:
Der Sinn einer neuen Architektur ist, sich gegenüber der Konkurrenz einen Vorteil zu erschaffen und Konkurrenzfähiger zu sein, weshalb sie ihre Architekturen so schnell wie möglich am Markt birngen woll.
Auf der anderen Seite sind Architekturänderungen, zumindest größere, immer mit einem gewissen Entwicklungsaufwand verbunden. Daher wird bei einem Refresh idR die gleiche Architektur verwendet und nur in einzelnen Punkten optimiert.
Und auch bei einer Architekturänderung sind die Unterschiede nicht immer sonderlich groß. Kepler ist in vielen Punkten mit Fermi identisch, Maxwell wird auch keine neue Architektur bringen. Der größte Architektursprung der letzten Zeit war da Fermi, und darauf basieren eben jetzt erstmal die nächsten Generationen.
Neue Architekturen sind es zwar trotzdem, die Basis ist aber eben "alt".

aylano schrieb:
Ich wäre nicht überrascht, wenn das beim CU auch so ähnlich der Fall ist, weil AMD mit 80-Shaders pro SIMD/CU nicht nur schon seit 6 Jahren auf diesem Level ist, sondern mittlerweile auf 64 runtergeangen ist.
Ich vermag mich zu irren (siehe meine Untkenntnis), aber vor GCN hat AMD doch noch auf VILW-4/5 gesetzt welches eine sehr hohe Dichte der Shader ermöglichte UND vor allem die Shader nicht vollständig auslasten konnte. Du bringst das Beispiel mit den 10% von VILW-5 auf 4 ja selbst. Genau dass war ja auch der Grund weswegen AMD vom VILW-5 Design weggegangen ist.

aylano schrieb:
Denken tut man, wenn man Logische Zusammenhänge finden. Ohne einzelne Info darüber erwähnen ist es ausschließlich raten.
VILW-4 gegenüber VILW-5 brachte übrigends auch diese 10% und diese Änderung war garnicht so aufwendig.
Siehe meine Aussage darüber. VILW-5 war, auch laut AMD, nicht optimal ausgelastet so dass man mit weniger, aber besser ausgelasteten Shadern, mehr Leistung erhalten konnte.

aylano schrieb:
Das habe ich schon oft genug gemacht.
Bitte kläre mich bekennenden Laien mal auf was da DER große Unterschied sein soll. Für mich klingt GCN 2.0 nach GCN 1.0 mit einigen Änderungen aber im Grunde gleicher Architektur.
 
@ Aylano

die Zeiten mit dem "asap am Markt sein" sind vorbei (bei nur 2 Marktteilnehmer eh so ne Sache...). Das war vielleicht noch der Fall als die Fertigungskosten vergleichsweise klein waren, aber die neuen Prozesse scheinen deutlich teurer zu werden und das spürt man bei Nvidia mit GK110 genauso wie bei AMD, oder hat man da je so spät noch einen Chip in "alter" Fertigung gebracht?

Beide Seiten ziehen ihre Chips absichtlich nach hinten raus da von rentabler Fertigung zu Rentabler Fertigung in kleinerer Größe immer mehr Zeit vergeht.

Wenn der Chip auf GCN 2.0 setzt und vielleicht mit weitreichenderen Änderungen daherkommt, dann ist dieser sicher auch schon ne ganze Zeit lang fertig. AMD kappt sich ganz schön viel Ressourcen von TSMC ab, man denke da an die Kabinis/ Temash, Brazos, dann der riesige Konsolendeal. Ich weiß nicht wie es da um AMD steht, meinst du die können unbegrenzt Fertigungskapazitäten bei TSMC?

Naja, ich bin gespannt was der angekündigte Chip alles neu macht. Mich würde es freuen wenn AMD mit dem Chip auf breiter Front dem GK110 konkurrieren kann. Ob dabei GCN 1.0 oder 1.1 oder 2.0 zum Einsatz kommt ist mir erstmal banane.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@ Aylano

die Zeiten mit dem "asap am Markt sein" sind vorbei (bei nur 2 Marktteilnehmer eh so ne Sache...). Das war vielleicht noch der Fall als die Fertigungskosten vergleichsweise klein waren, aber die neuen Prozesse scheinen deutlich teurer zu werden und das spürt man bei Nvidia mit GK110 genauso wie bei AMD, oder hat man da je so spät noch einen Chip in "alter" Fertigung gebracht?

Schlechtes Beispiel. Mit 20nm sollen auch zum ersten mal die Kosten pro Transistor im ungefähr im gleichen Maß steigen wie deren Flächenbedarf abnimmt. Es ist überall zu lesen das 28nm deshalb möglicherweise länger überleben wird als jeder Prozess zuvor.


(ansonsten kann ich Deinen Argumenten weit mehr abgewinnen als unserem Chefdesigner von Buchstabensuppen)
 
Krautmaster schrieb:
@ Aylano
Das war vielleicht noch der Fall als die Fertigungskosten vergleichsweise klein waren, aber die neuen Prozesse scheinen deutlich teurer zu werden und das spürt man bei Nvidia mit GK110 genauso wie bei AMD, oder hat man da je so spät noch einen Chip in "alter" Fertigung gebracht?
Ohne Zahlen dazu scheint es immer so zu sein.
Überlege einmal, warum Intel jetzt Atom und Larrabee davor so schnell wie möglich auf 22nm brachten, nachdem sie in alter 40nm & 32nm-Fertigung beide glänzlich versagten.

Bei 300mm-Wafer @ 20nm würde AMD bei 350 vielleicht so 180 Stück rausschneiden können. Bei einer Yield von 10% (wobei man da nichteinmal volle nehmen müsste, sondern 4 oder 8-Deaktivierte CU), könnte man immer noch 18 Stück rausholen.
Mit diesen 18 Stück könnte man immer noch Treiber-Optimierungen machen und andererseits um je 3000 Euro @ FirePro-Markt verkaufen.
Damit könnte man die jetzt angeblichen 20.000 Euro Wafer locker bezahlen.
Ich weiß nicht, warum du so viel redest, aber deine Aussagen sind völlig informationslos.

G80 wurde übrigens 6 Monate vor 65nm-Mainstream & Low-End rausgebracht.

Krautmaster schrieb:
Beide Seiten ziehen ihre Chips absichtlich nach hinten raus da von rentabler Fertigung zu Rentabler Fertigung in kleinerer Größe immer mehr Zeit vergeht.
Das ist wieder nur irgendeine Aussage, die du nur empfindest, aber nicht mit Zahlen belegst.

Krautmaster schrieb:
Wenn der Chip auf GCN 2.0 setzt und vielleicht mit weitreichenderen Änderungen daherkommt, dann ist dieser sicher auch schon ne ganze Zeit lang fertig.
Aha, je weitreidender die Änderungen, desto länger muss er fertig sein?!! Interessant.

Krautmaster schrieb:
AMD kappt sich ganz schön viel Ressourcen von TSMC ab, man denke da an die Kabinis/ Temash, Brazos, dann der riesige Konsolendeal. Ich weiß nicht wie es da um AMD steht, meinst du die können unbegrenzt Fertigungskapazitäten bei TSMC?
Wie wäre es, wenn du selber mal nachschaust, anstatt mich einerseits die Welt erklären und gleichzeitig mich nach Informationen nach mir fragst, mit denen du mir die Welt erklärst. Offensichtich weißt du nicht, wie groß TSMC bzw. die Fabriken & Fertigungen sind, weil du dann so eine Aussage nicht gemacht hättest.

Thanok schrieb:
Mensch ihr beide liefert eine Tolle Show ab!
Das ist keine Snow.
Meinungsfreiheit heißt ja, dass auch völlig Unwissende Leute was sagen & meinen dürfen, so ost sie wollen.

Ich werde mich mal nicht groß einmischen da mich die Feinheiten der Architekturen eher wenig interessieren (bzw. ich mein Wissen sich auf "Gibt's halt" beschränkt). Allerdings...
Es darf sind jeder einmischen, aber wer halbwegs Bildung oder konkrete Ausbildung dazu oder keine Einbildung hat, weiß die Art wie man sich richtig einmischt.

Thanok schrieb:
Auf der anderen Seite sind Architekturänderungen, zumindest größere, immer mit einem gewissen Entwicklungsaufwand verbunden. Daher wird bei einem Refresh idR die gleiche Architektur verwendet und nur in einzelnen Punkten optimiert.
Natürlich, aber ob wirklich mehr Entwickleraufwand betrieben wurde, sieht man an der Ahnzahl der Leute. Wir können das nur über das Geschäftsbericht lesen. Nicht zu vergessen ist, dass sich die Entwicklungsgschwindigkeit pro Person auch in den letzten Jahren verändert hat.

Thanok schrieb:
Und auch bei einer Architekturänderung sind die Unterschiede nicht immer sonderlich groß. Kepler ist in vielen Punkten mit Fermi identisch, Maxwell wird auch keine neue Architektur bringen. Der größte Architektursprung der letzten Zeit war da Fermi, und darauf basieren eben jetzt erstmal die nächsten Generationen.
Neue Architekturen sind es zwar trotzdem, die Basis ist aber eben "alt".
So gesehen ist jede GPU-& CPU-Generation von AMD & Nvidia & Intel eine Weiterentwicklung, die Fälschlicherweise Neuentwicklung genannt wurde. So wie Core eine Weiterentwicklung vom Pentium III ist, der eine Weiterentwicklung von P54 ist, vondem aus Larrabee (mit riesen Vektorblock) sowie Atom und mittlerweile Quark weiterentwickelt wurde.

Bei GCN wurde auch nur das Front-End des CUs erneuert, während der Rest (Grafik-Engines & Co) ziemlich gleich bliebt bzw. auf DX11 angepasst wurde.

AMD hat 2 Architekur Teams.
Einer Entwickelt die Architektur im Groben weiter (DX10 --> DX11 --> GCN) und die andere kümmert sich mal um die Shader & Co einheiten oder Front-End oder VLIW-5 --> WLIW-4 Umstieg.

Hawaii müsste wieder ein Ergebnis von dem Team sein, dass die Architektur in den letzten mindestens 6 Jahren im Groben ändert.

Ich vermag mich zu irren (siehe meine Untkenntnis), aber vor GCN hat AMD doch noch auf VILW-4/5 gesetzt welches eine sehr hohe Dichte der Shader ermöglichte UND vor allem die Shader nicht vollständig auslasten konnte. Du bringst das Beispiel mit den 10% von VILW-5 auf 4 ja selbst. Genau dass war ja auch der Grund weswegen AMD vom VILW-5 Design weggegangen ist.
Richtig, deshalb haben sie ein Front-End @ CU eingebaut.
Nur damit du es weißt. Im CU gibts auch 4 SIMD mit 16 Shaders, wobei die anders sind als die alten SIMD, weil sie 16 VILW-4/5 besitzen.

Bitte kläre mich bekennenden Laien mal auf was da DER große Unterschied sein soll. Für mich klingt GCN 2.0 nach GCN 1.0 mit einigen Änderungen aber im Grunde gleicher Architektur.
Erklären kann ich es nichts, weil ich keine konkreten Infos dazu habe, aber spekulieren.
Ich hätte für GCN 1.1 schon 4 Rasterizer spekuliert.
Ein Indiz könnte die 4 ACE @ Kabini (GCN 1.1) sein, weil GCN 1.0 mit 2 ACE immer 2 Rasterizer hatte. Den Zusammenhang kann ich nicht eklären.

Weil wieder eine grobe Weiterentwicklung ansteht, halte ich bei GCN 2.0 256-Shaders für möglich, wobei es nicht das erste mal war, dass Gerüchte die übernächste Generation betreffend. Bestes beispiel sind GCN-Gerüchte vor HD 6970-Einführung oder die Grüchte, wo man 1 GPU-Entwickelt und diese am Desgin so zusammenfügt/kopiert (1-GPU = Low-End , 2-GPU=Mainstream 3-GPUs = Performance & 4 GPUs = High-End) Diese Gerüchte von 2006, 2007 oder 2008 könnte von den Grafik-Engines so interpretiert worden sein.
Hawaii könnte schon 4 Grafik-Engines besitzen.

Also, wenn ich mit beim Spekulieren falsch vertan hatte, muss es nicht immer falsch sein, weil es genauso später kommen kann.

Übliche Verbesserungen, die man nicht in Zahlen ausdrücken kann, sind nicht nur bessere & effizientere Controllers, sondern auch Unified-Controller, die man dann besser in die APU-Einplanzen kann.
Den Schritt auf 4 Rasterizer hatte ich schon bei GCN 1.1 am Wahrscheinlichsten halte
Wobei damals ich 2 Big-Grafik-Engine mit je 2 Rasterizer (wie beim HD 5870) oder 4 Normale-Grafik-Engine mit je 1 Rasterizer für möglich hielt.
Bei GCN sollten es eher 4 Normale-Grafik-Engine mit je 1 Rasterizer sein.

Wenn die CU nicht auf 256-Shaders umgebaut werden, dann muss irgendwas anders groß umgebaut werden.
Dem Umbaut des Front-End auf 256-Shader halte ich deshalb am Wahrscheinlichsten, weil die Grafik-Engine (auf 2 Big oder 4 Normalo) schon bei GCN 1.1 umgebaut sein müsste. Wenn dort die groß umgebaut wurden, dann müsste die Grafik-Engine generell bzw. Typos komplett neu entwickelt werden. Also, vielleicht dass nachdem die CU auf HSA-fähig umgestellt wurde, dann auch die Grafik-Engine auf HSA-fähig umgetellt wird und so den nächsten Flaschenhals beseitigt.

Für mich klingt GCN 2.0 nach GCN 1.0 mit einigen Änderungen aber im Grunde gleicher Architektur.
Wie ich schon sagte, so kannst du jede Architektur bezeichnen, weil es immer nur weiterentwicklungen sind, wo immer nur Teile weiterentwickelt werden.
 
Zurück
Oben