Herdware schrieb:
Computerei ist für mich nur ein langjähriges Hobby.
Aber ich bezweifele, dass auch allzuviele Profis aus dem Bereich CPU-Architektur den Kern der Ursachen für die Schwächen der ersten Bulldozer-CPUs wirklich erfassen können. Dieses Wissen haben, wenn überhaupt, eine Handvoll Entwickler bei AMD.
Computertechnik ist für mich auch nur Hobby.
Aber ich habe es mir mein Leben angewöhnt, nur das zu sagen, was ich geprüft/überprüft habe und verteidigen kann, wenn ich was zu sagen habe.
Außer ich sage eine Meinung. Die Muss man nicht prüfen, aber eine Meinung sagt man nur 1 mal und drückt sie anderen als Fakt nicht aufs Auge.
Wir können also alle nur auf Grund von Symptomen spekulieren.
Das Grund-Problem von dir & vieler anderer ist, dass sie sich mehr vertrauen als andere, obwohl sie offensichtlich weniger Wissen.
Ich hatte vor 5-6 jahren Null Ahnung über CPU-Technik. In den ersten Jahren gab es so gut wie keine Technik-Informationen zu lesen und zu finden. Mittlerweile gibts so viel Technik-Informationen, dass man sie im Vergleich zu früher viel leichter & schneller verstehen kann.
Mittlerweile kann man z.B. die AMD-GPU-Entwicklung sehr gut erkennen, wenn man sich die Mühe macht und die Generation der letzten Jahre vergleicht.
z.B. hat AMD 2 GPU-Architektur-Team, die sie jährlich jedes Jahr abwechseln.
Team A: Neue (Grund) Architektur(Struktur) --> R600 (DX10) --> R800 (DX11) --> R1000 (GCN)
Team B: Architektur/Einheiten-Optimierung --> R700 ( Primäre Shader-Effizienz) --> R900 (Primäre Front-End alias Dual-Grafik-Engine sowie Shader-Effizienz VILW-4 statt VILW-5)
Jetzt darfst du raten, welche Verbesserungen z.B: HD8800 und HD8900 haben wird, ohne gleich irgendwelche Gerüchte lesen zu müssen.
Aus dieser Logik wäre es nicht verwunderlich, wenn AMD diesen Weg auch in der CPU-Entwicklung eingeht, was primär mit automatischen Desgins geht. Aber da sie Bulldozer & Nachfolger noch nicht vollständig auf automatischem Desgin umstelltet wurden, wäre es nicht unlogisch, wenn Vishera nur eine kleine Entwicklung erhält, was auch als Bugfix verstanden werden kann.
Interessant ist die Modul-Entwicklung von AMD-GPU. Zwar bieten sie mit Low-End, Mainstream, Performance, High-End mehrere GPU-Designs an, aber alle dieser GPU-Desgins bestehen nur aus 2 oder 3 verschiedene Front-Ends, die aber über mehrere GPU-Generaitonen genutzt werden
R600 ....... 4 SIMD pro Grafik-Engine
R770 ....... 10 SIMD pro Grafik-Engine
R970 ....... 12 SIMD pro Grafik-Engine
RV1070 ... 16 CUs pro Grafik-Engine
Selbst bei diesen Unmengen von GPU-Dies der letzten paar Jahren, wird ständig diese eine Grafik-Engine seit R600 genutzt und auf die neue Architektur angepasst oder mit Einheiten-Verbesserungen (Tesselation-Unit-Generation 7 oder Rasterizer bzw. Gemetrie & Co)
Genauso so ähnlich würde das bei HotChips in der Bulldozer-Famlie angedeutet, wo die Fortschritte nur des FPU des Excavotur gezeigt wurde. Das riecht stark nach Baukasten-Prinzip, wo jeder Baukasten je nach Bedarf im jährlichen Verbesserungs-Rythmus entsprechned verbessert werden kann. Dieses Prinzip riecht stark nach dem GPU-Prinzip von AMD, wo 2 Teams jedes Jahr entweder einen neue Architektur rausbringt bzw. die Architektur im Grundprinzip ändert, während das andere Team eine Einheiten-Optimierung des Baukasten-Prinzip durchführt.
Mitlterweile sieht man sehr schön die Entwicklung, wenn man sich die Zeit nimmt und sein Hirn benutzt und nachsieht, anstatt immer die selben Benches miteinander zu vergleichen/widerkäuen.
Llano ... 5 SIMD pro Grafik-Engine (HD 5870 hatte 10 SIMD pro Rasterizer)
Trinity ... 6 SIMD pro Grafik-Engine (= Virgio) (HD 6970 hatte 12 SIMD pro Grafik-Engine)
Kaveri ... 7 CU Pro GE? oder 8 SIMD, weil das die Hälfte von 16 CUs des HD 7870 wäre.
Was man daraus lesen will, kann sich jeder selber überlegen
Das Grundproblem ist, dass die Menschen Schwierigkeiten haben ihr Hirn zu nutzen.
Immerhin. Die physikalischen Zusammenhänge zwischen hoher Spannung und hohem Verbrauch kann sogar ich als Maschinenbauer halbwegs begreifen.
So habe ich auch begonnen. Aber ich habe eben nicht eine Generation oder zwei sonder 5 Generation verglichen. Später kam Perf-/-mm² hinzu. usw usw.
Besonders was die neuen Prozesse der Chipschmieden angeht, kann man oft sowieso erst im Nachhinein sagen, wie gut eine bestimmte Architektur darauf laufen wird. Da heißt es Versuch und Irrtum und viele Itterationsschleifen mit Optimierungsversuchen.
So ist es,
Deshalb schaut man sich auch hier einige Generationen an und schaut, welche Entwicklungen zu bestimmten Zeiten gemacht wurden.
Deshalb sage ich ja, dass selbst wenn Piledriver draußen ist, man noch lange nicht genau sagen kann, wie gut er wirklich ist. a) Wir wissen nicht, wie viele auf R&D-Ressourcen wirklich da verwendet wurden und b) wie es mit der Fertigung aussah.
Deshalb erkennt man eben sofort bei Leuten, die ihre Meinung für Zukunftsentwicklungen als Fakt darstellen, dass sie überhaupt nichts wissen, weil es einfach viel zu wenig Informationen gibt, wo man dann als Fakt sprechen kann.
Die AMD-Untergangs-Prognosen konnte man auch in der K10-B2 und K10-B3-Ära lesen. Mit K10-C2 sah die Welt sah, wie ich es vermutet habe, urplötzlich wieder komplett anders aus.
Elkinator schrieb:
und dafür gibt es keine quellen die das nur irgendwie andeuten würden.ihr glaubt also das amd einen vishera ohne piledriver kernen macht obwohl es den opteron mit piledriver gibt.es ergibt einfach keinen sinn das amd da eine extra maske hat für eine cpu die sie nicht brauen.
Mittlerweile ist das ganze momentan für mich etwas unübersichtilch geworden, da mit "APU", Bulldozer und Bobcat/Jaguar schon 3 Architekturen wie bei Intel (Larrabee, Core-Serie, 3 Atom-Desgin-Versionen) draußen sind und somit es teils eine Gerüchte-Flut gibt, wenn von all diesen Architekturen irgendwelche Gerüchte (Wahre + gestreute Fakes) herumschwirren.
Im Grunde ist es mir Schweiß egal, ob Vishera ein Bugfixerl ist, oder eine kleiner Verbesserung, oder was auch immer. Ich sagte seit Ewigkeiten, dass eine 15-30%-Performance-Steigerung zufriendenstellend sein kein. Und ob Vishera die +15% über Takt oder IPC oder beides bekommt, ist mir ziemlich egal.
Egal deshalb, weil mir die Entwicklungs-Geschwindigkeit (Jahresrythmus von Bulldozer, GPU und APU-Architekturen) und Entwicklungs-Philosophie (Umstellung auf Automatische Architektur-Entwicklung) sehr gefällt und ich keine Fehler im Bulldozer-Konzept (Shared-Units @ Modul-Konzept) sehe. Architektur-Konzepte-Fehler (wie Netburst) sind früher oder später zum Tode verurteilt.
Das Bulldozer-Modul-Konzept könnte eben sehr interessant werden, wenn vielleicht einmal zur FPU eine oder zwei GPU-CUs eingebaut wird. Mit so 6mm² @ 32nm entspricht eine GCN-CU eben fast eine FPU.
Mit Steamroller-Modul-Aufbau (2 Front-End und 2 Integer-Core (mit je 2 ALUs)) erinnert auch stark an HD6970, der da erstmals auch 2 Grafik-Engines mit je 12 CUs bzw. 12x64 ALUs nutzte. HD 7970 hat ja auch 2 Grafik-Engines (mit CPU-Front-End vergleichbar), aber halt mit 16 CUs pro Grafik-Engine.
So wie es momentan ausieht, gibt es neben CPU-Architektur-Only-Weg bald einen Fusion [CPU+FPU+iGPU(Vertex)]-Architektur weg. Während es bei Intel schon Xeon-Phi heißt, sollte Nivida in so 1-2 Jahren auch damit @ ARM kommen. Zwar weiß man noch nichts bei AMD, aber mit dem Modul-Konzept (2-ALU pro Core) würde das auch dem von Intel & Nvida-Echolon-ARM entsprechen. Wann und ob AMD eine oder 2 CUs (2-Integer-Core mit je eine CU und dazwischen eine Big-FMA-FPU) in eine Bulldozer-Modul einpflanzt ist unklar, aber die Zukunft könnte da sehr interessant aussehen, weil viele Parameter des Modul-Konzepts in so eine Zukunft passen würde.
Roger ende.
Den Roten Faden ist nur für Technik-Interessierte gedacht.
PS: Ist zwar nicht alles Piledriver, aber Piledriver könnte der Urvater davon werden.