Naja... der Thread wird nicht besser wenn man auf so Kommentare von slsHyde überhaupt groß eingeht. Auf das Niveau sollte man sich gar nicht groß runterlassen da die Konversation da nie irgend wie fruchten wird oder Sinn ergeben kann.
In meinen Augen war / ist AMD in der Tat Innovationstreiber, zugleich ist es aber teils auch etwas surreal. Kann es wirklich funktionieren wenn der Zwerg mit wenig Budget auf Teufel komm raus Innovationstreiber sein will? AMD zeigt gut dass es so nicht geht.
Die Ansätze die AMD meist vorweise kann sind super, neue Techniken, auf den Papier schön aber neu ist auch oftmals = unerprobt und teuer, teils am Markt vorbei da die Software hinterherhinkt.
Intel und Nvidia zeigen gut wie man vorhandene Ressourcen besser einsetzt, Kostenoptimierung betreibt - das fängt beim schlanken SI der Nvidia Karten an und geht über billigste Chipsätze in alter Fertigung bei Intel weiter. AMD legt oft mittelprächtig und teuer vor, Intel und Nvidia ziehen dann wenn die Technik erprobt ist meist besser nach.
HBM ist mit wieder das beste Beispiel. Heute unflexibel, teuer, neu, allein die Fertigung mit Interposer und allem - schau ich mir das Ding an muss das deutlich teurer sein und zugleich dermaßen unflexibel mit HBM1 da man nicht den VRam variieren kann. Selbst das wird schon bei der Fertigung teurer da man hier unterschiedliche HBM Stacks aufsetzen muss. Dass sich jemand an HBM taut ist ja schön und gut, aber wieso auf diese Art und weise und wieso gerade auch AMD mit der einzigen neuen GPU im 700€ Segment ?
Wenn man damit mal eben 30% davonziehen würde wär das kein Problem, wenn man aber mit 300W und 8,6B Transistoren + HBM nur etwa gleich zieht... wozu dann der Aufwand?
Da hätte man genauso gut ne neue minimalistische low profile GPU bringen können, 1-2 Stacks, neuer effizienter Chip for 4k, HDMI 2.0, HEVC. Quasi ne GTX 960 mit HBM in Low Profile und 6" ITX format, super effizient.
GGF sogar verlötet auf dem Mainboard oder direkt in einer APU.
Wäre es so viel komplizierter direkt zB Kaveri / Carrizo mit HBM SI zu kombinieren um einfach direkt 2 GB mit auf die APU zu klatschen? Das wäre doch mal was... gerade im Notebook Umfeld. Stattdessen gibts ne 4 GB High End GPU die 1. n halbes Jahr zu spät kommt und 2. ca 0,05% vom Gesamtmarkt ausmacht.
Es geht darum den großen Markt mit kosteneffizienten Produkten zu bedienen. Irgendwie hab ich das Gefühl AMD übernimmt sich gerne... und Nvidia wird nächstes Jahr ganz locker auch mit HBM eisnteigen und die HBM2 Vorteile geniesen, AMD keinerlei Vorteile durch eine frühere Einführung davontragen. Bin ich mir fast sicher... und mich würde es nicht mal überraschen wenn sich Nvidia bis 2017 Zeit lässt mit HBM @ Desktop.
Edit:
In der Regel hätte man erwartet dass HBM zunächst entweder von Intel aka Phi eingesetzt wird oder Nvidias Tesla für XXXXX €.
Schau ich mir die Vergangenheit an so schustert Intel mir nichts dir nichts 2 DualCores zum Quas zusammen, pappt die billigste GPU als separate DIE zusammen mit der CPU auf nen PCB und kommt AMD zuvor... während AMD den ultimativen nativen Quad entwickeln muss und die GPU natürlich direkt in der CPU DIE integriert ist.... wenige von vielen Beispielen.
Ich bin Technik affin und die Fiji Karte ist sehr interessant, aber ich glaub AMD katapultiert sich damit eher weiter an den Abgrund als davon weg. Und damit ist keinem geholfen.