Herdware schrieb:
Von den Diagrammen haben alle bis auf eines meinen Standpunkt unterstützt, nämlich dass die Kaveri-Generation die erste ist, bei der HSA-Features tatsächlich in Hardware implementiert sind und nicht nur vorbereitende Schritte (z.B. CPU und GPU auf einem Die usw.) gemacht wurden.
Auch wenn es deine Standpunkten entspricht, sind deine Aussagen dann trotzdem Falsch, wenn du sie hier mitteilst.
Genaue Definitionen sind wichtig für Produkt-Bewertungen, sonst reihmen sich diverse Leute eben etwas zusammen und es ist dann kein Wunder, dass gerade die größten Bulldozer-&-AMD-Kritiker sich Technisch am wenigsten auskennen.
In einer Folie war, wenn ich mich richtig erinnere, von Unified Memory schon bei Trinity die Rede, was eine Aussage ist, die ich noch nirgendwo anders so gesehen habe und der auch von diversen anderen AMD-Folien direkt widersprochen wird.
Völlig Falsch.
Seit Trinity ist es möglich, dass der GPU-Controller auf CPU-Daten zugreifen kann.
Aber eben den Umweg über Crossbar & CPU-Controller. Unified erspart den Umweg.
Programme die eben nicht oft zwischen CPU & GPU wechseln, haben einen viel größeren "HSA"-Effekt als Programme, die ständig zwischen CPU & GPU-Wecheln.
Unified beseitigt diese Umwege, aber nächste HSA-Generationen ermöglich, dass immer mehr CPU-Daten-Typen von der viel effizienteren GPU abgearbeitet werden kann.
Ich bin deshalb keineswegs von deiner Theorie überzeugt. Ich war es nur irgendwann leid mich deshalb weiter mit dir herumzuschlagen.
Bei deinem Wissensstand wundert mich das nicht.
Nicht umsonst kommst du bei Technischen Details immer nur mit Erinnerungen und verwechselst Llano mit Trinity oder Trinity mit Kaveri.
Es stimmt, dass die CPU-Leistung für vieles ausreicht. Aber ich bin sicher nicht der einzige, der etwas mehr davon gerne mit nimmt. Dann ist die Excel-Tabelle vielleicht ein paar Sekundenbruchteile schneller durchgerechnet und man hat etwas mehr Zukunftssicherheit usw.
Mehr iGPU-Leistung nutzt einem aber nur in Ausnahmefällen etwas. Die meisten spielen überhaupt nicht auf einem Ultrabook. Für HD-Video und alles andere reichten schon die allerersten HD-iGPU (Arrendale) vollkommen aus.
Würde deine Aussage stimmen, dann hätte Intel seit Arrendale nicht so massiv in der GPU-Performance zugelegt.
Würde deine Aussage stimmen, so würde man bei Hochauflösende Displays keine HD 5x00-Intel oder Grafikkarte nehmen.
Würde deine Aussage stimmen, so würde der Smartphone- & -Tablet-Markt nicht in der GPU-Performance erheblicher mehr zulegen als im CPU-Markt.
Würde deine Aussage stimmen, so würde der Netbook-Markt mit den alten Atom-Chip nicht dermaßen Untergangen, dass nicht nur der Netbook-Markt völlig in Verruf gekommen ist, sondern auch der Atom-Brand.
Ich glaube die wenigsten wissen hier überhaupt, wie viel CPU-Power ein AMD-K8 hat.
Man muss schon eine ziemlich große Exel-Tabelle haben, um die Grenze einer CPU überhaupt zu spüren und selbst da kann man noch gut arbeiten, weil die Meiste Zeit sowieso beim Nachdenken draufgeht.
Unter den Spielern wird wiederum der größte Teil auch mit der GPU-Leistung von Kaveri nicht wirklich glücklich sein.
Hier gibt es einen
Test der HD7730, die wohl der Kaveri-GPU-Leistung und auch den technischen Daten relativ nahe kommt. Selbst mit runtergedrehten Details ist FullHD nur bei den wenigsten Spielen flüssig.
Gleiches gilt für Tablet & Smartphone und trotzdem steigt die GPU-Performance dort seit Jahren am Stärksten.
Die APUs sitzen, was da angeht, immer noch zwischen den Spielen. Zu viel für Desktop und zu wenig zum Spielen. Erst wenn die GPU-Leistung für klassische CPU-Anwendungen nutzbar wird, geht das APU-Konzept wirklich auf.
Mit APUs sind auch erheblich bessere Ilde-Akku-Zeiten möglich. Das APU-Konzept geht schon längst auf, was aber jene Leute nicht so sehen können, die CPU-Only-Performance-Balken noch immer in den Himmel loben und nicht das Gesamt-Paket genau betrachten.
Übrigens, ich hatte letzten einen Computer eines Bekannten von K8-2-Core onboard-GPU auf Trinity-2-Core aufgerüstet. Damit mir die Blitzschutz-Versicherung alles Zahlt, durfte ich nur gleichwertiges Einkaufen, wobei die billigsten Produkte immer noch alle besser waren, als der Mainstream von Damals. Da konnte man dann den gewaltigen APU-Fortschritt sehr gut spüren. Denn während die CPU so +25% schneller war, war die GPU um so +200% schneller und das Internet-Surfen war gewaltig spürbar besser. Mit einer SSD konnte man das sehr gut spüren.
Smartphones und Tablets haben im Vergleich mit dem PC sehr wenig CPU- und GPU-Leistung, aber verhältnismäßig hohe Displayauflösungen. Das war GPU-Leistung wirklich nötig, auch nur für flüssiges Bewegen im GUI.
GPU-Performance wuchs auch zu Zeiten stärker, als es keine Retina-Auflösungen gab und da waren die Ausflösungen viel schwächer als PC-Auflösungen.
Bei typischen PCs ist das eher nicht der Fall. Da reichen die schwächsten iGPUs für diese Zwecke aus. Man bemerkt keinen Untershcied, ob man sich unter Windows bei FullHD oder 1440p auf einem Rechner mit GTX Titan oder alter HD-iGPU bewegt.
Klar, weil der Typische Technik-Typ sich ständig neue Produkte kaufen und nicht merkt, wenn ein Notebook an die GPU & Multimedia-Grenzen stößt.
Wer wirklich auf Zukunftssicher kauft und es nutzt, der weiß, dass manchmal noch ganz andere Probleme entstehen außer GPU & CPU-Performance.
Das stimmt allerdings. Apples-Notebooks mit Retina-Display oder 4k-Monitore beim Desktop bringen bisherige iGPUs tatsächlich an ihre Grenzen und man braucht entweder die Leistung einer APU, Intels Iris Pro, oder einer besseren Low-End-Karte.
Ich denke aber, dass die wenigsten APUs der nächsten 2-3 Jahre mit sowas in Berührung kommen werden.
Selbst ein jetziger 35W-Richland würde dafür geeignet sein, weil ein Intel-Iris Pro eben auch 28W verbraucht.
Ein 35W-Richland ist heute schon einen 17W-Intel + Grafikkarte (Low-end-15W-TDP ist schwächer oder Mainsstream-GPU ist mit fast 30W deutlich ineffizienter) völlig konkurrenzfähig.
Jede Effizienz-Steigerung (20nm oder Bulldozer- oder GCN-Architektur) bewirkt in Zukunft, dass die Mainstream-GPUs deutlich spürbar an GPU-Performance oder TDP-Reduktion zulegen werden.
Das sind offizielle MS-Folien, keine Gerüchte.
Sorry, ich dachte du schreibst über PS4.
Oder darauf, dass man normalerweise davon ausgeht, dass die Produkte auch zu dem Zeitpunkt zu kaufen sind, der in den Roudmaps oder sonstigen Ankündigungen angegeben ist. Ansonsten rümpft man die Nase wegen des Paperlaunchs. Das ist nicht die feine englische Art.
Diese Roadmaps sind trotzdem für OEMs gedacht und nicht für bei Technik-Freaks. Entsprechend zu den OEM-Produkte sind die Roadmaps und Termin-Aussagen, damit sich die OEMs sich drauf einstellen. Nur glauben paar Technik-Freaks, dass sich die Welt um sie dreht und diverse Produkte durchs Netzs schlechtreden zu können, nur weil am Tag X und Y nicht das Produkt verfügbar ist.
Gerade in den letzten Quartalen hatte ich paar Notebooks gekauft und war ziemlich erstaunt, wie wenig neue Intel & GPU-Technik es gab, obwohl es schon viele Monate davor vorgestellt wurde.
Aber vielleicht haben sich die Gepflogenheiten inzwischen geändert und man sieht sowas als normal an, bzw. werden Leute, die das anders sehen belächelt.
Und zum Thema GF, TSMC, SOI, Bulk, 28nm usw. sind z.B. in diesem
Thread einige interessante Beiträge zu finden.
Tipp: Dresdenboy und Idontcare sind Insider im Halbleitergeschäft.
Solange da keine konkreten Informationen drinnenstehen, ist es auch nur eine Meinung.
Ersterer kenne ich noch aus der Zeit primär vor der Bulldozer-Zeit und ich weiß auch, wie extrem schlecht Leute auch eine CPU-Performance einschätzen können, auch wenn sie die zukünftige CPU-Architektur einerseits mit konkreten Infos und andererseits durch viele herausgesuchte Patente über 20 Seiten im Detail erzählen können.
Ich kannte auch andere Insider die völlig mit ihren Performance-Aussage danebenlagen.
Spekulation ist nunmal ein guter zusammenhängender Mix aus Vielen Betrachtungs-Winkeln, weshalb auch jene Leute mal völlig daneben liegen können, die sich sehr gut in der Technik-Thematik auskennen mögen.
Nochmal für dich:
Kaveri ist mit so 250mm² wesentlich kleiner als so ein PS4 mit 300-400mm².
Also, wenn PS4 bald recht gut am Markt kommen würde, dann kann man wohl kaum bei viel kleineren Chip-Größen größere Probleme erwarten.
Weiters kommt Kaveri sogar im Desktop-Markt als erstes.
Also, wenn es laut dir mögliche Takt-Ziel-Probleme geben sollte, warum soll dann Kaveri vorallem in Desktop-Markt kommen, wo mit so 4,0 Ghz wesentlich höhere Taktraten nötig sind, als im 35W-Notebook-Markt mit so max 3,0 Ghz oder erst recht im 17W-TDP-Markt mit vielleicht 2,0 Ghz??????
Wie ich dir schon sagte. Es gibt etliche Gründe, warum Kaveri für manche etwas mit Verspätung kommt.
Nur zur Info.
AMD war auch nicht gezwungen für Kaveri unbedingt 28nm statt 32nm-SOI zu verwenden.
Wäre 28nm so viel schlechter und risikoreicher als 32nm-SOI, dann hätte man wohl kaum 28nm für Kaveri genommen.