News AMD bestätigt Desktop-„Kaveri“ für 2013

Endkunden sind Kunden, die die Produkte dann selbst verwenden und nicht weiter verkaufen.
Leider steht in der News nichts vom Endkunden sondern ob man die Prozessoren ausliefern wird und damit kann eben auch ein OEM-Partner gemeint sein. Muss Combuterbase wohl konkreter fragen oder schreiben.
Angesprochen auf die Frage, was denn nun eigentlich an den Gerüchten über eine mögliche Verschiebung der neuen APU dran sei, dementierte AMD die entsprechenden Meldungen. An dem bereits bekannten Plan, Kaveri noch 2013 auszuliefern, habe sich nichts geändert, betonte der Konzern. Dabei wird wie erwartet die Desktop-Lösung als erstes erscheinen, das Notebook-Segment hingegen soll erst ab 2014 bedient werden.
Na hoffentlich fragt man bei Intel auch engagiert nach, welche Gerüchte auf Computerbase stimmen und welche nur Hirngespinste sind.

Weiß man denn schon welchen Speicher Kaveri unterstützen wird? DDR3? DDR4? GDDR5?
GDDR5 fix not, weil die Pläne hat man schon gestrichen.
Ich selber vermute es wird nur DDR3 sein (weil der Chip in 28nm kleiner ausfallen soll als Trinity).
Außer man hat den damaligen GDDR5 Speichercontroller eingebaut und dieser wird ebenfalls mit DDR4 und DDR3 umgehen können.
Es bleibt spannend ^^
Mein Bauchgefühl sagt aber dass es nur DDR3 sein wird. Ich persönlich sehe es sogar als wirtschaftlich wenn die GPU auch auf die Speicherbandbreite angepasst wird. Wenn der Chip kleiner wird als die Trinity APU, die Performance CPU aber 10-15% steigt, die GPU 20%, der Verbrauch dann sogar etwas leicht fällt, wäre das schon ein gutes Upgrade, der Chip für AMD aber günstiger als der Vorgänger.

Bis jetzt war doch immer von einer 7750 die Rede. Naja, bin auch auf die Kaveri gespannt.
Jup 512 shader werden es wohl auch sein, nur die Frage ist, wie stark die Speicherverbindung die GPU ausbremst. Eventuell könnte aber eben HSA auch den Flaschenhals etwas aufschnüren.

Aber selbst wenn man nur 386 Shader integrieren würde, sieht man bei der Mars GPU dass da noch einiges drinnen ist wenn der Takt stimmt.

guck dir die FM2+ Boards an auf denen 'Kaveri' zum Einsatz kommt. Dort ist überall von DDR3 die Rede.
Und was soll das beweisen ? Aja, dass es momentan einfach keine DDR4 Chipriegel zum Kaufen gibt.

Herdware schrieb:
0
Aber deren 28nm-Prozess (erstmals für AMD-CPUs/APUs mit Bulk-Silizium statt SOI) ist ziemlich neu und GF hat in der jüngeren Vergangenheit öfter mal Probleme mit neuen Fertigungsprozessen gehabt. Durch den Fertiger bedingte Verzögerungen sind also durchaus möglich und wahrscheinlich.
Erstens ist ein Bulk Prozess leichter als ein SoI, hat dafür aber nicht die Vorteile eines SoI Prozesses. Somit schön dass du die Probleme Vergangener SoI Prozesse beobachten konntest, hat aber trotzdem nichts mit dem 28nm Bulk Prozess zu tun.
Im Gegenteil AMD greift genau auf einen 28nm Bulk für Kaveri, weil der Prozess als Brücke zum fd.SoI dient (weil der Prozess noch länger dauert) und Bulk schneller zu händeln sein dürfte als bsp damals 32 nm SoI.
Desweiteren hatte man bei Llano (bei Trinity weniger) genau mit dem SoI Standard Probleme (da CPU und GPU unterschiedliche Anforderungen haben).
 
Zuletzt bearbeitet:
aylano schrieb:
Falsch.
hUMA alleine wird auch nicht das ganze HSA-Potential auschöpfen können, weil hUMA nur die Zugriffs-Möglichkeit der GPU auf CPU-Daten direkt ermöglicht, wenn wenn wenn wenn wenn eine iGPU entsprechende CPU-Daten überhaupt nutzen kann. Genau in diesem Punkt sind dann weitere GPU-Generation nötig, die mehr Fähigkeiten besitzen, indem sie mehr Daten-Typen übernehmen können.

Bei Start kam man keine Flut an Software erwarten. Die ersten werden innerhalb des ersten Jahres kommen (siehe iGPU-Beschleunigungen von allen Browsern)

Mit Kaveri wird aber das erste mal wirklich HSA-fähige Hardware auf den Markt kommen, nicht nur vorbereitende Schritte und die Softwarebasis dafür.

Ich erwarte wie gesagt auch keine Schwemme an HSA-Software. Aber wenn AMD die Gelegenheit verpassen würde, zumindest für ein paar angepasste Open-Source-Programme zu sorgen, mit denen Kaveri in Reviews demonstrieren kann, welches Potential in HSA steckt, dann ist deren PR-Abteilung noch viel unfähiger, als man sowieso schon vermutet.
Man kann die Gelegenheit, nach Jahren endlich mehr als nur theoretische bunte Balken in Powerpoint-Präsentationen vorzuweisen, nicht ungenutzt lassen.

Auch ohne HSA wird Kaveri stark. Schließlich wird dieser schon 512 Shader intern haben.
Denn wer schon mal 17W-Intel-CPUs inkl. dGPUs (15 bzw. 30W) mit 35W-APUs verglichen hat, der weiß wie Effizienz schon heutige APUs von AMD sind. Denn durch den Wegfall des Arbeitsspeicher und der Karte sind iGPUs verdammt effizient.

Mehr Grafikleistung ist nett, aber das schließt nunmal nicht die Lücke bei x86. Die reine GPU ist nicht die Baustelle, auf die AMD sich konzentrieren muss.

Auch nicht, wenn PS4 bei Globalfoundries produziert werden?

Ich hoffe, ich bringe das jetzt nicht durcheinander, aber wurden die älteren Gerüchte (von Anfang des Jahres), dass die Konsolen-SoCs bei GF laufen, nicht vor einiger Zeit ausgeräumt?
Ich bin mir ziemlich sicher, dass TSMC als Hersteller bestätigt wurde.

... Ich habe nochmal etwas nachgelesen und das XBox-SoC ist defninitiv bei TSMC. Zum PS4-SoC hab ich nichts neueres als diese alten Gerüchte (die sich zumindest in Bezug auf die XBox als falsch erwiesen haben) gefunden. Wenn MS bei TSMC fertigt und die PC-Jaguar-APUs sowieso dort laufen, dann ist die Wahrscheinlichkeit, dass auch Sony das tut, relativ hoch.

Und ja, Bulk ist "einfacher"/billiger als SOI, aber es werden trotzdem die ersten AMD-CPUs/APUs dieser Klasse, die auf Bulk gefertigt werden. So eine Umstellung kann durchaus Probleme machen. Z.B. wird es mit Bulk generell schwieriger werden, höhere Taktfrequenzen zu erreichen. AMD muss die Kaveri/Steamroller also konstruktiv entsprechend auslegen. Dabei kann es leicht passieren, dass bestimmte Performance-/Takt-Ziele erstmal nicht erreicht werden und Extrarunden gedreht werden müssen. Wäre nicht das erste mal.

Deshalb bleibe ich dabei, 28nm-Bulk bei GF ist für solche Art Produkte Neuland. Die Kaveris werden die ersten komplexen CPUs/APUs sein, die auf diese Weise hergestellt werden.
 
Zuletzt bearbeitet:
Kaveri ist sehr interessant. Bis Jahresende sind es ja nur noch paar Monate, das werd ich wohl noch aushalten. :P

Was mich aber noch mehr interessiert sind die Non APU ala Steamroller. Diese wurden bis jetzt nicht angekündigt und ich Frage mich, ob diese auch wirklich erscheinen werden oder ob AMD nur noch eine Strategie von APUs verfolgt?
 
lowkres
Die Frage ist, ob AMD bei einer APU momentan überhaupt mehr als 4-6 Cores braucht. Denn viele reden immer von Multithreading, doch wenn man mal etwas darüber nachdenkt, wäre das Abarbeiten von Aufgaben verteilt auf der GPU ebenso Multithreading.
Dank Games und Video-Bearbeitung kann man bereites einige Teile effektiv auf eine GPU parallel abarbeiten lassen. Dann braucht man sich nicht soviele Gedanken machen, aufgaben auf mehrere Cores aufzuteilen.

Ich bin gespannt wie die APU Excavator und dessen Nachfolger dann wohl aussehen wird.
Module mit 2 Cores, FPU + Shader + ARM Prozessor ? Dann einfach je nach Bedarf die Anzahl von Modulen ?
 
pipip schrieb:

Ja das mit Kernen wird sich noch zeigen. Aber ich kann mir sehr gut vorstellen, dass in den nächsten Jahren 8 Kerne mehr bringen werden als 4 oder 6. Der Grund sind einfach die neuen Konsolen und die daraus folgenden Portierungen auf dem PC. Ich Frage mich auch, ob es Sinn macht einen Kaveri für die FM2 Plattform zu holen, wenn es noch nicht sicher ist, ob auch für den AM3+ eine Steamroller CPU erscheinen wird?
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Herdware schrieb:
Mehr Grafikleistung ist nett, aber das schließt nunmal nicht die Lücke bei x86. Die reine GPU ist nicht die Baustelle, auf die AMD sich konzentrieren muss.
In meinen Augen ist das genau das, was sie tun müssen. Es gab doch mal bei Anandtech den Vergleich zwischen A10-5800K und einem i5-2xxx oder -3xxx. Da hat sich gezeigt, dass sich bis zu einer HD7850 der i5 in Spielen nicht sonderlich weit absetzen konnte. Weniger, als man aufgrund der potentiellen Mehrleistung erwarten würde (GPU-Limit). Demnach wäre eine Kombination aus "Richland + 10-15%" und einer HD 7730-7750 eine sehr gute Kombination.
 
lowkres schrieb:
Ja das mit Kernen wird sich noch zeigen. Aber ich kann mir sehr gut vorstellen, dass in den nächsten Jahren 8 Kerne mehr bringen werden als 4 oder 6.

Die neuen Konsolen werden Multithreading-Optimierung sicherlich einen Aufschwung bescheren. Bei den Jaguar-SoCs mit vergleichsweise wenig Single-Thread-Leistung aber dafür 8 Cores, kommen die Spieledesigner gar nicht darum herum und das wird sich auch bei den Portierungen für PCs zeigen. Das kann dann als Motor für einen generellen Trend hin zu mehr Threads wirken.

Andererseits wird eine Software, die die Last optimal auf 8 Threads verteilt, auf einem Quadcore mit doppelter Single-Thread-Leistung genauso gut laufen. Kaveri hat sicher mindestens doppelte Single-Thread-Leistung wie so ein kleines Jaguar-SoC und kann damit leicht zwei Threads pro Core (bzw. 4 pro Modul) schultern. Ein Zwei-Modul-Kaveri wäre CPU-Seitig also schon eine ziemlich gute Grundlage für Next-Gen-Konsolenports. (Ein Intel-Quadcore auch ohne HT sowieso.)

Trotzdem halte ich es auch für wahrscheinlich, dass irgendwann auch APUs mit mehr Modulen kommen werden, die die alten FX inklusive AMx-Plattform zu beerben.
Es sei denn, AMD verabschiedet sich gleich ganz von Bulldozer und Co. und setzt zukünftig nur noch auf APUs mit klassischen Cores, indem sie die Jaguar-Architekur entsprechend aufmotzen. (Ähnlich wie Intel es damals mit den Pentium M gemacht hat, um Netburst abzulösen.)
 
Herdware schrieb:
Mit Kaveri wird aber das erste mal wirklich HSA-fähige Hardware auf den Markt kommen, nicht nur vorbereitende Schritte und die Softwarebasis dafür.
"Wirklich" ist genauso falsch wie schwarz und weiß.
Bei Llano und Trinity hat es auch Verbesserungen in dieser Richtung gegeben, die bei einigen Anwendungen doppelte Geschwindigkeiten (wenn nicht mehr) bekommen hat.
Und mit HSA wird es nicht anders sein, wo wieder ein großer Sprung bevorsteht. Aber es wird dann nicht der letzte sein und das sollten man wissen, vorallem bei Leuten die hohe Fachkentnis diverse Architekturen ständig schlechtreden

Ich erwarte wie gesagt auch keine Schwemme an HSA-Software. Aber wenn AMD die Gelegenheit verpassen würde, zumindest für ein paar angepasste Open-Source-Programme zu sorgen, mit denen Kaveri in Reviews demonstrieren kann, welches Potential in HSA steckt, dann ist deren PR-Abteilung noch viel unfähiger, als man sowieso schon vermutet.
Man kann die Gelegenheit, nach Jahren endlich mehr als nur theoretische bunte Balken in Powerpoint-Präsentationen vorzuweisen, nicht ungenutzt lassen.
Ich hatte dir schon letztens ein paar Diagramme geschickt und offensichtlich hast du es schon vergessen.
Was soll AMDs Marketing noch alles tun, wenn diverse Leute die Ständigen Marketing-Vergleiche nicht sehen/merken können?
Ganz im Gegenteil, wenn AMD solche Vergleiche macht, dann kommen die AMD-Basher und reden das AMD-Produkt runter, weil es im speziellen Rosinenvergleich Intel vielleicht doch noch irgendwo etwas "besser" scheint.

Mehr Grafikleistung ist nett, aber das schließt nunmal nicht die Lücke bei x86. Die reine GPU ist nicht die Baustelle, auf die AMD sich konzentrieren muss.
Seit 2011 sagte ich ja, dass die ULV-Intel-CPUs und AMD-APUs genug CPU-Performance haben und es hat sich eben bestätigt, dass nicht nur der Ultrabook-Markt schlecht wuchs, sondern es zeigte sich durch die PC-Krise @ Europa seit 2012 und PC-Krise @ Global seit 2013.

In den Technik-Foren herscht noch völlig altes Desktop-Denken, während der Smartphone & Tablet schon seit jahren mehr über GPU-Performance wächst als über CPU-Performance.

Hohe GPU-Performance sind vorallem in Hochauflösenden Displays (>1440p) nötig, die jetzt oft mit Grafikkarte ausgestattet werden, weil der Intel verhungert.

Ich hoffe, ich bringe das jetzt nicht durcheinander, aber wurden die älteren Gerüchte (von Anfang des Jahres), dass die Konsolen-SoCs bei GF laufen, nicht vor einiger Zeit ausgeräumt?
Wenn es die Konsolen waren, stimmt es, weil es nur die PS4-Konsole ist.
Globalfoundries sagte vor kurzem, dass sie kein Problem hätte, PS4-Kapazitäten zu erhöhen.

... Ich habe nochmal etwas nachgelesen und das XBox-SoC ist defninitiv bei TSMC.
Vorsichtig bei Seiten, deren Beiträge primär Gerüchte sind.

Wenn MS bei TSMC fertigt und die PC-Jaguar-APUs sowieso dort laufen, dann ist die Wahrscheinlichkeit, dass auch Sony das tut, relativ hoch.
Mein Gott na, was hast du für einen Logik.
28HPP wird schon seit Mitte 2012 gefertigt. ( was aber trotzdem noch zu spät für Krishna war)
Das Problem, warum AMD Jaguar jetzt nicht bei GF fertigt liegt, eben primär daran, dass sie a) nicht von heute auf Morgen auf GF wechseln können und es so ein Jahr dauert und b) sowieso nicht die R&D-Ressourcen für eine Auslagerung aus TSMC hätten.

Und ja, Bulk ist "einfacher"/billiger als SOI, aber es werden trotzdem die ersten AMD-CPUs/APUs dieser Klasse, die auf Bulk gefertigt werden. So eine Umstellung kann durchaus Probleme machen.
Es ist schon seit 6 Monaten bekannt, dass Kaveri Ende 2013 "kommt"/vorgestellt wird und Produkte erst 2014.
Diese Erbsenzählerei, wann Kaveri tatsächlich kommt, brüht ja nur auf Unkenntis diverser Leute.

Genauso werden diese Argumente gebraucht, wenn Kaveri zum Start nicht gleich in voller Flut in Produkten dahertanzt.
Man braucht sich nur anschauen, wie über Kabini-Produkt-Verfügbarkeit gelästert wird, dem keine Architektur, Bulk-Umstiege oder Fertigungs-Probleme nachgesagt wird.

Z.B. wird es mit Bulk generell schwieriger werden, höhere Taktfrequenzen zu erreichen. AMD muss die Kaveri/Steamroller also konstruktiv entsprechend auslegen. Dabei kann es leicht passieren, dass bestimmte Performance-/Takt-Ziele erstmal nicht erreicht werden und Extrarunden gedreht werden müssen. Wäre nicht das erste mal.
Natürlich könnte es so sein, aber ob es mit Bulk so viel schwieriger ist, können wir pauschal nicht sagen, weil 28HPP auch 1-2 Jahre weiter entwickelt sein kann, wie 32nm-SOI. AMD sprach auch einmal, dass 28HPP nicht mit 32nm-SOI zu vergleichen ist.

Aber die Auslegung auf 512 Shader @ Kaveri wurde auch bewusst auf Kenntnis der Fertigungs-Qualität gemacht.
Das Problem was ich wennschon am Kaveri sehe ist die HSA-Technik, die noch verbugged sein kann. Gerade in Jungen Techniken (K10 & Penryn-Quad-45nm, Montevina-Dual, Sandy-Bridge-SATA (oder so)) sind Buggs nicht unüblich.

Deshalb bleibe ich dabei, 28nm-Bulk bei GF ist für solche Art Produkte Neuland. Die Kaveris werden die ersten komplexen CPUs/APUs sein, die auf diese Weise hergestellt werden.
Nur das du es weißt.
Wenn PS4 doch in GF gefertigt wird, ist nicht nur diese Aussage dann völlig falsch sondern auch noch viele andere über einen längeren Zeitraum.
Der 28nm-Bulk-Ramp startete April 2012 und hat im 4Q 2012 schon über 50% von GF-Fab 1 & 8 erreicht.
Wir sprechen da von 40-60.000 Wafer.
komplexe große Chips und kleine Chips haben übrigens den selben Maßstab und der nennt sich Defekt-Rate.
Und die Defekt-Rate sind bei kleinen Chips nicht viel unwichtiger als bei großen komplexen Chips, weil die Stückzahlen wesentlich größer sind und die Margen wesentlich kleiner.

Natürlich,
nachdem wir in den letzten paar Jahren bei Gobalfoundries & TSMC (und mittlerweile auch Intel) die immer größeren Fertigungs-Probleme sehen konnten, ist man auf der Sicheren Seite, wenn man bei Kaveri wieder Fertigungs-Probleme für möglich hält.

Im Unterschied zu Früher wurden bei großen Fertigungs-Probleme AFAIK nie laufende Produkte schon längst bzw. so früh der Presse gezeigt.
So Früh war das AFAIK nur bei K10 und der hatte eben bekanterweise 4 schwerwiegende Bugs, wo der letzte dann zu spät gesehen wurde.

Fakt bleibt aber auch, dass sich seit 6 Monate praktisch nichts beim Einführungstermin getan hat. Und diese sind relevant, weil man in dieser Zeit auch die ersten Samples (= Stand der Technik-Qualität) bekommen hat.
Selbst wenn wenn wenn es dann 1-2 Monate werden, wären diese viel zu wenig um es primär auf Fertigungsprobleme zurückzuführen.
 
Leider Krankt AMD seit eingien Jahren daran besonders Innovativ sein zuwollen, die CPU´s und APU´s an der offenen Hand verhungern, weil es so gut wie keine Software gibt die diese Sachen nutzen kann.

AMD müßte wieder für das Jetzt entwickeln, denn wenn die Funktionen mal genutzt werden sind die Prozessoren alle schon veraltet.
Mal ehrlich ich habe in diesem Moment ca. 60 Programme installiert, davon nutzen vieleich 3-4 GPU Beschläunigung.

Ich wil keine APU, ich brauche ein 95 oder 100W CPU ohne iGPUquatsch mit 6 oder 8 echten Kernen.
Wenn ich mal Spiele dafür habe ich und werde ich immer eine dedi GPU Karte im Tower haben und die CPU power brauche ich für x264 usw. da nutzen mir die FX´er nix, da die kaum Schneller sind als mein Thuban der mit seinen 6FPU besser dran ist als die 4 Shared FPU beim FX.
 
Zuletzt bearbeitet:
Naja, die jetzige Architektur ist hoffnunglos veraltet. Die können nur auf neue Features/ Architekturen setzen. Aber an Intel rankommen werden sie wohl (so bald) nicht mehr ;)
 
aylano schrieb:
Ich hatte dir schon letztens ein paar Diagramme geschickt und offensichtlich hast du es schon vergessen.

Von den Diagrammen haben alle bis auf eines meinen Standpunkt unterstützt, nämlich dass die Kaveri-Generation die erste ist, bei der HSA-Features tatsächlich in Hardware implementiert sind und nicht nur vorbereitende Schritte (z.B. CPU und GPU auf einem Die usw.) gemacht wurden.

In einer Folie war, wenn ich mich richtig erinnere, von Unified Memory schon bei Trinity die Rede, was eine Aussage ist, die ich noch nirgendwo anders so gesehen habe und der auch von diversen anderen AMD-Folien direkt widersprochen wird.

Ich bin deshalb keineswegs von deiner Theorie überzeugt. Ich war es nur irgendwann leid mich deshalb weiter mit dir herumzuschlagen. ;)

Seit 2011 sagte ich ja, dass die ULV-Intel-CPUs und AMD-APUs genug CPU-Performance haben und es hat sich eben bestätigt, dass nicht nur der Ultrabook-Markt schlecht wuchs, sondern es zeigte sich durch die PC-Krise @ Europa seit 2012 und PC-Krise @ Global seit 2013.

Es stimmt, dass die CPU-Leistung für vieles ausreicht. Aber ich bin sicher nicht der einzige, der etwas mehr davon gerne mit nimmt. Dann ist die Excel-Tabelle vielleicht ein paar Sekundenbruchteile schneller durchgerechnet und man hat etwas mehr Zukunftssicherheit usw.
Mehr iGPU-Leistung nutzt einem aber nur in Ausnahmefällen etwas. Die meisten spielen überhaupt nicht auf einem Ultrabook. Für HD-Video und alles andere reichten schon die allerersten HD-iGPU (Arrendale) vollkommen aus.

Unter den Spielern wird wiederum der größte Teil auch mit der GPU-Leistung von Kaveri nicht wirklich glücklich sein.
Hier gibt es einen Test der HD7730, die wohl der Kaveri-GPU-Leistung und auch den technischen Daten relativ nahe kommt. Selbst mit runtergedrehten Details ist FullHD nur bei den wenigsten Spielen flüssig.

Die APUs sitzen, was da angeht, immer noch zwischen den Spielen. Zu viel für Desktop und zu wenig zum Spielen. Erst wenn die GPU-Leistung für klassische CPU-Anwendungen nutzbar wird, geht das APU-Konzept wirklich auf.

In den Technik-Foren herscht noch völlig altes Desktop-Denken, während der Smartphone & Tablet schon seit jahren mehr über GPU-Performance wächst als über CPU-Performance.

Smartphones und Tablets haben im Vergleich mit dem PC sehr wenig CPU- und GPU-Leistung, aber verhältnismäßig hohe Displayauflösungen. Das war GPU-Leistung wirklich nötig, auch nur für flüssiges Bewegen im GUI.
Bei typischen PCs ist das eher nicht der Fall. Da reichen die schwächsten iGPUs für diese Zwecke aus. Man bemerkt keinen Untershcied, ob man sich unter Windows bei FullHD oder 1440p auf einem Rechner mit GTX Titan oder alter HD-iGPU bewegt.

Hohe GPU-Performance sind vorallem in Hochauflösenden Displays (>1440p) nötig, die jetzt oft mit Grafikkarte ausgestattet werden, weil der Intel verhungert.

Das stimmt allerdings. Apples-Notebooks mit Retina-Display oder 4k-Monitore beim Desktop bringen bisherige iGPUs tatsächlich an ihre Grenzen und man braucht entweder die Leistung einer APU, Intels Iris Pro, oder einer besseren Low-End-Karte.
Ich denke aber, dass die wenigsten APUs der nächsten 2-3 Jahre mit sowas in Berührung kommen werden.

Vorsichtig bei Seiten, deren Beiträge primär Gerüchte sind.

Das sind offizielle MS-Folien, keine Gerüchte.

Es ist schon seit 6 Monaten bekannt, dass Kaveri Ende 2013 "kommt"/vorgestellt wird und Produkte erst 2014.
Diese Erbsenzählerei, wann Kaveri tatsächlich kommt, brüht ja nur auf Unkenntis diverser Leute.

Oder darauf, dass man normalerweise davon ausgeht, dass die Produkte auch zu dem Zeitpunkt zu kaufen sind, der in den Roudmaps oder sonstigen Ankündigungen angegeben ist. Ansonsten rümpft man die Nase wegen des Paperlaunchs. Das ist nicht die feine englische Art.

Aber vielleicht haben sich die Gepflogenheiten inzwischen geändert und man sieht sowas als normal an, bzw. werden Leute, die das anders sehen belächelt. ;)

Und zum Thema GF, TSMC, SOI, Bulk, 28nm usw. sind z.B. in diesem Thread einige interessante Beiträge zu finden.
Tipp: Dresdenboy und Idontcare sind Insider im Halbleitergeschäft.
 
Zuletzt bearbeitet:
Mein Bauchgefühl sagt mir, dass es leider wieder nur ein "kleines" Update wird. Ich bin gespannt, ob sich ein Umstieg von meinem erst kürzlich gekauften 6800k lohnen wird. Ich bin mit dieser APU sehr zufrieden auf dem Takt, wie ich ihn habe (siehe Sig.). :)
 
Herdware schrieb:
Von den Diagrammen haben alle bis auf eines meinen Standpunkt unterstützt, nämlich dass die Kaveri-Generation die erste ist, bei der HSA-Features tatsächlich in Hardware implementiert sind und nicht nur vorbereitende Schritte (z.B. CPU und GPU auf einem Die usw.) gemacht wurden.
Auch wenn es deine Standpunkten entspricht, sind deine Aussagen dann trotzdem Falsch, wenn du sie hier mitteilst.
Genaue Definitionen sind wichtig für Produkt-Bewertungen, sonst reihmen sich diverse Leute eben etwas zusammen und es ist dann kein Wunder, dass gerade die größten Bulldozer-&-AMD-Kritiker sich Technisch am wenigsten auskennen.

In einer Folie war, wenn ich mich richtig erinnere, von Unified Memory schon bei Trinity die Rede, was eine Aussage ist, die ich noch nirgendwo anders so gesehen habe und der auch von diversen anderen AMD-Folien direkt widersprochen wird.
Völlig Falsch.
Seit Trinity ist es möglich, dass der GPU-Controller auf CPU-Daten zugreifen kann.
Aber eben den Umweg über Crossbar & CPU-Controller. Unified erspart den Umweg.
Programme die eben nicht oft zwischen CPU & GPU wechseln, haben einen viel größeren "HSA"-Effekt als Programme, die ständig zwischen CPU & GPU-Wecheln.
Unified beseitigt diese Umwege, aber nächste HSA-Generationen ermöglich, dass immer mehr CPU-Daten-Typen von der viel effizienteren GPU abgearbeitet werden kann.

Ich bin deshalb keineswegs von deiner Theorie überzeugt. Ich war es nur irgendwann leid mich deshalb weiter mit dir herumzuschlagen. ;)
Bei deinem Wissensstand wundert mich das nicht.
Nicht umsonst kommst du bei Technischen Details immer nur mit Erinnerungen und verwechselst Llano mit Trinity oder Trinity mit Kaveri.

Es stimmt, dass die CPU-Leistung für vieles ausreicht. Aber ich bin sicher nicht der einzige, der etwas mehr davon gerne mit nimmt. Dann ist die Excel-Tabelle vielleicht ein paar Sekundenbruchteile schneller durchgerechnet und man hat etwas mehr Zukunftssicherheit usw.
Mehr iGPU-Leistung nutzt einem aber nur in Ausnahmefällen etwas. Die meisten spielen überhaupt nicht auf einem Ultrabook. Für HD-Video und alles andere reichten schon die allerersten HD-iGPU (Arrendale) vollkommen aus.
Würde deine Aussage stimmen, dann hätte Intel seit Arrendale nicht so massiv in der GPU-Performance zugelegt.
Würde deine Aussage stimmen, so würde man bei Hochauflösende Displays keine HD 5x00-Intel oder Grafikkarte nehmen.
Würde deine Aussage stimmen, so würde der Smartphone- & -Tablet-Markt nicht in der GPU-Performance erheblicher mehr zulegen als im CPU-Markt.
Würde deine Aussage stimmen, so würde der Netbook-Markt mit den alten Atom-Chip nicht dermaßen Untergangen, dass nicht nur der Netbook-Markt völlig in Verruf gekommen ist, sondern auch der Atom-Brand.

Ich glaube die wenigsten wissen hier überhaupt, wie viel CPU-Power ein AMD-K8 hat.
Man muss schon eine ziemlich große Exel-Tabelle haben, um die Grenze einer CPU überhaupt zu spüren und selbst da kann man noch gut arbeiten, weil die Meiste Zeit sowieso beim Nachdenken draufgeht.

Unter den Spielern wird wiederum der größte Teil auch mit der GPU-Leistung von Kaveri nicht wirklich glücklich sein.
Hier gibt es einen Test der HD7730, die wohl der Kaveri-GPU-Leistung und auch den technischen Daten relativ nahe kommt. Selbst mit runtergedrehten Details ist FullHD nur bei den wenigsten Spielen flüssig.
Gleiches gilt für Tablet & Smartphone und trotzdem steigt die GPU-Performance dort seit Jahren am Stärksten.

Die APUs sitzen, was da angeht, immer noch zwischen den Spielen. Zu viel für Desktop und zu wenig zum Spielen. Erst wenn die GPU-Leistung für klassische CPU-Anwendungen nutzbar wird, geht das APU-Konzept wirklich auf.
Mit APUs sind auch erheblich bessere Ilde-Akku-Zeiten möglich. Das APU-Konzept geht schon längst auf, was aber jene Leute nicht so sehen können, die CPU-Only-Performance-Balken noch immer in den Himmel loben und nicht das Gesamt-Paket genau betrachten.

Übrigens, ich hatte letzten einen Computer eines Bekannten von K8-2-Core onboard-GPU auf Trinity-2-Core aufgerüstet. Damit mir die Blitzschutz-Versicherung alles Zahlt, durfte ich nur gleichwertiges Einkaufen, wobei die billigsten Produkte immer noch alle besser waren, als der Mainstream von Damals. Da konnte man dann den gewaltigen APU-Fortschritt sehr gut spüren. Denn während die CPU so +25% schneller war, war die GPU um so +200% schneller und das Internet-Surfen war gewaltig spürbar besser. Mit einer SSD konnte man das sehr gut spüren.

Smartphones und Tablets haben im Vergleich mit dem PC sehr wenig CPU- und GPU-Leistung, aber verhältnismäßig hohe Displayauflösungen. Das war GPU-Leistung wirklich nötig, auch nur für flüssiges Bewegen im GUI.
GPU-Performance wuchs auch zu Zeiten stärker, als es keine Retina-Auflösungen gab und da waren die Ausflösungen viel schwächer als PC-Auflösungen.

Bei typischen PCs ist das eher nicht der Fall. Da reichen die schwächsten iGPUs für diese Zwecke aus. Man bemerkt keinen Untershcied, ob man sich unter Windows bei FullHD oder 1440p auf einem Rechner mit GTX Titan oder alter HD-iGPU bewegt.
Klar, weil der Typische Technik-Typ sich ständig neue Produkte kaufen und nicht merkt, wenn ein Notebook an die GPU & Multimedia-Grenzen stößt.

Wer wirklich auf Zukunftssicher kauft und es nutzt, der weiß, dass manchmal noch ganz andere Probleme entstehen außer GPU & CPU-Performance.

Das stimmt allerdings. Apples-Notebooks mit Retina-Display oder 4k-Monitore beim Desktop bringen bisherige iGPUs tatsächlich an ihre Grenzen und man braucht entweder die Leistung einer APU, Intels Iris Pro, oder einer besseren Low-End-Karte.
Ich denke aber, dass die wenigsten APUs der nächsten 2-3 Jahre mit sowas in Berührung kommen werden.
Selbst ein jetziger 35W-Richland würde dafür geeignet sein, weil ein Intel-Iris Pro eben auch 28W verbraucht.

Ein 35W-Richland ist heute schon einen 17W-Intel + Grafikkarte (Low-end-15W-TDP ist schwächer oder Mainsstream-GPU ist mit fast 30W deutlich ineffizienter) völlig konkurrenzfähig.
Jede Effizienz-Steigerung (20nm oder Bulldozer- oder GCN-Architektur) bewirkt in Zukunft, dass die Mainstream-GPUs deutlich spürbar an GPU-Performance oder TDP-Reduktion zulegen werden.

Das sind offizielle MS-Folien, keine Gerüchte.
Sorry, ich dachte du schreibst über PS4.


Oder darauf, dass man normalerweise davon ausgeht, dass die Produkte auch zu dem Zeitpunkt zu kaufen sind, der in den Roudmaps oder sonstigen Ankündigungen angegeben ist. Ansonsten rümpft man die Nase wegen des Paperlaunchs. Das ist nicht die feine englische Art.
Diese Roadmaps sind trotzdem für OEMs gedacht und nicht für bei Technik-Freaks. Entsprechend zu den OEM-Produkte sind die Roadmaps und Termin-Aussagen, damit sich die OEMs sich drauf einstellen. Nur glauben paar Technik-Freaks, dass sich die Welt um sie dreht und diverse Produkte durchs Netzs schlechtreden zu können, nur weil am Tag X und Y nicht das Produkt verfügbar ist.

Gerade in den letzten Quartalen hatte ich paar Notebooks gekauft und war ziemlich erstaunt, wie wenig neue Intel & GPU-Technik es gab, obwohl es schon viele Monate davor vorgestellt wurde.

Aber vielleicht haben sich die Gepflogenheiten inzwischen geändert und man sieht sowas als normal an, bzw. werden Leute, die das anders sehen belächelt. ;)

Und zum Thema GF, TSMC, SOI, Bulk, 28nm usw. sind z.B. in diesem Thread einige interessante Beiträge zu finden.
Tipp: Dresdenboy und Idontcare sind Insider im Halbleitergeschäft.
Solange da keine konkreten Informationen drinnenstehen, ist es auch nur eine Meinung.
Ersterer kenne ich noch aus der Zeit primär vor der Bulldozer-Zeit und ich weiß auch, wie extrem schlecht Leute auch eine CPU-Performance einschätzen können, auch wenn sie die zukünftige CPU-Architektur einerseits mit konkreten Infos und andererseits durch viele herausgesuchte Patente über 20 Seiten im Detail erzählen können.

Ich kannte auch andere Insider die völlig mit ihren Performance-Aussage danebenlagen.

Spekulation ist nunmal ein guter zusammenhängender Mix aus Vielen Betrachtungs-Winkeln, weshalb auch jene Leute mal völlig daneben liegen können, die sich sehr gut in der Technik-Thematik auskennen mögen.

Nochmal für dich:
Kaveri ist mit so 250mm² wesentlich kleiner als so ein PS4 mit 300-400mm².
Also, wenn PS4 bald recht gut am Markt kommen würde, dann kann man wohl kaum bei viel kleineren Chip-Größen größere Probleme erwarten.
Weiters kommt Kaveri sogar im Desktop-Markt als erstes.
Also, wenn es laut dir mögliche Takt-Ziel-Probleme geben sollte, warum soll dann Kaveri vorallem in Desktop-Markt kommen, wo mit so 4,0 Ghz wesentlich höhere Taktraten nötig sind, als im 35W-Notebook-Markt mit so max 3,0 Ghz oder erst recht im 17W-TDP-Markt mit vielleicht 2,0 Ghz??????

Wie ich dir schon sagte. Es gibt etliche Gründe, warum Kaveri für manche etwas mit Verspätung kommt.

Nur zur Info.
AMD war auch nicht gezwungen für Kaveri unbedingt 28nm statt 32nm-SOI zu verwenden.
Wäre 28nm so viel schlechter und risikoreicher als 32nm-SOI, dann hätte man wohl kaum 28nm für Kaveri genommen.
 
GeorgiusT schrieb:
Toll. Und was ist mit AM3+?!

Trollpost oder was? Der AM Sockel ist so Hoffnungslos veraltet, der war schon alt als Phenom 2 rauskam. AMD hat ja Angst wenn man alle 2 Jahre den Sockel wechselt, dass das gebashe noch lauter wird. FM2 ist auch so ein Kanidat. ich würde einem LGA Desktop und einem LGA Server einführen und gut.. Und dann alle 2-3 Jahre also 2 Generationen wechseln. Intel macht es auch und macht damit seit jeher gute Erfahrung
 
AMD-Mafiosi schrieb:
Der AM Sockel ist so Hoffnungslos veraltet, der war schon alt als Phenom 2 rauskam. ........................


Und dann alle 2-3 Jahre also 2 Generationen wechseln. Intel macht es auch und macht damit seit jeher gute Erfahrung


AM2.................DDR2 Ram...................................................................Phenom (I)
AM2+..............DDR2...........................................................................Phenom II
AM3.................DDR3 und Board_s Teilweise Bulldozer kompatibel
AM3+..............DDR3 ..."Bulldozersockel" abwärtskompatibel zu AM3

http://de.wikipedia.org/wiki/AMD_Phenom_II


Intel naja 3x Chipsatzfehler.. mfg ;)
 
Zuletzt bearbeitet:
Zurück
Oben