News AMDs „Steamroller“ frühestens Mitte 2014?

ich finde die verschiebung gut
lieber später bringen dafür aber ausgereift.

Und sollten sich die spekulationen
Haswell-bga-only bewhrheiten
hat AMD eine feste Nische im cpu-markt,
die der selbstbauer, für sich alleine.

gruss Digger
 
ich finde auch, Steamroller geht vorerst noch etwas zu weit, was den Aufwand angeht für ein wenig mehr Rechenleistung. 2 Decoder brauchen eine Menge mehr Chipfläche, bringen unter voller Auslastung beider Kerne eines Modules aber nicht viel Mehrleistung.
Sinnvoller müsste es IMHO. daher eher sein, den einen Decoder je Modul ein wenig aufzubohren (+50%), damit er mehr Instruktionen/Takt für beide Kerne bereitstellen kann.
AMD wird sicher den richtigen Weg gehen, die haben ja kaum Geld zu verschenken, indem sie unnüzt Chipfläche verbraten.
 
@ digger66a
Die Gerüchte, dass AMD sich komplett aus dem Bereich der Mittelklasse- und High-End-CPUs verabschiedet, sind mindestens genauso glaubwürdig, wie die, dass Intel zukünftig keine Sockel-CPUs mehr verkauft.
Wenn beides eintritt, dann schauen wir PC-Enthusiasten ganz in die Röhre. ;)

Und verspätetes Erscheinen bedeutet nicht unbedingt ein ausgereiftes Produkt. Siehe z.B. den ersten Phenom. Ziemlich sicher bedeutet eine Verspätung aber, dass die Leistung dann nicht mehr so ganz zeitgemäß ist.
 
Kein PCIE 3.0, Kein Natives USB 3.0, Kein DDR 4.
Warum soll sich Jemand diesen Prozessor kaufen.?
 
Interessant wäre, mit welchem Prozess die Dinger dann gefertigt werden sollen. Machen wir uns nichts vor, 2013 hätte man auf 28nm bulk oder 32nm SOI zurückgreifen müssen. Damit steht man automatisch in Sachen Effizienz weit hinter Intels 22nm Tri-Gate-Prozessoren.

Im Moment laufen in Fab. 8 in NY bei GF erste Testwafer des 14nm XM-Prozess (mit FinFets) vom Band.
Optimal wäre es natürlich schon, wenn "Steamroller" mit einem x-nm-FinFet-Prozess gefertigt wird. Nur so kann man auf Intel aufholen.
 
@ Matzegr

Es hätte aber nicht geschadet, wenn AMD Steamroller 2013 schon mal auf einem alten Prozess gebracht hätte und dann 2014 auf den neuen übertragen. So wie Intel es seit Jahren mit dem Tick-Tock-Prinzip macht.

Eine neue/überarbeitete Architekur gleich auf einem nagelneuen Prozess mit seinen unvermeidbaren Kinderkrankheiten zu bringen, verdoppelt das Risiko von Problemen.

Aber vielleicht hat AMD einfach nicht mehr das Geld und die Entwicklungskapazitäten dafür.
 
Herdware schrieb:
Die Gerüchte, dass AMD sich komplett aus dem Bereich der Mittelklasse- und High-End-CPUs verabschiedet, sind mindestens genauso glaubwürdig, wie die, dass Intel zukünftig keine Sockel-CPUs mehr verkauft.
Hat sich AMD nicht schon längst aus dem High-End CPU Markt verabschiedet? Die schnellste AMD CPU kann noch nicht einmal mit den schnellsten Mainstream Intel CPUs mithalten und gegen die Sockel 2011 Six-Cores hat man schon gleich garnichts anzubieten. Daher kommt auch der Schwund von AMDs Marktanteilen im Serversegment. Ob Mitte 2014 überhaupt noch jemand nach einem Server mit AMD CPU fragen wird?

Herdware schrieb:
Aber vielleicht hat AMD einfach nicht mehr das Geld und die Entwicklungskapazitäten dafür.
Das fürchte ich auch. Durch die Entwicklung der APUs haben sie das Segment der High-End CPUs komplett vernachlässigt und da in dem Markt schon einige Monate Verzögerung bedeuten, dass man nicht mehr an der Spitze ist, macht Intel nun das Geschäaft mit den leistungs- und margenstarken CPUs alleine.

AMDs Vorteil ist im Moment, dass sie die besseren GPU Kerne als Intel haben und man bei den APUs auch kleine Aufgaben an die GPU vergeben kann, wenn diese dabei schneller arbeitet, weil eben der Overhead geringer ist, denn es bedarf keiner Übertragung der Daten auf die Karte. Nur fehlt es einfach an Anwendungen, die diesen Vorteil konsequent nutzen und da der Marktanteil von AMD so gering ist, werden solche Anwendungen auch nur schwer erscheinen. Damit können die Kunden den Vorteil nicht nutzen und der Marktanteil wird entweder weiter fallen oder nur über den Preis geholt werden können, was aber die Marge drückt und somit ist dann wieder kein Geld da um die Entwicklung von Software zu unterstützen.

AMDs CPUs sind garnicht so schlecht wie es in vielen Benchmarks und Reviews aussieht, nur hat Intel einen gewaltigen Vorsprung auf der SW Seite und überschüttet die Hersteller, gerade von Benchmarks, mit optimierten Bibliotheken und optimierenden Compilern. Das die Programme dann auf Intels CPUs optimaler laufen als auf denen von AMD darf niemanden wundern. Was auf AMDs CPUs möglich ist, wenn man auch die SW darauf optimiert, zeigt z.B. WinRAR mit der Version 4.20, die doppelt so schnell wie die 4.10 auf einem Bulldozer läuft.
 
Herdware schrieb:
@ Matzegr

Es hätte aber nicht geschadet, wenn AMD Steamroller 2013 schon mal auf einem alten Prozess gebracht hätte und dann 2014 auf den neuen übertragen.

Steamroller auf 32nm SOI im Jahre 2013 wäre nicht gut gegangen und mit 28nm Bulk hätte man eine neue deutlich überarbeitete Architektur auf einen neuen Prozess gebracht. Also im Prinzip nichts anderes als was uns nun 2014 erwartet.
Nun macht AMD ja im Prinzip etwas wähnliches wie Intels Tick-Tock.
Statt Kaveri kommt Richland (Piledriver CPU + VLIW4 GPU) wobei Richland ein Shrink auf 28nm bulk wird.

Aber vielleicht hat AMD einfach nicht mehr das Geld und die Entwicklungskapazitäten dafür.

AMDs Budget war ja schon immer deutlich kleiner als Intels. Also fehlt es logischerweise auch an Geld.
 
Lese ich da richtig zwischen den Zeilen, dass damit auch Brazos 2.0 bis 2014 halten muss. Der Jaguar wird ja seine Verwandtschaften mit dem Steamroller haben?

So schnell sie das Segment gewonnen haben, werden sie es leider wieder verlieren. :(
 
Zuletzt bearbeitet:
Herdware schrieb:
@ DinciVinci

Ich höre das erste Mal davon, dass HSA nur mit Modulen (also 2 Cores mit geteilten Ressourcen) funktionieren soll und nicht mit klassischen Cores.

Immer wenn AMD argumentiert hat, warum sie bei Bulldozer auf das Modul-Konzept gesetzt haben, ging es nur um Einsparungen bei der Die-Fläche/Transistorzahl. Es ist ein Kompromiss zwischen Komplexität der CPU und der Leistungsfähigkeit (und wie sich inzwischen herausgestellt hat, kein besonders guter).

Dass HSA-APUs überhaupt nur mit Modulen funktionieren können, leuchtet mir nicht ein. Ich bin zwar kein Fachmann in Sachen CPU-Architektur, aber ich würde schon gerne verstehen, warum das so sein soll.
FPUs waren ja auch mal (sogar physikalisch separate) Co-Prozessoren und die funktionierten auch ohne Module bzw. mit altmodischen Single-Core-CPUs.

HSA soll außerdem sogar mit ARM funktionieren. Müssen die ARM-SoCs dann auch als Module ala Bulldozer aufgebaut sein? :rolleyes:

Jaja das Modulkonzept basiert auf teilung der Aufgaben zwischen CPU und GPU und das läuft am besten wenn die CPU nicht alles kann und umgekehrt.

So wird ein nicht näher benanntes FX-Modell mit vier Prozessormodulen - also acht beinahe-Rechenkernen - gegen Intels Core i5 und Core i7 gebencht. Um es vorweg zu nehmen: Ein Konkurrent zu den für das kommende Jahr geplanten Ivy-Bridge-CPUs wird Bulldozer selbst laut AMDs eigenen Benchmarks nicht. Die Leistung ordnet sich je nach Anwendung zwischen i5-2500K und i7-2600K ein. Und auch der Turbo-Modus scheint abhängig von der anliegenden Last zu sein: Zum Einne wird der maximale Turbo-Takt (beim FX-8150 also 4,2 GHz) nur erreicht wenn nur die Hälfte der Prozessormodule zum Einsatz kommen - und auch dann dürfen die Module nur mit Integer-Berechnungen belastet werden. Werden alle Module mit Integer-Berechnungen belastet, sind nur noch maximal 3,9 GHz möglich, bei Gleitkommaberechnungen setzt der Turbo unter Umständen gar nicht ein. Der Verdacht liegt nahe, dass Bulldozer bereits als Bestandteil einer APU konzipiert wurde wie sie in Form von Trinity bereits im Frühjahr 2012 erscheinen soll. Hier würden, die entsprechende Software vorausgesetzt, die GPU-Teile der APU die Gleitkommaberechnungen übernehmen und diese wahrscheinlich deutlich effizienter verarbeiten.

Quelle: http://www.hardware-infos.com/news.php?news=3980
 
Steamroller wird momentan eh nicht gebraucht. Die Software-Entwicklung hinkt schon mehrere Jahre hinterher. Selbst die derzeit erhältlichen Bulldozer Prozessoren werden sich auch noch in den nächsten 3-4 Jahre langweilen.
 
Zuletzt bearbeitet:
5@n!töt3r schrieb:
Lese ich da richtig zwischen den Zeilen, dass damit auch Brazos 2.0 bis 2014 halten muss. Der Jaguar wird ja seine Verwandtschaften mit dem Steamroller haben?
Nein, in H1/2013 kommt Kabini mit Jaguar-Kernen und GCN-Grafikeinheit. Jaguar hat mit Bulldozer wenig am Hut, sieht man mal vom Shared L2 ab.
 
Captain_Awesome schrieb:
Kein PCIE 3.0, Kein Natives USB 3.0, Kein DDR 4.
Warum soll sich Jemand diesen Prozessor kaufen.?
Voll interessant. Wo steht das denn mit PCI-E 3,0 und DDR4?
Was mich aber weit mehr interessiert ist. In welchem Prozessor ist USB 3.0 nativ?
 
digger66a schrieb:
ich finde die verschiebung gut
lieber später bringen dafür aber ausgereift.

[...]

... derlei wird seit 2006 (Barcelona-Katastrophe) immer wieder gepredigt. Es wäre nur dann sinnvoll und gerechtfertigt, wenn AMD mit einem riesigen Titanensprung die Leistungslücke zur Konkurrenz überwinden könnet und gleichzeitg die Leistungsaufnahme drosseln könnte. Das aber wird äußerst unwahrscheinlich sein, denn AMD kann zur Zeit kein Unternehmen Fleddern, dessen Patente und Entwicklungen man eifrig "einbauen" könnte. AMDs Kassen sind leer.

Herdware schrieb:
@ digger66a
Die Gerüchte, dass AMD sich komplett aus dem Bereich der Mittelklasse- und High-End-CPUs verabschiedet, sind mindestens genauso glaubwürdig, wie die, dass Intel zukünftig keine Sockel-CPUs mehr verkauft.
Wenn beides eintritt, dann schauen wir PC-Enthusiasten ganz in die Röhre. ;)

Und verspätetes Erscheinen bedeutet nicht unbedingt ein ausgereiftes Produkt. Siehe z.B. den ersten Phenom. Ziemlich sicher bedeutet eine Verspätung aber, dass die Leistung dann nicht mehr so ganz zeitgemäß ist.

Gut gebrüllt, Löwe! Da ist sicher etwas dran. So schlimm sehe ich aber die BGA-Haswell noch nicht. Im Net- oder Notebook ist das ja bereits Usus. Ob Server von soetwas profitieren - ich weiß es nicht! Eine Platine auszutauschen ist ebenso teuer, wie eine CPU, die Kosten für den Techniker sind hoch und der Zeitaufwand ist etwa gleich.

Die Augen werden alelrdings bei der Rückführung von Rohstoffen verschlossen: Eine Platine zu verschrotten und recyclen ist teurer als nur die CPU (sofern diese defekt ist).

Die XEON Haswell und ihre Nachfolger werden, meiner Meinung nach, noch eine Weile als Sockel-CPUs erhalten bleiben. Hieraus bedienen sich ja bekanntlich auch Poweruser und Enthusiasten.


HITCHER_I schrieb:
ich finde auch, Steamroller geht vorerst noch etwas zu weit, was den Aufwand angeht für ein wenig mehr Rechenleistung. 2 Decoder brauchen eine Menge mehr Chipfläche, bringen unter voller Auslastung beider Kerne eines Modules aber nicht viel Mehrleistung.
Sinnvoller müsste es IMHO. daher eher sein, den einen Decoder je Modul ein wenig aufzubohren (+50%), damit er mehr Instruktionen/Takt für beide Kerne bereitstellen kann.
AMD wird sicher den richtigen Weg gehen, die haben ja kaum Geld zu verschenken, indem sie unnüzt Chipfläche verbraten.

Der Flaschenhals ist doch bei BD genau dieser Dekoder-Engpaß, der die IPC drückt. Und der BD Kern hat sich nicht gerade mit ruhm bekleckert, als herauskam, daß dessen IPC sogar hinter die der alten K10 Technik zurückfiel. Und war es nicht so, daß AMD mit dem BD durch die Automatisierung des "Routings" viel Chipfläche vergeudet hat? Handoptimiert wird da einiges frei an Platz, ganz zu schweigen von 28nm Strukturbreite.

Captain_Awesome schrieb:
Kein PCIE 3.0, Kein Natives USB 3.0, Kein DDR 4.
Warum soll sich Jemand diesen Prozessor kaufen.?

... wer weiß, vielleicht soll das ja alles mit an Bord. Aber DDR4 braucht derzeit (noch) niemand. Da müssen erstmal die Chips her und vor allem vergeht in der Regel nach Einführung eine Weile, bis auf Masse und Geschwindigkeit produziert werden kann. Anfangs soll DDR4 ja so langsam sein wie DDR3-1066 oder DDR3-1333. Selbst die angekündigten XEON E5 auf Ivy-Bridge Basis sollen bei vollem Speicherausbau noch DDR3-1600 erlauben. Da muß DDR4 erstmal hin, um überholen zu können. Frühestens ins zwei oder drei Jahren also.

Aber PCIe 3.0 ist bereits jetzt schon essentiell, vor allem für das Highend. Und ohne USB 3.0 geht in den meisten Kisten ohnehin nichts mehr ...
 
Eisenfaust mit seine intelligenten Beiträge.
USB 3.0 gibt es jetzt schon bei AMD, nämlich mal 4 und sogar 8 mal SATA 6GB. Zudem soll ja der FM2 Sockel vorbereitet sein, laut CB Bericht, für PCI-E 3.
Irgendwie doch nicht so intelligent dein Beitrag.
Zudem kannst du mir bestimmt sagen, wenn du schon den Blödsinn von Captain_Awesome zitierst. In welcher CPU steckt USB 3.0 nativ? Schließlich geht es hier um eine CPU Information.
 
Herdware schrieb:
@ digger66a
Die Gerüchte, dass AMD sich komplett aus dem Bereich der Mittelklasse- und High-End-CPUs verabschiedet, sind mindestens genauso glaubwürdig, wie die, dass Intel zukünftig keine Sockel-CPUs mehr verkauft.
Wenn beides eintritt, dann schauen wir PC-Enthusiasten ganz in die Röhre. ;)

...

Das soll falsch sein, da es sich dabei nur um die Mobile CPU's handelt (und diese für die geringe Gehäusebauhöhe immer gelötet sind): Intel schafft wechselbare CPUs ab 2014 ab
zu:
Intel schafft wechselbare CPUs ab 2014 ab
von tomx: Intel wird bloß den 14nm-Refresh Boradwell nur für den Mobilen Bereich bringen, daher die im mobilen Bereich übliche "BGA-CPU-Anbindung". Im Desktop wird man Broadwell weglassen und mit Haswelltaktsteigerung die Zeit bis zur nächsten Architektur, nämlich Sky Lake überbrücken. Sky-Lake-CPUs kommen dann aber ganz normal auch für den Desktopsockel.
siehe auch: http://www.3dcenter.org/news/intels-14nm-chip-broadwell-kommt-wohl-nicht-fuer-den-desktop
 
Zuletzt bearbeitet:
MaikDe schrieb:
Steamroller wird momentan eh nicht gebraucht. Die Software-Entwicklung hinkt schon mehrere Jahre hinterher. Selbst die derzeit erhältlichen Bulldozer Prozessoren werden sich auch noch in den nächsten 3-4 Jahre langweilen.

Jep, zumindest wenn du mit Bulldozer die Piledriver miteinschließt.
Die haben (laut Benchmarks) eine Leistung wie Intels i7-4 Kerner (logisch, haben ja beide auch 8 Threads). AMD´s Bulldozer-Architektur ist nicht schlecht, sie kann nur nicht so effizient genutzt werden wie Intels 4-kerner (vorausgesetzt es läuft nicht auf z.B. einem Server. Der beste Hochleistungsserverrechner Titanium (bin mir nicht mehr sicher wie der hieß) hat auch AMD´s 16-Kern-Bulldozer verbaut).

Aber AMD braucht trotzdem noch was besseres (auch im Graka- und APU-Gebiet), damit die Leute engültig kapieren, dass AMD nicht der letzte Dreck ist. 80% Marktanteil (CPU) sind einfach zu wenig, wenn es nur einen Konkurrent gibt.
PS: AMD`s APU´s sind besser als Intels, verkaufen sich schlechter. AMD`s Low-end CPU´s sind besser (oder die die AMD als Mittelklasse bezeichnet, aber so teuer wie Intels Low-end´s sind und mehr Leistung bringen.)
warum zieht man ÜBERALL Intel vor, wenn AMD in machen Sachen besser ist, und warum kann AMD das nicht mit seinen GPU´s , die sich gut verkaufen ausgleichen.

Mir scheint, als besticht Intel viele Unternehmen.:evillol:
 
Warum tut AMD immer alles Mögliche, um möglichst weit hinter Intel rumzukrebsen? Vishera soll noch so lange Käufer locken, das glauben die doch selbst nicht?

So gesehen ist Rorys Aussage über die große Zukunft des x86 wohl nicht auf AMD gemünzt.
 
AMD sollte sich einfach einen Investor suchen der HR bieten kann und vor allem Geld.
 
Staubwedel, AMD setzt eben mehr auf den Mainstream Bereich und hat halt nur die High-End Kunden hängen lassen. Deren APUs sind ja auch so schlecht nicht und bieten nicht nur viel Leistung fürs Geld sondern sind sogar sparsam. wenn man eben nicht nur die reine CPU Leistung ins Verhältnis zum Stromverbrauch setzt. Bei Intel machen die SB-E ja auch nur wenige % der Fertigung aus, denn das High-End Segment ist eben reicht kleiner Markt und da kann nur der wirklich gutes Geld verdienen, der die Nase vorne hat. Das ist im Moment eben Intel und AMD hat wohl auch im Moment weder die Resource noch die Technologie um dagegen an zu gehen. Das Risiko ist ja auch hoch genug, denn wenn sich eine teuer entwickelte neue Technologie auch nur um ein Jahr verzögert, dann ist man statt an der Spitze nur noch im Mittelfeld, wie es eben AMD mit dem Bulldozer passiert ist.
 
Zurück
Oben