News AMDs „Steamroller“ frühestens Mitte 2014?

Laut ASRock unterstützt die von mir benutzte Hauptplatine (970 Extreme 3 AM3+) den 25W Opteron.
Der 2 Moduler 4 Kerne Opteron 3320 soll mit einem Takt von 1900MHz antreten und 8MB L3 Cache haben. Der NB-Takt soll laut ASRock CPU Support Liste bei 1400MHz liegen.
Der 65W Opteron 3380 4 Moduler 8 Kerne soll mit einem Takt von 2600MHz kommen und der NB-Takt soll bei 2000Mhz liegen.
 
Mr.Kaijudo schrieb:
Jaja das Modulkonzept basiert auf teilung der Aufgaben zwischen CPU und GPU und das läuft am besten wenn die CPU nicht alles kann und umgekehrt.

Das was du meinst verstehe ich unter HSA bzw. Fusion.
Das hängt nicht von der CPU-Architektur ab und funktioniert genauso mit K10 und sogar ARM.

Mit den Modulen meine ich den Aufbau der Bulldozer-CPU-Cores. Das ist etwas, das sich bisher überhaupt nicht bewährt hat, weil darunter die immer noch sehr wichtige Single-Thread-Leistung leidet.

Angesichts der Tatsache, dass AMD zukünftig nicht einfach nur immer weiter am Personal sparen kann, sondern zwangsläufig auch Produkte streichen muss, stellt sich die Frage, welche der parallel laufenden CPU-Architekturen wohl über die Klinge springen wird.
Das frisch angekündigte ARM-64-Bit für Serveranwendungen?
Die stromsparende Low-Cost-Architektur Bobcat/Jaguar, der Intel bisher wenig entgegen zu setzen hat?
Oder der glücklose Bulldozer für das High-End- und Mittelklasse-Segment, in dem es AMD seit Jahren nicht schafft, wieder Anschluss an Intel zu finden?

Auch wenn AMD natürlich fleißig alles dementiert. Dass Steamroller jetzt komplett aus allen Roadmaps verschwunden ist, macht es nicht gerade unwahrscheinlicher, dass diese wenig erfolgreiche Architektur ganz oben auf der Liste der Streichkandidaten steht.
Vielleicht ist derzeit noch nicht entgültig entschieden, ob 2014/15 doch noch Steamroller-CPUs und -APUs gefertigt werden sollen, aber meiner Meinung nach stehen die Chancen ziemlich schlecht, denn irgendwo wird der Rotstift angesetzt werden müssen.
Wenn nicht dort, wo dann?
 
Zuletzt bearbeitet:
Herdware schrieb:
Dass HSA-APUs überhaupt nur mit Modulen funktionieren können, leuchtet mir nicht ein. Ich bin zwar kein Fachmann in Sachen CPU-Architektur, aber ich würde schon gerne verstehen, warum das so sein soll.
FPUs waren ja auch mal (sogar physikalisch separate) Co-Prozessoren und die funktionierten auch ohne Module bzw. mit altmodischen Single-Core-CPUs.

HSA soll außerdem sogar mit ARM funktionieren. Müssen die ARM-SoCs dann auch als Module ala Bulldozer aufgebaut sein? :rolleyes:

Das was heute als FPU bezeichnet wird, hat nicht mehr viel damit zutun was vor 20 Jahren ne FPU war.
Eines der Ziele ist, dass in Zukunft Sachen wie SSE / AVX / XOR / ect. instructions nicht mehr von der SIMD FPU unit berechnet werden sondern von der iGPU, die ja nichts anderes als ein großer SIMD array ist.

Wenn das mal irgendwann in Zukunft funktioniert, dann braucht nicht mehr jeder Integer-Core eine eigene FPU wie bei der K10-Architektur. Solange es noch nicht funktioniert, hat man Nachteile.

Warum macht es AMD so? Ganze einfach, man hat einfach nicht das Geld um mehrere Architekturen parallel entwickeln zu können. Und da man nicht auf die gleichen Fertigungsprozesse wie Intel zurückgreifen kann, dann muss man halt etwas unkonventionelles versuchen.
In Zukunft wird definitv mehr von einer iGPU berechnet als heute. Intel geht ja einen ähnlichen Weg. Dort wird auch die iGPU massiv verbessert, während der CPU Teil kaum an Leistung gewinnen wird. Beim Haswell-Test werden sicherlich 90% der Kommentare rumgeheule sein, dass der CPU-Teil im Schnitt nur 7% schneller sein wird als IB. Und selbstverständlich wird AMD dran Schuld sein, da man ja kein Konkurrenzprodukt hat. ;)
 
Herdware schrieb:
Das was du meinst verstehe ich unter HSA bzw. Fusion.
Das hängt nicht von der CPU-Architektur ab und funktioniert genauso mit K10 und sogar ARM.

Nochmal: Klares "nein"!

Das, was AMD letzten Endes mit HSA vor hat, kann mit den bisherigen Prozessordesigns nicht erreicht werden, da CPU und GPU als eigenständige Teile nebeneinander existieren. Das Ziel ist ein General-Purpose-Hybridprozessor, bei dem die CPU und die GPU miteinander kooperieren und sich gegenseitig helfen. So soll jeder Teil vollautomatisch die Aufgaben erfüllen, die er am besten kann. Die GPU ist effizient und schnell bei der Durchführung von Berechnungen. Die CPU ist gut darin, Entscheidungen zu treffen und Daten heranzuschaffen, außerdem hat sie einen sehr komplexen Branch Predictor und kann deshalb ziemlich gut Sprünge bzw. Sprungzieladressen vorhersagen. Man könnte sich z.B. vorstellen, dass die CPU Daten aus dem Hauptspeicher prefetched und die GPU gleichzeitig die Funktionen ausführt, die CPU sagt die nächsten Sprungzieladressen vorher und die GPU macht dort mit den Berechnungen weiter etc. Das würde einen enormen Geschwindigkeitsschub bringen. Für sowas muss die GPU aber als eng integrierter Koprozessor organisiert sein und die ihm aufgetragenen und erledigten Aufgaben zurück an den parent core reporten. Und das ist etwas, was erst mit der Bulldozer-Architektur eingeführt wurde! Es geht hier nicht mehr um irgendwelche Flash-Spielereien und Videogedöhns!

Ob das alles so (weit) kommen wird, steht auf einem ganz anderen Blatt...
 
Zuletzt bearbeitet:
@Holt

Was versteht man unter "High End"?

Was bei Intel Mainstream ist, also bis i5, ist für AMD schon High-End. Ich persönlich bin kein High-Ender, aber auch keiner der eine 60€ für sich selbst verbaut. Ich wildere im Bereich 100-170€, da tummeln sich massenhaft starke CPUs, aber High-End ist das nicht.

Deshalb die Frage: Wie will AMD in naher Zukunft Geld verdienen? Mit CPUs, die dafür sorgen das die Marktanteile merklich zurückgehen, heute schon? Wie kann man auf die Idee kommen damit noch 1,5 Jahre Geld zu verdienen? Schon jetzt muß AMD Preise senken um die überhaupt an den Mann zu bringen, welches auch nur leidlich funktioniert?

Wenn AMD sich nur auf Dinge konzentriert die AMD kaum bis gar nicht verkauft und ihr größtes Segment einfach veröden läßt, wie stellt man sich die Zukunft vor?

Meiner Meinung nach ist AMDs Marktstrategie keinesfalls ein Garant zum Überleben. Man sah schließlich das nicht allzu lange nach BD massiv Stellen abgebaut wurden; die sind zwar nicht alle dem BD geschuldet, aber auf jeden Fall hatte der BD wenig positive Wirkung.

Ich habe es schon oft erwähnt: Nicht das Budget des BD ist schuld an dem Desaster, sondern AMDs Serverkonzept für Desktopanwendungen (Realismus); andere sagen die Software ist schuld (Fanboys).

Was das APU-KOnzept betrifft, stimme ich dir nur teilweise zu. Vielleicht reichts beim 65W-Segment gerade noch für ein gutes Verbrauchs/Leistungs-Verhältnis, aber spätestens bei den 100W-APUs bietet ein Intel-CPU + dedizierte Grafikkarte mehr Leistung bei weniger Verbrauch.

Bleiben nur Kampfpreise seitens AMD.

Das beste P/L sehe ich aber doch bei AMD, zumindest wenn man keine hohen Ansprüche hat: Athlon 7xx-Serie.

Aber solche CPUs bringen AMD nicht übermäßig viel Geld
 
Wie AMD künftig Geld verdienen will, sehen ich auch nicht. Das AMD das beste P/L Verhältnis bietet, ist ja gerade das Problem, denn es bedeutet, dass AMD damit kaum Geld verdient.

Das Konzept die serveroptimierte BD Architektur für Desktops zu bringen und die Single-Core Performance zu vernachlässigen, war sicher unglücklich, zumal eben die bestehende Windows Software nicht darauf optimiert ist. Das ist mehr als nur Fanboy Gerede, nutzt aber trotzdem nichts, denn man kauft eine CPU ja i.d.R. um damit bestehende Programme zu nutzen. Bei entsprechenden Programmen ist die Performance der BD aber nicht so schlecht, wie es die meisten Benchmarks zeigen.
 
digger66a schrieb:
ich finde die verschiebung gut
lieber später bringen dafür aber ausgereift.

Und sollten sich die spekulationen
Haswell-bga-only bewhrheiten
hat AMD eine feste Nische im cpu-markt,
die der selbstbauer, für sich alleine.

gruss Digger


So ein Blödsinn. Haswell kommt ganz normal als LGA(1150) für den Desktop. Davon abgesehen steht in dem Link überhaupt nichts von "Haswell BGA only" drin.
 
@Holt

Das beste P/L-Verhältnis hat AMD nur in Ausnahmefällen; und auch da meist nur wenn man den Verbrauch völlig außer Acht läßt.

Selbst AMD sollte wissen das wegen Ihnen kein Programm optimiert wird, selbst Intel hat trotz der Marktmacht nämlich kaum Unterstützung seitens der SW. Und Intel kann trotzdem punkten, weil man diesen Aspekt beachtet hat.

Somit ist die Schuldzuweisung Richtung Softwarehersteller Fanboygerede und nur eine armselige Entschuldigung für AMDs Versagen. Genauso wie das immer wieder genannte Budget-Problem. Hätte sich AMD ernsthaft auf dem Desktop konzentriert wären sie ohne Zweifel in einer eindeutig besseren Lage.

Aber nein, stattdessen lieber die kaum vorhandenen Serverkunden beglücken und die breite Masse der Käufer mit kastrierten Server-CPUs abspeisen.

You get what u asked for, AMD

Auch ist die Multithreading-Auslegung keine Entschuldigung für fast doppelt hohen Verbrauch bei ähnlicher Leistung wie Intel.
 
Zurück
Oben