News AMDs „Kaveri“ mit 12 Compute Cores nun offiziell

Bin ganz gespannt wie sich Kaveri in verschiedenen Disziplinen wie Gaming, HTPC usw. schlägt :D
Kanns praktisch kaum erwarten :D
 
Gespannt braucht man nicht sein. Ich erwarte eine reale Leistungssteigerung von 5% bis 10% (Traumfall) sowohl bei der CPU als auch GPU.

Alles andere spricht 20%-50% ist nur Augenwischerei. Nichdestotrotz für den Preis (bis 170 Euro, Topmodel) eine sehr gute Lösung für nicht nur tägliche Aufgaben, sondern auch zum spielen, Videos konvertieren etc.

I.V.m einer SSD ein wahrer allraounder.
 
Compute Cores, was soll das?

Zählen die bald noch die APU-Pins dazu um größere Zahlen zu bringen?

IPC höher, Takt niedriger, TDP wohl ähnlich. Mal sehen was am Ende raus kommt.

Das die Notebook-Kaveris verschoben werden darf nicht überraschen, schaut euch mal die Auswahl an Richland an. AMD ist da faktisch tot, die Notebooks sind viel zu teuer außer man möchte Power unterhalb der Einstiegs-Celerons

Sind die Desktop-APUs wirklich beliebt oder liegen die in den Verkaufszahlen deutlich unter den Standard-CPUs?
 
kadda67 schrieb:
Jetzt treibt das Marketing das Ganze aber etwas zu weit. Ein Modul als Zweikerner zu bezeichnen ging ja noch einigermaßen gut aber die GPU Kerne auch noch dazu nehmen?. Ich hoffe nur in Zukunft wird GPU computing noch mehr genutzt obwohl ich das schon seit DX10 und CUDA hoffe.

Was heißt Marketing, jede Firma kann seine Chips und Technologie Zusammenfassen und benennen wie sie es wollen.
Ich finde zwar die Idee auch nicht so berauschend, aber AMD hätte auch noch wie NV spielen können, indem sie alle Cores (ALUs) zusammenfasst und sagt, der Prozessor hat 512+4 => 516 compute Cores.

Durch HSA ist die Legitimität eigentlich gegeben. Man muss nur mal in Assembler denken. PC Counter holt Befehl aus den Arbeitsspeicher in den Register und je nach Anforderungen berechnet die CPU oder GPU das Zwischen-Ergebnis. Sobald eine bsp Schleife oder irwas kommt, dass die CPU schneller kann, kommt die CPU dran. Es sind also quasi Compute Units mit unterschiedlichen Stärken. So abwegig ist es nicht, aber für Kunden natürlich unpraktisch, weil er nun nicht weiß, wieviele Cores und CUs der Prozessor hat. Diese Klassifizierung ist aber eventuell irwann mal altmodisch, man muss aber sagen, von der Marketing-Seite gesehen, ein kluger Schachzug, denn mit Compute Unites, würde der User die APU vllt mal als APU sehen und nicht als CPU + IGP, wie es bei Intel momentan ist.
Besonders wenn eines Tages auf der Spiele Verpackung steht:
AMD
APU: 12 Compute Cores für Physics und KI
Grafikkarte: HD R9 X90X

https://pics.computerbase.de/5/4/2/2/7/1-1080.3098540263.jpg
Naja, wenn man mal bedenkt wie groß die GPU ist, kann man durchaus vorstellen dass ein Chip mit 4 Modulen möglich wäre. Die Maske würde aber kosten und aus diesem Grund wird AMD schlicht und einfach ein Jahr noch aussetzen, denn 2015 soll angeblich bereits Excavator Cores kommen. Da Kaveri APU auch einen Verwandten als Opteron hat, wäre es sicherlich kein Problem eine Maske für den Sockel zu machen der 4 Module hat. Vllt sogar ohne L3 Cache und ohne Anbindungen für Multi-Chip Lösungen wie die 8 Modul Opterons.
Mit so einen Chip könnte man theoretisch wie bei den APUs, Server, Desktop und sogar Notebooks beliefern.

Einige dürfte es nicht aufgefallen sein, aber Theoretisch könnte AMD auch die PS4 APU mit GDDR5 auf eine Grafikkarte Platine löten. Somit Grafikkarten mit Compute Cores sind in der Zukunft sicherlich auch bald vorhanden.

Compute Cores => Summe(Module , Compute Units) => als BlackBox gesehen ein Chip die Aufgaben wie eine CPU und mehr wahrnehmen kann.
Es würde sogar wieder mehr dem Konzept von Neumann Maschine entsprechen, da die APU tatsächlich einen gemeinsamen Speicherraum(Feld) für Daten und Befehle benützt.

Saftpresser
Nur für dich, Deutschland ist nicht die Welt und um es genauer zu sagen, ließ das hier :
http://www.fudzilla.com/home/item/33372-amd-gaining-ground-in-laptops
AMD based laptops appear to be doing quite well in Europe. According to Context, sales of AMD laptops are up 10 percent in Q4 compared to a year ago. AMD bucked the industry trend, as the market was down 12 percent in the first eight weeks of Q4 2013.

Gibt noch weitere News von der wir nichts hören.
http://www.fudzilla.com/home/item/33445-amd-teams-up-with-sk-hynix-for-3d-memory
http://www.fudzilla.com/home/item/33495-amd-to-seize-share-in-pro-graphics-market

usw. Falls du dich also ordentlich informieren willst, muss man ab und zu leider auch auf anderen Seiten lesen, wobei ich auf CB am meisten bin.
 
Zuletzt bearbeitet:
Saftpresser schrieb:
Compute Cores, was soll das?
...

Da ein Kaveri im Vollausbau über 8 GCN Compute Units (a 64SPs) verfügt ist die Zählweise im Kontext von HSA (-> hUMA) inklusive der 4 CPU Kerne durchaus logisch zu begründen.

Wie pipip eben schon schreibt ist die Betrachtung als CPU + IGP ab Kaveri praktisch genauso hinfällig wie früher CPU + FPU.
 
Zuletzt bearbeitet:
@CB

Könnt ihr mal in Erfahrung bringen warum der A10-7700K die 10 im Namen trägt und keine 8, was logischer wäre?
 
pipip schrieb:
Naja, wenn man mal bedenkt wie groß die GPU ist, kann man durchaus vorstellen dass ein Chip mit 4 Modulen möglich wäre. Die Maske würde aber kosten und aus diesem Grund wird AMD schlicht und einfach ein Jahr noch aussetzen, denn 2015 soll angeblich bereits Excavator Cores kommen. Da Kaveri APU auch einen Verwandten als Opteron hat, wäre es sicherlich kein Problem eine Maske für den Sockel zu machen der 4 Module hat.

An genau dem Thema scheitert AMD doch regelmäßig - um Kosten zu sparen, gibt es nur eine einzige, gemeinsame Maske, die dann teuer produziert wird. Und diese eine, teure Maske produziert große, teure Chips, die dann künstlich beschnitten werden. Teilweise vergessen sie aufs eigentliche Beschneiden und schalten die Bestandteile nur in Software aus. Und weil der Yield bei den Teilen dann doch ein wenig besser ist als erwartet werden dann zahllose gute Chips als schlechte verkauft, womit man sehr effektiv seine Marge verkleinert.
Und weil AMD immer recht freudig dabei ist neue tolle Leistungsdaten zu liefern werden mitunter auch mal Chips auf den Markt gebracht, die technisch gesehen einfach nur schlecht sind. Siehe Bulldozer (Architektur für hohen Takt, die bei hohem Takt aber richtig böse Strom säuft) oder die ersten APUs (zu viel GPU für eine viel zu schwache CPU). Die "Modul-Bauweise" ist ja auch ein handfester flopp, die CPUs sind gähnend langsam für die versprochene Leistung, außer bei ganz speziellen Spezialanwendungen. Ein Integer-Kern macht eben noch keine CPU!

Und wenn der GPGPU Ansatz schon so toll funktionieren würde, dann könnten wir tatsächlich von einer APU sprechen. Die Realität sieht aber so aus, dass x86-Software zu GPGPU Archtiekturen inkompatibel ist, und der Support für derartige Systeme aufwändig hineingebastelt werden muss - dem entsprechend kann man diese Software an einer Hand abzählen. Besserung ist beim besten Willen nicht in Sicht, und so wird man als Käufer einer solche "APU" an eine minderbemittelte CPU gebunden, die in der Praxis von der GPU einfach nicht unterstützt wird. Natürlich wird ständig eine Besserung der Situation versprochen, aber wenn sie mal eintreten sollte, ist man vermutlich schon vier Hardwaregenerationen weiter.

Und um ihre miese Strategie zu vertuschen verwendet AMD jedes probate Mittel. Seien es "Compute Units", "Cores", kleine "D"-Zusätze bei Modellbezeichnungen oder sonstige Schweinereien: Was den Kunden irreführt wird gerne und häufig verwendet. Klar ist Intel hier auch nicht heilig - aber wenigstens ist Intel ehrlich damit, was drinnen steckt: Steht Dualcore drauf, dann sind da auch zwei Kerne drinnen - nicht ein Kern und ein Kastrat. Egal was das AMD Marketing behauptet - der Unterschied ist nicht nur messbar, sondern spürbar. Und wenn Software einen Dualcore vorraussetzt, dann streikt der Einmoduler endgültig. Toll.

Während Intel (sowie AMD und nVidia bei Grafikkarten) auf Parallelisierung bei niedrisetzt, spart AMD bei den Prozessoren ein und versucht möglichst "billig" mehr "Leistung" zu schaffen. Takt kostet in der Produktion "nichts". Mehr Kerne, mehr Funktionen schon. Intel holt aus "2 Kernen" bei 2,7 GHz mehr Leistung als AMD aus "2 Kernen" bei 4 GHz - und zwar mit dem Celeron, dem zusammenkastrierten Modell. Und weil Intel nicht jeden Verschnitt verkauft müssen sie auch nicht mit fast 1,5V auf die CPU gehen - und deswegen braucht der Celeron nur 14W Delta unter Vollast, während der langsamere A6-6400K sich gewaltige 61W Delta genehmigt. Das ist die Kehrseite der tollen Spartechnik.

mfg
 
"HSA Features", d.h. echtes, richtiges oder auch fertiges HSA kommt erst mit dem Nachfolger von Kaveri? Und dessen Nachfolger wiederum kommt dann endlich mit DDR4.:evillol:
 
MKrainer
Und wenn der GPGPU Ansatz schon so toll funktionieren würde, dann könnten wir tatsächlich von einer APU sprechen
Tja, da du von gpgpu sprichst, hast du scheinbar keinen Plan was der Vorteil von HSA gegenüber gpgpu ist.

Desweiteren verstehst du offensichtlich auch nicht die Idee hinter den Modulen. Aber warte es ab, wir werden in 10 Jahren sehen, ob deine Behauptung "Flop" richtig war, denn dann werden wir gut abschätzen können, ob ein Modul in einer Zeit wo die Fertigungstechnik immer weniger Fortschritte macht, größere aber intelligente Architekturen eine Lösung gegen Hitzeprobleme sind und bessre Speichercontroller und ebenso ordentliche Compiler mehr Performance aus der jeweiligen Hardware herauskitzelt. Somit, die meiste Arbeit für AMD für AMD ist eigentlich der Compiler und bei Anpassungen sieht man, dass der FX deutlich besser ist, als viele vom Desktop gewohnt ist. Allein Windows 8.1 hat schon Fortschritte gezeigt. Falls du es aber nicht verstanden hast, HSA ist genau der Weg der die Probleme von gpgpu lösen soll und das eben nicht nur auf Hardware-Ebene sondern auch auf Software-Ebene.
Es ist ein Unterschied ob ein Compiler verschiedene Unterprogramme laufen lassen muss allein um das herumkopieren zu gewährleisten oder ob er einfach nur das Programm ablaufen lassen kann.

Deine Vergleiche zwischen AMD und Intel Prozessoren eben auf die üblichen Manier zeigt, dass du im Endeffekt nur das nachplappern kannst, was du in manchen Foren ließt. Prozessoren die mit Programmen getestet werden die den Vorteil haben, dass dessen auf Intel Prozessoren (Compiler) abgestimmt sind und bei AMD Prozessoren nur alte instrcution sets nützt. Umso löblicher dass Excavator alle instrcution sets von Haswell unterstützten wird, ebenso AVX2.
Und falls du es noch immer nicht begriffen hast, der komplette Computer-Markt ändert sich und das nicht unbedingt zu Gunsten von X86 und somit Intel. Ganz anders, wo HSA mehr Anklang findet und HSA nicht wie einige wohl hier glauben an X86 gebunden ist.

Aber hey, die Integration der FPU, die Integration des Speichercontroller oder Southbridge waren ja nach deiner Meinung auch der totale Flop, denn auch diese Chips waren Anfangs onboard und bei ARM Prozessoren sind sie zu teil sogar noch. Intel hat viele Techniken sogar weit nach AMD erst in die CPU integriert.
Sobald du mal checkst, dass eine APU keine CPU und GPU ist, sondern eben ein Heterogeneous System Architecture, im Gegensatz zu einer klassischen CPU (Homogeneous System Architecture), wirst du merken, wie falsch dein Bild von HSA ist.

Übrigens, nach deiner Auffassung, war AMD64 genauso ein Flop, aber ja, ich gebe dir Recht, AMD muss jetzt beweisen, dass sie auch die Vorteile herausholen können.
Doch die modulare Technik als Flop zu bezeichnen, ist etwas daneben, besonders da AMD nicht anders handel kann, als früher als Intel eine Architektur auf den Markt zu bringen, den Intel kann eben dank seiner Marktmacht den Markt quasi vorbereiten. Die Idee hinter den Modulen ist aber mit 12% mehr Transistoren 80 % der Performance eines fiktiven klassischen Dual Core zu erreichen.
Falls sich Multithreading mal tatsächlich durchsetzt, wären diese Ziele immer noch möglich, auf dem Papier sind sie es zu mindestens bereits schon :D

Und diese eine, teure Maske produziert große, teure Chips, die dann künstlich beschnitten werden.
Bedank dich bei Intel, denn die machen das seit Jahren. Deshalb bremsen sie künstlich sogar die Multi-Core Anwendungen im Desktop aus, damit die Leute um den selben Preis immer den gleichen aber günstiger zu produzierenden Prozessor verkaufen.

Steht Dualcore drauf, dann sind da auch zwei Kerne drinnen - nicht ein Kern und ein Kastrat
Weißt was, bilde dich mal, bevor du sowas schreibst.
Denn inetressant ist, wenn es um Hyperthreading geht, dann spricht man von verdoppelten Register als wäre das ein virtueller "Core".
Was ist dann SMT für dich, als bekannter Intel Fan ?
Wahrscheinlich ein "Dschinni aus der Wunderlampe"

marantz
Ja weil der Nachfolger ist die vollständige HSA APU ist.
3-1080.2263084609.png
Wir sind bei Architectural Integration
 
Zuletzt bearbeitet:
Ändert aber nichts an der Tatsache, das eine APU uns heute nicht mehr bringt als vor 2 Jahren, außer etwas mehr Leistung bei Spielen, was aber immer noch nicht genug ist um eine dezentrale GPU zu ersetzen.
HSA höre ich auch schon seit ewigen Zeiten aber zu kaufen gibt es da immer noch nichts.
AMD kündigt die ach so tolle Computer Revolution Jahre vorher an und wundert sich dann, wenn Leute müde werden das zu lesen ohne es kaufen zu können.
Jetzt haben wir nach FM1 und FM2 einen FM2+ Sockel. Auf welchem Sockel laufen die CPU's mit DDR4 und HSA? Ist das was ich heute kaufe im nächsten Jahr überhaupt noch kompatibel?
Sockel FM1 wurde Juli 2011 vorgestellt.
Sockel FM2 kam Juni 2012.
Sockel FM2+ gibt es seit Juni 2013
Irgendwie eine klare Linie sehe ich da nicht. Wilder Sockel Wechsel ohne Rücksicht auf Verluste. Wer sich seine Kunden vergraulen will, der mach das so genau richtig.

Zur News: AMDs „Kaveri“ mit 12 Compute Cores nun offiziell mag ich nur sagen: Selbes Kind aber mit andern Namen.

Wenn AMD erfolgreich sein will, dann müssen die Leute wie mich von deren CPU's überzeugen. Die Intel kaufen sind verwöhnt, weil Sie gute Leistung bei kleinem Stromverbrauch und breiter Verfügbarkeit bekommen und da interessiert es überhaupt nicht, wenn die CPU etwas mehr kostet.
Sollte HSA in 10 Jahren der Renner sein, dann gibt es das selbe oder etwas besseres von Intel. Oder zweifelt da jemand daran.
 
Zuletzt bearbeitet:
MikelMolto

Sollte HSA in 10 Jahren der Renner sein, dann gibt es das selbe oder etwas besseres von Intel. Oder zweifelt da jemand daran.

Zuerst einmal, wer macht ständig Vergleiche mit Netburst ect. Ist der Prozessor nicht vor ca 10 Jahren aktuell gewesen, also unterstreicht deine Person meine Aussage, dass wir in 10 Jahren eventuell Aussagen vom Erfolg einer Idee/architektur machen können. Es war von mir nirgendwo die Rede davon dass HSA erst in 10 jahren lauffähig ist, aber selbst wenn, dann hat es sich vermutlich durchgesetzt. Und um es dir etwas verständlicher zu machen, viele Leute sehen die Änderung erst kommen wenn sie schlagartig passiert. Als gutes Beispiel nenne ich dir mal die USA und Winter, nämlich den Klimawandel mit der Faust ins Gesicht.

dann gibt es das selbe oder etwas besseres von Intel. Oder zweifelt da jemand daran

Jop MIC, aber momenteinmal, davon wird ja auch schon seit Jahrzenten geredet wie toll und super das ist, aber interessanter weise zweifelt da tatsächlich keiner daran.

Übrigens, ich will dich nur informieren, überlege mal wie lange diverse Konsortien an FinFets arbeiten und wie lange Intel gebraucht hat die Technik marktreif zu machen.
Und genau hier liegt der Hund begraben, man muss eine Technik nun mal Schrittweise ins Volk bekommen, besonders wenn man scheinbar mit Alten bricht oder so erweitert, sodass es für viele unverständlich ist. Denn wieso glauben immer noch viele dass hinter APU ein Marketingname steht und im Endeffekt das gleiche ist, was Intel mit CPU + IGP anbietet ?

AMD hat nun mal nicht das Geld, dass Sie auf die fertige APU waren und zwischendurch mal schnell den Markt anpasst, der übrigens durch Intel bestimmt wird. Somit wirst du nachvollziehen, dass es ein logischer Schritt ist, mehre Schritte zu machen, für die Forschung passiv momentan in Nischen Geld zu generieren und die Software-Entwickler auf die Verbesserungen und Architektur einzuweisen.
Aber natürlich weißt du wie der Hase läuft und kannst bestimmt Tipss geben. Besonders Intel könnte es auch brauchen, jene die Millionen in MIC-Architektur steckt und bis jetzt gerade wie erwähnt gerade mal im Profisegment zu finden ist. Bin gespannt wann es den Chip als Grafikkarte geben wird und erst recht wann ich den als CPU nützen kann.

dann müssen die Leute wie mich von deren CPU's überzeugen
Du wirst merken, sobald die Masse andere Anforderungen hat (was sie eigentlich bereits hat) der Markt und somit die Software ändert, dass die CPU selbst mehr an Bedeutung verlieren wird, besonders wenn dann in kleinere Geräte dann CPU+ IGP oder HSA-APU immer gefragter werden, sodass dann auch Microsoft, um im Mobilien Markt mithalten zu können mehr und mehr auf APUs optimieren muss und diese Arbeit dann wieder auf Desktop Rechner zu finden sind.
Aber ja, ich gebe euch wie gesagt recht, nach großen Worten müssen Taten folgen. Das gilt aber eben nicht nur für AMD, sondern auch Intel die mal beweisen müssen dass man X86 auf den mobilen Markt durchsetzen kann.

Aber ich bin gespannt, inwiefern Intel es schafft eine bessere APU auf die Beine zu stellen, bzw falls Intel eine "bessere " APU entwickelt hat, ist das Konzept CPU veraltet.
 
Zuletzt bearbeitet:
MikelMolto schrieb:
Sockel FM1 wurde Juli 2011 vorgestellt.
Sockel FM2 kam Juni 2012.
Sockel FM2+ gibt es seit Juni 2013
Irgendwie eine klare Linie sehe ich da nicht. Wilder Sockel Wechsel ohne Rücksicht auf Verluste. Wer sich seine Kunden vergraulen will, der mach das so genau richtig.

Und trotzdem kaufen alle die überteuerten Intel CPUs. Würde mal sagen: Eigentor.

Achja und falls du tatsächlich denkst, dass eine APU von AMD nicht eine Dedizierte Grafikkarte ersetzt, dann täsucht du dich. Ich habe meine vor einem Jahr rausgeschmissen, weil das mitlerweilen meine APU für mich regelt.
Und komm mir jetzt nicht mit schwacher Leistung und bli bla blubb, denn davon hast du scheinbar keine Ahnung ;)
 
@Prisoner.o.Time
Wovon ich Ahnung habe kannst Du überhaupt nicht beurteilen. Außerdem gibt es keinen Grund persönlich zu werden.

Habe selbst viele Monate mit der iGPU von meinem 3770K gespielt und kann das schon beurteilen. Was sich dabei ändert ist was man spielt. Spiele die auf einer APU oder iGPU gut laufen werden halt bevorzugt gespielt.

Was redest Du da wegen überteuert. Wir sprechen von Peanuts Euro Beträgen. Es gibt auf dieser Welt genug Leute die sich wegen 100 Euro nicht aufregen. 100 Euro zahle ich im Supermarkt und anschließend noch einmal an der Tankstelle und das regelmäßig.
Klar ist das alles eine Alternative für Leute mit wenig Geld aber das darf man doch nicht Verallgemeinern.
 
Erstens bin ich weder persönlich geworden noch habe ich gesagt dass du keine Ahnung hast, ich hab es lediglich vermutet. Daher auch das Zwinkersmiley und das "scheinbar"

Aber das können wir ja schnell kären. Hast du eine AMD APU. Sprich einen Trinity oder Richland? Wenn ja was hast du damit auf welchen Einstellungen gespielt.

Ach übrigens, die iGPU eines 3770k kann man in keinster weise mit einem A10-6800k vergleichen.
 
Mich würde interessieren, ob und welche Karten im Crossfire-Betrieb nutzbar sein werden. Konnte bisher nichts finden.
 
was denn für Karten ? und wieso verzichtest du nicht einfach drauf ein leerer Steckplatz frisst ja kein Brot :)
Oder soll das bedeuten das du ein ITX Board haben möchtest ?

sorry entweder bin ich blind oder du sprichst in Rätseln :)
 
Zuletzt bearbeitet:
Zurück
Oben