News Erste Benchmarks zum „Vishera“-Desktop-Prozessor von AMD

ich denk auch. Aber ich kann mir vorstellen dass alle künftigen Desktopmodelle mit GPU daherkommen. Vishera wird kommen, meiner Meinung nach, eventuell kehrt man aber dem x86 Server Umfeld den Rücken und versucht hier auf GPU Computing zu setzen ähnliche wie es Nvidia mit Tesla tut.

Über den Nachfolger von Vishera ist ja auch 0 und nichts bekannt.

http://www.pcgameshardware.de/aid,1...toppt-Entwicklung-von-High-End-CPUs/CPU/News/
 
Ja ist doch logisch das über den Nachfolger einer CPU, die noch nicht mal draußen ist, noch nichts bekannt ist. Was weiß man denn über den Haswell-Nachfolger Broadwell? Exakt. Nichts. Auch von Haswell weiß man eigentlich nichts, zumindest nichts relevantes Richtung neuer Architektur. Alles andere da ist auch Kaffeesatz und Annahme, was von Ivy Bridge übernommen und ausgebaut werden könnte. Konjunktiv.

Die ganzen Geschichten bei den AMD-CPUs aktuell sind deshalb einfach nur Mist und sollten gar nicht beachtet werden.
 
Genauer betrachtet bedeutet die OBR-Meldung ja nur, dass AMD (für den Consumer-Markt) nach Vishera keine reinen CPUs mehr bringen wird. Das bedeutet aber nicht, dass sie sich komplett aus dem High-End- und Performance-Markt verabschieden.

Bis hoch zum 3770K gibts bei Intel praktisch auch keine Consumer-CPUs ohne integrierte GPU mehr und da redet niemand davon, dass sie irgendeinen Markt aufgegeben hätten.
Klar gibt es darüber noch die SB-E ohne GPU, aber das sind dann doch eher Nischenprodukte. (Und das sage ich als stolzer Besitzer eines 3930K. ;) )

Nach Vishera könnte also theoretisch durchaus eine Performance-/High-End-APU kommen, die die bisherigen FX ersetzt und es leistungsmäßig mit den schnellsten "normalen" Consumer-CPUs von Intel (Sockel 115X) aufnehmen soll. Also "ausgewachsener" FX + GPU, z.B. 4 oder mehr Steamroller-Module + L3-Cache + GPU.

Außerdem hat AMD ja vor einiger Zeit schon erklärt, dass sie zukünftig voll auf "Fusion" setzen wollen. Konsequenterweise neigen sie also dazu, CPU- und (theoretische) GPU-Leistung ihrer APUs einfach zu addieren und dann stehen sie auch mit ihren bisherigen APUs auf einmal gar nicht mehr schlecht da, gegenüber Intel.

Wie weit diese Rechnung in der Praxis aufgeht, also wie gut die meisten realen Anwendungen die GPU-Leistung der APUs für mehr als nur Grafik nutzen können, steht auf einem anderen Blatt.
Vielleicht setzt sich das durch HSA (siehe oben verlinkten Fusion-Artikel) mit der Zeit stärker durch, vielleicht nicht.

Ich persönlich bin da eher skeptisch, weil die Computerindustrie erfahrungsgemäß nicht gerade dazu neigt, sich von der den Markt dominierenden Technologie einfach so abzuwenden und auf die revolutionäre Neue des Underdogs umzuschwenken. (Sonst wäre x86 z.B. schon vor Ewigkeiten abgelöst worden.)
HSA könnte vielleicht für ARM eine große Sache bei den durch sie sowieso schon dominierten Mobilgeräten werden, aber ob AMD damit bei den PCs und Servern einen realen Vorteil gegenüber dem Platzhirsch Intel bekommen wird... :rolleyes:
 
Zuletzt bearbeitet:
Bei Intel muss man aber keine Abstriche bei Takt oder Kernzahl machen. Es gibt keinen Llano mit 6 Kernen, einen Thuban schon. Es gibt keinen Trinity mit 4 Modulen, einen FX schon. Merkste was? :)
 
Warum sollte es für AMD unmöglich sein, in 2 Jahren (nach einem weiteren Shrink) auch an eine 4-Modul-CPU mit L3 eine GPU dranzubasteln?
Nur weil sie es bisher nicht getan haben, heißt das nicht, dass es nicht geht und niemals gehen wird.
 
In 2 Jahre hat man dasselbe Problem wie heute:
Wenn du zwei Komponenten in einer TDP vereinen musst, dann musst du bei beiden Abstriche machen. Das war so, ist so und wird immer so sein, wenn du alle Fälle berücksichtigen willst, nämlich die komplette Auslastung der APU, nicht nur des CPU- oder GPU-Teils. Du kannst nicht - grob gesagt - einen FX8150 und eine 7870 (beide jeweils ca. 125W TDP) auf ein Die klatschen und mit 125W TDP auskommen.

Außerdem ist die Konkurrenz in 2 Jahren auch weiter. Wenn AMD dann 4-Modul-APUs hat, könnte Intel theoretisch 12-16-Thread CPUs entgegenstellen. Oder AMD selbst könnte 6-Modul-CPUs bauen oder viel höher getaktete 4-Modul-CPUs. Der Kompromiss ist immer da, der geht nicht weg. Es sei denn, die Software würde fast immer vom APU-Konzept profitieren, so dass fast nie ein Part brach liegt. Dann wäre der Kompromiss egal.
Das ist so wie mit Multicore. Mit dem Q6600 gabs viel weniger Takt und damals war er in Singlethreadedanwendungen deutlich langsamer als die schnellsten Dualcores. Ein Q"6600" mit 3 GHz hätte die TDP gesprengt. Das wandelt sich erst mit der Software - und selbst heute wünsche ich mir oft einen 5-6 GHz Dualcore für die meisten Anwendungen, weil wir eben noch nicht soweit sind, dass fast jedes Programm alle Kerne benutzen kann. Im Grunde haben wir dasselbe Problem noch heute, nur bauen die Hersteller einfach keine Dualcores, die deutlich höher takten als Quadcores. Ein i3 mit 2C/4T mit 4,5 GHz bei 95W TDP wäre ganz sicher möglich.
 
Wie gesagt, Intel schafft es auch, High-End-CPUs mit einer GPU zu kombinieren. Warum soll AMD sowas nicht auch können?

Klar wird bei AMD höchstwahrscheinlich weiterhin die Gewichtung anders aussehen. Also weniger (x86-)CPU- und dafür mehr GPU-Leistung. Wobei die ja nach AMDs plänen eh ineinander aufgehen und als ein einziges, heterogenes System angesprochen werden sollen.

Es bleibt einfach dabei, dass nur weil AMD in Zukunft im Consumer-Bereich voll auf APUs setzen will (was ja eigentlich keine überraschende Neuigkeit ist), das nicht bedeutet, dass es zukünftig keine Performance- und High-End-CPUs mehr von AMD geben wird. APU und High-End sind kein grundsätzlicher Widerspruch.
 
3770K ist nicht Highend. 3930K aufwärts ist Highend und da ist keine GPU verbaut. Außerdem hat Intel den Vorteil der kleineren Fertigung.

APU und Highend ist natürlich ein Widerspruch - solange eben die Software nur einen Teil der APU nutzen kann. Das wird sich auf absehbare Zeit aber nicht großartig ändern. Mit Trinity haben sie die Modulzahl halbiert - stell dir mal vor, es gäbe keine Phenoms und FX im Moment, nur Trinity. Wie will ein 2M/4T gegen einen "echten" Quadcore oder gar Sixcore anstinken, dazu noch mit der geringen IPC? Gar nicht.
 
Den 3930K (ich habe wie gesagt selbst so einen) und 3960X würde ich nicht als High-End, sondern schon als Enthusiasten-CPUs bezeichnen. (Also sowas wie z.B. die Dual-GPU-Karten bei den Grafikkarten.)
Oder halt was für bestimmte professionelle Anwender, obwohl für die ja eher die entsprechenden Xeons gedacht sind.

Ich denke außerdem, ein 3930K mit iGPU wäre theoretisch durchaus machbar gewesen. Notfalls indem man auf gewissen, für die meisten Consumer nicht besonders wichtige Features wie zwei zusätzliche Speicherkanäle, 40 statt 16 PCIe-Llanes , etwas L3-Cache usw. verzichtet. Also im Prinzip ein 2700K mit zwei zusätzlichen Cores. ;)

Aber wie gesagt, das ist eh schon eine Liga über High-End und für 99% der Consumer uninteressant. AMD muss nicht unbedingt in diesem exotischen Enthusiasten-Bereich mitmischen. Eine High-End-APU, die annähernd auf Augenhöhe mit den besten normalen Sockel-115X-CPUs mitspielen kann, wäre doch schon völlig ausreichend.

Ob AMD sowas hinbekommt, ist eine andere Frage, aber ich würde auf jeden Fall nicht einfach unterstellen, dass die das gar nicht erst versuchen werden. Ich glaube jedenfalls nicht, dass AMD den Kampf aufgegeben hat. Sie gehen halt nur konsequent ihren APU-Weg.
 
99% der Consumer kaufen kein Highend. Man kann sich die Definitionen so hinbiegen wie man will, es ändert nichts daran, dass man schon mit den 6-Kernern von Intel nicht mithalten kann. Wenn man jetzt noch Transistor- und TDP-Budget vom CPU-Part in den GPU-Teil verschiebt und glatt mal die Module halbiert wie bei Trinity, kann man dann auch nicht mehr mit den Performancechips (Sockel 1155) mithalten.

Du wirst ja wohl nicht bestreiten können, was ich ausgeführt habe bzgl. der Kompromisse einer APU, die eine Balance zwischen GPU und CPU sucht. Intel wird mit Haswell mehr Grafikleistung bieten, aber höchstwahrscheinlich nicht den Takt absenken, im Gegenteil. Auch die Anzahl der Threads bleibt gleich, sogar die IPC steigt. Dafür steigt die TDP wieder um 18W wegen der Reserve, die man mit der 22nm-Fertigung hat. Würde AMD einen Trinity mit 4 Modulen jetzt bringen wollen, müsste man die TDP sicherlich auf 175W oder gar mehr festsetzen. Wenn man das machen will, gerne. Wenn nicht, fällt man bei der CPU-Leistung noch weiter zurück.
 
Zuletzt bearbeitet:
4 Intel Kerne sind kleiner als 4 AMD Module. Es fällt Intel somit leichter, eine iGPU mit zu verbauen. Die die Größen von Intel sind trotz iGPU recht klein gehalten. Außerdem gelten Intel Kerne generell als sparsamer ab einer gewissen Taktfrequenz.
 
Ich persönlich finde, dass es sogar Intel mit dem immer weiteren Aufblähen des integrierten GPU-Teils inzwischen übertreibt und AMDs APUs gehen für meinen Geschmack in einen völlig falsche Richtung.
Ich will entweder eine kleine iGPU, die für Desktop, Websurfen, HD-Video, Flash usw. ausreicht (das kann schon die alte HD-Grafik in meinem Subnotebook mit Arrendale-ULV) oder eine große dedizierte Grafikkarte neben einer ebenso großen CPU für Spiele. Ich will keinen halbgaren Kompromiss dazwischen.

Aber ich bin nunmal nicht das Zentrum der Welt und wenn AMD sich ausgerechnet hat, dass APU für die Masse der PC-Anwender die beste Lösung ist... Wer bin ich, dem zu widersprechen? ;)

Ich halte es wie gesagt für technisch durchaus möglich, leistungsstarke High-End-CPUs mit integrierten GPUs zu bauen. Intel tut es schon seit 2 bis 3 Generationen. AMD wird sich zweifellos auch daran versuchen. Ob sie es schaffen, werden wir in ca. 2 Jahren wissen.
 
Herdware schrieb:
Wie gesagt, Intel schafft es auch, High-End-CPUs mit einer GPU zu kombinieren.
Wie schon angesprochen, ist ein DT-Design kein High-End, zumal die iGPU hier fast schon die Hälfte des Platzes einnimmt. Das sind Consumer-Produkte mit abermillionen von Stückzahlen.
 
Und ich bleibe dabei, dass z.B. ein 3770K eine astreine High-End-CPU (mit integrierter GPU) ist.

Klar gibts noch die SB-E darüber, aber deren Stärken sind so spezifisch, dass 99,99....% der Consumer davon im Vergleich mit dem erwähnten 3770K oder 2700K gar nichts bemerken können. Deshalb sehe ich sie nicht mehr als High-End, sondern eine Stufe darüber als Enthusiasten-CPUs. Also Extrem-CPUs, die "jehnseits der Vernunft" liegen. Etwas für unvernünftige Spinner wie mich. :D

Früher stand das FX-Kürzel bei AMD auch für solche Enthusiasten-Modelle. Aber das ist schon lange Geschichte und ich denke, wenn AMD sich dazu entschließt, sich zukünftig "nur" noch auf High-End zu beschränken und das Enthusiasten-Segment Intel zu überlassen, wird das keinen starken Effekt auf den Markt als Ganzes haben.
 
Laut Intel wird SNB DT in (Performance) Premium, Mainstream und Value verkauft - der 3770K in ersterem. Von High-End wie einem achtkernigen Xeon E5-2678W oder gar einem E7 ist das meilenweit entfernt. High-End ist nun mal wortwörtlich da obere Ende, der 3770K ist aber nur irgendwo in der Mitte ...
 
Wir reden hier doch über Consumer-CPUs, nicht über irgendwelche exotischen Xeon-Monstrositäten. :rolleyes:
Sonst könnte man ja auch Xeon-EX oder Power7+ dazurechnen und plötzlich ist ein i7-3960X eine billige Low-End-CPU. :lol:

Die Sockel-115X-i7 sind Intels High-End-Consumer-CPUs. Die sind es, mit denen sich die größten FX-CPUs (Zambezi und demnächst Vishera) von AMD messen müssen und ebenso (mögliche) zukünftige High-End-APUs auf Steamroller-Basis, die diese FX als AMDs Oberklasse im Consumer-Bereich ablösen.
 
Wenn du Consumer nur mit DT eingrenzt, dann hast du Recht.
 
Meine Glaskugel sagt Folgendes über die Zukunft AMD,s.
AMD wird Pleite gehen und ATI ausstoßen, Intel lässt sich das nicht durch die finger gehen schnappt zu, und macht Nvidia Konkurrenz.
 
Herdware schrieb:
Ich persönlich finde, dass es sogar Intel mit dem immer weiteren Aufblähen des integrierten GPU-Teils inzwischen übertreibt und AMDs APUs gehen für meinen Geschmack in einen völlig falsche Richtung.
Ich will entweder eine kleine iGPU, die für Desktop, Websurfen, HD-Video, Flash usw. ausreicht (das kann schon die alte HD-Grafik in meinem Subnotebook mit Arrendale-ULV) oder eine große dedizierte Grafikkarte neben einer ebenso großen CPU für Spiele. Ich will keinen halbgaren Kompromiss dazwischen.

Mir ist natürlich klar wieso sie das machen. Wie auch AMD hat Intel das Potential für GPGPU erkannt und pferchen natürlich soviel Rechenleistung wie möglich in die GPU.
Wenn es AMD schafft HSA auf breiter Basis durchzudrücken und somit eine einfaches Programmiertool schafft, welches es den Entwicklern ohne Aufstand ermöglicht hochparellisierpare Software auf der GPU laufen zu lassen wird sich das auch durchsetzen.
Die Software kann und muss dann selber entscheiden ob es effizienter ist den anfallenden Code auf
dem CPU oder GPU Teil der APU laufen zu lassen.
Man wird irgendwann aufhöhren den CPU und GPU Teil getrennt zu betrachten, sondern als Einheit.

Ganz davon ab kann man es so machen wie Intel und bringt bei Haswell oder Broadwell angenommene 30-50% mehr CPU-Leistung. Ist aufwendig und bringt "wenig" Ertrag.

Wenn man allerdings die Software einfach anpassen kann, bringt das bei Parellelisierbarem Code schnell mal 400-1600% ohne Aufstand.
Damit rammt selbst Trinity Sandy, Sandy-E oder Ivy unangespitzt in den Boden.
 
Zuletzt bearbeitet:
Wie kommst du auf 30 bis 50 Prozent? HSW legt auf IVB laut Intel wohl nur 15 Prozent zu CPU-seitig.
 
Zurück
Oben