News AMD Ryzen: Zen mit 10 % Flächenvorteil gegenüber Intel Skylake

natürlich bringt diese Info dem Endkunden absolut nix ... es wird halt nun jeder Krümel gesucht der das eigene Produkt besser dastehen lässt.

Die ganze Hardware wird, da es umweltschonender ist, mit sofortiger Wirkung, mit Eseln transportiert, da die bisherigen Transportmittel eine doch deutlich höhere Emissionsklasse haben.
 
Trinoo schrieb:
natürlich bringt diese Info dem Endkunden absolut nix

Ist auch gar nicht für die Endkunden gedacht. Sondern für "die Nerds" auf der ISSCC.

Deshalb macht der Rest deines Posts 0 Sinn.

Es wird halt nun jeder Krümmel gesucht, um AMD zu bashen.
 
D708 schrieb:
[...]Wenn Ryzen einschlägt, verbessert es die Marktsituation der APUs massiv. Hypothetisch, wenn es Zen nicht geben würde, wäre es mit Bulldozer nen guter Deal, da man mit Intel deutlich mehr Gewinn fahren würde als mit eigenen Absatz. Wenn die reinen APU Absätze (die Konsolen ausgenommen)nicht steigen, bzw der absolute Gewinn nicht steigt, könnte man eher Intel das Feld überlassen.

Jedenfalls in Absoluten Zahlen. AMD weiß ja mehr, wie gut Ryzen wirklich ist, ein Verkauf des Tafelsilbers wäre ein fatales Zeichen.
Ein klar Vorteil wäre es schon, wenn in jedem x86 Gerät eine AMD Komponente sitzen würde. Stichwort Direct x 12.
[...]

Was ist für den Markt der APUs eigentlich zu erwarten?
Hatte ja auf eine Art "4 Kern, 8 Thread, + (ganz) kleiner Vega" APU mit vlt. 100 Watt für den Notebookmarkt spekuliert, aber da ist die Informationslage ja noch dünner, als bei den Desktop Ablegern.
 
masterpsp schrieb:
Ich meine das die Abwärme geringer ist und er damit wahrscheinlich weniger Strom verbraucht.

Wenn AMD es mit der Wärmeleitpaste oder einem Verlöteten Heatspreader besser macht als Intel, sehe ich bei gleicher Leistung einen Vorteil für das geplante Comeback.
 
T-REX schrieb:
AVX 512 wird nicht wirklich viel genutzt. Klar gibt es die Einsatzgebiete wo es wirklich viel bringt und da wird AMD dann halt alt aussehen. aber 90% der Profi User benötigen das Feature noch nicht bzw die Software nutzt es noch nicht. Und im generellen beruflichen Einsatz (Office) wo wohl der größte Absatz stattfindet benötigt das Feature niemand.
Ich ging primär von FEM Simulationen aus, und Abaqus womit ich arbeite nutzt z.B. AVX256, sobald Intel es in die Xeon E5 implementiert wird auch AVX512 zum Einsatz kommen. Mir ging es in dem Beitrag nicht um Office Anwendungen dafür braucht man weder Skylake-EP noch Naples :)
 
T-REX schrieb:
Intel behauptet seit Jahrzehnten, dass Ihre Prozesse die höchsten Packdichten haben. AMD&GF zeigen hier dass die Zeiten vorbei sind. TSMC, Samsung und GF werden Intel in den nächsten Jahren hinter sich lassen. Dazu kommt, dass der Intel prozess im regelfall als teurer gilt, als der GF/Samsung Prozess. Daher könnten die Unterschiede in den Fertigungskosten durchaus größer als die von dir suggerierten 5% ausfallen.
Die Größen sagen im Prinzip nicht viel aus, denn man kann so einen Cache auf verschiedene Arten optimieren, auf Größe, Leistung, Energiebedarf, Taktbarkeit usw. Welches Cache-Design besser ist, kann man nur unter Berücksichtigung all dieser Faktoren sagen.

Smartbomb schrieb:
AMDs 8 Kerner auf AM4 wird ganz sicher nicht günstiger als Kaby Lake 4 Kerner auf Sockel 1151!
Beim Verkaufspreis vermutlich nicht, beim Herstellungspreis ist das nicht nur möglich, sondern sogar wahrscheinlich.

Smartbomb schrieb:
Mal sehen wie flott der Nachfolger, Skylake-X auf dem neuen Intel Sockel wird.
AMD kommt aber zuerst raus, Intel wird die Taktraten von Skylake-X auf die Konkurrenz anpassen.
Da wird man erst einmal schauen müssen, ob die beiden überhaupt in der gleichen Preisklasse spielen.

HominiLupus schrieb:
Genaus das ist falsch. Wenn die CPU 10% hinter Intel liegt ist das nicht wirklich problematisch für den Kunden, weil auch Intel CPUs verkauft die 10% langsamer als das Spitzenquadcore Modell sind. Es ist allerdings etwas problematisch für AMD weil das auf die Marge drückt.
Prinzipiell ja, aber hier kommt AMD zu Gute, dass die Kunden kaum dazu bereit sind viel für die iGPU draufzuzahlen, d.h. du kannst für eine 4C-APU kaum mehr verlangen als für eine 4C-CPU obwohl erstere mitunter doppelt so groß ist.

HominiLupus schrieb:
Insgesamt wird AMD etwas hinter Intel sein weil AMD wohl nicht die Taktraten von Intel erreichen wird. Zumindest nicht ohne Übertaktung. Ein 4GHz Ryzen wäre z.B. ca. 10% hinter derzeitigem Intel Modell.
Ich denke, dass nicht nur der Takt niedriger ist, sondern auch die IPC. Mit vielen Threads wird SMT das vermutlich teilweise ausgleichen können, bei wenigen Threads erwarte ich Ryzen eher auf dem Niveau von Ivy Bridge oder Haswell.

Volker schrieb:
Das wird nur gehyped weil die meisten keine Ahnung haben. AMD hat letztes Jahr gesagt sie machen was mit IP-Lizensierung, aber nur dann, wenn es ihre eigenen Pläne nicht beeinflusst. Na wie würde denn eine Intel-CPU mit AMD-Grafik auf ihre im 2. Halbjahr kommenden neuen APUs wirken? Genau, wie ein Stock zwischen die Speicher um richtig auf die Fresse zu fallen^^
Ich halte zwar auch nicht viel von dem Gerücht, aber aus finanzieller Sicht könnte es sich lohnen. AMD wäre von heute auf morgen der mit Abstand größte GPU-Hersteller mit dann über 80% Markanteil. Das dürfte die Verluste bei den APU-Verkäufen mehr als ausgleichen. Weitere Vorteile wäre ein höheres Gewicht, wenn es um Optimierungen durch die Spieleentwickler geht und auch FreeSync würde dadurch einen großen Schub bekommen. Für Intel wäre es vermutlich sogar noch reizvoller. Man könnte sich nicht nur die GPU-Entwicklung sparen, die viel gekostet hat, aber nur wenig Gewinn generiert. Auch die Probleme, dass Intel-GPUs selbst bei eigentlich ausreichender Leistung von Seiten der Spiele-Entwickler praktisch keine Optimierungen oder Fixes erhalten haben, wären damit Vergangenheit. Außerdem würde man damit auch nVidia, einem der Hauptkonkurrenten im HPC-Markt, mächtig in die Parade fahren. Dass man AMD damit stärkt, dürfte dabei nicht als all zu großes Problem gesehen werden, denn selbst mit diesen Zusatzeinnahmen bleibt AMD im Vergleich zu Intel ein Zwerg.

T-REX schrieb:
AVX braucht in den CPUs dann irendwann auch niemand mehr, wenn überall entsprechende Hardwareunterstützung durch die GPUs gegeben ist.
Du kannst AVX-Code in vielen Fälle nicht durch GPU-Code ersetzen. Allein die Latenzen machen das in vielen Fälle unpraktikabel. Vergleichbar wäre das mit Sportwagen vs. LKW. Wenn du Umziehst, bringt dir ein LKW die Sache schneller zur neuen Wohnung. Wenn's nur um den Supermarkt-Einkauf geht, ist der Sportwagen schneller.
 
Zuletzt bearbeitet:
v_ossi schrieb:
Das habe ich bei Intel auch nie so richtig verstanden. Zumindest bei den "großen" Modellen, also i5 und i7 mit 35 Watt TDP aufwärts, haben doch 95% der User entweder eine GeForce/Radeon zum Spielen oder eine Quadro/FirePro zum Arbeiten im Rechner. Wenn es also nur darum geht einen Bildschirm anzusteuern um einen Ausfall zu überbrücken, sind die IGPUs schon fast zu groß (das kann sogar die IGPU meines i5 450m gut genug)

Das hat einen ganz einfachen Grund. Es ist für Intel wesentlich einfacher wenige gleiche CPUs zu fertigen, als haufenweise unterschiedlicher. Intel hat nur relativ wenige grunddesigns an CPUs und spart sich so massiv Fertigungskosten. So kann man aus einem Quadcore mit verbundener HD 630 auf der einen Seite alle Intel Notebookprozessoren ab 35 Watt fertigen, auf der anderen Seite aber auch alle Desktop Modelle der i5 und i7 Serie. Und auch eine ganze menge Xeon E3 Prozessoren basieren auf dem Design. In Notebooks kommen oftmals solche Prozessoren ohne zusatz GPU zum einsatz oder wenn eine Zusatz GPU verbaut ist, wird diese nur in 3D Anwendungen verwendet und im normalen Betrieb z.B. mittels optimus deaktiviert. Die iGPUs sind deshalb relativ stark ausgelegt, da sie viele Funktionen wie das decodieren von h265 10 Bit etc. supporten und mehrere hochauflösende Displays ansteuern können, zukünftig sollen zudem auch die U prozessoren auf das Design setzen. Zudem ist es für Workstations mit Xeon E3 Prozessoren nett, da man so dort Dinge wie Quicksync nutzen kann

Die inhouse Chipfertigungskosten dürften für Intel relativ gering sein so das man dadurch mehr einspart, als die zusätzliche DIE Fläche kostet. Deshalb ist es auch nur ein kleiner Tropfen auf dem heißen stein für AMD. Ja die Diefläche ist kleiner, aber der Prozessor muss von einem Auftragsfertiger gebaut werden. D.H. ein weiteres Unternehmen, welches eine marge aufschlägt.

Wahrsceinlich kann Intel selbst mit igpu noch günstiger produzieren, als AMD ohne. Sieht man ja an Prozessoren wie den Celeron und pentiums. Wahrscheinlich ist ein Celeron mit iGPU so größ wie ein Ryzen 4 kerner, wenn nicht gar 6 kerner ohne GPU und das Teil kann Intel für 35$ in den Endkundenmarkt drücken

Bei Ryzen bin ich aber auch mal auf die wirkliche Singlethread leistung gespannt. Denn auch heute kommt es in vielen Anwendungen darauf an! So kann man heute alles noch mit einem flotten Dualcore erledigen 8außer halt aufwändige Spiele oder spezielle software). Sieht man wunderschön in Notbooks, wo dual Core prozessoren dominierend sind und sich quadcores in Alltagsaufgaben nicht wirklich absetzen können. Ich denke auch, dass AMD mehr auf Multithreading setzt.
 
Zuletzt bearbeitet:
ed33 schrieb:
Warum erzählt amd nur das was keiner wissen will und das kurz vor releas??
Das ist die ISSCC, da sind gerade solche Dinge wichtig, dort interessiert sich keiner für den BF1 Balken...
 
Der Flächenbedarf eines SRAM-Caches hängt bei der Implementierung normalerweise nicht davon ab, wie klein man im verwendeten Prozeß eine Standard-6T-Zelle machen könnte. Die Größe wird entsprechend der Anfordeung gewählt, also jeweils für L1, L2 und L3. Dabei nimmt dann die Packungsdichte deutlich ab, je höher die Geschwindigkeit und je größer die Assoziativität des jeweiligen Caches sind.

Ohne Angaben, was diese beiden Kriterien betrifft, ist ein Vegleich der Packungsdichte sinnlos.
 
T-REX schrieb:
AVX 512 wird nicht wirklich viel genutzt. ... Und im generellen beruflichen Einsatz (Office) wo wohl der größte Absatz stattfindet benötigt das Feature niemand.
Ja genau, die EP-Xeons (also ab E5) auf den großen teuren Sockeln sind auch ganz exakt genau die CPUs, deren "größter Absatz" bei Office-PCs liegt. So ein Schwachsinn...
AVX512 ist für den Einsatzbereich von EP-Xeons ein durchaus relevantes Feature. Im HPC-Bereich ist das AVX512 auf den Xeon Phi (KNL) schon sehr gern gesehen und performt gut. Dort ist eine anständige Vektorisierung der Programme in den letzten Jahren das A und O für Performancesteigerungen. Dort wird die Software auch ohnehin meist für das System angepasst und auch die fertigen Software-Suites werden recht zügig angepasst. Echte Profis lassen Leistung nämlich nicht gern ungenutzt rumliegen.
Und wer jetzt meint, das wäre ein kleiner Markt, der weiß halt einfach nicht Bescheid. Allein in der Trinity-XC40 stecken fast 19.000 E5-Xeons im Wert von ~65 Mio €. In einem einzelnen System. Auch da wird es wieder ersichtlich. Wer für 65 Mio CPUs für sein System kauft, der sagt zu einer Leistungssteigerung von bis zu Faktor 2 durch doppelte Vektorlänge nicht einfach "Nö". Da ist es ein Nachteil, wenn man es nicht hat.
 
anexX schrieb:
Ohne Redaktions- und Endkundentests von Serien-Ryzen`s gibts von mir eh keine Kohle - Hype ist ja ne schöne Sache, aber nur wenn durch stichhaltige Fakten belegt ist das der Artikel es auch Wert ist gehyped zu werden - Spekulationen und fragwürdige Hinterhof-Benches aus China sind leider nicht überzeugend. Und ja, da geb ich dir völlig Recht, wenn einen Firma 3 Wochen vor Produktrelease quasi 0 Performanceinfos rausgibt dann kommt da automatisch ein ungutes Gefühl auf.

Wann gab es denn Wochen vor Release unabhängige Tests? Mir scheint es eher so zu sein, dass vor Release viel mehr berichtet wird als früher und viele Leute neue Produkte wochenlang erwarten wie das Konzert eines Popstars. Es ist nur eine CPU, abwarten. Die Performance lag in Demos auf Intel Niveau, der Preis kommt ohnehin erst zum Erscheinen.
 
Haben nur 12 statt 13 Metallschichten nicht auch einen Nachteil? Ich meine mal gelesen zu haben, das Skylake nur deswegen höhere Spannungen als Haswell verträgt, weil eben mehr Metallschichten vorhanden sind, trotz kleiner Fertigung.

Könnte das bedeuten, das Ryzen weniger Spannung aushält oder bei höherer Spannung leichter "degradiert"? Wenn man die "sichere" Spannung bei den skylakes von max. 1,4V ausgeht, dürfte man Ryzen kaum über 1,35V betreiben.
 
Beim Verkaufspreis vermutlich nicht, beim Herstellungspreis ist das nicht nur möglich, sondern sogar wahrscheinlich.
der 8-Kern Ryzen wurde von AMD als Spitzenprodukt mit Sortierung im Enthusiasten-Bereich angekündigt. Ein Ladenpreis von unter 800 € halte ich für unwahrscheinlich. Vor allem wenn man bedenkt, dass man für den Ultraflop FX 9590 schon 800 US$ haben wollte, dann wird das Topmodell Ryzen vermutlich noch deutlich teurer.

Letztendlich wird aber die Leistung entscheiden. Bietet der 8-Kern Ryzen ein ähnlich gutes Paket wie der 8-Kern Intel, wird er auch so viel kosten. Evtl. nen fuffi weniger um Marktanteile zu bekommen.

Vor allem wird es Zeit das mal belastbare Tests auf den Markt kommen, die Salamitaktik von AMD :kotz: mich an.
 
D708 schrieb:
Vielleicht haben die Intel die GCN Architektur lizenziert. Da Vega kommt, könnte das garnicht so dumm sein. Vorallem die Einnahmen könnte AMD gut brauchen und solange der Balken bei AMD APUs länger bleibt als bei intels APUs ist alles tuti für AMD. Raven wird wohl noch mit Polaris kommen aber danach tippe ich mal auf VEGA.

Ich stimme da Volker zu und denke auch, dass das die falsche Politik AMDs im Hinblick auf Raven Ridge und Nachfolger wäre und an künstlich beschnittenen Versionen hätte Intel mitunter auch nur begrenztes Interesse.

Außerdem hätten Sie das evt. schon haben können, als sie noch nVidia-Technik lizensiert haben oder sie hätten sich einfach Matrox - sofern die noch hilfreiches Know-How hätten, da die GPUs dort ja auch schon eine Weile von AMD stammen und keine Eigenentwicklungen mehr sind - einverleiben können.

Was ich mir allerdings vorstellen könnte, wäre eine Lizensierung für den HPC Bereich, um nVidia - nicht nur durch CPU Power aber auch durch Grafikpower - im INT Bereich den Schneid abzukaufen (indem neben prozessorbasierter Leistung mehr grafikbasierte Leistung hinzukommt, etwa durch Verknüpfung mit Radeon Instinct MI25 GPUs), denn im A.I./IoT Markt wird man zukünftig weitaus mehr Geld holen können.

Zudem hielte ich es für wahrscheinlich, da AMD sonst - mangels Geld - mit Intel und nVidia bei der Entwicklung schwer wird mithalten können und da würde es schon Sinn machen mit Intel zu kooperieren, um für den A.I./IoT Markt relevant/im Boot zu bleiben (um vielleicht etwas später dort voll einzusteigen) und gut mit zu verdienen.

Gespannt bin ich auf die Intel-Produkte mit AMD Know-How schon, aber mehr als Rätselraten ist das - was man bisher liest - ja sowieso nicht.
 
Zuletzt bearbeitet:
Hey Volker ist auffällig aktiv hier. ........... .......................... ............................... ;)
 
Nochmal die Frage, vielleicht auch direkt an Volker:

Wie kommt ihr darauf jetzt in einem Nebensatz von zwei 8-Kern Modellen und einem 4-Kern Modell zu sprechen, wo doch das Lineup nicht bekannt gegeben ist?
 
Chismon schrieb:
Was ich mir allerdings vorstellen könnte, wäre eine Lizensierung für den HPC Bereich, um nVidia - nicht nur durch CPU Power aber auch durch Grafikpower
Das macht doch gar keinen Sinn. Intel deckt den Markt für Beschleuniger im HPC-Segment doch bereits mit Xeon Phi ab. Die liefen mWn dort zuletzt besser als nVidias GPUs. Außerdem wird Intel so einen wichtiges Marktsegment bestimmt nicht mit lizensierter IP abdecken wollen. Bei den Consumer-APUs ist es im Prinzip nicht viel mehr als ein Checklisten-Feature, im HPC-Bereich wäre es der Kern-Bestandteil.

Chismon schrieb:
Gespannt bin ich auf die Intel-Produkte mit AMD Know-How schon, aber mehr als Rätselraten ist das - was man bisher liest - ja sowieso nicht.
Interessant wäre es auf jeden Fall und ich denke beide Seiten würden davon profitieren. Für sehr wahrscheinlich halte ich es trotzdem nicht, denn ob Intel sich bei einem der beiden Kern-Komponenten seiner APUs auf einen Konkurrenten verlassen will oder ob AMD bereit ist einen seiner wenigen Vorteile bei den APUs aufzugeben ist zumindest fraglich.

zandermax schrieb:
Wie kommt ihr darauf jetzt in einem Nebensatz von zwei 8-Kern Modellen und einem 4-Kern Modell zu sprechen, wo doch das Lineup nicht bekannt gegeben ist?
Es geht nicht um Produkte, sondern um Designs. Das hat nichts mit den verschiedenen Modelle zu tun, die demnächst erscheinen sollen. Man hat anscheinend zwei verschiedene Designs entworfen und wird nun ausschließlich das bessere der beiden herausbringen. Die vier Kerne beziehen sich hingegen überhaupt nicht auf ein ganzes Die, sondern nur auf ein CPU-Complex (CCX), also Kerne + Cache, aber ohne I/O und Speichercontroller.
 
Zuletzt bearbeitet:
Ohne Angaben, was diese beiden Kriterien betrifft, ist ein Vegleich der Packungsdichte sinnlos.

Sehe ich ähnlich. Ein Cache hat noch viel mehr Eigenschaften als die Größe (Bandbreite, Latenz, Assoziativität, Cohärenz, Replacement, Prefetching, I/O-Verhalten). Dementsprechend halte ich es für nicht angebracht die Qualität des Caches alleine auf die größe zu reduzieren.
 
Der Flächenvorteil ist ja ebenso bei den GPUs vorhanden, mit dem Resultat das sich NV-Karten leichter kühlen lassen.
Man wird sehen.
 
Was ist für den Anwender da jetzt am Ende der Vorteil?

Mich, potentieller Käufer einer neuen CPU (spätestens im Mai ist ein neuer Rechner fällig), interessiert lediglich, was das Ding an Leistung auf die Straße bringt.
Bei mir persönlich speziell im Gaming Bereich.
 
Zurück
Oben