Bericht AMD Epyc: Comeback mit zwölf CPUs mit bis zu 32 Kernen

immortuos schrieb:
AMD teilt 2017 an allen Fronten aus, mal schauen ob Vega auch sowas schafft wie Ryzen, nämlich den Markt komplett aufzumischen.

das stimmt und den Benefit merken die Kunden jetzt schon. Intel muss gerade auch bei den Quads sicher früher oder später preislich reagieren, Threadripper wird dem Skylake SP Beine machen. Vega ist für mich das AMD Highlight dieses Jahr und ein wichtigerer Launch da Threadripper + Skylake deutlich weniger Kundenrelevanz haben dürfte (ein Gamer investiert da lieber in Ryzen 6/8 Kern und buttert die Asche in die GPU).

Wenn da AMD so einschlagen kann wie bei Ryzen und ggf auch bei Epyc, alle Achtung. Ich kanns nur begrüßen. Sofern Nvidia zb wirklich eine Volta Titan mit GDDR5X für Q3 plant wäre das eher ein Zeichen für eine starke Vega Karte. 16Gb und > GTX 1080 Ti Leistung und ich lass mir eine raus.
Ergänzung ()

Hejo schrieb:
@Krautmaster - Du bringst oft gute und andere Sichtweisen ein, aber in diesem Thread zum Artikel hast du dich wirklich nicht mit Ruhm bekleckert aber ich denke das weißt du, schwamm drüber passiert war wohl zu spät gestern.

true ;)
 
@Krautmaster
Man Merkt dir Trotzdem die Zuneigung zu Intel in 90% deiner ~16.000 Beiträgen an. ^^


EPYC!!

Meine Hoffnung liegt aber ebenso auf VEGA!
Auch wenn diese Unbezahlbar werden HBM2 sei dank. (und vielleicht auch aufgrund der Miner =/ )
 
Ist ja nicht so, als wäre diese Zuneigung etwas Schlechtes.
Zu Zeiten, wo mein 2500k noch gewerkelt hat, gab es z.B. keine AMD Alternative,
somit war man mehr oder weniger immer eher Intel zugeneigt als Spieler.
Wobei ich über meinen Umstieg bisher sehr glücklich bin :D Fehlt nur noch die passenden Grafikkarte.
 
na dann hoffen wir mal dass der Markt reagiert. Auf Threadripper zu schlussfolgern ist logisch aber falsch - Server sind Server, Workstations, sind Workstations und Enthusiastgaming ein seltenes Hobby. Threadripper wird mehr Takt mitbringen, aber auch nicht viel mehr. Takt ist eben schon AthlonXP-Zeiten nur noch ein schwacher Perfor,amnce-Indokator.
 
Die kommt bald.
Dafür musst du dann aber Blechen! :D
 
dersuperpro1337 schrieb:
Und warum wird die Performance von einem 7601 (32/64) mit einem 22/44 von Intel verglichen wohingegen die Leistung von einem 7551 (32/64) mit 2x 12/24 verglichen wird?
Habe ich da was verpasst oder ist die Rechnung einfach nur Schwachsinn?
Ich hatte dazu einen Gedankengang und musste GH bemühen.
1CPU gibts von Intel mit maximal 8/16 und 3,2/3,8GHz, da ist der Vergleich mit 2CPU 12/24 deutlich fairer.
2CPU gibts von Intel mit maximal 22/44, da liegt man mit 32/64 am nächsten.

Ist aber nur Spekulation denn Server-Technik ist nicht meine Welt, davon versteh' ich nichts ;)


OT bzgl. Krautmaster
Präferenzen hat jeder, aber Krauti schreibt nicht so als wäre das alles absoluter Fakt. Und er geht bei einer Diskusion auf Argumente ein und wirft Diskussionspartnern nicht unreflektiert Arroganz oder Realitätsferne vor.
Da gibt es , weissgott, wesentlich schlimmere Kandidaten ;)
 
Zuletzt bearbeitet:
Super Bericht, danke @CB.

Bin echt gespannt auf die Prozessoren und v.a. auch welcher Takt real anliegen wird bei einer durchschnittlichen und hohen Auslastung.
Die Single Core Leistung ist für uns auch sehr wichtig, von daher wird das spannend. Vor allem da MS immer mehr auf cores und nicht mehr auf Sockel lizenziert ist das durchaus ausschlaggebend beim Kauf.
 
@psycho
Das ist weniger das Problem :D Hätte mir auch eine 1080ti reingehauen, aber aktuell ist mein(!) Empfinden so, dass bei Spielen wie Overwatch, Heroes of the Storm, Rocket League usw. (die aufwendigeren warten auf Vega aktuell ;) ) schon 50-60fps freesync sich besser anfühlen als z.B. 80-90fps ohne.
Ausgehend von einer Performance (alles geraten!) von +- einer 1080ti stock würde ich auf 600€ schätzen. Wenns mehr werden sollte performancetechnisch, wäre mir auch recht, viel weniger sollte es allerdings nicht werden. Naja, mal schauen was Ende Juli so vorgestellt wird :D
 
Bin ich der Einzige, der die Bezeichnung EPYC im seriösen Server-Bereich als völlig unpassend gewählt ansieht?

Das mag für irgendwelche Bling-Bling-Gamer-Ware noch ok sein, aber doch bitte nicht in diesem Segment..
 
nospherato schrieb:
Das ist weniger das Problem :D Hätte mir auch eine 1080ti reingehauen, aber aktuell ist mein(!) Empfinden so, dass bei Spielen wie Overwatch, Heroes of the Storm, Rocket League usw. (die aufwendigeren warten auf Vega aktuell ;) ) schon 50-60fps freesync sich besser anfühlen als z.B. 80-90fps ohne.
Gänzlich OT, aber ich stimme Dir vollkommen zu. Das ist auch meine Beobachtung wenn ich Low-Budget Systeme incl Monitor baue. Pentium 4560+ RX460/560/550 + Freesync schmeissen zwar weniger, dafür jedoch flüssigere Fps raus als die gleiche Konfig mit GT1030/GTX1050(Ti) ohne Sync.

Vangart schrieb:
Bin ich der Einzige, der die Bezeichnung EPYC im seriösen Server-Bereich als völlig unpassend gewählt ansieht?

Das mag für irgendwelche Bling-Bling-Gamer-Ware noch ok sein, aber doch bitte nicht in diesem Segment..
XEON ist da deutlich seriöser, wie? ;)
Aber wenn das einziger Kritkpunkt ist..
 
Marcel55 schrieb:
Sehe ich das richtig, dass man auf den Boards mit 2 Sockeln 2 32-Kerner draufpacken kann und so insgesamt 64/128 auf einem Board hat?

Was in der News nicht steht, aber AMD auch zu FAD erwähnt hat. Fabric Bus funktioniert zu

1) CCX zu CCX
2) DIE zu DIE
3) Socket zu Socket

Hier bei ist aber Socket zu Socket "glaube ich" nicht nur Epyc zu Epyc gemeint, sondern durch HSA auch von Epyc zu VEGA GPUs.

Für mich ist der Fabric, der die komplette Stratige AMD's beschreibt, nämlich HSA. Der Klebstoff der alles verbindet.

AMD-EPYC-ZEN-3.jpg


Ich kann nicht viel zu Intel "Mesh" Ansatz sagen, doch dieser ist doch dann mehr DIE Intern und dann die anderen Intel spezifische Protokolle/Bus-Systeme

AMD will einen flexiblen Bus, der mit allen IP (auch 3rd Party, da wurde auch von FPGA oder andere Co-Prozessor gesprochen) kompatibel sein.
Interessant, mit welcher Geschwindigkeit Socket to Socket Fabric arbeitet. Aber ich glaube, dass sind die einmal genannten Geschwindigkeitswerte, die AMD mal beiläufig erwähnt hatte (gegen 100GB/s war glaub ich die obere Schranke)
 
Vangart schrieb:
Bin ich der Einzige, der die Bezeichnung EPYC im seriösen Server-Bereich als völlig unpassend gewählt ansieht?

"ULTIMATE INTEL PRICE KILLER" wäre meiner Meinung nach auch passender, aber leider zu lang! ;)

Im "seriösen" Server-Bereich interessiert sich kein Mensch für eine dumme Bezeichnung, da wird aufs Geld geguckt, Preis / Leistung müssen passen. In den Unternehmen gehts nicht um 2 oder 3 Server, sondern hunderte oder tausende.
 
Hito360 schrieb:
na Threadripper wird mehr Takt mitbringen, aber auch nicht viel mehr.

Threadripper ist einfach eine andere Baustelle. Zwar nützt AMD den MCM Chip, aber wären diese MCM Chips "theoretisch" als 1 DIE betrachtet, wäre Threadripper ein kleinerer Chip als Epyc, einfach, weil Threadripper am Interposer nur zwei Dies haben wird.
Deshalb sind die mit dem EPIC Prozessor nicht kompatibel und deshalb kann man bei der 8 Core Epyc Variante auch die volle Bandbreite SI und I/O haben.

Weniger L3Cache (der vermutlich auch für Fabric gebraucht wird, siehe R5 1300 vs R5 1500x Taktnormiert auf 4Ghz unter Games und Anwendungen), nur Quadchannel, weniger Lanes.
Als Plattform bekommt man quasi weniger, aber auch nicht mehr, als man braucht und das TDP Budget des Prozessor geht mehr für die Takrate drauf, wie du schon sagtest. Gleichzeitig sind die Idle Werte bestimmt geringer und Verbrauch, bei mittlere Last vermutlich geringer.

@Krautmaster

Was mich doch wundert, dass dich das Thema Fabric Bus zwischen CCX und Socket gar nicht interessiert. Es war durchaus ein Thema im letzten Thread und es wurde angenommen, dass die Latenzen im Vergleich zu CCX zu CCX noch mal langsamer ist.
Immerhin wurde jetzt ein erster Wert in der News genannt, die 40 GB/s.
Ich finde es spannend, ob die Latenzen gleich, schlechter oder weil eben von RAM unabhängig (???) vllt sogar schneller sind, als CCX zu CCX :p
Auch interessant, wie es AMD bei Starship weiterführen wird, speziell weil dann auch die Core Count-Anzahl steigt.

Die Abhängigkeit des Fabric zu RAM hat man vllt soweit eingeführt, um den Verbrauch vllt so gering wie möglich zu halten und eben mit gewissen Performance Einbussen im Kauf zunehmen (wieso soll der Fabric CCX bsp auch so schnell arbeiten, wenn man langsame RAM verwendet ?). Vllt spielt es bei der 14+nm oder 7nm Gen gar keine Rolle mehr und kann RAM unhabghängig sein, wie bei DIE zu DIE oder Socket zu Socket ? Man darf gespannt sein.
 
Zuletzt bearbeitet:
Vangart schrieb:
Bin ich der Einzige, der die Bezeichnung EPYC im seriösen Server-Bereich als völlig unpassend gewählt ansieht?

Das mag für irgendwelche Bling-Bling-Gamer-Ware noch ok sein, aber doch bitte nicht in diesem Segment..

Ich sehe eher das Problem von Verwechslung. Eine Spielefirma, ein Plattenlabel usw.
Ist nur ein Buchstaben unterschied und es spricht sich gleich.

PS: Intel hat mit seinem Namen Xeon denn Vorteil, das er bekannt ist und nicht gewechselt werden musste.
Beim Namen Opteron kommen wohl zu viele schlechte Erinnerungen hoch.
 
Zuletzt bearbeitet:
-Ps-Y-cO- schrieb:
@Krautmaster
Man Merkt dir Trotzdem die Zuneigung zu Intel in 90% deiner ~16.000 Beiträgen an. ^^

ich denke rg88 hat gut zusammengefasst woran das liegen mag.

1. geh ich wohl oft meist recht schnell eher kritisch in frühen Posts zu News ein
2. weiß ich selber dass ich meist relativierend auf Dinge ein die vielen schlecht aufstoßen. Zb den AVX Verbrauch + Temp beim i9 7900X - die billige TIm unter dem IHS...

Zu 1. muss und kann man sich eben streiten, was ich mir ankreiden muss ich dass ich die News nicht im Detail gelesen hatte als ich mich über den überraschend niedrigen Turbo ausgelassen hab. Zur Aussage dass ich den Turbo aber recht niedrig finde steh ich absolut. Aber dass muss man auch ohne blauen Stempel sagen dürfen

2. nehmen wir den i9 7900X zb, auf den ~95% der Beiträge verbal eintreten, so muss ich mir schon etwas Gedanken machen obs nicht sinnvoll wäre etwas differenzierter an die Sache ranzugehen. Es wird gefühlt 100x der THG Test zitiert der den i9 zerreißt. Gerade auch was Verbrauch bei Torture Last und die eingehenden 100°C angehen.

Ist man dann "Intel Fan" weil man Leute dazu bringen will etwas über den eigene Tellerrand zu blicken? Ich mein... wir haben hier eine CPU die locker schon allein wegen der höheren TDP 50% mehr brauchen darf als zb eine S1151 CPU. Dann vergleicht man Torture im AVX was aber zugleich deutlich schneller läuft.
2017-06-21 10_53_21-Intel Core i9-7900X Cache, IPC & Crytographics.png
As such, Core i9-7900K has an inherent advantage in the y-cruncher benchmark, a single- and multi-threaded program that computes Pi using AVX instructions. We tested with version 0.7.2.9469, which includes Ryzen optimizations.

The -7900X's single-core SHA2-256 test results are nearly twice that of the two previous-generation models due to Intel's targeted AVX2 optimizations for hashing performance. That same advantage carries over to the threaded test. Intel offers AVX-512 support with the Skylake-X processors but doesn't employ all 11 features in the desktop models. Instead, the company targets specific feature sets at different market segments.

Pushing all of the Core i9-7900X’s cores with Prime95 or LuxRender propels power consumption to incredible heights. You do get 48 percent more rendering performance in LuxRender, but at the expense of 58 percent-higher power use. - See more at: http://www.tomshardware.com/reviews/intel-core-i9-7900x-skylake-x,5092-10.html#sthash.6heTI7dL.dpuf

Und woher kommt überhaupt die Erwartungshaltung dass der i9 7900X, der mit 3.3 Ghz Base angegeben ist, unter AVX Vollast zwingend die 4 Ghz Turbo halten muss?
In Analogie zu den Server CPU... in gerade bei AVX wird der Multi meist deutlich gesenkt.

Dann noch die (wie ich finde) interessante Antwort auf Nachfrage
FormatC schrieb:
Krautmaster schrieb:
hat Skylake SP im Bios die Möglichkeit einen AVX Multi zu senken? Irgendwie fand ich darauf nicht wirklich ne Antwort.
Merci
Du kannst den AVX-Multi von 0 (volle Pulle) bis zu -10 Offset-Steps absenken oder auf <auto> stellen (dann kommt die max. eingestellte Verlustleistung zum Tragen). Falls Du das meinst.

Ich denke nur es gehört mehr dazu als sich den explorierenden Torture AVX Verbrauch anzusehen der in Realität vermutlich die wenigsten treffen wird. Und selbst dann bietet die Skylake SP Plattform offensichtlich die Möglichkeit den AVX Multi abzusenken wie es bei Kaby Lake auch der Fall ist.

Das macht den i9 7900X sicher nicht zu einer guten CPU. Der ganze Launch bleibt ein Desaster und was sich Intel bei X299 als Plattform gedacht hat... wunder weiß was. Da läuft massiv was falsch in meinen Augen.

Dennoch kann man ne Karte von Nvidia oder ne CPU von Intel "verteidigen" ohne direkt Fan von was sein zu müssen. Threadripper wie auch Skylake wandern so schnell nicht in mein Rechner, dafür reize ich zu selten so viele Threads aus.

Edit: Ich weiß. OT. sry dafür ;)
Ergänzung ()

pipip schrieb:
@Krautmaster

Was mich doch wundert, dass dich das Thema Fabric Bus zwischen CCX und Socket gar nicht interessiert. Es war durchaus ein Thema im letzten Thread und es wurde angenommen, dass die Latenzen im Vergleich zu CCX zu CCX noch mal langsamer ist.
Immerhin wurde jetzt ein erster Wert in der News genannt, die 40 GB/s.
Ich finde es spannend, ob die Latenzen gleich, schlechter oder weil eben von RAM unabhängig (???) vllt sogar schneller sind, als CCX zu CCX :p

der interessiert mich schon aber ich maße mir nicht an das jetzt groß zu beurteilen. Sind die 40 Gb/s nun schnell? Was is mit Latenzen und wie groß is der Einfluss?

Ich schrieb schon in anderen News zu dem Thema Multi Chip vs 1 Die. Ich denke die Nachteile bezüglich Performance werden bei dem Multi Chip in jetziger Form kaum messbar sein. Deswegen denke ich dass AMD die für sich absolut richtige Strategie verfolgt und das gerade auch in wirtschaftlicher Hinsicht.
 
Zuletzt bearbeitet:
Krautmaster

Kommt bestimmt auf die Perspektive an. AMD will ja auch weiterhin flexibel als custom Design SoC Hersteller arbeiten. In Zukunft wird man da verschiedene "Module" basteln, die dann andere Hersteller je nach Bedarf kombinieren können. Das gibt bsp AMD von der Flexibilität, Herstellung usw extrem Vorteile.

Beispiel, Spielhersteller will Puma Cores, eigen entwickelter FixFunction Chip, Chipsatz und GPU auf einem SoC, will aber nicht alles in 16 nm fertigen. Vllt nur die GPU, den Chipsatz billiger, Puma ist eh so klein und braucht keine hohe Taktrate, 28nm. Somit können Herstellungskosten dann varieren usw.
Auch was das "Testing" angeht, kann man so, jeden Chip auch einzeln testen und dann in Kombination.
 
Zuletzt bearbeitet:
ja es hat auch Vorteile bei Ausbeute und Maskenzahl. Gerade AMD , das fremd-fertigen lässt, wird hier gut mit dieser Strategie fahren. Also geh ich zumindest schwer von aus.

Dazu spielt die verwendete Fertigung auch gut mit. Besser als in Vergangenheit. AMD war oft nicht zuletzt auch wegen der Fertigung nicht ganz auf Intels Fersen. Nun kann man auf eine gute 14nm Fertigung zurückgreifen die gerade beim Bace Clock / Sweet Spot vergleichbar gut geht wie Intels bereits mehrfach optimierte 14nm ++ Fertigung. Ist lang her dass es bei Fertigung diesen Gleichstand gab.

Edit: Man muss sich nur jetzt schon anschauen wie viele Produkte AMD mit der Zeppelin Die bedienen kann. Auch wenn Intel die eigenen Masken vermutlich recht wenig kosten (man kann ja auch bei den Consumer Chip zig Masken raushauen), so brauchen sie schon deutlich mehr.
 
Zuletzt bearbeitet:
Zurück
Oben