News AMD: 32-Kern-Threadripper mit 250 Watt TDP ab 13. August

Whiskey Lake schrieb:
Angenommen ein Spiel würde perfekt auf 32 Kerne skalieren, was erwartest du dir davon?

Was soll ein Spiel überhaupt mit so viel CPU-Leistung anstellen?

Ich wüsste da schon einige Möglichkeiten im Bezug auf KI in Open-World-Spielen. Sowas wie X3 mit guter KI in sämtlichen Sektoren zum Beispiel, wo nicht ständig die KI mit Stationen und Asteroiden kolidiert. Auch RPGs mit Map-Weiter KI-Kontrolle könnte interessant werden.
Da dürfte schon einiges gehen, vermute ich. Problem: Spiele werden nicht für eine Nische entwickelt und selbst eine Skalierung soweit nach oben wird den Kosten/Nutzen-Faktor sprengen. Es sind ja nicht einmal 6 Kerne Standard, sodass Spiele mindestens auf 4 Kernen laufen müssen, ohne Einschränkungen im Spielgeschehen aufzuweisen.

BTT:
32-Kerne im Desktop sind schon verdammt krass. Und das noch zu solch einem Preis. Vor 1,5 Jahren gab es da gerade mal einen 10-Kern-Broadwell-E für auch noch mehr Geld. Zwar absolute Nische aber trotzdem Interessant. Die doch recht schnelle Entwicklung auf mehr Kerne im Desktop lässt in vielen Bereichen sicher die Software hinterherhängen, geht ja nicht mal eben von jetzt auf gleich. Alles lässt sich natürlich nicht Parallelisieren, aber in einigen Bereichen ist bestimmt noch was rauszuholen. Auch oder gerade in Spielen ist bestimmt noch Luft nach oben bei Multicore, aber gerade bei denen wird das am Langsamsten laufen, da Spiele für den Mainstream entwickelt werden, und da sind wir, wie oben schon gesagt, noch nicht mal bei 6 Kernen als Standard angekommen.

Die Luft wird dünner bei CPUs, Shrinks werden immer aufwändiger bis irgendwann nicht mehr möglich, Takt geht mit Silizium auch nicht mehr viel und ob sich die IPC immer weiter erhöhen lässt, ist auch fraglich. Eine CPU hat ja schon einen Haufen "Extras" um diverse Tätigkeiten zu beschleunigen, sodass sie langsam überfrachten. Der größte Lichtblick bisher ist der Weg über mehr Kerne, daher muss auch Arbeit in die Parallelisierung gesteckt werden, um künftig auch immer mehr Performance zu ermöglichen.

Der Haben-Wollen-Faktor ließ mich auch schon auf 12- und 16-Kern-TR schielen, aber im Usecase bin ich da weit von entfernt. Bekomme ja kaum die 8-Kerne meines 1700 ausgelastet. Also hat die Vernunft doch noch gesiegt, zumindest bis Zen2 auf AM4 kommt, dann werden wir sehen, was es dann gibt. Die Unvernunft lenke ich erst einmal Richtung Festspeicher. 2TB SSD plus noch eine extra NVMe (auch wenn es nicht viel bringt, Vernunft und Hobby gehen selten Hand in Hand)
 
Langsam wirds pervers :evillol:
 
Martinfrost2003 schrieb:
Könnte so eine CPU, angenommen es würde irgendwann Spiele geben, die so viele Kerne unterstützen Rechenaufgaben der Grafikkarte mit überrnehmen wenn diese voll ausgelastet ist?
Nicht wirklich, der Speicherdurchsatz eine CPU ist selbst mit Quadchannel viel zu gering.

Simanova schrieb:
AMD bleibt seiner Linie treu vorrangig Heizelemente zu entwickeln und zu produzieren.
Wolltest du nur etwas dummes posten?
 
  • Gefällt mir
Reaktionen: darkcrawler
ich würde seine expertenmeinung was heiße luft anbelangt nicht außer acht lassen :D
NurDownloadWill schrieb:
Speilzeug - was soll man damit?
arbeiten?
 
  • Gefällt mir
Reaktionen: Herr Melone, Hotstepper, rg88 und eine weitere Person
Geiles Silizium, wobei für mich schon 10 oder 12 Kerne ein absoluter Overkill wären. Dennoch würde ich AMD einen 12 Kerner für AM4 abnehmen, falls dort mit Ryzen 2 mehr Kerne kommen sollten. Einfach, weil ich es will. :)
 
  • Gefällt mir
Reaktionen: rg88
Hardware_Hoshi schrieb:
Ich mache mir weniger um den Verbrauch Sorgen, sondern wie man diese 250W vernünftig kühlt. Für eine CPU ist das deutlich zu viel! Unanbhängig von der Leistung.
Das geht schon.
Die Leistungsaufnahme verteilt sich über 4 Dice -> kein einzelner Hotspot, sondern 4 kleinere heiße Stellen
Die Dice sind verlötet -> guter Abführung an den Heatspreader
Der Sockel ist riesig -> Großer Heatspreader der die Wärme auf einer großen Fläche verteilt, was eine schnelle Abgabe der Temperatur an den Kühlkörper ermöglicht

Eine Wasserkühlung wäre hier natürlich nicht die dümmste Idee, ich denke aber, dass es auch gute Luftkühler geben wird. Die 180 Watt bisher werden ja auch sehr gut mit Luft weggebracht. Wenn man mal schaut, was Grafikkarten durchblasen können und wenn man bedenkt, dass diese nur einen Die haben der die komplette Abwärme erzeugt, bin ich da mal sehr optimistisch.

proud2b schrieb:
Eben nicht.
Willst du in 4K Streamen mit halbwegs guter Qualität, bringst du einen 16-Kern 1950X komplett an die Kotzgrenze.
Es gibt Marktforschungen, und die Wissen sehr wohl, was gebraucht wird.
Auf gut Glück wird kein Hersteller Produkte auf die Konsumgesellschaft loslassen.
Das Produkt gibts eigentlich nur, weil es quasi keine Mehrkosten bei der Entwicklung bedurfte.
Was beim ersten TR schon vermutet wurde, wird hier endgültig bestätigt: Es ist schlicht ein EPYC-MCM mit identischem Sockel. Bei der ersten Version noch auf 2 Dice kastriert, dieses Mal alle freigeschaltet. Der Takt ist höher, die Speicherkanäle halbiert. Schon wird ein Desktop-Produkt draus, welches halbwegs bezahlbar bleibt. Für die enorme Leistung eigentlich sogar günstig ist, wenn man vergleicht wie Mehrleistung und Preis abseits des Mainstreams normal auseinanderklaffen.

pmkrefeld schrieb:
Das Jucken war schon lange nicht mehr so stark, gibt es dagegen eine Salbe oder so was?
Geldbeutel öffnen und zuschlagen ;) das einzige Mittel dagegen
Overprime schrieb:
Ich warte noch auf die 7nm Generation, aber dann schaue ich mir diese Monster genauer an. Zwar bin ich nicht sicher wie ich die Kerne ausnutzte, aber es geht einfach um das wollen.
So gehts mir auch. Ich würde die Leistung sogar teilweise nutzen können, zB beim Compileren, aber eigentlich brauchen tu ichs nicht. Aber das "haben will"-Gefühl war das letzte Mal so groß, als der Athlon 64 raus kam.
Ergänzung ()

NurDownloadWill schrieb:
Speilzeug - was soll man damit?
Vielleicht arbeitet dann die Rechtschreibkorrektur besser? Würde ich dir also dringend zum Kauf raten.
 
  • Gefällt mir
Reaktionen: user2357, s0UL1 und Hill Ridge
Hoffentlich wird es 2019 einen Zen 2 mit 12 Kernen zu einem guten Preis geben, da werde ich mich nicht zurueckhalten. Wir wird's etwas brummig im Magen, wenn ich mir die staendig neuen Spectre etc. Varianten so anschaue, und auf die Leistungsraubenden patches habe ich einfach absolut keinen Bock. Zen 2 soll da ja hardwaremaessig was mitbringen, also ich bin echt gespannt wie ein Flitzbogen.
 
Martinfrost2003 schrieb:
Was mir gerade in meiner naivität einfällt:
Könnte so eine CPU, angenommen es würde irgendwann Spiele geben, die so viele Kerne unterstützen Rechenaufgaben der Grafikkarte mit überrnehmen wenn diese voll ausgelastet ist?
Ich weis, ist weit hergeholt, aber das schoss mir gerade durch den Kopf...
Grundsätzlich ja. Aber ob das sinnvoll ist, steht auf einem anderen Blatt. Mit dieser Idee ist Intel auch schon katastrophal gegen die Wand gelaufen. (Stichwort Larrabee)
Für sowas spezielles wie Grafikberechnung eignen sich eben grundsätzlich spezialisierte Prozessoren besser.
Klar kann einen (x86-)CPU auch Grafik berechnen, aber ist dabei eben denkbar ineffizient. Zudem müssten ihr erst mal alles wichtigen Eigenschaften als Instruktions beigebracht werden. Ansonsten läuft ja alles nur emuliert und entsprechend langsam.
Aber kleiner Tipp am Rande: Es gibt eigentlich schon CPUs die Grafik sehr effizient berechnen können, diese haben eben einen eigenen Grafikkern, sprich: Es ist eine APU. Das bietet sowohl AMD als auch Intel an, wenn auch in unterschiedlichen Leistungsstufen.
Ergänzung ()

@hans_meiser: Die Spectre-Fixes bei AMD haben quasi keine Leistung gekostet bisher.
Ergänzung ()

Steini1990 schrieb:
Das neue Gigabyte Board scheint ja eine wirklich große Backplate zu haben. So etwas kenne ich ansonsten nur von Grafikkarten. Damit sollte das Board die Bauteile doch etwas besser kühlen können.
Eine Backplate ist nicht zur Kühlung da. Die sorgt schlicht für Stabilität, damit man auch schwere Kühler dran befestigen kann, ohne dass Schäden auftreten durch das druchbiegen des PCBs.
Sehr sinnvoll, wenn man 250 Watt per Luftkühlung wegschaufeln will und dabei noch eine angenehme Lautstärke einhalten will
 
  • Gefällt mir
Reaktionen: Hill Ridge
rg88 schrieb:
Backplate ist nicht zur Kühlung da
Mag sein das es nicht der primäre Nutzen ist. Aber z.B.: bei einer Gigabyte Vega 56 wird die Backplate auch zur Kühlung genutzt. Gigabyte hat da an der Unterseite der Backplate ein Verbindungsstück eingesetzt das Wärme an die Backplate abgibt. Damit kühlen sie die Rückseite des Chips.
 

Anhänge

  • 20180711_201541.jpg
    20180711_201541.jpg
    624,6 KB · Aufrufe: 468
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Shoryuken94 schrieb:
@das_mav Eine Dual Socket Lösung wird nicht kommen, da das einer der wenigen Vorteile von Epyc ist. Dann würde man kaum noch Epycs verkaufen.
Och, das ist nicht gesagt.
Im Grund unterscheiden sich die Epyc und die TR vorallem mal durch die Zielgruppe.
Server werden ganz anderes validiert und getestet als eine Workstation. Ein Server läuft einige Jahre durch und muss das in jedem Fall abkönnen ohne Instabilitäten. Deshalb sind auch die Taktraten von Epyc niedriger.

So als Workstation-CPUs kann ich mir schon vorstellen, dass es noch ein Dual-Socket-Mainboard geben könnte. Technisch steht ja nichts im Weg.
Wobei man ehrlich sein muss und fragen, welcher Anwendungszweck das nun wäre.
Zen2 steht ja bereits in den Startlöchern. Und wenn da wirklich von 4 auf 6 Kernen pro CCX gegangen wird, dann macht das eine Dual-Socketlösung nur noch sinnloser. Immerhin wäre man dann schon bei 48 Kernen, wenn die Bauart ansonsten gleich bleibt, pro CPU bzw. MCM.
Ergänzung ()

@Steini: Die Einbauart ist auch eine andere. Unter einer GPU-Backplate staut sich die Hitze auch, bei einem Mainboard steigts einfach nach oben durch den Kamineffekt.
Es ist schon hauptsächlich eine Sache der Stabilität. Schau dir mal große Karten mit 2-3 Lüftern und großem 3 Slot-Kühlkörper an. Die Dinger biegen sich durch, dass man kein gutes Gefühl hat, wenn man die da drin hängen sieht. Der dauerhaften Haltbarkeit tut das sicherlich unbedingt gut.
 
@rg88
Ich glaube nicht, dass für TR dual Socket Mainboards erscheinen werden.
Selbst bei den EPYC Prozessoren gibt es von jedem Prozessor eine P Version und eine non P Version von jedem Prozessor, wobei die P Version kein Dual Socket unterstützt, dafür aber deutlich günstiger ist.
 
CS74ES schrieb:
Es müsst eine Technologie geben, die aus 2 Kernen 1 Kern macht, also 2 Kerne mit 3 GHz = 1 Kern mit sozusagen 6 GHz, das wäre zumindest für Gamer schön, aber wenn das ginge, gäbe es das sicher schon.

Was du meinst ist sowas.
1531333687739.png

https://www.hardwareluxx.de/index.p...e-thread-performance-deutlich-verbessern.html
https://www.heise.de/newsticker/meldung/VISC-Ein-virtueller-Single-Core-Prozessor-2435023.html

Intel hat kurz danach Soft Machines gekauft, ein konkretes Produkt ist daraus aber bisher nicht entstanden.
 
Zuletzt bearbeitet:
Ebrithil schrieb:
@rg88
Ich glaube nicht, dass für TR dual Socket Mainboards erscheinen werden.
Selbst bei den EPYC Prozessoren gibt es von jedem Prozessor eine P Version und eine non P Version von jedem Prozessor, wobei die P Version kein Dual Socket unterstützt, dafür aber deutlich günstiger ist.
ich glaub auch nicht so ganz dran, aber möglich wärs.
Die Einschränkung der Epyc-CPUs bzgl Dual-Socket ist aber keine technische, sondern eine Produktentscheidung zur Vermarktung. Technisch gibts keinen Grund, warum nur bestimmte DS-fähig sein sollten.
Wer natürlich mehr Leistung auf kleinerer Fläche will, der muss eben zusätzlich löhnen. Macht Intel ja auch nicht anders. Im HPC/Server-Bereich liegt das meiste Geld, bzw. die größten Margen. Wäre blöd, wenn man da nicht zulangen würde, wo das Geld am lockersten sitzt. Die Desktop-Modelle, egal ob Ryzen oder TR sind im Grund nur "Abfall"-Produkte (nicht im negativen Sinn, sondern von der Entstehungshierarchie her) der Server-Chips. Die Planung war ein Server-MCM-Socket. Daraus leitet man eben die anderen Produkte darunter ab.
 
  • Gefällt mir
Reaktionen: s0UL1
rg88 schrieb:
ich glaub auch nicht so ganz dran, aber möglich wärs.
Die Einschränkung der Epyc-CPUs bzgl Dual-Socket ist aber keine technische, sondern eine Produktentscheidung zur Vermarktung. Technisch gibts keinen Grund, warum nur bestimmte DS-fähig sein sollten.
Wer natürlich mehr Leistung auf kleinerer Fläche will, der muss eben zusätzlich löhnen. Macht Intel ja auch nicht anders. Im HPC/Server-Bereich liegt das meiste Geld, bzw. die größten Margen. Wäre blöd, wenn man da nicht zulangen würde, wo das Geld am lockersten sitzt. Die Desktop-Modelle, egal ob Ryzen oder TR sind im Grund nur "Abfall"-Produkte (nicht im negativen Sinn, sondern von der Entstehungshierarchie her) der Server-Chips. Die Planung war ein Server-MCM-Socket. Daraus leitet man eben die anderen Produkte darunter ab.
Natürlich ist das aus Vermarktungsgründen, aber genau deswegen würde es halt überhaupt keinen Sinn ergeben, EPYC Prozessoren einzuschränken aber TR nicht. Dann hätten die EPYCs genau keinen Vorteil mehr ggü. einfachen TR Prozessoren (abgesehen von nicht existenten Workstation Mainboards ohne RGB GAMING 1337 BLING BLING bullshit für TR4).
 
Es würde halt insofern Sinn machen, weil bisher auch keine Workstations am Markt sind mit Epyc. Da ist wohl der Hauptgrund der niedrige Takt, welcher durch doppelte (oder gar 4fache) Kernzahl nicht wirklich ausgeglichen werden kann. Und die Workload einer Workstation ist halt nunmal komplett anders als bei einem typischen Server.
Man würde sich da also nicht wirklich selbst kanibalisieren, wenn man sowas anbieten würde. Die Frage ist, ob es den Aufwand wert ist, für so eine Nische Ressourcen zu verschwenden. TR ist ja auch nur existent weil man sogut wie alles was für Epyc entwickelt wurde da wiederverwendet. Und im Bereich 1000-1500Euro findetn man garantiert noch eher Käufer, als, wenn man gleich bei 3000Euro allein für die 2 CPUs ist, welche man für ein DS-System braucht.
(ist übrigens auch recht interessant, wenn man sie die TR-Geschichte mal durchliest. Das Produkt war eigentlich nie geplant, wurde aber nebenbei von ein paar Entwicklern "zum Spass" abgeleitet und war durch quasi keine Entwicklungskosten einen Versuch wert.)
 
Heftig Geiler Preis!!!! muss man einfach sagen .. und das sag ich sogar als Intel Fanboy ... überlege echt vllt Theardripper mal eine Chance zu geben ... 32 vs 28 Kerne ist schon Ansage ... und dann nur 1500€ Oo Da würde sich mein OBS echt freuen mit 32 Kernen für meine Dual Streaming Geschichte. Aber mal sehen wie der Intel 28 Kern kostet etc.
 
Krautmaster schrieb:
Erstaunlich dass man bis 280W über alle Boards schon quasi garantieren kann. Ggf hat AMD auch schon vor TR1 den Sockel und die Vorgaben entsprechend gesetzt.

Wann begreift Ihr es endlich. AMD ist nicht Intel. AMDs Plattform Strategie war schon immer, längst mögliche Kompatibilität und Plattformstabilität zu garantieren. Das ist schön, aber als erstaunlich kann das nur jemand empfinden der sich noch nie mit AMDs Plattformstrategien beschäftigt hat.
 
  • Gefällt mir
Reaktionen: darkcrawler
JBG schrieb:
Bei Standard-Taktraten wird es durch die selektierten 2700X-Dies keine Probleme geben - wobei diese problemlos 4,1+ GHz auf allen Kernen mitmachen sollten, was allerdings die meisten aktuellen X399-Mainboards VRM-seitig überfordern würde:

wieso sollten da selektierte Die zum Einsatz kommen? Rein von den Daten her (~3 Ghz All Core Clock, 4,2 Ghz XFR Boost) ist eher das Gegenteil der Fall. Diese machen eben keine 4,35Ghz XFR (die bei 250W ja locker drin sein sollten) und 250W All Core brauchen rein über die TDP selbst 4x Ryzen 1700 3,0 Ghz..

Ich sehe hier keinen Grund zur Selektion. Das ist oft wirtschaftlich auch Unsinn, die CPU aka 2990X ist auch mit "unselektierten" bzw durchschnittlichen Zeppelin Die mittlerweile gut realisierbar - und ausreichend um Intel eins auszuwischen.

Ich gehe auch eher von einem Boost / All Core von 3,2 Ghz auf wenn man kurzzeitig 280W ziehen darf oder auch mal vom 65W Ryzen 2700 ausgeht der bei nem Viertel der Kerne und TDP immerhin 3,2 Ghz Base hat.

XTR³M³ schrieb:
X399 gibt es aber keine mittelklasse, das ist premium segment, entsprechend wird man da auch eher keine probleme haben, essei der boardpartner hat da voll verkackt beim design, wovon ich in der preisklasse aber weniger ausgehe, das passiert dann schon eher in der mittelklasse ;)

Klar, ich mein jetzt auch den Umstand dass man als AMD aber nicht pauschal von ausgehen kann dass ein X399 Board 280W abkann. Außer eben sie haben das schon damals so in den Spec festgesetzt und Boardpartner mussten das umsetzen. Da kann man nicht übern Daumen sagen "Joa, alles coole HEDT Boards um 400€, die müssten mit 280W klarkommen" ;)

Dass das jedes Board schaffen sollte - davon geh ich aus. Aber nur weil jedes X299 Board da ggf auch 300W ab kann wird Intel kaum mal eben die TDP von 165W auf 250W anheben können. Da reicht eben ein "low End" HEDT Board.

Die Auswahl bei X399 is überschaubar und bei dem großen Sockel und VRM Layout kann man von ausgehen dass AMD schon zu TR 1 die OEMS mit Specs versorgt hat die 300W garantieren müssen - was gut und eben weiter gedacht ist als nur für den 16C ne Spec abzustecken.
Ergänzung ()

Hotstepper schrieb:
Wann begreift Ihr es endlich. AMD ist nicht Intel. AMDs Plattform Strategie war schon immer, längst mögliche Kompatibilität und Plattformstabilität zu garantieren. Das ist schön, aber als erstaunlich kann das nur jemand empfinden der sich noch nie mit AMDs Plattformstrategien beschäftigt hat.

Da machst du dir es zu einfach. Ganz gleich wie langlebig Intel S2066 geplant hatte kann man kaum erwarten dass Intel den halb so großen Sockel auf selbe TDP auslegt wie AMD.
Intel hätte sicher von Anfang an hier mit Sockel 3647 planen können, aber ich denke man hatte TR einfach 0 auf dem Radar und ein so großer Sockel macht selbst in HEDT auch nicht viel Sinn. Daran sind ja auch 6x Channel SI gekoppelt usw..

Intel hat mit Sicherheit nicht 2066 dem LGA 3647 vorgezogen damit man wieder früher neue Boards rausdrücken kann. Davon hat Intel ja auch nicht viel, eher die OEMs. Das war lange vor TR auf S2066 geplant und ich denke die Plattform besteht auch noch ein ganzes Weilchen.

Umso spannender wie Intel mit dem 32C nun umgehen kann. Ich trau Intels verplanter Garagenpolitik wirklich zu dass sie neben 2066 wirklich noch ne HEDT + Plattform mit LGA 3647 bringen. Das wäre irgendwie Fail - aber mal eben XCC Silizium mit bis 28C auf den S2066 zu klatschen ist auch keine schöne Lösung ^^

Ergänzung:

Gerüchte sprechen ja von einem bis zu 22 C CPU auf LGA 2066 im Herbst
https://www.computerbase.de/2018-06/intel-cpu-8-kern-coffee-lake/

Auch das bedeutet wie damals schon angemerkt dass Intel das große Silizium auf ne S2066 CPU pressen muss. Das gibts glaub nicht mal im Xeon Segment.
Auf welchem Board laufen diese 22C dann, das ist die Frage. Macht man ein X299 Nachfolger (baugleich) und nennt das ganze x499 oder so? Einfach nur damit man im Zugge dessen die auf X299 verpasste höhere TDP zu spezifizieren und das Power Layout zu fordern dass man braucht um konkurrenzfähig zu bleiben? Oder bleibt man zu X299 kompatibel und lässt die TDP bei ~165W max? Ggf kann man noch ne 180W-200W Zertifizierung von den OEM nachfordern, oder im blödesten Fall muss man den OEM die Wahl lassen welches X299 Board sie dann für die neuen CPU freigeben und welches nicht. Sowas gabs aber meine ich noch nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: libranskeptic
Zurück
Oben