News Ryzen Threadripper 2000: AMD kontert Intels 28-Kerner mit 32 Kernen

DaZpoon schrieb:
Ich sprach explizit von Chips, nicht Kernen. Bei den 32 Kernern kommen ja dann 4 aktive Die zum Einsatz, während das beim TR1000 gerade mal (offiziell) 2 waren. Und der Idle Verbrauch war dort nahezu doppelt so hoch wie beim Ryzen. Und wenn der dann an der 100W Idle Marke kratzt, halte ich das doch schon für ziemlich fett. Heizt ja auch (v.a. jetz im Sommer) die Bude auf.
Der höhere Idle-Verbrauch bei HEDT liegt wie schon von anderen beschrieben nicht hauptsächlich an der höheren Anzahl der Kerne, sondern an der ganzen Peripherie: mehr RAM Channel, mehr Lanes, etc.
Wird man ja dann sehen, wenn die ersten Testberichte online gehen.
 
Kann ich bestätigen. Ohne Klima an hab ich Idle eine Temp von ~33°C (60°C ohne Offset) bei ca. 25°C Zimmertemp. Mit Klima liege ich bei 18°C Zimmertemp bei ca. 26°C (53°C ohne Offset).

Der Verbrauch kommt auch nicht alleine von der CPU sondern, wie schon gesagt, von dem drumherum. Das Board und Chipsatz will ja auch versorgt werden. Die Graka will auch etwas Strom haben und die SSDs und HDDs eben auch.

Dazu kommt ~100 Watt Idle ist nicht gerade schlimm da mit dem passenden Netzteil das sogar perfekt für die Effizienz ist.
 
Dark_Knight schrieb:
Ich finde es immer gewagt, wenn "Experten" vorschreiben wollen, was gebraucht wird und was nicht.
Ist doch nichts neues und war doch klar, dass die ganzen intel Fanboys wieder aus ihren Löchern gekrochen kommen. Ist ja nicht so, dass es auch schon lange APUs von AMD gab die für Office auch mehr wie genug ausreichten, nur da waren sie dann plötzlich zu schwach etc. aber jetzt spielt das ja keine Rolle mehr, da reicht es plötzlich aus :freaky:
Wird halt gerne so hingedreht wie man es braucht und ich möchte keine Office arbeiten an einem Dual Core machen müssen, allein wenn die Kiste dann wieder Updates im Hintergrund macht und von der tollen integrierten GPU die gerne mal bei dem ein oder anderen Beamer rumzickt wollen wir gar nicht reden.

Von daher find ich die Entwicklung bei AMD toll und kann es nur begrüßen, dass es hier endlich steil nach vorne geht. Ist nur sehr schade, dass es wenig objektive Systemhäuser gibt, die das dann auch umsetzen. Sieht man ja hier mal wieder deutlich.
 
  • Gefällt mir
Reaktionen: yummycandy, Mcr-King und chrismoto
LOLinger78 schrieb:
Wow, dann würdest du ja durchgängig AMD empfehlen !
Warum habe ich da wohl so meine Zweifel?
Oder sind die Kunden deines Arbeitgebers alles Gamer? LOL
@LOLinger78

Das einzige, was Du mit Deinen Anmerkungen nun bewiesen hast ist, dass Du den Thread nur punktuell verfolgst und die Zusammenhänge aus denen meine Ausführungen stammen deshalb nicht kennst und somit falsche Schlüsse ziehst.

@Bärenmarke
War doch klar, dass ein par Threadfetzen aufgeschnappt werden und dann von den üblichen Verdächtigen versucht wird daraus einen Marken-/Fanboykrieg zu befeuern. Wo es doch Seitenweise inzwischen um das Prinzip Multicore und dessen Grenzen an sich geht. Unabhängig von der Marke.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@Apocalypse
Es gibt ja nicht nur shooter. ;)
Es gibt duchaus Strategiespiele und Wirtschaftssimulationen, wo sich viele Spieler eine KI wünschen, die nicht mehr so berechenbar ist.
Leider sind die KIs dann schnell zu intelligent und man muss etwas finden, dass menschliche Fehler und menschliche Geschwindigkeiten darstellt.

Eine KI, die den Spieler rushed und mit perfektem Micro aller Einheiten einzeln in 100% der Fälle besiegt ist logischerweise frustrierend.

Ich finde es aber auch frustrierend, wenn man feststellt, dass der Gegner KI unendlich Ressourcen gegeben werden und sie nicht nach Möglichkeiten sondern nach gescripteten Bebauungsplänen vorgeht.
Es gar nichts bringt, sie taktisch von Ressourcen abzuschneiden, weil sie diese ja eh nicht braucht/verbraucht.
 
ZeroZerp schrieb:
War doch klar, dass ein par Threadfetzen aufgeschnappt werden und dann von den üblichen Verdächtigen versucht wird daraus einen Marken-/Fanboykrieg zu befeuern.
Ja da hab ich mich gestern in der Tat gefragt, bis die üblichen Verdächtigen wieder auftauchen und versuchen dagegen zuschießen und es hat überraschenderweise ziemlich lange gedauert. Aber hast du ja wieder eindrucksvoll unter Beweis gestellt ;-)
Und ich hab alles gelesen, von daher auch mein Einwand, dass es diese Systeme die jetzt angeblich alle Kunden nachfragen doch schon lange von AMD gab und das sogar mit einem nicht so zickigen Grafikpart, aber da war es ja scheinbar egal. Es muss immer irgend ein Haar in der Suppe von so Leuten wie dir gesucht werden, tut es so weh, wenn der Konkurrent auch mal ein paar gute Produkte released?


ZeroZerp schrieb:
Wo es doch Seitenweise inzwischen um das Prinzip Multicore und dessen Grenzen an sich geht.
Es geht weniger um das Prinzip Multicore und dessen Grenzen bei manchen und das merkt man schon deutlich. Weil ist doch super, wenn es zum gleichen Preis immer mehr Cores gibt und die Anwendungen davon auch profitieren, schau dir doch einfach mal den Firefox und co von vor 10 Jahren an und was sie jetzt teilweise an Resourcen brauchen. Und je nachdem, was mit so einer "office" Kiste gemacht wird, nimmt man das doch gerne mit, wenn man viele Dinge unbeschwert nebeneinander machen kann. Bzw. nicht ständig etwas beenden muss. Von daher sehe ich keinen Grund, wieso man behaupten sollte, man brauche dies in einer Officekiste nicht. Ich bin sehr froh darüber, dass mein neues Notebook auf der Arbeit 4 Kerne und nicht mehr nur zwei hat...
 
  • Gefällt mir
Reaktionen: Mcr-King
Dass ist dass selbe wie die Leutze die sich eine GTX1080 ti Ultra holen, um dann 4K 60Hz bei low, oder FHD bei 240HZ zocken und sagen auf Konsolen shieht es schlechter aus klar läuft bei dem im Kopf.

Ja Mehr Kerne sind immer besser als einer oder zwei, wer was anderes sagt lügt.

Selbst der Lapi von meinem Dad ist gefühlt langsamer mit Dual Core Intel als der von meiner Frau mit AMD A8-7010.
 
Baal Netbeck schrieb:
@Apocalypse
Es gibt ja nicht nur shooter. ;)
Es gibt duchaus Strategiespiele und Wirtschaftssimulationen, wo sich viele Spieler eine KI wünschen,

Beim Entwickeln von Spielen geht es aber eben nicht darum dem Spieler zu liefern was er sich wünscht, sondern etwas das ihm Anreize gibt mehr Geld ins Spiel zu investieren oder zumindest seinen Freunden von zu erzählen ... im Idealfall indem der Spieler Spaß hat.

Und da greift dann eben das eine KI die wie Menschen spielt keinen Nutzen hat. Wer darauf steht, der spielt Multiplayer. Bei der Zielgruppe für Singleplayer Games kommt das in der Praxis eben nicht so gut an.

Auf Spieler Wünsche einzugehen ist etwas für Kickstarter Projekte, weil mit Träumen kann man Geld machen, auch wenn die Realität gar nicht soviel Spaß macht wie die Fantasy. Siehe Star Citizen. ;-)
 
Apocalypse schrieb:
Beim Entwickeln von Spielen geht es aber eben nicht darum dem Spieler zu liefern was er sich wünscht, sondern etwas das ihm Anreize gibt mehr Geld ins Spiel zu investieren

Das mag bei Call of Duty der Fall sein bei echten Sims (X-Plane, FSX, Arma usw.) ist das aber nicht der Fall.
 
Apocalypse schrieb:
Bei der Zielgruppe für Singleplayer Games kommt das in der Praxis eben nicht so gut an.
Ich sehe ein, dass die AAA Titel, die so raus kommen immer auf viel Marktforschung und eine breite Käuferschaft ausgerichtet sind....und so viel Geld rausquetschen wie möglich.

Es wäre aber traurig, wenn es nur solche Spiele geben würde. Und auch wenn mit Spielen abseits der Norm nicht annährend so viel Geld verdient wird, so gibt es doch oft eine ausreichend große Zielgruppe, die genau diese Herausforderung fordern und kaufen.

Das kann auch gerne mit Kickstarter und Early Access sein....spielt ja keine Rolle.
Die breite Masse würde eh nicht erreicht, da diese keine teuren 8+ core CPUs kauft;).

Ich wäre interessiert an einer live Wirtschaftssiulation, einer knallharten Rennsimulation,
generell mehr zerstörbare Umgebung usw.

Und es gibt ja genug schwere oder komplexe Spiele, die trotzdem gut sind....Dirt Rally, Prison Architect, Darkest Dungeon....Problem ist natürlich, dass solche kleinen Projekte oft nicht die Möglichkeiten haben auch eine gute Multithread Unterstützung zu programieren.
 
@Bärenmarke
Ja da hab ich mich gestern in der Tat gefragt, bis die üblichen Verdächtigen wieder auftauchen und versuchen dagegen zuschießen
Ich habe hier weder gegen AMD geschossen noch mehrere Kerne verteufelt....

Zum X-ten Male. Ich gebe nur zu bedenken, dass solche Prozessoren, die auf immer mehr Kerne setzen mit steigender Anzahl der Kerne einem immer kleineren Anteil an Benutzern einen Geschwindigkeitsvorteil bietet.

Nämlich nur denen, die massives Computing betreiben (z.B. Rendering). Für den Benutzer selbst haben die Prozessoren eher Nachteile, weil meist die Taktfrequenz mit steigender Anzahl an Kernen gesenkt werden muss.

Man merkt hier an etlichen Kommentaren, dass die Einstellung herrscht:Mehr Kerne=überall schneller und wenn man das unkritisch bejubelt und befeuert, dann gibts viele lange Gesichter enttäuschter Käufer, die eine mords Rechenmaschine gekauft haben, die dann in ihrem Lieblingsprogramm genau 2 Threads auf Temperatur bringt.

Dann, kommt z.B. die Erkenntnis, dass der Photoshop mit dem 16 Kerner bei Arbeiten im Viewport träger reagiert, als ein popliger hochgetakteter 4- Kerner (ist auch bei der überwiegenden Anzahl an CAD Software so).

Zu welchem Prozessor würdest Du denn jemandem raten, dessen Haupt- Arbeitswerkzeug Photoshop 2017 ist:

pic_disp.php.jpg


Oder Solidworks (CAD)

picsw_disp.php.jpg


Es wird oft am Bedarf vorbei beraten, weil man der irrigen Annahme ist: Viele Kerne helfen immer und überall.
Der Benchmarks oben sollte das in eindrucksvoller Weise wiederlegen, aber auch zeitgleich zeigen, dass in kleinen Teilbereichen ein Geschwindigkeitsvorteil durchaus sichtbar ist (wenns ans massive Rechnen geht).

Es geht weniger um das Prinzip Multicore und dessen Grenzen bei manchen und das merkt man schon deutlich. Weil ist doch super, wenn es zum gleichen Preis immer mehr Cores gibt und die Anwendungen davon auch profitieren,
Ja- Wenn es zum gleich Preis mehr Cores gibt und wenn die Anwendungen davon profitieren ist das super.
Da bin ich voll bei Dir.

Es geht nur darum, dass neben all der theoretischen Rechenkraft, die die Prozessoren liefern das ganze eben auch softwaretechnisch umgesetzt werden muss, was in Teilbereichen unmöglich, in Teilbereichen aufwendig und kleinen Teilbereichen gut funktioniert.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Gschwenni und Apocalypse
Wundert mich ein wenig, das der 7700K bei Photoshop so stark ist.
Dann muss der 8700K da ja bei 4.8GHz all Core "echt krass" sein
 
ZeroZerp schrieb:
die Zusammenhänge aus denen meine Ausführungen stammen deshalb nicht kennst und somit falsche Schlüsse ziehst.


Das glaube ich nicht. Deine Aussage war, dass du empfiehlst, "was stand jetzt und Softwarestand jetzt das schnellste darstellt.".
Und damit empfiehlst du aktuell nur AMD !

Das sieht selbst die Intel-Base (CB) so:

Anwendungs CPU.JPG
 
ZeroZerp hat in gewisser Weise Recht. Wenn jemand Photoshop braucht, dann nimmt man viel Takt (Intel). Bei CAD ists fast noch schlimmer, da fast immer Single Core optimiert. Wobei da wenigstens noch die Grafikkarte eine Rolle spielt.
Bei Video siehts schon wieder anders aus. Allerdings würde ich keinem bei nem Officerechner noch zu nem Dualcore raten, auch wenn "der noch ausreicht".

Edit: Liegt vor allem an Adobe. Andere Hersteller zeigen, daß man auch bei Photo auf Multicore optimieren kann. Bei Video ist sowieso der Encoder wichtiger als das Programm an sich.
 
@LOLinger78
Du hast die Threads dann eben wohl nicht gelesen. Ich rede Anwendungsbezogen.

Was nützt Dir ein Threadripper, wenn Du nur im Viewport von Photoshop unterwegs bist, außer dass das System teurer ist und langsamer als mit einer anderen CPU arbeitet?

Deswegen ist die Bezeichnung dieser Liste auch vollkommen irreführend.
Leistung ist Trumpf?

Würdest Du also ernsthaft jemanden, der einen Photoshop- PC konfiguriert einen Threadripper empfehlen, oder nicht doch den Preis/Leistungstechnisch dort überragenden 7700K/8700K?:
 

Anhänge

  • trperf.JPG
    trperf.JPG
    92 KB · Aufrufe: 491
Also ich kenne die Hintergründe zu deinen Tests zwar nicht (Setup/Kühlung etc.).
Aber wenn es die üblichen Stock Tests sind, dann sind diese einfach verfälscht und nicht aussagefähig, da die AMD Plattform nunmal (noch) abhängiger von schnellen Speicherfrequenzen ist.

Für derartige Anwendungstests (CAD/Photo) sollten schon 32GB (=dual rank) zugrundeliegen. Und da sind die AMD Stock-Frequenzen einfach viel zu niedrig (und realitätsfremd wie selbst Ryzen 1 spätestens seit AGESA 1.0.0.7 zeigt).
Das alles verfälscht deine ach so bunten Balken zugunsten von Intel.
Und dafür haben die Intels m.E.n. wirklich sehr geringen Vorsprung in deiner Kirschenlese und sind im sonstigen Anwendungs-Querschnitt einfach deutlich schwächer.

Da kann man objektiv eigentlich schlecht zu Intel raten (siehe auch CB Empfehlungen).
 
  • Gefällt mir
Reaktionen: Mcr-King
Wie gut dass ich keine murks Adobe mist benutze sorry anders kannst du den Müll nicht nennen. Genauso bei Office es gibt immer alternativen und grade bei Video und Foto Bearbeitung ist die GPU dem CPU eigentlich weit vor raus, leider durch NV und Intel sabotiert dass ganze wäre schon viel weiter, auch bei guten CAD Programmen kackt jeder Dual Core ab.
 
er hat dennoch recht.

Bei uns in der Firma würde ich auch kein TR verbauen weil es 0 UseCase für gibt außer vielleicht 5 von 4000 Rechnern. Da bau ich lieber nen hochtaktenden i7 ein, dessen Grafik öfters ausreicht als dass >16C Vorteile bringen.

Gerade bei so vielen Kernen überlegt man sich schon genau ob diese von Vorteil sind oder eben nicht. Wie bei Servern auch. Da gibts Usecases bei denen SLX absolut vorn ist, und genauso welche wo Epyc einschlägt.

Da bringts auch nichts Adobe oder andere CAD Apps als "Mist" zu bezeichnen. Wenn du für deine CAD App allein 10k€ hinlegts dann juckt dich erstmal wenig ob die HW dahinter 300 oder 3000€ kostet, du nimmst halt die HW die aus der 10k€ Software mehr rausholt. Deswegen werken weitestgehend hochtaktende Consumer CPU in unseren Workstations und keine Xeons.

Leider setzen sicher >90% aller Fotografen PS / LR ein. Ich hab erst neulich n Rechner für einen gebaut, und da würde ich auch heute wieder lieber nen 5Ghz i7 K Modell mit 4000er Samsung Ram verbauen da es da einfach den Unterschied macht im ganz normalen Arbeitsworkflow.

Da würde ich mich eher schlecht fühlen zu ner CPU zu raten die aktuell gegenüber der günstigeren nur Nachteile bringt.

Edit: Ram soll da zb auch voll reinhauen
https://www.techspot.com/article/1171-ddr4-4000-mhz-performance/page2.html

Edit: Wenn jemand aber zb viel Video Edit in 4K macht wo zb ein Epyc 32C dann vielleicht absolut glänzt sieht das wieder ganz anders aus. Wie gesagt, das ne Entscheidung je nach Use Case.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse und .Sentinel.
Bärenmarke schrieb:
Ist ja nicht so, dass es auch schon lange APUs von AMD gab die für Office auch mehr wie genug ausreichten, nur da waren sie dann plötzlich zu schwach etc. aber jetzt spielt das ja keine Rolle mehr, da reicht es plötzlich aus

Das Problem von den AMD APUs war selten die fehlende Leistung, sondern die Verfügbarkeit in Office-PCs. Du darfst gerne die ganze Fujitsu Seite durchsuchen und wirst nicht einen Büro-PC mit einer AMD CPUs finden. Das war früher durchaus schon mal anders, nur hat sich AMD praktisch selbst abgemeldet.

Es wird vermutlich noch viele Jahre dauern, bis AMD in solchen Märkten halbwegs Fuß fassen kann. Da helfen auch die ganzen Benchmarks nicht, wenn SolidWorks oder andere Hersteller ganz genau vorgeben, welcher PCs unterstützt werden und AMD in solchen Listen nicht auftaucht.

Zuhause zum basteln, kann sich ja jeder gerne einen PC bauen wie er sich den vorstellt. Im professionellen Bereich wird aber kaum jemand eigene Kisten zusammen schustern.
 
  • Gefällt mir
Reaktionen: Gschwenni, Agent500, .Sentinel. und 2 andere
Zurück
Oben