News AMD Threadripper 3000: Multi-Threading mit 32 Kernen auf die Spitze getrieben

@Jan @Volker Vielen Dank für den Testparcours und den damit verbundenen extra Aufwand.
Vielleicht interessiert es noch weitere Personen außer meiner Wenigkeit.
Was passiert, wenn man den 3960X / 3970X auf eine TDP von 180W "kastriert", sodass diese eine ähnlich hohe Leistungsaufnahme wie ein 2920X bzw. 2950X aufweisen?
In der Theorie könnte man sich damit eine High-End Wasserkühlung sparen und diese CPUs mit einem guten Luftkühler oder einer geringeren Lautstärke verwenden (bei zeitgleich niedrigeren Temperaturen und einer niedrigeren Leistungsaufnahme).
 
  • Gefällt mir
Reaktionen: Colindo, fox40phil, Jan und eine weitere Person
PS828 schrieb:
warum dann nicht einfach die kommende Zen2 APU nehmen

Weil ich da eine IGP mitzahlen müsste, die dann nur brach läge. Verschwendung von Geld und Silizium ist nicht so mein Ding.
 
  • Gefällt mir
Reaktionen: PS828
@Schnitz hm verständlich. Aber ich fürchte dass du dich mit einem 6C6T oder 6C12T wirst anfreunden müssen. Die Zeiten von nativen vierkernern mit SMT ohne gpu ist vorbei.
 
  • Gefällt mir
Reaktionen: Schnitz
r4yn3 schrieb:
Finde das Ergebnis zwar beeindruckend aber im Grunde wenig überraschend.

Das mag sein. Aber ich finde es trotzdem beeindruckend was heute für doch relativ wenig Geld möglich ist. Ich werde mir zwar 2020 keinen Threadripper zulegen, liebäugle aber mit der 16C CPU. Brauche ich die wirklich? Wahrscheinlich nicht unbedingt aber bei diesen Preisen kann man sich das einfach mal gönnen. Und sein es nur um noch mehr Task offen zu haben.
 
Und wenn man jetzt wenigstens noch Multi-Threading / Tasking auf GPUs betreiben könnte, wäre TR das perfekte Werkzeug.
Aber was hilft es, wenn man GPU Geschwindigkeit nicht einzelnen Programmen zuordnen kann und bspw. ein Premiere Export oder ein Metashape Projekt den PC komplett lahm legt, weil die GPU zu 100% ausgelastet ist und man das nicht ändern kann?
 
Da wäre es irgendwie sicher Mal interessant zu sehen wie sich die Rechenleistung in den letzten 5 Jahren entwickelt hat bezogen auf die schnellste CPU, die man für 500/1000)2000€ kaufen konnte.

Da dürfte es dank ryzen einen schönen Knick nach oben geben ;)
 
Ich finde es sehr spannend, dass die Leistung von so vielen Kernen heute schon genutzt werden kann.
Ich hoffe, dass auch Anwendungen selbst weiter darauf optimiert werden damit umzugehen. Das beschert den CPUs zudem eine lange Lebensdauer.
 
  • Gefällt mir
Reaktionen: [wege]mini
Beachtlich.

Wie sieht denn ein Real-Life-Nutzen dieses Monsters aus?
Werden die einfach in Video-Render Maschinen eingebaut, welche einfach durchgängig rendern, sprich mehr Videos pro Tag fertig? Oder ists einfach nice to have, 8 Kerne rendern, 8 Kerne zum Zocken, 8 Kerne zum Streamen und Co. (auch wenn man so viel nicht braucht^^)? ^^
 
Bitte bitte nicht gleich hauen aber ich brauch da mal ne aufklärung bei dem ganzem Kern-Wahn themen...

Thema Gaming (Arbeitssoftware wie Musik oder Grafik nicht betrachtend):

Existieren echt Spiele die mehr als 1-2 Kerne benutzen ? :watt:
 
dersuperpro1337 schrieb:
Und wenn man jetzt wenigstens noch Multi-Threading / Tasking auf GPUs betreiben könnte, wäre TR das perfekte Werkzeug.
Aber was hilft es, wenn man GPU Geschwindigkeit nicht einzelnen Programmen zuordnen kann und bspw. ein Premiere Export oder ein Metashape Projekt den PC komplett lahm legt, weil die GPU zu 100% ausgelastet ist und man das nicht ändern kann?
Multi-GPU ist da dann der Ansatz der Wahl - genau für solche Szenarien bietet eben eine HEDT Plattform genug Lanes zur Anbindung diverser GPUs auch im Mix für unterschiedliche Programme
 
Schnitz schrieb:
Verschwendung von Geld und Silizium
Verschwendung wäre es, wenn Unternehmen mit so riesigem Markt für jede Nische extra ein maßgeschneidertes Produkt anbieten würden. Dann wären alle Produkte teurer.

Deswegen ist etwas mehr kaufen auch aus Sicht des Verbrauchers keine Verschwendung...
 
  • Gefällt mir
Reaktionen: Otsy
@cohrvan

Battlefield V oder Assassin's Creed Odyssey z.B. ;)

Klar. Zum reinen spielen würden auch 2 4 Kerne reichen. Grob kann man aber sagen, dass mehr Kerne (meistens) die Frametimes (also die Durchschnittliche Ausgabezeit je gerendertem Bild) schön glätten. Dadurch entsteht ein "smoothes" Spielgefühl.

Schau dir doch einfach ein paar Tests hier auf CB an.
 
Das ist natürlich ein porno Technik-Artikel pur. Da wird ja einem schwindelig, was für eine Hardware hier benutzt wird. :daumen:
 
  • Gefällt mir
Reaktionen: downunder4two und Jan
Wahnsinn, was es inzwischen für Leistung gibt, wenn man es denn kaufen kann..
 
R4ID schrieb:
Warum wurde nicht gleich auf der aktuellen Windows Version 1909 getestet ?

Ich weis kein großes Update usw, aber manchmal gibt es ja doch Unterschiede von denen keiner was weis :)
Vergleichbarkeit zu vorherigen Ergebnissen. Es ist nichts ungewöhnliches, dass CB und andere Seiten mit den letzten statt aktuellen Treibern oder Windows Versionen testen, damit das Messergebnis nicht verfälscht wird.

Andernfalls müsste man ständig dauch die vorherigen CPU nachtesten um vergleichbare Werte zu erhalten.
 
  • Gefällt mir
Reaktionen: fox40phil, iron-man und H3llF15H
Schnitz schrieb:
Weil ich da eine IGP mitzahlen müsste, die dann nur brach läge. Verschwendung von Geld und Silizium ist nicht so mein Ding.

Ich bin ein Freund der Grafikeinheiten von CPUs. Nicht nur, dass diese mittlerweile recht gut softwaremäßig eingebunden sind und entsprechende Workloads mitberechnen ohne dass man viel machen muss...sondern es ist echt hilfreich eine 2. Grafikeinheit im Rechner zu haben für den Fall, dass die dedizierte Grafikkarte abraucht.
Ich war schon sehr froh den Rechner weiter benutzen zu können als mir an der 2080 ein Kondensator abgeraucht ist und der Austausch vom Händler fast 1,5 Wochen brauchte (auch weil das Paket im Verteilzentrum der DHL 4 Tage lang lag). Ist zwar nicht viel mit spielen, aber alles andere geht wunderbar ;)
 
  • Gefällt mir
Reaktionen: fox40phil
Da mus Microsoft wohl noch mal ordentlich Hand anlegen an den sheduler. Geht ja irgendwie garnicht, dass man Kerne von Hand zuweisen muß, damit das ordentlich funzt...

Eine Frage bleibt dann noch, warum macht der intel x Probleme und bricht so deutlich ein beim Parallelbetrieb? Könnte das am separaten cache der Chiplets liegen, das fest jedem Kern zugewiesen ist? Na jedenfalls scheit AMD´s Architektur wirklich ganz besonders gelungen zu sein, meinen Glückwunsch dazu. Wirklich sehr beeindruckend! :daumen: :volllol:
 
  • Gefällt mir
Reaktionen: Cruentatus und Alphanerd
Zurück
Oben