Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Threadripper 3000: Multi-Threading mit 32 Kernen auf die Spitze getrieben
- Ersteller Jan
- Erstellt am
- Zur News: AMD Threadripper 3000: Multi-Threading mit 32 Kernen auf die Spitze getrieben
@Jan @Volker Vielen Dank für den Testparcours und den damit verbundenen extra Aufwand.
Vielleicht interessiert es noch weitere Personen außer meiner Wenigkeit.
Was passiert, wenn man den 3960X / 3970X auf eine TDP von 180W "kastriert", sodass diese eine ähnlich hohe Leistungsaufnahme wie ein 2920X bzw. 2950X aufweisen?
In der Theorie könnte man sich damit eine High-End Wasserkühlung sparen und diese CPUs mit einem guten Luftkühler oder einer geringeren Lautstärke verwenden (bei zeitgleich niedrigeren Temperaturen und einer niedrigeren Leistungsaufnahme).
Vielleicht interessiert es noch weitere Personen außer meiner Wenigkeit.
Was passiert, wenn man den 3960X / 3970X auf eine TDP von 180W "kastriert", sodass diese eine ähnlich hohe Leistungsaufnahme wie ein 2920X bzw. 2950X aufweisen?
In der Theorie könnte man sich damit eine High-End Wasserkühlung sparen und diese CPUs mit einem guten Luftkühler oder einer geringeren Lautstärke verwenden (bei zeitgleich niedrigeren Temperaturen und einer niedrigeren Leistungsaufnahme).
Schnitz
Admiral
- Registriert
- Nov. 2005
- Beiträge
- 8.175
PS828 schrieb:warum dann nicht einfach die kommende Zen2 APU nehmen
Weil ich da eine IGP mitzahlen müsste, die dann nur brach läge. Verschwendung von Geld und Silizium ist nicht so mein Ding.
- Registriert
- Jan. 2007
- Beiträge
- 23.090
r4yn3 schrieb:Finde das Ergebnis zwar beeindruckend aber im Grunde wenig überraschend.
Das mag sein. Aber ich finde es trotzdem beeindruckend was heute für doch relativ wenig Geld möglich ist. Ich werde mir zwar 2020 keinen Threadripper zulegen, liebäugle aber mit der 16C CPU. Brauche ich die wirklich? Wahrscheinlich nicht unbedingt aber bei diesen Preisen kann man sich das einfach mal gönnen. Und sein es nur um noch mehr Task offen zu haben.
dersuperpro1337
Lieutenant
- Registriert
- Jan. 2015
- Beiträge
- 997
Und wenn man jetzt wenigstens noch Multi-Threading / Tasking auf GPUs betreiben könnte, wäre TR das perfekte Werkzeug.
Aber was hilft es, wenn man GPU Geschwindigkeit nicht einzelnen Programmen zuordnen kann und bspw. ein Premiere Export oder ein Metashape Projekt den PC komplett lahm legt, weil die GPU zu 100% ausgelastet ist und man das nicht ändern kann?
Aber was hilft es, wenn man GPU Geschwindigkeit nicht einzelnen Programmen zuordnen kann und bspw. ein Premiere Export oder ein Metashape Projekt den PC komplett lahm legt, weil die GPU zu 100% ausgelastet ist und man das nicht ändern kann?
Drakrochma
Lt. Commander
- Registriert
- Dez. 2018
- Beiträge
- 1.221
Da wäre es irgendwie sicher Mal interessant zu sehen wie sich die Rechenleistung in den letzten 5 Jahren entwickelt hat bezogen auf die schnellste CPU, die man für 500/1000)2000€ kaufen konnte.
Da dürfte es dank ryzen einen schönen Knick nach oben geben
Da dürfte es dank ryzen einen schönen Knick nach oben geben
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 8.847
Beachtlich.
Wie sieht denn ein Real-Life-Nutzen dieses Monsters aus?
Werden die einfach in Video-Render Maschinen eingebaut, welche einfach durchgängig rendern, sprich mehr Videos pro Tag fertig? Oder ists einfach nice to have, 8 Kerne rendern, 8 Kerne zum Zocken, 8 Kerne zum Streamen und Co. (auch wenn man so viel nicht braucht^^)? ^^
Wie sieht denn ein Real-Life-Nutzen dieses Monsters aus?
Werden die einfach in Video-Render Maschinen eingebaut, welche einfach durchgängig rendern, sprich mehr Videos pro Tag fertig? Oder ists einfach nice to have, 8 Kerne rendern, 8 Kerne zum Zocken, 8 Kerne zum Streamen und Co. (auch wenn man so viel nicht braucht^^)? ^^
peru3232
Lieutenant
- Registriert
- Mai 2011
- Beiträge
- 689
Multi-GPU ist da dann der Ansatz der Wahl - genau für solche Szenarien bietet eben eine HEDT Plattform genug Lanes zur Anbindung diverser GPUs auch im Mix für unterschiedliche Programmedersuperpro1337 schrieb:Und wenn man jetzt wenigstens noch Multi-Threading / Tasking auf GPUs betreiben könnte, wäre TR das perfekte Werkzeug.
Aber was hilft es, wenn man GPU Geschwindigkeit nicht einzelnen Programmen zuordnen kann und bspw. ein Premiere Export oder ein Metashape Projekt den PC komplett lahm legt, weil die GPU zu 100% ausgelastet ist und man das nicht ändern kann?
Achim_Anders
Commodore
- Registriert
- Nov. 2005
- Beiträge
- 4.926
Verschwendung wäre es, wenn Unternehmen mit so riesigem Markt für jede Nische extra ein maßgeschneidertes Produkt anbieten würden. Dann wären alle Produkte teurer.Schnitz schrieb:Verschwendung von Geld und Silizium
Deswegen ist etwas mehr kaufen auch aus Sicht des Verbrauchers keine Verschwendung...
Gorgone
Lt. Junior Grade
- Registriert
- Okt. 2003
- Beiträge
- 296
cohrvan schrieb:Existieren echt Spiele die mehr als 1-2 Kerne benutzen ?
JA
- Registriert
- Aug. 2013
- Beiträge
- 2.492
@cohrvan
Battlefield V oder Assassin's Creed Odyssey z.B.
Klar. Zum reinen spielen würden auch2 4 Kerne reichen. Grob kann man aber sagen, dass mehr Kerne (meistens) die Frametimes (also die Durchschnittliche Ausgabezeit je gerendertem Bild) schön glätten. Dadurch entsteht ein "smoothes" Spielgefühl.
Schau dir doch einfach ein paar Tests hier auf CB an.
Battlefield V oder Assassin's Creed Odyssey z.B.
Klar. Zum reinen spielen würden auch
Schau dir doch einfach ein paar Tests hier auf CB an.
MarcoMichel
Banned
- Registriert
- Okt. 2019
- Beiträge
- 971
Das ist natürlich ein porno Technik-Artikel pur. Da wird ja einem schwindelig, was für eine Hardware hier benutzt wird.
H3llF15H
Admiral
- Registriert
- Juni 2009
- Beiträge
- 7.668
Die gleiche Euphorie hinsichtlich Rechenleistung, nur mit anderen CPUs 😉Roesi schrieb:Danke an Computerbase für diesen Test.
Wahnsinn so ein Threadripper wenn man mal so ein paar wenige Jahre zurück schaut was es da gab.
Damien White
Banned
- Registriert
- Feb. 2009
- Beiträge
- 10.656
Vergleichbarkeit zu vorherigen Ergebnissen. Es ist nichts ungewöhnliches, dass CB und andere Seiten mit den letzten statt aktuellen Treibern oder Windows Versionen testen, damit das Messergebnis nicht verfälscht wird.R4ID schrieb:Warum wurde nicht gleich auf der aktuellen Windows Version 1909 getestet ?
Ich weis kein großes Update usw, aber manchmal gibt es ja doch Unterschiede von denen keiner was weis
Andernfalls müsste man ständig dauch die vorherigen CPU nachtesten um vergleichbare Werte zu erhalten.
Schnitz schrieb:Weil ich da eine IGP mitzahlen müsste, die dann nur brach läge. Verschwendung von Geld und Silizium ist nicht so mein Ding.
Ich bin ein Freund der Grafikeinheiten von CPUs. Nicht nur, dass diese mittlerweile recht gut softwaremäßig eingebunden sind und entsprechende Workloads mitberechnen ohne dass man viel machen muss...sondern es ist echt hilfreich eine 2. Grafikeinheit im Rechner zu haben für den Fall, dass die dedizierte Grafikkarte abraucht.
Ich war schon sehr froh den Rechner weiter benutzen zu können als mir an der 2080 ein Kondensator abgeraucht ist und der Austausch vom Händler fast 1,5 Wochen brauchte (auch weil das Paket im Verteilzentrum der DHL 4 Tage lang lag). Ist zwar nicht viel mit spielen, aber alles andere geht wunderbar
DrDoom
Lt. Junior Grade
- Registriert
- Dez. 2007
- Beiträge
- 326
Da mus Microsoft wohl noch mal ordentlich Hand anlegen an den sheduler. Geht ja irgendwie garnicht, dass man Kerne von Hand zuweisen muß, damit das ordentlich funzt...
Eine Frage bleibt dann noch, warum macht der intel x Probleme und bricht so deutlich ein beim Parallelbetrieb? Könnte das am separaten cache der Chiplets liegen, das fest jedem Kern zugewiesen ist? Na jedenfalls scheit AMD´s Architektur wirklich ganz besonders gelungen zu sein, meinen Glückwunsch dazu. Wirklich sehr beeindruckend!
Eine Frage bleibt dann noch, warum macht der intel x Probleme und bricht so deutlich ein beim Parallelbetrieb? Könnte das am separaten cache der Chiplets liegen, das fest jedem Kern zugewiesen ist? Na jedenfalls scheit AMD´s Architektur wirklich ganz besonders gelungen zu sein, meinen Glückwunsch dazu. Wirklich sehr beeindruckend!
Ähnliche Themen
- Antworten
- 147
- Aufrufe
- 26.260