Leserartikel 10 Jahre 8 Kerne - Dual-CPU vs. Ryzen (Asus DSAN-DX)

Taron

Captain
Registriert
Dez. 2013
Beiträge
3.268

2007 vs 2017 – 10 Jahre 8 Kerne

Leserartikel von Taron


teaser-intro-2.jpg


Das hier wollte ich schon länger mal machen.

Vor einiger Zeit trudelte nämlich ein besonderes Stück Hardware bei mir ein, getreu der Tradition der LGA775- und 771-Sockel: ein Dual-CPU Board für LGA771. Abseits der Intel "Skulltrail"-Plattform welche den Highend-Consumer-Markt abdecken sollte sind diese Boards abseits von Workstations sonst nur noch dem Server-Markt vorbehalten.

Erst hatte ich überlegt, dieses Board hier einfach nur vorzustellen und vielleicht noch ein paar kleine mögliche Use-Cases und Benches zu präsentieren, aber dann dachte ich: wäre es nicht interessant, mal einen modernen Achtkern-Prozessor gegenüberzustellen, ein Vergleich der Dekade sozusagen?

Und hier ist er. Mehr oder weniger, denn unkompliziert war es nicht, und so viel sei gesagt – es hat sich eine Menge getan!



Verwendete Hardware

  • 2x 4C/4T Intel Xeon X5460 @ 3,17 GHz
  • 2x Stock LGA771 Cooler
  • 24 GB ECC-DDR2 5300P
  • Win 10 x64 21H2 (Build 19044.1288)
  • Vega 64 Red Devil @ Stock (Silent BIOS)
  • 250 GB Samsung 850 SATA-III SSD
  • SeaSonic 550W Prime Platinum


vega64-red-devil.jpg

Nicht mehr der hellste Stern am Gaming-Himmel, aber mein treuer Begleiter bis heute.

  • 8C/16T Ryzen 1700X @ Stock
  • Asus PRIME B350-PLUS
  • Noctua NH-D15 w/ 2x NF-A14
  • 16 GB DDR4-2400 Crucial Ballistix
  • Win 10 x64 21H2 (Build 19044.1288)
  • Vega 64 Red Devil @ Stock (Silent BIOS)
  • WD SN550 1TB NVMe M.2 SSD
  • Corsair RM750x Gold


ryzen-1700X.jpg



Das Board


Das Asus DSAN-DX ist ein Server-Mainboard im Formfaktor E-ATX / SSI EEB. Mit sechs DDR2-DIMM Slots, zwei CPU-Sockeln und einer dedizierten RAID-SAS-Karte und einem entsprechend für Server-Racks optimierten Layout bietet es mehr Schnittstellen und Ausstattung als ein Mainboard für den Consumer-Markt. Sämtliche wärmeerzeugenden Bauteile sind entsprechend einem von vorn kommenden Luftstrom ausgerichtet, welcher normalerweise durch mehrere Lüfter in der Front des Racks erzeugt wird, was einem semi-passiven Betrieb ähnelt. Die wärmsten Bauteile (in dem Fall die CPUs) sind dabei so weit wie möglich vorn angeordnet, um durch die noch kühle Luft den besten Kühleffekt zu erzielen.

DSAN-DX-overview.jpg

Für diesen Test unter offenen Bedingungen habe ich die CPU-Kühlkörper mit kleineren Lüftern bestückt. Gekühlt werden die MOSFET abgesehen von der Wärmeverteilung über das PCB nicht.


24GB-DDR2-ram.jpg


Mit 6 x 4 GB DDR2-RAM (Modellnr. EBE41AE4ACFA-6E-E) bei insgesamt 24 GB bietet das System mehr Arbeitsspeicher als so mancher Gaming-PC von heute. Gemäß dem vorgesehenen Einsatzzweck sind die RAM-Riegel mit Fehlerkorrektur (ECC) ausgestattet und als Registered Module ausgeführt, was den Speichercontroller entlastet und die mögliche Anzahl der Speicherchips im Gesamtsystem erhöht, was allerdings aber auch einen höheren Stromverbrauch und Wärmeentwicklung mit sich bringt.


QC5100 chipset-2.jpg


Verbaut ist ein Intel 5100 Chipsatz (Codename „San Clemente“), der über 2 Kanäle maximal 48 GB DDR2-Arbeitsspeicher adressieren kann. Beide CPU-Sockel sind unabhängig voneinander direkt mit dem Chipsatz verbunden, unterstützt werden Prozessoren mit FSB bis 1333 MHz und LGA 771.
Southbridge ist eine ICH9R welche im Gegensatz zur bekannten klassischen ICH9 auch verschiedene RAID-Levels unterstützt.


LSI_SAS2008 controller board.jpg

LSISAS2008 Controller auf separater Steckkarte. Technisch wird sie über PCIe angebunden


Mit dem Board mitgeliefert wurde eine sog. „PIKE“-Karte („Proprietary I/O Kit Expansion“), welche über einen LSISAS2008-Controller 8 weitere SAS-Schnittstellen auf dem Board bereitstellt, über einen eigenen Slot auf dem Mainboard angeschlossen wird und so keine weiteren PCIe-Slots belegt. Über eine grafische Benutzeroberfläche ähnlich einem älteren Windows-System (genannt „Webbios“) lässt sich die Konfiguration anpassen.


DSAN-DX-IO.jpg


Die rückseitigen Schnittstellen sind spartanisch. Zwei USB-Ports, eine VGA- und RS-232-Schnittstelle sowie 3 x Ethernet könnten im normalen Hausgebrauch zumindest in Sachen USB problematisch werden. Eine USB-Erweiterungskarte könnte notwendig werden, zumindest Ethernet-Schnittstellen gibt es für einen Home-Server reichlich.

Für die Grafikausgabe wurde eine XGI Volari Z9s verbaut, zusammen mit 32 MB GDDR2-Speicher. Viele Informationen gibt es zu diesem Grafikchip nicht; zumindest der Z9 wurde primär für 2D-Anwendungen entwickelt. Nach meiner Kenntnis wurde der Z9s noch wenigstens Mitte 2014 hergestellt, vermutlich bei UMC.


XGI-Volari-Z9s.jpg

Selten geworden: XGI-Grafikprozessor.


Manchmal wird auch von einer NVIDIA ION-Grafiklösung auf Basis eines Tesla 1.0-Grafikprozessors auf einem DSAN-DX gesprochen. Geizhals erwähnt diese. Bilder habe ich davon allerdings nie gesehen, ich vermute einen Datenfehler bei Geizhals.

Verbaut sind zwei Xeon X5460, in 45 nm gefertigt und mit FSB 1333 ähneln sie den Yorkfield-Core 2 Quad aus dem Consumer-Bereich stark. Von den Leistungsdaten entsprechen sie sonst dem Core 2 Quad QX9750 mit 3,17 GHz, welcher allerdings nie offiziell released wurde.


dualsocket-LGA771.jpg

Doppelherz.


Manchmal ist im Zusammenspiel mit Dual-CPU-Setups die Rede von „Matched pair“, vor allem bei Ebay-Angeboten. Dies bedeutet im Wesentlichen, dass die Prozessoren paarweise vom selben Batch bzw. Wafer stammen, was möglichst ähnliche elektrische und thermische Eigenschaften sicherstellen soll um die Kühlung in engen Platzverhältnissen oder Servern zu vereinfachen. In meinem Test-Setup habe ich allerdings unterschiedliche Prozessoren unterschiedlichen Batches verbaut, was keinerlei Probleme bereitet hat. Grundsätzlich gilt also: in Dual-CPU-setups können Prozessoren unterschiedlicher Herstellungszeiträume eingesetzt werden, nur Stepping (bei Intel erkennbar übr die sSpec) und Modell müssen gleich sein!


Screenshot (2).png

Spezifikationen laut CPU-Z und Windows 10.



Leistungsaufnahmen System



Die Leistungsaufnahme wird in der Zuleitung zum ATX-Netzteil gemessen.
Eingesetzt wird hierfür eine nach MID zugelassene Messeinrichtung für Dreiphasenwechselstrom („Smart Meter“, MID M15) des Herstellers Kamstrup. Durch die Einhaltung der Eichfrist ist diese Messeinrichtung auch für abrechnungsrelevante Zwecke zugelassen.

Die Grafikkarte ist bei allen Szenarien dieselbe, auch wird die Anzahl angeschlossener Zusatzperipherie wie Massenspeicher oder USB-Geräte möglichst gleich gehalten um die Ergebnisse nicht zu verfälschen.

Die Einstellungen im BIOS wurden auf die Standardeinstellungen zurückgesetzt: Asus EPU on, Vcore Offset off. Nur so lässt sich eine Vergleichbarkeit zum Xeon-System herstellen, da dort keinerlei Spannungs- oder Takteinstellungen möglich sind. Das DSAN-DX bietet aufgrund seiner Natur als Server-Mainboard keinerlei Spannungs- oder Takteinstellungen.



Lastszenario1700X SMT on1700X SMT off2x X5460 (kein SMT)
Idle (Desktop)67 W67 W130 W
Cinebench R23 Single90 W89 W170 W
Cinebench R23 Multi184 W153 W270 W
SuperPI 1M87 W86 W258 W
Blender 2.78 BMW Bench176 W147 W270 W
Geekbench 5 Tryout90 W avg.87 W avg.170 W avg.
CPU-Z Bench Multi158 W139 W252 W
Prime95 28.10 Torture Test Large FFTs186 W181 W293 W
Prime95 Large FFTs + FurMark Stresstest368 W486 W---


Bei aktiviertem SMT des 1700X taktet die Grafikkarte im FurMark-Stresstest nicht hoch und erreicht nur etwa 60 % der eigentlichen Maximalleistung, weshalb die Leistungsaufnahme des Gesamtsystems erheblich geringer als bei abgeschaltetem SMT ist. Sobald Prime95 abgeschaltet wird, erreicht die Grafikkarte auch bei SMT on unter 3D-Last wieder ihre ursprüngliche Leistung.

Unter extremer Belastung mit Prime95 und FurMark stürzt das Xeon-System nur Sekunden nach Start des Tests ab – es läuft bei über 560 W laut Messeinrichtung und vermutlich noch deutlich höherer Spitzenlast in die Notabschaltung des Netzteils. Sekunden später lässt es sich allerdings wieder problemlos starten. Zeigt wieder die Wichtigkeit eines brauchbaren Netzteils, wenn es wirklich darauf ankommt!

Aufgrund abweichender AMD-Treiberversion sind die Stromverbräuche bei Szenarien mit Einbeziehung der Grafikkarte nur bedingt vergleichbar (mehr unter Kapitel „Spiele“).

Grundsätzlich ist der Stromverbrauch selbst für heutige Zeiten mit enormen Leistungsaufnahmen bei Prozessoren und vor allem Grafikkarten extrem hoch, im Schnitt etwa doppelt so hoch wie beim Ryzen. Ein Xeon X5460 Quadcore nimmt also in etwa so viel Leistung auf wie ein Achtkern-Ryzen 1700X.
Extrem wird das dann auch im Alltag. Über 250 W (!) genehmigte sich das System während eines Downloads eines Spiels über eine 500 MBit-Leitung, was im Taskmanager deutlich wird - 90-100 % Last auf allen acht Kernen, das sind Bilder die wir heute gar nicht mehr kennen...


Screenshot (1).png

Eine 500 MBit-Leitung reicht um 8 Kerne ins Schwitzen zu bringen


Dazu passt auch die enorme Wärmeentwicklung einiger Komponenten gut ins Bild. Die Temperatur des Arbeitsspeichers erreicht unter Volllast (Prime95 Torture Test) bis zu 70 °C (!), die Southbridge immerhin noch gute 60 °C und der Chipsatz als solches etwa 55 °C. Die Prozessortemperatur erreichte etwa 70 °C, allerdings nicht bei maximaler Lüfterdrehzahl. Grundsätzlich setzt solch ein System einen extrem guten Airflow und gute Kühllösungen wie Custom Water Loops voraus, vor allem der Arbeitsspeicher – sofern ECC im Use-Case gewünscht wird - dürfte in seiner Lebensdauer stark herabgesetzt sein!


Update 10.03.2022:

Ich habe mal ein paar kleine Reallife-Usecases zusammengestellt und dabei die Leistungsaufnahme soweit möglich bestimmt.

  • Firefox 91.7.0esr
  • LibreOffice 7.2.6
  • Asus GTX 550 Ti 1 GB (ENGTX550TIDI/1GD5)
  • Nvidia 388.13 Treiber
Unterschied: die Vega 64 ist durch meine üblicherweise für Tests genutzte GTX 550 Ti getauscht worden, da die Vega 64 wieder in meinem Spiele-PC ihren angestammten Platz gefunden hat und ich diese nicht bei jedem Test tauschen möchte. Die Leistungsaufnahmen im Idle und in den Benchmarks entsprechen allerdings quasi 1:1 den Werten mit verbauter Vega 64 und sollten daher einigermaßen vergleichbar sein. Sonst wurden keine weiteren Änderungen vorgenommen.

Im Firefox 91.7.0esr ist die Hardwarebeschleunigung ausgeschaltet, um möglichst nur den Verbrauch der CPU zu erfassen und die Werte durch die möglicherweise mitrechnende GPU nicht zu verfälschen – obwohl die Fermi-basierte GF116-400 GPU offiziell kein VP9 decoding in Hardware unterstützt.

SzenarioLeistung durchschnittl.CPU-Auslastung durchschnittl.
Idle (0 % CPU, keine Programme offen)135 W0 %
Mauszeiger auf Desktop bewegen145 W2 %
Text in Libre Office schreiben150 W3 %
Bilder in Libre Office verschieben160 W8 %
Scrollen auf einer Webseite (ebay.de)170 W15 %
Öffnen CSV in LO mit 72000 Zeilen (182 MB)175 W15 %
Erstellen Diagramm in LO mit 72000 Datensätzen á 2 Byte190 W20 %
1080p30 Youtube-Video schauen210 W30 %
1080p60 Youtube-Video schauen230 W40 %
1440p60 Youtube-Video schauen250 W55 %
4K Youtube-Video schauen280 W85 %


Auffällig ist der überproportional hohe Leistungsbedarf gerade im unteren Drittel – das Öffnen der CSV-Datei mit 72000 Datensätzen bewirkt eine CPU-Auslastung von etwa 15 %, wobei dabei die Differenz zu Idle 40 W beträgt.

Bei Wiedergabe eines 1080p60 Youtube-Videos erreicht die Leistungsaufnahme einen Peak von über 270 W, trotz einer maximalen Auslastung von 55 %. Bei Pausieren dauert es fünf bis acht Sekunden, ehe sich die Leistungsaufnahme auf etwa 140 W (Wert nahe Idle) verringert.

Grundsätzlich ruckelte die Wiedergabe leicht, sowohl bei 1080p als auch 4K. Flüssiges Abspielen eines Youtube-Videos ist mit abgeschalteter Hardwarebeschleunigung (oder fehlendem Video-Decoder) nicht möglich.

Bei eingeschalteter Hardwarebeschleunigung ist der Stromverbrauch erhöht, bei 4K bis zu 330 W (!). Die Last auf der GPU beträgt dabei bis zu 70 %. Hardwarebeschleunigung dürfte hier über die API des Treibers (NVDEC) ermöglicht werden, welche alle Nvidia-GPUs ab Fermi unterstützen. Zumindest lässt sich so ein 4K-Video durchaus schauen, gelegentliche Mikroruckler gibt es allerdings dennoch.
Bei Einbau einer moderneren Grafikkarte (was wegen der größtenteils fehlenden Legacy-Unterstützung schwierig sein dürfte) kann die Leistungsaufnahme in diesem Szenario erheblich geringer ausfallen!

Grundsätzlich ist ein durchschnittlicher Stromverbrauch von 170-190 W im normalen Alltagsbetrieb (Internet, Multimedia, Office) realistisch. Beachtet werden sollte dazu auch dass dieser Wert bei Nutzung eines weniger effizienten Netzteils (80+ Bronze / Gold) noch etwas weiter ansteigen dürfte.


Spiele-Benches


Die Benchmark-Sequenzen sind soweit möglich an bereits existierenden Szenarien angelehnt. Für Cyberpunk 2077 wurde das bereits von CB im Community-Benchmark genutzte Savegame herangezogen, weswegen die Ergebnisse mit denen des Artikels und der Community-Rangliste vergleichbar sind.

The Elder Scrolls V: Skyrim ist ein alter Titel, welcher auch auf genügsamen Rechnern zufriedenstellend laufen sollte. Wie bereits im LGA775-Thread wird erneut der „Whiterun interior“-Run herangezogen um Vergleichbarkeit mit dort weiterhin sporadisch erscheinenden Benchmarks sicherzustellen.

Ähnliches gilt für Planet Coaster, dort wird im „Le Bench Parc“ eine Runde „Copperhead Strike“ gefahren und während der Fahrt (Onboard-Cam 1st row) die Frames gemessen. Auch dies dient der Vergleichbarkeit mit dem LGA775-Thread.

Dirt Rally bietet einen eingebauten Benchmark, der für alle Systemkonfigurationen genutzt wird.

In Sniper Elite 4 wird in Mission "Dorf Bianti" der Abschnitt vor und wenige Meter nach dem Missionsstart abgelaufen.



SpielPreset1700X SMT on1700X SMT off2x X5460
Cyberpunk 2077 1.31FHD Ultra49,8 fps46,0 fps---
FHD Mittel63,3 fps63,4 fps---
WQHD Ultra32,9 fps29,8 fps---
WQHD Mittel51,2 fps47,4 fps---
The Elder Scrolls V: SkyrimFHD Sehr hoch59,8 fps59,6 fps51,1 fps
WQHD Sehr hoch59,8 fps59,7 fps---
Planet CoasterFHD Ultra73,9 fps74,4 fps27,8 fps
WQHD Ultra56,4 fps56,7 fps---
Dirt Rally in-game BenchmarkFHD Sehr hoch97,6 fps99,4 fps27,1 fps
WQHD Sehr hoch96,5 fps97,0 fps---
Sniper Elite 4 DX11FHD Ultra138,2 fps144,5 fps61,7 fps
Sniper Elite 4 D3D12FHD Ultra148,3 fps158,2 fps---


Cyberpunk startet auf dem Xeon-System nicht („0xC000001D - EXCEPTION_ILLEGAL_INSTRUCTION“), weil die Prozessoren auf der alten LGA771-Plattform keinerlei AVX-Instruktionen unterstützen. Allerdings können sowohl offizieller AVX-Patch (1.30AVX) als auch inoffizielle Mods dies nicht beheben, die Fehlermeldung taucht weiterhin unverändert auf.

Sniper Elite 4 lässt sich auf dem Xeon-System nur im DX11-Mode starten. Bei Verwendung von D3D12 stürzt das System bei etwa 530 W (!) Systemlast im Hauptmenü innerhalb einiger Sekunden ab, startet aber sofort neu. Bei Nutzung von DX11 läuft das Spiel, allerdings ergibt sich in der Tabelle ein Leistungsunterschied von minus 10-15 % gegenüber von D3D12, allerdings nur auf den Ryzen bezogen.

Generell ist die Xeon-Plattform im Zusammenspiel mit einer modernen Grafikkarte wenig gut gealtert. Entweder starten Spiele nicht, oder die Grafikkarte unterstützt keinen Legacy Mode (die Red Devil Vega 64 besitzt diese Unterstützung überraschenderweise noch, vermutlich weil von einem Partner hergestellt) – heutzutage bieten moderne Grafikkarten nur noch UEFI-Support (weithin anerkannt für Referenzdesigns ab AMD RX und NVidia 900er-Serie, kann je nach Partnerkarte abweichen).

Ein großes Problem stellte im hier genutzten Xeon-Setup der AMD-Grafiktreiber dar. Der zum Testzeitpunkt aktuellste empfohlene Treiber (Adrenalin 21.10.2 WHQL) ließ sich zwar problemlos installieren, doch die Grafikkarte wurde im Gerätemanager als „Gerät hat Fehler gemeldet“ markiert, wodurch weiterhin nur der Basistreiber genutzt wurde und 3D-Funktionalitäten eingeschränkt waren. Bei einem Treiber aus dem Jahre 2020 wurde der Bildschirm sporadisch schwarz weil der Treiber versuchte auf die Grafikkarte zuzugreifen, was aber immer noch nicht funktionierte. Nach zig Stunden des Treiberinstallierens (alten Treiber jeweils mit DDU vollständig deinstalliert) habe ich mit der steinalten Version 18.3.4 (!) immerhin überhaupt einen funktionsfähigen Treiber gefunden unter welchem ich die o.g. Benches durchführen konnte. Aus diesem Grund ist die Vergleichbarkeit der Ergebnisse zwischen den Systemen stark eingeschränkt!

Unter Spielelast sind die Ergebnisse zum Teil merkwürdig. Bei Planet Coaster betrug die GPU-Last lediglich etwa 50 %, in Skyrim – trotz der ungewöhnlich niedrig erscheinenden 51 fps avg. – sogar nur 30 %, wodurch die Grafikkarte teilweise in den passiven Betrieb wechselte und die Lüfter abschaltete. Extremfall war hier Dirt Rally, wo die GPU mit nur etwa 25 % Auslastung und gerade einmal 40 % CPU-Auslastung im durchgehend passiven Modus nicht einmal die 65 °C erreichte und das gesamte System nur 260 W verbrauchte. Zu beachten ist hier allerdings, dass das Test-Setup offen installiert war und keinerlei Wärmestau auftreten konnte.


zero-fan-in-bench.jpg

Zero Fan. Da habt ihr eure passive Gaming-GPU!


Der beste Schnitt aus CPU- und GPU-Last wurde in Sniper Elite 4 (DX11) erzielt, mit etwa 60 % GPU- und 65 % CPU-Last, bei durchschnittlich 315 W Gesamtverbrauch.

Vermutlich spielen verschiedene Faktoren eine wesentliche Rolle, darunter die Funktionsweise und Anbindung des Dual-Socket-Setups via Northbridge, die verschiedenen Treiber-Versionsstände und fehlenden Befehlssätze und eben die erheblich geringere Prozessorleistung sowohl in Single- als auch Multithread.

Weiter verfolgt habe ich die Ursachen dieser Diskrepanzen nicht, leider gibt dies meine verfügbare Zeit auch aktuell nicht her. Wenn ihr dazu Ideen oder Vermutungen ob der Ursache habt, lasst es mich gerne wissen!



Anwendungen


SuperPI ist stark auf Intel optimiert, ein i7-7700K mit 4C/8T erreicht einen Wert von gerade mal 8,92 Sek., trotz halber Anzahl Kerne. Prime95 28.10 ist wegen des früheren Erscheinungsdatums nicht für Ryzen optimiert, wird also in diesem Artikel nicht als Benchmark genutzt.

Für den Blender-Benchmark wird die bekannte BMW-Szene in Version 2.78b genutzt, die Werte sind daher vergleichbar zu denen aus dem früheren Ryzen 1700X-Tets von Computerbase!

Ebenso sind die Cinebench R23-Benches direkt mit denen meiner LGA775-Ergebnistabelle vergleichbar, ebenso wie Geekbench 5.


Benchmark
Version
Score 1700X SMT on
Score 1700X SMT off
Score 2x X5460
SuperPI 1M​
1.9 WP​
11,61 Sek.​
11,28 Sek.​
15,27 Sek.
Geekbench 5 Tryout​
5.4.4​
947 Single
6586 Multi​
977 Single
5679 Multi​
450 Single
2585 Multi
CPU-Z​
1.99.0.x64​
407 Single
4358 Multi​
418 Single
3227 Multi​
275 Single
2253 Multi
Cinebench​
R23​
932 pts Single
8864 pts Multi​
962 pts Single
6932 pts Multi​
476 pts Single
3623 pts Multi
Blender BMW​
2.78b​
5:18 min​
7:31​
16:43 min
3DMark TimeSpy​
1.2​
Grafik 6760
CPU 7597​
Grafik 6874
CPU 5539​
---​


Bei Ausführen von 3DMark Time Spy stürzt das System bei Graphics Test 2 reproduzierbar ab und startet neu, bei einer Last von teilweise über 420 W. Vermutlich ist auch hier das Test-Netzteil nicht ausreichend dimensioniert.

Hier zeigt sich die in etwa doppelte Leistung des Ryzen, bei Blender ist sie noch höher. Am geringsten ist der Leistungsunterschied in SuperPI, aber wie eingangs erwähnt ist dieses Programm seit jeher auf Intel-Prozessoren optimiert.


Fazit


10 Jahre haben Spuren hinterlassen, in so ziemlich jeder Hinsicht. Schnittstellen, Effizienz, Kühlbarkeit, Befehlssätze und Lithographie, in allem hat es enorme Fortschritte gegeben, bei gleichzeitiger massiver Leistungssteigerung und Einführung neuer Schnittstellen und Befehlssätze.


setup.jpg

Sowas sieht man auch nicht alle Tage: moderne Grafikkarte auf altem Dual-CPU-Board


Unterm Strich ist selbst ein Ryzen der ersten Generation bereits in Single-Thread-Anwendungen etwa doppelt so schnell, während er im Extremfall (Blender Multi-Core) sogar fast dreimal so schnell rechnet, selbst bei abgeschaltetem SMT.

Gleichzeitig benötigt das Ryzen-System im Durchschnitt nur halb so viel wie das Xeon-Setup, sowohl im Idle als auch unter (Anwendungs-)Last. Unterm Strich lässt sich also festhalten, dass sich insbesondere die Performance pro Watt wirklich vervielfacht hat, was allerdings in Anbetracht der enormen Fortschritte in Chipdesign, Cache, Befehlssätze und vor allem Fertigung auch kaum verwundert.

Heutzutage ist ein solches Xeon-Setup (welches im Grundsatz auch der alten Intel Skulltrail-Plattform extrem ähnelt und daher vergleichbar ist) schlicht nicht mehr zeitgemäß, weder in Leistung noch in Verbrauch, von den Schnittstellen ganz zu schweigen. Selbst ein einfacher Ryzen 3 oder i3 bietet trotz weniger Kerne mehr oder genauso viel Leistung wie zwei Xeon X5460, bei gleichzeitig extrem verringerter Leistungsaufnahme.

Eigentlich spricht also nichts für solch ein altes Setup. Aber wo bleibt denn der Spaß wenn man nur nach Sinn oder Unsinn bewerten würde? :D

Ich hoffe euch hat die Sonntags-Frühstückslektüre gefallen. Man liest sich! :)

Viele Grüße, Taron
 
Zuletzt bearbeitet: (Weitere Alltags-Lastszenarien und Leistungsaufnahmen hinzugefügt!)
  • Gefällt mir
Reaktionen: Mystique_, Hexxxer76, Blueztrixx und 211 andere
Spannendes Experiment. Danke für die Mühe!
 
  • Gefällt mir
Reaktionen: Hexxxer76, DaBo87, fullnewb und eine weitere Person
@SV3N Wär doch was für dich oder?
 
  • Gefällt mir
Reaktionen: Hannibal Smith, Ned Flanders, coasterblog und eine weitere Person
Immer noch ein krasses Stück Hardware, wenn auch der Verbrauch es obsolet macht und ein modernes System sich beim Verbrauch selbst bezahlt macht. Dass die Treiber nach den Jahren so ein großes Problem sind wusste ich nicht, sehr interessant.
Taron schrieb:
Extrem wird das dann auch im Alltag. Über 250 W (!) genehmigte sich das System während eines Downloads eines Spiels über eine 500 MBit-Leitung, was im Taskmanager deutlich wird - 90-100 % Last auf allen acht Kernen, das sind Bilder die wir heute gar nicht mehr kennen...
Da dürfte Steam auch gleichzeitig entpacken und ggf. der Defender alles scannen? Der Ethernet link an sich sollte keine 400 Watt fressen. 90% auf dem Achtkern bleibt aber eine Ansage. Ich frage mich fast, ob das teilweise auch ein Artefakt von der Messweise des Task Managers und der Befehlssätze ist.

Das Kühlkonzept der Server gefällt mir. Über die Lautstärke brauchen wir da aber wohl nicht sprechen. :D Fürs Wohnzimmer bleibt es für mich beim dicken Kühler mit 140mm.
PERKELE schrieb:
@SV3N Wär doch was für dich oder?
Das sekundiere ich. :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Photon, Baal Netbeck und PERKELE
Super, danke für den ausführlichen Beitrag. Habe kürzlich noch genau das behauptet und mir wurde „Übertreibung“ vorgeworfen.
 
  • Gefällt mir
Reaktionen: NMA, Ned Flanders, Baal Netbeck und eine weitere Person
Looniversity schrieb:
Dass die Treiber nach den Jahren so ein großes Problem sind wusste ich nicht, sehr interessant.
Wobei ich auf meiner AMD-only Maschine nie Probleme mit AMD-Treibern bisher hatte. Ich vermute fast, dass die neueren Treiber Probleme wegen den CPUs selber machen, vielleicht wegen Befehlssätzen o.ä. - andererseits gab es keinerlei Fehlermeldungen von der Radeon Software selbst, nur via Geräte-Manager wurde ich über den Fehler der GPU informiert...
Looniversity schrieb:
Ich frage mich fast, ob das teilweise auch ein Artefakt von der Messweise des Task Managers und der Befehlssätze ist.
Die Hitzeentwicklung am System war in jedem Fall real, die habe ich ja durch Zufall wegen einer Temperaturmessung am RAM und darauf folgendem Berührungstest bemerkt. Die 250 W Leistungsaufnahme am ATX-Netzteil deuten für mich definitiv auf mittlere bis hohe Last auf den CPU-Kernen hin (Volllast in Benches etwa 260-290 W). Was genau diese Auslastung verursacht hat, keine Ahnung. In die Prozessliste hatte ich da nicht reingeschaut.

Steam schreibt definitiv Daten auf die SSD (siehe Taskmanager), und dass diese vorher entpackt werden, scheint nicht unwahrscheinlich. Ob der Defender direkt während des Downloads bei Steam direkt scannt, weiß ich nicht. So oder so ein interessantes Bild, was ich bei meinem 1700X nie beobachtet habe. Ich denke, dass auch das Dual-CPU-Prinzip und der RAM seinen Teil dazu beiträgt.
Looniversity schrieb:
Über die Lautstärke brauchen wir da aber wohl nicht sprechen.
Ja, schon ein Rack willst du nicht in der Wohnung haben. Aber zumindest sparst du bei so einem alten System einen Teil der Heizkosten. Blöd nur im Sommer, weil du dann eine Klimaanlage brauchst. :D
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Looniversity
Toller Beitrag und eine wirklich schöne Lektüre für den Sonntag Morgen :) Kleiner Wermutstropfen sind die überlastungsbedingten Abschaltungen, die sich mit einem größer dimensionierten Netzteil im Prinzip ja leicht lösen ließen. Vielleicht ein Ansatz für das nächste Update? :)
 
  • Gefällt mir
Reaktionen: 3dfx_Voodoo5, Baal Netbeck und Looniversity
Backfisch schrieb:
die sich mit einem größer dimensionierten Netzteil im Prinzip ja leicht lösen ließen. Vielleicht ein Ansatz für das nächste Update? :)
Ich müsste erst einmal ein größeres halbwegs brauchbares Netzteil beschaffen (mind. 750 oder gar 850 W sind da ja sowieso gesetzt), was aber erst einmal nicht drin ist... :heul:

Hätte auch gern gewusst, ob die Bude die 600 W knackt, ich mein - nah dran war ich ja schon. :D
 
  • Gefällt mir
Reaktionen: Backfisch
Taron schrieb:
So oder so ein interessantes Bild, was ich bei meinem 1700X nie beobachtet habe
Ja, nach 15 Jahren inkrementeller Fortschritte liegen mittlerweile tatsächlich Welten zwischen alter und neuer Hardware. Ich schreibe hier gerade auf einem 4-Kern i5 760 (Sockel 1155). Der ist drei (?) Jahre neuer als die Xeon X5460 und hängt nur an einer 50MBit/s Internetleitung, aber der hat an Steam-Downloads auch reichlich zu knabbern. 70-90% Last sind da inzwischen normal. Aber er packt es noch... gerade so. :D
Taron schrieb:
und darauf folgendem Berührungstest
Junge junge du bist mutig :D
500W in so kleinen Teilen ist mollig warm, Lüfter hin oder her.

Taron schrieb:
Aber zumindest sparst du bei so einem alten System einen Teil der Heizkosten. Blöd nur im Sommer, weil du dann eine Klimaanlage brauchst. :D
Haha oof, bei mir wird es im Sommer schon ohne Rechner 36°C im Schatten im Wohnzimmer (Dachwohnung sei "Dank"). Wenn ich noch ein halbes kW reinballern würde drehe ich durch. 😲
 
Looniversity schrieb:
Junge junge du bist mutig :D
Naja, gibt ja Abstufungen zwischen Hand auflegen und vorsichtig annähern. :D

Looniversity schrieb:
Ich schreibe hier gerade auf einem 4-Kern i5 760 (Sockel 1155). Der ist drei (?) Jahre neuer als die Xeon X5460
Das ist sogar noch LGA 1156-Plattform, also der Vorgänger von LGA 1155, der mit Sandy Bridge große Beliebtheit gewann... released wurde der i5-760 Mitte 2010, ist also nur zwei Jahre jünger als diese Plattform hier. :D
Interessanterweise ist der i5-760 ebenso wie der X5460 noch in 45 nm gefertigt, war damals einer der ersten i5 die es in den Markt geschafft haben.

Ich denke, so oder so ist dieser Test hier ein hervorragendes Beispiel dass irgendwann jede Hardware eine Ausmusterung verdient hat.
 
  • Gefällt mir
Reaktionen: NMA, 7hyrael und Looniversity
Toller Artikel - vielen Dank!
Multi Socket-Systeme haben für mich auch heute noch etwas „,magisches“ an sich… auch wenn ich genau weiß das moderne CPUs in fast allen Lagen alles stemmen können. Ist halt wie bei Multi-GPUs: Es sieht einfach geil aus 🤣
 
  • Gefällt mir
Reaktionen: floTTes und Onkel Föhn
Wirklich interessant. Super Bericht!
 
Was für ein interessanter Test... Für alle Dinonutzer sehr lesenwert. Und es zeigt sich das es ohne AVX nicht mehr wirklich geht in der Gamingwelt. Für Office noch gut nutzbar aber Gaming sieht nicht gut aus. Der Energieverbrauch ist auch jenseits von gut und böse.

Wenn ich mein System heranziehe stieg Leistung und Effizenz damals rasant an. Ich müsste mir mal die Mühe machen meines in Vergleich zu setzen. Wäre mal eine schöne Spielerrei.

Danke für deine Zeit und Gruß
Holzinternet
 
Herausragender nicht alltäglicher Lesestoff Respekt Taron 💯👍
Dem Dual CPU MB mangelt es aber nicht an Sata Ports 😁
 
Holzinternet schrieb:
Der Energieverbrauch ist auch jenseits von gut und böse.
Das Ding braucht im Idle mit minimalster Peripherie und exzellentem Netzteil (Platin halt) 130 W. Bei weniger effizientem NT dürften das 140 W oder so sein.
Moderne und selbst nicht ganz so moderne Grafikkarten senken die Leistungsaufnahme ohne 3D-Last enorm (selbst meine olle GTX 550 Ti-Test-Graka tut das) und kann daher mal vernachlässigt werden. Dennoch würde ich während typischer Office-Tätigkeit (Outlook, Excel, Word, evtl. Teams im Hintergrund) mal so 150-180 W Leistungsaufnahme nur für den Rechner ansetzen. Sind dann pro Arbeitstag (8 Std.) bei 32 Cent pro kW/h und Best-case von durchschnittlich 150 W mal eben entspannte 0,38 € - pro Tag.Bei 180 W steigt dieser Preis dann auf 0,46 € pro Tag.

Pro Jahr (180 Arbeitstage) wären das dann 68 € nur für Strom (180 W Durchschnitt 83 €) , und wehe der Nutzer nutzt die Leistung oder will gar was einfaches spielen... dann kann man den Ziffern auf dem digitalen Stromzähler bei Hochzählen zugucken. :D

Und dass sich in den letzten 15 Jahren massiv etwas im Bereich Schnittstellen, Board-Design und QoL-Features (Lüftersteuerungen, UEFI, Monitoring, Bedienung) getan hat, ist hier noch gar keine Rede. Ich bin ehrlich - ja, man muss nicht immer neu kaufen, aber ewig an alten Dingen hängen hilft auch nicht, es sei denn es ist nur noch Hobby, wie in meinem Fall...
 
  • Gefällt mir
Reaktionen: floTTes, Markchen und Holzinternet
Danke für die Aufstellung. Mein E5 Xeon 2687W v2 liegt im Windows Idle bei ca. 30 Watt. Meine Grafikkarte (Asus Strix GTX1080) bei ca. 45 Watt. Habe ein Dualmonitorsetup aus zwei 32" 1440p /144/165Hz Monitoren. Denke mal mit allen anderen Komponenten komme ich auf bummelig 100 Watt Leerlaufverbrauch. Für mich absolut in Ordnung.

Das System meiner Freundin E3 Xeon 1231v3 zieht unter 10 Watt bei der CPU. Sie hat eine MSI GTX970 an zwei 27" 1080p 60Hz Bildschirmen und auch hier ist der Leerlaufverbrauch deutlich geringer. Aber was solls... Hobby darf kosten. Stört uns nicht wirklich.

Nochmals Danke !
Holzinternet
 
Da hast du dir ja jede Menge Arbeit gemacht. Aber dafür ist das CB-Forum ja bekannt - wir schrecken weder Kosten noch Mühen. Sehr aufschlussreiche Versuchsreihe, danke dafür!
 
  • Gefällt mir
Reaktionen: Col. Jessep
@Taron
Vielen Dank für diesen schön geschriebenen und bebilderten Artikel :)

Es ist immer wieder schön, den Wandel der Zeit auch in dieser sehr technischen Form vor Augen gehalten zu bekommen.

Man kann es vergleichen mit dem eigenen Kind: siehst du es jeden Tag, fällt dir die Veränderung in seinem Wachstums- und Wissensstand nicht allzu deutlich auf. Betrachtest du dir jedoch eine 10 Jahre alte Videoaufnahme des Kindes, so fällt dir plötzlich wie Schuppen von den Augen, wie schnell die Zeit vergeht und eben auch, wie sehr sich alles in dieser Zeitspanne verändert hat.

Wir können so gesehen also nur vom Glück reden, dass selbst ein heute schon in die Jahre gekommener Ryzen 1700X das alte Doppel-Xeon-Gespann in jeder Belange spielend hinter sich lässt :)
 
Man sieht halt auch sehr gut, daß die Dinge, die "normal" erst später möglich wurden, schon vergleichsweise früh gingen... aber zu horrenden Preisen und mit horrendem Verbrauch erkauft.

Mit AMD hab ich auch immer so meine Treiberproblemchen gehabt, insbesondere mit kleineren älteren Karten. Inzwischen ist da ja APU angesagt und für die Zeit davor... gibt es nicht mehr wirklich was. Weder meine 6450 HD noch die darauffolgende 550 RX (müßte es sein) war mit aktuellen Treibern willens. Bin aber nicht mehr sicher, was für eine Treiberversion ich dann draufgepackt hatte... und das Teil ist auch nur fürs Monitoring da, ist also nicht soo besonders wichtig.

Das Layout find ich schon interessant. Sicher, daß das ein SSI ist? Und wie EATX sieht es auch nicht aus von der Dimensionierung... eher wie etwas Proprietäres. Aber okay, das ist natürlich nicht besonders wichtig.

Für mich bleibt ein Dual-CPU-Setup "erstrebenswert". Wenn da nicht die blöde Vernunft wäre :daumen:

Inzwischen sollten die Anforderungen an die verbauten AP übrigens sehr viel weniger restriktiv sein.
Das Teil muß multisockelfähig sein und muß auf den Sockel passen. Das war es schon fast wieder. SMP und damit die Beschränkung auf idem gibt es seit der Core Architektur nicht mehr, die Threads laufen alle unabhängig voneinander (zumindest im logischen Kontext, wenn vielleicht auch nicht im physischen) und kein OS der Welt interessiert sich dafür, ob Thread A und Thread B gleich schnell laufen oder nicht; das könnte man sicherlich noch ins Scheduling schieben, aber das war es dann auch.

Aber zugegeben, auch bei mir steckt "muß schon dieselbe CPU nochmal sein" tief drinnen, bis ich mich auf irgendwas anderes einlasse muß noch bissel Zeit ins Land. :daumen:
 
Zurück
Oben