Was an den Test interessant ist: Der Intel verliert beim parallelen Spielen deutlicher Zeit bei Blender, als die drei AMD. So ist der Intel mit 20 Threads bei Blender schneller als der 3950X mit 16 Threads, mit parallelen Spielen ist dann der 3950X schneller trotz 4 Threads weniger.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD Threadripper 3000: Multi-Threading mit 32 Kernen auf die Spitze getrieben
- Ersteller Jan
- Erstellt am
- Zur News: AMD Threadripper 3000: Multi-Threading mit 32 Kernen auf die Spitze getrieben
michi_z1981
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.264
Ärger? Normalerweise müsste sie den bezahlen, damit du dann zwei Spiele/Anwendungen gleichzeitig machen kannst und dann mehr Zeit für Frau/Kind hast 🤗😜Holzfällerhemd schrieb:Gott sei Dank sind die Dinger für meinen Geldbeutel zu teuer. Sonst hätte ich wohl richtig Ärger mit meiner Frau bekommen.^^
Das hat Gamers Nexus bei den Streamingtests immer festgestellt.Ozmog schrieb:Was an den Test interessant ist: Der Intel verliert beim parallelen Spielen deutlicher Zeit bei Blender, als die drei AMD. So ist der Intel mit 20 Threads bei Blender schneller als der 3950X mit 16 Threads, mit parallelen Spielen ist dann der 3950X schneller trotz 4 Threads weniger.
Bei AMD sind Stream und Game gleichberechtigt, und das Game verliert ein wenig FPS, der Stream ist gut.
Bei Intel ist das Game deutlich bevorzugt und der Stream endet in gestottere, ohne manuelle Eingriffe.
Bei AMD kann man einfach loslegen, bei Intel ist es empfehlenswert manuell die Threads zu verteilen, oder Process Lasso verwenden.
Digi Quichotte
Banned
- Registriert
- Apr. 2019
- Beiträge
- 447
Das was CB hier treibt ist zwar interessant, aber ich wünschte mir mal ein realen Anwendungstest. Das was man hier als Anwendungsleistung bezeichnet ist zumindest keine. Es sei denn, ihr testet Hardware für solche Leute, die sich ein neues System kaufen um damit Benchmarks laufen zu lassen, und sich dann großartig fühlen wenn ihr System X Punkte erreicht.
Reale Anwendungen skalieren sehr oft meistens schlecht, manche gar überhaupt nicht mit der Anzahl der Kerne. Selbst Quadcores werden von so mancher Anwendung, wie von Games nicht voll ausgereizt. Wie CB z.B. bei WinRar festgestellt hat, um es dann vom Leistungsrating auszuschließen. Wobei das eine reale Anwendung ist die sehr viele User tagtäglich benutzen. Und damit die User auch dann WinRar kaufen anstatt 7zip zu nutzen wird in der allerneuesten Version immer etwas neues implementiert, das aktuelle Versionen anderer Packprogramme erst mal nicht entpacken können. Also daß ich zig GB WinRar-Dateien entpacken muß kommt sehr häufig vor. Aber auch bei ISOs ist mMn WinRar schneller als 7zip oder WinIso, die ich ebenfalls auf dem Rechner habe.
Von MatLab z.B. berichtete CB ja neulich, daß es mit AMD-CPUs extrem schlecht läuft. Das gilt mit Sicherheit für sehr viele andere Anwendungen die mit dem Intel-Compiler erstellt wurden, oder ähnliche Szenarien. Es mag Intel daran schuld sein, aber es ändert ja nichts an der Notwendigkeit damit arbeiten zu müssen. Und nicht jeder frischgebackene Physik-Student weiß dann auch daß es einen (sehr umständlichen) Workaround gibt, damit dann auch AVX auf AMD CPUs funktioniert.
Den Ansatz die Community zu fragen für was sie denn eine HEDT benutzt/benutzen möchte ist da mal endlich ein Lichtblick am Ende des langen dunklen Benchmark-Tunnelblicks. Wie gut ein System mit Benchmark im Vergleich zu anderen Systemen abschneidet ist für den einzelnen Anwender und seinem eigenem Anwendungsszenario völlig unerheblich. Daher muß erst mal umgedacht werden. Nicht Objektivität um jeden Preis, sondern vielmehr Überlegungen anstellen für welches Szenario sich ein System eignet, bzw welches System sich für ein bestimmtes Anwendungsszenario am besten eignet.
Letztendlich ist es mMn eine falsche, weil extrem einseitige Betrachtungsweise, wie CB (und jedes andere ähnliche Format auch) vorgeht um etwas zu testen. Es ist wie bei Medizin die ausschließlich Symptome wie Kopfschmerzen mit Pillen bekämpft, anstatt nach der Ursache des Kopfschmerzes zu fragen. Nicht jeder Anwendungs-Kopfschmerz läßt sich mit mehr Kernen oder höherer CPU-Leistung bekämpfen. Es gibt z.B. Anwendungsfälle wo einfach die Menge an RAM viel höheren Einfluß hat, oder die Datenträgerleistung der Flaschenhals ist, oder die Netzwerkanbindung bremst das Ergebnis, und, und, und.
Rein nur CPU-Leistung zu benchen ist daher nicht einmal die Hälfte der Miete. Was nützt mir PCIe 4.0 wenn z.B. tatsächlich verfügbare PCIe 4.0 SSDs auf solchen Systemen langsamer laufen als andere PCIe 3.0 Lösungen? Wie ist die SATA-Kopierleistung der verschiedenen Systeme im Vergleich? Also zumindest auf dem Office-PC meiner Frau (i5-9400) ist Dank NVMe-SSD bei vielen Datei-Operationen (z.B. entpacken einer 30GB WinRar-Datei) der 6-Kerner hart am 100% CPU-Limit. Doch wo ist die Grenze? Bei wieviel GHz bzw Anzahl an Cores ist die CPU nicht mehr der Flaschenhals, sondern die NVMe-SSD-Leistung? Wie gut/schnell funktioniert NVMe-RAID? Brauche ich bei Cascalade-X dafür einen RAID-Key-Dongle? Solche und ähnliche Aspekte sind das was echte User in der wirklich realen Praxis beschäftigen. Benchmarks dagegen nicht, außer bei Ich-hab-den-Größten-Fanboys eines beliebigen Lagers.
Wie hier ständig von Anwendungsleistung und Benchmark-Ergebnisse einfach gleichgesetzt werden, und so bei dem unwissenden User so akzeptiert wird, empfinde ich schlichtweg als unseriös. Das gilt für jeden Hardware-Test einer CPU, egal welcher Marke. Schon bei der Einführung eines 10-Kerners seitens Intel, später dann TR1/2, aber spätestens jetzt bei so einem Rechenmonster wie TR3000 muß man sich doch erstmal die Frage stellen: Wofür?
Ich hoffe ihr zieht aus dem Ergebnis eurer Nutzerumfragen, die viel detaillierter sein sollten, auch entsprechende Konsequenzen.
Nachtrag: Was mir am meisten fehlt sind halt Gesamtbetrachtungen die das MB einschließen. Was nützt einem eine in theoretischen Benchmarks super tolle CPU, wenn die zur Verfügung stehende Plattform in der einen oder anderen Disziplin versagt? Mann kann doch nicht jeden Aspekt der Systemleistung rein nur aus der CPU-Leistung ableiten.
Reale Anwendungen skalieren sehr oft meistens schlecht, manche gar überhaupt nicht mit der Anzahl der Kerne. Selbst Quadcores werden von so mancher Anwendung, wie von Games nicht voll ausgereizt. Wie CB z.B. bei WinRar festgestellt hat, um es dann vom Leistungsrating auszuschließen. Wobei das eine reale Anwendung ist die sehr viele User tagtäglich benutzen. Und damit die User auch dann WinRar kaufen anstatt 7zip zu nutzen wird in der allerneuesten Version immer etwas neues implementiert, das aktuelle Versionen anderer Packprogramme erst mal nicht entpacken können. Also daß ich zig GB WinRar-Dateien entpacken muß kommt sehr häufig vor. Aber auch bei ISOs ist mMn WinRar schneller als 7zip oder WinIso, die ich ebenfalls auf dem Rechner habe.
Von MatLab z.B. berichtete CB ja neulich, daß es mit AMD-CPUs extrem schlecht läuft. Das gilt mit Sicherheit für sehr viele andere Anwendungen die mit dem Intel-Compiler erstellt wurden, oder ähnliche Szenarien. Es mag Intel daran schuld sein, aber es ändert ja nichts an der Notwendigkeit damit arbeiten zu müssen. Und nicht jeder frischgebackene Physik-Student weiß dann auch daß es einen (sehr umständlichen) Workaround gibt, damit dann auch AVX auf AMD CPUs funktioniert.
Den Ansatz die Community zu fragen für was sie denn eine HEDT benutzt/benutzen möchte ist da mal endlich ein Lichtblick am Ende des langen dunklen Benchmark-Tunnelblicks. Wie gut ein System mit Benchmark im Vergleich zu anderen Systemen abschneidet ist für den einzelnen Anwender und seinem eigenem Anwendungsszenario völlig unerheblich. Daher muß erst mal umgedacht werden. Nicht Objektivität um jeden Preis, sondern vielmehr Überlegungen anstellen für welches Szenario sich ein System eignet, bzw welches System sich für ein bestimmtes Anwendungsszenario am besten eignet.
Letztendlich ist es mMn eine falsche, weil extrem einseitige Betrachtungsweise, wie CB (und jedes andere ähnliche Format auch) vorgeht um etwas zu testen. Es ist wie bei Medizin die ausschließlich Symptome wie Kopfschmerzen mit Pillen bekämpft, anstatt nach der Ursache des Kopfschmerzes zu fragen. Nicht jeder Anwendungs-Kopfschmerz läßt sich mit mehr Kernen oder höherer CPU-Leistung bekämpfen. Es gibt z.B. Anwendungsfälle wo einfach die Menge an RAM viel höheren Einfluß hat, oder die Datenträgerleistung der Flaschenhals ist, oder die Netzwerkanbindung bremst das Ergebnis, und, und, und.
Rein nur CPU-Leistung zu benchen ist daher nicht einmal die Hälfte der Miete. Was nützt mir PCIe 4.0 wenn z.B. tatsächlich verfügbare PCIe 4.0 SSDs auf solchen Systemen langsamer laufen als andere PCIe 3.0 Lösungen? Wie ist die SATA-Kopierleistung der verschiedenen Systeme im Vergleich? Also zumindest auf dem Office-PC meiner Frau (i5-9400) ist Dank NVMe-SSD bei vielen Datei-Operationen (z.B. entpacken einer 30GB WinRar-Datei) der 6-Kerner hart am 100% CPU-Limit. Doch wo ist die Grenze? Bei wieviel GHz bzw Anzahl an Cores ist die CPU nicht mehr der Flaschenhals, sondern die NVMe-SSD-Leistung? Wie gut/schnell funktioniert NVMe-RAID? Brauche ich bei Cascalade-X dafür einen RAID-Key-Dongle? Solche und ähnliche Aspekte sind das was echte User in der wirklich realen Praxis beschäftigen. Benchmarks dagegen nicht, außer bei Ich-hab-den-Größten-Fanboys eines beliebigen Lagers.
Wie hier ständig von Anwendungsleistung und Benchmark-Ergebnisse einfach gleichgesetzt werden, und so bei dem unwissenden User so akzeptiert wird, empfinde ich schlichtweg als unseriös. Das gilt für jeden Hardware-Test einer CPU, egal welcher Marke. Schon bei der Einführung eines 10-Kerners seitens Intel, später dann TR1/2, aber spätestens jetzt bei so einem Rechenmonster wie TR3000 muß man sich doch erstmal die Frage stellen: Wofür?
Ich hoffe ihr zieht aus dem Ergebnis eurer Nutzerumfragen, die viel detaillierter sein sollten, auch entsprechende Konsequenzen.
Nachtrag: Was mir am meisten fehlt sind halt Gesamtbetrachtungen die das MB einschließen. Was nützt einem eine in theoretischen Benchmarks super tolle CPU, wenn die zur Verfügung stehende Plattform in der einen oder anderen Disziplin versagt? Mann kann doch nicht jeden Aspekt der Systemleistung rein nur aus der CPU-Leistung ableiten.
Zuletzt bearbeitet:
N
NurDownloadWill
Gast
Endlich haben AMD-Fanboys ihre Sternstunde! Was aber, wenn Intel plötzlich im 7nm-Bereich ankommen würde? Gott bewahre - sehe schon Linus und Co wie alte Waschweiber auf youtube darüber schwätzen und wie sie dann alle auf den intel-Zug wieder aufspringen würden... alles Hypocrites
wern001
Admiral
- Registriert
- Mai 2017
- Beiträge
- 7.541
Digi Quichotte schrieb:Wie hier ständig von Anwendungsleistung und Benchmark-Ergebnisse einfach gleichgesetzt werden, und so bei dem unwissenden User so akzeptiert wird, empfinde ich schlichtweg als unseriös. Das gilt für jeden Hardware-Test einer CPU, egal welcher Marke. Schon bei der Einführung eines 10-Kerners seitens Intel, später dann TR1/2, aber spätestens jetzt bei so einem Rechenmonster wie TR3000 muß man sich doch erstmal die Frage stellen: Wofür?
Ich hab es in einem anderen Thread schon mal geschrieben: Die meisten Leute hier können sich nichts vorstellen für was man sowas brauchen könnte.
Es gibt genügend Software die alles an Rechenleistung nimmt was es bekommen.
Im Professionellen Bereich gibt es Audio-/Video-Software die mit 100 Audio-Spuren gleichzeitig hantieren oder auch 4 GPUs gleichzeitig auf Anschlag belasten. Die Workstations dazu sind dann Dual oder Quad-Xeons wo jede CPU gerne mal 3-4000€ Kostet. Das Mainboard da zu auch gerne mal 1500-2000€. 4x 8 Core CPU sind auch 32 Kerne!
AMD hat jetzt einen Paukenschlag gemacht das auf einmal ein 20-40.000€ System für Privatanwender oder im Semi-professionellen bereich bezahlbar macht. Sowas war bis jetzt den Intel Xeons vorbehalten.
Ich glaube jetzt mal nicht, dass hier die Rumheuler sich mal in der Workstation Preisklasse jenseits 20.000€ umgeschaut haben und rum heulen für was brauch man sowas. Die hatten sie Preis- und Leistungsklasse nie auf dem Schirm oder daran gedacht das es sowas überhaupt gibt.
Es gab vor 5-6 Jahren schon Systeme mit 32 Kerne! Wieso wird jetzt erst rumgeheult? Sowas gab es halt in der Liste von Geizhals ect.pp nicht. Die ganzen Versandhändler hatten sowas auch nicht, aber es gab 32 Kern Systeme und zwar fast ausschließlich von Intel mit ihren Xeon-CPUs.
AMD hat Intel jetzt einen Stein in den Garten geworfen der so groß ist das die Ihre Kinnlade nicht mehr zu bekommen. Auf einmal sind 16, 32 oder gar 64 Kerne im Mainstream aufgetaucht und die wenigsten können sich vorstellen für was man sowas brauch. Für Daddeln, Katzenvideos auf Youtube hochladen und Pornos schauen brauch man keine +16 Kerne. Im Professionellen Bereich ist sowas nichts besonderes. Die haben sowas, die brauchen sowas und die nutzen sowas. Auch im Server-Bereich gibt es Multi-Sockel schon seit 20 Jahren. Da hatte man dann 8 Kerne. Es war halt nur nicht möglich die unter einen Deckel zu bekommen.
CB ist da auch etwas in der klemme. Soll man Software für 20.000€ testen die 99% der User hier nicht nutzen/kennen oder je etwas gehört haben? Dann wird wieder rumgeheult, was das für ein mist, brauch doch niemand.
Das mit dem mehrere Software gleichzeitig laufen lassen ist eine super Sache.
PS:
Ich hab einen Dual-Quad Xeon und einen TR.
Bin ich jetzt ein Intel und AMD Fanboy?
Dürfen die mich jetzt abwechselnd Loben und Steinigen? Wer verarztet mich? die VIA-Fanboys?
Zuletzt bearbeitet:
Dir ist schon klar, dass es hier um Produkte geht und man das empfiehlt was gerade am besten ist?NurDownloadWill schrieb:... alles Hypocrites
Klingt ja wie ein Glaubenskrieg bei dir. Werd erwachsen: es ist eine CPU und es ist nicht schlimm wenn Linus aktuell AMD besser findet und in 3 Jahren evtl wieder INTEL. Das hat nichts mit Hypocrites zu tun.
N
NurDownloadWill
Gast
Dann schau dir mal seine letzten Videos an... grenzt schon an Bashing gegen Intel, was er da vorliest#basTi schrieb:Dir ist schon klar, dass es hier um Produkte geht und man das empfiehlt was gerade am besten ist?
Klingt ja wie ein Glaubenskrieg bei dir. Werd erwachsen: es ist eine CPU und es ist nicht schlimm wenn Linus aktuell AMD besser findet und in 3 Jahren evtl wieder INTEL. Das hat nichts mit Hypocrites zu tun.
Selbst wenn? Was ist daran heuchlerisch?NurDownloadWill schrieb:Dann schau dir mal seine letzten Videos an... grenzt schon an Bashing gegen Intel, was er da vorliest
Digi Quichotte
Banned
- Registriert
- Apr. 2019
- Beiträge
- 447
wern001 schrieb:Ich hab es in einem anderen Thread schon mal geschrieben: Die meisten Leute hier können sich nichts vorstellen für was man sowas brauchen könnte.
Es gibt genügend Software die alles an Rechenleistung nimmt was es bekommen.
Im Professionellen Bereich gibt es Audio-/Video-Software die mit 100 Audio-Spuren gleichzeitig hantieren oder auch 4 GPUs gleichzeitig auf Anschlag belasten.
OK, Du hast die Frage ("Wofür") falsch verstanden. Daß es solche Software gibt, steht außer Frage. Und das kann/konnte ich mir auch immer sehr gut vorstellen. Nur die Frage ob solche spezielle Software in jedem Fall auch so gut funktioniert wie spezielle Benchmarks, und ob das Resultat von Benchmark-Ergebnissen in der realen Praxis solcher speziellen Software sich wirklich so gut interpolieren lassen, das ist die Frage.
Bislang ist es eben eine pure Annahme (daß dem so ist) und sonst nichts. MatLab war ein bereits bekanntes Problem, Adobe Premiere ist ein anderer Stichpunkt, bei Profi Audiosoftware gibt es sicher auch gewisse Eigenheiten. Vielleicht ist in deiner professionellen Audiobearbeitungs-Anwendungskette irgendwo ein Modul drin, das mit einem Intel Compiler erstellt wurde, weißt Du das? Und vielleicht nimmt deine Softwarte zwar jede Rechenleistung und Kern den sie kriegen kann, aber nur solange dieser Kern eben von Intel und nicht von AMD kommt? Und was machst Du dann? Wechselst Du deine spezielle Anwendungskette für zig tausende €, damit Du künftig ein paar tausend € bei der Hardware sparen kannst? Allein ein plug-In für solche Software kostet manchmal gut und gern vierstellig. Und da wären wir schon beim nächsten Punkt: PluIns - das selbe Spiel wie Mods bei Spielen. Selbst wenn die Hauptanwendung (das Game) gut skaliert, oft arbeiten gerade Profis mit Spezial-PlugIns (Mods). Und diese sind überhaupt nicht optimiert. Die Folge ist, daß das Programm, z.B. Photoshop aus meinem Erfahrungsumfeld (Skyrim oder Fallout als Beispiel-Game) zwar gut skaliert aber einzelne PlugIns (Mods) gar nicht, und so die Gesamtleistung in den Keller geht. Für Photoshop hab ich z.B. ca. 1000 PluIns, z.T. für sehr spezielle Zwecke wie z.B. Tumorerkennung in der Medizin. Damit das alte PlugIn überhaupt auf aktuelle PS-Versionen läuft muß man erst einen 32-64 Bit Umwandler dazwischenschalten.
Aber letztendlich sagst Du selbst, daß deine Software-Beispiele eben nicht HEDT (HighEnd/Enthusiast für den privaten Anwender, für private Nutzung) sind, sondern mehr dem Workstation-, bzw Serverbereich entstammen und für (semi-)professionelle Einsatzzwecke gedacht sind.
Wenn wir aber über eine HEDT-Plattform reden, dann reden wir aber über Enthusiasten-Bereich. Entweder man rechnet die Ryzen TRX40 Familie zum Server/Workstation Bereich, und vergleicht sie mit Xeon-Lösungen, oder aber eben zum Enthusiasten-Bereich sprich HighEnd für den privaten Anwender. Ich kann doch nicht einerseits schreiben daß TRX40 Intels Cascalade-X beerdigt, auf der anderen Seite dann sagen daß TRX40 als Alternative zum Xeon-Serverumfeld zu sehen ist.
Also entweder nutze ich ein TRX40-System im privaten Rahmen, dann enthält die Frage "wofür" durchaus Qualität, oder aber ich sage das ist ein System für (semi-)professionelle Anwendungsumgebungen, dann kann ich aber nicht mit einem System vergleichen das vornehmlich an den anspruchsvollen Gamer gerichtet ist.
Genau hier sind ja in dem Thread durchaus Anwendungsszenarien genannt worden. Zocken und zugleich Streamen, was man bei gehobenen Ansprüchen (4k) üblicherweise mit 2 Rechnern macht.
So etwas wäre ein sinnvoller Test, ein CPU-lastigen Titel wie AC Odyssey auf 4K zocken und dann bei guten Qualitätseinstellungen zeitgleich in 4K streamen. Das nenne ich Anwendung. Irgendein Benchmark ist nur belanglose, sinnlose und absolut nichts aussagende Spielerei. Und wenn ich 3 Benchmarks zeitgleich laufen lasse, dann ist es sinnlos hoch drei. Denn für denjenigen der für genau diesen realen Anwendungszweck sich ein neues System zulegen möchte, sind Benchmarks keine wirkliche Entscheidungshilfe.
chithanh
Commodore
- Registriert
- Okt. 2013
- Beiträge
- 4.142
Kommt drauf an, wie stark die Prozessverwaltung des Betriebssystems gefordert ist. Je stärker, desto größer ist der Vorteil von Linux. Hier ein Vergleich der Compile-Performance zwischen Windows (bei Tom's Hardware) und Linux (bei Techgage):-Ps-Y-cO- schrieb:Ich wage es zu behaupten, dass unter Linux alles besser läuft. (bis auf Spiele ohne Vulkan-API!)
Schau dir mal Tests zwischen 3950X, 3970X und i9-10980XE unter Linux an.
- Registriert
- Mai 2011
- Beiträge
- 21.049
Für den Test hier wurden die Kerne aber doch manuell festgelegt und trotzdem bricht bei Intel die Anwendungsleistung mehr einbad_sign schrieb:Bei AMD kann man einfach loslegen, bei Intel ist es empfehlenswert manuell die Threads zu verteilen, oder Process Lasso verwenden.
@Digi Quichotte Ich gebe dir größtenteils Recht, aber bedenke bitte eine Sache bei deinen Ausführungen: Blender ist kein Benchmark, sondern eine Anwendung. Und wenn's nur benutzt wird, damit ein Youtuber seine Thumbnail damit erstellt.
michi_z1981
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.264
Ich finde das einen guten Nachweis über die Leistung.
Immerhin wollen wir, die Anwender viele Kerne, und da zeigt sich dann doch, das der TR vier 3700x mit 8c/16t (annähernd) ersetzen oder vereinen kann.
Es ist, in meinen Augen, keine wirkliche Schwachstelle zu sehen. Die SSDs, der RAM, das Mainboard, die Grafikkarte, alles arbeitet unter dieser Last immer noch besser, als in den meisten FertigPCs.
Echtes Multitasking.
Wie praxisorientiert das ist, kann sich jeder ausrechnen.
Prinzipiell gibt's mMn drei Gruppen.
Die Zocker, die Zocker die streamen und die die Medien bearbeiten. Zumindest im Hobbybereich.
Und einerseits das Video rendern und auf dem zweiten Monitor Mal schnell eine Runde zu spielen, so schlecht kann das nicht sein.
Früher hat dich das die ganze Nacht gekostet. Das Video wurde nicht fertig, ergo bist nicht, wie verabredet, online zum spielen erschienen.
Immerhin wollen wir, die Anwender viele Kerne, und da zeigt sich dann doch, das der TR vier 3700x mit 8c/16t (annähernd) ersetzen oder vereinen kann.
Es ist, in meinen Augen, keine wirkliche Schwachstelle zu sehen. Die SSDs, der RAM, das Mainboard, die Grafikkarte, alles arbeitet unter dieser Last immer noch besser, als in den meisten FertigPCs.
Echtes Multitasking.
Wie praxisorientiert das ist, kann sich jeder ausrechnen.
Prinzipiell gibt's mMn drei Gruppen.
Die Zocker, die Zocker die streamen und die die Medien bearbeiten. Zumindest im Hobbybereich.
Und einerseits das Video rendern und auf dem zweiten Monitor Mal schnell eine Runde zu spielen, so schlecht kann das nicht sein.
Früher hat dich das die ganze Nacht gekostet. Das Video wurde nicht fertig, ergo bist nicht, wie verabredet, online zum spielen erschienen.
Digi Quichotte
Banned
- Registriert
- Apr. 2019
- Beiträge
- 447
michi_z1981 schrieb:Immerhin wollen wir, die Anwender viele Kerne,
Ähhm, nö? Oder willst Du wirklich allen Ernstes behaupten daß man kein Anwender ist wenn man nicht den Wunsch nach vielen Kernen hat, sondern nach jede Menge Ram, hohen Datenträgerdurchsatz, oder generell seine Prioritäten anders setzt?
michi_z1981 schrieb:Es ist, in meinen Augen, keine wirkliche Schwachstelle zu sehen. Die SSDs, der RAM, das Mainboard, die Grafikkarte, alles arbeitet unter dieser Last immer noch besser, als in den meisten FertigPCs.
Und wieso arbeitet bootet dann ein Spiel von einer PCIe 4.0 SSD auf X570/R9 3900x langsamer als eine PCIe 3.0 SSD auf einem Z390 MB? Zumindest laut Test den Gamershardware neulich gemacht hat.
Echtes Multitasking.
Wie praxisorientiert das ist, kann sich jeder ausrechnen.
Prinzipiell gibt's mMn drei Gruppen.
Die Zocker, die Zocker die streamen und die die Medien bearbeiten. Zumindest im Hobbybereich.
michi_z1981 schrieb:Und einerseits das Video rendern und auf dem zweiten Monitor Mal schnell eine Runde zu spielen, so schlecht kann das nicht sein.
Da sprichst Du mir aus der Seele. Doch woher weißt Du das, wenn niemand das testet? Die Annahme daß dies genau so gut gelingt wie die Benchmarks laufen ist am Schluß nichts anderes wie ein Zirkelbeweis, sprich nicht zulässig.
Vereinfacht gesagt: Nur weil Software A (Benchmarks) beim System A 70% schneller läuft als auf einem Vergleichssystem, heißt das nicht zwingend, daß Software B (reale Anwendung in der Praxis) ebenfalls 70% schneller läuft. Dieser Eindruck wird bei den ganzen Benchmark-Tests aber erweckt, und das ist was ich als falsch empfinde.
wern001
Admiral
- Registriert
- Mai 2017
- Beiträge
- 7.541
Digi Quichotte schrieb:Irgendein Benchmark ist nur belanglose, sinnlose und absolut nichts aussagende Spielerei. Und wenn ich 3 Benchmarks zeitgleich laufen lasse, dann ist es sinnlos hoch drei. Denn für denjenigen der für genau diesen realen Anwendungszweck sich ein neues System zulegen möchte, sind Benchmarks keine wirkliche Entscheidungshilfe.
Genau dafür sind doch Benchmarks da! Um belanglose, sinnlose Dinge zu tun und dann eine oder auch mehrere Zahlen auszuspucken! Das ist die einzige Möglichkeit verschiedene Systeme Miteinander zu vergleichen. Des weiteren Sind das keine Syntetischen Benchmarks sonder ganz Normale Programme mit einer Benchmark-Funktion.
z.B
Benchmark erreicht auf einem 4 Kern System 100 Punkte
gleicher Benchmark erreicht auf einem 16 Kern System 398 Punkte
Dann kann man doch davon ausgehen das ein Programm, welches ebenfalls alle Kerne nutzt, abgesehen von Programmfehlern, absichtliches Verlangsamen... genauso gut skaliert.
Hier auf CB werden sehr oft oder auch fast immer auch Single-Core Benchmarks angezeigt die genau dein Problem mit Plugins die nur einen Kern nutzen Benchmarken.
Bei so Generationswechsel zwischen CPUs kann man nicht sagen 4 GHz sind 4 GHz
Single-Core Benchmark auf alten 4 GHz System -> 100 Punkte
Single-Core Benchmark auf neuem 4 GHz System -> 110 Punkte
Dann kann man doch davon ausgehen das andere Software ebenfalls schneller wird. Ob die eigene Software jetzt nur um 8% oder gar 12% schneller wird kann man leider nicht sagen. Aber vielleicht hat die Software ja eine Benchmark Funktion.
Photoshop ist so eine bää Software die von zig Leuten zusammengeschustert wurde aber leider kann man nicht ohne. Teile von Photoshop nutzen nur einen Kern andere nur 4 Kerne ein paar wenige alle Kerne und einige wenige sogar die GPU.
z.B. Photoshop 64 Bit unterstützt kein 32-Bit Twain-Treiber (wieso können andere Programme das? Schon mal bei einem Scanner-Hersteller nach einem 64-Bit Twain-Treiber gefragt?)
Photoshop 32 Bit unterstützt 32 Bit-Twain-Treiber (Photoshop erkennt Scanner und scannen wie in jedem anderen Programm ist möglich)
Wenn ich es noch richtig im Kopf habe gab es bis zur 2015er Photoshop Version auch eine 32Bit Edition.
Wäre es nicht sinnvoll eine 32-Bit Version von Photoshop zu installieren und die Plugins ohne Konverter zu nutzen? Oder beim Hersteller nachfragen ob die eine neue Version haben.
Oft ist es so das alte Programme auf neuen CPUs zwar laufen diese aber nicht ausreizen können weil sie die nötigen Spezialbefehle nicht beherrschen z.B: MMX, SSE, SSE2, SSE3, SSSE3, AVX, AVX2 um nur ein paar zu nennen. Diese beschleunigen Programme extrem. Auch dafür gibt es Benchmarks
Digi Quichotte schrieb:Vereinfacht gesagt: Nur weil Software A (Benchmarks) beim System A 70% schneller läuft als auf einem Vergleichssystem, heißt das nicht zwingend, daß Software B (reale Anwendung in der Praxis) ebenfalls 70% schneller läuft. Dieser Eindruck wird bei den ganzen Benchmark-Tests aber erweckt, und das ist was ich als falsch empfinde.
Vielleicht hast Du es noch nicht bemerkt es gibt zwei Arten von Benchmarks.
Einmal Syntetische Benchmarks z.B Aida64, 3D-Mark...
und Programme mit Benchmark Funktion: z.B. Blender, POV-Ray, Corona, 7zip...
Die Programme die hier Benchmarks machen sind keine richtigen Benchmark Programme. Das sind echte Programme mit einer Benchmark Funktion. z.B. Aida64 hat viele Syntetische Benchmark Funktionen die oft sehr wenig Rückschlüsse auf echte Programme geben, aber sehr genau die Rechenleistung einzelner CPU Funktionen wiederspiegeln. 3D-Mark ist ein Spiele Benchmark das zwar das System komplett auslastet aber wenig über Leistung einzelner Spiele wiedergibt.
Bei Programmen mit Benchmark Funktion kann man eher Rückschlüsse auf die eigene Software machen. Was soll es das die eigene Software nur 65% schneller wird statt 70%
Wenn Du wissen willst wie schnell dein 32 Bit Tumor erkennungsplugin in Photoshop auf einen neuen PC ist frag den Hersteller oder bitte den Hersteller eine Benchmark Funktion einzubauen. Ich wusste nicht mal das es sowas für Photoshop gibt. Ich dachte bis jetzt für sowas gibt es eigene Software.
michi_z1981
Lt. Commander
- Registriert
- Sep. 2006
- Beiträge
- 1.264
@Digi Quichotte
Warum muss ich dann x Wochen auf meinen 3900x warten, wenn die keiner will?
Ansonsten sind Benchmarks nur in Zahlen gepresste Vergleiche was unterschiedliche CPU in ähnlichen Situationen leisten können.
Eine Orientierung was die Prozessoren vergleichbar macht. Ich musste die Tests von CB und anderen Seiten nachmachen, um meinen 3930k mit neueren Modellen vergleichbar zu machen.
Da wird von meinerseite nix rein interpretiert. Zumindest nicht mehr als notwendig.
Warum muss ich dann x Wochen auf meinen 3900x warten, wenn die keiner will?
Ansonsten sind Benchmarks nur in Zahlen gepresste Vergleiche was unterschiedliche CPU in ähnlichen Situationen leisten können.
Eine Orientierung was die Prozessoren vergleichbar macht. Ich musste die Tests von CB und anderen Seiten nachmachen, um meinen 3930k mit neueren Modellen vergleichbar zu machen.
Da wird von meinerseite nix rein interpretiert. Zumindest nicht mehr als notwendig.
Jesterfox
Legende
- Registriert
- März 2009
- Beiträge
- 44.484
Man darf auch nicht vergessen das FF XIV wesentlich neuer ist und vor allem schon deren zweiter Anlauf. Die Engine von 1.0 konnte nicht mal 10 Leute auf einem Fleck vernünftig verwalten und das noch ganz ohne Kampfeffekte. So ne Engine mal komplett neu zu programmieren ist n riesen Aufwand, das was die da bei FF gemacht haben war einfach nur Wahnsinn. Ich glaub jeder andere Publisher hätt das Projekt einfach sterben lassen anstatt das so durchzuziehen ;-)Phobos1083 schrieb:Wahnsinn das Blizzard das immer noch nicht in den Griff bekommen hat.
In Final Fantasy XIV habe ich in 24er Allianzraids trotz massivem Effektgewitter mit meinem 1600X ! Eigentlich nie unter 70 FPS (1440p).
Ähnliche Themen
- Antworten
- 147
- Aufrufe
- 26.261