Test High-End-CPUs im Test: Intel Skylake-X Refresh vs. AMD Threadripper

@ScaryRage Der i9 9900k unterscheidet sich grundlegend vom i7 9800x was die Verbindung von Rechenkernen und Cache angeht. Beim i9 gibt es den sogenannten Ringbus, beim i7 das sogenannte Mesh. Der Ringbus ist bei diesen Kernzahlen besser was Latenzen angeht, wird aber deutlich komplizierter umzusetzen bei mehr als 8 Kernen; das Mesh erlaubt relativ einfache Skalierung was die Kernzahl angeht, muss aber höher getaktet werden und braucht schnellen RAM, um auch nur annähernd an den Ringbus dran zu kommen, was Latenzen angeht. Für Spiele ist das ‚wichtig‘, für Anwendungen eher weniger. Völlig egal ist es bei datenparallelen Anwendungen, wie zum Beispiel beim Rendern, da sind die Unterschiede zwischen i9 und i7 auch nicht groß bei gleichem Takt. Ansonsten hat der i7 die klassischen HEDT-Vorzüge: Mehr PCIe-Lanes, Quad Channel Speicherinterface, ...
 
  • Gefällt mir
Reaktionen: user2357, Hatch und Rockstar85
Pokerfail schrieb:
Wir können nicht immer auf Software schauen, die nur einen Kern verwendet. Im nächsten Jahr werden mindestens 12 Kerne im Mainstream zum Standard.
Derzeit sind wir bei einem Anteil von gut 9% bei 6 Kernen und 1,5% bei 8 Kernen und Du siehtst nächstes Jahr "mindestens!" 12 Kerne im Mainstream als Standard an?

Wenn Software dann immer noch über 90% der CPU Leistung liegen lässt, dann sollten die Entwickler endlich handeln.
Die Entwickler haben schon vor Ewigkeiten angefangen zu handeln. Es ist aber einfach nicht machbar. Es gibt zu viele Problemstellungen in der Programmierung, die sich durch Erhöhen der Kernanzahl nicht schneller lösen lassen.
Das hat überhaupt nichts mit der Unfähigkeit von Programmierern zu tun, oder dass sie nicht wollen würden.

Die Leistung eines einzelnen Kerns ist seit Jahren kaum noch steigerbar und das sollten Softwareentwickler endlich anerkennen.
Siehe oben- Du zeigst überhaupt kein Verständnis für Mathematische und algorithmische Gesetzmäßigkeiten.
Du musst endlich anerkennen, dass man in der Programmierung oftmals bei Routinen auf ein konsistentes Ergebnis warten muss, bevor man weiterrechnen kann. Bei einer Rechnung 1+1 kannst Du auch 1000 Kerne haben. Das Ergebnis um nach dieser Aufgabe weiterrechnen zu können, kommt dadurch nicht schneller.

Gründe dafür sind Probleme bei der Kühlung bei zu hohen Taktfrequenzen, schwierig zu senkende Speicherlatenzen und kaum noch steigerbare Parallelität auf Instruktionsebene.
Oben forderst Du das Unmögliche, was Du in diesem Absatz stillschweigend akzeptierst:"...kam noch steigerbare Parallelität auf Instruktionsebene"

In der Zukunft wird der Trend daher noch stärker zu immer noch mehr Kernen bei kaum oder gar nicht mehr steigender Single-Thread-Leistung gehen.
Aufgrund der oben beschriebenen Problematiken ist aber sehr schnell schluss mit Geschwindigkeitszuwächsen, da diese Kerne bei vielen Aufgabenstellungen außen vor gelassen werden.

Übrigens ist auch Single-Core-Cinebench im Test enthalten. Allerdings trennt das gesamte Testfeld da gerade mal 30%, weil da einfach schon sehr stark am Limit operiert wird.
Das ist eine ganze Menge, wenn man bedenkt, dass das der Leistungsunterschied ist, der immer und überall bei jedem Programm und jeder Aktion ankommt.

Grüße
Zero
 
  • Gefällt mir
Reaktionen: tomasvittek, kisser, rentex und eine weitere Person
gunmarine schrieb:
Nehmen wir mal an die Ryzens würden von Intel kommen, dann wäre das ja so als würde man zur alten Generation greifen würde, obwohl die neue (schnellere) schon auf dem Markt ist. Wieso sollte ich jetzt was veraltetes kaufen
... bitte was? :freak:
 
  • Gefällt mir
Reaktionen: Rage
Trochaion schrieb:
Da schieben sich alle gegenseitig den schwarzen Peter zu. Die Softwareunternehmen sehen vor allem eine Menge Arbeit, denn manche Workloads lassen sich nicht sehr einfach parallelisieren. Schaut z.B. mal Star Citizen an, wie viel Zeit da gebraucht wurde, die Engine auf x64 und Multicore umzubauen. Und die CPU-Hersteller stoßen an die Grenzen der Machbarkeit pro Kern. Aber uns bleibt hier nichts anderers übrig. Was sollen wir denn machen, 5nm ? 3nm ? Ohne eine komplett neue Architektur mit neuen Materialien statt Halbleitern kommen wir pro Kern einfach nicht mehr viel weiter. Intel war damit jahrelang zufrieden, einfach nur auf Takt zu optimieren, die devs konnten sich zurücklehnen, die Verbraucher haben gemurrt, aber hatten keine andere Wahl. Und jetzt ernten wir die Früchte dieser Faulheit.

Du widersprichst Dir selbst- Einerseits betonst Du, was für ein Irrer Aufwand betrieben wird, um Engines Multicore- Fähig zu machen und andererseits stellst Du die Devs im letzten Absatz als Faul hin?

Wir ernten gerade die früchte von Jahrelangen Verbesserungen und hochoptimierten APIs, die mit extrem viel Know How entwickelt wurden, um gewisse Dinge überhaupt auf mehrere Kerne verteilen zu können, fast bis zur Verstümmelung des Grenznutzens!

Also ist genau das Gegenteil der Fall- Wir sind nah an der Grenze des programmiertechnisch Sinnvollen, was die Parallelisierung von z.B. Spielesoftware anbelangt.
 
Zuletzt bearbeitet:
kokiman schrieb:
Steht nicht DDR5 in den Startlöchern? Keine Ahnung ob du in 5 Jahren wirklich nochmal DDR4 Ram kaufen möchtest. Es entwickeln sich nicht nur CPUs weiter ;) NVMe und lustigerweise ein RAM Upgrade waren z.B. ein Grund warum ich mein 3570k eingestaubt habe und das trotz dessen dass er leistungsmäßig immer noch top war. Und das Teil hat mich gerade mal ~220€ oder so gekostet.

Du kannst den 2700x sicherlich noch in 5 Jahren nutzen aber die leichten Schwächen oder Nachteile die er jetzt in Spielen zeigt werden in 5 Jahren dann vermutlich deutlicher.


Wir sprechen uns dann mal in 5 Jahren wenn Dir Intel & MS dann die Zwangs Updates drauf geklatscht haben ob Du willst oder nicht. Mal sehen ob Dein ach so toller geliebter Intel dann immer noch keine Prrobleme macht. :evillol:
 
Bei Bedarf wären die AMD meine erste Wahl. Der Preis ist schließlich auch ausschlaggebend.
 
ThePowerOfDream schrieb:
Wir sprechen uns dann mal in 5 Jahren wenn Dir Intel & MS dann die Zwangs Updates drauf geklatscht haben ob Du willst oder nicht. Mal sehen ob Dein ach so toller geliebter Intel dann immer noch keine Prrobleme macht. :evillol:
Selten so einen wirren Post gelesen. Was willst Du uns eigentlich damit sagen?
Dass in 5 Jahren ein Intel Prozessor Probleme aufgrund von "Zwangsupdates" machen wird?
Ernsthaft?

Kokiman hat doch völlig Recht. In 5 Jahren gibts ne neue Generation an RAM, ne neue Generation an PCIe und und und....
Nur ein verschwindend geringer Teil wird da einen Upgrade- Pfad wählen, einen leicht schnelleren, alten Prozessor auf sein noch älteres Board zu stecken. Da kann ich mir das "Aufrüsten" gleich sparen.
Man rüstet ja deshalb auf um technologisch insgesamt wieder besser dazustehen.
Dieses "Mainboard über mehr als 2 Generationen weiternutzen" liegt fernab jeglicher Realitäten und Ökonomie.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, druckluft und Stuntmp02
@ThePowerOfDream
Wieso sollte man an meiner Aussage erkennen können, dass es hier immer schlimmer mit den Intel Verliebten wird?

Was soll denn ein "Intel Verliebter" sein? Die Aussage bezüglich des Plattformwechsels ist unabhängig von einer Marke getroffen worden.
Was wird denn GENAU schlimmer?
Was stimmt nicht an meiner Aussage, dass man eine technisch veraltete Plattform aufrüsten würde und dadurch einige Vorteile liegen lassen würde und dass das in der Praxis sowieso fast nie durchgeführt wird?

Bitte die Phrasendreschmaschine abstellen und mal ein wenig auf das Geschriebene mit Argumenten eingehen.

Grüße
Zero
 
Zuletzt bearbeitet:
ThePowerOfDream schrieb:
Wir sprechen uns dann mal in 5 Jahren wenn Dir Intel & MS dann die Zwangs Updates drauf geklatscht haben ob Du willst oder nicht. Mal sehen ob Dein ach so toller geliebter Intel dann immer noch keine Prrobleme macht. :evillol:

Du scheinst irgendwie meine Aussagen falsch zu verstehen. Ich bin nicht in Hardware oder irgendwelche Firmen verliebt. Leute die sich in so einer Lage selbst finden sollten sich Hilfe suchen oder einfach mal vor Augen führen, dass man gesichtslosen Firmen/Marken gegenüber keine Emotionen hegen sollte, das ist ungesund und dämlich und spielt letztendlich nur in die Taschen der Firmen ohne, dass du dafür irgendwas im Gegenzug bekommst.

Wenn meine jetzige CPU (8700k) 5 Jahre weitermacht und dann aufgrund von Performance Engpässen ausgetauscht werden muss, bin ich vollkommen zufrieden. 320€ auf 5 1/2 Jahre.. das ist schon ne Hausnummer. Und hey wer weiß vllt. ist Gaming unter Linux in 5 Jahren auch so gereift, dass man dann von Windows Produkten weg kann :)
 
Trochaion schrieb:
Spiele sind aber in der Hinsicht besonders, weil es eben Echtzeitanwendungen sind. Dort muss man spätestens alle 10 ms alle Threads synchronisieren und das schränkt die Parallelisierbarkeit extrem ein. Bei Anwendungen wartet man jedoch häufig mehrere Sekunden auf ein Ergebnis und dann ist es wesentlich einfacher das Problem zu parallelisieren.

andr_gin schrieb:
Das mag alles sein aber wenn in über 50% der Anwendungsfälle die Software nicht parallelisiert ist und aus ökonomischen Gründen nie sein wird
Genau das ist aber das Problem. Wenn das Laden von Dateien mit einer Software zu lange dauert, weil der Hersteller es nicht einsieht zu parallelisieren, muss man eben darüber nachdenken, ob es nicht sinnvoller ist den Softwareanbieter zu wechseln. Schließlich erfüllt er dann nicht die eigenen Anforderungen. Bei fehlenden Funktionen würde man eben auch über einen Wechsel nachdenken. Wenn ein Hersteller das Laden von Daten auf nur einem Kern ausreichend schnell hinbekommt, ist das natürlich auch in Ordnung. Letztendlich ist das eben die Verantwortung der Hersteller und solange die Kunden ihnen die Treue halten, werden die sich nicht bewegen.

ZeroZerp schrieb:
Derzeit sind wir bei einem Anteil von gut 9% bei 6 Kernen und 1,5% bei 8 Kernen und Du siehtst nächstes Jahr "mindestens!" 12 Kerne im Mainstream als Standard an?
Es ging mir um die verkauften Prozessoren.

Die Entwickler haben schon vor Ewigkeiten angefangen zu handeln. Es ist aber einfach nicht machbar. Es gibt zu viele Problemstellungen in der Programmierung, die sich durch Erhöhen der Kernanzahl nicht schneller lösen lassen.
Das hat überhaupt nichts mit der Unfähigkeit von Programmierern zu tun, oder dass sie nicht wollen würden.
Du denkst also wirklich, dass Hersteller die Parallelisierung ausgereizt haben? Bei dem Beispiel von andr_gin ging es um das Laden von Daten in ein CAD Programm, das nur auf einem einzelnen Kern erfolgt. Allein das Parsen der Textdatei und das Aufbauen der internen Datenstrukturen könnte man parallelisieren und ich bin mir sicher, dass man da noch deutlich mehr findet, wenn man genauer hinschaut. Daran sieht man doch schon wie weit der Fortschritt bei der Parallelisierung in der Praxis ist... Auch Adobe wurde hier ja schon als Beispiel für schlechte Parallelisierung genannt und Bildverarbeitung ist in der Regel sehr gute parallelisierbar.

Siehe oben- Du zeigst überhaupt kein Verständnis für Mathematische und algorithmische Gesetzmäßigkeiten.
Mir ist durchaus bewusst, dass nicht jedes Problem trivial parallelisierbar ist, aber die meisten Probleme sind durchaus gut parallelisierbar und es gibt sehr viel Software, die überhaupt noch nicht parallelisiert ist. Allgemein ist Parallelisierung nicht leicht und auch im Informatik-Studium kommt das Thema nur sehr kurz, aber es ist eben die beste Möglichkeit die Leistung von Software und Prozessoren zu steigern.

Oben forderst Du das Unmögliche, was Du in diesem Absatz stillschweigend akzeptierst:"...kam noch steigerbare Parallelität auf Instruktionsebene"
Das ist nichts, was ich mir aus der Nase gezogen haben, sondern das ist wissenschaftlich anerkannter Stand und unter den Begriffen Memory Wall, Power Wall und ILP Wall bekannt. Der Ausweg daraus ist eben explizite Parallelität durch den Entwickler. Denn auf Instruktionsebene ist es schwierig unabhängig ausführbare Instruktionen zu finden, weil der Prozessor immer nur eine sehr kleine Sicht auf den Programmcode hat.

Das ist eine ganze Menge, wenn man bedenkt, dass das der Leistungsunterschied ist, der immer und überall bei jedem Programm und jeder Aktion ankommt.
Wenn das die Aussicht auf zukünftige Leistungssteigerung ist, dann gute Nacht... Es führt langfristig einfach kein Weg an expliziter Parallelität vorbei und dort haben wir noch lange nicht das Ende der Fahnenstange erreicht. Du solltest dich mal intensiver mit der Thematik auseinandersetzen.
 
Pokerfail schrieb:
Bei Anwendungen wartet man jedoch häufig mehrere Sekunden auf ein Ergebnis und dann ist es wesentlich einfacher das Problem zu parallelisieren.
Ja- Aber auch bei Anwendungen wartest Du auf Zwischenergebnisse, ohne die Du andere Berechnungen eben nicht parallel anstoßen kannst.

Du denkst also wirklich, dass Hersteller die Parallelisierung ausgereizt haben?
Nicht ausgereizt, aber bereits im ökonomisch Sinnvollen Bereichen durchgeführt.

Bei dem Beispiel von andr_gin ging es um das Laden von Daten in ein CAD Programm, das nur auf einem einzelnen Kern erfolgt.
Es wäre völlig Sinnfrei das Datenpolling vom Datenträger über mehrere Kerne zu paralellisieren, weil der Flaschenhals dort nicht in der Rechenkapazität oder Aufbereitung der Daten sondern an der Übertragungsbandbreite und den Zugriffszeiten des Datenträgers hängt.

Allein das Parsen der Textdatei und das Aufbauen der internen Datenstrukturen könnte man parallelisieren und ich bin mir sicher, dass man da noch deutlich mehr findet, wenn man genauer hinschaut.
Textdatei? -Zeig mir den CAD- Container, der seine Daten über eine Textdatei zur Verfügung stellt....

Daran sieht man doch schon wie weit der Fortschritt bei der Parallelisierung in der Praxis ist... Auch Adobe wurde hier ja schon als Beispiel für schlechte Parallelisierung genannt und Bildverarbeitung ist in der Regel sehr gute parallelisierbar.
Gerade in der Bildverarbeitung wird immer gerne alles in einen Topf geworfen. Unterschiedliche Operationen sind auch unterschiedlich Multicore- tauglich zu machen.
So hat auch Adobe funktionen, die eine hervorragende parallelisierung aufweisen.

Mir ist durchaus bewusst, dass nicht jedes Problem trivial parallelisierbar ist
Die Aussage ist insofern falsch, als dass es genug Probleme gibt, die auch nicht trivial nicht parallelisierbar sind.

, aber die meisten Probleme sind durchaus gut parallelisierbar und es gibt sehr viel Software, die überhaupt noch nicht parallelisiert ist.
Alle moderne Software am Markt ist inzwischen Multicore- optimiert und das schon in hohem Maße. Welche Software, die überhaupt noch nicht parallelisiert ist sollte das sein?

Allgemein ist Parallelisierung nicht leicht und auch im Informatik-Studium kommt das Thema nur sehr kurz, aber es ist eben die beste Möglichkeit die Leistung von Software und Prozessoren zu steigern.
Aber nur in den Grenzen Mathematischer Gesetzmäßigkeiten und Abläufen. Und die lassen sich nicht einfach dadurch wegdiskutieren indem man sich hinstellt und fordert, dass sich die Programmierer mehr Mühe geben müssen ;)

Das ist nichts, was ich mir aus der Nase gezogen haben, sondern das ist wissenschaftlich anerkannter Stand und unter den Begriffen Memory Wall, Power Wall und ILP Wall bekannt. Der Ausweg daraus ist eben explizite Parallelität durch den Entwickler. Denn auf Instruktionsebene ist es schwierig unabhängig ausführbare Instruktionen zu finden, weil der Prozessor immer nur eine sehr kleine Sicht auf den Programmcode hat.
Exakt

Wenn das die Aussicht auf zukünftige Leistungssteigerung ist, dann gute Nacht... Es führt langfristig einfach kein Weg an expliziter Parallelität vorbei und dort haben wir noch lange nicht das Ende der Fahnenstange erreicht. Du solltest dich mal intensiver mit der Thematik auseinandersetzen.
So ist derzeit der Stand- Aussicht auf große Leistungssteigerungen gibt es nur durch Designänderungen der Prozessoren bzw. der Wahl der Fertigungsmaterialien. Graphen etc...
Das sage ich deshalb weil ich mich sehr intensiv mit den Möglichkeiten der Parallelisierung beschäftige und diesbezüglich auch in regem Austausch mit Entwicklern stehe.

Ein sich hinstellen und sagen, dass die Paralellisierung nicht forciert wird und man diesbezüglich zudem nicht schon sehr weit gekommen ist, ist jedenfalls grundlegend falsch. Auch dass sich über die Jahre keine Mühe gegeben wurde, dieses Thema voranzutreiben. Es ist nur nicht so einfach, wie sich das die Leute immer vorstellen. und zaubern können die Programmierer nicht.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser, druckluft und Stuntmp02
Pokerfail schrieb:
Im nächsten Jahr werden mindestens 12 Kerne im Mainstream zum Standard.
Das glaubst du ja wohl selbst nicht, dass 2019 12 Kerne der Standard werden bei den Verkäufen, oder? Die Masse kauft jetzt 6C/8C ...
 
Eine Sache wird gerne vergessen beim kritisieren der Spieletests auf Workstation CPUs: Damit kann man zocken während man arbeiten lässt.
Mit meinem ersten Quadcore war es anfangs üblich dass ich Hintergrundaufgaben nicht mehr beenden musste sondern nur auf 2 cores beschränken musste, das Spiel bekam die anderen beiden und meist war alles ok. Heute frühstücken die Spiele gerne auch mal 3 oder 4 Kerne oder verlangen den ganzen Cache wodurch das längst nicht mehr so häufig möglich ist wie am Anfang.
Mit 32 Kernen sollte es wieder möglich sein 8 fürs Spiel zu reservieren (genauer eine Cache Einheit) und im Hintergrund 3 mal Videoencoding auf je 8 Kernen laufen zu lassen ohne dass das Spiel allzu starke Einbußen hinnehmen muss.

Letztlich ermöglichen mehr Kerne vor allem MULTItasking, was leider im Test außen vor blieb. Der 2990WX schnitt bei den Spielen teils extrem schlecht ab. 10 FPS in Total War: Warhammer sieht für mich stark nach schief gelaufenem multithreading aus, da wäre ein zweiter Durchlauf mit beschränkung auf weniger Kerne interessant gewesen.
Ähnliches bei den Encodingtests, wenn der Encoder offenbar nicht in der Lage ist die vorhandene Hardware auszureizen, warum nicht 2 Encodings parallel laufen lassen, je 16 Kerne exklusiv zugewiesen. Was juckt es mit wenn ein einzelnes Encoding 8 Stunden braucht wenn ich auch 2 in 10 Stunden schaffen kann?
Die Fixierung auf einzelne Tasks wird den CPUs mit vielen Kernen nicht gerecht wenn die Anwendungen das nicht unterstützen.

Wer würde eine aktuelle CPU noch mit SuperPI (singlecore) benchen?
 
  • Gefällt mir
Reaktionen: engramm, dMopp und HageBen
abcddcba schrieb:
Das glaubst du ja wohl selbst nicht, dass 2019 12 Kerne der Standard werden bei den Verkäufen, oder? Die Masse kauft jetzt 6C/8C ...
Die Masse kauft schlicht P/L. Wenn mit Zen2 12K der P/L Sieger sind hast du deine Antwort.6K oder mehr hat sich doch bei AMD Käufern lange durchgesetzt. Es gibt überhaupt keine Grund warum das Wachstum nicht weiter gehen sollte. 4K existierten doch nur so lange weil Intel uns rundherum über Jahre verarscht hat. Das wären sonnst auch lange mehr.
 
  • Gefällt mir
Reaktionen: cookie_dent, abcddcba, anexX und eine weitere Person
Ich weiß ja nicht was du unter "Masse" dann verstehst, aber dass die 12C CPU (ist das überhaupt schon bestätigt?) dann für <300€ wie der aktuelle P/L Sieger 2600X verkauft wird, glaubst du wohl auch nicht. Und die "Masse" (was auch immer das nun ist) wird wohl meiner Meinung nach bei 500€ auch nein sagen - und ja, ich hab keine Ahnung wie teuer die vermeintliche 12C CPU dann wird, aber ich behaupte nicht 300€. Mal abgesehen davon bin ich der Meinung, dass er dann eher Richtung Enthusiasten als Zielgruppe geht. Aber ist nur meine Meinung, ich hab ja keine Ahnung.
Dass die 6C jetzt auf einmal aufrüsten glaube ich auch nicht, woztu auch - hier wird in Kaufberatungen immer gepredigt, 6C reicht.

Aber gut, eurer Meinung nach nächstes Jahr dann 12C für die Masse - die Verkaufszahlen werden das zeigen, am Ende des Jahres sprechen wir uns nochmal.
 
ZeroZerp schrieb:
Ja- Aber auch bei Anwendungen wartest Du auf Zwischenergebnisse, ohne die Du andere Berechnungen eben nicht parallel anstoßen kannst.
Es ist trotzdem eine Beschränkung, die wegfällt. Wenn bei einer normalen Anwendung eine Operation 10 ms dauert, wirst du sie ohnehin nicht parallelisieren.

Nicht ausgereizt, aber bereits im ökonomisch Sinnvollen Bereichen durchgeführt.
Und woher weißt du das? In C++ werden erst seit C++11 Threads überhaupt unterstützt und die Umstellung auf C++11 wird gerade jetzt erst in Projekten durchgeführt. Bei größeren Projekten ist teilweise noch nicht mal C++14 geschweige denn C++17 in den Optionen des Compilers aktiviert und damit ist man noch weit davon entfernt aktuelle Sprachfeatures zu verwenden. Vor C++11 war immer die Verwendung von Third-Party-Libraries notwendig.

Bis heute erscheinen immer wieder neue Sprachen, die die Verwendung von mehreren Threads vereinfachen wollen (X10, Go, Rust) und es ist immer noch ein aktuelles Forschungsthema. Da ist man weit ab von ökonomisch ausgereizt.

Es wäre völlig Sinnfrei das Datenpolling vom Datenträger über mehrere Kerne zu paralellisieren, weil der Flaschenhals dort nicht in der Rechenkapazität oder Aufbereitung der Daten sondern an der Übertragungsbandbreite und den Zugriffszeiten des Datenträgers hängt.
Nein, ist es nicht. Wäre tatsächlich der Datenträger der Flaschenhals, wäre nicht genau ein Thread ausgelastet. Dann würde das Betriebssystem dem Prozess keine Rechenzeit mehr zuweisen solange er auf die Daten wartet und der Prozess würde somit auch nicht für eine Auslastung sorgen.

Textdatei? -Zeig mir den CAD- Container, der seine Daten über eine Textdatei zur Verfügung stellt....
Es ging in dem Beispiel um STEP-Dateien und diese sind eben in ASCII codiert.

Gerade in der Bildverarbeitung wird immer gerne alles in einen Topf geworfen. Unterschiedliche Operationen sind auch unterschiedlich Multicore- tauglich zu machen.
Hast du Beispiele für Operationen, die nicht gut parallelisierbar sind?

Die Aussage ist insofern falsch, als dass es genug Probleme gibt, die auch nicht trivial nicht parallelisierbar sind.
Ich habe nie behauptet, dass jedes Problem trivial parallelisierbar ist. Allerdings ist das meistens eine Frage der Betrachtungsweise. Das Anwenden einer Funktion auf einen einzelnen Pixel mag nicht parallelisierbar sein. Wenn man diese Operation auf mehrere Pixel eines Bildes ausführt, ist das wiederum parallelisierbar.

Alle moderne Software am Markt ist inzwischen Multicore- optimiert und das schon in hohem Maße.
Warum wird dann immer noch so stark daran geforscht und entwickelt, wenn das Problem doch eigentlich schon gelöst ist?
Welche Software, die überhaupt noch nicht parallelisiert ist sollte das sein?
Wie hier bereits geschrieben z.B. das Laden von STEP-Dateien in Inventor.

Aber nur in den Grenzen Mathematischer Gesetzmäßigkeiten und Abläufen. Und die lassen sich nicht einfach dadurch wegdiskutieren indem man sich hinstellt und fordert, dass sich die Programmierer mehr Mühe geben müssen ;)
Ja, wenn man die Parallelisierung ausgereizt hat, wird es eng. Aber an dem Punkt sind wir sicherlich noch nicht angekommen.

So ist derzeit der Stand- Aussicht auf große Leistungssteigerungen gibt es nur durch Designänderungen der Prozessoren bzw. der Wahl der Fertigungsmaterialien. Graphen etc...
Welche Designänderungen sollten das denn sein? Und warum investieren Forschungseinrichtungen Millionen in Parallelrechner mit mehreren Millionen Kernen, wenn man damit keine großen Leistungssteigerung mehr erzielen kann. Auch wenn diese für gewöhnlich nur durch mehrere Anwendungen vollständig ausgelastet werden, ist es keine Seltenheit, wenn eine einzelne Anwendung mehrere tausend Kerne verwendet.
 
abcddcba schrieb:
aber dass die 12C CPU (ist das überhaupt schon bestätigt?) dann für <300€ wie der aktuelle P/L Sieger 2600X verkauft wird, glaubst du wohl auch nicht.

Naja der 1920X mit 12C/24T ist ja schon unter 350€ - benötigt allerdings ein ziemlich teures Brett mit TR4. Wenn sie also 12C/24T im Mainstream bringen wollen und der teurer wäre als das Modell aus der Enthusiasten Serie würde letztere ja eh keiner mehr kaufen, von daher denke ich der Releasepreis wird wahrscheinlich um die 399€ sein, wird sich dann aber kurze Zeit später zwischen 300-330€ einpendeln. ^^
 
  • Gefällt mir
Reaktionen: abcddcba
Red-John schrieb:
Danke fuer den Test! :-)

An die Nörgler, konstruktive Kritik ist in Ordnung, was viele hier vergessen sie bekommen fuer Lau eine gute redaktionelle Arbeit geboten - Wo bei anderen Seiten bereits eine Paywall existiert.

Lernt zu schaetzen was ihr habt.

In diesem Sinne einen schoenen Sonntag. :-)

Hier war es vor knapp 10 Jahren, gefühlt tausendmal besser, in jeder Hinsicht. Aber, finde mal wirklich eine bessere Seite als CB.

So langsam nimmt das Niveau eben aber auch hier ab, auch was das Forum und User generell betrifft, hoffentlich wird mal 2019 daran gearbeitet und fortlaufend.
 
Wonder Boy schrieb:
Hier war es vor knapp 10 Jahren, gefühlt tausendmal besser, in jeder Hinsicht.

Fand ich nicht - vor 10 Jahren herrschte hier eine gewisse "Ellenbogen-Mentalität" - sachliche Diskussionen waren selten bis unmöglich da jeder krampfhaft daran festhielt was er irgendwann irgendwo mal aufgeschnappt hatte - das hat sich glücklicherweise über die Zeit gebessert - heute ist die CB Klientel im ganzen wesentlich einsichtiger, hat auch oft ein Ohr für alternative Ansichten und es versucht nicht mehr jeder auf Biegen und Brechen den "Allwissenden IT Jesus" zu spielen. ;)
 
Zurück
Oben