News Threadripper 2990X: Neues Ryzen-Flaggschiff für 1.500 Euro gelistet

@Wadenbeisser
Du solltest dir die Unterschiede zwischen multithreading und multiprocessing zu Gemüte führen. Das was du korrigierend bei Cooler Master anmerkst stimmt so auch nicht ;)

Ansonsten lassen sich viele Probleme wirklich nicht parallelisieren ohne die Komplexität stärker ansteigen zu lassen als den Gewinn durch die parallele Ausführung. Wenn man auf entsprechende Algorithmen angewiesen ist kann man bei der Umsetzung zwar versuchen den eigentlichen Worker von anderen Dingen wie grafischer Oberfläche, Netzwerk, etc. pp zu entkoppeln indem man diese Funktionalitäten in eigene Prozesse auslagert. Das hat jedoch deutliche Grenzen.


@Cool Master
Wenn du so willst gibt es Sprachen die auf massiv parallele Ausführung ausgelegt sind. VHDL zum Beispiel um FPGAs zu konfigurieren. Wobei eine gewisser sequentieller Grundcharakter immer vorhanden sein wird, herkömmlicher Datenaustausch und der Wechsel von Schaltzuständen von Transistoren benötigt schlichtweg Zeit ;)
 
  • Gefällt mir
Reaktionen: user2357
zum Thema 1950X: weiter runter sollten sie nicht gehen. starke leistung dumpt man nicht.
 
  • Gefällt mir
Reaktionen: Fragger911
Die Diskussion zur Parallelisierung ist ja ganz nett, aber: es gibt reale Anwendungsfälle denen die CPU sehr zugute kommt und es gibt den Prozessor. Ob Nische oder nicht, der Bedarf ist in gewissen Mengen gegeben und wird von AMD gedeckt. Ist doch gut! Die Prozessoren der AM4-Plattform gibt es doch trotzdem!
Zur TDP: 250 Watt ist nicht wenig, aber beherrschbar. Wie oben bereits geschrieben, gibt es ja auch AIO-Wasserkühlungen die nach Datenblatt mit bis zu 500 Watt umgehen können.
Gerade hier im Forum wird doch fast jede CPU mit Overclocking gequält, da verstehe ich die Empfindlichkeit bei diesem Thema überhaupt nicht.
 
@Wadenbeisser

Seltsam, ich bekomme bei dir keine Benachrichtigung...

Wadenbeisser schrieb:
Weil eben nicht darauf eingegangen wird ist dieses Argument so langlebig (ist ja nicht grundlegend falsch) wie nutzlos.

Klar man könnte natürlich bis ins letze Detail schauen aber grob gesagt stimmt es eben. Wenn Programm X bis jetzt noch nicht mal min. ein Quad Core zu 100 bzw. 400% auslasten kann wird es das Programm wohl auch in Zukunft nicht mehr machen. Immerhin haben wir nun seit wie viel Jahren Quad Cores? 12 Jahren?

Wadenbeisser schrieb:
Des weiteren entkräftest du es ja schon selbst wieder.
Mit einer anderen Programmierung ist es offenbar doch wieder besser parallelisierbar, also liegt es nicht daran das es nocht parallelisierbar wäre sondern daran das man nicht bereit ist zu investieren.

Nicht wirklich. Das ist eine sehr sehr spezieller Anwendungsfall mit Metal 2. Dazu kommt dass es ARM ist und nicht (primär) x86. Des Weiteren betrifft es die GPU, welche im Prinzip dafür gebaut ist damit umgehen zu können. Wenn du also echte parallelisierbarkeit haben willst setzt auf GPUs statt CPUs. Weil GPUs sind in dem Bereich einfach Monster. Da kommt selbst die beste CPU nicht mit.

Wadenbeisser schrieb:
Ich sehe das aus Kunden Sicht sehr nüchtern.

Klar ich auch ich würde mich freuen wenn es mehr Programme gibt die mein 16 Kerner zu 100% nutzen könnten. Ich bin aber auch realist und sehe ein das es bei einigen Sachen einfach kein Sinn ergibt. Ein Word oder Excel läuft auch so super und muss nicht mit 16 Kernen laufen...

Wadenbeisser schrieb:
Wie ist das möglich wenn es lt. dem Argument ach so unmöglich wäre?

Na komm, da kannst du auch drauf kommen... Weil sich die Architektur und Fertigung immer verbessert und man trotz Mehrkernen immer höhere Single-Thread Leistungen bekommt. Ein MHz Sandy Bridge ist eben nicht ein MHz Skylake.

Wadenbeisser schrieb:
Des weiteren hast du offenbar nicht den Unterschied zwischen Multithreading und Multitasking verstanden....

Ach ich kenne den Unterschied schon ;) Immerhin sehe ich es ja täglich bei der Nutzung mehrerer VM's gleichzeitig.

@Piktogramm

Ja ok, ich bin jetzt eher von herkömmlicher x86 Softwareentwicklung ausgegangen ;)
 
Zeigt mehr wie wenig Ahnung Du von der Geschichte hast. Das Teil bringt einem Fotografen absolut gar nichts... Dulles AMD Fabboy gequatsche sonst nichts.

Es gibt einfach sehr sehr wenige wirkliche Anwendungsfaelle fuer das Teil derzeit. Egal ob beruflich oder Privat.

- Komisch und ich hatte gedacht das AMDs erstarkte Konkurrenzfähigkeit auch andere CPUs im Preis fallen lies ( die deine Fotographen gebrauchen können ), nicht nur den Threadripper.

- Irgendsoeinanderer Typ hat mir was erzählen wollen das 8 Kerner schon genug sind für die meisten, daher meine Frage: Welchen 8 Kerner von Intel meinst du denn den Leute gerne für kleines Geld kaufen?

Ergo: Geht wieder 4 Kerner für 350€ kaufen.
 
XTR³M³ schrieb:
ich will nen verf****es TR ITX board... ist wohl nicht so schwer 2x von den 4x so-dimm auf die rückseite zu verfrachten :grr:
Macht das Sinn bei dem, was da an thermischer Energie freigesetzt wird?
 
reallife-runner schrieb:
Zur TDP: 250 Watt ist nicht wenig, aber beherrschbar.

Als absolute Zahl ja, relativ zur Kernanzahl und dem Takt gesehen dann doch wenig.
TR1 1950X mit 16 Kernen hat 180W als TDP... jetzt zwar die Kernanzahl verdoppelt, aber nicht ansatzweise die TDP.
 
Zuletzt bearbeitet:
Cool Master schrieb:
Ja, würde es. Aber dafür muss man eine völlig andere Sprache einsetzen die nicht mehr sequentiell aufgebaut ist. Im Gegenteil man müsste sogar eine völlig neue Sprache erfinden, da mit aktuell keine Sprache bekannt ist welche nicht sequentiell ist bzw. nur erweitert wurde. Also eine echte Multicore Sprache kenne ich aktuell nicht. Am nächsten könnte ich mir noch Metal 2 vorstellen aber das ist halt aktuell nur für Mac verfügabr und auch nur für die GPU gedacht.
Funktionale Sprachen wäre auch optimal für verteiltes Rechnen.

Hilft aber nichts, wenn der Algorithmus nicht parallelisierbar ist. Da kann man noch so eine raffinierte Programmiersprache haben und noch so viel in die Programmierung investieren und trotzdem wirds nicht schneller.
 
@new Account()

Jup außer man könnte mit der neuen Sprache eben den Algorithmus anders programmieren und so ein Vorteil erzielen aber das ist eher unwahrscheinlich.
 
Der Denkfehler ist, von einer einzigen Anwendung auszugehen. Sobald man mehrere Sachen parallel macht (z.B. IDE + VM + VM) sieht es doch anders aus. Und genau für so etwas sind Kernmonster geeignet. Es reichen teilweise schon Hintergrundprogramme, um mehrere Tasks oder auch nur Threads zu gleichen Zeit laufen zu lassen. Deshalb ist die Zeit von Quadcores auch langsam vorüber.
 
  • Gefällt mir
Reaktionen: libranskeptic und Fragger911
@Piktogramm
Ach sag bloss, Multitasking ist also nicht das parallele Ausführen des gleichen oder unterschiedlicher Programme bei dem jeders Programm auch einen anderen Kern nutzen kann (Verwaltung durch das Betriebssystem) und es an der Stelle herzlich egal ist ob das einzelne Programm nur einen Kern auslasten kann weil alle zusammen die Auslastung der CPU erhöhen?
 
Cool Master schrieb:
Jup außer man könnte mit der neuen Sprache eben den Algorithmus anders programmieren und so ein Vorteil erzielen aber das ist eher unwahrscheinlich.
Wie stellst du dir das vor? Was können die vorhandenen Sprachen nicht, was diese hypothetische Sprache können soll? Manche Probleme sind nur sequentiell bearbeitbar, die Sprache oder auch die Architektur ändern gar nichts daran, es liegt schlicht in der Natur des Problems. Iterative Verfahren bspw. wie das Newtonverfahren sind vom Ergebnis des vorherigen Schritts abhängig, sprich man MUSS darauf warten bevor der nächste berechnet werden kann und man kann es nicht parallelisieren. Das einzige was hilft ist auf ein parallelisierbares Verfahren auszuweichen, aber die Option besteht nicht immer.
 
  • Gefällt mir
Reaktionen: Fragger911
Cool Master schrieb:
Jup außer man könnte mit der neuen Sprache eben den Algorithmus anders programmieren und so ein Vorteil erzielen aber das ist eher unwahrscheinlich.
Nope, alles was auf die Turingmaschine basiert, ist diesbezüglich auf die Fähigkeiten von Assembler beschränkt.

Neue Möglichkeiten (und Probleme) werden maximal mit Quantencomputing kommen.
 
Cool Master schrieb:
@Wadenbeisser
Klar man könnte natürlich bis ins letze Detail schauen aber grob gesagt stimmt es eben. Wenn Programm X bis jetzt noch nicht mal min. ein Quad Core zu 100 bzw. 400% auslasten kann wird es das Programm wohl auch in Zukunft nicht mehr machen. Immerhin haben wir nun seit wie viel Jahren Quad Cores? 12 Jahren?
Der Witz ist eher das es in dem Zusammenhang nicht stimmen kann wenn die parallelisierte Ausführung bei Programmen im laufe der Zeit dennoch steigt. Wenn also nicht mehr Kerne genutzt wurden dann weil man nicht bereit war mehr in die Software Entwicklung zu investieren und nicht weil nicht mehr möglich gewesen wäre.

Genau so wenig kann der Quadcore zu 400% ausgelastet werden denn wie will man auf mehr als 100% kommen? Wird nur ein Kern ausgelastet ist der Quadcore lediglich zu 25% ausgelastet also nicht die Kern und die CPU Auslastung durch einander würfeln denn sonst sind wir wieder genau dort was ich schonmal für Tests kritisierte. Man steckt immernoch im Singlecore Zeitalter fest.
 
Irrelevant.

EDIT, damit hier nicht gespamt wird:
Hast du überhaupt gelesen was ich geschrieben habe? Er hat 100 bzw. 400% geschrieben, daher war ihm das klar…......
 
Zuletzt bearbeitet:
Das ist das gleiche Prinzip, mehr als 100% Auslastung gehen nicht. Höhere Angaben sind Marketing.
 
Dann hast du noch nie MacOS oder Linux genutzt..
 
Zurück
Oben