News Ryzen Threadripper 2000: AMD kontert Intels 28-Kerner mit 32 Kernen

@MK one

ich denke nicht dass es eine Rolle spielt wie viele Kerne benutzt werden. Diese werden zufällig belegt, dürfte da nicht groß nen Mechanismus geben der sagt "wenn TR 32C dann nimm primär die 16C auf den 2 Die mit SI".

Schneller 3200er Ram und niedrige Latenzen werden aber auch da helfen. Vielleicht sogar mehr als üblich.
 
Zuletzt bearbeitet:
@ StefVR

und was soll das bringen ?
der 8 Kern TR hat nur seine Existenz Berechtigung , weil man durch ihn ( unbeschnittenen ) Zugriff auf 60 Pcie Lanes und 2 TB Speicher erhält , wer nur die Lanes für 3 zb Radeon Instinkt braucht , weil diese die Rechenarbeit leisten , der braucht nicht unbedingt einen 32 Kerner
 
so an alle die nicht verstehen warum mehr Kerne der einzige Weg der Zukunft ist, bitte kauft euch ein N64 und einen Pentium 4 und werdet glücklich mit Win10 32/16 bit.

Nee also im Enthusiast GPUs und CPUs sind auch nur dafür gemacht, was die Leute sich immer so auf geilen.
 
@Mcr-King
Warum in eine technische Diskussion so viel Emotion legen?
Erkläre uns doch dann bitte, warum mehr Kerne der einzige Weg sein soll...

Einerseits wird hier gepredigt, dass in Zukunft die Multicore- Programmierung revolutioniert wird und nicht sinnvoll parallelisierbare Aufgaben plötzlich effizient aufgeteilt werden.

Andererseits nicht die Analogie in der Prozessorfertigung anerkennen wollen, dass zukünftig durch tolle Materialen eine CPU tatsächlich auf 10Ghz takten kann und man durch andere Techniken vielleicht die IPC doch noch ein gutes Stück höher schrauben kann.

Zudem erkenne ich bei dem Thema überhaupt keinen Zusammenhang zum Kauf eines N64, Pentium4 geschweige denn Windows 10.

Und erkläre mir, warum Du denkst, dass entgegen aller Publikationen, mehr Kerne nicht dazu führen, dass nur einige wenige Anwendungen von einer Beschleunigung durch die Kernanzahl profitieren.

Danke
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
Natürlich nicht in allen Bereichen aber in vielen wie Games, Ki, Autonomes Fahren und und, da sind mehr Kerne gut.

Ach habe mich schon wieder von den ganzen anstecken lassen die nur Flammen.

Hauptproblem bei mehr Kernen ist ja nach wie vor die SW die hingt Teilweise richtig hinterher. Grade Games sind dafür ein Parade Beispiel es gibt zu wenige die gut auf mehr Kern ausgelegt sind. Was ich im Grunde nicht verstehen kann siehe Xbox/PS4 da geht es ja auch.
 
  • Gefällt mir
Reaktionen: Martinfrost2003
Na ja ohne orientierung richtung multi core ist Stillstand sicher in naechster Zeit. Silizium ist ja mehr oder weniger physikalisch am Ende der Fahnenstange angekommen.

Fuer Enthusiasten eine Katastrophe...

Leider muessen wir uns derzeit die zusaetzlichen Kerne ueber gesteigerte Latenz erkaufen.

Das ergibt jetzt ein Henne Ei Problem:

Die Entwickler programmieren nicht fuer >8 (oder sogar >4 noch) Kerne weil kaum jemand sowas hat und die Konsumenten kaufen die nicht weil sie schlechter laufen als die Ringbus.
 
  • Gefällt mir
Reaktionen: vlim, yummycandy und .Sentinel.
MK one schrieb:
Persönlich würde ich mir keinen 32 Kerner basierend auf Ryzen 2xxx holen , das ist was für Leute die wirklich Rechenpower brauchen - der Verbrauch ist zu hoch bei 12nm .

nun, ich sehe das etwas anders, weil im ryzenmaster/bios kannst ja wenn du die leistung grad nicht brauchst, kerne deaktivieren, entsprechend geht das ganze dann auch sparsam von statten.
 
Ich weiß wirklich nichr wer sich ne 32 Core CPU kaufen sollte für Gaming , jedoch wird es , wie beim 16 C TR einen Gaming Mode geben . Keine Ahnung wie der aussieht - 8 Kern Boost auf 4,35 ? bei 250 W TDP müßte das möglich sein ...
Ergänzung ()

XTR³M³ schrieb:
nun, ich sehe das etwas anders, weil im ryzenmaster/bios kannst ja wenn du die leistung grad nicht brauchst, kerne deaktivieren, entsprechend geht das ganze dann auch sparsam von statten.
ich meinte das auch mehr auf nächstes Jahr bezogen , der 7 nm Prozess wird die Leistungsaufnahme halbieren , mich hat der Vollausbau bei 12 nm überrascht , die 32 Kerne hätten sie bei 7 nm auch in 180 W TDP packen können , so werden es 250W TDP und ein recht niedriger Basis Takt
 
StefVR schrieb:
Das ergibt jetzt ein Henne Ei Problem:

Die Entwickler programmieren nicht fuer >8 (oder sogar >4 noch) Kerne weil kaum jemand sowas hat und die Konsumenten kaufen die nicht weil sie schlechter laufen als die Ringbus.
Im Grunde ja. Allerdings gieren Konsumenten seit jeher nach mehr, höher, schneller, weiter. Auch bzw. insbesondere bei Gamern. Heißt, wenn ein Nachfolge-Spiel genau die gleichen Features bietet wie der Vorgänger kommen schlechte Kritiken und Verkaufszahlen leiden. Wir kommen nach und nach an einen Punkt, an dem "schneller, höher, weiter" eben nicht mehr mit DualCores abzubilden ist. Dafür ist die Steigerung der SingleCore Leistung zu gering (und/oder die Code-Optimierung ist zu aufwändig, weil da geht theoretisch aus eigener Erfahrung viel).
 
Richtig genau deswegen ist ja meist die KI und der Rest der Games sehr unterirdisch bis auf die Grafik geben sie halt nicht mehr sehr viel her.
 
Etwas Offtopic aber spannend: AMD prognostiziert beim Epyc durch den Wechsel von Zen auf Zen2 einen Leistungsfaktor von 1.35. In anderen Worten 35% mehr Leistung als die heutigen Modelle.

Quelle

Da die Dies nicht nur auf Epyc sondern auch auf Ryzen CPUs landen werden siehts für AM4 ziemlich rosig aus.
 
Zuletzt bearbeitet:
stellt sich halt die Frage was sie mit 35% meinen. CPU gesamt inkl. Kernerhöhung, IPC...

..und einer um den Faktor 1,35 erhöhten Leistung, wobei nicht ganz klar wird, ob damit der Prozessor als ganzes gemeint ist, also inkl. eventuell erhöhter Kernanzahl, oder die IPC eines Kerns.
 
was in etwa dem bekannten bereits entspricht , 60 % weniger Verbrauch oder 40 % mehr Takt , wenn man mit derselben Leistungsaufname arbeitet .. und 35 % mehr Takt rauskommt ..., ist OK
für den 2700X hieße aus 3700 Standardtakt würden 5 Ghz werden ...

so hoch werden sie nicht gehen , ich tippe eher auf 12 Kerne und 4,2 - 4,5 Ghz + Boost bis 5 Ghz
 
Mcr-King schrieb:
Richtig genau deswegen ist ja meist die KI und der Rest der Games sehr unterirdisch bis auf die Grafik geben sie halt nicht mehr sehr viel her.

Nö. Die KI ist schlecht, weil gute KI Spieler frustriert. Das Problem die KI besser zu machen ohne dem Spieler das Gefühl zu geben das er Ausgetrickst wird und sich dumm anstellt ist eine schmale Gratwanderung und Tests zeigen das Spieler auf Dumme, Berechenbare KI im durchschnitt besser ansprechen. Gute KI in Spielen ist damit ein Nischenprodukt.
 
MK one schrieb:
ich meinte das auch mehr auf nächstes Jahr bezogen , der 7 nm Prozess wird die Leistungsaufnahme halbieren , mich hat der Vollausbau bei 12 nm überrascht , die 32 Kerne hätten sie bei 7 nm auch in 180 W TDP packen können , so werden es 250W TDP und ein recht niedriger Basis Takt

naja, final wird der sicherlich 3.2GHz haben und nen boost von 3.6GHz AC und 4.3GHz 1/2C... langt doch, und jede wette der wird wie der ryzen+ auch noch min. -0.075V offset machen, gute modelle auch -0.1V oder mehr...

kann man ja auch hochrechnen, mein 2700X brauch AC bei 4.2GHz 1.26V und frisst damit 86W laut HWinfo, das 4x = 344W für eine leistung die so ziemlich alles niederknüppelt. natürlich muss man die entsprechende kühlung am start haben, nen towerkühler mit min. 160er lüftern und entsprechender anzahl heatpipes und radiatorgrösse sollte das dann packen können, ansonsten halt wakü mit 360er radiator.
 
StefVR schrieb:
Gute KI wird dank Deep Learning bald kommen vermutlich.
Nochmal. Spiele könnten bereits deutlich bessere KI haben, die Entwickler machen die Gegner in zum Beispiel Shootern absichtlich dumm, damit sich die Spieler besser auf die Gegner einstellen können und mehr Spaß haben.
Da braucht dann auch keine was von Deep Learning für Spiele-KI reden, in vielen Genres wird bereits weniger genutzt als Problemlos machbar wäre.
 
Der Trick ist ja mit Deep Learning KI zu schaffen die human wirkt dh auch Fehler macht wie echte Spieler. Da kann man die Schwierigkeit individuell anpassen und nicht wie heute: je hoeher schwierigkeitsgrad sesto mehr cheated die ki
 
StefVR schrieb:
Der Trick ist ja mit Deep Learning KI zu schaffen die human wirkt dh auch Fehler macht wie echte Spieler. Da kann man die Schwierigkeit individuell anpassen und nicht wie heute: je hoeher schwierigkeitsgrad sesto mehr cheated die ki

Um Cheaten ging es gar nicht. Einfache Sachen wie Gegner flankieren waren bereits zu frustrierend, weil in einem Ego-Shooter der Überblick für den Spieler fehlt. Es ist recht einfach die Aufmerksamkeit des Spielers auf 2-3 Gegner zu lenken und einen weiteren einfach von der Seite oder Hinten dann ankommen zu lassen. Simpelste Manöver eigentlich. Bereits zuviel für Otto-Normal-Spieler und nur frustig. Mobs die einfach auf einen zurennen machen den meisten schlicht mehr Spaß. Spieler wollen Berechenbarkeit und Wiederholbarkeit für ihre Gegner-KI. Zumindest sagten das Test und Experimente vor einigen Jahren.
 
  • Gefällt mir
Reaktionen: Haldi
ZeroZerp schrieb:
Die Kunden würden mir schön was pfeifen, wenn ich denen aufs geratewohl, weil ja in einer ungewissen Zukunft XY ein Prozessor mit XY Kernen unter umständen mal profitieren könnte empfehle, anstatt das, was stand jetzt und Softwarestand jetzt das schnellste darstellt.


Wow, dann würdest du ja durchgängig AMD empfehlen !
Warum habe ich da wohl so meine Zweifel?
Oder sind die Kunden deines Arbeitgebers alles Gamer? LOL
 
Zurück
Oben