News Ryzen Threadripper: 1950X und 1920X zu Preisen von 999 und 799 US-Dollar

MK one schrieb:
Uralt ? - bis April 2017 war die 3.4 die aktuellste Version --- aber klar die 4.1 passt dir besser in den Kram , schon klar .....

Im August letzten Jahres kam die Version 4 heraus, das habe ich bereits geschrieben, aber du drehst dir die Welt wie sie dir gefällt. 4.1 war nur ein Update von der Version 4.0.4 (die in Januar kam) und nicht von der Version 3.4. Hör also auf irgendwelche Märchen zu erzählen.

Geekbench 4.1.0 March 31, 2017
Geekbench 4.0.4 January 13, 2017
Geekbench 3.4.2 January 12, 2017
Geekbench 4.0.3 November 14, 2016
Geekbench 4.0.2 October 31, 2016
Geekbench 4.0.1 September 15, 2016
Geekbench 4 August 29, 2016
Geekbench 3.4.1 February 12, 2016
Geekbench 2.4.4 February 11, 2016
Geekbench 3.4 October 9, 2015
http://geekbench.com/blog/archive/

Das die Ergebnisse der 3er Version mit der 4er Version nicht vergleichbar sind liegt in der Natur der Sache.
Geekbench 4 introduces several new and updated CPU workloads. These workloads are larger and more ambitious than the workloads in Geekbench 3, and are designed to put more stress on the CPU, its cache, and its memory subsystem. These updated workloads include several well-known codebases that are used every day on mobile devices, such as LLVM, SQLite, and PDFium. These updated workloads model real-world tasks and applications, and provide an objective measure of the performance of the CPU in your phone or laptop. A complete description of the CPU workloads, along with details on the runtime and scoring mechanisms, is available in the Geekbench 4 CPU Workloads PDF.
http://geekbench.com/blog/2016/08/geekbench-4/

Hat aber definitiv nichts mit deiner Paranoia zu tun.
 
Zuletzt bearbeitet:
Schön das du das rausgesucht hast , hast du es denn auch gelesen ?
"These updated workloads model real-world tasks and applications, and provide an objective measure of the performance of the CPU in your phone or Laptop "

Da schreiben sie die Zielgruppe für Geekbench 4 ja selbst rein .... , nen 16 Kerner ist nicht grade ne Laptop CPU oder nen Handy/Smartphone
....

wo wir wieder bei den Punkt wären das die 4.1 nicht wirklich für 8 Kerner oder gar höher geeignet ist ....
 
MK one schrieb:
Schön das du das rausgesucht hast , hast du es denn auch gelesen ?

Ja im Gegensatz zu dir, ist mir bekannt, dass Geekbench in erster Linie für den Test aller Art von mobilen Geräten verwendet wird und die Workloads auch darauf abgestimmt sind. Du blabberst aber seit zwei Seiten etwas von irgendwelchen Verschwörungstheorien.

Ich hatte hier bereits gesagt, das bestimmte Benchmarks dem einen System besser und einem anderen schlechter liegen würden und ebenfalls habe ich bereits gesagt, dass Geekbench durchaus von mehreren Kernen profitiert (was speziell auf mobilen Mehrkern-CPUs wichtig ist).

Wie du auf irgendwelche Verschwörungstheorien kommst ist mir schleierhaft, aber auch egal.

MK one schrieb:
nen 16 Kerner ist nicht grade ne Laptop CPU oder nen Handy/Smartphone

Bei Smartphones sind wir schon lange bei 8 Kernen angelangt. Ist aber auch irrelevant. Einzig interessante ist der Vergleich zwischen TR und Xeon und wie/ob sich die Geekbench Werte auf normale Anwendungen auswirken werden. Letztlich sind die Anwendungen wie AES Verschlüsselung, JPEG Kompression, PDF Rendering nichts was nur auf mobilen Plattformen genutzt wird sondern näher an der Realität wie ein Cinebench der nur für wenige in der Praxis interessant ist.

MK one schrieb:
wo wir wieder bei den Punkt wären das die 4.1 nicht wirklich für 8 Kerner oder gar höher geeignet ist ....
Und hier erzählst du wieder Grütze.

When we released Geekbench 3 in August 2013, mobile hardware (and mobile hardware performance) was quite different. We designed Geekbench 3 with the average smartphone in mind, which at the time was a 32-bit device with 512MB of RAM. We had to make several compromises for Geekbench 3 to run well on these devices, as they were less powerful than desktops or laptops. For example, Geekbench 3 had separate “mobile” and “desktop” datasets since the “desktop” dataset was too large to work on mobile devices, and the “mobile” dataset ran too quickly on desktop and laptop computers.

Now, three years later, the average mobile device is quite different. Most phones and tablets have a 64-bit processor with at least 2GB of RAM. Flagship smartphone and tablet performance approaches (and sometimes surpasses) modern desktops and laptops. The compromises we had to make in Geekbench 3 to run well on both computers and mobile devices are no longer necessary in Geekbench 4.
http://geekbench.com/blog/2016/08/geekbench-4/

Geekbench 4 wurde veröffentlich damit er auf allen modernen Plattformen (halbwegs) gut läuft. Geekbench 3 hatte noch diverse Einschränkungen wegen den "damals" beschränkten mobilen Plattformen.

Möchtest du vielleicht nochmal behaupten 3.4 wäre besser für so einen Test geeignet, denn genau das hast du neben deiner Verschwörungstheorien zwei Seiten lang behauptet.

Die Frage ist auch nicht, ob sich dieser Benchmark dafür gut eignet, sondern wieso der TR so schlecht im Vergleich zu Xeon abschneidet obwohl eben beide 16 Kerne haben. Das kann nun an den Workloads liegen, an der Visual Studio Version, am System oder was auch immer. Wichtig ist, dass es zeigt, dass zwischen den Plattformen Unterschiede existieren und zumindest zum Start von Threadripper einige Softwarelösungen möglicherweise genauso schlecht darauf laufen werden.

Cinebench ist hingegen mittlerweile AMD und Intel optimiert. Somit kann ich damit bestenfalls sehen, welches Ergebnis ist erhalten könnte, wenn ich aktuellste Software einsetze. Bei professioneller Software, die mitunter vierstellige Summen kostet ist so eine Aktualisierung aber häufig nicht mal eben so umsetzbar.
 
Zuletzt bearbeitet:
tom'sHARDWARE: AMD Ryzen 7 1800X CPU Review - Results: Workstation
Important Note schrieb:
Many of the professional applications in the development field have been optimized and compiled for Intel CPUs. This is reflected in the performance numbers. Still, we want to provide a complete performance picture, so we won’t skip them. The results might motivate the application developers to focus more of their efforts on AMD’s Ryzen and Naples so that their users have two options.
Beschreibt es doch perfekt und dies gilt auch für (sehr) viele andere Anwendungen. Ein ähnliches Bild zeichnet sich auch bei der Optimierung von Web-Seiten (vor allem im mobilen Bereich) auf Chrome ab. Eine Quasi-Monopolstellung ist nicht gut - für niemanden.
 
Zuletzt bearbeitet:
Eben!

Wobei man bei Web es einfach lösen könnte, indem man sich auf einen vorhandenen Standard bezieht und nicht irgendwelche Webkit Sonderlösungen einsetzt. Jahrelang hat man sich den Mund wegen IE zerrissen und wiederholt den gleichen Mist schon wieder.

Das entscheidende ist eben die jahrelange Optimierung auf eine Plattform, die sogar Intel etwas schadet, da sie mit Mesh selbst Änderungen an "ihrer" Plattform durchgeführt haben. Der springende Punkt dabei wird aber sein, wie gut AMD TR und Epyc mit vorhandenen Lösungen zurecht kommt, da vor allem im Serverbereich es mehrere Jahre dauert, bis eine Software aktualisiert wird.

Es ist gut wenn Epyc demnächst im reinen Leistungsvergleich mit Intel konkurrieren kann, aber sehr schlecht wenn sich die Werte von Geekbench in einigen Applikationen widerspiegeln würden. Denken wir mal an professionelle Software, Datenbanken, Mailserver und Co. Solche Software wird nicht zuletzt dank Virtualisierung häufig länger als 10 Jahre eingesetzt. Da ist jegliche Preisvorteil dahin, wenn ich mit einem neuen Server gleich die komplette IT umstellen muss.

Bei Ryzen war sowas ja noch halbwegs geschenkt. Ältere Spiele laufen aus verschiedenen Gründen etwas schlechter auf Ryzen CPUs als auf aktuellen Intel CPUs, bei neuen Spielen relativiert sich das ganze schnell wieder. Bei Anwendungen auf die Threadripper es absieht, kann ich aber nicht vom Start aus alles wegwerfen und extra für eine neue CPU beschaffen und auch die Entwickler werden noch lange Zeit benötigen um überhaupt Anpassungen (für die aktuellsten Versionen) durchzuführen.

Die spannendsten Fragen werden hier sein, ob ich im Vergleich AMD 16C zu Intel 16C oder gar AMD 16C zu Intel 10C mit ähnlicher Leistung rechnen kann, mit einer etwas besseren oder etwas schlechteren oder wie im Fall von GB mit einer sehr schlechten Leistung. Vermutlich ist Geekbench eine extreme Ausnahme, ein solches Ergebnis bei Photoshop, Mathlab, AutoCAD, SolidWorks und co. wäre aber katastrophal.
 
Zuletzt bearbeitet:
und ich denke du irrst dich wenn du glaubst das AMD mit Epyc das komplette Geschäftsfeld von Intel abgrasen will ,
nicht umsonst hat AMD einen RISC Verschlüsselungsprozessor ins Design eingearbeitet der unabhängig vom eigentlichen Prozessor Arbeitsspeicher und Laufwerke verschlüsseln kann , auch den von virtuellen Maschinen .
Ziel sind die Datacenter , die Rechenleistung vermieten und die ihren Kunden Sicherheit garantieren wollen .
https://youtu.be/qgiUuTmXyGs
 
Zuletzt bearbeitet:
Das macht doch schon 1 und 1 die Epyc einsetzen und auf Epyc in diesem Bereich bauen!

Es ist gut wenn Epyc demnächst im reinen Leistungsvergleich mit Intel konkurrieren kann, aber sehr schlecht wenn sich die Werte von Geekbench in einigen Applikationen widerspiegeln würden

Was für eine Lachnummer, glaubst irgendwer der sich mit der Materie beschäftigt hat, nimmt einen Geekbench ernst?!

Wir werden sehen ob TR so sehr anders performt als Ryzen?!
Wenn er gleich performt lache ich euch alle aus!
Da kann man sich nur total weglachen!
 
MK one schrieb:
und ich denke du irrst dich wenn du glaubst das AMD mit Epyc das komplette Geschäftsfeld von Intel abgrasen will

AMD kratzt mit ihren CPUs bestenfalls an den Geschäftsfeldern von Intel. Nirgendwo habe ich was anderes behauptet.

Aber gerade dort WO AMD ansetzt zählt das Preis/Leistungsverhältnis durch die Bank hinweg und nicht nur bei bestimmten Anwendungen. Ich für meinen Teil werde irgendwann die Entscheidung treffen (müssen) Epyc den Kunden anzubieten oder einen großen Bogen um die gesamte Plattform zu machen und diese Entscheidung wird daran bemessen wie gut Epyc mit vorhandener Software zurechtkommt und nicht wie es bei bestimmten darauf optimierten Anwendungen funktioniert. Threadripper geht mir ehrlich gesagt am A vorbei, weil es schlichtweg nicht dem Anforderungsprofil einen unserer Kunden entspricht.

Das 1und1 und bestimmt auch einige andere Firmen mit den Gedanken Spielen AMDs Plattform einzusetzen, ist richtig. Die haben aber auch eine entsprechende Grösse, dies in den Bereichen wo er richtig und sinnvoll ist einzusetzen. AMD möchte aber in erster Linie mit Epyc die "kleinen" 1-2 Sockel Server von Intel angreifen und ein grosser Teil davon landet nicht bei riesigen Hostern, sondern im Mittelstand und bei kleineren Firmen. Hier stellt man eben nicht alles um nur weil man am Server 20% sparen kann.

Ein ähnlicher Fall gilt eben auch für Threadripper. Hier geht man auch nicht auf Jagd auf die größten Workstations wie einer HP Z840 sondern konzentriert sich zunächst einmal auf den HEDT Markt. Hier landet ebenfalls ein guter Teil der Systeme bei kleineren Betrieben oder im semi-professionellen Bereich und auch hier wird man nicht kurzfristig alles umkrempeln, damit die Software auf dem neuen PC läuft, sondern erwartet zunächst einmal, dass die neu angeschaffte Hardware mit bestehenden Lösungen anständig funktioniert.

MK one schrieb:
nicht umsonst hat AMD einen RISC Verschlüsselungsprozessor ins Design eingearbeitet der unabhängig vom eigentlichen Prozessor Arbeitsspeicher und Laufwerke verschlüsseln kann

Das ist schick, ist aber eben wie 1und1 auch sagt für Hoster interessant und ergänzt die neuen Sicherheitsfeatures von Hyper-V 2016 und vSphere 6.5. Vorausgesetzt man hat seine Infrastruktur bereits umgestellt oder plant eine zeitnahe Migration.

Das eigentliche Werbevideo von 1und1 ist hingegen (vorsichtig ausgedrückt) lächerlich. Ich habe seit Jahren genug Diskussionen mit mittelständischen Unternehmen geführt ob man die Anwendungen in die Cloud (Azure, AWS) migrieren soll. Da geht es immer nur neben der Kosten/Nutzen Frage darüber ob sie im Haus oder in die Cloud sollen und ob die Cloud in USA, EU oder Deutschland ist. Speicherverschlüsselung? Erkläre das bitte einem Geschäftsführer mit halbwegs ausgeprägten IT-Wissen. Wenn man den Cloud skeptisch gegenüber ist, ist es genauso als würdest du hier einigen Aluhutträgern, den Unterschied zwischen Datensammlung und Telemetriedaten erklären. :evillol:
 
Zuletzt bearbeitet:
Was hat die Cloud Migration und Argumention mit TR und Epyc zu tun?
Die wüde es genauso geben, wenn AMD gar nicht existieen würde, es ist nur ein Beisspiel wo die Systeme eingesetzt werden können und wo 1 und 1 ein Vorreiter ist, bezogen auf AMD oder glaubst du ernsthaft Intel will dieses Geschäft nicht mitnehmen?

Die ganze Sache dreht sich doch einzig und alleine darum, wie sich TR und Epyc im Alltag vehalten, und ihr blauen Jungs spekuliert und hofft darauf, das die Systeme die gleichen Probleme wie herkömmliche NUMA Nodes (Mehrprozessor Systeme) aufweisen und das die Performance von Ryzen eher ein Versehen ist!

Und ich werde euch auslachen, wenn sich das nicht bestätigt!
 
? wie es sich in Games & Handbrake verhalten wird, das wird interessant. Wenn jemand natürlich mit Povray, Blender, Cinebench testet wird man kaum über irgendwelche Skalierungsproblematiken stolpern da die Tools ihr für jeden Kern einzelnen kleines Workset mitbringen. (man muss sich nur den Epyc vs SL-SP Parcour von Anandtech ansehen und sieht gut dass es Workloads gibt die Epyc 1a liegen, und andere die es nicht tun)

Keiner hier sagt dass TR hier bei Games / Handbrake Probleme haben muss. IF ist jetzt ja nicht gerade langsam. Man wird sicher weniger Probleme als bei klassischen Multisockel Systemen haben.

Wichtig und richtig ist dennoch diese Überlegungen (möglichen Problemen) zu haben, um zb diese auch in den Tests mit ggf Frametime Analysen zu bestätigen oder eben entschärfen.

Darauf hinzuweisen hat erstmal nichts mit blauer roter oder sonstwas "Brille" zu tun. Viel eher dann das chronische "kann gar nicht sein" weit mehr kindlichen Fanboycharakter.

Edit: Es ging um TR, nicht um Ryzen. Rzyen hat eine Die, ist zwar beim CCX übergreifenden Zugriff auf L3 auch etwas träger aber nur minimal. Man sieht ja gut wie gerade mit Ram Takt und Konfiguration sich die Frametimes und Percentile bessern, auf sehr guten Niveau sind. Ryzen ist eine super Gaming CPU in meinen Augen, gerade auch weil man 6 Kerne und 12 Thread für wenig Geld bekommt.
 
Zuletzt bearbeitet:
" Auslagerung " und " Fremdvergabe " sind Stichwörter die immer dann ins Spiel kommen , wenn es um Kosteneinsparungen geht.

Der AMD Ansatz hat etwas , was bislang fehlte , er bietet Schutz vor dem auslesen des Arbeitsspeichers der Virtuellen Maschine , selbst wenn man auf Seiten des Servers Admin Rechte besitzt .

Es hilft einem Hacker nicht mehr wenn er die Firewall eines Servers überwunden hat , er kann zwar auf den eigentlichen Server zugreifen aber nicht mehr auf die Kundendaten in den virtuellen Maschinen , da verschlüsselt , das ist schon ein Argument .
Auch in größeren Firmen mit sensitiven Bereichen könnte ich mir durchaus Interesse vorstellen , wenn die Patent und Entwicklungsabteilung ihre eigene VM erhält , sodass serverseitig kein unverschlüsselter Zugriff auf die Daten mehr möglich ist .

Die Verschlüsselung ist vollkommen unabhängig von der Software und verwendeten Programmen , sie geschieht hardwareseitig und kostet dank dem seperaten Risc Prozessor kaum Performance .
Ein Schwachpunkt bisheriger Server Systeme war bisher die Server Firewall selbst , war diese überwunden konnte per Trojaner / Überwachungsprogrammen Daten ausgelesen werden , sei es Email Adressen samt Passwort , Kreditkartennummern oder ähnliches - und das ist nur die Spitze des Eisbergs , Firmenspionage hat es und wird es immer geben , solche Fälle werden jedoch nicht publik gemacht .
 
Mit dem vorher Messen hat Krautmaster recht (Auch wenn er von x264 kein Plan hat :P ;) ) , ich hatte mir vor zwei Jahren eine h110i GTX mit 240er lowprofile (etwas dünner als die Normalen) Radi gekauft. Das Shinobi hat im Deckel auch die Bohrungen, sogar ein 280er würde passen, ABER am Ende musste ich zwei Schrottige labber Slipstream nehmen, weil die RAM Klammern im Weg waren, selbst mit der dünner Radi + dünnen Slipstream kombi, mussten die oberen RAM Klammern offen bleiben, Optimal ist das nicht! Ich habe mich sehr geärgert darüber, war aber meine Schuld, bin nur nach dem Platz und Bohrungen gegangen und hatte den Rest vergessen.

mfg

NT:
CH hat ihr TR Paket bekommen, Bilderrätzel finde den Threadripper ;)
asus-x399-rog-zenith-w2s2f.jpg
Oben am Brett scheene 2x8pin so muss dass.
 
Zuletzt bearbeitet:
Alter Schwede.... so ein Paket will ich auch.:D

So ein TR Board sieht schon hammergeil aus.
 
Ja bei mir war es auch Liebe auf den ersten Blick, und Herzen in den Augen beim zweiten Blick was da etwas versteckt auf dem Rücken liegt :D

mfg
 
Ist auch das einzige was von der Form wirklich passt.

Allerdings finde ich das interessant.

"Der Gerät" ist ist ja dann von Asus, in Asus Folie verpackt worden.

d.h. der Prozzi wurde vermutlich von Asus schon auf genau diesem Board getestet.
 
Keine Ahnung ob CPU Reviewer ihre Samples gleich als MB+CPU Allinone bekommen, jedenfalls Glotzt da oben ein Threadripperlein hervor :D will den haben sofort!

mfg
 
Da bräuchte ich sogar ein Zusatzcpustromkabel. Kostet bei Corsair 5eur + 15 Versand :D

Sieht sehr nice aus. Bin auch gespannt wie der Start der Plattform sein wird und ob es eine schwächere CPU als den 12 KernX gibt.

27.7 kommen neue Infos oder?
 
Caramelito schrieb:
Da bräuchte ich sogar ein Zusatzcpustromkabel. Kostet bei Corsair 5eur + 15 Versand :D

Sieht sehr nice aus. Bin auch gespannt wie der Start der Plattform sein wird und ob es eine schwächere CPU als den 12 KernX gibt.

27.7 kommen neue Infos oder?
Nein du kannst auch ein 8er vom GPU Strang nutzen, sagte mir Corsair auf Nachfrage zu meinem.

Jup, bzw. nächste Woche hat AMD ein Meeting mit den großen Mainboardbuden anberaumt, das ist eigentlich nicht für Endkunden aber da werden wieder Infos nach draußen gehen, MSi hat noch gar nichts gezeigt und sich Zeit gelassen, die werden da wohl was zeigen.
Das wird dann bis zum Start das letzte sein an Offiziellem, denke ick. Jup 27 ist Alienware Launch und Vorbesteller, ergo sollte da eigentlich die NDA Fallen und am 10.08 sind die ersten Bretter und Ripper bei den Kunden wurde so Versprochen.

mfg
 
Also ich nehme ein GPU Kabel, stecke dieses in den GPU Slot vom NT und ins Board.. Das soll passen? Hätte ich meine Zweifel haha^^
 
Zurück
Oben