leipziger1979 schrieb:
Höflich formuliert so ernüchternd wie die unabhängigen Tests gezeigt haben gegenüber dem, ja nennen wir es mal "Lügen", was AMD vorher vollmundig versprochen hat.
Und auch hier wird, wenn man schon jetzt die Anzahl der Kerne und den RAM Ausbau streicht, auch "nur" ein herankommen an Intel übrig bleiben.
AMD hat nicht gelogen, die benchmarks welche AMD im Vorfeld aufgeführt hat konnten alle exakt so nachgestellt werden. Abweichungen +-1% sind üblich.
Dass einige Spiele noch nicht mit dem scheduler klarkommen hat damit genauso wenig etwas zu tun wie die Tatsache dass die Hersteller noch Probleme mit dem UEFI haben.
Und die Inkompatibilität mit DDR4... da kann man nichts schönreden, aber Fakt ist dass die Situation beim launch von X99 und DDR4 auf Sockel 2011 VIEL schlimmer war. Und die ersten samples als DDR4 im maisntream eingeführt wurde waren auch nicht berauschend.
Wenn Du den blender-Test meinst... Computerbase verwendete eine aktuelle Version welche wenige Wochen alt ist. Wie, zur Hölle, hätte AMD einen benchmark im letzten Herbst mit dieser durchführen sollen?
Und diese blender-Version wurde SPEZIFISCH auf Intel-CPUs optimiert, besonders hinsichtlich AVX2. Oh, Überraschung, ich erstelle Code der spezifische Erweiterungen einer CPU ausnutzt und CPUs ohne diese können da nicht mithalten. Wie unerwartet!
AVX war schon immer stark falls es genutzt werden konnte.
Umgekehrt muss man auch sagen: es gibt derzeit keine Produktivsoftware welche auf Ryzen optimiert ist. Warum auch, gab ja bislang nicht mal Ryzen. Sowas benötigt immer Zeit, sieht man ja daran dass AVX2 auch nicht erst seit Februar existiert.
P.S.: Das sind objektive Fakten. ich hab ein Intel-System und werde das erstmal auch behalten. Ändert nichts an der Tatsache dass Ryzen objektiv ein guter Chip ist der auf Augenhöhe mit Intel-Chips agiert, aber eben zuweilen andere Stärken und Schwächen hat. Man muss hardware immer nach der software kaufen welche man nutzt, war immer so und wird immer so bleiben.
@Don Kamillentee: deswegen setzt man im Server ja auf so viel RAM - Du lädst de facto alles was Du brauchst dort rein. Einmal. Danach operiert der Server komplett aus dem Speicher. Spezifische Datensätze werden danach eben eingestreamt. Wichtiger ist aus diesem Grund aber eben dass der Speicher schnell ist. memory gap ist nicht umsonst ein Riesenthema. HP hat eine eigene Forschungsabteilung gegründet um Konzepte zur Lösung dieses Problems zu finden. Suche mal nach "the machine". Aus diesem Grund besteht überhaupt erst Interesse an Dingen wie Memristoren, 3D Xpoint (Optane) etc. Du lädst ja nicht enorm viele Daten nach 8je nach DB), aber das was fehlt muss schnell zur Verfügung stehen. Deswegen legt Optane so viel Wert auf Latenz anstelle von Bandbreite. Zuerst einmal.