sz_cb schrieb:
Auch die IPC hat sich seither um den Faktor 1,5 verbessert. Der RAM ist etwa doppelt so flink. Wo also geht die Performance flöten, wenn alle Komponenten theoretisch deutlich schneller sind?
Die IPC hat sich in den meisten Bereichen deutlich verbesser, das stimmt.
Du wirst auch Unterscheide merken, wenn du Ordner packst oder entpackst.
Du wirst Unterschiede Messen wenn du Computing workloads durchführst....wenn du Videos codierst.
Du wirst 8K Videos abspielen können, weil es heute sowohl codecs dafür gibt, die neue hardware ausnutzen, als auch einfach mehr Leistung.
Dass du im Alltag nichts spürst liegt daran, dass es eben schon sehr schnell lief.
Oder die Limitierungen an anderer Stelle liegen.
Menüs öffnen, ist oft nicht durch CPU/RAM/Laufwerk limitiert, sondern durch eine Animation die eben 0,2s dauert.
Browser können inzwischen sehr viele Threads nutzen, aber zu hattest ja schon 8Threads....und dann ist die limitierung eher bei den Servern die dir die Daten liefern.
sz_cb schrieb:
Warum wird Software nicht optimiert?
Wird sie durchaus....allerdings schleppend.
AMD musste lange mit Microsoft käüfen, damit die Ryzen CPUs so gut laufen wie sei das jetzt machen....am Anfang hat Microsoft die AMD Kerne immer agressiv schlafen gelegt, was Leistung und reaktionsgeschwindigkeit gekostet hat(Intel Lerne komischerweise nicht).
Da musste man bei AMD Höchstleistung wählen...oder dem AMD Energiesparplan, der ein umbenannter Höchstleistungsplan war.
Inzwischen hat AMD da nachgebessert und die Kerne wachen schneller auf und Microsoft hat den ausbalanciert Plan überarbeitet.
sz_cb schrieb:
Bestes Beispiel hierfür sind m.E. Webseiten. Meine Güte, da wird ein Haufen Schrott geladen, der überhaupt nicht notwendig wäre.
Ein übliches Problem...die Leute haben im Schnitt hardware mit mehr freien Ressourcen....da können müssen wir weniger sparsam damit umgehen.
sz_cb schrieb:
Ja, genau das ist der Punkt. Ich habe eine neue PCIe-SSD, die an PCIe3.0 theoretisch ungefähr 7 Mal so schnell sein sollte wie die alte SATA-SSD.
...Das ist nur Marketing.....du darfst nicht auf die sequenziellen Bandbreiten gucken....die sind im Alltag nicht interessant. guck auf die 4K Werte und die Zugriffszeiten.....da hat sich von Sata zu neuen PCIe 3.0 SSDs nicht so viel geändert.
Die SSDs werden wegen TLC und QLC Speicher auch eher träger als früher......kostensparen um mehr Kapazitäten anbieten zu können.
sz_cb schrieb:
Daher meine Frage, wofür sich die Leute diese fetten CPUs holen? Es gibt - bis auf ein paar wenige spezialisierte Ausnahmen - keinerlei Vorteile gegenüber den "kleinen" CPUs.
Naja entweder machen sie was damit, was die Kerne richtig nutzt.
Oder sie wollen gute Frametimes in Spielen.
Es ist schon erschreckend, wie viel CPU Power einige der heutigen Spiele zu Frühstück verspeisen.
Mein i5 3570K ist da selbst mit 4,4GHz überfordert.
Aber in Spielen die nur 4 Threads unterstützen, ist er noch gut dabei...
Im normalen Internet/Office Betrieb, ist auch mein alter C2Q 9550 noch brauchbar....schon etwas langsamer aber gut nutzbar.
Mit 2 Kernen ist man jedoch aufgeschmissen.
sz_cb schrieb:
Nehme ich bspw. die Tabellenkalkulation: Standardmäßig ist sie so eingestellt, dass sie alle 10 Minuten zwischenspeichert. Bei besagter Tabelle führt das dazu, dass sie im Moment des Speicherns (was fast genauso lang dauert wie das Öffnen) nicht mehr reagiert.
Naja die Tabelle will ja auch nicht, dass du was änderst während sei speichert....schon klar, dass die da nicht reagiert.
Dass es 10s dauert, würde ich auf die Programmierung schieben....das ginge bestimmt mit heutiger Hardware schneller, aber vermutlich hat das keine Priorität.
sz_cb schrieb:
Welche neuen Befehlssätze gab es denn seit Sandy Bridge?
AVX2 ist bei den Möglichkeiten ziemlich heftig....
Das muss aber von der Software unterstützt werden.
Da gab es erst vor kurzem einen kleinen Skandal, weil Mathematika für die auswahl der Befehlssätze eine Standardbibliothek von Intel verwendet.....und diese hat bei Intel CPUs abgefragt, was die CPU kann und dann das beste gewählt....bei dem Beispiel AVX2
Und bei allem was nicht Intel ist, den vorvorvorvorgänger SSE genutzt.
Hat man vorgegaukelt, die AMD CPU wäre ein Intel, hat Mathematika AVX2 genutzt und der code lief je nach Situation von 20-400% schneller.....400 waren wohl selten..300% aber nicht.
Ist natürlich alles rechtes, weil Intel ins Kleingedruckte geschrieben hat, das nicht Intel Produkte eventuell langsamer laufen könnten.
sz_cb schrieb:
Mein Ryzen ist aber ebenso undervolted
Ja meiner in der Regel auch, aber vorsicht.....Das kann auch massiv Leistung kosten.
Was aktuelle AMD CPUs und GPUs an Sensordaten ausgeben, ist nicht selten etwas ganz anderes als wirklich intern passiert!
Temperaturen....die haben beide eine ganze Reihe von Sensoren, die den Boost steuern und anders als früher extrem nah an den Schaltungen dran sitzen.
Davon bekommt man aber nix zu sehen, sondern man bekommt einen errechneten Wert.
Bei den GPUs z.B. einen Wert der grob das abbilden soll, was man früher gewohnt war, und einen der den heißesten Sensor zeigt....der geht dann auch mal auf 109°C hoch.
Bei den CPUs wird auch irgendas errechnet und dann wir dteilweise je nach CPU auch nicht 10 oder 20K Offset obendrauf gesetzt...
Taktraten.....da gab es z.B. den Fall, wo ein Youtuber seine CPU auf 1V gesetzt hatte und Oh Wunder es lief....und er hatte höhere Boost Taktraten als vorher...und viel weniger Verbrauch........Aber leider hat ihn seine CPU bei den Taktraten vollig angelogen und nur ausgegeben, was sie wohl Boosten würde, bei diesen Temperaturen und Verbräuchen....aber intern hat die CPU massiv heruntergetaktet und die Leistung war bescheiden.
Das gleiche bei den AMD GPUs. auch da war es bei Vega am Anfang möglich die CPU massiv zu übertakten.
Statt 1500-1600MHz 1900+ eintragen.....und es wurden auch so hohe Taktraten im Betrieb bescheinigt....aber intern war die Karte im Notlauf und hatte vermutlich nur 1200MHz.
Das ist mir auch schon passiert bei OC oder undervolten....wählt man zu extreme Werte, geht die GPU in einen sicheren Modus, der die Leistung versaut....und aus dem man nur wieder raus kommt, wenn man die Karte im Wattman zurücksetzt....dann kann man wieder von vorne anfangen mit dem Einstellen...aber immer schon auf die FPS und dem extern gemessenen Stromverbrauch gucken.
Vega hat da z.B. Untergrenzen für die Spannung....man kann weniger für P6 und P7 eintragen, aber ist die Spannungsregulierung höher eingestellt, dann get es nicht weiter runter....ist z.B. P5 höher, dann geht es nicht weiter runter....Das Powerlimit muss zum zuverlässigen Stromsparen maximiert sein......sonst hängt sie manchmal in niedrigen Powerstages fest und kommt gar nicht in den Bereich, den man mit undervolting ausgelotet hat.
Zustzlich habe noch manche Bios Versionen limits...und andere nicht....
Daher immer vom Stock zustand aus Leistungstests machen....Leistungsuafnahme extern messen und dann verifizieren, ob es überhaupt etwas bringt oder ob die Hardware nur bessere Werte ausgibt.
sz_cb schrieb:
Wenn ich meinen RAM von 3200 auf 3600 MHz übertakte, bekomme ich ihn nur stabil, wenn ich neben der RAM-Spannung auch die SoC-Spannung anhebe (bzw. den eingestellten Negativoffset verringere). Sobald ich das mache, sinkt die Leistungsfähigkeit der CPU wegen des PPL. Dann hätte ich zwar einen etwas schnelleren Speicher, aber in Summe wäre der PC langsamer als vorher. Hebe ich dann das Power-Limit an, ist der Negativoffset bei der CPU-Spannung wieder zu hoch und die Systemleistung sinkt noch stärker.
Gut beobachtet....ich merke du verstehst die Zusammenhänge.
Ich selbst bin ungern im Powerlimit. Das kann gut laufen und ist manchmal auch die beste Variante um Stom zu sparen....im Laptop z..B:
Aber am Desktop PC sehe ich sowas immer als Quelle für wenig zuverlässige Leistung.
Eine Grafikkarte oder CPU, die im Powerlimit oder schlimmer Temperaturlimit hängt, wird immer stark schwankende Taktraten haben und tendenziell genau dann einbrechen, wenn die Last besonders hoch schießt und ich die Leistung besonders bräuchte, um z.B. in Spielen die Frametimes stabil zu halten.
Auch kostet das hin und herboosten selbst auch Leistung.....zumindest in PC Spielen.
Die Zen2 CPUs sind da nochmal besser geworden, aber bei Zen und auch bei Zen+ ist es meiner Erfahrung nach besser die CPU auf feste Taktraten zu bringen, als den Boost arbeiten zu lassen.
Bei meinem 1800X hatten 3,8GHz allcore eine bessere Spieleleistung als die 3,7-4.1GHz Boost die die CPU Stock gemacht hat....und das sogar in uralten Spielen, die nur einen CPU Kern nutzen.
Und auch mit dem 2700X habe ich in KCD und erst vor kurzem in Ghost reacon, gemessen, dass stabiler Takt mehr Leistung bring als Boost.
Daher ist mein Stromsparprofil eine Begrenzung auf 3,9GHz....undervolting mit offset....Stromsparmechanismen deaktiviert mein Mainboard automatisch wenn ich auf einen festen Takt gehe....auch das heruntertakten im Idle wurde deaktiviert, aber beides kann man im Bios wieder aktivieren.
Im Idle sind die Verbrauchs-Unterschiede zu Stock im Bereich der Messungenauigkeit, aber unter Last sind die Unterschiede massiv.
Naja und für maximale Leistung habe ich dann noch ein Profil mit maximalem CPU und RAM OC.....da verbrät der PC bei reiner CPU Last auch mal bis zu 280W.
Daher ist das aus meiner Sicht nur was zum Spaß....Benchmarks machen und dann wieder auf vernünftigere Einstellungen zurück.