Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRyzen 3000 & Radeon RX 3000: Fantastische Gerüchte zu AMDs CPU- und GPU-Zukunft
@Stanzlinger Es gibt so ein schönes Zitat von Zeedy als dieser von Hochfrequenzkernen von Intel schwärmte (habe gerade dieses Zitat nicht hier, aber alleine schon der Fakt, dass du bei der Google Suche nach Zeedy sofort Hochfrequenz und Computerbase vorgeschlagen wird sagt schon alles )
Edit:
zeedy schrieb:
Tut mir leid dass du das lächerlich findest aber ich bin Hochleistungsgamer und brauche qualitativ hochwertige Hochleistungshardware. Intels massive Hochfrequenzkerne sind genau das was Gamer wie ich brauchen!
C++ auf dem Emacs coden habe ich vor 20 Jahren gemacht, mit den passenden Erweiterungen war das geil, da konnte man im Debugger einen Breakpoint setzen und dann einfach mal eine Funktion aufrufen und der z.B. die Datenstruktur zu Analyse übergeben und die Ausgabe dann direkt sehen.
Ich habe damals auch noch C in VI gecoded. Ja, war schon iwie geil in retrospect. Und wenn ich mir dann überlege wie lange ich manchmal vor VS sitze, bis endlich der Debugger läuft ... ! Da werde ich tatsächlich nostalgisch.
Und auch wenn das nicht unbedingt passieren muss mit der Beschleunigung, dann frage ich mich schon, was es mit anscheinend so superb optimierten Softwaresuiten a la Adobe auf sich hat. Ob die wirklich alle Kniffe nutzen um Performance rauszuholen, oder jede Menge bloat drin haben, einfach weil sie’s können und die HW-Beschleunigung das bisher alles abfängt.
Ich glaube nach wie vor, dass die revolutionäre Beschleunigung der HW vielen Programmieren erlaubt hat schlampig zu werden.
Und ohne diese „massiven“ Fortschritte (nein, kein Zeedy hier), hätten wir bspw. keine runtime-compilierten Sprachen.
@Stanzlinger Es gibt so ein schönes Zitat von Zeedy als dieser von Hochfrequenzkernen von Intel schwärmte (habe gerade dieses Zitat nicht hier, aber alleine schon der Fakt, dass du bei der Google Suche nach Zeedy sofort Hochfrequenz und Computerbase vorgeschlagen wird sagt schon alles )
Ich habe damals auch noch C in VI gecoded. Ja, war schon iwie geil in retrospect.
...
Ich glaube nach wie vor, dass die revolutionäre Beschleunigung der HW vielen Programmieren erlaubt hat schlampig zu werden.
Und ohne diese „massiven“ Fortschritte (nein, kein Zeedy hier), hätten wir bspw. keine runtime-compilierten Sprachen.
Ihr Hardcore-Nerds!
Um Emacs und VI habe ich schon vor 20 Jahren einen großen Bogen gemacht.
Und btw.: Ich habe doch tatsächlich in Softwaretechnik 'gelernt', dass Abstraktion vor Performance geht, mit der Begründung, dass sich die Hardware schneller entwickeln würde als die Software. Der Prof. kam aus der Industrie.
Hi,
es wird doch noch genauso argumentiert wie vor 20Jahren Multicore ist viel zun aufwendig warum laufen bestimmte Apps unter Linux um welten besser? ich denke es ist so kompliziert oder will das am Ende gar keiner unter Win....
lg
Schlampig vlt. schon, da es heute keinen mehr interessiert, ob das Programm jetzt 100 MB Ram mehr oder weniger braucht. Auf der anderen Seite hat das aber auch den Vorteil, dass Programme performanter werden (bzgl. Rechenleistung), wenn nicht penibel mit dem Speicher gehaushaltet werden muss.
Prinzipiell hast du zwar mit der Aussage recht, dass nur wenige Programme und Spiele 8 Kerne + SMT voll ausnutzen können, aber wenn du in den Bereich "gefühlte Performance" abdriftest, ist auch nicht mehr die SC Leistung entscheidend, sondern das Gesamtsystem. Da macht eine SSD bisweilen einen größeren Unterschied, als 50 Cinebench SC Punkte.
Was repräsentativ ist, zeigt die Erfahrung. Und die wiederum zeigt, dass es Cinebench MC am allerwenigsten ist.
Eine gesunde Mischung muss es sein, die von SC bis nahezu perfekt skalierendem MC geht, wobei der Fokus irgendwo in der Mitte zu suchen ist bei Consumer CPUs.
Ich habe schon oft beobachtet, wie der Taskmanager bei mir 13% Gesamtauslastung angezeigt hat, was bei 8 Threads auf SC Nutzung hindeutet. Natürlich war er auch schon zu 100% ausgelastet, aber das meist nur kurzzeitig.
Natürlich kommt es auf das Gesamtsystem an, aber ich gehe selbstverständlich davon aus, dass niemand einen 9900K mit einer 10 Jahre alten 2,5" SATA HDD befeuert. Umgekehrt wird niemand mit einem Sandy Bridge i3 mit einer Optane SSD befeuern.
Mehr Kerne waren noch nie das Allheilmittel. Gerade AMD Nutzer sollten das wissen. Der Athlon 64 X2 war anfangs nett, als er jedoch brauchbar wurde, war der C2D eine ganz andere Liga. Der Phenom 2 X4 und Bulldozer konnten ihr theoretisches Potential auch nie ausspielen (abgesehen vom Cinebench ). Bis man 6 oder mehr Kerne halbwegs nutzen konnte oder kann, waren sie längst überholt. Die ersten Ryzen wird es ähnlich treffen, SC Leistung ist zu gering für große Zukunftstauglichkeit in Spielen.
v_ossi schrieb:
Im Endeffekt nutzen auch nur die wenigsten Programme die SC Leistung durchgehend komplett aus. Ein inzwischen betagter i7-2600K kommt z.B. nur auf 131 Cinebench Punkte und liegt damit ~25% hinter einem Ryzen 7 1800X (im Multicore sieht es selbstredend noch schlechter aus).
Kombiniert man den aber mit einer GTX 1080 und zockt in höheren Auflösungen, egalisiert sich der Nachteil wieder. (Quelle)
Spiele und Anwendungen sollte man nicht durcheinander würfeln, da bei Spielen auch Faktoren wie die Auflösung, Details und die GPU eine gewaltige Rolle spielen. Aber das Beispiel ist trotzdem prima, denn es zeigt, dass eine alte, angeblich hoffnungslose CPU mit 4 Kernen noch ganz brauchbar sein kann, obwohl hier schon manche vorhersagen, dass selbst ein 8-Kerner in Spielen keine Zukunftstauglichkeit hat.
Viele haben offenbar immer noch nicht gelernt, dass man gerade in Spielen nicht beliebig perfekt skalieren kann. Dabei hat sich das bereits vor 10 Jahren angedeutet als die 4-Kerner Mode wurden und ewig brach lagen. Im Cinebench ist das prinzipbedingt sehr einfach alle Kerne voll auszunutzen.
Aber um nochmal zu dem Beispiel zu kommen: es zeigt deutlich, dass es immer auf den Einzelfall und die Präferenzen ankommt. Gerade wenn eine GPU ausbremst. Die Frage wäre nun, wie sähe das Ergebnis mit einer 2080Ti aus? Ich denke das würde der 1800X sich eher absetzen. Allerdings darf man nicht vergessen, dass der 2600K im Gegensatz zum 1800X noch Übertaktungspotential besitzt, das wenn ich das richtig gesehen habe nicht genutzt wurde.
Eine GTX 1060 beispielsweise als Vergleich, gerade unter DX11. Dass der Vorsprung von DX12 so groß ist, liegt auch an den miesen Treibern von AMD. Ebenfalls fehlt der Hinweis, dass es kaum DX12-Spiele gibt (war schon damals so und auch absehbar, dass sich daran nichts ändert). Zudem ist der Test auch etwas sinnbefreit, denn für Spiele kauft man keine Lowend-CPU wie einen FX6300 und paart sie mit einer 250-300€ GPU.
Ergänzung ()
usb2_2 schrieb:
Dass meinst du nicht ernst oder?
Dann ist meine 15w U CPU mit 3,9 GHz also schneller, als ein i7 2600k? Gut danke, dann Wechsel ich jetzt von allem weg auf einen Laptop mit so vielen Punkten im SC, wie nur möglich.
Das ist es, was du von meiner Ausführung über deine Annahmen zur Skalierbarkeit mitnimmst?
Von phantastischen Annahmen über die Skalierbarkeit von Singlecore Ergebnissen auf Multicore Anwendung sind wir wohl Dank Intels/AMDs Turbofunktionen mit unrealistischen Taktangaben weit entfernt.
Damit haben wir wohl wirklich einen Endpunkt in der Diskussion erreicht. Aber immerhin ausnahmsweise (fast) ohne dumme Sprüche.
@Zero_Point
Du kannst aber doch bspw. nicht abstreiten, dass nachweislich 4C/4T für einige Spiele (und das sind insbesondere die neueren Titel) nicht mehr ausreichend ist. Daraus folgt unmittelbar, dass du mit mehr als 4 physischen Kernen für dieses Spiel besser da stehst.
Ich würde auch nicht so weit gehen, zu behaupten, dass man heute schon mind. 8 Kerne für Gaming braucht, aber du unterschlägst dabei, dass sich diese Mehrzahl an Kernen auch positiv auswirkt, wenn das Spiel direkt garnicht davon profitiert.
Ein schlankes Testsystem, das für Benchmarks herhält ist nämlich auch nicht mit dem Standard-Szenario vergleichbar, das für einen Großteil gilt. Da läuft bei den meisten noch der Browser, Muskiprogramme, VoiP-Programme (evtl. sogar Streaming) etc.
Dazu dir 10% IPC und man liegt übrigens einiges über den 25% Mehrleistung bei gleicher Kernzahl, die du vorher nicht akzeptieren wolltest. Diese 25% gingen auch schon mit 3,4GHz
Der 1700 ist ja nun auch die im Takt reduzierte CPU, da kann man die Taktsteigerung dann leicht konstruieren, der sinnvolle Vergleich wäre mit dem 1700X (oder auch 1800X) gewesen, nicht aber mit dem 1700.
Martinfrost2003 schrieb:
Die neuen X570 sollen doch bereits über PCIe 4.0 verfügen.
Wenn man sich Folie genau anschaut steht PCIe 4.0 links unter der CPU, nicht rechts beim Chipsatz. Wäre zwar toll wenn die Chipsätze gleich komplett PCIe 4.0 wäre, oder PCIe 3.0 mit PCIe 4.0x 4 Uplink, aber dies geht aus dem Bild eben nicht hervor.
@Zero_Point
Du kannst aber doch bspw. nicht abstreiten, dass nachweislich 4C/4T für einige Spiele (und das sind insbesondere die neueren Titel) nicht mehr ausreichend ist. Daraus folgt unmittelbar, dass du mit mehr als 4 physischen Kernen für dieses Spiel besser da stehst.
Das sind dann aber Einzelfälle in denen HT noch hilft. Mir ist jedenfalls kein Spiel bekannt, das man mit 4 Kernen nicht vernünftig spielen kann. Und auch dann stellt sich die Frage nach der Optimierung. Es gibt viele Spiele, bei denen die Anforderungen nicht dem visuellen Ergebnis entsprechen.
Revan1710 schrieb:
Ein schlankes Testsystem, das für Benchmarks herhält ist nämlich auch nicht mit dem Standard-Szenario vergleichbar, das für einen Großteil gilt. Da läuft bei den meisten noch der Browser, Muskiprogramme, VoiP-Programme (evtl. sogar Streaming) etc.
Wer natürlich noch allen möglichen unnötigen Schrott im Hintergrund laufen lässt, der gar nicht gebraucht wird, der kann sich ja einen Threadripper mit 32 Kernen holen. Das ist dann aber ein hausgemachtes Problem. Genauso wenn ich den GPU-Treiber nur einmal im Jahr aktualisiere und mich dann über fehlende Optimierungen wundere.
Schade, dass Mist richtig stellen immer bedeutent aufwändiger ist als ihn zu verbreiten. Cinebench ist also Mist. Mein Gott der Thread wieder, noobfanbase at its best.
Nur so aus neugierde, welchen Prozessor hast du aktuell?
Und nach deiner Aussage ist es was schlechtes, dass man vllt bald um das selbe Geld mehr Cores bekommt. Also, wo ist das Problem?
Es zwingt dich ja keiner mehr als 4 Cores zu kaufen. Nur wundere dich dann nicht, wenn in paar Jahren die Anforderungen geändert haben, speziell da bei Intel der i3 mittlerweile 4 Cores hat und vllt bald auch mit SMT, wenn es so weiter geht und Spieleentwickler in die Richtung gehen, von einer Basis auszugehen, die eine CPU mit 4+ Core haben. Sie BF V. Dice weiß, dass die Gamer Geld für ihre PCs ausgeben und nehmen sich die Freiheit mehr abzuverlangen.
Und jetzt machst dich über 32 Cores lustig, aber mich würde es nicht wundern, wenn man bald erste Games auf Youtube sehen, die den zum live 4k rendern benützen.
Wenn ein Spiel mit mehreren Threads/Kernen besser performt ist das für mich ein klares Zeichen dafür, dass es sogar besser optimiert ist. Wieso sollte man für immer die Software auf 4 Kerne optimieren, wenn der Mainstream schon bei 6 bis 8 Kernen angekommen? Zumal es einfach verschenkte Performance ist
Das siehst du so, für mich ist es sehr bequem, wenn ich meinen Browser mit mehreren Tabs zum Spielen nicht schließen muss, da kann ich ganz bequem, wenn ich tot bin aus dem Spiel taben und schnell einen dummen Kommentar auf CB abfeuern
Für volle Details und ohne HT. Wieso ist das Spiel (und wir reden tatsächlich nur von einem einzigen) nun auf einem 4-Kerner nicht vernünftig spielbar?
Revan1710 schrieb:
Wieso sollte man für immer die Software auf 4 Kerne optimieren, wenn der Mainstream schon bei 6 bis 8 Kernen angekommen?
Die sind noch lange nicht angekommen, v.a. 8 Kerne. Die paar Hanseln hier stellen nicht den Maßstab dar. Wenn man ein Spiel verkaufen möchte, dann muss es auch auf 4 Kernen gut laufen, mehr Kerne sind meinetwegen Bonus für High-FPS-Gamer.
Revan1710 schrieb:
Das siehst du so, für mich ist es sehr bequem, wenn ich meinen Browser mit mehreren Tabs zum Spielen nicht schließen muss, da kann ich ganz bequem, wenn ich tot bin aus dem Spiel taben und schnell einen dummen Kommentar auf CB abfeuern
Das hat weniger mit Nerdigkeit als mit Pragmatismus zu tun. Ich hatte einige Admin-Kollegen die sich alle möglichen Ersatz-Editoren herbei geholt haben. Dummerweise war jeder einzelne davon immer dann gerade genau auf dem System im Gegensatz zum vi nicht verfügbar oder nicht installiert, wo gaaanz dringend eine Datei editiert werden musste. Und zusätzlich ist vi wenn man erstmal die Einstiegshürde genommen, hat unglaublich schnell in vielen Teilaufgaben die man täglich erledigt. Bei mir hat erst VS Code dazu geführt das ich nicht mehr automatisch vi aufrufe :-)
Und wenn am Ende der Fehler vor dem PC saß? (Und ja die Via Chiplets waren zum k...) Sorry aber das sind Vorurteile und das im IT Bereich grenzt dann an Fanboytum.. Du darfst gerne das schnellste für 250% kaufen, dem Rest reichen auch 99% für 100%
@Hayda Ministral
Die Argumente habe ich natürlich alle 1000 mal gehört. Für mich schwang da immer ein bischen Unix-Elitismus mit. Keine Ahnung, das meistern von VI war wohl so etwas wie ein Initiationsritual für Admins und Lisp-Entwickler (edit: ach nee, das war natürlich Emacs) ;-)
Zu der Zeit (> 20 Jahre) gab es schon eine phantastische IDE von Application Systems Heidelberg für den Atari ST. Als ich auf den PC umgestiegen bin, kamen mir fast die Tränen, weil die IDE von Borland so Scheiße war (MS DOS).