News Skylake-X Refresh: Hohe Preise für Prozessoren, die nicht lieferbar sind

Wadenbeisser schrieb:
Ach angesichts der Threadripper Vergleiche sieht man doch recht gut das Lightroom nichts mit mehr als 16 Kernen anfangen kann und dann beim 2990WX sehr empfindlich auf die indirekte Speicher Anbindung reagiert

Eigentlich sieht man hauptsächlich den Unterschied zwischen Quadchannel und Dualchannel Ram. Abseits vom Skylake-S der generell so schlecht wie in kaum einem anderen Benchmark abschneidet (warum auch immer), hält sich der Rest ganz gut.

Die Kernskalierung ist ansich sehr gut (wie auch zu erwarten angesichts des Benchmarks).Bei RAW- Entwicklung hart ins RAM-Bandbreitenlimit zu laufen spricht allerdings auch nicht wirklich für die Software.
Nichts desto trotz, Bereiche wo die zenvers1 gegen die Skylake-X untergehen (zB. FMA lastige Dinge wie fft oder dgemm) gibt es durchaus. Lightroom fällt aber (zumindest laut diesen Benchmarks) absolut nicht in diese Kategorie.
 
@max9123
Daran dachte ich zuerst ebenfalls, zumal es durchaus Programme gibt die bei den 4 Chip Threadrippern trotz gleicher Speicherausstattung massiv einbrechen. Wären da nicht die Werte vom 1950X und vom 2950X, welche beide schneller sind als der 2990WX. Entsprechend nutzlos sind dann auch die zusätzlichen Kerne des 2990WX. Des weiteren ist die Frage welches Speichermodul an welchem Chip hängt. Ein Vergleich eines 2 Chip Threadrippers in der 2 und 4 Kanal Config wäre da hilfreicher gewesen denn dort hat jeder Chip direkten Zugang zum Speicher.
Wir können das auch noch weiter auf die Spitze treiben und den Ryzen 7 2700X mit dem Threadripper 2990WX in der Dual Channel Config vergleichen, bei welcher der 2700X gewinnt.
Damit wären wir dann bei max. 8 genutzten Kernen.

Würde das allerdings nur an der Speicherbandbreite hängen dann dürfte der i9-7980XE nicht 3,4x schneller als der i7-8700k sein. (Dual vs. Quad Channel) oder wurden so unterschiedliche Speichertaktfrequenzen verwendet oder ist es einfach nur ein Tribut dafür dass der 2700X nur ein 6 Kerner ist? Aber wenn es so hart am Speicherlimit hängt, warum könnten sich dann die Kerne so stark auswirken?

Gehen wir also davon aus das Lightroom max. 8 Kerne nutzen kann und massiv von der Speicherbandbreite limitiert ist, da wäre doch der ca. 250€ teure Threadripper 1900X doch der ideale Prozessor.
 
@smart- ich spreche nur und explizit von dedizierten gaming gpus und das seit meinem ersten posting in diesem thread, als ich auf eine frage bezüglich gaming gpus geantwortet habe. und ich lese immer nur von irgendwelchen sachen, die keine dedizierten gaming gpus sind. was ist an dem begriff "dedizierte gaming gpu" so schwer zu verstehen?

eine dedizierte gaming gpu ist nicht:
- intel cpu
- server cpu
- apu
- konsolen soc
- radeon pro für apple
- handy
- gameboy
- schuhcreme
- steuererklärung, anlage b

eine dedizierte "add in board" gaming gpu ist:
- desktop geforce
- desktop radeon

jeweils als steckkarte - zum dazustecken - ohne cpu dabei. deshalb dediziert. und gaming gpu, weils keine firepro oder tesla oder quadro ist. auch nicht als reine bildausgabe. sondern ein 3d beschleuniger zum spielen.

intel hat keine dedicated gaming gpu, deshalb ist intel raus. wenn ich hier nochmal 60% marktanteile von intel lesen muss, beiß ich in den schreibtisch. das ist wie wenn man sich über fotopapier unterhält, und ständig einer mit der küchenrolle anfängt! es ist beides papier, hat aber 0,nix miteinander zu tun. das zewa ist raus. und selbst wenn zewa vom volumen her drei mal so viel küchenrolle verkauft, das ist sowas von wurst für die betrachtung von fotopapier.

und genau so ist es mit den dedicated gaming gpus, amd, nvidia und den marktanteilen. intel ist raus, konsolen sind raus, apple ist raus. absolut irrelevant. nvidia beherrscht den markt für dedicated gaming gpus für den gaming pc. man siehts am umsatz, man siehts am gewinn, man siehts an der performance, man siehts an verkaufszahlen, man siehts an hardwareumfragen, sponsoring, mindshare usw usf.

amd kann auch ne leinsamenfarm (analog zu konsolen) aufmachen und der größte hersteller für leinsamen werden, das ändert auch nix an den marktanteilen von nvidia in diesem einen markt, der da ist: dedizierte gaming gpus.

die playstation benutzt ja nichtmals eine auf dem pc lauffähige API. es ist 3 sack reis egal, was die playstation für ne hardware hat. es ist amd, weil sonst keiner einen soc fertigen kann, den sony und microsoft wollen. intel und nvidia können es nicht. die wollten ein produkt, und nur amd konnte liefern. nintendo nutzt übrigens nvidia hardware.

amd kann auch weiterhin konsolenhardware machen - das kann auch komplett entkoppelt vom pc passieren - navi könnte genau so gut konsole only sein. nur dann gehen hier halt für uns (die pc spieler, die mit dedizierter gaming gpu spiele spielen) die roten lichter aus.

ich finde es nur witzig, dass ich hier permanent den unterschwelligen fanboy vorwurf hingeklatscht bekomme, obwohl ich doch der brutalste amd fanboy bin, laut dem blau/grünen lager. wenn man für beide ein fanboy ist, ist das doch eigentlich die perfekte neutralität? meine letzte nvidia gpu hatte ich vor 15 jahren. und das wird auch immer so bleiben, weil ich den laden nicht ausstehen kann. das was ich aber hier sehe, ist das krampfhafte zusammensuchen von allen möglichen nebenschauplätzen, die sich irgendwie für eine "pro amd" argumentation nutzen lassen. das ist fanboy damage control.

ich hoffe, dass ich noch eine nachfolge gpu für meine fury bekomme - diese ansicht der dinge kann man teilen oder auch etwas optimistischer in die zukunft blicken.
sich hier aber alle möglichen sachverhalte und alternativen fakten so zurechzuschieben, dass amd auf einmal unterm strich der marktführer ist - und nvidia kurz vor dem ausscheiden (rtx als letztes aufbäumen :lol:) - obwohl amd vor ein paar jahren beinahe pleite gegangen wäre, und nvidia den doppelten umsatz (und das ohne cpu sparte) und den 10-fachen gewinn ausweist, ist sich selbst belügen.

das selbe mit adoredtv. als die videos über die marktmaniupulation von intel und den schmutzigen tricks von nvidia gekommen sind, war adoredtv ein channel für amd fanboys. mit der finsteren zukunftsprognose für radeon gaming gpus ist das ganze auf einmal pro nvidia?

wir werden ja sehen, ob navi der große gaming heilsbringer am pc wird, oder ob amd radeon gpus in zukunft an den nagel hängt, und sich auf cpus, apus, workstation, oem und datacenter konzentriert - wie es jetzt ja schon passiert.
 
Zuletzt bearbeitet:
duskstalker schrieb:
@smart- ich spreche nur und explizit von dedizierten gaming gpus und das seit meinem ersten posting in diesem thread, als ich auf eine frage bezüglich gaming gpus geantwortet habe. und ich lese immer nur von irgendwelchen sachen, die keine dedizierten gaming gpus sind. was ist an dem begriff "dedizierte gaming gpu" so schwer zu verstehen?
Junge ich habe Bauchschmerzen ohne ende vor lauter lachen.
Was ist für dich eine Gaming GPU?
Eine Gaming GPU ist für mich eine GPU oder Grafikkarte mit der ich Spiele, spielen kann.
Ist das so richtig? Wenn ja kann ich mit einer Intel HD620 sowie mit einer AMD Vega 3 auch Spiele spielen, und diese Grafikkarten fallen unter Gaming GPU?!
Langsam wirds peinlich was du schreibst. Und gewöhne es dir an groß/klein Schreibung das kann es ja nicht sein oder? Bist doch keine 8 Jahre alt.
 
  • Gefällt mir
Reaktionen: smart-
RYZ3N schrieb:
„Bei AMD gibt es doppelt so viele Kerne/Threads für weniger Geld“, damit bringt @Volker es auf den Punkt und damit ist auch schon [fast] alles gesagt.

Man fragt sich mittlerweile, was Intel da treibt.

Haben die, die neue Konkurrenzsituation noch immer nicht auf dem Schirm?

Man kann sich nur noch wundern.

Liebe Grüße
Sven
Glaube fast, dass es Intel egal ist. In die ganzen Firmennotebooks kommt quasi nur Intel. Sie haben ihre Abnehmer und kommen mit der Prod. nicht nach. Des Weiteren würde es mich nicht wundern, wenn bald ein paar schlaue Amd-Köpfe von Intel abgeworben werden :/
 
"Bei AMD gibt es doppelt so viele Kerne/Threads für weniger Geld"

Ihr habt damit schon alles gesagt. Wer immer noch Intel kauft ist doof. (Bitte nicht zu ernst nehmen, ja?)
Wenn ich qktuell einen tatsächlichen Bedarf hätte, würde ich mir sofort den schönen 16 Kerner von AMD holen. Da hat man dann die nächsten 5 Jahre Ruhe.

Ergänzung ()

Makso schrieb:
Langsam wirds peinlich was du schreibst. Und gewöhne es dir an groß/klein Schreibung das kann es ja nicht sein oder? Bist doch keine 8 Jahre alt.

Ich würde mich da nicht so weit aus dem Fenster lehnen...
 
duskstalker schrieb:
Nein, AMD hat es so trotzdem schon schwer genug an Marktanteile zu kommen.

Seit ryzen Release bis einschl. H1 2018 sind läppische 2% dazugekommen, auf insgesamt 12%. AMD sollte eher nochmal die Preise senken (speziell vom 2700x), meiner Meinung nach.
die blauen Lieferprobleme sind aber noch nicht in H1 drin, der Marktanteil wird sicher nicht große Sprünge machen, wie auch wenn es darum geht eine Monopol Stellung an zu knabbern, solange AMDs Anteil nur, wenn auch im geringen Maße steigt, passt alles...
 
  • Gefällt mir
Reaktionen: Strikerking
Holla die Waldfee! Eine Diskussion und ich bin nicht beteiligt, und dazu sogar noch eine Diskussion, die aus dem Ruder läuft, an der ich nicht beteiligt bin. SKANDAL! Ich bin hier für die Torpedierung von Diskussionen zuständig, merkt euch das gefälligst @smart- und @duskstalker .

Im Endeffekt muss ich sagen: Ihr habt recht viel Zeit sinnlos in dieser Debatte versenkt, ohne dass man wirklich neue Erkenntnisse gewinnen kann.

Klar, AMD ist sowohl mit Polaris als auch Vega alles andere als eine wirkliche "Konkurrenz" für Pascal und nun Turing und ja, die RX 580 und nun 590 sind keine schlechten Karten und auch durch ihre 2GB mehr etwas zukunftssicherer, aber die Effizient bei der GTX1060 ist nun mal doch ein gutes Stück besser. Würde ich nur gewisse Kennzahlen nehmen, steht nVidia aktuell besser da als AMD.

Nur - und das ist der wichtige Punkt bei all dem - ist der vermeintliche GPU-Krieg nicht wirklich gewonnen oder verloren für einen der beiden Teilnehmer. Es zeigt sich, dass Intel wieder entsprechende Ambitionen hat und AMD hat mit Navi vermutlich die Generation an GPUs im Haus, die in der nächsten XBox und PlayStation werklen werden. Sollte MS - und ab jetzt spekuliere ich wieder - DX für die XBox dem DX für Windows weiter angleichen und damit die Software Architektur ähnlicher werden, dann könnte Navi durchaus ein Comeback für AMD bedeuten.

AMD scheitert ja am PC-Markt nicht unbedingt dadurch, dass "Leistung" fehlt, sondern daran, dass viele Spiele immer noch primär in DX11 entwickelt werden - und der DX11-Treiber von nVidia ist hoch optimiert - und dass auf den Konsolen - egal ob nun XBox oder PS4 - teilweise andere Softwarearchitekturen verwendet werden. Es ist nicht - wie einige hier behauptet haben oder die GameStar immer wieder gerne behauptet - damit getan, dass in den Konsolen nun x86-Prozessoren stecken. Unterschiede zwischen PowerPC (XBox360) und x86 kann man heute in der Regel durch Compiler abfangen. Anders sieht es aber aus, wenn unterschiedliche Softwaremodelle aufeinander treffen und dass ist bisher immer noch zum Teil der Fall, auch innerhalb von einem Anbieter. Schaut euch mal die DevKits für PS4 und XBox One an und auch mal die Dokumentationen und dann nehmt mal die für OpenGL, Vulkan und DX11 und DX12. MS hat natürlich erkannt, dass sie, je näher sie XBox und PC wieder bringen, massiv profitieren können, aber bisher hat sich das noch nicht so durchgesetzt, wie es für AMD gut wäre.

Und AMD hat quasi durch die Hinterhand auch bestätigt, dass sie an einer gänzlich neuen GPU-Architektur arbeiten, auch wegen DXR und klar können dann die Karten wieder gänzlich neu gemischt werden. AMD war bereits "sooft" am Ende, seit 2007 lese ich immer wieder in Foren - auch hier - das AMD ja bald am Ende ist und sie die Rückstände ja nie aufholen können. Wie haben hier einige den sofortigen Untergang von AMD prophezeit als der Phenom 1 nicht so gut war, wie erwartet und die erste Core i-Generation auf dem Markt kam. Phenom 2 hat dennoch gereicht, dass sie zumindest bei Spielen in Schlagweite kamen und sie haben es überlebt. Wie ist nun seit 2011 - dem Bulldozer Debakel - der Untergang von AMD vorhergesagt worden und dass sie den Abstand ja nie aufholen können und noch 2015/2016 als die ersten konkreteren Zahlen zu Zen kamen, was haben hier einige schwadroniert, dass das alles ja unmöglich ist. Ende vom Lied war: AMD holt Rückstand zu Haswell auf und ist in Schlagweite zu SkyLake. Zen+ hat den Abstand weiter verkürzt. Gut, man muss fair sein: Gerade in alten Spielen hat AMD immer noch ein Problem und Unterschiede zwischen Intel und AMD kann man nicht nur auf IPC und Takt schieben, gleichzeitig zeigen aber neuere Spiele immer mehr, dass der Unterschied zwischen Intel und AMD schrumpft, sofern die Entwickler für beide Prozessoren optimieren.

Und bei den CPUs war AMD mehr als nur eine oder 2 Generationen hinten dran, dennoch haben sie es geschafft. Geld alleine reicht nicht um besser zu sein als Konkurrenten, dass ist ein Irrglaube von manchen hier. Manchmal reicht schon eine gute und richtige Idee und die kann man dann nicht mehr mit Geld aufwiegen.
 
Es gibt für Gamer ja auch schon eine Anwendung für Core I9, Fallout 76 bei dem der R2700X schon limitiert :lol:
 
Teralios schrieb:
Holla die Waldfee! Eine Diskussion und ich bin nicht beteiligt, und dazu sogar noch eine Diskussion, die aus dem Ruder läuft, an der ich nicht beteiligt bin. SKANDAL! Ich bin hier für die Torpedierung von Diskussionen zuständig, merkt euch das gefälligst @smart- und @duskstalker .

Hat mich auch sehr gut unterhalten. Die Posts sind eine schöne kurzweilige Ablenkung zwischen den Posts zum eigentlichen Thema des Threads ;)
Kurze Zusammenfassung für diejenigen die das alles übersprungen haben:
"Schwarzmaler und Schönredner diskutieren aneinander vorbei" :D
 
  • Gefällt mir
Reaktionen: Kalsarikännit
den fps wahn begreife ich nicht.

60hz bei fallout, gekoppelt an die physik ist doch völlig i.o.

ich würde persönlich gerne mal ein 30jahre altes framedoubler tool (damals meist in hardware) mit aktueller ki und einem 120hz monitor sehen. das ganze funtionierte damals schon, wie gsync und freesync (nur viel viel schlechter) und ich glaube nicht, dass ich persönlich den unterschied zwischen "echten" 120hz und 2x60hz sehen würde :D

mfg
 
  • Gefällt mir
Reaktionen: Luzifer71 und Makso
eure meinung?

bester spiele cpu wenn preis KEINE rolle spielt:

9900k mit ausgeschaltetem MT oder 9800X mit abgeschaltetem MT?
 
tomasvittek schrieb:
9900k mit ausgeschaltetem MT oder 9800X mit abgeschaltetem MT?
Also, wenn Geld keine Rolle spielt? Dann würde ich doch gleich zum 9960X greifen, der höre mit 18 Kernen passt nicht in mein binäres Weltbild. 18 ist keine Zahl der 2er-Potenz. 16 aber schon: 2^4.

Dazu dann 64GiB-RAM, 1 Opate-SSD, und 4TB SSD über Samsung Pro-Serie oder so. :P Ach, wenn Geld keine rolle spielen würde. XD
 
Teralios schrieb:
Also, wenn Geld keine Rolle spielt? Dann würde ich doch gleich zum 9960X greifen, der höre mit 18 Kernen passt nicht in mein binäres Weltbild. 18 ist keine Zahl der 2er-Potenz. 16 aber schon: 2^4.

Dazu dann 64GiB-RAM, 1 Opate-SSD, und 4TB SSD über Samsung Pro-Serie oder so. :p Ach, wenn Geld keine rolle spielen würde. XD

18 kerne sind aber nicht gut zum spielen da sie
a) keine hohe MHz zahl erreichen
b) kaum ein spiel von mehr als 8 kernen profitiert.
 
tomasvittek schrieb:
18 kerne sind aber nicht gut zum spielen da sie
a) keine hohe MHz zahl erreichen
b) kaum ein spiel von mehr als 8 kernen profitiert.
Lies mal bitte genau, was ich geschrieben habe. :) Und CB als auch weitere Seiten haben ja nun festgestellt, dass 16-Kerne nicht mehr unbedingt negativ sind beim Spielen, aber auch nicht positiv.

Ich bleibe daher bei 16 Kernen! 18 sind einfach Bäh! Genau so alles andere, was nicht zur Basis 2 passt! Intel, schämt euch für 28 Kerne oder 18, 20, 24 und so. AMD, schämt euch für 6 und 12 Kerner! BASIS 2!
 
  • Gefällt mir
Reaktionen: .fF
tomasvittek schrieb:
eure meinung?

bester spiele cpu wenn preis KEINE rolle spielt:

9900k mit ausgeschaltetem MT oder 9800X mit abgeschaltetem MT?

Wenn man sich für den 9800X entscheidet, dann aufgrund der Plattform und nicht wegen der Leistung. Der 9900k ist in deinem Szenario überlegen.
 
  • Gefällt mir
Reaktionen: tomasvittek
^Naja, es gibt ja noch eine Welt außerhalb der Games. Und HEDT richtet sich imo nicht primär an Gamer, diese sind mit den kleineren Plattformen eigentlich gut bedient.
 
franeklevy schrieb:
^Naja, es gibt ja noch eine Welt außerhalb der Games. Und HEDT richtet sich imo nicht primär an Gamer, diese sind mit den kleineren Plattformen eigentlich gut bedient.

meine frage war ausschließlich aufs spielen gerichtet. wenn dich das nicht inter.... antworte nicht? oder kommt man sonst nicht auf so viele posts wie du? entsprechend leider der informationsgehalt deiner post: null.

weder der 9900k noch der 9800X richten sich PRIMÄR an gamer. nichtsdesdotrotz sind es wohl die beiden stärksten varianten. ergo meine frage: welcher ist die nr.1 und wer die nr.2 (wenn man den preis ausser acht läßt)
 
^a) bin ich schon deutlich länger als du im Forum und b) schreibe ich im Durchschnitt nur 1 Beitrag mehr pro Tag als du - von daher hält sich das alles im normalen Rahmen.

Mir ging es auch eher generell um das Thema Games beim HDET, dies ist imo nicht der Andwendungszweck. Dafür gibt es von den Roten und Blauen günstigere und bessere Alternativen. Alleine das Mesh bei Intel ist beim aktuellen Stand nicht ideal für Games.

Und um deine Frage zu beantworten, dies dürfte wohl der 9900K sein - er taktet einfach höher bei gleicher Corezahl. Die Plattform ist zudem günstiger und damit unterm Strich die bessere CPU.

Grüße
 
  • Gefällt mir
Reaktionen: tomasvittek
Wadenbeisser schrieb:
Gehen wir also davon aus das Lightroom max. 8 Kerne nutzen kann
Sowohl beim Import als auch beim Export verwendet Lightroom CC bei mir mittlerweile alle 16 Kerne und man hat auch das Gefühl, dass die Rohleistung ankommt (und nicht einfach verpufft, wie es in früheren Versionen der Fall war).
franeklevy schrieb:
Alleine das Mesh bei Intel ist beim aktuellen Stand nicht ideal für Games.
Das liegt aber auch daran, dass der Meshtakt im Stock extrem niedrig angesetzt ist. Übertaktet und mit schnellem RAM ist der Unterschied gering.
 
Zurück
Oben