Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsProzessor-Refresh: Neue Intel-Prozessoren mit 2 bis 28 Kernen im Frühjahr
Warum sollte INTEL auch Neues rausbringen?
AMD hat gerade mal aufgeholt und ist meist immer noch knapp dahinter und man ist nur beim Preis etwas besser aufgestellt, weshalb auch viele darauf anspringen. Zudem wird man ordentlich mit den Sicherheitslücken zu kämpfen haben und muss das Design umgestalten.
Gerade AMD oder deren Fanboys sollten sich zum Thema Refresh aber bedeckt halten.
Bei den Grafikkarten machen sie seit Jahren nichts anderes als alte übertaktete Chipsätze trotz überhohter Abwärme und Stromverbrauch erneut herauszubringen auch wenn alle das Schönreden wie "gelungen" die neue Karte doch ist
Sollte die neue AMD CPU aber erheblich besser sein wäre ich auch dabei...
P/L-mäßg sind die Ryzen ja echt sehr gut. Wenn ich aber max.Leistung für Spiele will und der Preis egal ist, warum sollte ich mir keinen 8700K holen? Es ist nach wie vor, eine der besten Gaming-CPUs auf dem Markt.
Ja, der limitierende Faktor ist meist die GPU, aber die werden auch schneller und dann muss die CPU halt mithalten.
Der von dir zitierte Beitrag sprach von Preis/Leistung im Vergleich zum i7 8700k. Du nimmst aber genau diesen Faktor raus, belässt aber das Beispiel wie es ist. Du egalisierst also den Preis, indem du die Frage stellst, was ist wenn der Preis egal ist.
Wenn das so wäre, würde man aber beim Ryzen Beispiel auch den R7 2700X wählen, der scheinbar schneller ist und teuere, optimiertere Ram, von denen der Ryzen profitiert, denn Preis spielt wie du sagst keine Rolle.
Dann sprichst du von Stock, aber erweiterst für deinen Fall, man könne doch auf 5GHZ OC. Meine Frage, um wieviel Prozent wächst dann die Performance ? Weil am Ende ist das auch nur ein Parameter der nicht linear übertragbar ist, sondern eben vom Takt-Sweetpoint der CPU abhängig ist.
Problemlos sind 5 GHz für alle 12 Threads möglich, dafür können beispielsweise die im BIOS hinterlegten Presets des Gigabyte Aorus Z370 Ultra genutzt werden – das sogenannte 1-Click-Overclocking. 1.600 Punkte im Cinebench-Multi-Thread liegen dann an, ein Plus von 14 Prozent.
Man muss aber im Vergleich nehmen, dass man hier für den Ryzen 3400er Ram und nicht wie CB nicht so eine Optimierung gemacht hat.
Im Mittel sagt der Test aber, dass bei Optimierungen wie du sie beschreibst dann nur mehr 9% übrig bleiben, mit eben ausreise wie StarCraft II, was nun nicht gerade als bestes Beispiel gilt.
Wenn es Richtung 1440p geht, schrumpft bereits der Angebliche Vorteil und bis man die Performance wirklich nützten kann, hat man bei AM4 wenigstens die Möglichkeit 2020 noch mal aufzurüsten, falls die GPUs bis Datum wirklich den Performance-Zuwachs bekommen und man weiterhin trotz keiner Beschränkung des Geldes weiterhin auf FHD spielt.
Somit Fazit, ist Geld einem für dieses Hobby egal, nimmt man den Intel und kauft vermutlich in paar Jahren wieder ne komplett neue Hardware.
Das ist auch eine Wahrheit, aber sie passt eben nicht zum zitierten Beitrag, da es da um Preis/Leistung und Aufrüstbarkeit geht, speziell wenn man bedenkt, dass AMD eine kleine Demo eines R5 mit 8 Cores bei ähnlicher Performance wie dem aktuellen Intel Flaagschiff gezeigt hat, zum Vermutlich "günstigeren" Anschaffungspreises.
PS Verbrauch der OC Systeme wurde auch genannt. Minimal aber vernachlässigbar niedriger für den Ryzen.
For the most part the Ryzen 7 2700X system pulled between 380 - 410 watts from the wall while the Core i7-8700K system drew between 420 and 440 watts. So the Intel system consumed 7 - 10% more power which isn’t bad given on average it delivered 9% more performance at 1080p.
Postman
AMD und Intel haben in ihrer jeweiligen Situation ähnliche Probleme. AMD arbeitet im GPU Sektor an einer neuen Arch, ähnlich wie es zu Bulldozer Zeiten mit dem Projekt Zen der Fall war.
Intel arbeitet an der Fertigung und einer neuen Arch, denn selbst wenn sie Zeitnahe 10nm Chips liefern könnten, würde AMD ja trotzdem in Reichweite stehen.
NV hat aktuell selbst Probleme. Die Chips sind zwar schnell, keine Frage und haben eine bessere Effizienz, aber sie sind auch im optimierteren 12nm Prozess deutlich größer als ihre Nachfolger. Allein deshalb musste NV die Preise anheben und ein Shrinke auf 7nm würde aktuell ihr Problem nicht lösen, weil so ein Shrinke vllt effizienter, schneller whatever wäre, aber auch deutlich teurer. Sicherlich auch ein Grund, wieso AMD Navi auch frühstens im Sommer bringt und ich selbst vermute, dass NV ihre Chips erst nächstes Jahr im 7nm+ Prozess auf den Markt bringen werden.
Somit, falls die neue AMD GPU Arch nächstes Jahr noch auf den Markt kommt, könnte sich der GPU Markt vllt auch wieder zum "Besseren" drehen. Aber das muss man eben abwarten. An Zen hatten hier im Forum auch nur die AMD "Fanboys" geglaubt. Ich erinnere mich noch an Worte wie, AMD wird nie wieder oben im CPU Sektor mitspielen und sie werden vllt Nachfolger für Cats auf den Markt bringen usw usw.
AMD hat Bulldozer tatsächlich noch kräftig überarbeitet, da waren Bulldozer, Piledriver, Steamroller, Exavator, jeweils mit Architektur-Verbesserungen.
Nachtrag: Es gibt sogar Exavator v.2 als AMD A12 9800 (2C/4T), der übrigens nicht weit von einem Zen1 Athlon 200ge (2C/4T) entfernt ist.
So sieht's aus! Selbst mit Bulldozer war AMD fleißiger und hat größere Sprünge gemacht als Intel seit Skylake.
Smartcom5 schrieb:
Excavator war allerdings ein rein mobiler Ableger, welcher niemals auf dem Desktop-Sockel AM3(+) erschien (wohl aber auf FM2(+), weniger Cache besaß und bei dem wieder zum Zwecke der Effizienz-Steigerung auch entsprechende High-Density-Libs¹ zum Einsatz kamen – wie schon zuvor erstmals bei Steamroller. Diese High-Density-Libs verringerten nach erstmaligem Einsatz bei Steamroller (extrem verringerte Leistungsaufnahme) beim 2. Testlauf bei Excavator eine +100% Effizienz-Steigerung (das ist übrigens mehr als von Netburst zu Core 2 …)!
Doch, darum geht´s. Wer spielt denn ernsthaft im CPU Limit.
Du hast doch selbst nen WQHD Monitor und rennst vermutlich eher in Graka Limit als ins CPU Limit.
Ich bin mit nem Ryzen 1 trotz undervolting auf 1,05 Vcore und untertaktung auf 3,5 GHz permanent im Grafikkarten Limit.
Das der 8700K schnell ist streitet ja auch keiner ab nur hat man in der Regel wenig davon, außer man spielt CSGO in 720p.
Naja dann stehts bis zur Kotzgrenze ausgereizter 14nm++++++++++++++++++ vs 10nm Prozess, dürfte am anfang aufs selbe rauskommen wenn nicht sogar schlechter sein als besagter 14nm+^x
Ergänzung ()
cookie_dent schrieb:
Doch, darum geht´s. Wer spielt denn ernsthaft im CPU Limit.
Du hast doch selbst nen WQHD Monitor und rennst vermutlich eher in Graka Limit als ins CPU Limit.
Ich bin mit nem Ryzen 1 trotz undervolting auf 1,05 Vcore und untertaktung auf 3,5 GHz permanent im Grafikkarten Limit.
Das der 8700K schnell ist streitet ja auch keiner ab nur hat man in der Regel wenig davon, außer man spielt CSGO in 720p.
Warum Blödsinn? Oder spielst Du auch in 4K?
Ich bin von meinem Setup und von den Spielen die ich spiele ausgegangen, da ist keins bei was CPU limitiert läuft.
Natürlich gibt es Ausnahmen, ich hab ja eine genannt und mit Universe Sandbox haben wir dann die zweite.
Der einzige wirkliche Unterschied ist das Update der iGPU bei Kaby Lake mit HEVC und 4K Optimierung.
Sonst nur geringfügige Taktoptimierungen.
Alles eher vernachlässigbar.
Bei der Fertigung vielleicht sich nicht so übernehmen und 100 tolle Features auf einmal einführen. Bei 22nm haben sie auch viel gemacht und damals hat es funkioniert. Bei 14nm gabs schon einige Probleme. Bei 10nm gings eben komplett in die Hose. Sie dachten so wie bei 22 geht es weiter und 14 war nur ein kleiner Ausrutscher.
Das stimmt so schlicht nicht, da selbst schon ihre 22nm-Fertigung Probleme machte und die 14nm massive Leistungseinbrüche offenbarte, welche anfangs nicht einmal den selben Takt der vorherigen Fertigung erlaubte.
32nm „on track“
Wer sich daran erinnert, weiß, daß Arrandale (Mobile-) und damit Desktop-Westmere damals 2010 als erste Prozessoren der seinerzeit neuen 32nm-Node released wurden. Nach ihrem vielzitierten Tick-Tock-Model – nach denen der nächste Tick für Januar 2011 und der nächste Tock für Januar 2012 anberaumt war – waren Sandy Bridge wie auch Ivy Bridge noch vollends im Zeitplan.
22nm bereits mit halbjähriger Verspätung und schlechterer Ausbeute
Allerdings kam bereits Haswell seinerzeit auf 22nn schon mit einer 6-monatigen Verspätung daher und wurde erst deutlich später im Juni 2013 offiziell released – was damals auf der 22nn-Node bereits an der teils deutlich schlechteren Ausbeute der Chips lag, als man zuvor prognostiziert hatte. Wie wir alle wissen, war dieser Umstand daran schuld, daß Intel schon bei ihrer 22nn-Fertigung größere Probleme hatte und teils deutlich länger brauchte, die selben Yield-Quoten zu erreichen, die man sie noch von 32nm gewohnt war.
Es sollte denn auch etliche Monate länger dauern, in denen Intel notgedrungen stattdessen sehr große Volumina der noch älteren 32nm-Chips an OEMs und in den APAC-Wirtschaftsraum (Asia-Pacific, analog zum EMEA-Wirtschaftsraum (Europe, Middle East, Africa) verkaufte, ehe man auch mit dem Produktionsausstoß der 22nn-Fertigung den Markt zufriedenstellend bedienen konnte.
22nm noch immerschon wieder am laufen
Kurioserweise findet man selbst Stand heute noch in Fernost neue Prozessoren der Haswell-Generation auf 22nm zu kaufen, frisch produziert wohlgemerkt. Wieso das den offiziellen Intel'schen Verlautbarungen danach widerspricht, wie der Konzern das Gros seines Geldes macht – und warum Intel darüber eher ungern spricht, darf sich jeder selbst zusammenreimen. Offiziell wird Haswell jedenfalls seit Jahren gar nicht mehr hergestellt, weil ja viel zu teuer – so jedenfalls offizielle Statements seit Jahren.
Warum Intel bis zum heutigen Tage trotzdem entsprechend ausgerüstete Fabriken unterhält, obwohl man ja aufgrund Stückkosten gar nicht mehr in solchen Nodes fertigt, bleibt dann auch irgendwie ein Geheimnis – auch wenn Intel sich selbst Lügen strafte, als man 2018 notgedrungen zugeben mußte, Chipsätze ab sofort auch wieder (?) auf der älteren 22nm-Fertigung auflegen zu müssen …
… mit den jeweiligen Node-Größen mit Stand von, keine Ahnung, recht aktuell, nehme ich an?
Wenigstens eine Fab ist mit 10nm ausgewiesen, also könnte die Grafik ebenso von '15 sein.
Wer weiß …
Die unendliche Geschichte oder: Intel's 14nm
Dann kam mit Broadwell der Shrink auf 14nm im September 2014 – welcher nach der Tick-Tock-Prämisse bereits wieder 3 Monate später als geplant hochgefahren werden und die Stückzahlen der Volumen-Produktion erreichen konnte.
Allerdings waren damals lediglich erstmals die kleinvolumigen 2K GT1/2-Varianten zu haben, wohingegen die große Produktion erst nochmals 3 Monate später im Januar 2015 die Kunden erreichten. Demnach bereits schon 18 Monate an Zwischenspanne zwischen Broadwell und Haswell – nach den schon um drei Monaten längeren 15 Monaten Verzögerung zwischen Haswell und Ivy Bridge.
Daß Intel Jahre brauchte um auf 14nm die selbe Ausbeute wie auf ihrer (schon selbst bereits um Monate verzögerten) 22nn-Fertigung zu erreichen, dürfte wahrscheinlich jeder Interessierte noch im Hinterkopf haben. Ebenso den Fakt, daß auf der 14nm-Fertigung anfangs bei weitem nicht die selben Taktraten erreicht werden konnten, wie die ihrer Vorgänger-Node.
Die Summe aller Teile
Die nachfolgende Node macht Intel schwer zu schaffen, weil mal selbst nicht einmal die Taktraten der voran gegangenen Fertigungsgröße erreicht. Wer hier Parallelen mit den Intel'schen sagenunwobenen 10nm in Verbindung mit ihren 14nm sieht, bildet sich das jetzt alles nur ein. Und nein, Intels 10nm sind nicht bloß ihre 14nm 2.0 aka 22nm: Reloaded!
Intel hatte demnach bereits schon bei der 22nm-Fertigung die selben Probleme wie bei ihren 14nm – welche die gleichen sind, die auch ihre 10nm-Node verzögern. Da kommt man irgendwann nicht mehr umhin, ernüchtert festzustellen, daß sich Geschichte gar nicht ändert, sondern wiederholt. Kurios, nicht?
Da denkst du auch richtig wie hier schön zu sehen ist: 3,8 GHz war der höchste Takt den je ein im Handel befindlicher P4-basierter Prozessor erreicht hat, die geplante 4 GHz Variante wurde noch vor Veröffentlichung eingestampft (vermutlich hat sich Intel an die Blamage mit ihrem P3 mit 1,13 GHz erinnert und es gleich sein gelassen).
Es macht kaum Sinn von einem 6700k auf einen 8700k zu wechseln.
Wo liegt man da im Durchschritt bei vielleicht 10% mehr FPS? also 33 statt 30 oder 66 statt 60 und dafür dann 400€ ausgeben?