News Intel: 19 Skylake-Prozessoren werden eingestellt

Banned schrieb:
wenn hier behauptet wird, es habe keine großen Effizienzsteigerungen gegeben.
Habe ich nie getan, wenn du mal vernünftig lesen würdest.
Ergänzung ()

Banned schrieb:
Ein 8700K verbraucht nicht wirklich mehr als ein 7700K, und das bei zwei Kernen mehr.
Das tut er im Übrigen sehr wohl, schon mein 8600k hat bei 4,3 GHz ein gutes Stück mehr verbraten als mein 7700k bei 4,4 GHz, mit aktiviertem HT kommt da nochmal bisschen was oben drauf.
 
Dann war deine Aussage aber völlig belanglos.

Man nutzt also Effizienzsteigerungen, um die Leistung bzw. den Boost zu erhöhen. Na und?

Ist doch bei Ryzen 2000 auch so?

Wo ist jetzt dein Punkt?


Wenn man als Hersteller die Effizienz steigert, kann man das in mehr Leistung, weniger Energieverbrauch oder eine Mischung aus beidem investieren. In den meisten Fällen wird man wohl Ersteres oder Letzteres anstreben.

Hätte CL dann die Leistung steigern (zwei Kerne mehr + höherer Boost) und noch weniger Energie verbrauchen sollen als der 7700K, damit der Herr zufrieden ist und nicht meckert?

Bzgl. Energiemessungen:

Da verlasse ich mich dann doch lieber auf CB. Die messen transparent und tun das schon lange. Aber danke. ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: kisser
BloodReaver87 schrieb:
Na mal schauen wie lange es mein 6700k noch tut. Reizen würde mich ja ein 8 Kerner schon. Aber da warte ich lieber noch auf ausgereiftere Modelle von Intel.

Meiner läuft auf 4,7 Ghz und reicht eigentlich auch noch für alles - aktuell in Verbindung mit einer 1080 Ti läuft er aber bei unoptimierten Spielen doch ins CPU Limit. Nuketown in COD BO4 beispielsweise hängt abwechselnd im CPU und GPU Limit :D Auch im BF V wird es im Multiplayer teilweise eng - grundsätzlich reicht es aber noch. Sehr lange glaube ich aber nicht mehr. Außer es wird ordentlich optimiert...
 
7hyrael schrieb:
Die kommen wann? Wenn AMD schon 32 Kerne in die Ryzens schiebt
8 ist aber die goldene zahl für spieler. weder 32, 48 oder sonstwas.

sollte die nächste konsolen gen mit den kernen hochgehen wird sich das ändern (danach sieht es aber nicht aus)

bis dahin inter. mich als spieler: 8 kerne, möglichst schnell. viel takt. danke.

gruß,
Ergänzung ()

-Ps-Y-cO- schrieb:
Natürlich ist es Nice.
Selbstverständlich.

Aber ein Spider-Man auf PS4 (auf einer 200€ Konsole!) hat bisher sogar mehr Grafikpracht auf den Monitor gezaubert als so machnes AAA-Game für den PC 2016-2019
Man darf sich schon fragen wieso man 2000€ in eine Kiste Stecken will

weil mich 30 fps deprimieren 🤷🏻‍♂️
 
  • Gefällt mir
Reaktionen: onkel-foehn
112211 schrieb:
Und mein ivy bridge rockt noch immer meine Bude.

Wozu auch was neues holen? Für Glücksspielboxen in 4k? :lol:

Für 4k sowieso nicht :lol::lol::lol:



Ich hab mir am Wochenende nun 16 GB G.Skill DDR3 2400 MHz CL10 bei ebay gekauft. Vielleicht gibts iwann sogar nochmal 16.

Der 4770k (4,5 GHz) mit schnellem Speicher ist noch allem gewachsen was hier so an Spielen rauskommt. Hab vorher mal Benchmarks mit Rise of the Tomb Raider gemacht. Selbst mit fixen 3500 MHz (ohne Turbo etc) bringt jedes bisschen Speichergeschwindigkeit fps. 2400 konnte mein Speicher allerdings nicht, schon gar nicht bei CL10. Aber bis 2133 MHz CL 11 konnte ich testen. Erst jetzt wird mir klar wie sehr die Meisten die Speichergeschwindigkeit und Latenzen vernachlässigen.

Nur mal kurz, ich glaub ich mache dazu mal nen kleinen Thread.

R.o.t. Tomb Raider - 1080p - DX12 - Preset sehr Hoch - erster Benchmarkdurchlauf wird nicht gewertet, nur die darauf folgenden
4770k stock (fixed 3500 MHz) mit SMT, DDR 3 RAM CL 9 (*bei 2133 MHz CL10), alles auf Z97 Mainboard

800 MHz (4 Runs) - 77,925 fps
1333 MHz (3 Runs) - 112,42 fps (+44,3%)
1600 MHz (3 Runs) - 124,88 fps (+11,1%)
1866 MHz (3 Runs) - 131,67 fps (+5,4%)
2133 MHz* (3 Runs) - 136,35 fps (+3,6%)

Aber wie gesagt, ich mach dazu bestimmt nochmal nen seperaten Thread, auch wenn es "nur" noch DDR3 Ram und ne inzwischen alte CPU ist, die Resultate lassen noch immer Rückschlüsse auf aktuelle Hardware zu. Wenn ich den 2400er RAM hab werd ich das auch nochmal testen, und 2133 bei CL9 geht dann sicher auch.



Also, frohes Spielen mit dem "alten Zeugs" xDDDDD
 
  • Gefällt mir
Reaktionen: Smartbomb, onkel-foehn, bad_sign und eine weitere Person
immortuos schrieb:
Lies dir den Post durch, dann den Post auf den sich meiner bezogen hat und du verstehst es.

Du schreibst, dass mit dem Boost auch die Leistungsaufnahme steige.

Das ist in etwa so, wie wenn du schreibst: Wenn ich einen Stein fallen lasse, fällt er (Gravitation vorausgesetzt) runter.

Wie sollte ein höherer Takt bzw. eine höhere Leistung auch einen Energiebedarf senken?

Andererseits bemängelst du dann die Effizienz, die laut dir bei höheren Taktraten "dahin" sei. Erzählst dann aber später, du hättest sie nicht bemängelt.

Der CB-Test zeigt, dass die CL1 @stock recht effizient sind. OC ist wieder ein anderes Thema.

Das mit Throttling halte ich auch für Unsinn. CB hat eine ausreichende Kühlung und @stock ist das beim 8700K kein großes Ding.
 
Zuletzt bearbeitet:
@Sennox
ist es halt nicht. Der Train Simulator kann nur durch solche Preise überleben, die haben halt eine sehr kleine Fanbase. Die Fanbase bezahlt gerne diese Preise, denn es stellt sicher, das auch in Zukunft noch was "Neues" kommt. Und klar erscheint es erstmal "Überzogen" wenn du das Spiel komplett erwerben möchtest.

Dennoch ist es ein Unterschied ob ich einen "Skin" der in ein paar Std. entwickelt wird für 5€ an ein Millionenpuplikum, möglichst noch in Beuteboxen mit 0,0001% Chance vertickst, oder ob du einen Zug entwickelst, wo Programmierer mehrere Wochen dran sitzen um es möglichst Orginalgetreu rüberzubringen, wobei dann noch Lizenzgebühren anfallen und das dann für 10-20€ an vieleicht 20000 Leuten anbietest.

Wie lange gibt es den Simulator schon? 10 Jahre? Das kann nur so funktionieren. Deswegen wird das Spiel auch nicht auf Rudies Resterampe vertickt werden, denn es würde das Aus für das Studio bedeuten.
 
cruse schrieb:
Offiziell gab's ab kaby keine Intel igpu Treiber mehr - DAS war das einzige...
Inoffiziell gab's die schon... Direkt von Intel(indirekt über Boardpartner, aber der Installationsdialog war von Intel). Hab selbst kaby und koffeelake CPUs mit Win7 und 8 mit igpu only installiert.
Jein, es gab einen Beta-Treiber (der sich eigentlich nur für die Servervariante geschrieben wurde aber von einigen Boardherstellern angepasst wurde). Microsoft blendet aber grundsätzlich bei allen 7000ern die Info ein das dieser Prozessor nicht unterstützt wird und verweigert die Installation von Windows 7 Updates auf diesem System. Für Post-Skylake-Prozessoren endete der Windows 7 Support also schon Anfang 2017. ;-)
 
  • Gefällt mir
Reaktionen: cruse
7hyrael schrieb:
Wer redet von AM4? Ich hab damit nicht direkt auf den Ryzen 9 3850X angesprochen. Wer weiß wie lange es dauert bis Intel was brauchbares (keine heizplatte) mit 8 Kernen liefert

ende 2020...
 
Sennox schrieb:
@Banned
Der "Effizienzjubel" beim Ryzen rührte vermutlich vom Vergleich mit den Vorgängern von AMD :D

Das denke ich auch. Von der Effizienz sind die noch eine gutes Stück von Intel entfernt.
Da muss man sich nur mal die Ergebnisse von hier:

https://www.computerbase.de/artikel...stungsaufnahme_mit_powertarget_und_temperatur

und hier

https://www.computerbase.de/artikel...est.62774/seite-5#abschnitt_leistungsaufnahme

anschauen. Und die logischen Schlussfolgerungen ziehen, was TDP und realer Verbrauch angehen.
 
Richtig, bzgl. der TDP bescheißt Intel und AMD nicht ;)
Nagut, bei Intel sind es vor allem die Boardpartner aber Intel trägt seinen Teil dazu bei.

Und in deinem zweiten Test ist die Effizienz nahezu gleich auf.
7700k vs. R5 2600
Der 2600 braucht 18% mehr Strom im Anwendungsranking ist dafür aber auch 17% schneller ¯\(ツ)

Beim 2700 gegen den 8700k sieht es auch interessant aus.
Der 2700 ist in Anwendungen 5% langsamer aber dafür braucht der 8700k 11% mehr Saft - EDIT: Korrektur der Zahlen, war ausversehen beim "Prime Maximallast" Teil gelandet ^^
Der 2700x legt zwar noch mal eine (ineffiziente) Schippe oben drauf aber das tut der 9900k dann auch wiederum ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: onkel-foehn, v_ossi, aldaric und 3 andere
tomasvittek schrieb:
8 ist aber die goldene zahl für spieler. weder 32, 48 oder sonstwas.

sollte die nächste konsolen gen mit den kernen hochgehen wird sich das ändern (danach sieht es aber nicht aus)

bis dahin inter. mich als spieler: 8 kerne, möglichst schnell. viel takt. danke.
Ich kaufe aber CPUs in der Regel für 4-5 Jahre und mehr. Sobald der 3850X auf den Markt kommt und gute Boards verfügbar sind die alles unterstützen was Ryzen3 mit bringt, werde ich wechseln.
Bei vermutlichen 5,1Ghz Takt sollte das auch für Spiele dicke ausreichen, zumal ich eh keiner von der "300FPS sind zu wenig"-Sorte bin. Die GPU (Vega 56) wird noch jetzt mit meinem alten Xeon E3-1231v3 viel eher zum Flaschenhals als die CPU bei 3840x1080...
 
  • Gefällt mir
Reaktionen: onkel-foehn
@Sennox
Danke, darauf wollte ich auch hinweisen, nachdem ich die Tests gesehen habe ;)

Was man jedoch deutlich sieht, ist, dass die Schere zwischen AMD und Intel bei hohen Taktraten aber wieder etwas mehr auseinander geht als bei etwas gemäßigteren Taktraten. Das sehe ich jedoch in der Fertigung begründet und weniger in der Architektur, was man meiner Ansicht nach auch ganz gut an der Verbesserung der 14 nm-Fertigung von Skylake hin zu Coffee-Lake (Refresh) sieht.

Die verwendete Fertigung von Ryzen 2000 ist immernoch etwas schlechter als Intels 14 nm-Fertigung (vor allem in Bezug auf hohe Taktraten), wodurch sich das Bild mit Ryzen 3000 sehr stark ändern könnte (und sollte) :)
Ich denke, dass beide Kontrahenten von der Effizienz der Architektur her in etwa auf einem Niveau sind.
 
XTR³M³ schrieb:
Ob das brauchbar wird, weiß bisher noch keiner. Auch die 9er-Serie ist nach meinem Empfinden höchstens bedingt brauchbar, vor allem wenn man den 9900K betrachtet. So eine Herdplatte schnall zumindest ich mir nicht in den PC :-) (ungeachtet dass die Performance nicht schlecht ist, aber das Gesamtpaket ist in meinen Augen einfach nicht Stimmig, vor allem zu den Preisen).
 
7hyrael schrieb:
Ich kaufe aber CPUs in der Regel für 4-5 Jahre und mehr. Sobald der 3850X auf den Markt kommt und gute Boards verfügbar sind die alles unterstützen was Ryzen3 mit bringt, werde ich wechseln.
Bei vermutlichen 5,1Ghz Takt sollte das auch für Spiele dicke ausreichen, zumal ich eh keiner von der "300FPS sind zu wenig"-Sorte bin. Die GPU (Vega 56) wird noch jetzt mit meinem alten Xeon E3-1231v3 viel eher zum Flaschenhals als die CPU bei 3840x1080...

wenn 2020/ 2021 die neuen konsolen kommen. und wir davon ausgehen das die kerneanzahl auf 8 bleibt aber dafür der jämmerliche takt erhöht wird (4k x box ist gerade bei turboboost 2,4 ghz!!!)

und wir weiter davon ausgehen das die neuen konsolen wieder ca. 6 jahre halten bist du mit einem kauf eines schnellen 8 kerners seeeeeehhhhhrrrr seeeeehr lange auf der sicheren seite ;-)

aber prinzipiell gebe ich dir recht: ich warte bis zum cpu upgrade (3930k, 6 kerne @ 4,3ghz) auch noch bis amd seine cpus vorstellt. sollten sie dann schneller sein als die intel kaufe ich selbstverständlich amd.
 
  • Gefällt mir
Reaktionen: onkel-foehn
tomasvittek schrieb:
wenn 2020/ 2021 die neuen konsolen kommen. und wir davon ausgehen das die kerneanzahl auf 8 bleibt aber dafür der jämmerliche takt erhöht wird (4k x box ist gerade bei turboboost 2,4 ghz!!!)

und wir weiter davon ausgehen das die neuen konsolen wieder ca. 6 jahre halten bist du mit einem kauf eines schnellen 8 kerners seeeeeehhhhhrrrr seeeeehr lange auf der sicheren seite ;-)

aber prinzipiell gebe ich dir recht: ich warte bis zum cpu upgrade (3930k, 6 kerne @ 4,3ghz) auch noch bis amd seine cpus vorstellt. sollten sie dann schneller sein als die intel kaufe ich selbstverständlich amd.
ist ja auch legitim, aus plausiblen gründen fürs Zocken würde ich den 3850X auch nicht Vorschlagen.
Bei mir wird die Möhre halt auch noch für anderes eingesetzt, wo das mehr an Kernen hilfreich sein wird. (Docker Container, Compilieren, Lokale DB usw...).
Und ich will einfach 16 Kerne weil habenwill. :evillol:
Als ich den Xeon gekauft habe wars eine rein auf Sinnhaftigkeit beruhende Entscheidung auf grund meines möglichen Budgets und dem Einsatzgebiet. Der 3850X wird eher in der Schublade "Fuck Yeah!" laufen, weil inzwischen halt auch einfach das Budget ein ganz anderes ist:king:.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SaschaHa
  • Gefällt mir
Reaktionen: Bairok
kisser schrieb:
Welches ComputerSPIELe erzeugen eine derart hohe Last, welche mit Prime95 vergleichbar ist?
kisser schrieb:
Das denke ich auch. Von der Effizienz sind die noch eine gutes Stück von Intel entfernt.
Da muss man sich nur mal die Ergebnisse von hier:

https://www.computerbase.de/artikel...stungsaufnahme_mit_powertarget_und_temperatur

und hier

https://www.computerbase.de/artikel...est.62774/seite-5#abschnitt_leistungsaufnahme

anschauen. Und die logischen Schlussfolgerungen ziehen, was TDP und realer Verbrauch angehen.
Leistungsaufnahme in Cinebench und Prime95. Ich sehe keine Messungen in einem Spiel.
 
  • Gefällt mir
Reaktionen: immortuos
7hyrael schrieb:
Ob das brauchbar wird, weiß bisher noch keiner. Auch die 9er-Serie ist nach meinem Empfinden höchstens bedingt brauchbar, vor allem wenn man den 9900K betrachtet. So eine Herdplatte schnall zumindest ich mir nicht in den PC :-) (ungeachtet dass die Performance nicht schlecht ist, aber das Gesamtpaket ist in meinen Augen einfach nicht Stimmig, vor allem zu den Preisen).

solange man den 9900k nicht taktet, ist das ding nicht mal soooo schlecht, zieht um die 125-140W und brauch nen anständigen kühler, kann man mit leben.

aber sobald man halt an der taktschraube dreht und das ganze AVX stabil auf 5GHz haben will, wirds halt eklig und brauch nicht nur nen extrem fetten kühler(=custom loop) sondern auch nen sehr teures mobo das genug VRMs hat und diese müssen auch entsprechend gekühlt sein.
 
Zurück
Oben