Test Core i9-9900K & i7-9700K im Test: Sehr schnell. Sehr durstig. Extrem teuer.

Status
Für weitere Antworten geschlossen.
@DonL das kann man so pauschal nicht sagen. Es gibt bei Premiere leider immer noch viele Situationen (vom verwendeten Codec und den eingesetzten Effekten abhängig) wo die Singlethreadperformance der limitierende Faktor ist. Man muss sich den individuellen Usecase schon genau ansehen...
 
ZeroZerp schrieb:
Ganz so einfach ist das nämlich nicht. AMD hat auf hohe Packdichte gesetzt, um eine kleine, rentable DIE- Size zu ermöglichen. Sie müssten für einen HP Prozess das gesamte Design über den Haufen werfen um den Prozessor für höhere Schaltströme zu rüsten.
Alles natürlich machbar. Aber ein enormer Aufwand, von dem ich nicht weiss, ob dieser in letzter Konsequenz verolgt würde.

Das ist doch völliger Blödsinn, den du hier erzahlst!
ZEN 2 war von Anfang an für HP (TSMC) und LP = Leading Performance (Glofo) geplant und entwickelt worden!
Jede News seit 2017 zum ZEN2 in 7nm hat ausschließlich von LP bei Glofo gesprochen.
Wie du auf deine Behauptung und dieses schmale Brett kommst, solltest du mal mit Quellen unterlegen!
 
Zuletzt bearbeitet:
Als 4K Zocker braucht man echt keinen Intel.
Da kann ich ja bedenkenlos auf den 2700er gehen.
(Übrigens was tolles wenn man eine eine neue CPU einbauen kann ohne alles neu kaufen zu müssen :) )
 
  • Gefällt mir
Reaktionen: lanoo und Sorigir
scryed schrieb:
also nun kann ich dich sogar lügen strafen , habe eben extra für dich shadow of the tombraider benchmark durchalufen lassen , alles auf maximum bei einer auflösung von 3840x2160 sind die averange fps um ein ganzes frame gestiegen so bitte also von wegen passiert nichts :D

Das du da noch nen dämliches Grinse-Smiley dran hängst...
 
Hägar Horrible schrieb:
Nur weil ZEN nicht so hoch taktet, weil AMD die Brechstange seit dem FX 9xxx im Schrank gelassen hat (im Gegensatz zu Intel) bedeutet das noch lange nicht, dass die Core-Architektur auch die schnellste ist. Ganz im Gegenteil sie ist am Ende ihrer Entwicklungsfähigkeit angelangt
Nanu wo hab ich denn die Grafik hingeräumt *Festplatte durchwühlt* ... Bei gleichem Takt (3,5GHz) ist der Kaffeekern/Coffee-Lake noch ~3% schneller als ein Höhepunkt/Pinnacle-Ridge:
cinebench-3500.png
 
druckluft schrieb:
@DonL das kann man so pauschal nicht sagen. Es gibt bei Premiere leider immer noch viele Situationen (vom verwendeten Codec und den eingesetzten Effekten abhängig) wo die Singlethreadperformance der limitierende Faktor ist. Man muss sich den individuellen Usecase schon genau ansehen...

Im Hardware Unboxed Test hat Steve einen Benchmark integriert mit Adobe Premiere CC (Cuda Accelerated) Export Youtube 2160p 4K 60fps H.264, dort war der 2950X massiv schneller als ein i9 9900k.
 
Muss ich haben, ich brauche mehr power...oder moment mal....vielleicht doch nicht nicht? 😂
Ich war noch nie so froh darüber das ich im Juni nicht auf die neuen Generationen (GPU und CPU)gewartet habe wie sonst.
 
Flynn74 schrieb:
Kurzer Erfahrungsbericht:

Ich lasse den Prozessor auf meinem Gigabyte Z370 Aorus Gaming 7 in den Default Einstellungen (alles auf Auto) mit manuellem VCore Override von 1,3V laufen. Beim Cinebench Test taktet die CPU all-Core zwischen 4.6 Ghz und 5 Ghz:

Anhang anzeigen 718184

Die Temperaturen kommen dabei auf max 75° mit der kleinen AiO Corsair H60 (2018'er Modell) und saugt max 130 Watt :

Anhang anzeigen 718185

Cinebench liefert dann eine Score von 2018 (all Core) und 210 (single Core):

Anhang anzeigen 718186

Und dieses Setting werde ich auch lassen. Klar könnte man noch mehr rausholen, aber so ist es denke ich ein guter Kompromiss. Prime & Co. Tests halte ich für Quatsch. Deren Belastungstests haben so garnix mit dem normalen Gebrauch der CPU zu tun.

Und hier noch zwei 3DMark Benches:

Time Spy Extreme
Fire Strike Ultra

Interessanterweise liegt nur im DX11 Test Fire Strike Ultra die CPU 19% über dem 8086k - im DX12 Test Time Spy Extreme beträgt der Unterschied nur einen mickrigen Prozent.

Morgen werde ich dann noch fleißig Assassins Creed Odyssee zocken - welches extrem empfindlich auf das Overclocking des Vorgängers 8086k reagiert hat. Mal schauen wie stabil mein Setup damit läuft. Mit dem "Auto" Setup beim 8086k lief aber alles problemlos. Jetzt hoffentlich auch.

Und zum guten Schluss noch die Antwort auf die nicht gestellte Frage "war das Upgrade wirklich nötig?" => Nö - aber man lebt nur einmal und das Leben ist zu kurz für langsame Hardware. ;)

Edit: halbe Stunde Assassins Creed gezockt - alles stabil! So muss das! :D

Ja das hat sich nicht gelohnt :-D

https://www.3dmark.com/compare/spy/4667869/spy/4785063
 
DonL_ schrieb:
Im Hardware Unboxed Test hat Steve einen Benchmark integriert...

Mag sein. Nur ist das eben ein einzelner Aspekt. Den meisten Leuten die ich kenne ist übrigens nicht die Performance beim Rendern am wichtigsten, sondern wie smooth die Vorschau funktioniert. Und da kommst du nicht in jedem Usecase mit hoher Kernzahl zum Ziel. Das Thema ist leider individuell viel zu vielschichtig um da pauschale Empfehlungen geben zu können. Nimm anderes Quellmaterial und du hast völlig andere Anforderungen. Setze andere Effekte ein, dito.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Sorigir schrieb:
Nanu wo hab ich denn die Grafik hingeräumt *Festplatte durchwühlt* ... Bei gleichem Takt (3,5GHz) ist der Kaffeekern/Coffee-Lake noch ~3% schneller als ein Höhepunkt/Pinnacle-Ridge:

Wobei das noch etwas zu positiv ist. CB 15 gehört nicht umsonst zu AMDs (Marketing) Vorzeigebenchmarks:
SR zu CFL: https://www.hardware.fr/articles/970-5/coffee-lake-kaby-lake-ryzen-3-5-ghz.html
SR zu PR: https://www.hardware.fr/articles/974-5/latence-suite-performances-3-ghz.html

Über ein breiteres Feld an Anwendungen waren es bei SR zu CFL 11% (gleiche Kernanzahl und Frequenz). Seit PR sind es nochmal 3% weniger. Also um 8%. Viel ists auf jeden Fall nicht mehr und mit Zen2 sollte das im Mittel drin sein.
 
Zuletzt bearbeitet:
ZeroZerp schrieb:
Ist doch wurscht... Einfach DSR nutzen. Dann hast Du Deine Wunschauflösung in schön.
Das wird wohl keiner machen mit ner 2070 oder 2080... weil die Performance für 4k nicht reicht, zweitens will nicht jeder die vorteile einer nativen Auflösung des Monitors wegschmeißen. Oder bleiben die vorteile einer nativen Auflösung bei DSR erhalten?
 
Das ZEN 2 nicht für einen auf Performance getrimmten Fertigungsnode ausgelegt ist, sondern eher auf einen Low Power Prozess mit hoher Packdichte wie der TSMC 7nm LP für Handy SoCs. Das ist nach allen Informationen falsch!
 
m.Kobold schrieb:
Das wird wohl keiner machen mit ner 2070 oder 2080... weil die Performance für 4k nicht reicht, zweitens will nicht jeder die vorteile einer nativen Auflösung des Monitors wegschmeißen. Oder bleiben die vorteile einer nativen Auflösung bei DSR erhalten?
Nein- Ich meine Du kannst eine 1440er Auflösung (https://www.tweaktown.com/reviews/8766/nvidia-geforce-rtx-2070-review-perfect-card-1440p/index.html) die z.B. durch DLSS sogar auf 4K gerechnet wird dann per DSR wieder auf 1080P skalieren.
Dann hast Du weit besseres AA, als auch dickes Supersampling und hast die Einheiten zur Beschleunigung einer 2070 und 2080 genutzt, ohne irgendwas nativ in 4K berechnet zu haben.

Grüße
Zero
 
@YforU
In der Vor-Ryzen-Zeit galt der CB als der Parade-Benchmark, um zu zeigen wie schlecht die AMDs sind.
Jetzt liegen sie dort auf Augenhöhe mit Intel, schon wird der CB als AMDs Vorzeigebenchmarks abgetan.
Wie sich die Zeiten ändern.
 
  • Gefällt mir
Reaktionen: RAZORLIGHT und Rockstar85
DonL_ schrieb:
Das ZEN 2 nicht für einen auf Performance getrimmten Fertigungsnode ausgelegt ist, sondern eher auf einen Low Power Prozess mit hoher Packdichte wie der TSMC 7nm LP für Handy SoCs. Das ist nach allen Informationen falsch!

Wo schreibe ich das über ZEN 2? Sowas hab ich nie behauptet?

Zudem wundere ich mich, dass dieser Thread hier außerdem schon wieder zu einem Diskussionsthread mutiert, wer sich nicht wie einen AMD Prozessor kaufen wird und wieviel schneller nicht die nächste ZEN Generation wird...
Intel bringt gerade den leistungsfähigsten Consumer- Grade Prozessor und hier kommen sprüche, dass Intel am Ende wäre. Irgendwie blick ich hier langsam nicht mehr durch.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Zwiebelsoße, Toprallog, t3chn0 und eine weitere Person
So.
Mittlerweile bestellt.

Freu mich schon aufs Basteln und ans Limit treiben.

System meines 2t PCs wird identisch zu siehe Signatur ausser CPU und Z390 Board + 2 weitere Gehäuselüfter (insgesamt dann 4).

Das aktuelle System idled leise vor sich hin- beim Rendern geht es aber durch die Decke:)

Stört mich aber nicht.
 
ZeroZerp schrieb:
Wo schreibe ich das über ZEN 2? Sowas hab ich nie behauptet?

Dann solltest du mal lesen was du schreibst!
ZEN wurde nie auf Packdichte optimiert, sonst wäre sein Die mit 8 Kernen und ohne IGP nicht wesentlich größer, als das von Intel.
ZEN wurde auf Samsungs LPP Prozess angepasst, genauso wie jetzt ZEN 2 auf Leading Performance angepasst wird!
Deine Aussage das man dafür das ganze Design ändern muss, ist nach allen Information totaler Blödsinn!
 
WommU schrieb:
@YforU
In der Vor-Ryzen-Zeit galt der CB als der Parade-Benchmark, um zu zeigen wie schlecht die AMDs sind.
Jetzt liegen sie dort auf Augenhöhe mit Intel, schon wird der CB als AMDs Vorzeigebenchmarks abgetan.
Wie sich die Zeiten ändern.

Cinebench und Blender hat AMD zur Einführung im Marketing Material nicht grundlos gewählt. Das läuft auf Zen (vor allen auch im Vergleich zu BD mit seiner shared FPU) einfach richtig gut. Das es am Ende nicht ganz so überragend wie suggeriert war haben dann die Reviews gezeigt. Der Begriff Vorzeigebenchmark geht da meiner Ansicht nach schon in Ordnung.

Deshalb nimmt man für IPC Vergleiche besser mehr als nur eine Anwendung und nicht ausnahmslos das was der jeweilige Hersteller nahelegt. Die Arbeit macht sich nur fast keiner. Hardware.fr war da immer eine positive Ausnahme aber ist inzwischen leider auch Geschichte.

Das AMD für die Performance in CB 15 (und allen anderen ähnlichen Anwendungen) jahrelang Prügel bekommen hat war gerechtfertigt. Die shared FPU war Mist. Um so schöner das Zen dieses Manko vollständig beseitigt hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lanoo und psyabit
@DonL_
Das hab ich doch garnicht behauptet. Ich habe lediglich davon gesprochen, dass die Packdichte höher ist und der Chip somit für AMD günstiger zu fertigen ist.

Dann erzähle mir mal, was man vom Ursprungsdesign, welches auf LP und 12nm gemünzt ist beibehalten kann, wenn sowohl im Node als auch im Performancelevel ein Sprung stattfindet.

Meinst Du, dass die ihre 12nm Matrizen nehmen, dann einfach per Scaler auf 7nm verkleinern und wie durch ein Wunder kann der Prozessor plötzlich mehr Takt ab?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben