News Intel Core i9-9900KS: Mehr Leistung durch 34 Prozent erhöhte TDP

Es werden verkorkste Mobos eben immer noch AMD zugeschoben. Vermutlich hat AMD auch die Idee der Gigabyte Hybrid Phases gehabt...;)
 
  • Gefällt mir
Reaktionen: zentausend
@Rockstar85 agreed
Genau wie der Shitstorm um den nich vollausfahrenden Boost.
Da hatte doch jemand gezeigt dass die selbe CPU auf manchen Boards ihren Max. Boost erreicht und auf manchen nicht.
Mal am Rande, mein 3600 fährt auf meinem X370 von Asrock bis 4.2 GHz hoch :) Alles tutti.
 
  • Gefällt mir
Reaktionen: Rockstar85
Der 9900KS wird die schnellste erhältliche CPU für Spiele-PCs sein und wenn man daran Interesse hat, kann man zugreifen.
Warum man da belächelt wird, kann ich schon wieder nicht nachvollziehen, Leistung kostet halt Geld.
Und mit einem 165Hz G-Sync Monitor braucht man auch unter WQHD FPS.

Die Effizienz ist mir bei einer CPU, die nur für Spiele genutzt wird, auch relativ egal, ich komme in der Woche maximal ein paar Stunden zum Spielen, ansonsten ist die Kiste die ganze Zeit aus, weil ich mit meinen Macs arbeite.
Ob da jetzt 100 oder 300W verbraucht werden, spielt da jetzt nicht die große Rolle.

Ich bin heiß auf den 9900KS, er wird für einen Spiele-PC für einige Jahre ausreichend sein.
 
  • Gefällt mir
Reaktionen: squadric, Nyxcherry, Ben81 und 2 andere
Rockstar85 schrieb:
Du weißt doch genau was ich meine. Was bringt dir eine Software Lösung, wenn es keinen Patch gibt.

Manche Sachen lassen sich in Hardware nun mal nicht fixen und selbst AMD begnügt sich da mit Patches in Software.
1570002275467.png


Wannacry hat mit irgendwelchen Sicherheitslücken in CPUs sowieso gar nichts zu tun, weshalb man sich berechtigterweise die Frage stellen muss, wieso du damit jetzt kommst.

Letztendlich ist es Scheißegal ob irgendwelche Lücken in Software, Hardware oder Firmware behoben werden, solange sie am Ende behoben sind und die Fehlerbehebung keine oder kaum Leistung kostet.

Rockstar85 schrieb:
Es gibt genug Exploits für Spectre, Intel wird auch nirgendwo zu Unrecht beschuldigt.

Dann zeig uns mal ein funktionierendes, was sich sinnvoll auf Clients anwenden lässt, um damit Schaden anzurichten.

Dabei lässt du natürlich auch eine Sache komplett aus.
1570002812708.png

1570002838306.png


Aktuell unterscheidet sich die Sicherheit und die Art der eingesetzten Mitigationen bei Intel kaum von AMD.

1570002987279.png

1570003024438.png

1570003275609.png

1570003362400.png

https://www.amd.com/en/corporate/product-security

Genauer genommen ist AMD an den Stellen genauso "löchrig", oder eben nicht, weil es in der Realität niemanden zu kümmern braucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer, squadric und .Sentinel.
boarder-winterman schrieb:
Die Effizienz ist mir bei einer CPU, die nur für Spiele genutzt wird, auch relativ egal, ich komme in der Woche maximal ein paar Stunden zum Spielen,...
Ob da jetzt 100 oder 300W verbraucht werden, spielt da jetzt nicht die große Rolle.
...
Wo sind Leute wie du bei den AMD vs. Nvidia Threads? :D
 
  • Gefällt mir
Reaktionen: Nyxcherry
Rockstar85 schrieb:
@ZeroZerp
Du weißt doch genau was ich meine. Was bringt dir eine Software Lösung, wenn es keinen Patch gibt. Zombieload in Hardware zu fixen ist sinnig gewesen, alles andere ist ein Pflaster auf eine Platzwunde.
Und gerade Wannacry zeigt wunderbar was Exploits tun können, wenn die Software nicht gepflegt wird. Es gibt genug Exploits für Spectre, Intel wird auch nirgendwo zu Unrecht beschuldigt.
Ich schreibe das ja nur, weil Du diverse Dinge durcheinanderwirfst. Du kannst im Microcode einer CPU einen Shitload an Exceptions hinzufügen. Das könnte sogar so weit gehen, dass sie alle Schwachstellen ausradieren, auch die Unsicherheit in Sachen Hyperthreading/Seitenkanal.

Der Performanceimpact steht auf einem zweiten Blatt.

Manchmal geht mir das Fanboi tun echt nur noch auf den Sack.
Nicht nur manchmal....

Intel müsste endlich Mal abgestraft werden, für das was sie abziehen, Aber IT ist das fast wie bei Religion.
Wofür willst Du sie denn genau abstrafen?
Und warum den Konkurrenten nicht, wenns dort Verfehlungen gibt?

Ich verstehe jeden User der verärgert ist und nun AMD kauft.
Das sind auch nur Mikroprozessoren. Hochkomplex mit allen vorhersehbaren und unvorhersehbaren möglichen Schwächen.

Und dem Rest rate ich echt Mal, das ganze rationaler anzugehen. Es ist ein Unterschied ob ein System 50Mhz mehr nicht erreicht, oder konzeptionelle Lücken im Design seit 2005 mit sich trägt.
Beides sind nicht praxisrelevante aber natürlich ärgerliche "Fehler".

LG
Zero
 
  • Gefällt mir
Reaktionen: KlaraElfer und squadric
Sennox schrieb:
Wo sind Leute wie du bei den AMD vs. Nvidia Threads? :D
Da kommt es dann ja auf die Kühlung etc. an. Und so ganz Unrecht hat er ja nicht. Nur messen viele das Massiv mit zweierlei Maß. Und es sind eben zu 99% Grüne und blaue. Ich sehe noch die Folie von Nvidia vor mir um zu zeigen wie toll die Super sind. Nun ja, oder auch nicht :x

@ZeroZerp:
Forscher weisen seit ich glaube 2007 auf eklatante Design Fehler im SMT hin. Mundtot hat man die gemacht. Das ist wie mit der Klage gegen VW, wo den Kunden ja angeblich kein Schaden entstanden ist. Klar die Waren gezwungen zu beschei...

Und nein, ein Sicherheitsexpolit, oder wie Herr Stiller es trefflich IT Supergau nannte, ist etwas schwerwiegender als das TLB Thema zB.
Reden wir am Ende Mal von kritischer Infrastruktur und abgreifbaren Systemen wie eben via Sidechannel. Nee danke, ich glaube viele ITler verstehen die Tragweite von solchen Problemen nicht.
 
@Sennox, habe mich da komplett ausgeklinkt, beide haben taugliche Karten im Angebot, im High End Bereich (ab RTX2080) gibt es halt nichts mehr von AMD.
Dafür sind Freesyncmonitore günstiger als G-Sync Monitore. Also jeder wie er mag.

Mein Noctua NH-U14S sollte für den 9900KS ausreichen, wenn er bei Prime mit AVX etwas lauter wird, macht mir das nichts, die Software lässt man ja nicht jeden Tag laufen.
 
  • Gefällt mir
Reaktionen: Sennox
@Rockstar85
Ja gut aber die Kühlung ist auch bei der CPU ein Thema und Zen2 benötigt ja nunmal nachweislich weniger Saft :D
und zu sagen "egal ob 100W oder 300W" ist schon ein Extrem wenn man bedenkt dass sich die Leute in den GPU Threads manchmal an 11W Differenz aufhängen ^^

@boarder-winterman
Wenn mal alle bei dem Thema so entspannt unterwegs wären ^^
Wobei ich die Entscheidung zum 9900KS dennoch nicht nachvollziehen kann ;)
Selbst in einigen High-FPS Esport Titeln liegen die neuen Ryzen vorne.
Du musst dich nicht rechtfertigen, ich bin nur neugierig.
 
  • Gefällt mir
Reaktionen: Rockstar85
Sennox schrieb:
@Rockstar85
Ja gut aber die Kühlung ist auch bei der CPU ein Thema und Zen2 benötigt ja nunmal nachweislich weniger Saft :D
Eigentlich ging es um GPU.
Bei CPU ist es mir Wurst ob, 50W mehr oder weniger, wenn alles drumrum passt. Und das passt eben derzeit nicht bei Intel.
Und für die 7-10 Std die ich in der Woche spiele, tut sich eine 1080ti nicht Weh. Mein Moped schluckt da mehr Euros.
 
@Sennox, in den Spielen, die mich interessieren (Strategiespiele, Tomb Raider, Witcher etc.) liegt der 9900K doch deutlich vorne.
Und der 9900KS wird noch ein paar weitere Prozente bringen.

Bei den Ryzens gibt es das Problem dass es einfach kein taugliches mATX Board für mich gibt, ich würde ja auch 350€ zahlen, es gibt aber schlichtweg nichts.
Einmal von der VRAM Kühlung (was soll denn das beim ASRock X570M Pro4) und warum zur Hölle verbaut kein Hersteller einen Toslinkanschluss?

Bei Intel bin ich aktuell beim ASUS ROG Maximum XI Gene, was mit 330€ zwar nicht günstig ist, aber alles bietet, was man sich so wünschen kann.

Alternativ gibt es noch das ASRock Z390 Phantom Gaming ITX/ac, das auch alle von mir gewünschten Anschlüsse bietet und mit 190€ deutlich günstiger ist.
 
Zuletzt bearbeitet:
@Rockstar85
Ich sitze auf einer VX 800 und du? :cool_alt:
Ich wollte auch nur auf die Doppelmoral mancher (keiner jetzt gerad hier) eingehen die beim Thema "Verbrauch" herrscht.

@boarder-winterman
Das mit dem Toslink war für mich auch ein Kriterium ^^
Was genau vermisst du denn bei den AM4 Boards neben Toslink und gescheiter VRM Kühlung?
Ich bin eigentlich immer fündig geworden.

Die Mehrperformance eines KS zum normalen K war doch auch durch OC zu erreichen oder nicht?
Oder hast du es mit deinem schon probiert und festgestellt dass deiner nicht weit geht?
Weil vom 9900K zum KS aufzurüsten verstehe ich tatsächlich noch am wenigsten :D
Vielleicht ist mir aber auch was entgangen, habe den KS nur oberflächlich betrachtet und noch nicht genauer studiert.

Das mit der Mehrperformance beim Witcher überrascht mich doch, da schaue ich gleich mal oder hast du vllt. grade nen Link zur Hand?
Strategiespiele kann ich verstehen, da tut sich hoffentlich bald mal was.
 
Ich habe aktuell einen 2700X verbaut, da ist der Sprung zu beiden CPUs deutlich.
Und wenn ich wechsele, dann auch direkt auf den 9900KS.

Ich brauche ein Board in Mini-ITX oder mATX, da in mein Case Fractal Design Define Mini C keine ATX Boards passen (damals bewusst für Kompaktheit entschieden).
Und da ist es bei AM4 echt ein Problem, das einzige halbwegs taugliche Board ist das MSI B450M Mortar Max und das unterstützt kein PCIe 4.0, was den Vorteil von Ryzen 3000 auch schon wieder zunichte macht.

Hier gibt es einen Test vom 9900K vs Ryzen 3000 in Witcher 3: https://www.eurogamer.net/articles/...-ryzen-9-3900x-vs-core-i9-9900k-review?page=3
Der 9900K liegt schon ein Stück vorne.
 
xexex schrieb:
Selbst ohne OC ziemlich weit oben.
Anhang anzeigen 826696
laut deiner grafik rangiert er im zweistelligen prozentbereich unterhalb des kleinsten aktuellen i5 modells (der i5 9400F liegt bei 112% des i7 7700k). dafür dass er vorletztes jahr noch das maß der dinge war. ob man das noch als relativ weit oben definieren kann...?
 
Langweilig. Wird mit ein paar Prozent die beste Zocker-CPU und für alles andere rausgeschmissenes Geld.
 
@boarder-winterman
aaah
sorry, ich ging irgendwie davon aus du hättest nen 9900K im Einsatz, da hab ich mich irgendwo verlesen^^.

Ja gut, PCI-E 4 hast du dann bei Intel gerade noch weniger und davon ab bringt das im Moment ja auch kaum was.
Aber ich verstehe noch immer nicht was dir bei den verfügbaren µATX und ITX Boards genau fehlt.
Ich hab gestern z.B. das B450 Fatality Gaming von Asrock verbaut und von der Ausstattung bin ich erst mal zufrieden (hat sogar Toslink) :D
Vielleicht ist dir ja ein Board entgangen, deswegen frage ich.

Beim Witcher 3 sieht es unter Full HD echt nicht so prall aus, ich frage mich ob hier evtl. der passende RAM noch was rausreißt.
Denn ab 1440p sind Ryzen 3700 und 9900k ja kaum noch auseinander.
 
Zuletzt bearbeitet:
Rockstar85 schrieb:
Reden wir am Ende Mal von kritischer Infrastruktur und abgreifbaren Systemen wie eben via Sidechannel. Nee danke, ich glaube viele ITler verstehen die Tragweite von solchen Problemen nicht.
GERADE ITler verstehen die Tragweite dieser "Probleme". Und nicht- ITler versuchen den ITlern dann immer zu erklären, wie hoch deren Tragweite nicht wäre.
Die von Dir beschriebenen Angriffe, bzw. die Schwachstellen von welchen wir hier reden sind GERADE auf "kritischen Infrastrukturen" z.B. überhaupt nicht anwendbar oder von Relevanz.

LG
Zero
 
Zuletzt bearbeitet:
Leider sind die Gaming Benchmarks seit Jahren realitätsfern.

Intel ist beim Zocken nur noch unter Laborbedingungen einige Prozente schneller.

Ein Großteil meiner Freunde haben beim Zocken noch zig andere Programme im Hintergrund offen. Einige Streamen sogar oder haben noch ein anderes Spiel offen um Wartezeiten zu überbrücken oder TS, Spotify, Video Schnitt usw.

Und da ist dann der Ryzen unschlagbar für Intel.

PS: Streaming Benchmarks gibt es auf jeden Fall im Netz.
 
mcsteph schrieb:
Ein Großteil meiner Freunde haben beim Zocken noch zig andere Programme im Hintergrund offen. Einige Streamen sogar oder haben noch ein anderes Spiel offen um Wartezeiten zu überbrücken oder TS, Spotify, Video Schnitt usw.

Erstens macht das fast keiner. Und zweitens sind die par Hintergrundprogramme für keine halbwegs moderne Mehrkern-CPU nicht das geringste Problem...
Hier werden künstlich Szenarien konstruiert um für eine vermeintliche Allgemeinheit einen Bedarf an 16 Kern CPUs vorzugaukeln.
Wer nebst des Spielens meint noch Videos schneiden zu müssen kann es ganz ganz locker verkraften, wenn das Spiel mal für eine Milisekunde unter 60FPS fällt.

Und da ist dann der Ryzen unschlagbar für Intel.
Wo denn?

Jeder halbwegs professionelle Streamer hat seine dedizierte Streaming Karte/Station und die Hobby- Streamer machens in wirklich guter qualität über moderne Grafikkarten.

LG
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KlaraElfer
@ZeroZerp
Encoden über die CPU hat i.d.R. eine bessere Qualität auch im Vergleich zum NVENC.
Intels QuickSync könnte man noch erwähnen, das ist ganz gut dabei aber auch nicht besser als die CPU in OBS zu nutzen.

LTT hat dazu mal einen ganz guten Test gemacht, leider schon ein Weilchen her die müssten eigentlich mal wieder ran :D
 
Zurück
Oben