News Intel Basin Falls: Skylake-X mit bis zu 12 Kernen Ende Mai zur Computex

@Luxmanl525: Sorry, aber Crysis 3 ist mit dem alten E6600 unmöglich flüssig zu spielen. Du kannst da niemals 60 FPS halten.

foldinghomealon schrieb:
Ja, Aussagen wie "das ist die stärkste CPU bei 720p" ist auch nur eine theoretische Aussage, weil so niemand spielt.
Aussagen auf FHD machen schon eher Sinn, aber auch nur die wenigsten dürften sich eine 1080 Ti zulegen und dann in FHD spielen.

Also sind Tests auf 1440p oder UHD durchaus wichtig, damit man praxisrelevant beurteilen kann, welche CPU man dafür auswählen soll.

Aber das verstehen hier auch nur die wenigsten.

Auch nicht so ganz. CPU Tests mit 720p sind die sinnvollsten die es gibt. Da siehst du was deine CPU maximal an FPS schafft. Siehst du auf 4K nicht da die GRafikkarte die FPS limitiert. Alles andere sind keine CPU Tests..
 
Zuletzt bearbeitet:
Herrlich!!!, wozu "plötzliche" Konkurrenz einen Monopolisten zwingen kann :D.
 
Oh ja, ich glaub da kommt endlich MEIN 8-Kerner. :D
Auch noch genau zu meinem Geburtstag mit dem Marktstart!

Pisaro schrieb:
...
Auch nicht so ganz. CPU Tests mit 720p sind die sinnvollsten die es gibt. Da siehst du was deine CPU maximal an FPS schafft. Siehst du auf 4K nicht da die GRafikkarte die FPS limitiert. Alles andere sind keine CPU Tests..
Ganz genau.
Nervig, dass das immer noch in beinahe jedem Thread erklärt werden muss. Aber die Dummen sterben halt nicht aus, hauptsächlich, weil sie den Quark von anderen Dummen nachplappern.
 
Zuletzt bearbeitet:
Das ist jedoch auf beiden Seiten so in den Intel- oder AMD Threads. ;) Man muss glaube ich aufpassen nicht zu emotional zu werden bei dem Thema, auch wenn man natürlich mitfiebert und seinen Standpunkt als den richtigen ansieht. Ich freue mich jedenfalls, dass wir bald mehr Auswahl haben und eine echte Alternative.
 
Black&White schrieb:
*Facepalm* Falsch, Falsch, Falsch .....
Leute lasst das schreiben, wenn man hier Stammtischmythen verbreitet.

Der 1440p ist nicht weniger wichtiger als der 1080p und der 720p test. Die Summe einzelner Tests ergibt ein richtiges Bild und nicht einzelne ausgewählte Tests und wenn überhaupt können solche Tests nur Aussagen, wie es zu diesem Zeitpunkt die Hardware mit der Software läuft. Man kann maximal Annahmen für kommende Software machen. DX11 war aus meiner Sicht eher eine lange Bremse und deshalb hatte man da keine großen Änderungen. Vulkan macht Druck und DX12 wird mehr und mehr kommen, speziell da MS selbst XBOX One API, basierend auf DX12 API pushen muss um mit ihrer Scorpio voranzukommen. (DX12 Features per Hardware eingeflossen).

Was bringen mir dutzende 720p Tests aktueller und alter Software, die in 3 Jahren obsolet sind, weil sich sämtliche Game-Engine bsp bis Datum dann geändert haben ?
Denn das hat schon der erste Test mit dem neuen Parkour gezeigt, dass der FX 8350 gegenüber den 2600X unter 720p massig aufgeholt hat.
Denn wenn die 720p Tests für die Zukunft so"all-aussagend" wären, dürfte der Abstand nicht kleiner geworden sein.
Und da selbst Intel was Kernanzahl angeht Änderungen vornimmt, glaube ich kaum, dass in Zukunft 6 und 8 Core keinen Vorteil bringen werden, auch was Games angeht, die bei Software-Anpassungen die letzten Jahren gewaltig voran bringen.
(Frostebite, Snowdrop, und wie sie alle heißen)

Somit, will ich wissen ob ich von einer CPU aktuell etwas erwarten kann, schaue ich mir 1440p und 1080p Tests an, falls ich diese Auflösung verwende. Will ich mehr wissen, wie sich die Performance mit stärkeren Grafikarten die nächsten Jahren mit meiner CPU auskommen könnte, schaue ich mir 720p Tests an, wobei ich dann auch nur erraten kann, ob sich da was in Zukunft ändern wird. Ich sehe aber jetzt nicht so viele Andeutungen, dass in Zukunft man nicht von mehr Cores profitieren könnte, wenn aktuelle i5 bei Modernen Games bereits auf Anschlag agieren. Die Software-Hersteller werden früher oder später für mehr Grafik und Physik die CPU mehr mit einbeziehen (man bedenke dass man durch Vulkan und DX12 Physik auf eigene Threads auslagern kann, was bei DX11 noch nicht in der Form ging. Oder dass bsp die XBOX ONE bis zu 7 Cores für Games freigeben kann und ein Core für Physik Effekte zum Beispiel anbieten würde um die GPU zu entlasten).
 
Zuletzt bearbeitet:
Findet keiner hier die nur 16 PCIe Lanes von Kaby Lake-X sehr bedenklich? Da kann man in den PC ja gar nichts mehr weiter reinstecken außer einer GK? :mad: Die restlichen PCI-Stecker sind dann nur zum Anschauen oder wie? Was mit all den Leuten, die weitere Karten für FW, Thunderbolt, Raid, Video-Audio etc. brauchen? Sind die dann alle gezwungen, einen Prozessor mit 44 Lanes zu kaufen?
 
@PHuV nee schau dir nochmal das Bild unten an . Der Chipsatz hat eigene zusätzliche Lanes.
 
Zuletzt bearbeitet:
Der Chipsatz selbst bringt ja noch ein paar extra Lanes mit.
Der Z270 glaube ich 24 Stück, wenn ich mich nicht irre.
Das sollte doch eigentlich reichen.
Aber klar, brauchst Du mehr Lanes, musst Du auch mehr Kohle in die Hand nehmen.
 
Ich bin gespannt, dann kann ich bald mein X99 System in den wohlverdienten Ruhestand schicken :)
 
Zuletzt bearbeitet:
cookie_dent schrieb:
Der Chipsatz selbst bringt ja noch ein paar extra Lanes mit.
Der Z270 glaube ich 24 Stück, wenn ich mich nicht irre.
Das sollte doch eigentlich reichen.
Aber klar, brauchst Du mehr Lanes, musst Du auch mehr Kohle in die Hand nehmen.

wobei viele den Bedarf an PCI Lanes meiner Meinung nach überschätzen.. , nimm mal Crossfire oder SLI - braucht man dafür 32 PCI 3.0 Lane s ? - Bullshit , man braucht lediglich 2 x 8 Lanes
Die derzeit einzige Karte der ich es zutraue tatsächlich einen Vorteil aus 2 x 16 Pci 3.0 Lanes im SLI ziehen zu können wäre die 1080Ti .
 
@ pcie lanes:
Hab nen test von 2x 1080 reduced auf 4x lanes statt 8x gesehen. Differenz lag im bereich von 10%.

Begrenzen tun weniger die lanes als vielmehr die mangelnde Unterstützung durch profile und treiber. Dx 12 ist da allerdingsein Fortschritt, wie auch Vulcan. Den beiden is nämlich sogar die art der grafikkarte nahezu egal solang die programmierung in der engine stimmt.
 
Also an Intels Stelle, würd ich den Kaby X Quad aus dem Portfolio nehmen. Das Ding taugt doch nicht mehr für das Enthusiast Segment. Auch wenn es bisher immer eine Einstiegs CPU als Quad gab.;)
 
Immer wieder schön zu sehen, wie bei Themen wie diesen, die Beweisführung für pro Intel -pro AMD auf Basis von Spielen geführt wird. Dafür sind diese CPUs aber nicht gedacht, sondern die sind in erster Linie für den semiprofessionellen Bereich da. Und wie man im ersten CB Test schon gesehen hat, ist der Ryzen Achtkerner desöfteren gefährlich nahe an Intels Zehnkerner und meistens schneller als der Achtkerner - und das mit halbem Speicherinterface. Der Ryzen R9 mit seinem Quadchannel und den 16 Kernen wird also hart mit dem 20 Kerner von Intel fighten. Über den Zwölfender wird er nur müde lächeln wenns um hochparallelisierbaren Workload geht. Für Singlethread Anwendungen sind diese CPUs ja eh nicht gedacht...
 
Hallo zusammen,

@ Black&White

Black&White schrieb:
*Facepalm* Falsch, Falsch, Falsch .....
Leute lasst das schreiben, wenn man hier Stammtischmythen verbreitet.

Kannst du mir mal bitte erklären, wo ein CPU Test in 1440p oder gar UHD Sinn machen und Praxisrelavant ist ? Wie soll man im GPU Limit einen Unterschied merken ? Diesen Fehler machen selbst die „besten“ Redaktionen. Wie erklärst du dir sonst technisch, dass ein i3 einen i7 schlägt ? Richtig GPU Limit, da könnte selbst ein alter Pentium 4 über einen i7 stehen, selbst meine alte Sandy wäre ja dann laut Benchmark immer noch schneller als ein aktueller 350€ i7, stimmt das? Nein!

Warum kaufen die Leute 4/6/8 Kerner wenn ein i3 doch alle schlägt ?

Siehst du, deine Aussage macht überhaupt keinen Sinn. Hauptsache was schreiben, egal ob richtig oder Falsch.

Aber das verstehen hier auch nur die wenigsten. Kapieren manche nach 5 Seiten Diskussion nicht.

Also schau, die Choose ist relativ einfach. Weil es schlichtweg Spiele mittlerweile gibt, die nicht nur wenigstens 4 Kerne erfordern, sondern sogar ohne diese gar nicht einmal Starten. Beides Gründe weswegen ich von meinem betagten Core2Duo E6600 € 3,21 GHz im Dezember 2014 auf einen Xeon 1231 v3 umgestiegen bin. Damals war auch die Zeit, wo Spiele aus Hyperthreading begannen, deutliche Performancegewinne zu Ziehen. Der hier so oft propagierte Pentium 66x kann so kostengünstig sein wie er will, er ist in immer weniger Spielen noch zu gebrauchen, weil er einfach zuwenig Kerne hat.

Im Grunde werden 4 Kerne jetzt erst langsam mal richtig unterstützt. Tatsächlich reichen für die allermeisten Spiele immer noch CPU`s wie ein Core2Duo unter Full HD. Was natürlich nicht mehr für die meisten Spiele so ab 2015 / 2016 gilt. Man sollte sich mal vor Augen halten, wie lange es gedauert hat, bis 2 Kerne mal vernünftig unterstützt wurden.

Und was Tests unter 4K oder dergleichen angeht, die sind schon auch wichtig. Lange Zeit habe ich das auch für Überflüssig gehalten, weil einfach zuwenige Leute einen entsprechenden Monitor ihr Eigen nennen. Aber das werden gleichwohl immer mehr. Und deshalb sollten solche Tests auch mit einher gehen. Allerdings immer noch mit Schwerpunkt Full HD und nicht wie es mittlerweile bei vielen ist, mit Schwerpunkt auf höheren Auflösungen als Full HD.

So long....
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
Und was Tests unter 4K oder dergleichen angeht, die sind schon auch wichtig. Lange Zeit habe ich das auch für Überflüssig gehalten, weil einfach zuwenige Leute einen entsprechenden Monitor ihr Eigen nennen. Aber das werden gleichwohl immer mehr. Und deshalb sollten solche Tests auch mit einher gehen. Allerdings immer noch mit Schwerpunkt Full HD und nicht wie es mittlerweile bei vielen ist, mit Schwerpunkt auf höheren Auflösungen als Full HD.

So long....

Da finde ich nicht mal, dass es an den Monitoren liegt, sondern viel mehr daran, dass mittlerweile ja in sehr vielen Spielen Downsampling intern angeboten wird. Ich spiele beispielsweise ArmA und da gibt es die Downsamplingfunktion schon seit Release, auch wenn ich zu dem Zeitpunkt gar nichts mit der Funktion begriffsmäßig anfangen konnte. Downsampling hat aber dann ja immer mehr Verbreitung gefunden, bis es dann ja sogar die Grafikkartenhersteller in die Treiber direkt eingebaut haben. Früher musste man das ja mit manueller Treiberinstallation und Anpassung der Treiberdatei aufwendig aktivieren. Ich selber spiele auch noch auf einem 1080p Monitor und fange jetzt erst so langsam an über ein Upgrade nachzudenken, aber nicht wegen Spielen, sondern eher wegen der Usability in Windows und 4K Filmen. Da ich ein VA-Panel hab, bin ich aber sehr wählerisch und will keinen Rückschritt machen. TN, IPS will ich nicht mehr und Sachen wie ***-Sync interessiert mich nicht wirklich.
 
autsch. wenn mans nicht besser weis... ist ja ok. aber sein unwissen so zur schau zu stellen... applaus!
 
oldsqlBeat schrieb:
Uii bin gespannt, dann kann ich bald mein X99 in Rente schicken :)

Lass es uns gemeinsam tun!! :D :D

OK, war ein Witz. Werde meinen Broadwell noch ein Stückchen behalten. Bisher gibt's nichts was einen Grund zum wechseln nötig macht.
 
at1983 schrieb:
Lass es uns gemeinsam tun!! :D :D

OK, war ein Witz. Werde meinen Broadwell noch ein Stückchen behalten. Bisher gibt's nichts was einen Grund zum wechseln nötig macht.

Klar. Von Broadwell E auf Skylake X macht wenig bis keinen Sinn. Ich kann dann endlich mal meinen i7-2600K in Rente schicken und reihe mich ein 😂
Ergänzung ()

IchoTolot schrieb:
Da finde ich nicht mal, dass es an den Monitoren liegt, sondern viel mehr daran, dass mittlerweile ja in sehr vielen Spielen Downsampling intern angeboten wird. Ich spiele beispielsweise ArmA und da gibt es die Downsamplingfunktion schon seit Release, auch wenn ich zu dem Zeitpunkt gar nichts mit der Funktion begriffsmäßig anfangen konnte. Downsampling hat aber dann ja immer mehr Verbreitung gefunden, bis es dann ja sogar die Grafikkartenhersteller in die Treiber direkt eingebaut haben. Früher musste man das ja mit manueller Treiberinstallation und Anpassung der Treiberdatei aufwendig aktivieren. Ich selber spiele auch noch auf einem 1080p Monitor und fange jetzt erst so langsam an über ein Upgrade nachzudenken, aber nicht wegen Spielen, sondern eher wegen der Usability in Windows und 4K Filmen. Da ich ein VA-Panel hab, bin ich aber sehr wählerisch und will keinen Rückschritt machen. TN, IPS will ich nicht mehr und Sachen wie ***-Sync interessiert mich nicht wirklich.

4K ist interessant, klar, aber selbst die 1080Ti hat damit noch etwas zu kämpfen. Ich nehme an, bis man gute framerates in der Auflösung bekommt, dauert es noch 1-2 Jahre. Manchmal bereue ich es, keinen 4K Monitor gekauft zu haben, manchmal nicht 🤣 naja, man kann ja in 3 Jahren ein Upgrade machen.
Ergänzung ()

Xedos99 schrieb:
Also an Intels Stelle, würd ich den Kaby X Quad aus dem Portfolio nehmen. Das Ding taugt doch nicht mehr für das Enthusiast Segment. Auch wenn es bisher immer eine Einstiegs CPU als Quad gab.;)
Für Leute mit sehr hohem IPC /SC bedarf taugt das Ding schon. Natürlich ist es im Vergleich zu den 6-12 Kern Boliden lächerlich, aber er hat seine Daseinsberechtigung.
 
Hallo zusammen,

@ Pisaro

Pisaro schrieb:
@Luxmanl525: Sorry, aber Crysis 3 ist mit dem alten E6600 unmöglich flüssig zu spielen. Du kannst da niemals 60 FPS halten.

Wie kommst du auf 60 FPS? Von 60 FPS war mit keiner Silbe meinerseitig die Rede. Null. Selbstverständlich hatte ich mit der besagten CPU + der betagten GPU keine 60 FPS. Ich kann gar nicht begreifen, wo du diesen Bezug her nimmst. Noch dazu sind 60 FPS keineswegs nötig, um Crysis 3 Flüssig zu Spielen. Erst Recht, wenn man wie ich, seinen Desktoprechner so gestaltet hat, daß nicht einmal ein Virenscanner im Hintergrund läuft oder ähnliches, es wurde nichts sonstiges installiert, die Plattform diente nur zum Spielen.

Vielleicht hast du nie danach geschaut, aber Crysis 3 lastet eine CPU wie meinen seinerzeitigen C2D E6600 @ 3,21 GHz mit gerade einmal 65 % aus. Ich hatte seinerzeit da sehr darauf geachtet, weil es immer hieß, die Crysis Reihe wäre stark für Mehrkern-CPU`s optimiert.

So long....
 
Zurück
Oben