News Coffee Lake: Finale Spezifikationen der 6-Kern-CPUs enthüllt

latexdoll schrieb:
Ich frage mich, wieso die Leute unbedingt einen 6/12 kerner wollen am besten noch ohne HT/SMT . Der Damm ist gebrochen, 8/16 Kerner sind der neue Standard und es sieht aus als würde es demnächst noch mehr Kerne geben.
mfg

Also 4/8 oder 6/12 ist wohl eher der Standard. Wenn man bedenkt, wie viele überhaupt zur Zeit nur Aufrüsten oder neu kaufen und von den paar % nur ein Bruchteil wirklich zu 8+ Kernen greift, so ist und bleibt die Mehrheit vorerst bei Quad- und Six-Cores (SMT ist bei Quads noch wichtiger)

Bis es so weit ist, dass so viele einen Octacore haben wie heute einen Quad- oder Hexa, wird es schon ganz andere CPUs geben.
 
latexdoll schrieb:
8/16 Kerner sind der neue Standard und es sieht aus als würde es demnächst noch mehr Kerne geben.
Sagt wer? Ein neuer Standard geht nicht bei 300 Euro für die Einstiegs CPU los und da die meist verkauften PCs nun mal Laptops sind, wo AMD noch gar nicht unterwegs ist, ist der neue Standard derzeit noch der alte 2C4T. Auf kurze Sicht wird es sicherlich 4C8T, mittlefristig und mit der neune Notebook CPU Generation kommt dann die obere Mittelklasse in Form von Ryzen 5 & i7 mit 6C12T. 8C16T wird vorerst rein der Oberklasse vorbehalten bleiben und dem entsprechend kein Ziel für Spieleentwickler.

Also auf die nächsten 3-4 Jahre wird ein hoch taktender i7 mit 6 Kernen den aktuellen Ryzen derbe die FPS um die Ohren hauen. Wenn wir dann endlich soweit sind, dass 8C16T in Games wirklich einen nennenswerten Vorteil bringt sind die aktuellen Ryzen dank geringem Takt /IPC zu langsam. Von daher: Ja 8C16T ist cool und jeder der da aktuellen nen Nutzen von zieht sollte zugreifen. Aber sich so ein Ding rein mit Blick auf Zukunft im Bereich Gaming zu zulegen ist Blödsinn.
 
@latexdoll
Du vergisst bei der ganzen Sache, dass einer der physischen Konsolenkerne ungefähr so schnell ist, wie ein SMT bzw. HT Thread bei den "großen" Prozessoren von AMD und Intel, wenn man davon ausgeht, dass dieser nur ca. 20% eines physischen Kernes leistet.

Zudem vergisst Du, dass die Kerne nicht alle von den Programmierern genutzt werden dürfen.
Man hat sich damals aus Geldgründen für die schwachen 8-Kerner entschieden, anstatt stärkere 4-Kern CPUs einzubauen.

It was because of money as John Scheibeler stated. However they may have shot themselves in the foot for being so cheap, as developers for AC Unity and Planetside 2 have already complained that the CPU is causing them problems in terms of handling all the processes that make modern games look realistic and play well.

Grüße
Zero
 
Zuletzt bearbeitet:
Einerseits aus Kostengründen , andererseits ist " Single Core Bla Bla .. " bei Konsolen kein Thema über das es sich zu diskutieren lohnt , dort wird halt sparsam mit den Ressourcen umgegangen und GPU Leistung ist dort wichtiger als CPU Leistung

PS : Ein Kern ist fürs System reserviert , 7 Jaguar Kerne stehen einem Spiel zur verfügung
 
Cokocool schrieb:
Ja in diesen wertvollen 720p Benchmarks :rolleyes: Deine % Zahlen sind Szenarien im CPU-Limit. Da hängt aber kaum jemand fest....

Ich häng da eher fest als im GPU Limit, denn GPU Limit lässt sich steuern.. Es gibt sehr viele GPU Settings via Treiber und via InGame. Dann könnte ich auch einfach ne neue GPU kaufen die besser ist oder 2..

Beim CPU Limit habe ich keine Optionen. Vielleicht wird das Game optimiert, aber naja Erfahrung sagt eher nicht. Grade in meinen Games, also Multiplayer renne ich oft ins CPU limit. So ziemlich alles von der Unreal Engine hängt das fest. Arma, Squad, PuB .. Sind Games die ich zogge und alle mit nem 4790k@4.5 im Limit..Da kann ich kaum was machen. Nicht einfach mal SSAO abschalten und boom 10 FPS mehr.

Da kommen die Kaffee Seen ganz gelegen, wegen hoher Singlecore, das was viele games brauchen. naja und wenn schön optimierte Games 12 Threads wollen..auch ok.
 
@ZeroZerp

entschuldige bitte das ich nicht erwähnt habe das dies die alten AMD Kerne sind. Mea Culpa Maximus !
Oh dachte schon immer, das Windows auf den PC keinen Kern beansprucht ;)

Passend zum Zitat gibt es auch diese Meldung darunter.....

I worked at AMD on both projects; hence the need to make this answer anonymous.

Both Sony and Microsoft were given the option of using full-blown Bulldozer cores instead of Jaguar cores. Sony actually *did* opt for the Bulldozer core; and AMD did some initial design work for them with this core in place.

AMD later convinced Sony to use the lower-power (and lower cost) Jaguar core; which caused the internal code name for the Play Station 4 CPU to change to "Thebe-J" from the original "Thebe" (not "Thebes" as many online sources seem to claim)

I believe AMD did the right thing by demonstrating the advantages of the Jaguar core; but there probably was another motive: Using Jaguar made the CPU side of both the Microsoft and Sony game console SoCs very similar to each other, and there was a significant amount of similarity to the Kabini project as well. AMD saved a lot of time and money because of the commonality between the three projects.


mfg
 
Ich denke der Vorteil beim 8700K (für zocker) ist der Ringbus und der große Cache gepaart mit dem hohen Takt. Da kann man gerne auf die 2 Kerne mehr vom 8 Kerner verzichten aber hat kleine Latenzen und eine hohe IPC.

Der 8700K hat auch keine 7700K Kerne sondern bessere 7700K Kerne. Wenn der 7820X diese 14nm++ Kerne hätte, dann würde ich ganz klar den SLX 8 Kerner kaufen. Das wird aber wohl erst mit CL-X kommen, was mir zu lange dauert.
 
@latexdoll
Die Kerne von z.B. Windows sind aber nicht exklusiv und jederzeit vom Programmierer nutzbar.
Anders so bei den Konsolen...

Zum fortgeführten Zitat:
Im Nachhinein wissen wir ja, dass AMD damit eher Selbstschutz betrieben hat, weil die Bulldozer Cores für die Mehrkosten und den Energieverbrauch in diesem Sektor den Jaguar- Cores vollständig unterlegen waren.

Die Blamage hat sich AMD zu Recht nicht gegeben und diesbezüglich in meinen Augen marketingtechnisch alles was in ihren Möglichkeiten steht perfekt gemacht.

Grüße
Zero
 
latexdoll schrieb:
Ich frage mich, wieso die Leute unbedingt einen 6/12 kerner wollen am besten noch ohne HT/SMT . Der Damm ist gebrochen, 8/16 Kerner sind der neue Standard und es sieht aus als würde es demnächst noch mehr Kerne geben.

Der Standard ist heute 4T (2C/4T, 4C/4T bzw. 2M/4T). Das sind die mit großem Abstand am meisten abgesetzten Mobile und Desktop CPUs. Der zukünftige Standard (nach der Einführung von Coffee Lake und Raven Ridge, Stückzahlen) wird dem entsprechend 6 bis 8T (basierend auf 4C/8T und 6C/6T).

Bis 8C/16T nach Stückzahlen zum Standard geworden ist haben wir 2021 (~5nm EUV).
 
Zuletzt bearbeitet:
@YforU:

Da hast du recht.

@4/6/8 Kerne.

Es mag aber User geben, denen schon ein 4c8t i7 zu lahm ist bzw. hier und da einbricht.
Deshalb ists gut, dass man Alternativen hat.

Für den 0815-User mit 1080p/60fps Gaming reicht auch HEUTE in 95% der Fälle ein i5 mit 4 Threads.
Und da das HEUTE ist, würde ich HEUTE keinen 4 Kerner mehr kaufen, sondern, wenn ich neu kaufe, einen R5 1600 mit 12 Threads, dann habe ich als Normalo sehr lange Ruhe. Also sollten die Leute, die heute kaufen, nicht unbedingt auf die Empfehlungen wie "reicht doch" hören.
Vor allem geht es da um in etwa gleiche Preise in der Region (+-30€).

Wenn man mehr will als den R5 1600, wie zB ich, der auch Single- oder Two-Core Games mit 144fps zocken will(Hi@WoW), braucht man eben mehr SingleCore Performance. Das hatte ich mir von SK X erhofft, wurde enttäuscht, nun hoffe ich auf Coffee Lake!

Dazu laufen andere Sachen parallel (Musik, Teamspeak, Browser, Discord, Downloads, Simcraft (aktuell beschränkt möglich), evtl. mal aus Fun ein Stream für Kumpels starte, etc.) deswegen mind. 6 Kerne.
Hier zeigt mein 4770k schon Schwächen und Spiele wie FH3 sind dann nicht sauber spielbar, BF1 gibt es dann auch immer wieder Drops von 144 auf ~60-80 FPS, was einem Ruckeln gleich kommt.

Wenn ich rein NUR spiele (mit max. TS im Hintergrund) und sonst nichts läuft, dann sind beide Spiele (FH3 und BF1) sehr gut spielbar. Die CPU läuft zwar am Limit bis zu 95% Auslastung) aber alles in allem "ausreichend" und gut spielbar.

Auch einen 7700k würde ich HEUTE nicht mehr kaufen! Klar der würde das easy packen, da er duch IPC und Taktvorteil nach OC ca. 20% schneller ist als mein 4770k, aber wie lange packt er das noch? Vor allem zu diesem Preis gibt es 8 Kerne und weit mehr Multicore Leistung.
Der 8700k dagegen bietet dann Singlecoreleistung ≥ 7700k + Multicoreleistung geringfügig < R7 1800x, wenn man den ersten CineBench-Werten glauben kann. Das ist für mich die perfekte Mischung für MEIN Anwendungsgebiet!

BTW:
Ich spiele auf einem 144hz Monitor, ohne Vsync, damit der Inputlag verringert wird. Je höher die FPS Anzahl, desto weniger Inputlag und das "Smoothnes"-Gefühl steigt deutlich (mein Empfinden!). Ich cappe zudem die FPS @144 da sonst meine CPU in BF1 aussteigt und ich sicher gehen möchte, dass die 144fps gehalten werden - Grakasettings sind hier und da runtergedreht, so dass die 1080 die 144fps dauerhaft liefern kann.

Wenn ich zB an meinem TV spiele (60hz + Vsync wegen Tearing) langweilt sich meine CPU. Also bitte nicht denken, dass ich für alle hier spreche ;-)
Am TV spiele ich auch FH3, da läuft die CPU @~60% Auslastung. Am Monitor (Settings oben^) gespielt, erreicht die CPU bis zu 95% Auslastung, dafür ist eben die Steuerung direkter und das Gefühl beim Spielen deutlich besser :-) )
 
klingt alles ganz nett was geschrieben steht, aber ob der nun schneller wird als Ryzen oder nicht, ob der nun gebraucht wird oder nicht und ob der auf die Z1xx und Z2xx Boards kommen wird, wird man doch sehen, wenn es soweit ist. Ob Ihr euch nun die Köpfe heiß diskutiert oder nicht, Eher erfahren werdet ihr es alle nicht (außer einer arbeitet bei intel und mopst CPU und nen Board usw.).:D

wartet es einfach ab ;)
 
latexdoll schrieb:
Ich frage mich, wieso die Leute unbedingt einen 6/12 kerner wollen am besten noch ohne HT/SMT .

Ich würde sofort 400€ für eine 6C/12T CPU aus dem Hause Intel blechen, wenn die Single Core Leistung einem 7700K oder höher entsprechen würde. Sowas kriegt man bei AMD leider nicht.

Das Geschwafel über das ähnliche Gaming Verhalten kann ich auch nicht bestätigen. Mein 6700K fühlte sich in 9 von 10 Fällen flüssiger an als ein Ryzen 7 1700 ~4GHz System. Ich hab meine Erfahrungen dies bezüglich gemacht und kann keinem ambitionierten High FPS Zocker eine AMD CPU empfehlen.
 
"ambitionierter High FPS Zocker"....

Für CS:Go kauft man einen 7350k. Für CoD und BF1 liegt AMD vorne.

Sonst gibt es praktisch keine relevanten FPS Spiele am Markt.

Dein Empfinden sehe ich daher eher subjektiv, da Reviews und Technik-Seiten (die "Schwafler") das eben anders sehen. Denen sprech ich aber dann doch mehr Ahnung zu.
 
Zuletzt bearbeitet:
Die Spielauswahl spielt wirklich eine Rolle, da hast du Recht. Ich hab mir das Ding eigentlich auch nur zugelegt, weil ich die Hoffnung hatte, dass sich generell beim Spielgefühl nichts ändert und wenn doch nur im positiven Sinne. So wie es eben in den Reviews beschrieben wird.

Auch hier hatte ich BF1 als Multi Thread Monster im Hinterkopf. Leider liefen BF1, Forza H3 und Ghost Recon an den ersten beiden Abenden so schlecht, das ich den Fehlkauf eingestehen muss. Da gibt es keinen Grund zu lügen. Wie du richtig erkannt hast, beschreibt dies nur meine subjektive Erfahrung.
 
Zuletzt bearbeitet: (ein Wort zu viel)
Grade BF1 und FH3 sind die Paradebeispiele um die Leistung auszufahren. Da gibt es kaum was besseres als 6-8 Kerne im Mainstream von AMD bisher. (Bald noch Coffee Lake im Mainstream)

Da sind für mich andere Probleme, die ich hinterfragt hätte an deiner Stelle.

Ein 6700k ist da ein Rückschritt mMn.

Da scheinst du schon absolut ein Einzelfall gewesen zu sein, daher finde ich es schon merkwürdig dann ins Forum zu gehen, und die Reviews / Testberichte von Leuten mit Ahnung, als "Geschwafel" abzutun. :rolleyes:
 
Zuletzt bearbeitet:
Als Nutzer eines i5-3570K @ 4,3 GHz finde ich es durchaus gut, dass wieder Bewegung in den CPU-Markt kommt.

Spiele schon länger mit dem Gedanken aufzurüsten, aber der aktuelle Markt gibt nichts her für mein Profil.

Einerseits war der 7700K ja mein Favorit für ein Upgrade, aber andererseits würde ich heutzutage keinen Quad mehr kaufein für ein halbwegs großes System.
Ryzen bietet zwar die Kerne /Threads, aber hängt dann doch knapp 20% im Takt und 6% bei der IPC hinterher. (Trotzdem gute CPUs, nur halt eben nicht passend für mich)

Wenn so ein 8600K/8700K dann 5 GHz mitmacht und der Preis angemessen ist, fällt mir persönlich die Wahl leicht. Natürlich wird es passieren, dass AMD entsprechend nachlegt, und wenn dort P/L besser sind, umso besser.

(Ich spiele einige Spiele, die nicht gut auf mehr als 4 Kerne skalieren, aber auf diesen 4 Threads nicht genug Performance kriegen können. Trotzdem ist ein Quad einfach nicht die CPU der Wahl, wenn man wie ich nur alle 5-6 Jahre wechselt und halbwegs hohe Anforderungen an die Performance hat)
 
@Aldaric:

FH3 lief mit nem 6700k (4.6ghz) "besser" als mit nem 6800k (4.2) und 1700x (3.9) (Mein "Testthread" damals).

Er brachte mehr FPS zustande, die Smoothnes war bei allen 3 CPUs gegeben und auch kamen keine Drops zustande.

Interessant wurde es da, sobald mehr Programme im Hintergrund liefen, da merkt man dann, dass man nur 4 Kerne hat beim 6700k, während die anderen beiden CPUs weiterhin vor sich hinchillen und man gar nichts von irgendwelchen Einbußen merkt.

Alles in Szenarien, wie von mir oben (#251) beschrieben.
Also ein 60fps Zocker merkt keinen Unterschied zw. Ryzen, i7 Sky/Kaby oder i7 BW-E in FH3.
Auch einer, der rein nur das Game offen hat (ohne Sync, mit zB 144 FPS) wird davon nichts merken - Der 4 Kerner hat nur ~10-15% Reserven, aber es läuft ja butterweich. Startet man sonstige Programme = Drops ^^

In FH3 gab es seit dem aber einige Patches, keine Ahnung, ob sich da nun alles grundlegend ändert. Ich merke keinen Unterschied mit dem 4770k zu vorher, habe aber höchstens ein Programm zusätzlich an wie zB TS oder wenn ich alleine unterwegs bin Winamp.
 
Suteki schrieb:
Für mich heißt das: Künftig in den Tests drauf achten, ob die CPUs die Ergebnisse innerhalb ihrer Spezifikation erreicht haben (also: hat das Board den Verbrauch entsprechend beschränkt?).
Das wird kaum passieren, da de Reviewer ja meist Boards nutzen die für Overclocking oder wenigstens Gaming ausgelegt sind und daher meist kein strenges Power Limit ansetzen, weil sie mehr Leistung liefern können und mit mehr Performance glänzen möchten.

Suteki schrieb:
Andere Werte kann man dann in die Tonne treten. Nicht dass das wieder so endet wie bei den Nvidia Benchmarks, wo die Leute die Leistung der Custom Karte nehmen und den Stromverbrauch der Founders Edition :freak:.
Und bei den Skylake-X Reviews passierte das Gegenteil, zumal viele X299er Boards zumindest mit den frühen UEFI Versionen die CPUs selbst in der Defaulteinstellung massiv übertaktet haben. Da wurden dann die Leistungsaufnahme der übertakteten CPU bei Prime mit intensivem AVX genommen und in Relation zu Benchmarkergebnissen gesetzt während denen die Leistungsaufnahme viel geringer war, weil die eben keine AVX Befehle nutzen. Man muss immer die Leistung und die Leistungsaufnahme bei einem konkreten Benchmark vergleichen, sonst vergleicht man Äpfel mit Birnen!

Klassikfan schrieb:
Es ist ein FAKT, daß die TDP bis vor einigen Jahren ein sicheres Indiz dafür war, was eine CPU maximal verbraucht.
Eben, war! Aber damals waren die Taktraten auch fix und die Energiesparoptionen von CPUs kaum ausgeprägt. Nachdem die CPU C-States und dynamische Taktraten bekommen haben, war es damit aber vorbei. Die Turbotakte sind ja gerade deswegen entstanden um auch bei nicht so groß dimensionierter Kühlung mehr Leistung zu ermöglichen, wenn auch ggf. nur kurzzeitig, was aber bei kurze Lasten spürbar mehr Performance bringt und gerade für Notebooks mit ihren eher knappen Kühllösungen sehr hilfreich ist. Dauerlast ist da ja auch wirklich die Ausnahme. Wer aber mal eben eine Datei entpackt freut sich dann trotzdem wenn die CPU hochtaktet und dies schneller geht, auch wenn sie danach wegen der Wärmeentwicklung wieder runtertakten muss.
Klassikfan schrieb:
Man konnte sich sogar darauf verlassen, daß sie geringfügig bis erheblich (!!) weniger Strom zieht, als die TDP-Angabe vermuten ließ.
Klar, sonst wären die ungeregelten CPUs ja auchz überhitzt und kaputt gegangen bzw. hätten sich hart ausgeschaltet. Heutige CPUs sind aber geregelt und dafür gibt es vor allem zwei Parameter: Die Leistungsaufnahme und die Temperatur. Dementsprechend geben die Board mehr oder weniger Spannung und Takt frei.
Klassikfan schrieb:
Man konnte "95W-CPUs" kaufen, die real nie mehr als 70 Watt zogen. Genau so wurde der Grundsatz "TDP =/ Verbrauch" immer interpretiert.
Nur diese Zeiten lange her und seit bestimmt so 10 Jahren vorbei.
Klassikfan schrieb:
Der genannte T-Prozessor frißt unter Dauerlast über 60 Watt!! Also nicht nur für wenige Sekunden, in denen der Kühler aufgrund der Wärmeleitträgheit ohnehin nicht mehr abführen kann als die 35W TDP, mit der die CPU spezifiziert ist. In der Spitze sogar über 80! Mehr als das DOPPELTE der TDP! Das kann man sich mit noch soviel Alkohol nicht schönsaufen!
Wieso sollte man sich das schönsaufen müssen? Die CPU leistet dann ja auch entsprechend viel. Wenn man wirklich nur eine Leistungsaufnahme von 35W haben will, muss man dies im UEFI auch so einstellen, wobei nicht jedes Board und vor allem nicht die für OC ausgelegten Boards und mit so einem dürfte getestet worden sein und ebenso mit einem Kühler der weit mehr als 35W abführen kann, weshalb die CPU weder durch ein thermisches noch durch ein Power Limit eingefangen wurde.

Klassikfan schrieb:
Daß die CPU heutzutage throtteln kann und das Bios eine außer Kontrolle geratende CPU einfangen kann, ist ein schwacher Trost dafür, daß die TDP nicht mehr für ihre Grundfunktion taugt: die korrekte Dimensionierung eines Kühlsystemes.
Doch genau dafür taugt sie, denn eine CPU sollte nicht wegen Überhitzung dauern ins Throtteln kommen, sondern ihren Grundtakt mit eines der TDP entsprechenden Kühllösung halten können. Das BIOS macht auch viel mehr als die CPU nur zu throtteln, es regelt deren Takt und Spannungen entsprechend den Anforderungen an die Performance, den Temperaturen (auch denen der Spannungswandler auf dem Board selbst) und ggf. dem Power Limit. Du gehst von total falschen Voraussetzungen aus und liegst daher total daneben.
Klassikfan schrieb:
Vor zehn Jahren konnte man mit der TDP-Angabe ein System dimensionieren, das die CPU unter Vollast sicher kühlen konnte. Täte man das heute, würde das Ergebnis immer öfter ein Rechner knapp über Idle-Betrieb sein, der nicht mehr kann, obwohl er könnte...
Vor 10 Jahren wäre eine CPU dann aber auch ausgegangen, wenn die Kühlung nicht gereicht hätte oder schlimmstenfalls wäre sie sogar kaputt gegangen. Auch konnte sie nicht mal eben den Takt anheben um kurz mal eben mehr Performance zu liefern, was CPUs heute können.

oldmanhunting schrieb:
Der 8700K hat auch keine 7700K Kerne sondern bessere 7700K Kerne.
Nach bisherigem Kenntnisstand hat er die gleichen Kerne wie Kaby Lake und der hat die gleichen wie Skylake.

oldmanhunting schrieb:
Wenn der 7820X diese 14nm++ Kerne hätte
Du wirst hier Kerne und Fertigungsprozess durcheinander.
 
oldmanhunting schrieb:
Gerade schon einmal festgestellt, dass die Corsair H115i oben in den Deckel von meinem Gehäuse paßt. Dann kann ich meine Wakü in den Ruhestand schicken und der externe Radiator verschwindet von meinem Schreibtisch.
Ein Gescheites Mainboard und 4000er Ram muß noch gefunden werden aber alleine das aussuchen macht ja schon einmal Laune. :D

Ich hoffe der 8700K kann halten, was Intel mit 14nm++ verspricht, weil dann haben wir die perfekte Zocker CPU.

Warum hier verbissen mit Zen+ geworben wird kann ich schon verstehen aber ich überlese das einfach.

Nunja das ist die gleiche Diskussion wie damals DuoCore vs Singlecore oder Duo vs Quadcore.. Du bist ja auchn alter Hase und solltest die Diskussion noch kennen.. War damals nicht anders. Ich finde aber die Argumente von wegen Meide AMD weil die SC Leistung grottig ist, genauso lächerlich wie die Aussage das Skylake-X für Gamer ist.
Die Multithreadded Power ist zB. mir wichtig, SC Games wie Arrma werden aber auch auf einem 8Ghz Single nicht gut laufen und die Software(grade Games werden immer mehr MegaTasker) entwickelt sich weg vom Singletherad. Klar Intel wird dann dazusteigen, wenn es Ökonomisch notwendig ist, dennoch steht dann immer noch : 200€ 6C/12T gegen 350€ 6C/12T.. bei AMD kann ich Ocen (was die 95W TDP sinnfrei macht) bei Intel nicht (außer ich nehme einen K) Dennoch ist selbst ein 7700K mit 5Ghz kein Kostverächter (Laut Golem Test)... Man könnte also Böse sagen: Bei AMD bekommt man mehr Kerne fürs Geld und muss dafür nur geringe SC Einbußen hinnehmen (SC2 und WoW sind extrem Beispiele, wo aber wohl auch der Compiler schuld mit hat)
Was mich, und viele andere hier auch, massiv stört ist eben die Aussage Intel bringt einen Kracher. Man weiß weder ob a. ein neues Mobo benötigt wird oder b. ob der Preis konkurrenzfähig ist (Analog zu Skylake-X oder noch krasser Kaby-X) oder c. ob die TDP ausreicht. Wenn ich mir einen Broadwell nehme oder meinetwegen auch Kabylake und daraus rechnerisch 6 Kerne mache und diese unter Last Setze, sehe ich auch mit Intels TDP schwarz.. Und dann sind wir wieder am Anfang was man AMD vorwirft, der Turbo ist nur kosmetisch.
Klar als Übertakter dürfte es keinen jucken, aber es ist Kundentäuschung wenn man sagt: Turbo auf 4,7Ghz.. Und in Wahrheit sind es nur 2 Kerne und vermutlich nur 20-30sek bevor die Thermalbremse greift. Warte mal erstmal Tests ab und die Kaufpreise bevor du solche Aussagen tätigst
Und ein 8700K bei 5Ghz wird erst Recht die 200W reißen, wenn der 7700K das mit 150W schon tut:
https://www.golem.de/news/intel-cor...-skylake-hevc-overclocking-1701-125322-4.html
 
Zuletzt bearbeitet:
Zurück
Oben