News Xeon E3-1200 v5: Intel sperrt Geheimtipp-CPUs für Desktop-Chipsätze

lolmachine4 schrieb:
Vielleicht sollte Intel endlich mal aufhören so zu tun, als würde niemand mehr Grafikkarten bauen und endlich richtige Prozessoren ohne sinnlosem Grafikchip bauen, der in 90% aller PCs unnütz ist? PCs sind keine Not(e)books und keine Tablets, es sind DESKTOP-PCs mit Platz. Dann sollen die ganzen OEMs eben eigene CPU-Reihen bekommen - ich will meine CPU saftig und fett ohne unnütze Beilage.

Mhh ich sag nur Steam: in ca. 20% aller Gamer-PC nutzen die Intel CPU. AMD wird "nur" von 27% der Gamer benutzt also warum sollte Intel nicht die GPU stärker pushen? Und wenn Du Dir den Office-Bereich ansiehst dürfte Intel mind. 90% aller GPUs verbauen.
 
Volker schrieb:
Ja deshalb ist es ja doppelt bitter. Wenn die so ein Witz sind, warum das denn fixen? Jetzt kaufen von 30.000 Kaufwilligen der Xeon vielleicht 10.000 einen i7, und 10.000 einen i5. An dem einen verdient Intel 70 Euro mehr pro CPU, am anderen 40 Euro weniger. Bis dahin eine gute Rechnung. Doch viele werden jetzt auch gar nicht upgraden, da da alte doch noch reicht und die Optionen jetzt eingeschränkt sind, oder gar auf die Konkurrenz warten - dieses Geld ist für Intel verloren. Parallel dazu steckt Intel mit Partnern 70 Mio. in eine Werbekampagne für den PC. Von den verlorenen Sympathiepunkten mal ganz abgesehen, denn die gehen gerade auch massiv flöten. Ob die Rechnung deshalb am Ende aufgeht?

Schwer zu sagen, ob die Rechnung am Ende aufgeht. Eine Möglichkeit ist noch, dass sich Intel mit dieser Maßnahme mehr Spielraum mit dem Xeon E3 gegenüber seinen großen OEM Kunden verschaffen will (höhere Preisnachlässe), ohne dadurch den Endkunden Markt zu torpedieren.
 
Hejo schrieb:
Ich versteh das ganze Gejammer nicht.
Für Leute die einen Sockel 775 oder Phenom haben lohnt sich die Aufrüstung auf Skylake.
Das einzige was sich Intel vorwerfen kann ist die Nichtverfügbarkeit des 6700K.
Na endlich mal wieder jemand, der es sagt ;)
Kann auch nicht verstehen, warum alle immer meinen, dass Skylake und Co sinnlos sind :rolleyes:

Volker schrieb:
Jetzt kaufen von 30.000 Kaufwilligen der Xeon vielleicht 10.000 einen i7, und 10.000 einen i5. An dem einen verdient Intel 70 Euro mehr pro CPU, am anderen 40 Euro weniger.
Aber Volker, nicht der viel höhere Umsatz ist entscheidend, sondern der Gewinn ;) Wenn du viel Umsatz machen willst, verkaufste 100€ Scheine für 50€ an der nächsten Straßenecke. Der Umsatz wird in die Decke schnellen :D
Aber ja, ne Niesche zu "fixen", ist kontraproduktiv
 
Zuletzt bearbeitet:
eselwald schrieb:
Und wenn Du Dir den Office-Bereich ansiehst dürfte Intel mind. 90% aller GPUs verbauen.

Und das ist auch genau der Grund, warum die GPU letztendlich in allen Versionen dabei ist. Es gibt halt nur einen Die. Alles andere erhöht nur die Fertigungskosten. Beim Xeon E3 ist die Grafikeinheit auch drauf und nur bei einigen Exemplaren deaktivert.

Intels GPU Marktanteile liegen nicht umsonst bei etwa 70%. Es gibt einfach wesentlich mehr einfache Office-Rechner als Gamer-Büchsen.
 
eselwald schrieb:
Mhh ich sag nur Steam: in ca. 20% aller Gamer-PC nutzen die Intel CPU. AMD wird "nur" von 27% der Gamer benutzt also warum sollte Intel nicht die GPU stärker pushen? Und wenn Du Dir den Office-Bereich ansiehst dürfte Intel mind. 90% aller GPUs verbauen.


Das liegt aber an den ganzen Notebooks bei Steam. Notebooks sind viel weiter verbreitet als Desktop PC`s und das schlägt sich in den Hardwareumfragen auch nieder, dass erkennt man an vielen Punkten. In den meistgenutzten Grafikchips findet man neben vielen Intel iGPUs auch viele Nvidia Mobile Chips. Alleine die GT620m, ein beliebtes Modell in Ultrabooks und kleinen Notebooks ist öfters vertreten als Nvidias High End Modelle der letzten Jahre (980,780ti und 780), selbst wenn man die 680 noch dazu nimmt, ist man nur knapp vor dem Mobilechip, was die verbreitung angeht.

In klassischen Spiele PCs steckt eine Grafikkarte und und Gaming Notebooks auch. Aber wenn man sich die Spielecharts ansieht, sieht man auch warum, denn dort stehen auch viele alte Spiele, die mit diesen Intel GPUs espielt werden können.


Im Mobilemarkt kann Intel ja gerne sch auf die iGPUs konzentrieren, aber im Desktopmarkt haben sie kaum eine Bedeutung. Sie sollten die Top iGPU auch nicht immer nur in einen i7 packen, denn dort kommt in 98% der fälle eh eine dedizierte GPU dazu. Sie sollten diese GPUs lieber in einen i3 packen oder gar in die Pentiums.


Aber Intel kann mir eh gestohlen bleiben, die letzten Produkte waren alle ein schlechter Witz! Und die Preise sind es auch. Den i7 2600k bekam man für 260-€. Den 6700K jetzt für 400... Für ein paar kümmerliche % Mehrleistung pro Takt und das 4 Generationen weiter (mehrere neue Architekturen und Shrinks dazwischen). Das ist lächerlich und peinlich... Man fährt die Nvidia Schine und guckt, wie weit man preislich gehen kann.

In einem Monopol kann man auch nicht jeden Preis verlangen, den man will, denn ansonsten verkauft man schlicht zu wenig, aber man kann das obere Preislimit ausloten und das macht nun auch Intel.... Da kann man ja nur auf Zen hoffen.
 
Cardhu schrieb:
Kann auch nicht verstehen, warum alle immer meinen, dass Skylake und Co sinnlos sind :rolleyes:

Ganz genau meine Meinung. Die DMI 3.0 Anbindung der Southbridge und die damit geschaffene Möglichkeit NVMe basierte SSDs vernünftig anbinden zu können, ist ein riesen Sprung für die kleine Plattform. IMHO das beste Gesamtpaket seit Jahren.
 
Anstatt jetzt schon Xenons zu Produzieren sollte Intel sich mehr darauf konzentrieren endlich mehr 6X00 auf den Markt zu bringen...
Mein 6700k wurde am 12.9 bestellt und ich warte immer noch :(
 
Schade, dass man das nun so künstlich beschneidet. Zuerst das OC auf die Z-Chipsätze beschränken, jetzt die Xeons auf die C-Chipsätze. Schade. Die Xeons waren immer eine nette Alternative, wenn kein OC betrieben werden sollte, es aber gern 8 Threads sein durften.

Mal sehen wann es eine offizielle Stellungnahme von Intel oder evtl auch MoBo-Herstellern gibt. Asus hat doch bei Haswell auch OC auf den kleinen Chipsätzen angeboten und sich damit über Intel hinweggesetzt oder? Evtl traut sich das diesmal wieder jemand oder man schnürt evtl für Privatkunden freundliche Bundles mit dem C-Chipsatz.

Aber man merkt daran eben deutlich ein Problem derzeit auf dem CPU-Markt (auch auf die Gefahr hin, dass ich wieder von Fanboys angeprangert werde). Intel ist leider im (Consumer-)Markt für High-End CPUs eigentlich alternativlos. Die FX-Prozessoren sind zwar günstig, aber eben doch eine ganze Ecke langsamer bei höherem Verbrauch und höherer Abwärme. In anderen Segmenten ist AMD besser aufgestellt, aber eben in diesem Segment für Workstations oder Zocker o.Ä. haben sie keine attraktive Alternative. Das ist schade, zumal sich Zen wohl vor Q4 2016 (oder möglicherweise später?) nicht blicken lassen wird. Da müssen Alternativen her, sonst kann Intel eben machen, was sie wollen.
 
Damit hat sich Intel bei mir aus dem Portfolio "Budget-High-End-Zusammenstellung" selbst entfernt. Schade, ich hab den Kollegen immer gern ein Xeon-System zusammengestellt. Das P/L-Verhältnis war ausserhalb der Xeons schon länger nicht mehr attraktiv. Mit diesem Schritt ist es dann noch einfacher, kein Intel mehr zu kaufen. Da muss man sich ja fast schon bedanken, weil man sich keine Gedanken mehr machen muss, ob oder ob nicht. Das spart Zeit und Nerven, muss man ja auch mal so sehen :D

Bin aber froh, noch einen 'alten' Xeon zu haben. Die Rechenleistung reicht noch für Jahre, wenn das so weitergeht. Bin auch mit dem Stromverbrauch zufrieden, deshalb sehe ich auch da momentan noch keine Notwendigkeit für Updates. Bevor der Sockel 1150 dann stirbt, kauf ich mir noch ein oder zwei Mainboards, sollte bis dahin nicht eine Technologie raus gekommen sein, die des Updates wert ist. USB 3.1 und M.2 brauche bei den SSD-Preisen auch nicht wirklich.

Ab sofort wird sowieso nur noch AMD verbaut. Die meisten Leute wollen eh keine Zockmaschine, da reichen auch die APUs mehr als aus. Und selbst die könnte man noch zockbar machen, mit einer externen Grafikkarte. Wir bewegen uns hier im Board ja im Enthusiastenbereich, der Ottonormalverbraucher braucht aber meistens gar nicht mehr.

Wenn Zen es schafft, den Stromverbrauch bei erhöhter Leistung zu senken UND noch sinnvolle Features zu bieten, werde ich hier wohl ein kleines Zweitsystem hochziehen. Hoffentlich macht Intel so weiter, dann kann AMDs Stern wieder ein wenig steigen.
 
Schade, ich hab selbst noch einen 1230V3 in meinem Dritt-Rechner, geniales und billiges Teil (damals für ~200€ neu erworben) :)
Skylake Desktop lohnt sich nicht.

mfg,
Max
 
max_1234 schrieb:
Skylake Desktop lohnt sich nicht.
Das liest man hier leider oft. Leider gibt es aber viele Leute die jetzt einen neuen PC kaufen müssen und bei denen tu ich mir schwer jetzt noch einen haswell zu empfehlen, Stichwort USB 3.1 und M.2. Ja, wenn ich einen Haswell oder dessen Vorgänger habe lohnt sich Skylake nicht. Aber älter wirds duster.
 
Gibts eigentlich schon eine Möglichkeit zwischen der "in-CPU-Grafikkarte" und der PCIE Grafikkarte hin und her zu schalten?
Hier müsste dann eine von beiden den Durchlauf des Bildes erlauben, da man ja nur 1 Anschluss benutzt.

Mich stört nämlich die embedded GPU die man in einem normalen Spiele Rechner NIE brauchen wird, weil man sowieso eine dezidierte Grafikkarte im Einsatz hat.
 
veidi schrieb:
Gibts eigentlich schon eine Möglichkeit zwischen der "in-CPU-Grafikkarte" und der PCIE Grafikkarte hin und her zu schalten?
Hier müsste dann eine von beiden den Durchlauf des Bildes erlauben, da man ja nur 1 Anschluss benutzt.

Nein, hin und her schalten wie bei manchen Notebooks geht nicht. Aber du kannst einen zweiten Bildschirm an die iGPU anschließen und beide gleichzeitig benutzen. Gibt dafür eine Option im BIOS und danach kannst du den Treiber installieren. Dann kann man sich während dem zocken Teamspeak etc. anzeigen lassen, ohne dass die Grafikkarte unnötig belastet wird - so macht die iGPU wenigstens ein bisschen Sinn.
 
Siemens-Nixdorf schrieb:
Nein, hin und her schalten wie bei manchen Notebooks geht nicht. Aber du kannst einen zweiten Bildschirm an die iGPU anschließen und beide gleichzeitig benutzen. Gibt dafür eine Option im BIOS und danach kannst du den Treiber installieren. Dann kann man sich während dem zocken Teamspeak etc. anzeigen lassen, ohne dass die Grafikkarte unnötig belastet wird - so macht die iGPU wenigstens ein bisschen Sinn.

Hey gute Idee =D wusste nicht, dass das funktioniert.
Trotzdem schade, dass man nicht umschalten kann.
 
habe meinen 1231 auch für unter 200€ erworben. Einen hochwertigen Chip mit HT für unter 200€, das war schon ne Ansage.
Den i5/i7 Produktionsabfall will doch keiner haben. Die Verbesserungen mit Skylake sind ja gut und schön und eigentlich auch das mindeste was man erwarten konnte. Aber die 08/15 WLP vom Vorgänger zu übernehmen geht halt gar nicht.
Ich bin mal gespannt ob ich s noch erlebe, das im Normalverbrauchermarkt wieder verlötet wird.
Naja bin guter Dinger das sich 2017 alles zum Guten wendet ansonsten muss halt der Kopf wieder ab:)
 
Einhörnchen schrieb:
Das liest man hier leider oft. Leider gibt es aber viele Leute die jetzt einen neuen PC kaufen müssen und bei denen tu ich mir schwer jetzt noch einen haswell zu empfehlen, Stichwort USB 3.1 und M.2. Ja, wenn ich einen Haswell oder dessen Vorgänger habe lohnt sich Skylake nicht. Aber älter wirds duster.

Naja das ist wieder was anderes.
Wenn man ein neues System braucht, mit einem Budget über 800€, dann darf man natürlich über Skylake nachdenken.
Nicht zuletzt weil Haswell auch nicht soooo viel weniger kostet, summa summarum blecht man bei Skylake mit neuem Mainboard vielleicht 100€ mehr.

mfg,
Max
 
Einhörnchen schrieb:
Leider gibt es aber viele Leute die jetzt einen neuen PC kaufen müssen und bei denen tu ich mir schwer jetzt noch einen haswell zu empfehlen

Und woraus genau ergibt sich dieser merkwürdige Sachzwang?
 
Weil AMD CPU's absolut unspielbare FPS liefern und nur der neueste Intel das 'must have' ist? ^^
 
Zurück
Oben