Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Kommentar Kommentar: Mit der Xeon-Sperre gegen treue Kunden
- Ersteller Volker
- Erstellt am
- Zum Kommentar: Kommentar: Mit der Xeon-Sperre gegen treue Kunden
Zum Glück stagniert die Entwicklung ja etwas, so daß man nicht alle paar Jahre eine neue CPU benötigt. Der einzige Grund jetzt aufzurüsten, wenn man nicht eine ganz alte CPU hat, ist doch DDR4 und demnach ist die Sperre zu diesem Zeitpunkt von Intel "gut gewählt".
Allerdings geht der Schuß womöglich auch nach hinten los. Viele haben sicher zum empfohlen Xeon gegriffen um letztendlich zu sparen. Mehr Leistung und Kerne statt dem i5 bei moderatem Aufpreis. Aber wer sparen will greift jetzt womöglich doch wieder nur zum i5, da der i7 doch nochmal weiter weg ist. Letztendlich verdient Intel dann doch weniger als bisher. Wenn wir alle Glück haben kommt ja AMD dann wieder ran und belebt das Geschäft
Allerdings geht der Schuß womöglich auch nach hinten los. Viele haben sicher zum empfohlen Xeon gegriffen um letztendlich zu sparen. Mehr Leistung und Kerne statt dem i5 bei moderatem Aufpreis. Aber wer sparen will greift jetzt womöglich doch wieder nur zum i5, da der i7 doch nochmal weiter weg ist. Letztendlich verdient Intel dann doch weniger als bisher. Wenn wir alle Glück haben kommt ja AMD dann wieder ran und belebt das Geschäft
crackett
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.934
Intel hat nur das Portfolio bereinigt, weiter nichts und Intel muß wirtschaften, wie jedes andere Unternehmen auch. Es ist ja nicht so, daß es keine Alternative zum Xeon geben würde. Es wird dann halt teurer, aber wer jährlich 500€ und mehr für eine Grafikkarte ausgeben kann, der sollte über 200€ mehr für eine andere Plattform nicht rumjammern.
Selas
Commander
- Registriert
- Apr. 2012
- Beiträge
- 2.055
Wie groß ist der Anteil privater Nutzer mit Xeon-CPU denn? Konkrete Zahlen wären interessant.
Es war eine Nische und die wurde nun geschlossen. Mag sein, dass hier wesentlich mehr Xeon-Nutzer schreiben und lesen, aber das liegt nun einmal an der Zielgruppe und der Comunity, die den Griff zum Xeon oftmals empfohlen hat.
Insgesamt betrachtet ist es schade, dass eine günstige Mehrkernoption mit HT für Consumer-Boards wegfällt. Den Beikauf einer, fast zwingend vorhandenen, iGPU würde ich jedoch nicht so negativ betrachten, da es immer von Vorteil ist eine iGPU zu haben, für den Fall eines Falles.
Es war eine Nische und die wurde nun geschlossen. Mag sein, dass hier wesentlich mehr Xeon-Nutzer schreiben und lesen, aber das liegt nun einmal an der Zielgruppe und der Comunity, die den Griff zum Xeon oftmals empfohlen hat.
Insgesamt betrachtet ist es schade, dass eine günstige Mehrkernoption mit HT für Consumer-Boards wegfällt. Den Beikauf einer, fast zwingend vorhandenen, iGPU würde ich jedoch nicht so negativ betrachten, da es immer von Vorteil ist eine iGPU zu haben, für den Fall eines Falles.
geraldofrivia
Ensign
- Registriert
- Okt. 2011
- Beiträge
- 134
Ich stimme Selas zu. Auch wenn man viel mit dem Smartphone erledigen kann, ist eine iGPU nicht verkehrt, wenn die GraKa den Übertaktungstod stirbt.
Und ehrlich Leute: Euch geht's doch auch nur ums Geld. Ihr wollt mit dem Kauf eines Xeons sparen (HT für weniger Geld). Es sollte euch also nicht so schwer fallen, euch in Intels Lage hineinzuversetzen. Denen geht's nämlich genauso.
Und ehrlich Leute: Euch geht's doch auch nur ums Geld. Ihr wollt mit dem Kauf eines Xeons sparen (HT für weniger Geld). Es sollte euch also nicht so schwer fallen, euch in Intels Lage hineinzuversetzen. Denen geht's nämlich genauso.
Sorry Leute, aber die zwangsweise Existenz einer iGPU mit dem Übertaktungstod der dGPU zu begründen... ääähm... NEIN?!
Das ist wie bei Sky. Jahrelang kam man bei einem gewünschten "ordentlichen" Abo nicht um das Sport- und damit Fußballpaket drumherum. Ob man das wollte, oder nicht. Und hier will Intel seine GPU-Entwicklung querfinanzieren. Und das funktioniert schon seit Jahren hervorragend wie es scheint. Mittlerweilen gehen 2/3 des vom Kunden teuer bezahlten Siliziums für die GPU drauf. Es wäre aber nicht so, als dass die low cost CPUs auch gute GPUs hätten, weil dort dann tatsächlich nix anderes verbaut wird. Vielmehr gibts die Top-GPUs gerade bei den CPUs, die ohnehin separat betrieben werden. Ich hab ehrlich gesagt noch keinen Kollegen oder Bekannten erlebt, der einen i7 in seiner Kiste (Desktop oder Laptop) hatte und dann keine dGPU dazu. (Wobei man Intel zugute halten muss, dass das zumindest jetzt mit Skylake ETWAS besser geworden ist, wenn ich das richtig in Erinnerung habe.)
Nur mal zum Schmunzeln: In meiner Workstation geht "intel-Only GPU" übrigens an der Docking-Station Monitor-technisch kein einziges Licht an. Da wird IMMER auf die verbaute nV-GPU zurück gegriffen.
Regards, Bigfoot29
Nachtrag: @Coca_Cola: Sorry, aber... ich möchte Deine Aussage nochmal lesen, wenn Du den i3 mal mit und mal ohne HT laufen lässt. Das merkt auch der "Consumer" sehr wohl. Und zumindest beim Video transkodieren machen 8 (virtuelle) vs. 4 (reale) Kerne rund ein Drittel Zeit-Differenz. Das merkt man sehr real, wenn man bei 2 Stunden Video-Material den Rechner morgens an und nach 12 (+-) Stunden abends noch ausmachen kann oder eben nicht (16h (+-) bei 4 Kernen). - Um mal ein sehr grafisches Beispiel zu wählen.
Das ist wie bei Sky. Jahrelang kam man bei einem gewünschten "ordentlichen" Abo nicht um das Sport- und damit Fußballpaket drumherum. Ob man das wollte, oder nicht. Und hier will Intel seine GPU-Entwicklung querfinanzieren. Und das funktioniert schon seit Jahren hervorragend wie es scheint. Mittlerweilen gehen 2/3 des vom Kunden teuer bezahlten Siliziums für die GPU drauf. Es wäre aber nicht so, als dass die low cost CPUs auch gute GPUs hätten, weil dort dann tatsächlich nix anderes verbaut wird. Vielmehr gibts die Top-GPUs gerade bei den CPUs, die ohnehin separat betrieben werden. Ich hab ehrlich gesagt noch keinen Kollegen oder Bekannten erlebt, der einen i7 in seiner Kiste (Desktop oder Laptop) hatte und dann keine dGPU dazu. (Wobei man Intel zugute halten muss, dass das zumindest jetzt mit Skylake ETWAS besser geworden ist, wenn ich das richtig in Erinnerung habe.)
Nur mal zum Schmunzeln: In meiner Workstation geht "intel-Only GPU" übrigens an der Docking-Station Monitor-technisch kein einziges Licht an. Da wird IMMER auf die verbaute nV-GPU zurück gegriffen.
Regards, Bigfoot29
Nachtrag: @Coca_Cola: Sorry, aber... ich möchte Deine Aussage nochmal lesen, wenn Du den i3 mal mit und mal ohne HT laufen lässt. Das merkt auch der "Consumer" sehr wohl. Und zumindest beim Video transkodieren machen 8 (virtuelle) vs. 4 (reale) Kerne rund ein Drittel Zeit-Differenz. Das merkt man sehr real, wenn man bei 2 Stunden Video-Material den Rechner morgens an und nach 12 (+-) Stunden abends noch ausmachen kann oder eben nicht (16h (+-) bei 4 Kernen). - Um mal ein sehr grafisches Beispiel zu wählen.
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.286
man findet aber doch eh meist auch Xeon Boards mit quasi identischen Chipsätzten die zudem oft weniger überladen und deutlich sparsamer daherkommen, oder? Bin mal gespannt wie es bei S2011-3 aussieht...
Flare
Commander
- Registriert
- Aug. 2010
- Beiträge
- 2.068
Es fehlt ganz einfach ernsthafte Konkurrenz die nicht nur ein One-Hit-Wonder ála K8 baut,
sondern über mehrere Jahre auch architekturmäßig Druck macht.
Wenn das den Fall wäre prognostiziere ich das quasi Heute bei Leistungsgleichheit ein i5-4460 nur ähnlich teuer wäre wie ein FX-6300 also 100 Euro statt 170 Euro
PAROLE: ** Wenn AMD verspricht über mehrere Jahre am Ball zu bleiben, müssen wir alle AMD helfen !! Ja, echt !! **
Wie ??? Jim Keller ist da schon wieder weg ??? Also doch wieder ein One-Hit-Wonder oder EpicFail
sondern über mehrere Jahre auch architekturmäßig Druck macht.
Wenn das den Fall wäre prognostiziere ich das quasi Heute bei Leistungsgleichheit ein i5-4460 nur ähnlich teuer wäre wie ein FX-6300 also 100 Euro statt 170 Euro
PAROLE: ** Wenn AMD verspricht über mehrere Jahre am Ball zu bleiben, müssen wir alle AMD helfen !! Ja, echt !! **
Wie ??? Jim Keller ist da schon wieder weg ??? Also doch wieder ein One-Hit-Wonder oder EpicFail
@Flare: AMD ist respektive war seit dem K6-II konkurrenzfähig. (Und ist es mit einigen SoCs auch heute noch.) Mit dem K-7 hat man Intel vorgeführt und der K-8 hat die Netburst-Architektur ad absurdum geführt. AMD war Jahrelang ganz oben dabei. Wenn der Marktführer aber seine Macht mit illegalen Mitteln beibehält - ich muss dazu wohl keine Quellen zitieren, Daten zum Urteil des EUGH gibts genug - dann trocknen auch konkurrenzfähige Anbieter aus, weil sie weniger Geld in die Forschung stecken können. Selbst auf dem Servermarkt gab es einen deutlich sichtbaren Opteron-Anteil. Dass sich AMD dann mit der K10-Architektur selber ein Bein gestellt hat, möchte ich nicht bestreiten. Aber so "One-Hit-Wonder"ig, wie Du AMD hinstellst, ist der Laden nicht. Sie haben nur nie die Connections mit Microsoft und den PC-Herstellern besessen, wie Intel dies ganz offensichtlich hat.
Regards, Bigfoot29
Nachtrag: Zumal Intel Flops deutlich leichter wegstecken kann. Pentium Pro? Erinnert sich noch jemand daran? Oder diskrete CPUs? Oder Itanium? Oder neuerdings Smartphone und Tablet-CPUs? Da gehen jeweils Milliarden den Bach runter und Intel kann das aussitzen. AMD hätte nichtmal die Fertigungskapazitäten für solche "Flop-Projekte nebenher". Geschweigedenn die Finanz-Polster.
Und da reden wir noch nichtmal von den Flops, die sie sich nur marketing-technisch schöngeredet haben. (Netburst mit 130W vs. Konkurrenz mit 80W zu 2/3 des Preises bei gleicher Leistung.) Auch hier wieder: Mir ist durchaus bewusst, welchen Wahnsinn AMD später mit den 200+W CPUs betrieben hat... Der kleine Unterschied: Intel konnte es sich zu Netburst-Zeiten durch seine Verträge und Machenschaften leisten, die Preise oben zu behalten. AMD blieb dann später offensichtlich nichts anderes übrig, um überhaupt im Gespräch zu bleiben. Gewinn haben die bei dem hohen Aufwand an Selektion vermutlich nicht wirklich viel gemacht.
Regards, Bigfoot29
Nachtrag: Zumal Intel Flops deutlich leichter wegstecken kann. Pentium Pro? Erinnert sich noch jemand daran? Oder diskrete CPUs? Oder Itanium? Oder neuerdings Smartphone und Tablet-CPUs? Da gehen jeweils Milliarden den Bach runter und Intel kann das aussitzen. AMD hätte nichtmal die Fertigungskapazitäten für solche "Flop-Projekte nebenher". Geschweigedenn die Finanz-Polster.
Und da reden wir noch nichtmal von den Flops, die sie sich nur marketing-technisch schöngeredet haben. (Netburst mit 130W vs. Konkurrenz mit 80W zu 2/3 des Preises bei gleicher Leistung.) Auch hier wieder: Mir ist durchaus bewusst, welchen Wahnsinn AMD später mit den 200+W CPUs betrieben hat... Der kleine Unterschied: Intel konnte es sich zu Netburst-Zeiten durch seine Verträge und Machenschaften leisten, die Preise oben zu behalten. AMD blieb dann später offensichtlich nichts anderes übrig, um überhaupt im Gespräch zu bleiben. Gewinn haben die bei dem hohen Aufwand an Selektion vermutlich nicht wirklich viel gemacht.
Zuletzt bearbeitet:
Selas
Commander
- Registriert
- Apr. 2012
- Beiträge
- 2.055
Das war ein Beispiel, keine allumfassende Begründung oder ein Totschlagargument. Auch bei einem Xeon hätte ich den minimalen (Achtung: subjektive Meinung) Aufpreis zum selben Modell mit iGPU in Kauf genommen. Das so nicht jeder denkt, ist mir völlig klar.Bigfoot29 schrieb:Sorry Leute, aber die zwangsweise Existenz einer iGPU mit dem Übertaktungstod der dGPU zu begründen... ääähm... NEIN?!
Bei den teureren i5/i7's ist es schon eher ein Problem, da die iGPU bei den CPU's generell weniger oft genutzt wird. Aber bei den Modellen i3, Pentium und Celeron, quasi in jedem Office-Rechner, ist die Existenz einer sparsamen iGPU durchaus gerechtfertigt.Bigfoot29 schrieb:Und hier will Intel seine GPU-Entwicklung querfinanzieren. Und das funktioniert schon seit Jahren hervorragend wie es scheint. Mittlerweilen gehen 2/3 des vom Kunden teuer bezahlten Siliziums für die GPU drauf. Es wäre aber nicht so, als dass die low cost CPUs auch gute GPUs hätten, weil dort dann tatsächlich nix anderes verbaut wird. Vielmehr gibts die Top-GPUs gerade bei den CPUs, die ohnehin separat betrieben werden.
Skylake ist mir persönlich ziemlich egal, mal abwarten was die Zukunft bringt. Vielleicht sieht es bei der nächsten Generation schon wieder anders aus, vielleicht schafft es doch ein findiger Mainboardhersteller den Xeon auf Consumer-Baords laufen zu lassen, vielleicht schiebt Intel da wieder einen Riegel vor (wie beim OC auf H-Boards) usw.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.570
Wird halt "der aktuelle" Xeon noch 4-5 Jahre halten und dann gibt es ihn wieder...
SavageSkull
Fleet Admiral
- Registriert
- Mai 2010
- Beiträge
- 14.436
Ich habe noch einen Ivy Bridge Xeon im HTPC (ja Overkill, aber besser ein Xeon als ein I3 zusätzlich gekauft und ein Xeon ungenutzt im Schrank).
Der hatte im Vergleich zum damaligen I7 Pendant schon einige Unterschiede bei den VM Befehlssätzen. Und den Xeon konnte man nicht um den Boost übertakten, so wie es beim I7 funktioniert hätte.
Tatsächlich habe ich ihn gegen einen I7 -k ausgetauscht, da bei meinen Spielen der Takt entscheidet und nicht die Kernanzahl und so habe ich ein gutes GHz gewonnen.
Der hatte im Vergleich zum damaligen I7 Pendant schon einige Unterschiede bei den VM Befehlssätzen. Und den Xeon konnte man nicht um den Boost übertakten, so wie es beim I7 funktioniert hätte.
Tatsächlich habe ich ihn gegen einen I7 -k ausgetauscht, da bei meinen Spielen der Takt entscheidet und nicht die Kernanzahl und so habe ich ein gutes GHz gewonnen.
nicknackman1
Lt. Commander
- Registriert
- Jan. 2011
- Beiträge
- 1.542
Volker schrieb:Was vier Jahre lang möglich war, gehört nun der Vergangenheit an: Intel sperrt den Xeon für Desktop-PCs, der Shitstorm ist vorprogrammiert. Denn am Ende trifft es die treueste Klientel, die Intel bereits Jahrzehnte lang bedient und die Milliarden einbringt: Die Desktop-Kundschaft.
Zum Kommentar: Kommentar: Mit der Xeon-Sperre gegen treue Kunden
Mein Mitleid hält sich schwer in Grenzen! So wie man hier in der Vergangenheit auf AMD Kunden drauf gehauen hat!
Zuletzt bearbeitet:
geraldofrivia
Ensign
- Registriert
- Okt. 2011
- Beiträge
- 134
@jesterfox: Siehst Du, das meinte ich. Du willst sparen, Intel will Geld verdienen. Es sind zwei Seiten der selben Medaille.
Davon abgesehen ist mir der Skylake i7 auch zu teuer. Also kaufe ich ihn nicht.
Es stimmt, einige Spiele profitieren von HT.
Offtopic: Weiß jemand, ob man G-SYNC mit einem Xeon auf ner PC-Plattform nutzen kann? Im mobilen Bereich nämlich nicht.
Das wäre ein Argument gegen einen Xeon, neben den schon erwähnten dafür (wie eben HT).
Davon abgesehen ist mir der Skylake i7 auch zu teuer. Also kaufe ich ihn nicht.
Es stimmt, einige Spiele profitieren von HT.
Offtopic: Weiß jemand, ob man G-SYNC mit einem Xeon auf ner PC-Plattform nutzen kann? Im mobilen Bereich nämlich nicht.
Das wäre ein Argument gegen einen Xeon, neben den schon erwähnten dafür (wie eben HT).
skelt
Cadet 4th Year
- Registriert
- Apr. 2011
- Beiträge
- 105
@ pukemOn
Leider nicht nur auf dem Papier.
AMD muss erst einmal Zen raushauen und bis dahin werden viele zwangsweise "Intel Stammkunden" bleiben. Und alle, die jetzt einen neuen Xeon gekauft hätten, greifen nun zum i7 oder i5.
Leider nicht nur auf dem Papier.
AMD muss erst einmal Zen raushauen und bis dahin werden viele zwangsweise "Intel Stammkunden" bleiben. Und alle, die jetzt einen neuen Xeon gekauft hätten, greifen nun zum i7 oder i5.
Zuletzt bearbeitet: