News Xeon E3-1200 v5: Intel sperrt Geheimtipp-CPUs für Desktop-Chipsätze

Haben die neuen Xeon v5 nicht avx512/ avx3?

Das war für mich, neben der unnötigen Grafikeinheit, der eigentliche Grund auf einen Xeon anstatt dem i7 zu warten.

Jetzt stellt sich mir die Frage, wann ich als normaler Nutzer an eine cpu mit diesem Feature komme, ohne ein halbes Vermögen auszugeben :/
 
/clap Intel

So kann man auch versuchen seinen Gewinn zu optimieren, wenn man zur Zeit nicht wirklich Konkurrenz hat und der Absatz trotzdem sinkt.:headshot:
 
Cardhu schrieb:
Und sie hätten den Xeon auch zum gleichen Preis wie den i7 genommen?
Ich glaub eher, da hat der Preis eine entscheidene Rolle gespielt und nicht das Fehlen einer integrierten Grafikeinheit^^

bei mir war das nicht so. Als ich damals die Wahl zwischen Intel Core i7-4790 oder Xeon 1231v3 hatte, hätte ich selbst bei gleichem Preis nie und nimmer zum i7 4790 gegriffen.
Warum? Weil mir die Qualität einer CPU schon immer mehr Wert war als irgendwelche 100 MHZ mehr oder integrierte Grakaeinheiten die ich eh nicht brauche.
 
K0ng3n schrieb:
Haben die neuen Xeon v5 nicht avx512/ avx3?
Das sind die Xeon E5. Die E3 sind genau das gleiche Silizium wie die Consumer CPUs i5 und i7.
Da musst du dich noch bis 2017 gedulden bis Skylake-E(P) erhältlich sein wird.
 
psYcho-edgE schrieb:
Was soll ich mit ner popligen iGPU, die den Anforderungen nicht mal ansatzweise gewachsen ist, die ein Prozessor des Kalibers i7 4790K oder i7 6700K regelmäßig ausgesetzt ist. Und ich denke nicht nur an Gaming.

Genau das. Aber Hauptsache ich darf den Rotz mitbezahlen....
 
Auch wenn locked bei Intel. Gibt es die Chance noch das die Mainboard Bauer tricksen oder wars das für xeon Prozessoren im. Desktop Segment?
 
hrafnagaldr schrieb:
Wenn ich meinen FX-8350 überhaupt abgelöst hätte, dann gegen einen Xeon. Somit darf der noch ne ganze Weile weiterlaufen und wird frühestens von Zen abgelöst.

Mit dem Gedanken habe ich auch gespielt aber RIP
 
bensen schrieb:
Das sind die Xeon E5. Die E3 sind genau das gleiche Silizium wie die Consumer CPUs i5 und i7.
Da musst du dich noch bis 2017 gedulden bis Skylake-E(P) erhältlich sein wird.

Achso ok. Danke! Dann muss ich doch umplanen :-)

Haben denn dann die Skylake irgendwelche Features, die es rechtfertigen nicht immernoch z.B. Den 1231 v3 zu kaufen? Also welche die sich leistungstechnisch Lohnen, sowohl beim zocken als auch beim programmieren.
 
K0ng3n schrieb:
Haben denn dann die Skylake irgendwelche Features, die es rechtfertigen nicht immernoch z.B. Den 1231 v3 zu kaufen? Also welche die sich leistungstechnisch Lohnen, sowohl beim zocken als auch beim programmieren.

Nope. Kannst den 1231v3 immer noch guten Gewissens kaufen.
 
Der Xeon war als billiger i7 Ersatz so etwas wie ein Gewohnheitsrecht. Ich dachte auch, es ginge mit dem V5 so weiter, wie bisher.
 
Ltcrusher schrieb:
2.) Wie viele AMD Nutzer kennt ihr, die einen AMD Opteron für Sockel AM3+ nutzen und keinen "normalen" FX? Ja, den Opteron gibt es auch für Sockel AM3+ und nicht nur für Sockel C32 oder G34...

Wie viele FX haben eine integriete GPU, die keiner will aber die man mit bezahlen muss? padam
 
Die iGPU wird man in Kürze genau dafür brauchen:
https://software.intel.com/en-us/articles/opencl-20-shared-virtual-memory-overview/
http://developer.amd.com/community/blog/2014/10/24/opencl-2-shared-virtual-memory/

Nein, die Haswells konnten das sowieso noch nicht. Mit den Skylakes hat alles ohne iGPU dafür aber maßgeblich an Relevanz für den Endkunden verloren. Mit CL 2.1 kann man dann auch bequem in C++ die CL-Kernel schreiben und mit SYCL direkt in den eigentlichen Programmquellcode integrieren. Da am Ende auch Vulkan-Kernel SPIR-V kompatibel sind wird SVN kein akademisches Feature bleiben sondern einen festen Platz auch in Endkundensoftware und Spielen finden. Die großen Anwendungsschmieden stellen ja eh alle immer umfangreicher von CUDA auf OpenCL (bzw. OpenGL Compute Kernel) um.

Letztendlich wird damit auch DDR4 relevanter, weil auf dem geteilten Speicherbereich von iGPU und CPU schneller gearbeitet werden kann.

Haben denn dann die Skylake irgendwelche Features, die es rechtfertigen nicht immernoch z.B. Den 1231 v3 zu kaufen? Also welche die sich leistungstechnisch Lohnen, sowohl beim zocken als auch beim programmieren.
Sollte damit geklärt sein, oder? ;)
 
Zuletzt bearbeitet:
Wer ordentlich overclock betreiben will muss auch ordentlich Geld rein stecken in PC.
Sehe hier kein Problem seitens Intel.
 
Wenn man bedenkt, dass die meisten, die sich aufregen, 400+ Euro Grafikkarten im PC stecken haben, ist das amüsant zu lesen, dass man kritisiert, einen Aufpreis für die iGPU zu zahlen.

Benötige ich keine iGPU, wird sie im BIOS deaktiviert, fertig!

Kann diesmal Intels Vorgehensweise nachvollziehen.
 
sdwaroc schrieb:
Die iGPU wird man in Kürze genau dafür brauchen:
https://software.intel.com/en-us/articles/opencl-20-shared-virtual-memory-overview/
http://developer.amd.com/community/blog/2014/10/24/opencl-2-shared-virtual-memory/

Nein, die Haswells konnten das sowieso noch nicht. Mit den Skylakes hat alles ohne iGPU dafür aber maßgeblich an Relevanz für den Endkunden verloren. Mit CL 2.1 kann man dann auch bequem in C++ die CL-Kernel schreiben und mit SYCL direkt in den eigentlichen Programmquellcode integrieren. Da am Ende auch Vulkan-Kernel SPIR-V kompatibel sind wird SVN kein akademisches Feature bleiben sondern einen festen Platz auch in Endkundensoftware und Spielen finden. Die großen Anwendungsschmieden stellen ja eh alle immer umfangreicher von CUDA auf OpenCL (bzw. OpenGL Compute Kernel) um.

Letztendlich wird damit auch DDR4 relevanter, weil auf dem geteilten Speicherbereich von iGPU und CPU schneller gearbeitet werden kann.


Sollte damit geklärt sein, oder? ;)

Aber geht das nicht auch mit einer normalen Grafikkarte?
 
Soll das jetzt die eigene Grafikplattform mehr pushen, oder ziehen die zusätzliche Leistung aus der Grafikeinheit...

Ansonsten hättet ihr mal mehr AMD gekauft...
 
basilisk86 schrieb:
Ja? Komm dann aber ja nicht heulend um die Ecke, wenn dank DirectX 12 die iGPU plötzlich doch noch einen weiteren Leistungsschub gibt, indem sie auch anfängt zusätzliche Rechenaufgaben zu bewältigen.

Da werden dann alle Xeon Käufer dumm aus der Wäsche gucken, wenn die iGPU auf einmal an Bedeutung gewinnt.

Selbst dann ist die momentane IGPU immer noch langsamer als die Grafikeinheiten in den AMD APUs - WOW was das für einen Schub geben wird, wobei fraglich ist ob das nicht nur deine Theorie ist...
 
Aber geht das nicht auch mit einer normalen Grafikkarte?
Ja nur hier hast du zwar die codevereinfachung aber dennoch eine Belastung des PCIe-Busses. Die Daten müssen ja nunmal zur dedizierten GPU und die physische Verbindung ist der PCIe-Bus. Leider sind PCIe-Lanes bei der aktuellen Skylake Architektur mangelware. Hinzu kommt, dass aktuelle GPUs schon mit der 3D-Darstellung ausgelastet sind, da müssen ja nicht noch Zusatzlasten hinzukommen. Die hinzukommenden Lasten sind aber vergleichsweise gering und die Leistung einer dedizierten GPU nicht notwendig.
 
sdwaroc schrieb:
Ja nur hier hast du zwar die codevereinfachung aber dennoch eine Belastung des PCIe-Busses. Die Daten müssen ja nunmal zur dedizierten GPU und die physische Verbindung ist der PCIe-Bus. Leider sind PCIe-Lanes bei der aktuellen Skylake Architektur mangelware. Hinzu kommt, dass aktuelle GPUs schon mit der 3D-Darstellung ausgelastet sind, da müssen ja nicht noch Zusatzlasten hinzukommen. Die hinzukommenden Lasten sind aber vergleichsweise gering und die Leistung einer dedizierten GPU nicht notwendig.

Bedeutet das, dass beim Spielen bspw. die iGPU und die dedizierte "zusammen" arbeiten könnten?

Ist es dann aber nicht am schnellsten, wenn statt dem RAM ein Cache auf dem DIE als Speicher für Daten genutzt wird, auf den sowohl iGPU als auch CPU zugreifen? Der Umweg über RAM ist ja wieder ne Verzögerung, zwar nicht so sehr wie über PCIe schätze ich, aber trotzdem etwas.
 
Zurück
Oben