Test Intel Core i7-5820K und i7-5960X im Test

Narf. Ich meine generell.
Also:
- DDR3 2133 CL10 ist von der Latenz her VIEL schneller als DDR4 2133 CL15
- DDR3-1600MHz ist in Games 0-15% langsamer als DDR3-2133

Wenn dann sollte man einen Haswell und recht schnellen DDR3-2133 (Einsteigerram waren ja DDR3-1333), mit einem Haswell-EP mit recht schnellen DDR4-3000MHz vergleichen (und nicht mit den Einsteiger DDR4-2133).
 
Doch merkt man. Die 15% sind allerdings ein Extrembeispiel.
 
Und bei Quadchannel (die X99-Boards sollten das wohl alle haben und hoffentlich auch bestückt werden) ist es schwierig die 15% zu erreichen. Da reisst der Takt nicht so sehr an der Leistung.
 
Volker schrieb:
Der nächste CPU-Core kommt jetzt wieder aus Israel (HSW und BDW sind aus USA), dort wurde auch Sandy Bridge geboren. Mal schaun ob sie bei Skylake mal wieder bissel mutiger sind - aber da AMD immer noch nichts macht, würde ich auch da nicht viel erwarten.
Wenn derJim Keller der die K7 und K8 entwickelt hat an der neuen AMD Architektur arbeitet und die von CMT auf SMT umgestellt wird, dann darf man schon etwas Hoffnung haben.
Volker schrieb:
Und bei AMD an die nächste Revolution zu glauben, dafür muss man schon extreme Fan sein.
Die Fans versuchen sich die Lage mit einzelnen Benchmarks wie POV-RAY und x264 Test2 schön zu reden und verweisen eisern abwechselnd auf das bessere P/L Verhältnis und darauf, dass man für Games nicht mehr Leistung brauchen würde. :evillol:

Man muss abwarten wann, was konkret kommt und was es dann kann, erstmal habe ich jetzt den 4790K.
oemmes schrieb:
Im Grunde genommen müssen die sich doch nur das Optimierungsgehumpele von Intel ansehen, um zu wissen, was sie raushauen müssen, um wieder in den Markt reinzukommen. Wenn sie dann ganz schlau sind, rechnen sie auch durch, was das kosten wird und lassen es dann lieber.
Natürlich werden die aus ihren Fehlern gelernt haben, aber wenn sie nur kopieren, können sie das Original ja auch niemals übertreffen, alleine weil sie mangels eigener Fabs schon bei der Fertigung im Nachteil sein werden.
oemmes schrieb:
Die brauchen ja nicht nur ne komplett neue CPU-Architektur, sondern auch komplett neue Chipsätze etc.
Ja, aber beim Seattle SoC haben sie ja schon einiger, sogar die Wahl zwischen DDR3 oder DDR4 RAM und 1GBit Ethernet, nur halt mit ARM Kernen. Also ganz hoffnungslos bin ich für AMD noch nicht und auch nicht, das mal wieder ein CPU vergleichen können, die es mit den jetzt getesteten aufnehmen kann. Das muss auch AMDs Ziel sein, wenn sie mit x86er CPU mal wieder richtig gutes Geld verdienen wollen, also in Servern und bei Enthusiasten, wo sie die Chips nicht nur über den Preis verkaufen müssen.
 
aber wenn sie nur kopieren, können sie das Original ja auch niemals übertreffen

So hab ich das nicht gemeint. Sie müßen die Schwachstellen der Intel-CPUs und Chipsätze analysieren und dann was neues dort bringen. Das sie die positiven Leistungsaspekte der Intels mal als Minimum sowieso bringen müßen ist klar.

Die fehlenden eigenen Fabs sind allerdings ein ganz klarer Nachteil.
 
Das verkaufen der Fabs hat AMDs Überleben gesichert. Und ich glaube auch nicht dass es auf lange Sicht ein Nachteil bleibt. Die Investitionskosten für weitere Shrinks sind ja schon enorm, und dies steigert sich je näher man an die 10nm Grenze kommt oder darüber hinaus will. Es wird immer teurer und mit einer Marke kaum noch refinanzierbar. Auch sinkt der zu erzielende Nutzen durch Fertigungsvorsprung (relativ zu den Kosten) immer mehr. Es wird über kurz oder lang auf ein Konsortium hinauslaufen, dem sich auch Intel nicht ewig verschließen können wird (IBM, Samsung und andere teilen diese Kosten ja schon). Schaut man sich die Investitionen von Intel allein für die Erforschung zukünftiger Tools an so kann man sich denken, dass dies nicht mehr lange von einem Unternehmen geschultert werden kann. Der GPU Markt ist ja schon ein reiner Auftragsfertiger Markt, auch schon zu Zeiten als AMD noch Fabs hatte. Funktioniert dort auch wunderbar IMHO.

Auch wenn anscheinend viele meinen Intel ruhe sich aus weil AMD keine Konkurrenz Produkte habe und deswegen gäbe es kaum noch Performance Steigerungen. So sollten diese Leute mal versuchen vorauszuschauen wie die Performance in 4 Jahren ist und einem CEO versichern, dass kein Konkurrent schneller sein wird. Wer hier nicht immer versucht die maximale Performance raus zu holen der geht unter, was bedeutet dass auch Intel hier stagniert, weil einfach nicht mehr geht. Fertige CPUs in der Schublade und bei Bedarf raus holen wenn die Konkurrenz mal wieder aufholt funktioniert nicht in einer Branche wo es aus der Schublade bis zum Kunden 2 Jahre dauert im besten Fall. Und das in einem Markt in dem OEMs alle 6 Monate neue Produkte benötigen. Ich bin sicher Intel könnte mal 2 Jahre Durststrecke überstehen, wenn es AMD geschafft hat sollten die es auch. Wenn ich mir auch nicht sicher bin ob gerade wegen des hohen Umsatzes und der extrem hohen Kosten der Fertigung eine Durststrecke nicht noch schneller zum Ende führen kann, wenn der Vorsprung auf der fertigung beruht. Auch Nokia hat es ganz schnell zerpflückt wegen falschen strategischen Entscheidungen...hier könne das zurück hinkende GPU Know-How bei Intel ganz schön schnell zu einer Verlagerung der Marktanteile führen bei HighEnd Computing. Da wildert ja schon Nvidia erfolgreich mit reinen GUPs
 
Zuletzt bearbeitet:
body22 schrieb:
GUCK MAL SELBER ;) BF4 2% unterschied Crysis 5% usw.
Crysis 3 hat ein 5820K ca. 52% höhere Minframes als ein i3-4330 in Full HD. Ok, in Battlefield 3 nicht, aber warum wird nicht Battlefield 4 getestet?
 
@Daedal
Wenn du das hier liest, korrigierst du vlt deine Meinung. Im Falle der neuen CPU-Architektur wären wohl auch nicht unerhebliche Invests seitens TSMC oder GF erforderlich.

AMD is in a tough spot when it comes to process technology. They no longer have control of their destiny when it comes to researching and developing next generation process nodes. People like TSMC and GLOBALFOUNDRIES have to think of their bottom line before they start thinking about 3rd party semiconductor designers. These pure play foundries also have to weigh the different options of each process node to address the needs of the largest possible audience. They are not going to do a lot of manufacturer specific optimizations to their line if they can help it. While there is some flexibility there on a per-product basis, it may not be enough to fully meet the needs of a specific design.

Quelle: Testbericht PC Perspektive
 
Nächsten Monat steht ein neuer Rechner an. Eigentlich war der 4970k geplant. Aber wenn ich das Übertaktunspotenzial des 5820k sehe, juckt es schon. Hmm schwierig...
 
Daedal schrieb:
...hier könne das zurück hinkende GPU Know-How bei Intel ganz schön schnell zu einer Verlagerung der Marktanteile führen bei HighEnd Computing. Da wildert ja schon Nvidia erfolgreich mit reinen GUPs

Ja bestimmt, weil die Welt ja aus Gamer-Rechnern besteht. :D

Für 99,99% aller Office-PCs, das sind hunderte Millionen weltweit, ist eine Intel Haswell iGPU schon der totale Overkill. Natürlich kann man als AMD-Fan Vergleiche heranziehen in dem man Anwendungsfälle heranzieht, die GPU-Leistung benötigen. Unbestritten ist, daß die Intel GPU Leistung absolut nicht konkurrenzfähig ist. Ebenso unbestritten ist aber auch, daß für die Anzeige von normalen Desktopinhalten in Officeanwendungen die Leistung der GPU überhaupt keine Rolle spielt.

Solange dies so ist, braucht sich Intel überhaupt keine Gedanken machen im Desktopbereich. Relevanz bekommt das Thema aber durchaus für den Mobilsektor. Hierfür ist die Weiterentwicklung der GPU seitens Intel enorm wichtig um im hart umkämpften SOC-Bereich mithalten zu können, bzw überhaupt Anschluß zu finden. Hier ist AMD durchaus als besser aufgestellt zu sehen.

Die Reaktionen der Industrie/Wirtschaft auf Windows 8 zeigen deutlich welch fataler Fehler es ist den Profi-Bereich mit einer jugendlichen Multimedia-Mobile-Hype Brille zu sehen. Als Folge davon muß MS wie ein geprügelter Hund, alle diesen ganzen angeblichen innovativen Bullshit zurücknehmen. Denn selbst MS hat mit ihrem Monopol nicht die Macht, der Wirtschaft diktieren zu können, was richtig bzw produktiv ist und was nicht.

In der Wirtschaft/Industrie wird sich am hauptsächlichen Einsatz von Desktop Systemen, auch in 10 Jahren nichts ändern. Aber Intel weiß das, im Gegensatz zu MS. Die Entwicklung läuft da parallel, aber unabhängig voneinander. Synergien werden genutzt, aber es findet keine Gleichmacherei auf Teufel kommt raus statt.
 
Verstehe nicht, was Intels GPU Know-How mit Haswell-E zu tun hat. Irgendwer wird es mir sicher erklären.
 
Zuletzt bearbeitet:
oemmes schrieb:
@Daedal
Wenn du das hier liest, korrigierst du vlt deine Meinung. Im Falle der neuen CPU-Architektur wären wohl auch nicht unerhebliche Invests seitens TSMC oder GF erforderlich.



Quelle: Testbericht PC Perspektive
Warum sollte ich etwas korrgieren? Ich schrieb ja nicht Intel sei als einziges dabei in Fertigung zu investieren. Nur dass die anderen wie GF, Samsung, IBM usw. sich zusammenschließen und gemeinsam die Kosten tragen, während Intel nach wie vor alleine investiert. Auch TSMC oder UMC werden höhere Investitionskosten haben, doch die nehmen am Wettbewerb der Fertiger teil und können so zusätzlich Aufträge rein holen. Intel produziert erst seit kurzem auch für andere, wie daraus zu sehen ist sind sie durchaus gezwungen mehr Einnahmequellen zu generieren um auch langfristig selber fertigen zu können. Kosten senken durch gemeinsame Entwicklung und Einnahmen steigern durch Produkt-Diversifizierung.

BlackWidowmaker schrieb:
Ja bestimmt, weil die Welt ja aus Gamer-Rechnern besteht. :D

Für 99,99% aller Office-PCs, das sind hunderte Millionen weltweit, ist eine Intel Haswell iGPU schon der totale Overkill. Natürlich kann man als AMD-Fan Vergleiche heranziehen in dem man Anwendungsfälle heranzieht, die GPU-Leistung benötigen. Unbestritten ist, daß die Intel GPU Leistung absolut nicht konkurrenzfähig ist. Ebenso unbestritten ist aber auch, daß für die Anzeige von normalen Desktopinhalten in Officeanwendungen die Leistung der GPU überhaupt keine Rolle spielt.
Was hat denn die iGPU nun mit Gaming zu tun? Wenn es neue Instruktionen gibt die Software mit Hilfe von GPU beschleunigt, dann hat das weder etwas mit Grafikdarstellung zu tun noch mit Gaming. Das ist gesteigerte IPC über die Verwendung von speziellen Funktionseinheiten, ebenso wie Quicksync, AES oder SSE4 Instruktionen. Wenn durch OpenCL Software beschleunigt wird und mit HSA sogar dieses noch schneller wird, dann ist die Intel CPU/GPU Kombination weit abgeschlagen. Da liegen 300-500% Steigerung in Office Anwendungen vor.
MikelMolto schrieb:
Verstehe nicht, was Intels GPU Know-How mit Haswell-E zu tun hat. Irgendwer wird es mir sicher erklären.
Ja, es ist dort keines vorhanden. Und das ist IMHO in heutigen CPUs eigentlich Pflicht. Haswell-E hat lediglich verkrüppelte OpenCL (CPU emuliert) Fähigkeiten da keine GPU vorhanden ist. Lässt man die richtigen produktiv Benchmarks durchlaufen, so ist er langsamer als ein A10-7850K. Ich rede von Photo-/Videobearbeitung oder Excel Anwendung mit Diagrammen und Makros oder Beschleunigung der JPG Dekodierung.

With HSA enabled, however, performance skyrockets — AMD’s A10-7850K is more than 5x faster than the Core i5-4670. This, more than any other result, points to the potential of HSA,
HSA-LibreOffice.png


Man stelle sich mal vor wo Intel heute stehen würde, wenn sie damals beschlossen hätten den Mathematischen Co-Prozessor nicht mit in die CPU zu integrieren. Intel hätte mit CPUs ohne integrierter FPU 3-5 Jahre später recht alt ausgesehen. Die selbe Situation ist nun beim integrieren der GPU gegeben - Software wird immer stärker parallelisiert und für Co-Prozessing auf der GPU optimiert. In 3-5 Jahren kann Intel diesen Rückstand bei GPUs aber nicht aufholen und sie werden es auch keine 10 Jahre aufschieben können wie bei 64-bit. Alleine dass Microsoft sich darüber freut, dass AMD einen eigenen Windows und Linux Compiler für C++ AMP veröffentlicht zeigt einiges. Das ebenfalls veröffentlichte SDK wurde von AMD - mit Unterstützung von Microsoft! - auch für Linux entwickelt.

C_AMP_AMD.jpg


Ich denke nicht, dass dies Offtopic ist, da es um Computing Fähigkeiten geht und um Instruktionen die Haswell-E mit dieser Plattform nicht nutzen kann. Eine 1150 basierende CPU kann zumindest OpenCL nutzen und bei entsprechender Software seine Leistung über die von Haswell-E pushen. Das wäre mal ein guter Test: Haswell-E vs. i7-4770K vs. A10-7850K nur mit produktiver Software die GPU Beschleunigung nutzen kann. Alleine um mal zu wiederlegen dass es angeblich keine Software gäbe die diese Instruktionen nutzen.

Hier gibt es auch eine Studie die 2 Jahre alt ist und zeigt was sowohl mit Intels als auch AMDs CPUs/APUs möglich ist wenn alles auf der GPU gerechnet wird und die CPU nur als Memory Fetcher dient:
http://news.ncsu.edu/2012/02/wmszhougpucpu/
This paper presents a novel approach to utilize the CPU resource to facilitate the execution of GPGPU programs on fused CPU-GPU architectures. In our model of fused architectures, the GPU and the CPU are integrated on the same die and share the on-chip L3 cache and off-chip memory, similar to the latest Intel Sandy Bridge and AMD accelerated processing unit (APU) platforms.
[...]
Our experiments on a set of benchmarks show that our proposed preexecution improves the performance by up to 113% and 21.4% on average.
Also nicht reine GPU Berechnung und auch nicht reine CPU Berechnung, sondern eben Aufgabenteilung.
 
Zuletzt bearbeitet:
Dass eine GPU in Sachen Rechenleistung jede CPU nachmasst ist ja All gemeinhin bekannt. Der 5960X soll wohl auf bis zu 384GFlops kommen. Die Titan Black bringt es auf 5,1TFlops. Selbst eine GT 740 ist mit über 760Gflops fast doppelt so schnell.
Das Problem liegt aber zum einen in der Aufbereitung der Daten damit die GPU diese bearbeiten kann und natürlich in der Parallelisierbarkeit der Berechnung/en. Die hohe Rechenleistung der GPUs kommt ja von einer geringen IPC/"Kern", aber sehr vielen "Kernen".
Die GT740 hat so z.B. weniger als ein Gflop/Shader, der 5960X bringt es hingegen schon fast auf 50.

Nichts desto trotz ist der Ansatz natürlich gut, denn mehr Performance gefällt den Leuten idR immer.
 
Leider gibt es noch zu wenig Software und Treiber, die HSA unterstützen oder nur über den Umweg über OpenCL. Aber es scheint sich ja langsam was zu tun.

Hier hat AMD den richtigen Weg eingeschlagen. Wenn man gehässig wäre, könnte man das all denen um die Löffel hauen, die immer sagen von AMD käme nix mehr... :evillol:
 
Naja, eine hohe Performance in allen Belängen nutzt den meisten Nutzern mehr wie eine mehrperformance in wenigen speziellen Anwendungen. Letzteres kann durch bessere Unterstützung natürlich gefördert werden.

Interessant wird es wohl 2016+X wenn die neuen High-End AMDs kommen sollen. Theoretisch müsste AMD dann ja auch konsequent zu Gunsten HSA eine (kleine) GPU mit intigrieren. Wenn nicht würden sie ja selbst zeigen dass sie von HSA für den High-End Bereich nicht viel halten. Aber bis dahin fließt noch viel Wasser den Rhein runter und die Gegner werden nicht Haswell und Haswell-E sondern eher Skylake(-E) heißen.
 
Daedal schrieb:
Das wäre mal ein guter Test: Haswell-E vs. i7-4770K vs. A10-7850K nur mit produktiver Software die GPU Beschleunigung nutzen kann. Alleine um mal zu wiederlegen dass es angeblich keine Software gäbe die diese Instruktionen nutzen.

Das nenne ich aber nun wirklich den verzweifelten Versuch sich an Strohhalmen zu klammern. Du hast scheinbar absolut keine Ahnung welcher Art von Software hauptsächlich in Wirtschaft/Industrie eingesetzt wird, und wie diese programmiert ist.

Es gibt sehr viele wohlgemerkt neue und aktuelle Geräte, die noch mit DOS ausgeliefert werden. Ganz einfach, weil Windows einfach eine Fehlerquelle mehr ist und das Gerät laufen muß komme was wolle. Selbst im Büro, viele Firmen rüsten nicht auf um Kompatibilität zu wahren. Bosch z.B. hat als Leitlinie daß Dokumente so verfasst werden müssen, daß sie noch mit Office 2003 kompatibel sein müssen. Ein groß an Speziallösungen sind selbst in aktueller Version quasi wie fensterlose DOS-Anwendungen programmiert, da wird noch ganz groß auf F-Tasten Wert gelegt.

Und Du träumst davon, daß großflächig Software aktualisiert wird, daß AMD eine Chance hat gut dazustehen? Man kann in der Theorie sich eine Million Benches einfallen lassen, die irgend etwas beweisen sollen, doch Fakt ist, daß es auch in den nächsten 10 Jahren sich da auch nichts großartig daran ändern wird. Für den gewerblichen Gebrauch spielen Anwendungen wie Du sie Dir gerne erträumst absolut keine Rolle, zumindest nicht in der Mehrheit. Und niemand kauft Hard- oder Software weil es etwas neues gibt, sondern letztendlich nur wenn man sich Gewinn davon verspricht.
 
Also irgendwie musste ich jetzt echt lachen...Wieso packt Intel AVX und AVX2 und SSE4 und was auch immer alles in seine CPUs wenn in "Wirtschaft/Industrie" sehr viele neue Geräte mit DOS ausgeliefert werden? Wo ist denn das irgendwie ein Argument gegen verbesserte Instruktionssätze für Software, welche diese auch nutzen kann. Dein ganzer Beitrag ist irgendwie völlig daneben, weil du dich damit beschäftigst, wie da nachher wohl Benchmarks aussehen könnten. Ich Spiele keine Benchmarks und mir hat auch noch kein Benchmark ein Video transkodiert.

Ich bin einfach ein Fan des Konzeptes bestehende Hardware und Technologie zu verschmelzen. Und würde mir sehr wünschen Intel würde auch in diese Richtung mit ziehen, und nicht nur später nachrüsten wie so oft bei grossen Innovationen der letzen 20 Jahre in der PC Industrie. Wir hätten alle etwas davon...vielleicht sogar die Benchmark Anwender ;)

Und die Behauptung niemand kaufe etwas neues wenn es nicht gravierende Verbesserungen gäbe widerspricht ja wohl den ganzen Upgrade-Freu-Postings von Sandy Bridge->Ivy Bridge->Haswell die alle recht gleichauf liegen in der Performance. Ausgerechnet in diesem Forum so eine Behauptung aufzustellen halte ich für sehr gewagt. Ich frage mich wie viele Sanys/Ivys/Haswells wohl Bosch unbedingt gebraucht hat mit ihrer Software. Laut deiner Argumentation fahren die ja immer noch 286er PCs und kaufen selbst heute noch welche weil ja lediglich DOS laufen muss. Also wirklich zu drollig diese Logik.

Ach und ich benutze meine F-Tasten auch unter Windows und lege sogar sehr viel Wert darauf ;)
 
Zuletzt bearbeitet:
Laut deiner Argumentation fahren die ja immer noch 286er PCs

SolidWorks 2014 soll da hervorragend drauf laufen.... ;)

Spaß beiseite. Ich kenne tatsächlich noch kleinere Werkzeugmacher, da sind immer noch DOS-Kisten im Einsatz und 3,5" Disketten und Drahterodiermaschinen in denen 186er und 286er laufen.
 
Zurück
Oben