News Intel Skylake: Benchmarks vergleichen Core i7-6700K und Core i7-4790K

Februar 1999: Intel Pentium III 500 MHz
Juni 1999: AMD Athlon 500 MHz (schneller bei gleichem Takt!)
Oktober 1999: Intel Pentium III 733 MHz
November 1999: AMD Athlon 750 MHz
06.März 2000: AMD Athlon 1000 MHz (1 GHz!)
08.März 2000: Intel Pentium III 1000 MHz

Innerhalb 13 Monate eine mehr als Verdopplung (Bustakt ging auch höher) der Leistung !

Nicht mehr ganz so schnell, aber ähnlich rasant gings im Rennen zwischen Intel P4 und Athlon 64 X2 zu - Da veröffntlichte Intel sogar seinen größten Xeon-Prozessor für den P4-Sockel, um einigermaßen mit AMD mithalten zu können.

Das waren noch Zeiten (Schwärm!) 1999 bis 2006 war AMD immer etwas bis deutlich besser als Intel - In der Zeit gab es Leistungssprünge im großen Maßstab (2004 wurden schon 3,8 GHz von einem P4 erreicht) - Dann kam der Core2Duo... und spätestens ab Sandy Bridge war AMD Geschichte - und die Leistungssprünge hatten ein Ende.

Go AMD Go - zeig Intel, dass Du es noch kannst!!!
 
Holt schrieb:
Das wäre wirklich mal schön, immerhin haben die Xeon-D das schon bekommen.

10 Gbit/s NICs werden sicherlich nicht in den Consumer Boards kommen. Auch in der übernächsten Revision nicht. Die werden wenn überhaupt erst bei Boards >250€ geben.

Bezüglich Xeon-D sieht man ja das dies kein Consumer ist auch am Preis. Man spart sich nur ein paar Euro für das Layout der Karte und passende ASICs für Offloading weil man es dann gern reduziert. Die werden durchgereicht, der Rest bleibt bestehen.

Estimated prices for the motherboards put them in the $800-$1000 bracket with the CPU, perhaps matching or besting the equivalent Avoton platform + X540-T2 bundling. Interestingly Patrick also caught wind that Tyan is not going to play in this market, with no products planned.

Quelle: http://www.anandtech.com/show/9070/intel-xeon-d-launched-14nm-broadwell-soc-for-enterprise
 
Zuletzt bearbeitet:
und spätestens ab Sandy Bridge war AMD Geschichte - und die Leistungssprünge hatten ein Ende.
Würde das als Zufall ansehen, dass das Ende der Leistungssprünge gleichzeitig mit der Intel Überlegenheit kam. Technisch bedingt ist 4 Ghz eine magische Grenze, ab der trotz Verkleinerung der Strukturbreite die Hitzeentwicklung überhand nimmt und damit keine Taktsteigerungen mehr möglich sind. Daher haben wir, was den Takt angeht, seit 10 Jahren Stillstand.
 
Aber Intel könnte problemlos einen 8-Kern Prozessor mit 4 GHz auf den Markt bringen - oder einen 12-Kern mit 3,2 GHz - jeweils mit Unmengen von Cache (also beschleunigte Xeons) wenn sie müssten. - Und wenn Intel solche Hämmer auf den Markt bringt, passen sich auch die Programmierer an und legen mehr Wert auf Multithreading.
 
puri schrieb:
- wenn sie müssten. -

Oder wollten. Man will aber mehrmals verkaufen und das in Etappen, auch wenn diese Rechnung nicht immer aufgeht, da viele User nicht gleich wechseln.
 
strex schrieb:
10 Gbit/s NICs werden sicherlich nicht in den Consumer Boards kommen. Auch in der übernächsten Revision nicht.

Warum?

SSDs sind ja GBIT NICs um Faktor 10 enteilt. Auch hört man zwar selten genug aber doch von einigen glücklichen die dank Glasfaser mit 1GBIT ans Internet angebunden sind.

Wird es da nicht Zeit beim preiswertesten Teil der Infrastruktur anzufangen auf die nächste Stufe zu schalten? Will man damit so lange warten bis WLAN wirklich Kabel schlägt?
 
Weil sie sich finanziell nicht in Boards für <250€ rentieren, auch nicht in 2 Jahren. Vielleicht in 5 Jahren oder mehr, aber auch das ist noch weite Zukunft.

Solang die Hersteller noch sehr gute Preise am Markt dafür verlangen können und die Herstellung der ASICs nicht von anderen Herstellern überschwemmt werden, sinken die Preis ziemlich langsam. Das wird erst eintreten wenn die Sättigung im Enterprise-Markt begonnen hat und erheblich Kapazität übrig sind und die Chips sich billig herstellen lassen. Das wird aber noch länger als 2 Jahre dauern.
 
puri schrieb:
Februar 1999: Intel Pentium III 500 MHz
08.März 2000: Intel Pentium III 1000 MHz

Innerhalb 13 Monate eine mehr als Verdopplung (Bustakt ging auch höher) der Leistung !

Und wie hat man es sich erkauft? Mit doppelter TDP im gleichem 180nm Node! Pentium III mit 500MHz hatte eine TDP von 13,2W der Pentium III mit 1GHz kam auf 26,1W.

Bei AMD (180nm Pluto/Orion) das gleiche Spiel nur schlimmer Athlon 750 40W TDP, Athlon 1000 kam auf 65W.


puri schrieb:
In der Zeit gab es Leistungssprünge im großen Maßstab

Weil es eben auch gewaltige Sprünge bei der TDP gab.

Allein im 180nm Node ging man von max 38,2W beim Pentium III (Coppermine T) auf max. 75W beim Pentium 4 hoch.
Beim 130nm Node gab es beim Pentium III max. 32,2W TDP bei 1,4 GHz, beim Pentium 4 war man für 2,8 GHz schon bei 68,4W. Pentium 4 mit HT und 3,4GHz gab es mit 89W TDP.

Leistungssprünge gab es immer mit Sprüngen in der TDP, bloß kann man die nicht ins unendliche steigern. Irgendwann ist halt Schluss egal ob es Konkurrenz gibt oder nicht. Natürlich kann man mehr Kerne drauf klatschen und die Multi-Threadleistung steigern aber bei der Single-Threadleistung gibt es nunmal Grenzen egal ob mit oder ohne Konkurrenz.
 
BrainOtocho schrieb:
Okay ich glaube meinen Satz konnte man falsch verstehen. Ich meinte mit dem BF4 Beispiel nur die CPU. Also das man mit einer GTX980 ("mit entsprechend dicker Grafikkarte") und einem i3 gut klar kommt.

Dann mach ich wohl was falsch^^
Ich habe vor ner Woche vom AMD Phenom II 1090T (6 Kerne @3,6 Ghz) auf den i7-5820k (6 Kerne/ 12 Threads @Standard 3,3Ghz) aufgerüstet.
Der AMD war bei allen 6 Kernen am Anschlag bei BF4 (Multiplayer 32 Slot Server).
Der 5820k liegt bei 50-60% (auf 6 Kerne beschrännkt ohne HT)

Grafikkarte ist aber nur ne GTX770 (Phantom) ;)
 
Intel muss ja nicht neue Techniken schneller voran bringen mit ihrer Monopolstellung. Intel investiert lieber Milliarden in das verdrängen anderer Firmen um die Aktionäre zu beglücken. Intels traum wäre natürlich in allen Smartphones und Tablets zu sitzen. Um dann noch mehr Macht ausüben zu können. Noch mehr der Wirtschaft ihr Diktat vorzugeben.
 
aber bei der Single-Threadleistung gibt es nunmal Grenzen egal ob mit oder ohne Konkurrenz.
Richtig, nur
  • Intel läuft quasi seit 2011 ohne große Neuerungen mit derselben Architektur herum und in den nächsten paar Jahren dürfte sich auch nichts ändern. AMD auch, aber sicherlich aus anderen Gründen. Innovationen? Paar neue Befehlssätze, die abseits von selbst compilierter Linux-Software praktisch nicht genutzt werden (wie lange hat es gedauert, bis bei Intel jemandem der TSX-Bug aufgefallen ist?), bisschen mehr in Richtung GPU-Computing, aber bei den eigentlichen Kernen passiert nicht mehr viel.

    Dabei gäbe es da noch durchaus Luft nach Oben, um zum Beispiel eben Multithreading bzw. den dafür benötigten Datenaustausch zwischen den Kernen gerade auf kleinen Datensätzen effektiver zu gestalten, wenn es mit der Single Core-Leistung nicht mehr bergauf geht. Witzigerweise hat ausgerechnet AMDs Bulldozer da tendentiell Vorteile, weil sich zwei Kerne auf einem Modul neben dem L2-Cache auch noch einen sehr schnellen, aber nur 4kB kleinen WCC-Cache teilen - es ist aber viel zu schwierig, das effektiv zu nutzen.
  • sagt uns das eigentlich nur, dass Leistungssprünge im Desktop-Segment erst dann auch beim Endanwender ankommen, wenn Anwender-Software auch auf Multithreading und aktuelle Befehlssätze hin ausgelegt wird.

Und bevor hier jetzt wieder jemand kommt von wegen "nicht alles ist parallelisierbar" und "du bist bestimmt kein Programmierer": Doch, bin ich, und so wahr die erste Aussage auch sein mag, sie ist keine Entschuldigung für sowas:
Unbenannt.png
 
@VikingGe:
Bei einer Multimedianwendung, die praktisch zu fast 100% parallelisierbar ist, kann man so was natürlich tatsächlich nicht mehr wirklich nachvollziehen.

Allerdings wird es langsam wirklich schwierig noch mehr single-core performance als Chiphersteller rauszukitzeln. Bessere Mehr-Kernsysteme sind leider auch erstmal Grundlagenforschung. Natürlich gibt es da viele Überlegungen, Ansätze und teilweise auch Versuche aber bis zur Marktreife ist es dann eben doch noch ein großer Schritt. Es gibt ja durchaus alternative Modelle für parallele Rechner (so wie COMA bsplw) aber ob da jemals was brauchbares für den CPU-Markt bei raus kommt? Selbst Intel kann jetzt nicht jahrzehnte in so eine Richtung forschen nur um festzustellen, dass das einfach nicht besser machbar ist als die jetzige x86-Reihe.

Nochmal kurz zur Software: ich behaupte mal, dass die meiste heute genutzte Software irgendwo Potential zum Parallelisieren besitzt. Eigentlich arbeitet man doch ständig auf riesen Daten, auf die man auch parallele Algorithmen loslassen kann. Rein sequentielle Probleme kann man natürlich konstruieren, werden aber wohl eher einen kleineren Teil ausmachen.
 
Am Besten warten wir nun erstmal ab. Bisher sind das nur Gerüchte. Wenn auch keine schönen ;)

Wenns so bleibt werde ich bei Ivy bleiben und auf Cannonlake warten.
 
puri schrieb:
Februar 1999: Intel Pentium III 500 MHz
Juni 1999: AMD Athlon 500 MHz (schneller bei gleichem Takt!)
Oktober 1999: Intel Pentium III 733 MHz
November 1999: AMD Athlon 750 MHz
06.März 2000: AMD Athlon 1000 MHz (1 GHz!)
08.März 2000: Intel Pentium III 1000 MHz

Innerhalb 13 Monate eine mehr als Verdopplung (Bustakt ging auch höher) der Leistung !


Tja und jetzt hat man ein vielfache Steigerung der Leistung innerhalb von einem Jahr, jetzt auf die 500mhz von 1999 bezogen. Man muss halt die absoluten Werte vergleichen.
 
Ach so, Du meinst, Skylake = Haswell + Pentium III 500 MHz ;-) - wenn man es so sieht..
Aber mal ehrlich, Intel könnte mal was neues einfallen als nur die Plattform von 2011 nur zu optimieren.. Bei den Grafikkarten gehts ja auch!
Aber warum nicht alter Wein in neuen Schläuchen, wenn weit und breit keine Konkurrenz zu sehen ist. Intel wäre blöd mehr zu investieren als sie müssten... Deshalb: Konkurrenz bitte!!! Egal wer dann besser ist - der Konsument gewinnt in jedem Fall!
 
Cheatconsole schrieb:
Ihr könnt euch weiter einreden das ein 2500k voll ausreicht und so weiter...:evillol: So ein Blödsinn...
.

Ist kein Blödsinn,du solltest dich mal informieren. Eine 6 Jahre alte CPU kann man mit allem auf dem Markt mithalten.
 
Der i7 870 (Sockel 1156) reicht auch noch.
 
AMINDIA schrieb:
Einen Sch..§ plädiere ich für AMD. Ich kann bei der Klitsche nichts mehr kaufen. Doch auch bei Intel und Nvidia ist bei mir der Zug abgefahren.
...
Natürlich bin ich Gamer, aber muss ich jetzt deswegen die Kröten schlucken?
Dann spielst Du entweder auf alter HW, Konsolen (wobei da wieder AMD, Intel und/oder NVidia drin stecken wird) oder auf ARM basierter, also Tablet oder Smartphone.


strex schrieb:
10 Gbit/s NICs werden sicherlich nicht in den Consumer Boards kommen. Auch in der übernächsten Revision nicht. Die werden wenn überhaupt erst bei Boards >250€ geben.
Das ist ja das Problem, solange es teuer ist, gibt es keine wirkliche Verbreitung und solange es keine größere Verbreitung gibt, ist es teuer. Erst wenn mal ein Hersteller die 10Gbit (oder von mir aus auch eine Zwischenlösung mit 5Gbit, sollte es damit billiger zu realisieren sein) in seinem Chipsätzen bringt, wird sich daran was ändern. USB3 hat 5Gb/s, USB3.1 10Gb/s, Thunderbolt 3 schon bei 40Gb/s!

strex schrieb:
Bezüglich Xeon-D sieht man ja das dies kein Consumer ist auch am Preis.
Alle Xeons sind nicht für Consumer gedacht, es kaufen nur einige gerade die E3-1230 und 1231 weil diese eben billiger sind als ein i7, zwar auch weniger Takt aber HT bieten und sich die Kunen an der fehlenden iGPU nicht stören, weil sie sowieso eine Graka verbauen. Einen Xeon mit gleichem Takt und iGPU wie ein i7 (also wie z.B. der 4790) kauft auch kein Heimanwender, weil die mehr kosten.

puri schrieb:
Aber Intel könnte problemlos einen 8-Kern Prozessor mit 4 GHz auf den Markt bringen
Nein, die TDP wäre zu hoch, der i7-5960X hat ja bei 3 bis 3.5Ghz schon eine TDP von 140W und die Leistungsaufnahme ist bei Nutzung des Turbos sicher über der TDP, wie es ja heute üblich ist.
puri schrieb:
oder einen 12-Kern mit 3,2 GHz - jeweils mit Unmengen von Cache (also beschleunigte Xeons) wenn sie müssten.
Es gibt auch keinen 12Kern Xeon mit 3.2GHz, auch würde wohl die TDP zu hoch sein, der E5-2690 hat 2.6Ghz Grundtakt und einen Turbo bis 3.5GHz bei 135W, der 10Kerner E5-2687W hat einen Grundtakt von 3.1GHz, der Turbo geht nur bis 3.5GHz und der hat eine TDP von 160W. 12 Kerne mit 3.2W zu betreiben dürfte als nicht unter 200W TDP machbar sein, vielleicht kommt sowas mit den 14nm CPUs.
puri schrieb:
Und wenn Intel solche Hämmer auf den Markt bringt, passen sich auch die Programmierer an und legen mehr Wert auf Multithreading.
Welches Unterschied soll es den machen, ob Intel nun einen 8 Kerner mit 3GHz oder 4GHz bringt? Und wenn Du jetzt kommst, dass die zu teuer sind, so gibt es bei AMD ja auch schon seid Jahren günstige 8 Kerner, aktuell schon für 130€, trotzdem haben die Entwickler viele Programme noch angepasst oder machen immer noch SW die Multithreading nicht so nutzt, wie es möglich wäre.

Wattwanderer schrieb:
Wird es da nicht Zeit beim preiswertesten Teil der Infrastruktur anzufangen auf die nächste Stufe zu schalten? Will man damit so lange warten bis WLAN wirklich Kabel schlägt?
Das sehe ich auch so, die Performancesteigerung ist bei LAN überfällig, bei meinem Board ist von den Anschlüssen hinten nur die PS2 Buchse noch lahmer als die Netzwerkbuchsen, USB2 hat main Z97 Extreme 6 hinten ja nicht mehr.

Matzegr schrieb:
Leistungssprünge gab es immer mit Sprüngen in der TDP, bloß kann man die nicht ins unendliche steigern. Irgendwann ist halt Schluss egal ob es Konkurrenz gibt oder nicht.
So ist es und AMD hat genau das auch erkannt und eben auch, dass mehr komplexe Kerne eben auch nicht die Lösung sind. Deshalb hat man ja das APU Konzept auf die Beine gestellt, nur ist gut gedacht eben noch nicht gut gemacht, die CPU Performance war dann einfach bei Bulldozer zu schlecht, die volle Integration der GPU Kerne hat genau wie die SW-Unterstützung viel zu lange auf sich warten lassen. Wenn schon die Resources der SW-Entwicklung nicht einmal reichen um überhaupt großflächig mehrere gleiche CPU Kerne zu unterstüten, dann wird es bei der SW-Unterstützung von gemischten Kernen (GPGPU, also x86 und GPU Kerne) eben noch schwerer und heute nutzt das nur SW die da große Aufgaben auf die GPU auslagert, die Idee der APUs funktioniert aber nur, wenn die SW auch ganz kleine parallele Aufgaben an die GPU Kerne abgibt, dann erst macht die enge Integration von CPU und GPU überhaupt Sinn und kann die Berechnungen wirklich beschleunigen.

Matzegr schrieb:
Natürlich kann man mehr Kerne drauf klatschen und die Multi-Threadleistung steigern aber bei der Single-Threadleistung gibt es nunmal Grenzen egal ob mit oder ohne Konkurrenz.
Und da es eben nur extrem wenige Anwendunge bei Heimanwendern gibt die wirklich viele Kerne nutzen, lohnt sich das nur bei den Enteprise-CPUs, wo z.B. bei Virtualisierung viele Anwender auch viele Kerne nutzen können. Genau da bietet Intel nun schon bis zu 18 Kernen an, wer keine Steierung bei der CPU Performance in den letzten Jahren erkennen kann, der sollte mal über den Tellerrand des Mainstrem Sockel 115x hinaus schauen!

AMINDIA schrieb:
Intel muss ja nicht neue Techniken schneller voran bringen mit ihrer Monopolstellung.
Genau wenn man mal über den Tellerrand der Consumer Mainstream Sockel schaut, sieht man wie unsinnig und falsch diese Aussage ist. Bei Servern hat Inten einen noch höheren Marktanteil als bei Consumer PCs, da versucht ARM auch einzudringen, aber das ist eher noch Zukunftsmusik und hat Intel dort die Leistung mit steigenden Kernzahlen und Innovoationen wie TSX um Multithreading effizienter zu machen, weilter angehoben. Man muss eben gerade als "Monopolist" auch immer wieder etwas Neues bringen um die Kunden zum Auf- und Umrüsten zu bewegen.

Das die Neuerungen für den Mainstreamsockel wie eine viel bessere iGPU, schnellere I/O Schnitstellen und eine deutlich gesteigerte Effizienz einen Gamer der sowieso eine viele Hundert Euro teure Graka verbaut die auch mal eben so 200 und mehr Watt verbrät, nicht wirklich interessieren, steht auf einem anderen Blatt und bedeutet aber eben nicht, dass sich nichts tut.
AMINDIA schrieb:
Intel investiert lieber Milliarden in das verdrängen anderer Firmen um die Aktionäre zu beglücken.
Die Aktionäre sind die Eigentümer einer Firma und mit ihrem Geld wurde diese mal gegründet. Es ändert sich nichts an der Tatsache, wenn dies heute nicht mehr unbedingt die gleichen Personen sind. Manche Leute haben wirklich ein komisches Verständnis von Wirtschaftsdingen.
AMINDIA schrieb:
Intels traum wäre natürlich in allen Smartphones und Tablets zu sitzen.
Der PC Markt stagniert bzw. schrumpft, während der Markt bei Mobilgeräten stark wächst, da muss eine Firma sie doch zwangsläfig umorientieren um nicht am Ende irgendwann unterzugehen. Stell Dir eine Firma vor die vor Hundert Jahren Dampflokomotiven gebaut hat und dann die aufkommenden E- und Dieselloks ignoriert hätte, die wäre spätestens vor etwa 60 Jahren pleite gegangen.
AMINDIA schrieb:
Um dann noch mehr Macht ausüben zu können. Noch mehr der Wirtschaft ihr Diktat vorzugeben.
Dafür sorgen schon Kartellbehörden, dass keine Firma es mit der Machtausübung übertreiben kann, das hat auch in der Vergangenheit immer wieder mal zu Aufspaltung großer Monopolisten geführt.

@VikingGe, GIMP ist doch Open Source, da kannst Du als Entwickler ja selbst mal Hand anlegen und selbst die Rotinen auf Mutithreading umschreiben. Oder hast gerade keine Zeit, Lust oder kennst Dich in dem Bereich nicht so gut aus? Das scheint anderen auch so gegangen zu sein :evillol:
 
Holt schrieb:
Das ist ja das Problem, solange es teuer ist, gibt es keine wirkliche Verbreitung und solange es keine größere Verbreitung gibt, ist es teuer. Erst wenn mal ein Hersteller die 10Gbit (oder von mir aus auch eine Zwischenlösung mit 5Gbit, sollte es damit billiger zu realisieren sein) in seinem Chipsätzen bringt, wird sich daran was ändern. USB3 hat 5Gb/s, USB3.1 10Gb/s, Thunderbolt 3 schon bei 40Gb/s!

Super, PCIe überträgt 16GB/s bei 15cm. Cache Verbindungen von ein paar Millimeter übertragen zig GB/s. Wir sprechen hier ja auch nicht von 2 oder 5 Meter zu überbrücken sondern im Rahmen von Ethernet. Apfel und Birnen passt zwar selten, aber hier schon.

Solange der Enterprise-Markt nicht bedient ist, wird sich da nichts ändern. Da dort Locker 500€ bis 2000€ pro Karte verlangt werden können. Erst wenn dieser gesättigt ist wird die Zeit kommen. Alleine ein 10G Port an einem Switch ASIC kostet heute in der Massenproduktion und mit Netgear-Qualität noch 80€ für den Endkunden - die Marge ist da nicht sehr hoch.


Das wird erst kommen, wenn sich 10G ziemlich günstig realisieren lässt. Das ist 2015 nicht der Fall, 2016 und 2017 sicher auch nicht. Keiner der wenigen Hersteller von 10G ASICs hat aktuell ein super günstigen Chip in der Pipeline.


Holt schrieb:
Alle Xeons sind nicht für Consumer gedacht, es kaufen nur einige gerade die E3-1230 und 1231 weil diese eben billiger sind als ein i7, zwar auch weniger Takt aber HT bieten und sich die Kunen an der fehlenden iGPU nicht stören, weil sie sowieso eine Graka verbauen. Einen Xeon mit gleichem Takt und iGPU wie ein i7 (also wie z.B. der 4790) kauft auch kein Heimanwender, weil die mehr kosten.

Wer spricht den hier von Prozessor. Zitat und Kommentar gelesen? Wir diskutieren hier lediglich um den von dir genannten 10G Anschluss den der Xeon-D beinhaltet. Da munkelst du das in zwei Generation dies in Consumer Boards vorhanden sein könnte. Das wird aber nicht der Fall sein, da man sich das sehr gut bei einem Xeon-D Board leisten kann (aktuell für 1200$ verkauft wird - mit CPU), aber nicht auf einem Mainboard von der Ramschkiste für 100 oder 200€ - auch nicht in der übernächsten Generation.
 
Zuletzt bearbeitet:
Zurück
Oben