News Intel Core i7-6950X: Support-Seiten bestätigen neue CPU-Spitze

autoshot schrieb:
6-10 Kerne für Enthusiasten und immernoch max. 4 für alle anderen find ich irgendwie langsam wirklich paradox...

der 5820k war wohl zeitenlang nicht billig genug? sogar günstiger als der 6700K eine zeit lang........


wer heutzutage 6 kerne will kriegt die schon relativ gut bezahlbar, weswegen ich deine aussage absolut nicht nachvolziehen kann.


ich muss gestehen mir die anderen weiteren postings nicht durchgelesen zu haben.... aber das einzigste was ich befürchte, ist durch künstlich erzeugte lieferbarkeit wieder solche märchenpreise wie bei der einführung von Skylake zu bekommen...... ansonsten ist Broadwell-E sowieso nur interssant für mich wenn ich dank meines 5820K auf nen günstigen 8 Kerner verbessern kann.


jeder andere der rumheult und multithread leistung brauch steht es ja frei sich am überflutenden markt von E5-2670 V1 zu bedienen ( hab ich mir auch schon einen für 99€ gekrallt, und werde die tage noch 2 nachbestellen)
 
Zuletzt bearbeitet:
Hallo,
da langt Intel aber ordentlich hin:

10-Kerner 1.500$
8-Kerner 1.000 $

Alles darunter lohnt sich für mich nicht. Und 1.000$ oder mehr (ohne MwSt.!!) ist mir die paar % Mehrleistung nicht wert. Obwohl ich schon mal wieder Bock hätte, einen neuen High-End PC zu bauen...

greetz
hroessler
 
ScOuRgE_ schrieb:
Diese einfach Erklärung führt leider dazu, dass die Erklärung sachlich betrachtet völlig falsch ist. Silizium an sich ist überhaupt nicht das Problem, was man leicht daran einsehen kann, dass sich in Bipolar-Technik mit selbstjustierendem Emitter und SiGe-Basis problemlos Frequenzen von 100GHz erreichen lassen. Auch die aktuellen Transistorparameter/-bauformen sind nicht verantwortlich für diese Frequenzlimitierung. Die erreichbare Frequenz ist unter anderem umgekehrt proportional zum Quadrat der effektiven Kanallänge. Die ist aber in der Vergangenheit stetig gesunken. Aktuell limitieren ausschließlich die kleiner werdenden Metallisierungsebenen die erreichbaren Frequenzen.

Stimmt, ich wollte natürlich nicht einen 100Ghz Takt auf einem Transitor auf Siliziumbasis ausschließen, doch plakativ gesagt, was nützten 3 Transistoren mit 100Ghz gegen 1Millarde mit 4Ghz... Und klar liegt es am Silizium, Graphen z.B würde dieser Belastung auch in der Größenordnungen aktueller CPUs standhalten. Das Ding ist, niemand bekommt einen tauglichen Wafer hin.
 
jbauer schrieb:
Standard ist es wohl eher nicht, die allermeiste Software profitiert auch im Jahr 2016 eben nicht von mehreren Kernen.
Soweit, so gut. Aber sehr oft schlafen die Threads aber einfach alle, da sie auf irgendein Ereignis warten und profitieren in vielen Fällen eben nicht von mehr Kernen. Und einfach eine Masse an Threads zu erzeugen ist auch kein Allheilmittel, die sind dann in der Hauptsache mit ihrer Kommunikation und Synchronisation untereinander beschäftigt. Macht nur das Entwickeln und Debuggen komplizierter.
Die meisten Anwendungsfälle und eben auch Spiele lassen sich aber eben oft nicht gut parallelisieren.

Dito.

G3cko schrieb:

Danke für die Links. Zumindest bei Spielen scheint es etwas besser auszusehen als gedacht.

Fragger911 schrieb:
Eben bei Steam Hardware Survey geschaut (März 2016):
1-Kern: 2,19%
2-Kern: 47,6%
4-Kern: 45,58%
Andere: 4,63%

Sollte der Bereich "Andere" mal die 20% überschreiten, dann wird auch dafür Software/Spiele für den Mainstream verfügbar... vorher einfach nicht wirtschaftlich.
Gebe ich dir tendenziell recht.

Fragger911 schrieb:
Insoweit irrelevant, weil bei dem gelinkten Benschmark die jeweiligen Generationen/Systeme mit unterschiedlichem Takt liefen.
Das Argument für sich genommen ist irrelevant, da die meisten Nutzer nicht übertakten.

ScOuRgE_ schrieb:
Das Problem bei kleiner werdenden Strukturen ist eben auch, dass die Metallisierungsebenen ebenfalls kleiner werden müssen. Das bedeutet aber, dass die Abstände der Leiterbahnen sich verringern und somit die RC-Konstanten zunehmen. Low-k-Dielektrika sind deswegen ein momentaner Forschungsschwerpunkt. Hinzu kommt, dass über immer kleineren Dieflächen auch immer mehr Verlustleistung pro Fläche abgeführt werden muss. Deswegen lassen sich auf großen Dieflächen mit vielen Einheiten und deren Synchronisation untereinander nicht die Frequenzen mit hoher Ausbeute erzielen wie bei Vierkern-CPUs. Man könnte zwar die Betriebsspannung anheben, was aber wiederum zu hohen Feldstärken im Kanalbereich führt und das Gateoxid (3nm) anfängt durch heiße Elektronen zu altern und zudem Tunnelströme auftreten. Dadurch nimmt aber wiederum die Verlustleistung zu und der Prozessor degeneriert schneller.
Interessant! Danke für den Beitrag.

strex schrieb:
In der wunderschönen Traumwelt vielleicht. Damit das funktioniert, muss sich das Problem auch parallelisieren lassen. Dir bringt deine coole Multicore Engine nichts, wenn sich die verwendeten Algorithmen nicht parallel betreiben lassen oder auf parallele Code-Abschnitte zerlegen lassen. Davon gibt es aber genug. Somit ist noch lange nicht gesagt, dass wenn deine schöne Multicore Engine in der Lage wäre weitere Worker mit Arbeitspakete zu füttern, dass auch kann weil sich deine Aufgaben nur begrenzt zerlegen lassen.

Auch mit Multicore Engine wird es weiterhin Probleme in Games geben, die nicht parallel verarbeitet werden können oder per Barrier/mutex/.. synchronisiert werden müssen. Diese beschleunigt man nur mit mehr Leistung pro Thread und nicht mit mehr Threads.
Meistes dito. Das Parallelisierungsproblem wird um so schwieriger, je mehr man parallelisieren möchte.

_____

Übrigens hatte ich selbst im ersten Beitrag zu erst geschrieben, dass der Fortschritt eher in der Parallelsierung (CPU, letztlich auch GPU) liegen wird. Grundsätzlich glaube ich das. Aber das geht bei vielen Dingen nicht so einfach, wie sich das hier einige vorstellen. Und mir nicht erzählen, dass Firefox 4 Kerne effektiv zum Rendern nutzen kann.
 
SaschaHa schrieb:
Im medialen Bereich (Video- und Bild-Bearbeitung) profitiert man von jedem weiteren Kern, weil solche Software meistens proportional damit skaliert und die Arbeit auf alle Kerne gleichmäßig verteilt. Daher ist es in jedem Fall sinnvoll, dass die Entwicklung in diese Richtung weitergeht.

Ganz richtig ist das so auch nicht. Es gibt durchaus Dinge die mit mehreren Kerne schneller funktionieren. Die meisten Dinge aber bei weitem nicht skalieren bei weitem nicht linear. Da es auch einiges gibt das nur auf eine hohe Single Thread Leistung angewiesen ist, gibt es auch Sinn sich in der Anzahl Kerne zu beschränken um eben einen hohen Takt zu ermöglichen. Gutes Beispiel z.B Lightroom.

Ich arbeite (im Unternehmen) an einer High End Workstation mit 2x E5-2687W v3 und habe da schon viel ausprobiert mit "normaler" Software (Photoshop, Lightroom, PremierPro...). In Lightroom fühlt sich mein privater PC mit einem i7 6700K spürbar schneller an. Das Exportieren geht aber mit den beiden E5-2687W v3 massiv schneller. Aber da habe ich Zeit und kann mir einen Kaffee holen...
 
Da war mein MSI X99S Sli Plus eine perfekte Investition. Im Zuge der Updates für Boardwell-E gab es sogar eine neue sehr präzise Lüftersteuerung über das BIOS spendiert :D (nicht dokumentiert in den Patchlogs)
 
Zuletzt bearbeitet:
Naja, jeder hat andere Anwendungen und dafür gibt es die CPU-Spanne.
Wer mehr als 4 (+HT) braucht, der zahlt kräftig und hat meist das Geld für teure Boards und Co..
So verdient Intel eben mehr (an den 6+CPU Nutzern...).
Würde ich auch so machen: Gewinnmaximierung (und die Kunden machen es mit - gewollt und ungewollt).
 
DoS007 schrieb:
Zukunftsleistung
Die Rechenleistungsgewinne in der Zukunft wird m.M.n. durch Parallelisierung und stärkerer Einbindung der Grafikkarte erreichert.

Single-Core Betrachtung
Insofern scheint eine Kernanzahlerhöhung sinnvoll zu sein. Fakt ist, dass die schnellsten Single-Core Rechner der I7 4790k und I7 6700k sind (1 Prozentpunkt unterschied; also fast nichts). Beide verfügen über 4 Kerne.

Leistung pro Kern im Vergleich mit mehr Kern-Modellen
Man nehme als Referenzbenchmark diesen von Computerbase:
  • I7 4790k: 100% auf 4 Kerne. Je Kern 25 Prozentpunkte.
  • I7 5930k: 108% auf 6 Kernen. Je Kern 18 Prozentpunkte.
  • I7 5960X: 117% auf 8 Kernen. Je Kern 14,625 Prozentpunkte.

Lokales Fazit:
Bautechnisch ist es offenbar nicht möglich die Leistung mit den Kernen linear zu skalieren. Ganz im Gegenteil, dass sieht eher sehr traurig bei mehr als 4 Kernen aus.

Multicore-Unterstützung von Programmen
Dass viele normale Programme, wie etwa Firefox, Thunderbird, Word, Excel mit mehr als 4 Kernen sowieso nichts anfangen können, dürfte bekannt sein.
Aber auch bei scheinbar sinnvollen Anwendungen, sind mehr als 4 Kerne nicht sinnvoll. Zwei Beispiele:
Lokales Fazit: Selbst bei scheinbar tollen Multi-Core Leitbeispielen ist die die Multi-Core Unterstützung bei mehr als 4 Kernen lachhaft. Wenn jemand hiermit meinungstechnisch nicht übereinstimmt, hätte ich gerne ernsthafte Tests die das Gegenteil beweisen. Und ob sich das in Zukunft mit Direct X 12 oder sonst was ändert, glaube ich erst dann, wenn ich bei einigen nenennswerten Spielen aussagekräftige Versuche mit entsprechenden (rund laufenden) Ergebnissen sehe - alles andere ist hohles Marketing und für den Anwender nichtsnützig.

Fazit
Der Single-Core Leistungsabfall von 4 bis 6 oder 8 Kernen ist traurig, die effektive Multi-Core Unterstützung in verwendeten Anwendungen ist miserabel, mehr als 4 Kerne kann ich also nicht ernst nehmen. Über hochtrapende Kommentare über die Mehrkernmodelle kann ich nur sehr müde lächeln.
Die bisherigen potentiellen Anwendungsfälle sind exotisch.

Worin hat man Dich denn heute gebadet?

Kannst gern mal vorbeikommen und einen spannungsgedrosselten 5960X mit 4GHz; 60°Celsius und Luftkühlung bei der Arbeit mit X264 bestaunen - da fällt Dir die Kinnlade runter und Du kloppst Deinen 4kerner in die Tonne.
 
Zuletzt bearbeitet:
Sithys schrieb:
Warum tut sich bei den MHz eigentlich so wenig? Wird schlichtweg nicht mehr benötigt oder was gibt es hier für Gründe?

Da gibt es einfach technische Limitierungen und den Faktor "Stromverbrauch". Wenn ich meinen 4790k auf 5,0 GHz anstatt 4,0 GHz laufen lasse erhöht sich der Stromverbrauch enorm und die Temperaturen steigen ebenfalls enorm an.

Dafür überhole ich dann auch so manchen 6-Kern Prozessor in vielen Situationen und gerade schlecht optimierte Anwendungen/Spiele laufen viel schneller da die Leistung pro Kern ungewöhnlich hoch ist.

Falls es jemanden interessiert, meiner läuft bis 5,1 GHz 100% stabil dann jedoch mit einer Spannung die ich auf Dauer nicht empfehlen würde:
core4790k.jpg

Bei leichter Übertaktung, z. B. auf 4,4 GHz kann ich die CPU sogar mit nur 1,1V stabil betreiben (Prime95 inkl. AVX getestet). Mit 5,0 GHz läuft er auch über Monate hinweg ohne jegliche Probleme.

Bei Spielen ist der 4790k in den meisten fällen völlig unterfordert, nur im Ladebildschirm wird er richtig ausgelastet. Ich kompiliere jedoch sehr umfangreiche Serverprogramme und render 4k Videos, mit aktiver Übertaktung kann man im Winter dann getrost die Heizung abschalten und sich direkt einen Tee auf dem PC kochen, habe ja bereits vor vielen Jahren Kaffee auf einem AMD gekocht :D
 
Zuletzt bearbeitet:
Wolfsrabe schrieb:
Liegt an Debian, nicht an AMD. Außerdem: Wenn es unter Windows auch an AMD läge, meinst du nicht, daß ALLE Kunden die einen A10 haben, dann nicht dieselben Probleme hätten wie du und daß das dann bekannt werden würde? Was meinst du was dann los wäre!

:lol: klar der A8/A10 Kaveri spinnt, aber der A4 5300 läuft....................

selbst bei der Apu spricht eigentlich nichts mehr für Amd,
die HD 530 zersägt diese dank DDR4 und Taktraten von über 3000Mhz
 
Zuletzt bearbeitet:
jbauer schrieb:
Standard ist es wohl eher nicht, die allermeiste Software profitiert auch im Jahr 2016 eben nicht von mehreren Kernen.

Nenne mir bitte eine aktuelle Anwendung die Leistung benötigt, aber nicht von mehreren Kernen profitieren würde! Angefangen bei Excel über Browser, Multimediacodecs oder Bildbearbeitungsprogrammen bis zur Winzip profitiert heutzutage praktisch jede Anwendung von mehreren Kernen. Dafür braucht man sich nur einen x-beliebigen CPU Test auf Computerbase mal ansehen.

Einzig Spiele haben BISHER nur begrenzt von mehreren Kernen profitiert. Das hat sich in letzten Monaten aber bereits stark geändert. Wie sowas aussehen kann zeigt Intel am besten.
https://software.intel.com/en-us/articles/f1-2015-goes-to-the-next-level-of-realism-on-the-pc

Es wurde hier auch vielfach fälschlicherweise behauptet, mehrere Kerne würde eh nichts bringen weil meistens die GPU limitiert. Das ist zwar bei BISHERIGEN Titeln meistens der Fall, liegt aber letztlich nur daran, weil die Entwickler schlichtweg für den Massenmarkt produzieren und die Zielgruppe einfach selten mehr als 4 Kerne in den Rechnern hat.

Der oben verlinkte Beitrag oder dieser hier zeigen wie man heutzutage praktisch jede beliebige Kernanzahl für die Optimierung der Grafikqualität nutzen kann. Spieletests von aktuellen DirectX 12 Spielen wie Ashes of Singularity zeigen wie gut man vermutlich sogar die GPU Funktionalität einer CPU für die Berechnungen nutzen könnte da man hier anscheinend problemlos eine AMD Grafikkarte mit einer Nvidia koppelt. Was spricht also dagegen es mit AMD oder NVidia Grafikkarten und der Intel oder AMD APU Grafik zu tun?

Die Möglichkeiten sind vielfältig. Man darf aber nicht vergessen woraus der Massenmarkt besteht. Hier gibt es ein Henne/Ei Problem. Solange die breite Masse keine 8 oder 16 Kerne im Rechner hat, wird man die Spiele auch nicht darauf optimieren. Dafür braucht man sich erst anzusehen wie lange es bis zur heutigen Zeit gedauert hat. Wir können nur dankbar für die aktuelle Konsolengeneration sein mit der man die Programmierer gezwungen hat mehrere Kerne nutzen zu müssen um anständige Leistung heraus zu bekommen und wir können nur hoffen, dass AMD mit ihrer eigenen CPU etwas Bewegung bei Entwicklung hervor bringt.

Letztlich ist der beschränkende Faktor derzeit einzig Intel. Solange sie jedes Jahr mit 5-10% schnelleren CPUs als die Vorgängergeneration gutes Geschäft machen können werden sie nicht mal eben so ihre Trumpfkarte ausspielen und plötzlich 8, 10 oder 12 Kerne in den Massenmarkt ins Rennen schicken. Den Beweis dafür, wie es auch anders geht, liefert der mobile Markt. HIER ist Bewegung im Markt und wir sind bereits locker bei 8 Kernen angekommen.
 
Zuletzt bearbeitet:
Den i7-6950X hätte ich schon gern, aber die 3,5Ghz sind doch etwas zu wenig? Mit seinen 3,5Ghz ist das Teil so schnell wie mein 2600K mit 4,4 Ghz!? Oder eher weniger?

Die CPU weckt mich bissel auf, vorher war alles langweilig für mich. Ich hätte jedoch gern einen höheren grundtakt gehabt.
 
Warum vergleichst Du die Basisfrequenz des 6950x mit der OC-Frequenz Deines 2600k? Der Vergleich hinkt. Beides sind CPUs mit offenen Multiplikatoren, also gehören auch beide übertaktet!
 
Faust2011 schrieb:
Warum vergleichst Du die Basisfrequenz des 6950x mit der OC-Frequenz Deines 2600k? Der Vergleich hinkt. Beides sind CPUs mit offenen Multiplikatoren, also gehören auch beide übertaktet!

Recht hast du, zumindest aber auch bei gleichen Takt vergleichen und staunen.
 
@EisSalat, der Vergleich Handy - Desktop ist nicht viel besser
 
crogge schrieb:
Falls es jemanden interessiert, meiner läuft bis 5,1 GHz 100% stabil dann jedoch mit einer Spannung die ich auf Dauer nicht empfehlen würde:
Anhang anzeigen 552918

Bei leichter Übertaktung, z. B. auf 4,4 GHz kann ich die CPU sogar mit nur 1,1V stabil betreiben (Prime95 inkl. AVX getestet). Mit 5,0 GHz läuft er auch über Monate hinweg ohne jegliche Probleme.

Ich hab meinen alten 3930K zwar nie so hoch getrieben, aber das mit den "mäßigen OCs" kann ich auch für S2011 und mehr als 4 Cores bestätigen.

Ich hab die CPU von Anfang an auf 4,2GHz laufen (Vollast auf allen Cores, standardmäßig wären es da nur 3,2GHz) und die Spannung dabei um -0,1V reduziert. Dabei habe ich gar nicht groß rumprobiert und die Grenzen ausgelotet, sondern einfach eingestellt und es lief. Der Hauptgrund, mit der Spannung nicht noch weiter runter zu gehen ist, dass mir die Zahlen im Leerlauf schon gefährlich niedrig vorkommen (unter 0,8V) und ich möchte die Spannung gerne dynamisch lassen. :)

Diese dicken CPUs von Intel haben reichlich Taktpotential. Auf irgendeiner Tech-Website habe ich damals einen Artikel dazu gelesen. Die S2011-CPUs waren so ziemlich die einzigen CPUs, die standardmäßig deutlich unter ihrem Optimum aus Leistung/Verbrauch eingestellt waren. Die werden also durch (etwas) OC noch effizienter, selbst wenn man nicht zusätzlich undervoltet.

Wahrscheinlich kommt diese Zurückhaltung daher, dass es sich letztlich um umbenannte Xeons handelt. Bei den Profi-CPUs geht Intel wohl mehr auf Nummer sicher, als bei den Consumer-Produkten.
 
Zuletzt bearbeitet:
@xexex
Photoshop wäre ein Programm welches Leistung benötigt aber praktisch immer nur auf einen Kern läuft

Man muss aber fairer Weise sagen das PS schon wieder professionelle ist und weniger mit Alltagsanwendungen zu tun hat.
Grundsätzlich gibt es aber noch sehr viele Programme die nix mit mehr Kernen anfangen kann
 
Fujiyama schrieb:
Grundsätzlich gibt es aber noch sehr viele Programme die nix mit mehr Kernen anfangen kann

Und die, die es können wandern in die GPU die nicht nur popelige handvoll Kerne haben. :)

Intel gibt ja Roadmaps frei die laaaange in die Zukunft reichen. Weiss nicht warum darin mögliche Anschlusstechnologie nach Silizium Ära angedeutet werden.

GHz kommt mit minimalen Verlusten komplett als Rechenleistung an, bei mehreren Kernen kann man von linearer Steigerung nur träumen.
 
Fujiyama schrieb:
@xexex
Photoshop wäre ein Programm welches Leistung benötigt aber praktisch immer nur auf einen Kern läuft

GANZ schlechtes Beispiel. Photoshop ist schon seit einiger Zeit multithreaded und nutzt auch die Grafikkarte für diverse Berechnungen.
http://www.tomshardware.com/reviews/adobe-cs5-cuda-64-bit,2770-7.html
https://www.pugetsystems.com/labs/articles/Adobe-Photoshop-CS6-GPU-Acceleration-161/

Fujiyama schrieb:
Grundsätzlich gibt es aber noch sehr viele Programme die nix mit mehr Kernen anfangen kann

Ich wiederhole meine Frage von vorhin gerne nochmal. Nenne mir ein einigermaßen ernsthaftes Programm welches heutzutage Leistung benötigt aber noch keine mehrere Kerne unterstützt.
 
Zuletzt bearbeitet:
Arbeite häufig mit PS CS5, es gibt zwar wenige Funktionen die von mehr Kernen profitieren, aber der Hauptteil der Arbeiten geschehen mit nur einen Kern. Tomshardware ist ein schlechter Beweis.

Auch einige CAD Programme brauchen Power aber können wenig mit mehr Kernen anfangen z.B Siemens NX.

Im Freeware Bereich findet man ebenfalls viel Software welche den Kriterien erfüllen. Umwandlungssoftware PDF, MP3 ect.
 
Zurück
Oben