News Intel Core i7-6950X: Support-Seiten bestätigen neue CPU-Spitze

Siemens-Nixdorf schrieb:
Stream du mal ein Spiel mit OBS in 4k auf Twitch oder Hitbox, da kommt selbst deine CPU nicht mit.

PS: Ich habe einen i5-4690k.

Auch mit einer 8Kern cpu geht es mit 4k nicht mit OBS mit 30-60fps. Die passenden Benchmarks wären handbrake oder cinebench multi h264 1 pass, . In beiden müsste Echtzeit bzw mehr als dein fps goal (30-60) rauskommen was bei 4k nicht per cpu mit halbwegs solider Qualität bzw Dateigröße möglich ist. Die benches sind alle für 1080 durchgeführt. Ich würde dafür eine nvidia gtx 950/960 nehmen ihre video engine (nvenc) kann ja mehr als eine gtx980ti und co. Auch in HEVC statt h264. Auch möchte ich mal wissen, in welcher Videobitrate 4k games gut aussehen sollen. 4k/60 unter 4 facher Full HD (60fps) bitrate (3500kbit ist hier untere Grenze, eine Blu-ray hat 30.000- 50mbit) = 14mbit bei h264 mindestens sonst hast du nur verwaschene verpixelte Bilder,... und was nun.
Nächszes problem 15-20mbit dazenstream im upload bietet dein Provider an? Ohne drosselung und mit gutem QoS?
Wenn ja diese hohe Bitrate muss serverseitig wieder verarbeitet werden können (quality regler, werbung, VOD Speicherplatz, DMCA bedinges muten der audiospur, klar hat Amazon webservice viele möglichkeiten aber es kostet massiv viel Ressourcen und auch für sie massiv upload diese 4k streams zu übertragen. (Aktuell erzeugt twitch schon massiv traffic und bei so main events wie dreamhack, lol und dota WM mehr als YT und Netflix https://blog.twitch.tv/twitch-is-4th-in-peak-us-internet-traffic-90b1295af358#.4a54yjwap )
Daher wird von twitch soviel bitrate nicht supportet als casual streamer, hitbox hat 4k angekündigt aber sonst leider auch nix weiter.
Des weiteren wird es dann eng bei deinen viewern ohne “monster internet“ dich lagfrei zu gucken. Aber das ist jetzt off topicgewesen.

Hevc, h.264 codiert man mit ASICs oder FPGA chips die darauf entwickelt wurden, nicht mit einer x86 CPU, egal ob 4kerne mit 4ghz oder 10kerne mit 3,2
 
autoshot schrieb:
6-10 Kerne für Enthusiasten und immernoch max. 4 für alle anderen find ich irgendwie langsam wirklich paradox...
Liegt aber hauptsächlich daran, dass 95% aller Anwendungen im privaten Desktopbereich
nicht mit mehr Kernen skalieren. Im Server oder Business Bereich sieht das schon ganz
anders aus. Aber ja, 8 Kern Handys für jedermann und 4 Kern CPUs mit HT das Stück für
400€ sieht scho bisserl komisch aus. Aber hier gehts auch um Energieeffizienz und dann
auch um die Kühlung, Gehäusegröße von Desktop-PC und Anschaffungskosten. Ist nur
was für Enthusiasten im Moment. Auch werden die meisten Spieleentwickler nicht für so
viele Kerne optimieren, weil die installierte Basis solcher Systeme viel zu gering ist.
 
Chesterfield schrieb:
denn jedes encoden läuft wesentlich schneller über die graka ( cuda z.B) und dann ist selbst die cpu power nur noch zweitrangig !!
Ja, und trotzdem nutzt jeder der nicht einfach nur ein Standard Video encoded CPU power.
Wer ein bißchen an den h264 Einstellungen rumfeilt hat via Quicksync keinen Vorteil mehr. Meine beiden AMD 290 im CF konnten via OpenCL auch keinen Vorteil gegenüber dem 3930K @4.3ghz bringen :(



Chesterfield schrieb:
es lohnt sich immer zu "warten" wenn man das kann und die aktuelle hardware noch ausreichend das tut und bewältigt was es bewältigen soll ;)
Irgendwann ist der Habenwillfaktor aber grösser als die Vernunft xD



Buttermilch schrieb:
Hevc, h.264 codiert man mit ASICs oder FPGA chips die darauf entwickelt wurden, nicht mit einer x86 CPU, egal ob 4kerne mit 4ghz oder 10kerne mit 3,2
Schön Wärs. Das mag ja für Professionelle Stimmen, aber als Privatnutzer bleibt einem nicht viel übrig.
Besonders da ich 5760x1080 Pixel encoden was so jeden Hardware Encoder einfach mal unfähig ist.

Interessant war da der Knights corner mit 125? Cores für 199€.
Leider gabs damals keine ordentliche Software, aka h264 Encoder für die Karte.
Weiß nicht ob sich das nun geändert hat.
 
Wäre noch super, wenn die benötigten Mainboards etwas günstiger werden. Dann wäre der kleine 6 Kerner für den nächsten PC richtig interessant. Der Preisunterschied zum 6700K ist ja nicht der Rede wert. Mein i5 2500 reicht ansich zwar noch aus zum zocken und für meine anderen Anwendungen, aber man merkt schon, dass er teils die restliche Hardware ausbremst. Klar, man kann damit noch alles zocken, aber mit anderer CPU sind doch teils noch deutliche Performancesprünge möglich. Ganz extrem sehe ich das in Starcraft, wo aktuelle Notebooks teils meinen desktop i5 und die übertaktete 780ti Matrix abhängen, weil die CPU der flaschenhals ist. (Klar in dem spezielen Fall nützen mehr als 2 kerne eh nichts) Aber auch in anderen Spielen merkt man das deutlich. Wenn ich mir angucke, wie lange der i5 gehalten hat, dann würde ich auch mit nem Hexacore plus OC ne ganze Weile auskommen. Aber noch mal nur 4 Kerne...?Hmmm.

Bei den Preisen bin ich mal gespannt. Kann mir schon vorstellen, dass es den 10 Kerner für 1000-1100€ gibt. Beim Sprung vom 4960x auf den 5960x gab es ja auch die zwei Kerne ohne Aufpreis dazu.
 
Liegt aber hauptsächlich daran, dass 95% aller Anwendungen im privaten Desktopbereich
nicht mit mehr Kernen skalieren.
hmm, Windows 7 arbeitet mit allen Kernen / Threads schon länger einwandfrei!
Norton - mein Virenscanner arbeitet mit allen meiner 12 verfügbaren Threads.
Premiere arbeitet mit allen Threads wenn ich ein Video bearbeite.

Also nein, zumindest bei mir arbeitet alles recht gut mit den verfügbaren Kernen / Threads!

edit: BOINC ist ein weiteres Musterbeispiel, dass sehr effizient alle Kerne / Threads nutzt - auch möglich in den Einstellungen einzelne Kerne frei zu lassen!

Mir fällt es wirklich schwer etwas zu finden wo ich die verfügbaren Kerne / Threads nicht nutzen kann.....mal ne große pdf mit Bildern gehabt und dann gescrollt - hast Du ausreichend Kerne, funktioniert das prima - mit meinem Ivy i5 im Notebook @ 3 GHz nicht mehr möglich!
 
Zuletzt bearbeitet:
Herdware schrieb:
Diejenigen, die sich über den Stromverbrauch von PC-Komponenten aufregen, haben sowieso einen an der Waffel. Die Umwelt gehnt nicht durch hundert Watt mehr oder weniger bei CPUs und GPUs kaputt.
Doch.GPUs und CPUs fressen Strom, und das brutal bei intensiver Nutzung. 100 Watt machen unfassbar viel aus. Das kannst du nachrechnen.

(150W * 4h * 365) / 1000 = 219 kwh pro Jahr bei 4 Stunden Daddelei täglich im Jahr.

(250W * 4h * 365) / 1000 = 365 kwh pro Jahr entsprechend bei nur 100 Watt mehr.


Vor Jahren hatte Alexander Schlösser von der TU Berlin die sog. "elektronische Kommunikationsbilanz eines Durchschnittsdeutschen" auf 35 Milliarden Kilowattstunden für den Betrieb der Informations- und Kommunikationsgeräte errechnet.

Da Du ja wohl keinen "an der Waffel" hast, wird Dir klar sein, dass Dein Fazit, dass die Umwelt nicht "durch hundert Watt mehr oder weniger bei CPUs und GPUS kaputt" gehe, arglos ist, nett formuliert.
Dass der Mehrverbrauch die Umwelt belastet, sollte auch Dir klar sein

Siehe auch im Kontext http://rtlnext.rtl.de/cms/co2-ausst...mmer-als-alle-flugzeuge-der-welt-1432934.html


Als Gamer, der einen Spiele PC (2 GPUs, 6 Kern i5930k übertaktet) auch nachts oft durchlaufen ließ oder im Standby hatte, zahlte als Single monatlich knapp 90 (!) Euro Stromkosten in der damaligen Wohnung.
Hinzu kamen 3 Monitore, Arbeitsnotebook, Diensthandy, privates Smartphone und Tablet, täglich am Netz.
Aber der größte Fresser war der Spiele PC.

Jaja, Umwelt und CO², uncoole Themen, wird alles überbewertet. Nach mir die Sintflut.
Kann man aber auch anders sehen....
WIR ALLE sind verantwortlich für die Umweltbelastung, und unser Hobby ist umweltbelastend, und 100 Watt machen viel aus.
 
Fragger911 schrieb:
Fussball, die dümmste Erfindung aller Zeiten (ok, zweitdümmste) abschaffen und alle Stadien weltweit bleiben dunkel. Was meinste was das Milchmädchen da an Kohle spart, wortwörtlich sogar.

Was ändert das an dem was ich geschrieben habe?

flappes schrieb:
Wenn die 1 Millionen CPU 24 Stunden mit 100% Auslastung laufen würden

Die von mir genannte Zahl ist eine Momentbelastung. Also abstrakt formuliert die die entsteht wenn die 1 Million CPUs/GPUs zeitgleich auf 100% gehen. Da reicht auch schon 1 Sekunde.
Wenn du einen Zeitraum von 24 Stunden betrachtest, dann lautet die Milchmädchenzahl wohl
100 Millionen Watt * 24 Stunden = 2.400 Megawattstunden.
 
Zuletzt bearbeitet:
Fujiyama schrieb:
Arbeite häufig mit PS CS5, es gibt zwar wenige Funktionen die von mehr Kernen profitieren, aber der Hauptteil der Arbeiten geschehen mit nur einen Kern. Tomshardware ist ein schlechter Beweis.

Auch einige CAD Programme brauchen Power aber können wenig mit mehr Kernen anfangen z.B Siemens NX.

Im Freeware Bereich findet man ebenfalls viel Software welche den Kriterien erfüllen. Umwandlungssoftware PDF, MP3 ect.

Dann such dir eine beliebige andere Seite die Photoshop Leistung mit mehreren Kernen testet. Photoshop unterstützt mehrere Kerne UND die GPU und eine alte Version von Photoshop interessiert in dem Vergleich niemanden. AKTUELLE Software unterstützt so gut wie IMMER mehrere Threads. Ausnahmen, wie irgendwelche Tools, die mit der Aufgabe sowieso in 1-2 Sekunden fertig sind zählen hier nicht und ich hoffe du meinst mit Mp3 nicht Lame. Lame ist ein freies Tool das schon seit Jahren nicht mehr weiter entwickelt wird. Aktuelle Programme starten dann halt gleich mehrere Konvertierungsprozesse gleichzeitig.

Die Aussage aktuelle Software würde mehrere Kerne nicht unterstützen ist schlichtweg falsch und hat vielleicht vor 5-6 Jahren noch gestimmt. Es gibt weder im professionellen als auch im semi-professionellen Bereich kaum noch Software die NICHT mehrere Threads nutzen würde. Office, Adobe Suite, Browser, Packer, CAD, Codecs etc. nutzen in halbwegs aktuellen Versionen fast ausnahmslos mehrere Kerne und/oder die GPU!
 
Zuletzt bearbeitet:
Mal abwarten bis erste OC-versuche bekannt sind den auch wenn die jetzigen E`s immer gut bis auf 4,5GHZ mit guter Kühlung gingen waren ja die "normalen" Broadwells auch nicht ganz so taktfreudig und haben nur durch den 128Mb cache bei der cpu Leistung punkten können.
Würde mich nicht wundern wenn eventuell bei 4 GHZ Schluss ist.
 
Zuletzt bearbeitet:
xexex schrieb:
Dann such dir eine beliebige andere Seite die Photoshop Leistung mit mehreren Kernen testet. Photoshop unterstützt mehrere Kerne UND die GPU und eine alte Version von Photoshop interessiert in dem Vergleich niemanden. AKTUELLE Software unterstützt so gut wie IMMER mehrere Threads. Ausnahmen, wie irgendwelche Tools, die mit der Aufgabe sowieso in 1-2 Sekunden fertig sind zählen hier nicht und ich hoffe du meinst mit Mp3 nicht Lame. Lame ist ein freies Tool das schon seit Jahren nicht mehr weiter entwickelt wird. Aktuelle Programme starten dann halt gleich mehrere Konvertierungsprozesse gleichzeitig.

Die Aussage aktuelle Software würde mehrere Kerne nicht unterstützen ist schlichtweg falsch und hat vielleicht vor 5-6 Jahren noch gestimmt. Es gibt weder im professionellen als auch im semi-professionellen Bereich kaum noch Software die NICHT mehrere Threads nutzen würde. Office, Adobe Suite, Browser, Packer, CAD, Codecs etc. nutzen in halbwegs aktuellen Versionen fast ausnahmslos mehrere Kerne und/oder die GPU!

/sign

kenne auch kaum noch progs die nur per 1 oder 2 kernen laufen :D
 
Laphonso schrieb:
WIR ALLE sind verantwortlich für die Umweltbelastung, und unser Hobby ist umweltbelastend, und 100 Watt machen viel aus.

Ich möchte diese Energiesparthema eigentlich nicht schon wieder in allen Details durchkauen, weil es doch auch leicht ot ist.

Nur soviel:
Ja. Auch das Hobby Computer braucht Engerie/Strom. Ich bleibe aber dabei, dass es im Vergleich mit anderen Hobbys, oder auch anderen Energiefressern in typischen Haushalten, lächerlich wenig ist.

Es geht mir schon etwas auf den Zeiger, wenn einem ein schlechtes Gewissen eingeredet werden soll, weil der High-End-PC, wenn er denn mal unter Vollast läuft, ein paar hundert Watt mehr verbraucht, als ein auf Effizienz getrimmter. Wer sich über sowas aufregt, müsste wegen jemandem, der z.B. als Hobby einmal in der Woche ein paar Kilometer mit dem Auto zum nächsten Bolzplatz fährt, einen Tobsuchtsanfall bekommen.
Von Leuten, die einmal im Jahr um die halbe Welt fliegen oder Kreuzfahrten machen, nur für ein kurzes, flüchtiges Urlaubsvergnügen, ganz zu schweigen. Oder auch einfach Leute, die es nicht für nötig gehalten haben, ihr Haus vernünftig zu isolieren oder sich eine moderne Heizungsanlage zu kaufen usw. usw. usw.

Was CO2-erzeugende Hobbys oder sonstige Tätigkeiten angeht, ist Computer-Enthusiasmus gaaaaaaaanz weit hinten in einer sehr langen Liste. Wie gesagt, weigere ich mich deshalb, mir dafür ein schlechtes Gewissen einreden zu lassen. Das ist einfach nur absurd, wenn andere Tätigkeiten, die 1000x mehr Umwelt verwüsten, nicht mal der Rede wert sein sollen.
(Ja, "Kleinvieh macht auch Mist". Aber das Rechtfertigt es nicht, sich wegen Mäusekötteln aufzuregen, während man in Elefantendung erstickt.)

Schaut mal etwas über den Tellerrand!

Ich habe den ganz starken Verdacht, dass über Computer-Komponenten nur deswegen derartig hergezogen wird, weil bei denen in der Regel zufällig der Verbrauch prominent im Datenblatt steht.
(Andere Sachen, wie z.B. die bei der Herstellung oder Entsorgung verbrauchte Energie aber nicht. Einfach deshalb, weil auch der Betriebsverbrauch der PC-Komponenten nicht aus Öko-Grunden erwähnt wird, sondern weil man TDP-Werte braucht, um ein System in Sachen Kühlung und Stromversorgung sinnvoll auszulegen.)
 
Vitec schrieb:
Mal abwarten bis erste OC-versuche bekannt sind den auch wenn die jetzigen E`s immer gut bis auf 4,5GHZ mit guter Kühlung gingen waren ja die "normalen" Broadwells auch nicht ganz so taktfreudig und haben nur durch den 128Mb cache bei der cpu Leistung punkten können.
Würde mich nicht wundern wenn eventuell bei 4 GHZ Schluss ist.

War der Grund dafür nicht die niedrige TPD von 65W?
 
@Herdware: Ich glaube nicht, dass Laphonso dir ein schlechtes Gewissen einreden wollte, er hat schließlich selber ne ganz ordentliche Maschine am laufen.
Es geht nur darum, dass die Aussage 100W mehr machen nichts, einfach nicht stimmt. Wenn jeder Haushalt 100W mehr verbraucht, braucht man schnell mehrere Kraftwerke zusätzlich.
 
Es geht nur darum, dass die Aussage 100W mehr machen nichts, einfach nicht stimmt. Wenn jeder Haushalt 100W mehr verbraucht, braucht man schnell mehrere Kraftwerke zusätzlich.
Oje, oje der ganze Stromverbrauch, sparen, sparen usw.
aber mit dem dicken Benz will ich weiterhin eine Endliche Ressource raus blasen...........


Und was ist jetzt ein Laufwasserkraftwerk?, das seit 40 Jahren seinen Dienst tut
 
FUSION5 schrieb:
War der Grund dafür nicht die niedrige TPD von 65W?
Nein, Intel hat bei dem Release der Broadwell selber gesagt, dass die Architektur nicht so gut fürs übertakten ausgelegt bzw. geeignet ist.

Bei Reviews war beim i7 oft bei 4.2 GHz Schluss.
 
Bei Reviews war beim i7 oft bei 4.2 GHz Schluss.
...bei der Mainstream CPU auf Sockel 1150.
Ich denke der Vergleich hinkt wenn wir hier auf eine CPU ohne iGPU und mit verlötetem Heatspreader schauen. Die Diskussion erinnert mich an Ivy-Bridge - auf Sockel 1150 ebenfalls ne Gurke beim OC - und bei Sockel 2011 auf Ivy-E gingen die doch durch die Bank mit 6 Kernen auf mind. 4,2 GHz - viele sogar auf 4,5 GHz oder darüber.
 
@Lars_SHG: Ändert aber trotzdem nichts an der Aussage von Intel.

Macht doch nichts, ist ja so schon schnell genug :)
 
über was reden wir denn jetzt?
Streaming ist nix anders als ein gegebenes Video "klein" zu rendern und in einem gegebenen Format (idealerweise die gleiche Auflösung) 1:1 in ein platzsparendes Format wie H264/265 zu bringen. (1080p mit 60 Hz) und diesen Datenstrom dann als stream FLV hochzuladen oder mp4 container zu speichern. Das meint der Nixdorf als "Twitch streamer.

Das kann keine CPU mit mehr als 1080 in geforderter Größe (er möchte ja 4K) / Qualität bei 4K in Echtzeit (60fps).

Haldi schrieb:
Schön Wärs. Das mag ja für Professionelle Stimmen, aber als Privatnutzer bleibt einem nicht viel übrig.
Besonders da ich 5760x1080 Pixel encoden was so jeden Hardware Encoder einfach mal unfähig ist.

Was du aber sicher meinst ist ein Video cutten, color correction, Effecte, Blenden, Formatanpassung, usw was eine moderne Schneidesoftware alles so macht. Das ist aber eine komplette Neuerstellung des gesamten Videomaterials da z.B. alle keyframes neu erstellt, alle Zwischenbilder neu codiert und erzeugt werden und die Audiospuren äquivalent dazu.... und deutlich mehr als ein "Desktopbild" zu demuxen und dann zu komprimieren.
Richtiges Bearbeiten kann je nach Anwendung parallel auf verschiedenen "Geräten" passieren, z.B. Farbanpassung über Open CL, Stabilisierung und Glättung der Bewegung und Blenden über Cuda... das geht auch deutlich schneller als über eine x86 Architektur.

Aber die CPU muss auf diese Daten warten, zugreifen und daraus dann die restlichen Sachen berechnen und alles dann komprimieren. Es werden die Probleme der Parallelisierung sichtbar. Wenn man nur auf die CPU setzen würde dauert es noch X mal länger. und je mehr Komplexität du hast kann 15min fertiger Film dann auch mal 2 Stunden rechnen müssen.

Für so einfache Sachen wie eine Recodierung gibt es 3 Wege das zu machen:

- alles über die CPU machen, ist sehr langsam aber sehr gute Qualität (YUV 4:4:4 beim I und D Frame) Aber nur nutzbar wenn die CPU Cores keine anderen Aufgaben erfüllen müssen, Workstation in der Nacht, dedizierte Servercluster für diese Anwendung, für den Gamer, Desktop Arbeiter nicht ideal)

- Rendern per GPU, egal ob Cores in Open CL CNG, Cuda oder EU, wenn es über die komplette GPU laufen soll werden die normalen SMX und Chipbereiche benutzt, damit viel Last erzeugt.
Klar geht das schneller als eine 8 Kern CPU da auf 2048 Cores schneller 'frame für frame' farbkorrigieren zu lassen als über die CPU, aber alleine ein modernes Videoformat wie mpeg4 oder HEVC wiederzugeben, muss aber der Takt der GPU / Video RAM hochgehen, was heute in Energieeffizienz unerwünscht ist.

- daher nutzt man heute für z.B die Videowiedergabe nicht mehr die komplette GPU sondern in dieser speziell angelegte ASIC und FPGA Units in den Chips (seit Kepler und AMD CGN) Nichts anderes ist NVenc von Nvidia, Quicksync von Intel oder VCE von AMD. Es sind ASICs die nur dafür da sind. Daher kann heute eine Mpeg 4 Video ohne CPU / GPU Last mit 5 Watt wiedergegeben werden.
und auch codiert werden z.B. mit der GTX 960 oder Tonga bzw den 2016er Modellen von Nvidia, AMD... (die Nachteile von YUV 4:2:x lass ich mal weg das ist zu speziell für einen CPU Thread)

Was vor diesen Techniken undenkbar war, selbst für MPEG 2 musste vor 6 Jahren noch eine Videoschnittkarte z.B. von Pinacle, Blackmagic, VLab in den Videorechner damit die Vorschau ohne Pre rendern in Premiere Pro, Sony Vegas, Gras Valley Edius... etc ruckelfrei in 1:4 Auflösung lief.


5760x1080 soll ich mir mit einem 1920x1200 Monitor, 5:4 Tablet, Smartphone jetzt wo angucken?
auf YT in dem Breitbild? sicherlich nicht,

Dies Format ist so atypisch! kein 2,33:1 (21:9) oder 16:9 sondern 5,35:1 und du erwartest jetzt weil da ein paar Simracer, Hobby Piloten das Setup haben das es da " Render Hardware" für gibt :D Schlag es einfach als neues Kino, BR, Nachfolgeformat vor dann wird es das geben, wenn die Panelhersteller drauf aufspringen... oder ein Asic für diesen Zweck entwickeln. sorry konnte mir das jetzt nicht verkneifen ;)

keine Ahnung ob es für einen Xeon Phi (intel KC, KK,KL) eine kompilierte x264 Anwendung gibt ( die die Vorteile von AVX 512+ nutzen kann, denn nur das kann ein Xeon Phi besser als "Grafikkarten" und moderne x86 CPU, wenn es um hohe DP und 512-bit SIMD instruction geht) bzw inwieweit das schneller geht als die aktuelle Aufgabenteilung von CPU, GPU und ASIC Einheiten.
 
Zuletzt bearbeitet:
Zurück
Oben