News Intel Skylake: Leistungssteigerungen von CPU bis GPU laut Hersteller

HominiLupus schrieb:
So was wie nvidia Optimus oder AMD enduro funktioniert auf dem Desktop nicht und kann technisch auch nicht funktionieren. Ausser du machst es wie in Notebooks: alles fest verlötet auf dem Mainboard.
Und das "2 verschiedene GPUs berechnen das gleiche Spiel" wurde schon mit Sandy Bridge versucht und ist jämmerlich geischeitert. Benchmarks wurden schneller, Spiele sind einfach nur schneller gecrasht.

Wozu sollte man alles auf dem Board verlöten? Es würde ja reichen wenn die iGPU den Desktop rendert und das Spielbild ausgibt. Somit müsste die dedizierte GPU nur zum Zocken hochgefahren werden. Würde, nein geht technisch auch. Selber habe ich an der iGPU mein 60 Hz IPS und an der GTX mein 144 Hz. Starte ich ein Spiel im Fenster, kann ich das auf den IPS schieben und dort zocken. Die GTX rendert das Game auf weiter.
Wie schon von den anderen Kollegen beschrieben gab es ja dieses Virtu-Dings.

Außerdem kann die UE4 mit der iGPU z. B. Postprozess in Games rendern. Die Entwickler müssen sich nur anständige Nutzungsstrategien für die iGPU ausdenken.
 
Holt schrieb:
[...] Blödsinn! Mit welchem Benchmark der wirklich etwas über die CPU Leistung aussagt, untermauerst Du diese Behauptung? [...]
Und jetzt die gleiche Rechnung mit dem 4790K, von welchem die Rede war:

1.99 / 4.40GHz = 0.452 Pkt/GHz -> Steigerung von 15.3% gegenüber 2600K

Von den 34% bleibt also taktbereinigt nur noch die Hälfte. Damit relativiert sich auch die höhere Leistung in Anwendungen, auch wenn diese nicht linear mit dem CPU-Takt skalieren. Darauf wollte ich eigentlich hinaus.
 
Zuletzt bearbeitet:
Fruuky schrieb:
http://www.pcper.com/reviews/System...tro-Last-Light-and-Middle-Earth-Shadow-Mordor

Hier wird viel immer dem Forum Tenor nachgebrabbelt... eine starke CPU macht einen ordentlichen Unterschied vir allem bei den min FPS aus. Eine Sandy Bridge limitiert da schon stark bei vielen Spielen.

Also dieser Test zB sagt was ganz anderes. Die cpu spielt sehr wohl eine Rolle bei vielen Spielen...


Du sollst erstmal unterscheiden zwischen "Wir sind eher am GPU-Limit als am CPU-Limit" und deiner Aussage "Die CPU spielt sehr wohl eine Rolle".

Selbstverständlich spielt die CPU eine Rolle. Sollst ja deine High-End Grafikkarte nicht mit nem Celeron befeuern.
Und deine verlinkten Benches untermauern genaue meine Aussage:

Die selbe CPU (I7 4790K) erzielt mit einer

R9 280: 75 FPS
290X: 117
GTX 980: 121 FPS

Wie unschwer zu erkennen ist, limitiert hier die GPU. Sonst wäre unabhänbgig der verwendeten GPU die Framerate immer bei 75.


Min-FPS zeigen in diesem Benchmark nichts auf, höchstens, dass der Autor unseriöse Berichtserstattung betreibt.
Wenn die massiven Min-FPS allein durch die CPU begründet sind, warum haben sowohl eine I5 4440 und ein I3 4310 beide nur 9 Min-Fps?

Seriöse Hardware-Journalisten werten die Frameverläufe über einen nennenswerten Zeitraum aus und geben an, in wieviel % der gebenchten Szene die FPS z.B. unter 20 lag. Das ist mal eine brauchbare Aussage.

Aber fraps laufen lassen, die Min-FPS notieren und daraus eine CPU-Limitierung in den Min-FPS ausmachen wollen, ist käse. Jeder Nachladeruckler, jede Aktion des Virenscanners im Hintergrund und jede sonstige Auslastung der CPU durch im Hintergrund laufende Programme, verfälschen diese Aussage.

AVG werden 90fps produziert und für einen Bruchteil einer Sekunde hat man einen fps-drop auf 10 fps,
also ist die Anforderung nun dass Min-Fps ebenfalls bei smoothen 90 fps liegen? Dann hätten wir avg an die 600fps....

Und was das Argument betrifft, dass manche ja auch SLI betreiben und 120fps möchten:
In der Regel setzt man SLI für 1440p oder "4k" ein und hier wären wir wieder am Punkt, wo die GPU limitiert.

Ausserdem geht nicht von der bei Euch verbauten CPU aus, sondern vom am Markt verfügbaren Produkten.
Auch wenn es kein Acht-Core für 1.100EUR sein muss, für 600 EUR gibt es einen Sixcore den man auch gut auf 4,2 ghz bekommt. Da muss schon viel Wasser den Rhein runterfließen, bis solch ein Monstrum die limitierende Komponente darstellt.

Und ebenso muss man schon im absurden Maße cherry picking betreiben, um beweisen zu können, dass der Spiele-Markt am CPU-Limit hängt, einfach nur absurd.

Ich kann auch mit ner 5820k Quake 3 mit 640x480 auf low spielen, hab dann zwar 800 fps, eine GTX 980 TI / Fury X SLI/CF könnte aber auch 1000fps packen, wenn nur nicht die scheiss lahme CPU limitieren würde...:freak: :freak: :freak:

Und selbst wenn man mit ach und krach zwei Spiele aus dem Hut zaubern kann, die tatsächlich irgendwo am CPU limit hängen, dann ist das Fliegenschiss was den Marktanteil betrifft.

Aber schreibt ruhig Intel eine Protestmail, dass ihre lahmen CPUs euer System ausbremsen, wird bestimmt ganz schnell eine Hyper-CPU aufm Markt geworfen die Euren Ansprüchen genügt. :evillol:
 
Zuletzt bearbeitet:
Natürlich sagt der Hersteller, daß das Produkt besser ist als sein Vorgänger.

Die wollen ja was verkaufen :D
 
Leute ohne Frage ist heute bei den meisten Spielen, die GPU der limitierende FAktor. Was ich nur sage: nicht nur und nicht immer und eine Sandy Bridge kann mit einer 980 TI ich schon häufig die Frames limitieren ich denke mein i5 4690 ohne k mit seinen 3500 MHZ bremst teils auch schon aus hier und da. Wäre toll, wenn CB das nochmal testen könnte. Ich muss ja auch nicht unbedingt nochmal 800 Euro für nen I7 6700kk in die Hand nehmen wenns dann eh für die Katz ist. Ich denke aber schon, dass es nochmal hier und da 20 FPS bringt.
 
Zuletzt bearbeitet:
@Fruuky

Bitte kaufe dir einen besseren googleÜbersetzer :D

2500K Vs. 4790K:
https://www.computerbase.de/2015-06...amm-assassins-creed-unity-intel-core-i5-2500k

Wie man sieht kann nur Crytek wirklich was aus der CPU Power holen...

Ob die CPUs oder GPUs heute der limitierende Faktor sind werden wir mit DX12 sehen.
Vorher 1000 FPS und jetzt 1020 FPS ist jezt nicht die Welt. Was ich damit sagen will: einfach so einen absoluten Wert in den Raum werfen bringt nichts. Dann lieber einen relativen nehmen, z. B. %.
 
Zuletzt bearbeitet:
officeee schrieb:
...läuft doch kaum ein i5 oder i7 entweder ohne separate Grafikkarte oder die jeweilige IGP (HD2500-4600) reicht jetzt schon für alle geplanten Aufgaben mehr als aus.

Es gibt nicht nur liebevoll zusammen gestöpselte Gamer-PCs. Bei meinem Arbeitgeber sind relativ preiswerte i5 Maschinen ohne zusätzliche Grafikkarte von Fujitsu im Einsatz, die verbrauchen relativ wenig Strom, machen wegen des eher übersichtlichen Hardware-Aufbaus kaum Ärger und eine zügige Grafik wird inzwischen auch von gängigen Büroanwendungen gerne angenommen.

Ich schätze mal, dass Intel eher diesen Markt bei seinen CPU-Lösungen mit integrierter GPU im Auge hat als die "paar" Gamer.
 
ich_nicht schrieb:
@Fruuky

Bitte kaufe dir einen besseren googleÜbersetzer :D

2500K Vs. 4790K:
https://www.computerbase.de/2015-06...amm-assassins-creed-unity-intel-core-i5-2500k

Wie man sieht kann nur Crytek wirklich was aus der CPU Power holen...

Ob die CPUs oder GPUs heute der limitierende Faktor sind werden wir mit DX12 sehen.
Vorher 1000 FPS und jetzt 1020 FPS ist jezt nicht die Welt. Was ich damit sagen will: einfach so einen absoluten Wert in den Raum werfen bringt nichts. Dann lieber einen relativen nehmen, z. B. %.

Danke fuer den Link. Bringt einen echt wieder ins gruebeln. Evtl lohnt wich ein Upgrade doch nicht fuer mich. Haette ich dsmals bloss die k version gekauft waere die entscheidung klar. So koennte ich den alten als Wohnzimmer PC nutzen hmm. Ich bin auf die Beeichterstattung gespannt was skyla,e so bringt und was nicht. Das spannendste am
ende ist ja dann DX12 und die Auswirkungen aif das CPU GPU gefuege und nicht Skylake selbst.
 
Ich nutze die integrierte Grafik hauptsächlich als soundkarte. So kann ich vis hdmi unkomprimiert 8kanal Sound und Hd an meinen Av Receiver senden. So ne gute Übertragung hat keine andere Soundkarte^^
 
@haiopai: Ähm, was machst Du? Bitte mal für mich noch ein paar Sätze dazu schreiben, danke.
 
Ich benutze die integrierte Grafikkarte als soundkarte.
Hab an meiner grafikkarte normal den Bildschirm hängen.
Über eine soundkarte kann man entweder nur analog 8 kanäle übertragen, oder 6 kanäle per toslink, allerdings in dolby oder dts kompremiert.

Habe meinen av receiver aber per hdmi mit dem Mainboard verbunden, und lasse dann unter windows quasi einfach nen 2 monitor laufen. Was zwar keiner ist, aber der av receiver wird als solcher erkannt ;)
Ja dann wähle ich noch in den soundeinstellungen das ausgabegerät ( intel hd grafic) und gut is.
So bekomme ich 8 kanäle voll digital und unkomprimiert auf meinen avr.
 
IceKillFX57 schrieb:
Also Xeons gibt es auch mit GPU.
Ebenso die letzten 6+ Kerner.
Welche sollen das sein? Xeons mit iGPU sind mir nur aus der Xeon E3 Serie für den S.1150 bekannt, weder die E5 für den S.2011-3 noch die Xeon-D wie der 1540 haben eine iGPU.

Jenergy schrieb:
Und jetzt die gleiche Rechnung mit dem 4790K, von welchem die Rede war:

1.99 / 4.40GHz = 0.452 Pkt/GHz -> Steigerung von 15.3% gegenüber 2600K
Aber das ist nun einmal deutlich als die "nicht einmal 10% Mehrleistung" die Du vorher in den Raum geworfen hast und "Darauf wollte ich eigentlich hinaus".
 
Krautmaster schrieb:
Meine ES Zeiten sind vorbei und interessant ist es eig. eher 6-12 Monate vor Release wenn sich die ersten ES von Intel tummeln. ES gibt bei Intel wie Sand am Meer. Hab die Passmark Anforderung ma weiter gegeben ;)

11234994_10203473558514685_1725155229025084239_o.jpg

bitteschön, der i5 6400 Passmark Bench. 3D GPU Leistung ist wohl am interessantesten.
 
Zuletzt bearbeitet:
HominiLupus schrieb:
So was wie nvidia Optimus oder AMD enduro funktioniert auf dem Desktop nicht und kann technisch auch nicht funktionieren. Ausser du machst es wie in Notebooks: alles fest verlötet auf dem Mainboard.

Naja, es dürfte kein Problem sein dafür ein passendes Interface zu entwickeln. Allerdings müssten dann ja wiederum alle Anschlüsse am I/O Panel sein. Bei 4-5 Grafikanschlüssen wird das da recht eng. Dann müsste man wieder Zusatzpanels mit neuen Grafikanschlüssen machen.

Aber bei HDMI Audio hats doch am Anfang auch funktioniert. Die NVidia GTX275 hatte einen extra Soundeingang für den Onboard Soundchip, das Audiosignal wurde dann ins HDMI Signal eingefügt. So könnte man auch die iGPU die Bilder durch die Grafikkarte schicken.
Der Treiber muss dann entscheiden ob er die Rechenaufgabe selbst macht oder an die iGPU abgibt und deren Bild ausgibt.

Ich finde auch dass eine zusätzliche Grafikkarte im Idle eigentlich kein Strom ziehen darf bzw. nicht mehr als die iGPU für den gleichen Zweck braucht.
 
Ich kann jetzt nur von NVidia reden, weil da habe ich es getestet. Meine alte GTX770 hat im Idle etwa 2-3W mehr verbraucht als meine iGPU im 3770K. Also schon sehr gut.
Meine jetzige GPU GTX970 SSC habe ich nicht gegen die iGPU getestet aber die verbraucht unter Last 25W weniger als die GTX770 bei ca. 30% mehr Leistung.
 
Krautmaster schrieb:
bitteschön, der i5 6400 Passmark Bench. 3D GPU Leistung ist wohl am interessantesten.

Ach ja die ganzen angeblichen 6400er die überall gezeigt werden. Der Auslese-Fehler von CPU-Z ist schon seit Monaten der gleiche, jedes Modell von Notebook bis Desktop-ES wird da so angezeigt. Und so haben wir die zur Computex beispielsweise bei Asus im Notebook gesehen, ist auch schon wieder 2 Monate her^^

Und kein Mensch hat erwartet das die verlötet sind. Mit dem Startz von Devils Canyon und der neuen Wärmeleitpaste da zum ersten Mal war doch zu 100% klar was die nächsten Mainstream-CPUs bekommen werden: Genau das. Und Skylake jetzt ist halt (max. gehobene) Mittelklasse und nicht mehr.
 
Ist ja nicht mehr lange aber man sieht keine News mehr zu den MB's. Bei irgend einer Messe (Taiwan glaube ich) wurden ein paar Fotos von MB's gezeigt und seit dem ist absolute Stille.
 
Zurück
Oben