Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Intel Skylake im Test: Core i5‑6600K und i7‑6700K sind auf Effizienz getrimmt
Shadow Complex
Lt. Commander
- Registriert
- Feb. 2014
- Beiträge
- 1.380
Ich zitiere mal Incredible Alk aus dem PCGH Forum:
Wenn sie sie physikalisch weglassen würden würde das eine neue Belichtungsmaske erfordern was sehr viel höhere Produktionskosten bedeutet. Sprich eine solche CPU ohne physikalisch vorhandene iGPU wäre einiges teurer, nicht billiger.
Das einzige was geht ist die physikalisch vorhandene iGPU abzuschalten bei gleicher Belichtungsmaske - das wird bei manchen Xeon-Modellen gemacht.
Mortal1978
Lt. Commander
- Registriert
- Nov. 2014
- Beiträge
- 1.251
Hmmm, man könnte ja einer Server/Business CPU mal ein bischen mehr Masse gönnen zwecks besserer Temperaturstabilität, statt überall eine iGPU drauf zu kleben :
Ultrapower
Lieutenant
- Registriert
- Feb. 2004
- Beiträge
- 603
DANKE AMD !!!!
Danke für eure Unfähigkeit seit Sandy Bridge (vor 4 Jahren!!) nichts konkurrenzfähiges auf den Markt zu bringen.
Entweder sind eure Prozessoren zu heiß und verbrauchen extrem viel Strom oder sie sind schlicht zu lahm!
Wegen eucht geht es nur noch im Schneckentempo voran ...
Danke für eure Unfähigkeit seit Sandy Bridge (vor 4 Jahren!!) nichts konkurrenzfähiges auf den Markt zu bringen.
Entweder sind eure Prozessoren zu heiß und verbrauchen extrem viel Strom oder sie sind schlicht zu lahm!
Wegen eucht geht es nur noch im Schneckentempo voran ...
Shadow Complex
Lt. Commander
- Registriert
- Feb. 2014
- Beiträge
- 1.380
slumpie schrieb:Man könnte auch einfach ein paar Kerne mehr draufpacken statt der iGPU, tja...
Du meinst Haswell-E? Das Produkt gibt es schon.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.755
Ultrapower schrieb:Danke für eure Unfähigkeit seit Sandy Bridge (vor 4 Jahren!!) nichts konkurrenzfähiges auf den Markt zu bringen.
Das hat nichts mit unfähig zu tun. AMD hat schon vor einiger Zeit gesagt das Desktop CPUs nicht mehr die erste Prio haben sondern die APUs und mit diesen verhauen sie Intel schon deutlich, gerade was GPU performance angeht
Ultrapower schrieb:Entweder sind eure Prozessoren zu heiß und verbrauchen extrem viel Strom oder sie sind schlicht zu lahm!
Wie gesagt, keine Prio für Desktop CPUs aktuell ergo wird man da nichts großartig erwarten können.
Ultrapower schrieb:Wegen eucht geht es nur noch im Schneckentempo voran ...
Falsch. Es geht einfach nicht mehr voran weil, na warum wohl? Richtig weil keiner im Consomer Bereich mehr Performance benötigt. Warum gibt es wohl noch keine Hexa oder Octa Kerne im Mainstream? Richtig weil ein i5-2500k oder i7-2600k einfach noch völlig aussreichen vor allem für die 0815 Office Rechner welche einfach nur ein paar Mails am Tag sendne und empfangen müssen und etwas Office Progs machen müssen.
Genau wie AMD sieht Intel in der Desktop CPU auch nicht mehr die Performance an erster Stelle sondern geht auch immer mehr auf die iGPU ein und auf die Effizenz.
Deshalb ein Gang runterschrauben und das ganze noch mal logisch angehen.
@Shadow Complex
Aber das ist ja "zu teuer"...
deathscythemk2
Commander
- Registriert
- Jan. 2013
- Beiträge
- 2.430
@Ultrapower
Troll? Wenn du meinst, dass es so einfach ist gegen einen vorbestraften Quasi-Monopolisten wie Intel zu bestehen, dann mach doch mal eine eigene Chip-Fabrik auf.
Troll? Wenn du meinst, dass es so einfach ist gegen einen vorbestraften Quasi-Monopolisten wie Intel zu bestehen, dann mach doch mal eine eigene Chip-Fabrik auf.
Holzmichi
Lieutenant
- Registriert
- Nov. 2005
- Beiträge
- 841
Wenn ich das jetzt richtig verstehe, würde es sich aus Effizienzgründen schon rechnen, meinen auf 4,3 GHz hochgedrehten 2500K durch einen 6600K zu ersetzen. Der 2500er zieht bei 1 GHz mehr sicher so viel mehr aus der Dose dass es sich rentieren würde. Ich zocke fast nur auf dem PC, d. h. die Kiste läuft eigentlich ständig unter Last.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.755
@Holzmichi
Nein würde sich nicht lohnen. Bis du den Kaufpreis raus hättest musstest du Jahre zocken. Gehen wir einfach mal von 75 Watt mehr aus, welche dein 2500K zieht:
75 Watt (0,075 KW) * 0,30 € = 0,0225 € welche Pro Stunde mehr verbraucht werden. Gehen wir von 8 Stunden am Tag aus:
0,0225 € * 8 Stunden = 0,18 €
365 Tage * 0,18 € = 65,70 € mehr die dein 2500K kostet. Dazu kommt man wird ja nicht jeden Tag 8 Stunden zocken. Daher lohnt sich so ein Upgrade praktisch nie. Das ist wie bei einem Kühlschrank der nur Klasse B oder C hat. Wenn er noch geht ist es einfach billiger als ein neuen mit A-A+++ zu kaufen.
Nein würde sich nicht lohnen. Bis du den Kaufpreis raus hättest musstest du Jahre zocken. Gehen wir einfach mal von 75 Watt mehr aus, welche dein 2500K zieht:
75 Watt (0,075 KW) * 0,30 € = 0,0225 € welche Pro Stunde mehr verbraucht werden. Gehen wir von 8 Stunden am Tag aus:
0,0225 € * 8 Stunden = 0,18 €
365 Tage * 0,18 € = 65,70 € mehr die dein 2500K kostet. Dazu kommt man wird ja nicht jeden Tag 8 Stunden zocken. Daher lohnt sich so ein Upgrade praktisch nie. Das ist wie bei einem Kühlschrank der nur Klasse B oder C hat. Wenn er noch geht ist es einfach billiger als ein neuen mit A-A+++ zu kaufen.
Jep, ist leider genau so wie Cool Master beschreibt. Habe hier einen alten B-Kühlschrank, der am Tag genau 0,9kW frisst (also 19 Cent bei meinen derzeitigen kWh-Kosten).
Ein neuer A+++ schafft die gleiche Kühlleistung am Tag bei 12 Cent, kostet aber 600€ in der Anschaffung. Erst nach über 23 Jahren würde sich der neue A+++-Kühlschrank amortisieren. Dumm nur, dass die Garantie nach 2 Jahren rum ist und ab da ist es ein Glücksspiel, ob diese Rechnung wirklich irgendwann aufgeht.
Mit anderen Worten: Wenn die Leistung reicht, lohnt sich das Effizienzargument im Desktopbereich nicht, um ein Upgrade zu rechtfertigen.
Disclaimer: Das kann 2040 ganz anders aussehen, wenn Strom mal 2 Euro pro kWh kostet.
Oder aber wir sind dann energietechnisch so weit, dass Strom nix mehr kostet. Dann ist es wiederum völlig egal.
Ein neuer A+++ schafft die gleiche Kühlleistung am Tag bei 12 Cent, kostet aber 600€ in der Anschaffung. Erst nach über 23 Jahren würde sich der neue A+++-Kühlschrank amortisieren. Dumm nur, dass die Garantie nach 2 Jahren rum ist und ab da ist es ein Glücksspiel, ob diese Rechnung wirklich irgendwann aufgeht.
Mit anderen Worten: Wenn die Leistung reicht, lohnt sich das Effizienzargument im Desktopbereich nicht, um ein Upgrade zu rechtfertigen.
Disclaimer: Das kann 2040 ganz anders aussehen, wenn Strom mal 2 Euro pro kWh kostet.
Oder aber wir sind dann energietechnisch so weit, dass Strom nix mehr kostet. Dann ist es wiederum völlig egal.
BlackhandTV
Commander
- Registriert
- Apr. 2015
- Beiträge
- 2.231
Komisch bei mir kostet der günstigste Strom ~0,29 kWh laut Verivox.
Ich suche immernoch Benchmarks zum Skylake bezüglich WoW auf 4k
Ich suche immernoch Benchmarks zum Skylake bezüglich WoW auf 4k
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.755
Shadow Complex
Lt. Commander
- Registriert
- Feb. 2014
- Beiträge
- 1.380
BlackhandTV schrieb:Ich suche immernoch Benchmarks zum Skylake bezüglich WoW auf 4k
Bei WOW in 4k wird die Performance hauptsächlich von der Grafikkarte bestimmt.
Skylake ist kaum schneller als Haswell, also nimm einfach den Test:
https://www.computerbase.de/2015-07/grafikkarten-benchmarks-cs-go-dota-2-lol-wot-wow-ultra-hd/4/
Hat wenige Sekunden gedauert, den Test zu finden.
- Registriert
- Aug. 2011
- Beiträge
- 13.007
Ultrapower schrieb:DANKE AMD !!!!
Danke für eure Unfähigkeit seit Sandy Bridge (vor 4 Jahren!!) nichts konkurrenzfähiges auf den Markt zu bringen.
Eine CPU-Architektur-Entwicklung und Produktion ist eben nichts, was man innerhalb von 12 Monaten komplett neu gestaltet und dann in den Markt einführt. AMD hatte sich mit dem Phenom-II-Nachfolger FX im Oktober 2011 verrannt (auch wenn ein paar gute Grundzüge aus der DEC/Digital Alpha-Architektur drin waren). Die Nachbesserungen mit Piledriver (Ende 2012), Steamroller und Excavator konnten nichts mehr retten. Immerhin soll nächstes Jahr ZEN kommen... mal schauen.
Ich mag Monopole auch nicht, weshalb ich mir 2009 ein reines AMD-System aufgebaut hatte: Phenom-II CPU und Radeon-Grafikkarte. Allerdings war damit zuletzt kein Blumentopf mehr zu gewinnen, gerade bei Bild-/Videobearbeitung, weshalb ich dann auf einen i7-5930k umgestiegen bin. Bei den Grafikkarten blieb ich jedoch AMD treu und verbaute 2 x eine R9 290.
BlackhandTV schrieb:Komisch bei mir kostet der günstigste Strom ~0,29 kWh laut Verivox.
Ich suche immernoch Benchmarks zum Skylake bezüglich WoW auf 4k
letztes jahr war ich bei BEV (bayerische energieversorgung) und habe letzte woche den verrechnungsscheck über 218€ eingelöst. daher kam ich auf effektiv 19cent/kWh. in diesem jahr dank weiterer preissteigerungen (danke EEG-Umlage!) bin ich bei vattenfall und habe den bonus bereits im vorfeld erhalten. lande aber bei 22 cent/kWh.
alles dank verivox natürlich. mehr habe ich noch nie für strom gezahlt. am geilsten waren die alten flexstromzeiten, wo teilweise wirklich 15-17 cent drin waren!
Zuletzt bearbeitet:
BlackhandTV
Commander
- Registriert
- Apr. 2015
- Beiträge
- 2.231
Shadow Complex schrieb:Bei WOW in 4k wird die Performance hauptsächlich von der Grafikkarte bestimmt.
Skylake ist kaum schneller als Haswell, also nimm einfach den Test:
https://www.computerbase.de/2015-07/grafikkarten-benchmarks-cs-go-dota-2-lol-wot-wow-ultra-hd/4/
Hat wenige Sekunden gedauert, den Test zu finden.
WoW ist aber allgemein mehr CPU-Lastig als Grafikkarten-Lastig und eine 980 ti im SLI bringt im Vergleich zu einer einzelnen warscheinlich 0,1% mehr Leistung laut Techpowerup.com bei WoW MoP, eine 980 ti hab ich schon, also bringt mir der Test den du gelinkt hast leider! nichts und natürlich kannte ich schon, fande es super das WoW mal eingebaut wurde !!
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.755
@BlackhandTV
Wobei immer noch nicht geklärt wurde wie gebencht wurde Ergo ist es für die Katz.
Wie aber gesagt wurde bei 4K spielt eher die Grafikkarte eine Rolle als die CPU.
Wobei immer noch nicht geklärt wurde wie gebencht wurde Ergo ist es für die Katz.
Wie aber gesagt wurde bei 4K spielt eher die Grafikkarte eine Rolle als die CPU.
Chesterfield
Fleet Admiral
- Registriert
- Sep. 2011
- Beiträge
- 10.756
Holzmichi schrieb:Ich zocke fast nur auf dem PC, d. h. die Kiste läuft eigentlich ständig unter Last.
gerade dann macht es doch sinn das du deine cpu soweit es geht übertaktest. also sinn macht OC nur wenn man die leistung auch abruft
Nureinnickname!
Commodore
- Registriert
- Jan. 2010
- Beiträge
- 4.188
Ultrapower schrieb:DANKE AMD !!!!
Danke für eure Unfähigkeit seit Sandy Bridge (vor 4 Jahren!!) nichts konkurrenzfähiges auf den Markt zu bringen.
Naja eig ist ja der Saftladen Intel dran schuld, aber ist ja auch egal. AMD ist Tod. Lang lebe Intel.
Ähnliche Themen
- Antworten
- 49
- Aufrufe
- 10.609
- Antworten
- 184
- Aufrufe
- 44.672