Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News „Haswell“-Prozessoren in China bereits im Handel erhältlich
- Ersteller MichaG
- Erstellt am
- Zur News: „Haswell“-Prozessoren in China bereits im Handel erhältlich
Elkinator
Banned
- Registriert
- Aug. 2012
- Beiträge
- 1.734
ich hab eben ahnung, ist ja nicht meine schuld wenn ihr vieles nicht versteht.
auch lustig das mir hier immer irgendwelche aussagen in den mund gelegt werden...
aber echt geil das die intel fans immer durchdrehen wenn man die GPU von intel kritisch betrachtet und nicht alles schönredet...
und bald werden auch sie träumer, die glauben das der L4 cache so viel bringt die wahrheit erfahren!
wo ist den die große architekturverbesserung wenn seit sandybridge die GPU fast ausschließlich durch das hinzufügen der EUs schneller wurde?
bei AMD und Nvidia hat sich eben auch die architektur verbessert, will das hier echt jemand abstreiten?
und nur weil man jahrelang VLIW5 hatte bedeutet das nicht das die architektur nicht verbessert wurde, das eine hat mit dem anderem genau nichts zu tun...
VLIW ist eine befehlssatzarchitektur wie CISC, RISC, EPIC,..., einige scheinen das wohl hier nicht zu wissen?
sonst könnte ich auch behaupten das sich bei x86 CPUs nichts verbessert hat, ist ja auch seit jahren CISC...
nur wegen VLIW behaupten das die architektur bei AMD bis GCN nicht verbessert wurde ist also schwachsinn...
auch lustig das mir hier immer irgendwelche aussagen in den mund gelegt werden...
aber echt geil das die intel fans immer durchdrehen wenn man die GPU von intel kritisch betrachtet und nicht alles schönredet...
und bald werden auch sie träumer, die glauben das der L4 cache so viel bringt die wahrheit erfahren!
wo ist den die große architekturverbesserung wenn seit sandybridge die GPU fast ausschließlich durch das hinzufügen der EUs schneller wurde?
bei AMD und Nvidia hat sich eben auch die architektur verbessert, will das hier echt jemand abstreiten?
und nur weil man jahrelang VLIW5 hatte bedeutet das nicht das die architektur nicht verbessert wurde, das eine hat mit dem anderem genau nichts zu tun...
VLIW ist eine befehlssatzarchitektur wie CISC, RISC, EPIC,..., einige scheinen das wohl hier nicht zu wissen?
sonst könnte ich auch behaupten das sich bei x86 CPUs nichts verbessert hat, ist ja auch seit jahren CISC...
nur wegen VLIW behaupten das die architektur bei AMD bis GCN nicht verbessert wurde ist also schwachsinn...
Zuletzt bearbeitet:
Colonel Panic
Cadet 4th Year
- Registriert
- Mai 2012
- Beiträge
- 90
Banger schrieb:Die TDP ist ja nur wegen der Grafik hochgestuft.
Imo eher wegen der integrierten SpaWas.
SoilentGruen
Lt. Commander
- Registriert
- Mai 2011
- Beiträge
- 1.786
Die stärkste Innovation ist ja nicht die leistung, sondern die Idle-Leistungsaufnahme die so niedrig sein soll, dass sie unter der ATX-Spezifikation liegt und viele (vor allem groß dimensionierte) Netzteile vor unlösbare Probleme stellt.
Ich warte auf den ersten Strom-verschwendungs-Stecker, mit dem man diese CPUs auf den alten NTs laufen lassen kann.
Ich warte auf den ersten Strom-verschwendungs-Stecker, mit dem man diese CPUs auf den alten NTs laufen lassen kann.
Elkinator
Banned
- Registriert
- Aug. 2012
- Beiträge
- 1.734
naja, im normalem desktopbetrieb kommt die CPU eh nie in diesen modus, da hat man kein problem.
meine rechner gehen nie in standby, mir könnte das mit dem netzteil herzlich egal sein.
und bwei tablets und notebooks bekommt man ja eh ein passendes netzteil dazu, die panikmache deswegen war echt übertrieben.
zur not dreht man im UEFI C6/C7 ab, ein neues netzteil rentiert sich bei 1-2W mehrverbrauch im standby nicht.
bei mobilen geräten ist eben jedet watt wichtig, wegen der akkulaufzeit, bei den stromkosten merkt man davon kaum etwas.
meine rechner gehen nie in standby, mir könnte das mit dem netzteil herzlich egal sein.
und bwei tablets und notebooks bekommt man ja eh ein passendes netzteil dazu, die panikmache deswegen war echt übertrieben.
zur not dreht man im UEFI C6/C7 ab, ein neues netzteil rentiert sich bei 1-2W mehrverbrauch im standby nicht.
bei mobilen geräten ist eben jedet watt wichtig, wegen der akkulaufzeit, bei den stromkosten merkt man davon kaum etwas.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.833
Ja, Intel kann das
Spaß bei Seite auch wenn eine recht hohe Nachfrage da sein wird, so bezweifel ich das nicht jeder gleich einen haben kann ergo man muss nicht vorbestellen.
Spaß bei Seite auch wenn eine recht hohe Nachfrage da sein wird, so bezweifel ich das nicht jeder gleich einen haben kann ergo man muss nicht vorbestellen.
Jaytie
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 2.028
Elkinator schrieb:ja, mit meiner sig meine ich genau leute wie dich
ist ja nicht meine schuld das 30-40% mehr leistung bei 25% merh EUs und etwas mehr takt nicht viel sind
Sicher, dass du mit deiner Signatur nicht von dir selbst sprichst?
30-40% bei annähernd gleichem Verbrauch egal unter welchen anderen Umständen sind also deiner Meinung nach nicht viel?
Weiterhin ist doch außerdem sehr früh bekannt gewesen, dass es sich auch bei Haswell größtenteils um Optimierung handelt. Ob einem das gefällt ist etwas anderes.
Elkinator schrieb:ich hab eben ahnung, ist ja nicht meine schuld wenn ihr vieles nicht versteht.
Immerhin einer, der das behauptet.
Elkinator schrieb:aber echt geil das die intel fans immer durchdrehen wenn man die GPU von intel kritisch betrachtet und nicht alles schönredet...
Was hängst du dich eigentlich so an der GPU auf? Wem die integrierte GPU von Intel nicht reicht kann ja zu AMD greifen. Gerade im HTPC bereich wäre das eventuell eine Alternative. Und trotzdem: Ich nutze in meinem HTPC auch eine HD4000, reicht dicke.
Für alles andere außer Office interessiert die interne Grafik doch sowieso keinen Menschen. Weder bei AMD noch bei Intel, denn da wird auf eigenständige Grafikkarten gesetzt. Auch bei AMD
Greenmaxn schrieb:Hm, mein i5-2500K@4GHz arbeitet noch fleißig und zuverlässig. Sehe keinen Grund, den jetzt schon auszuwechseln.
Kann ich von meinem i7-860 @ 3,8GHz auch behaupten. Wird sicher noch nicht in Rente geschickt. Das was ich durch den evtl. verminderten Stromverbrauch der Nachfolgegenerationen spare hol ich so schnell nicht rein.
Trotzdem schön zu sehen, dass es langsam anläuft!
Zuletzt bearbeitet:
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.833
Also zu Hause hatte ich eine Zeit lang meine HD 3000 im Einsatz und konnte damit ohne Probleme Diablo 3 auf 1920x1200 spielen. Mit der HD 4000, welche ich im Geschäfft habe, hatte ich es auch mal getestet und es lief schon ein wenig besser in gleicher Auflösung. Klar ich habe natürlich alles auf Low bzw- Low/Med gehabt, aber es lief und man konnte es spielen.
Elkinator
Banned
- Registriert
- Aug. 2012
- Beiträge
- 1.734
daran erkenne ich nur das du eben auch keine ahnung hast was du schreibst...Jaytie schrieb:30-40% bei annähernd gleichem Verbrauch egal unter welchen anderen Umständen sind also deiner Meinung nach nicht viel?
woher hast du bitte das die GPu bei haswell nicht mehr strom verbraucht?
wenn die kerne sparsamer sind kann sich da bei gleichem verbrauch eben eine größere GPU ausgehen...
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.833
Elkinator schrieb:woher hast du bitte das die GPu bei haswell nicht mehr strom verbraucht?
Nun ja, da die Struktur und fertigung immer besser werden kann man davon ausgehen. Ob die GPU nun 10 Watt und die CPU 60 Watt benötigt ist recht egal. Haswell Strom Vebrauch kann man eh nur schwer vergleichen weil noch mehr auf die CPU drauf gekommen ist im vergleich zu Sandy oder Ivy.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.833
TDP hat 0 mit Stromverbrauch zu tun... Die TDP gibt lediglich an wie viel Watt der Kühler abführen muss um ein überhitzen zu vermeiden.
Jaytie
Lt. Commander
- Registriert
- Nov. 2007
- Beiträge
- 2.028
Elkinator schrieb:woher hast du bitte das die GPu bei haswell nicht mehr strom verbraucht?
wenn die kerne sparsamer sind kann sich da bei gleichem verbrauch eben eine größere GPU ausgehen...
ich rede vom Verbrauch des gesamten Prozessors. Das spielt (für mich) die Hauptrolle. Welcher Part jetzt prozentual wie viel verbraucht ist eine andere Sache.
oldmanhunting
Admiral
- Registriert
- Nov. 2008
- Beiträge
- 9.457
Man kann den Stromverbrauch aber messen, was ich ausführlich und mit einem hochwertigen Messgerät gemacht habe, was ich beruflich besitze.
Wer behauptet, das bei Intel die TDP nur ca. 2/3 Last ist behauptete schlicht etwas falsches und gehört gesteinigt wegen Verbreitung falscher Tatsachen. Die TDP wird unter Vollast bei CPU Stock nicht ganz erreicht.
Die HD4000 mit den letzten Treibern ist absolut spieletauglich, was ich natürlich auch selber getestet habe.
Höre doch bitte auf den Intel Kram permanent schlecht zu reden weil es langweilt so langsam solche unqualifizierten Kommentare zu lesen, die auch nicht wirklich helfen.
Wer behauptet, das bei Intel die TDP nur ca. 2/3 Last ist behauptete schlicht etwas falsches und gehört gesteinigt wegen Verbreitung falscher Tatsachen. Die TDP wird unter Vollast bei CPU Stock nicht ganz erreicht.
Die HD4000 mit den letzten Treibern ist absolut spieletauglich, was ich natürlich auch selber getestet habe.
Höre doch bitte auf den Intel Kram permanent schlecht zu reden weil es langweilt so langsam solche unqualifizierten Kommentare zu lesen, die auch nicht wirklich helfen.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.833
Jo also laut z.B. CoreTemp verbrauche ich rund 88 Watt mit meinem 2600K+HD3000, wie das nun aber in der realität aussieht ka.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.833
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Ich denke alle sind sich einig, dass TDP-Angaben genausowenig reale Werte widerspiegeln, wie z.B. die ausgelesenen Werte von integrierten Temperatursensoren. Und erst recht kann man solche Angaben nicht zum Vergleich von Produkten unterschiedlicher Hersteller heranziehen.
Außerdem sind moderne CPUs/APUs/SoCs so komplex, dass man sowieso keine einzelne Zahl mehr als den maximalen Verbrauchswert angeben kann. Es kommt einfach immer auf den konkreten Anwendungsfall an. Es wird in der Praxis niemals vorkommen, das wirklich alle Teile einer CPU (Integer- und Floatingpointeinheiten, Caches, iGPU, Speichercontroller, PCIe-Controller usw.) gleichzeitig komplett ausgelastet sind und es wäre unsinning, das als Nennverbrauch anzugeben und Kühlung und Spannungsversorgung danach auszulegen.
Es ist ganz ähnlich, wie die Frage, wie viele "echte" Cores eine CPU denn eigentlich hat. Die Grenzen sind da durch mehr oder weniger stark geteilte Ressourcen längst verschwommen.
Außerdem sind moderne CPUs/APUs/SoCs so komplex, dass man sowieso keine einzelne Zahl mehr als den maximalen Verbrauchswert angeben kann. Es kommt einfach immer auf den konkreten Anwendungsfall an. Es wird in der Praxis niemals vorkommen, das wirklich alle Teile einer CPU (Integer- und Floatingpointeinheiten, Caches, iGPU, Speichercontroller, PCIe-Controller usw.) gleichzeitig komplett ausgelastet sind und es wäre unsinning, das als Nennverbrauch anzugeben und Kühlung und Spannungsversorgung danach auszulegen.
Es ist ganz ähnlich, wie die Frage, wie viele "echte" Cores eine CPU denn eigentlich hat. Die Grenzen sind da durch mehr oder weniger stark geteilte Ressourcen längst verschwommen.
Ähnliche Themen
- Antworten
- 1.553
- Aufrufe
- 124.727
- Antworten
- 108
- Aufrufe
- 13.407
- Antworten
- 124
- Aufrufe
- 23.730
- Antworten
- 46
- Aufrufe
- 10.981
- Antworten
- 107
- Aufrufe
- 22.192