News „Haswell“-Prozessoren in China bereits im Handel erhältlich

Du hast offensichtlich 0 Ahnung und dir fehlt jegliches Verständnis zu argumentieren, sieht man ja an deiner Reaktion.
 
@Elkinator
Du hast in diesem Thread genug von deiner Kompetenz gezeigt. Mehr ist denke ich wirklich nicht nötig.
 
ich hab eben ahnung, ist ja nicht meine schuld wenn ihr vieles nicht versteht.
auch lustig das mir hier immer irgendwelche aussagen in den mund gelegt werden...

aber echt geil das die intel fans immer durchdrehen wenn man die GPU von intel kritisch betrachtet und nicht alles schönredet...

und bald werden auch sie träumer, die glauben das der L4 cache so viel bringt die wahrheit erfahren!

wo ist den die große architekturverbesserung wenn seit sandybridge die GPU fast ausschließlich durch das hinzufügen der EUs schneller wurde?
bei AMD und Nvidia hat sich eben auch die architektur verbessert, will das hier echt jemand abstreiten?

und nur weil man jahrelang VLIW5 hatte bedeutet das nicht das die architektur nicht verbessert wurde, das eine hat mit dem anderem genau nichts zu tun...

VLIW ist eine befehlssatzarchitektur wie CISC, RISC, EPIC,..., einige scheinen das wohl hier nicht zu wissen?
sonst könnte ich auch behaupten das sich bei x86 CPUs nichts verbessert hat, ist ja auch seit jahren CISC...

nur wegen VLIW behaupten das die architektur bei AMD bis GCN nicht verbessert wurde ist also schwachsinn...
 
Zuletzt bearbeitet:
Die stärkste Innovation ist ja nicht die leistung, sondern die Idle-Leistungsaufnahme die so niedrig sein soll, dass sie unter der ATX-Spezifikation liegt und viele (vor allem groß dimensionierte) Netzteile vor unlösbare Probleme stellt.

Ich warte auf den ersten Strom-verschwendungs-Stecker, mit dem man diese CPUs auf den alten NTs laufen lassen kann.
 
naja, im normalem desktopbetrieb kommt die CPU eh nie in diesen modus, da hat man kein problem.
meine rechner gehen nie in standby, mir könnte das mit dem netzteil herzlich egal sein.

und bwei tablets und notebooks bekommt man ja eh ein passendes netzteil dazu, die panikmache deswegen war echt übertrieben.
zur not dreht man im UEFI C6/C7 ab, ein neues netzteil rentiert sich bei 1-2W mehrverbrauch im standby nicht.

bei mobilen geräten ist eben jedet watt wichtig, wegen der akkulaufzeit, bei den stromkosten merkt man davon kaum etwas.
 
kann jemand bestätigen ob die wirklich ab nächster woche in deutschland vorbestellbar sein werden?
 
Ja, Intel kann das :D

Spaß bei Seite auch wenn eine recht hohe Nachfrage da sein wird, so bezweifel ich das nicht jeder gleich einen haben kann ergo man muss nicht vorbestellen.
 
Elkinator schrieb:
ja, mit meiner sig meine ich genau leute wie dich;)

ist ja nicht meine schuld das 30-40% mehr leistung bei 25% merh EUs und etwas mehr takt nicht viel sind

Sicher, dass du mit deiner Signatur nicht von dir selbst sprichst?

30-40% bei annähernd gleichem Verbrauch egal unter welchen anderen Umständen sind also deiner Meinung nach nicht viel? :lol:

Weiterhin ist doch außerdem sehr früh bekannt gewesen, dass es sich auch bei Haswell größtenteils um Optimierung handelt. Ob einem das gefällt ist etwas anderes.


Elkinator schrieb:
ich hab eben ahnung, ist ja nicht meine schuld wenn ihr vieles nicht versteht.

Immerhin einer, der das behauptet.

Elkinator schrieb:
aber echt geil das die intel fans immer durchdrehen wenn man die GPU von intel kritisch betrachtet und nicht alles schönredet...

Was hängst du dich eigentlich so an der GPU auf? Wem die integrierte GPU von Intel nicht reicht kann ja zu AMD greifen. Gerade im HTPC bereich wäre das eventuell eine Alternative. Und trotzdem: Ich nutze in meinem HTPC auch eine HD4000, reicht dicke.
Für alles andere außer Office interessiert die interne Grafik doch sowieso keinen Menschen. Weder bei AMD noch bei Intel, denn da wird auf eigenständige Grafikkarten gesetzt. Auch bei AMD :rolleyes:

Greenmaxn schrieb:
Hm, mein i5-2500K@4GHz arbeitet noch fleißig und zuverlässig. Sehe keinen Grund, den jetzt schon auszuwechseln.

Kann ich von meinem i7-860 @ 3,8GHz auch behaupten. Wird sicher noch nicht in Rente geschickt. Das was ich durch den evtl. verminderten Stromverbrauch der Nachfolgegenerationen spare hol ich so schnell nicht rein. :p


Trotzdem schön zu sehen, dass es langsam anläuft!
 
Zuletzt bearbeitet:
Also zu Hause hatte ich eine Zeit lang meine HD 3000 im Einsatz und konnte damit ohne Probleme Diablo 3 auf 1920x1200 spielen. Mit der HD 4000, welche ich im Geschäfft habe, hatte ich es auch mal getestet und es lief schon ein wenig besser in gleicher Auflösung. Klar ich habe natürlich alles auf Low bzw- Low/Med gehabt, aber es lief und man konnte es spielen.
 
Jaytie schrieb:
30-40% bei annähernd gleichem Verbrauch egal unter welchen anderen Umständen sind also deiner Meinung nach nicht viel?
daran erkenne ich nur das du eben auch keine ahnung hast was du schreibst...

woher hast du bitte das die GPu bei haswell nicht mehr strom verbraucht?
wenn die kerne sparsamer sind kann sich da bei gleichem verbrauch eben eine größere GPU ausgehen...
 
Elkinator schrieb:
woher hast du bitte das die GPu bei haswell nicht mehr strom verbraucht?

Nun ja, da die Struktur und fertigung immer besser werden kann man davon ausgehen. Ob die GPU nun 10 Watt und die CPU 60 Watt benötigt ist recht egal. Haswell Strom Vebrauch kann man eh nur schwer vergleichen weil noch mehr auf die CPU drauf gekommen ist im vergleich zu Sandy oder Ivy.
 
man kann nichtmal die TDP von AMD und Intel vergleichen, weil beide hersteller das anders ermitteln.

bei intel ist die TDP nur ca. 2/3 last.
 
TDP hat 0 mit Stromverbrauch zu tun... Die TDP gibt lediglich an wie viel Watt der Kühler abführen muss um ein überhitzen zu vermeiden.
 
Elkinator schrieb:
woher hast du bitte das die GPu bei haswell nicht mehr strom verbraucht?
wenn die kerne sparsamer sind kann sich da bei gleichem verbrauch eben eine größere GPU ausgehen...

ich rede vom Verbrauch des gesamten Prozessors. Das spielt (für mich) die Hauptrolle. Welcher Part jetzt prozentual wie viel verbraucht ist eine andere Sache.
 
Man kann den Stromverbrauch aber messen, was ich ausführlich und mit einem hochwertigen Messgerät gemacht habe, was ich beruflich besitze.
Wer behauptet, das bei Intel die TDP nur ca. 2/3 Last ist behauptete schlicht etwas falsches und gehört gesteinigt wegen Verbreitung falscher Tatsachen. Die TDP wird unter Vollast bei CPU Stock nicht ganz erreicht.
Die HD4000 mit den letzten Treibern ist absolut spieletauglich, was ich natürlich auch selber getestet habe.
Höre doch bitte auf den Intel Kram permanent schlecht zu reden weil es langweilt so langsam solche unqualifizierten Kommentare zu lesen, die auch nicht wirklich helfen.
 
Jo also laut z.B. CoreTemp verbrauche ich rund 88 Watt mit meinem 2600K+HD3000, wie das nun aber in der realität aussieht ka.
 
es ist schon lange bekannt das intel bei der TDP 2/3 last angibt...

das nicht jede CPU die TDP ausreizt ist mir schon klar, aber die topmodelle verbrauchen unter volllast eben gerne auch mehr als die angegebenen 77W...
 
@Elkinator

Hatte ich noch nie ohne OC... Wie gesagt die TDP hat nichts über den Stromverbrauch zu sagen. Die TDP sagt einfach nur aus was für ein Kühler zum Einsatz kommen muss.

Wie gesagt ich habe das alte Top-Modell 2600K und verbrauche rund ~88 WAtt mit Prime und Furemark.
 
Ich denke alle sind sich einig, dass TDP-Angaben genausowenig reale Werte widerspiegeln, wie z.B. die ausgelesenen Werte von integrierten Temperatursensoren. Und erst recht kann man solche Angaben nicht zum Vergleich von Produkten unterschiedlicher Hersteller heranziehen.

Außerdem sind moderne CPUs/APUs/SoCs so komplex, dass man sowieso keine einzelne Zahl mehr als den maximalen Verbrauchswert angeben kann. Es kommt einfach immer auf den konkreten Anwendungsfall an. Es wird in der Praxis niemals vorkommen, das wirklich alle Teile einer CPU (Integer- und Floatingpointeinheiten, Caches, iGPU, Speichercontroller, PCIe-Controller usw.) gleichzeitig komplett ausgelastet sind und es wäre unsinning, das als Nennverbrauch anzugeben und Kühlung und Spannungsversorgung danach auszulegen.

Es ist ganz ähnlich, wie die Frage, wie viele "echte" Cores eine CPU denn eigentlich hat. Die Grenzen sind da durch mehr oder weniger stark geteilte Ressourcen längst verschwommen.
 
Zurück
Oben