News IDF 2012: „Haswell" im „Heaven-Benchmark" mit 7,5 Watt

Wurde das hier schon erwähnt:
Golem schrieb:
Das erklärt auch, warum David Perlmutter einen Haswell-Prototyp demonstrieren konnte, der mit dem Benchmark Heaven nur 8 Watt Leistung aufnahm: Heaven erzeugt nur sehr geringe CPU-Last. Vor allem die GPU und der Speichercontroller - weil er ja die Zugriffe auf das Shared Memory steuern muss - dürften dabei aktiv gewesen sein, die CPU-Cores meistens nicht. Das war auch bei Ivy Bridge noch nicht möglich.

http://www.golem.de/news/neue-archi...rontend-und-einer-neuen-marke-1209-94491.html

Das Relativiert ziemlich viel wenn die Hälfte des Prozessor quasi nichts macht und die andere Hälfte die 8 Watt an Strom verbraucht.
 
Das heißt ja nicht, dass der Verbrauch nicht tatsächlich im Bereich um die 17W gelegen hat. Das wollen wir doch mal klarstellen. Ein fader Beigeschmack bleibt, ja. Wenn man den Messungen, die Yourfu mit seinem i3 hier vorhin gepostet hat, allerdings glaubt, wird der Wert schon ungefähr passen mit den 17W, weil das Ding am Limit läuft und die TDP ganz ausschöpft.

Trotzdem wäre es besser gewesen, wenn Intel gemessen hätte.
 
@phiber66

die Preise sind in sofern Mumpitz, dass es um den günstigsten i3 ging, der bei 117$ startet und nicht wie bei deinen zwei geposteten i3 ab 134$. Das macht nen Unterschied da du meine genannten knapp 100€ mit "träum weiter" abgetan hattest.
In GH liegt er noch knapp über 100€ (schwachem € und Neuheit sei dank), der $ Einstiegspreis für i3s ist dennoch seit 3 Jahren unverändert.

Was CB vorgestellt hat weiß ich so nicht auswendig, aber ein Blick in die Daten des i3 3220 zeigt dir dass der Preis bei 117$ liegt, genau wie bei i3 2100 und i3 530....

Wie wärs wenn du woanders trollst...

btw.

Ich finds etwas erstaunlich, dass bereits der Pentium lieferbar ist.

http://geizhals.de/832988

@Floletni

gut das war nicht anders zu erwarten. Wie man sieht darf die GPU bei Haswells 10W TDP CPU nahezu allein die TDP ausschöpfen, macht ja auch Sinn. Dass wenig CPU Last anliegt ist fast unabdingbar wenn die GPU eine so hohe Leistung / W an den Tag legt. Klar dass diese sicher 90% der gemessenen Leistungsaufnahme auf ihre Kappe nimmt.

Edit:
Das ist bei den Trinitys ja auch nicht anders. Mit rein GPU Last wird man auch recht nahe der TDP agieren und dafür Leistung satt bekommen. Würde man einen Grafikbench zusammen mit Prime95 laufen lassen würden die GPU Leistung sicher einknicken
 
Zuletzt bearbeitet:
Athlonscout schrieb:
Peinlich, wie manch Intel Jünger solchen Boardies die den linearen Verbrauch anzweifelten bittere Nörgelei vorwerfen und Intels Lügenmarketing stets aufs bitterste für wahre Münze nehmen!
Nicht nur das.
Eine GPU-Performnace/Effizienz anhand eines Tesselation-Tests zu zeigen ist sehr peinlich und hat Null Aussage-Kraft.

Nachdem Intel laut ihren Slides die meisten Fixed-Funktions an ihrer iGPU-Front-End verdoppelt hat, würde es nicht wundern, wenn die Tesselation-Unit auch verdoppelt wurde. Da ist es dann keineswegs verwunderlich, wenn die selben "Performance" mit halben restlichen Einheiten und somit halben Stromverbrauch schaffen würde.

Was mich generell an der Präsentation der 10W-TDP und den ganzen Stromspartechniken stört ist, dass sie keine Alltagsrelevanten Zahlen (Akku-Zeiten @ Idle & Teillasten & Last) veröffentlichen, so wie es Intel früher machten und AMD heute macht. So bleibt nur die Phantasie, wie gut die Verbesserungen dann sein könnten.
 
@aylano

war Tesselation nicht sogar deaktiviert?

So war einerseits Tessallation deaktiviert, andererseits lief die Software nur im Demo-, nicht aber im Benchmark-Modus.

steht zumindest hier in der CB News.

Ich denke mit dieser Demo kann man mehr anfangen als mit dubiosen Laufzeit Aussagen. Was nützen Laufzeit Aussagen wenn die CPU noch ca 1% des Plattform Verbrauchs ausmacht? Man sieht ja wie Display etc heute zigfach mehr brauchen und Geräte mit gleichem Akku und gleicher CPU extrem unterschiedliche Laufzeiten vorweisen ...

Intel machte lediglich die Aussage dass der Idle Verbrauch der CPU um bis 95% sinkt. Das würde etwa von 2 W auf 0,1W bedeuten.

So gesehen finde ich AMDs Aussagen bezüglich Laufzeiten bzw generell Aussagen dahingehend relativ fürn Popo. Da hängt zuviel anderes Zeugs dran.

Edit:

(bei Windows 8 macht es ja teils schon 20% Laufzeit hin oder her aus wenn man einen 3rd-party Antivirus installiert oder nicht, da der eingebaute wohl dauerhaft etwas Last erzeugt...). genauso schwanken zb die Messungen des UX31A trotz identischem Modell von 6,5h bis 11h weil die Methodik geringfügig abweicht.

Edit2:

wirkliche prozentuelle Aussagen zur generellen GPU Leistung kann man aus der Intelschen Demo nicht treffen, das stimmt. Viel mehr gehts auch darum zu zeigen wie man bei fast halbierter TDP mehr GPU Leistung vorweisen kann. Aussagekraft genug und im Rahmen dieser Demo auch absolut in Ordnung.

Wer bei einem Hersteller-Event wie der IDF alles auf bare Münze nimmt (ums mal mit Athlonscout's Wörtern zu sagen), dem ist eh nicht zu helfen. Eine Tendenz ist dennoch erkennbar und mehr gibt so eine Demo auch nicht her.
 
Zuletzt bearbeitet:
Mr.Seymour Buds schrieb:
Trauen keinen Präsentationen/Tabellen/Benchmarks/Wattmetern, die Du nicht selbst gefälscht hast.


Patrick schrieb:
Die dargestellten 17 Watt hätten so nicht den Tatsachen entsprochen.


:evillol:


Ich sags ja, tricksen, täuschen, tarnen. Die Darstellung war "nicht ganz richtig"...

Das gute alte Intel Marketing wollte mal wieder es aussehen lassen "als ob"...

Jetzt heisst es abwarten, bis die ersten Serien CPUs zum Benchen da sind. Allen Intel Jüngern, die hier im Thread voll reingefallen sind viel Spass mit weiteren Wahrheiten Made by Intel Marketing! :D
 
noch n bisschen was zur GPU Leistung:

http://www.heise.de/newsticker/meld...riert-Grafikleistung-von-Haswell-1705692.html

...Modern Warfare 3 in Aktion gezeigt: Das Spiel lief flüssig in 1080p.
Zu den gewählten Grafikeinstellungen hielt sich Intel bedeckt und gab außer der Full-HD-Auflösung nur zu Protokoll, dass der Detaillevel auf höher als Medium eingestellt war...

Mir fehlen zwar HD4000 Vergleichswerte aber in Full HD auf Medium + is doch eig schwer in Ordnung. Für ne Intel GPU.
 
Wie gesagt, es gibt Usertests, bei denen die TDP in diesem Fall voll ausgeschöpft wird. So falsch ist der Wert also sicher nicht, nur nicht per Messung ermittelt.
 
Eins muss man immernoch bedenken , der Heaven Test auf dem Ivy Bridge mit der dargestellten 17,000 läuft genauso flüssig ab wie auf den Haswell , von daher könnte es sich um einen 35W Ivy Bridge gehandelt haben der mit geschätzten 17W arbeitet, weil es nicht so explizit messbar gewesen ist.

Hätte man auf dem Ivy Bridge Notebook AIDA64 laufen lassen hätte man eine ungefähre Power Messung der CPU trotzdem bekommen können, AIDA64 -> Sensoren -> Leistungswerte -> CPU , da pendelt ein Allandale zwischen 5W und 24W je nach Last.

Erst im nächsten Heaven Test Video ohne Power Messung ruckelt und zuckelt das Bild im Ivy Bridge , hier könnte ein 17W TDP Typ zum Einsatz gekommen sein.
 
Ne, Haswell läuft etwas flüssiger im Video mit Messung, das sieht man doch, man muss nur mal genauer hinschauen. 17W ist die TDP, das war kein 35W Part:

Lediglich das Haswell-System sei gemessen worden und die 17 Watt, welche der TDP der Ivy-Bridge-CPU entsprechen, seien lediglich als Referenzwert angegeben.

Also jetzt wird es wirklich abstrus, was hier gemutmaßt wird.
 
Krautmaster schrieb:
Mir fehlen zwar HD4000 Vergleichswerte aber in Full HD auf Medium + is doch eig schwer in Ordnung. Für ne Intel GPU.

Mit ner HD4000/Core i7-3820QM kommt man bei 1366x768 (Normal, all on, SSAO: Low) auf 47,9 fps. Somit würde man bei 1920x1080 auf 25-30 fps kommen.
 
Der Marketingabteilung von Intel hätte ich da aber mehr zugetraut als dieses Trauerspiel. Dann sollten sie lieber garkeine Leistungsaufnahme zeigen. Bunte Bildchen und Diagramme reichen doch auch meist dafür aus, um die meisten Leute zu beeindrucken oder zu blenden. Egal was auf ihnen steht.
 
Krautmaster schrieb:
@aylano

war Tesselation nicht sogar deaktiviert?
Und was soll dann ein Tesselation-Bench mit deaktivierten Tesselation dann über Grafik aussagen? Vom Täuschungs-Marketingsprinzip erinnert das an Nvidias-Fermi, wobei ich nicht von einem schlechten zukünftigen iGPU ausgehe.

Und von wo soll dann die enorme Effizienzsteigerung kommen???

Intel sagt doch selber, dass das Front-End quasi dem Sandy-Bridge mit fast überall doppelten Fixed-Funktion-Einheiten in der Front-End & Co entspricht. Also kann es somit nicht Effizienz-Steigerungen durch eine neue GPU-Architektur entstanden sein.
Somit gibts aus meiner Sicht momemtan nur 2 Möglichkeiten wie Intel bei diesem Test die doppelte Effizienz erreichen kann.
1) Durch die Verdopplung bestimmter Einheiten im Front-End die damit für eine gleiche Performance nur mehr halbe Ececution-Einheiten benötigt. (Was immer auch jetzt gemessen wurde)

2) Deutliche Spannungsssenkung die durch 22nm Möglich wurde und erst jetzt genutzt wird. Nicht unüblich, da bei ULV-CPUs immer Spannungssenkungen stattfinden.

Dass ein 10W-TDP-CPU weniger als 10Watt verbraucht, braucht man auch nicht mit nichtsagenden Tests zeigen. Das kann man auch in einem Satz erklären.
(Mit Bilder und Videos kam man grundsätzlich die Leute am einfachsten Täuschen)

Aber der Test zeigt halt sehr schön, wie Extrem Intels Turbo-Modus ist und allein die iGPU den gangen "CPU" bzw. APU-TDP-Rahmen ausnutzen. Aber dieser Zustand ist halt nicht Praxistauglich, sodass Intels iGPUs-Benches in den syntetischen Tests sehr schön aussehen und in dem Normalo-Using halt ganz anders.

Aus meiner Sicht sind nur die 10W-TDP die echten ULV-CPUs, die Intel gutseidank wieder einführt. Für mich entsprach ein 17W-TDP nie ein ULV-CPUs. Zwar entsprachen die 17W-TDP die zusammenzählung von 10W-TDP-CPU und 7W-TDP-Northbridge, aber da unter Last die TDP von Northbridge nie voll ausgenutzt wurde, konnte die CPU im Turbo-Modus einen Verbrauch auf bis zu 15W erreichen.

Damit wurden 50% mehr CPU-Performance erreicht oder 30% geringere CPU-Last-Akku-Zeiten. Deshalb sind die Akku-Zeiten von Ultrabook von 2-3 Stunden auch nicht gerade berauschend. Mit den 10W-TDP-CPUs geht man endlich wieder in alten Akku-Zeiten zurück, die man mit 5,5 W-TDP oder 10 W-TDP erreichte. Auch wenn die CPU-Performance deutlich unter den 17W-TDP-CPUs (Core i5) sein mag. Aber für ultramobile Notebooks (13,3", 9 Stunden Akku-Zeit, < 1,0 kg) würde eine von 17W-TDP reduzierte CPU-Performance sicher noch locker reichen.


Ich denke mit dieser Demo kann man mehr anfangen als mit dubiosen Laufzeit Aussagen. Was nützen Laufzeit Aussagen wenn die CPU noch ca 1% des Plattform Verbrauchs ausmacht? Man sieht ja wie Display etc heute zigfach mehr brauchen und Geräte mit gleichem Akku und gleicher CPU extrem unterschiedliche Laufzeiten vorweisen ...

Intel machte lediglich die Aussage dass der Idle Verbrauch der CPU um bis 95% sinkt. Das würde etwa von 2 W auf 0,1W bedeuten.

So gesehen finde ich AMDs Aussagen bezüglich Laufzeiten bzw generell Aussagen dahingehend relativ fürn Popo. Da hängt zuviel anderes Zeugs dran.
Dir muss man halt erklären, dass bei Akku-Zeiten-Angaben selbstverständlich der Display & Co Verbrauch von anzunehmenden Display & Co -Typen mitzuberücksichtigen ist.
Natürlich auch mit den anzunehmenden Windows (also Win8 und nicht Win10 oder WinXP)

Natürlich sind Akku-Zeiten von irgendwas und irgendwie (so wie der Heaven-Benche) nicht hilfreich.
 
Zuletzt bearbeitet:
Und von wo soll dann die enorme Effizienzsteigerung kommen???
Ich denke das fragt sich AMD auch gerade.

Schön ist doch, das Intel im Mobilen Bereich bei der iGPU zulegen kann und gleichzeitig den Verbrauch reduziert. CPU Leistung sollte ja eh reichen und an der Takt schraube will und braucht man nicht zu drehen.
 
boxleitnerb schrieb:
Wie gesagt, es gibt Usertests, bei denen die TDP in diesem Fall voll ausgeschöpft wird. So falsch ist der Wert also sicher nicht, nur nicht per Messung ermittelt.

Es gibt Usertests, wo die Benutzer Ivy Bridge mit 17W TDP am Prozessorsockel unter Spiele-Last vermessen haben? Dann bitte einmal Links, denn das interessiert mich sehr.
 
Okay, EIN Usertest, aber trotzdem ;)
Nicht am Prozessorsockel natürlich, das kann man als Privatmann ja praktisch nicht machen. Aus dem 3DC:

Ein paar Zahlen: Vostro 3360 mit i5-3317U (DDR3 1600 DC) gemessen am NT:

Leerlauf, minimale Helligkeit, Wifi etc. deaktiviert: ~7,6W
Leerlauf, maximale Helligkeit, Wifi etc. deaktiviert: ~10,1W
Leerlauf, minimale Helligkeit, Wifi etc. deaktiviert mit Powersave Profil: ~6,9W

Unigine Benchmark, 720p, Tesslation aus, minimale Helligkeit, Wifi aus: ~31,4W
Unigine Benchmark + Prime (4T, Heat): ~32,6W
Prime (4T, Heat): ~30,2W

Ich hab ihn dann noch gebeten, mit ausgeschaltetem Display zu messen, weil ich vermutete, dass der Benchmark einen höheren Displayverbrauch bedingt:

Leerlauf, iDisplay aus (extern, 720p, VGA out), Wifi etc. deaktiviert: ~6,3W
Leerlauf, iDisplay aus, (extern, 720p, VGA out), Wifi etc. deaktiviert, Powersave Profil: ~5,9W
Uniengine, iDisplay aus (extern, 720p, VGA out), Wifi etc deaktiviert: ~30,3W

Danke an YfOrU für die Messungen.
Differenz Idle-Last also 24W. Wenn da der i3 mit seinen 17W TDP nicht am Limit läuft, dann weiß ich auch nicht...
 
Na, das ist doch mal ne Ansage. Wenn Intel den Stromverbrauch bei der iGPU um die Hälfte reduzieren kann haben die nen Riesenschritt auf die AMD iGPU aufgeholt. Hier zeigen sich die Vorteile die besten Fabs der Welt zu besitzen (Weltspitze mit Samsung zusammen). AMD darf sich warm anziehen. Und wie ich schonmal schrieb, AMD ist in Zugzwang, ganz bestimmt nicht Intel.
 
Zuletzt bearbeitet:
@aylano

dein ganzer Post gleicht einem armseligen Versuch Innovation schlecht zu reden weil sie aus einem Haus kommt welches dir nicht passt, in dem Fall Intel.

aylano schrieb:
Und was soll dann ein Tesselation-Bench mit deaktivierten Tesselation dann über Grafik aussagen? Vom Täuschungs-Marketingsprinzip erinnert das an Nvidias-Fermi, wobei ich nicht von einem schlechten zukünftigen iGPU ausgehe.

=>

aylano schrieb:
Nicht nur das.
Eine GPU-Performnace/Effizienz anhand eines Tesselation-Tests zu zeigen ist sehr peinlich und hat Null Aussage-Kraft.

Gerade eben behauptest du noch dass ein Tesselationsbench keine Aussagekraft (weil du offensichtlich nicht die News gelesen hast sondern nur flamen willst), jetzt ist der Heaven Benchmark (mit deaktivierter Tesselation) für Grafikleistung offensichtlich "fürn Arsch" weils einfach so sein muss.

Jetzt noch vergleiche zu Nvidias Fermi setzen, die offensichtlich von hoher Tessellationsleistung profitierte, krönt das ganze nur. Irgendwas läuft da falsch mit dir...

Die restlichen Absätze setzen sich aus einem Haufen Quark zusammen der offensichtlich darstellen soll wieso der unbrauchbare Heaven Benchmark auf Haswell schneller läuft als auf einer HD4000 des 17W Ivy Bridge o.O.

Wo steht eigentlich was von doppelter Effizienz? Wie schon mehrfach geschrieben geht es schlicht darum zu zeigen dass ein GT3 in einem 10W Haswell noch mehr GPU Dampf hat als ein Ivy Bridge ULV Modell. Was die News da reininterpretieren steht auf einem vollkommen anderen Blatt.

Intel wird kaum in gleicher 22nm mal eben die Transitoreffizienz verdoppelt haben, offensichtlich besitzt die GT3 natürlich mehr Shader was sie natürlich schneller macht. In meinen Augen ist es nur überraschend dass selbst das 10W Modell, welches ich eher iGPU Leistung beschnitten erwartet hätte, schneller ist als die HD4000.

Dass ein ausgereifterer 22nm Prozess damit einhergeht ist nur logisch und sollte keine explizite Erwähnung brauchen.

Aber der Test zeigt halt sehr schön, wie Extrem Intels Turbo-Modus ist und allein die iGPU den gangen "CPU" bzw. APU-TDP-Rahmen ausnutzen. Aber dieser Zustand ist halt nicht Praxistauglich, sodass Intels iGPUs-Benches in den syntetischen Tests sehr schön aussehen und in dem Normalo-Using halt ganz anders.

Das ist genauso dreister Schwachsinn. Du stellst was, was absolut richtig und gut ist, als schlecht dar, nur weil es von Intel kommt. Wo ist den bitte das Problem wenn sowohl GPU als auch CPU voll auf TDP gehen können wenn der gegenteilige Part unausgelastet ist???
Das ist doch nur von Vorteil wenn sich nicht beide 50/50 teilen sondern bei keiner GPU Last auch mal 100% der TDP durch CPU abgegriffen werden können und unterm Strich deutlich mehr Leistung bei rauskommt.

Meinst du AMD macht das anders?? Ich hoffe nicht ^^

Aber Hauptsache mal getrollt gell...

Im Übrigen ist es praxistauglich. Aber ja, vllt sollte man die iGPU Tests in Zukunft noch mit aktiven Hintergrund Linx oder Prime95 gegenprüfen, bzw schauen wie weit die GPU Leistung einbricht wenn die CPU auch was zu tun hat. Ein sinnvoller Vorschlag den du gern hättest so äußern können...

Aus meiner Sicht sind nur die 10W-TDP die echten ULV-CPUs, die Intel gutseidank wieder einführt. Für mich entsprach ein 17W-TDP nie ein ULV-CPUs. Zwar entsprachen die 17W-TDP die zusammenzählung von 10W-TDP-CPU und 7W-TDP-Northbridge, aber da unter Last die TDP von Northbridge nie voll ausgenutzt wurde, konnte die CPU im Turbo-Modus einen Verbrauch auf bis zu 15W erreichen.

Damit wurden 50% mehr CPU-Performance erreicht oder 30% geringere CPU-Last-Akku-Zeiten. Deshalb sind die Akku-Zeiten von Ultrabook von 2-3 Stunden auch nicht gerade berauschend. Mit den 10W-TDP-CPUs geht man endlich wieder in alten Akku-Zeiten zurück, die man mit 5,5 W-TDP oder 10 W-TDP erreichte.

das einzig gute und sinnvolle an 10W TDP ULVs ist nicht die Laufzeit, die davon recht unabh ist (bis auf die Laufzeit bei Dauerlast) - das sinnvolle ist dass die Geräte noch schlanker und kompakter ausfallen können, besser zu kühlen sind. Das wars aber schon.

TDP hat nichts mit Laufzeit / Ausdauer zu tun, mal abgesehen davon kommen Ultrabooks nicht auf 2-3 Stunden, so ein Bullsh.

Intel und auch AMD müssen zunehmend die gesamte Plattform betrachten, und genau das äußert Intel auch auf der IDF. Die CPU / APU sind über die letzten Jahre sehr sparsam geworden, mittlerweile bieten aber andere Komponenten mehr Einspar-potential.

Ich versteh nicht wie man sich so vernarrt gegen eine simple Demo auf einer Hersteller eigenen Messe stellen kann, die offensichtlich den Aktionären was bieten müssen. Da mag der Heaven Bench nicht der beste Indiz für Grafikleistung sein, da braucht an auch keine FPS oder Punktangaben, da braucht man ein simples Video auf dem Haswell schneller rüberkommt als Ivy Bridge. Die Demo hätte auch vollkommen ohne Verbrauchsangaben laufen können...

Hier als AMD Jünger ums verrecken versuchen einen Strick draus zu drehen und sich nicht der Tatsache erfreuen zu können, dass es technologisch voran geht ist schlicht arm. Punkt.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@aylano

dein ganzer Post gleicht einem armseligen Versuch Innovation schlecht zu reden weil sie aus einem Haus kommt welches dir nicht passt, in dem Fall Intel.
Das höre ich Ständig vor dir, wenn ich deine CPU-Performance-Only Welt in frage stelle.

Gerade ich predige, dass CPU-Performance in den Notebooks für die Masse ausreicht und die Zukunft in mehr GPU-Performance & geringere TDP liegt.

Der Schwerpunkt der IDF war ja die iGPU-Einheit mit Verdopplung der GPU-Executkion-Einheiten sowie die 10W-TDP-CPUs. Du hast halt das Problem, dass das Ende der CPU-Performance-Only-Ära langsam zu Ende geht, und weil dieser Trend deine Unwissendheit mehr zeigt, versuchst du halt mehr herumzuflämmen.

Abgesehen, dass im HPC-Markt man ohne GPU nicht mehr den Top-Platz erreicht.
Schon mit Sandy-Bridge wurde einerseits mit 17W-TDP-Einführung die ausreichende CPU-Performance von Intel gezeigt und andererseits mit einer iGPU-Vergrößerung die Zukunft in der CPU-Entwicklung gezeigt. Wer Ahnung hat, hat diese Intel-Entwicklung damals schon verstanden. Aber ich habe eben schon lange herausgefunden, dass du eh nur das widerkaust, was die Masse hören will.

Schlimm ist es, wenn ich laufend als AMD-Fanboy bewertet werden, wenn Intel selber für die Masse (endlich) immer geringere TDP und mehr iGPU-Einheiten in den "CPUs" verbaut.

Gerade eben behauptest du noch dass ein Tesselationsbench keine Aussagekraft (weil du offensichtlich nicht die News gelesen hast sondern nur flamen willst), jetzt ist der Heaven Benchmark (mit deaktivierter Tesselation) für Grafikleistung offensichtlich "fürn Arsch" weils einfach so sein muss.
Natürlich.
Für mich sind aussagekräftige Benches wichtig, vorallem, wenn die ganzen Tester & Test eben damit auch Erfahrung haben. Für dich mag es lächerlich sein, aber dass du nur Test-Ergebnisse nur dazu nimmnst um Recht zu haben und nicht um eine CPU in jetziger Zeit plus 2-4 Jahren bewerten. Gerade von dir höre ich ständig, dass die Zahlen & Co nicht so gemeint sind, wenn ich auf (selbstverständlcih unabslichtliche) Fehler aufmerksam machte.

Dass du mal lernen musst, mist richtigen Zahlen zu bewerten empfindest du leider immer als Beleidigung. Aber du willst halt einfach nicht sehen, dass Intel mit Massen-CPUs @ Dual-Core und 17W-TDP & jetzt 10W-TDP schon lange die Zukunft ganz anders sieht. Natürlich wird CPU-Performane-Only natürlich anders propagiert, damit die Leute halt einfach weiter aufs Marketing reinfallen.

TDP hat nichts mit Laufzeit / Ausdauer zu tun, mal abgesehen davon kommen Ultrabooks nicht auf 2-3 Stunden, so ein Bullsh.

Die ganze Welt redet den selben Bullsh wie ich, nur du alleine nicht.
http://www.notebookcheck.com/Test-Asus-Zenbook-UX32VD-Ultrabook.75239.0.html
http://www.notebookcheck.com/Test-Fujitsu-LifeBook-U772-Ultrabook.79665.0.html
Hab auch eine 1,75 Stünden Last-Akku-Zeit reingegeben, damit man sieht, wie die Notebook-Streuung ist. Dazu das beliebteste Ultrabook unter den Technik-Freunden.

Bei Akku-Last-Zeiten, muss man halt ein Verständnis über Physik haben (Energieerhaltungssatz) dass eine ausgereizte TDP (Wärme) dem Energie-Verbrauch der elektrischen Energie entspricht. Deshalb sind die Last-Akku-Zeiten eines 17W-TDP-Notebook sehr wohl unterschiedlich als 45/55W-TDP-Notebooks.

Bei Akku-Teillast-Zeiten muss man ebenfalls verständnis über Physik haben, wo es den Zusammenhang zwischen elektrischen Energie-Verbrauch und Spannung gibt.
Und ULV (Ultra-Low-Volt) ist gerade die Spannung im Lastbereich der Teillasten gesenkt.

Selbst bei Akku-Idle-Zeiten profitiert man von 17W-TDP, da man das Notebooks mit weniger/kleineren/sparsameren Elektro-Komponenten ausstatten kann.
Nicht umsonst haben die Notebooks mit den geringsten TDP-Werten, die höchsten Akku-Idle-Zeiten. Und bis vor kurzem waren das die Atom-Netbooks und das mit Netbook.

Hier als AMD Jünger ums verrecken versuchen einen Strick draus zu drehen und sich nicht der Tatsache erfreuen zu können, dass es technologisch voran geht ist schlicht arm. Punkt.
Ich freue mich eh der Tatsache, dass Intel die Zukunft in GPU-Performance sieht.
Und dass der kleinste gmeinsame Nenner in OpenCL-Performance mit der viel größeren GPU- statt CPU-Steigerung @ Intel eben steigt.
Deshalb habe ich bei großen GPU-Steigerungen von Intel nichts dagegen, weil das die Unterstützung von allen (ARM, Intel, AMD, Nvidia) OpenCL gegen Cuda voranbringt. Und wenn man schon auf OpenCL umsteigt, ist der Weg zu HSA nicht mehr so weit.

Das Problem ist, dass der CPU-Performance-Only-Krautmaster-Denker die Bedeutung von OpenCL & HSA ja wieder nicht sehen kann/anerkennen will und jeden als AMD-Jünger und AMD-Fanboy bewertet, wenn er nicht so denkt wie er.

Den von dir propagierten indirekten AMD-Untergang (Mega-Verluste) mit dem angeblich kranken Bulldozer und schlechten Llano (= Kombination = noch schlechterer Trinity) ist leider noch nicht im Geschäftbericht und Trinity-CPU-&-GPU-Performance-Daten eingetreten, während die von dir bewerteten AMD-Jänger eben recht behielten.

Aber laufend Falsch zu liegen hat die ja nie davon abgehalten, das Maß des Wissen zu sein und andere persönlich zu Bewerten. Und ich weiß nicht, warum ich mich jetzt so freuen muss, als gerade ich früher die den Weg von 5,5W --> 10/12WTDP --> 17W-TDP kritisierte, weil gerade eben dadurch die Last-Akku-Zeiten mit immer ausgereizten Turbo-Modus deutlich sanken. Ich fühle mich der damaligen Kritik (CPU-Performance-Only-Weg) bestätigt.

PS: Die 7,5W sehen natürlich für Technik-Interessierte sehr gut aus, wenn das wirklich so kommt, wie es angedeutet wurde.
Aber Intel wird eben wie bei Ultrabooks nur den Ultrateuren Premium-Markt abdecken.
Der Low-End-Markt wird jetzt schon von Ontario abdeckt. Mit Kabini erst recht.
Im Unterschied dazu, müssen die 10W-TDP-Notebooks (mit 5mm-HDDs & nochkleinere Akkus & dünnere Gehäuse & Co) noch entwickelt werden, damit sie sich in Form von Höhe, Gewicht und Akku-Zeiten (primär Last und Teillasten) von den 17W-TDP-Notebooks absetzen könnenl. Und wie lange das bei 17W-TDP-Ultrabook gedauert hat, haben wir ja gesehen.

Wobei der 10W-TDP-Markt aus Sicht des Stromverbrauch nichts viel anderes ist als der Atom-Netbook-Markt. Hätte sich Intel sich nicht so auf Netbooks versteift (bis 10,1") und die Entwicklung von dünneren & Leichteren Netbooks nicht ignorierit hätte, würde der Einstieg in den 10W-TDP-Markt leichter fallen.
 
Da wird AMD richtig dran zu knabbern haben. Erst mimen sie Intel mit den 17W Versionen nach, die sie eh schon nicht liefern können. Dann kündigt Intel 15W Versionen von Haswell an, auch hier will sich AMD nicht lumpen lassen und kündigt 15W Kaveri an. Jetzt geht Intel gar auf 10W runter. AMD müsste seinerseits auf 10W runtergehen, oder sie geben den Kampf auf. Damit hätte AMD bestimmt nicht gerechnet.
 
Zurück
Oben