News Vollausbau der „Haswell“-Grafik als „HD 5xxx“ in Notebooks

Ich verstehe es aber auch nicht. Intel sollte lieber mehr auf bessere GPUs in langsameren CPUs setzten.
 
TeHaR schrieb:
Wenn man ersten Tests von Tomshardware glauben schenkt verliert AMD mit Haswell auch noch die Vormachtstellung bei den iGPU. Schon der GT2 Ausbau kommt mit ca. 10-15% Abstand an den A10-5800 ran (mit BETA Treibern).

Also bei den verlinkten Test ist nen Trinity immer ~20% schneller (45 zu 37,6 und 60 zu 50). Und falls es nicht an den Treiber liegt, dann ist die Performance enttäuschend. Bei 1920x1080 kommt man bei Skyrim auf +20% bzw. bei WoW auf +13% Prozent zur HD4000 obwohl man 25% mehr EUs und ein wenig mehr Takt hat.

Mal sehn wie sich die GT3 schlägt.
 
Matzegr schrieb:
falls es nicht an den Treiber liegt, dann ist die Performance enttäuschend.

Die GT2 soll ja auch nach Intel nur eine kleine Weiterentwicklung sein. Die GT3 soll ja die Leistung bringen. Fand die Demo auf der IDF ziemlich gut bei der sie Skyrim zeigten.
 
aylano schrieb:
Natürlich spielt der Basis-Takt bzw. das Verhaltnis Basis vs Max eine Rolle. Es hat sich in der vergangenheit schon oft gezeigt, dass Mehr-Performance auch oft durch mehr Strom-Verbrauch erkauft wurde, weshalb die Akku-Zeiten in den letzten vielen Jahren recht mager gestiegen sind.

Naja da gehts schlicht um das Verhältnis CPU / GPU. Bei Haswell kommen da wie bei AMD schnell 50/50 zusammen. Klar, dass man versucht, dass im jeweiligen Last Fall (CPU / GPU ) auch knapp 100% der TDP bei absolut einseitiger Last angeschöpft werden können.

40 EUs @ 1300 Mhz werden schon ein paar W brauchen. Und auch mal locker doppelt so schnell als die GT2.

In der Regel wird, von Tests wie Prime95 + GPU Benchmarks mal abgesehen, die TDP genug Headroom nach oben bieten um die GPU auch in Games mit 1300 Mhz zu befeuern, allein deshalb weil wohl wenige Szenarien zugleich die CPU auf 100% treiben. Ist bei AMD auch nicht anders... auch da schaut man, dass bei wenig GPU Last die CPU mehr ab darf und andersrum genauso.

Mal abgesehen davon hat das 0 und gar nichts mit Laufzeiten zu tun ^^ - genau da sitzen offensichtlich Haswells Stärken. Fokus auf die Plattform + Power States selbst zusammen mit Connected Standby. Das betrifft vor allem idle. Dann wenn das Gerät in der Ecke liegt - TFT aus, aber noch Messages bekommen soll.

Ich bin gespannt wie viel besser Laufzeiten ausfallen werden (vor allem idle) - klar, bei Volllast wird sich da wenig tun, bei Teil-Last oder Idle schon mehr.


Edit:

Mal sehen in wie fern die neuen PowerModi mit Windows 8 kombiniert werden können oder ob man Blue dafür braucht. Gut, die Windows 8 RT Variante kann ja "connected standby" von daher dürfte es in Win 8 auch schon implementiert sein. Kein Plan was der Kernel noch abkönnen muss damit der Haswell seinen neuen Features gerecht wird. Laut aktuellen Aussagen soll sich aber Blue ne massive Verbesserung in Hinblick auf Laufzeiten mit Haswell nach sich ziehen.

Edit2:

auch interessant:

So unterstützt Haswell ULT einen Baseclock von nur noch 24 MHz (gegenüber dem bisherigen Standard von durchgehend 100 MHz), was zur Folge hat, daß man den Prozessor in seinen Idle-Modi noch viel niedriger takten kann als bisher gewohnt. Ausgehend vom bisher üblichen niedrigsten Multiplikator von 8 takten Ivy-Bridge-Prozessoren somit niedrigstenfalls mit 800 MHz, Haswell-Prozessoren könnten dagegen bis auf 192 MHz Takt heruntergehen

http://www.3dcenter.org/news/intels...-baseclock-fuer-noch-geringere-idle-taktraten

+

Bei der Chipsatzfertigung wagt sich Intel zum ersten Mal an das 32-Nanometer-Verfahren, bei den aktuellen Chipsätzen der Ivy-Bridge-Prozessoren handelt es sich um 65-Nanometer-Chipsätze.
 
Zuletzt bearbeitet:
[F]L4SH schrieb:
Es fällt mir schwer zu glauben, dass Intel diese ganze Sache mit dem on-package RAM nur für ganze zwei Modelle (Anfangs) und generell nur für eine einzige CPU Klasse durchgezogen hat.

Wozu der Aufwand für eine Modellgruppe, bei der sowieso überwiegend "echte" Grafikchips zum Einsatz kommen?

Und warum nicht in Intels neue lieblings- (Cashcow) Klasse der Ultrabooks? Die TDP für ein paar MB DRAM kann ja wohl kaum der Grund sein.

Die müssen ganz einfach stark selektiert werden, deswegen kommen sie auch so spät und sind so teuer aufgrund der geringen Stückzahl. Wie sollte man denn sonst den Verbrauch einer so großen Grafikeinheit in den Griff bekommen wenn nicht mit den neusten Mittel halb ausgereiften Mitteln.

Intel hat es halt mit den Grafikchips nicht so drauf, frag mich sowieso warum hier Wunder erwartet werden :rolleyes: und dann wundert man sich über komische "Verkaufsstrategien" :freak:

TeHaR schrieb:
Wenn man ersten Tests von Tomshardware glauben schenkt verliert AMD mit Haswell auch noch die Vormachtstellung bei den iGPU. Schon der GT2 Ausbau kommt mit ca. 10-15% Abstand an den A10-5800 ran (mit BETA Treibern). Der GT3 mit doppelt so vielen EU wird wohl deutlich davon ziehen, und wenn der 128 MB L4/eDRAM Cache noch dazu kommt, wird der Abstand bestimmt >50%. Sehr sehr schade, AMD fällt immer weiter zurück, aber das ist klar bei einem Entwicklungsbudget von vielleicht 5% von dem was Intel ausgibt.

* http://www.tomshardware.de/core-i7-4770k-haswell-performance-Vorschau,testberichte-241235-7.html

Das ist kein Vergleich mit Richland dessen Chips bereits raus sind was man von GT3(Oktober) nicht behaupten kann.
 
Zuletzt bearbeitet:
Lass mich mal überraschen, wie gut die internen GPUs sind. Aber ich finde es ein wenig schwachsinnig, die besten, also die HD5200 nur in Highend-CPUs zu verbauen. Gerade jemand mit einen Ultrabook mit einen ULV würde sich doch über ein wenig mehr GPU-Power freuen. Wenn jemand sich einen quad CPU schon im Notebook packt, dann hat er auch eine Highend-GPU und dann wäre die HD 5200 total sinnfrei. Aber naja, hab nen Ivy ULV und der soll noch 2 Jahre locker halten, dann kommt Intel vielleicht mal auf was logisches.
 
Bin mal auf Benchmarks und Erfahrungsberichte gespannt. Ich brauch Ende des Jahres nen neuen Laptop....
 
Wenn man bedenkt, dass man mit der HD4000 so ziemlich alle erfolgreichen Mulitplayer Games spielen kann, muss meines erachtens nach Intel kaum etwas tun. Leistungsaufnahme verringern und die GPU Performance steigern, CPU Performance könnte sogar bleiben, aber gut auch die wird etwas verbessert. Hm... das erinnert irgendwie bereits an die Geschichte von Sandy-Bridge auf Ivy Brdige :)
 
Irwann sollte es klar werden dass die GT3 prestige ist und die Intel IGPs einfach voran bringen soll. Richtig sinnvoll wird es erst beim shrink in 14nm werden. Falls AMD Kaveri das Jahr noch anbieten wird, darf sich Intels GT3 vllt sogar gegen AMD ULV mit GDDR5 schlagen. Da AMD weiß wie sich der onDieCache bewärt (bedenkt man dass AMD sony s chip mit gddr5 und Xbox Chip mit onDie Cache bestückt) wird man vllt sogar beabsichtigt auf Intel und GT3 warten. Bin gespannt ob man mit GCN ziehen kann ^^ Ich lasse mich überraschen immerhin hat Kabini scheinbar eine potente IGP, Kaveri kommt mit einer 7750 daher. In 28nm wissen wir was die leistet, wäre interessant zu sehen auf welche performance man kommt, immerhin kann eine igp mit einer tdp von 17 watt nicht so hoch getaktet werden.
Eines ist klar wenn Intel Gleichziehen kann, dann sicherlich dank ihrer Fertigungstechnik, die zeigt wie beachtlich sie ist :)
 
pipip schrieb:
Ich lasse mich überraschen immerhin hat Kabini scheinbar eine potente IGP, Kaveri kommt mit einer 7750 daher. In 28nm wissen wir was die leistet, wäre interessant zu sehen auf welche performance man kommt, immerhin kann eine igp mit einer tdp von 17 watt nicht so hoch getaktet werden.

Wir wissen was ein 7750 zu leisten vermag, der eine Speicherbandbreite von ca. 70 GB/s zur Verfügung steht. Es wird der IGP nicht nur am GPU-Takt fehlen.

PS: Du solltest über den Gebrauch von "scheinbar" noch einmal nachdenken :D
 
Also ich finde es interessant wie Intel von unten das Feld zunehmend abräumt. Die GT3 wird noch weniger Platz für Nvidia und AMD/ATI lassen. Je nach ersten echten Benchmarks wird wahrscheinlich im mittleren Mittelklasse-Bereich keine echte Grafikkarte mehr notwendig sein. Heute verbauen z.B. HP und Acer noch massenweise 650m Nvidas in ihren "Power"-Books. Wenn die Gerüchte wahr sind, soll die schnellste GT3 im Leistungsbereich einer GTX 650 liegen... womit sogar mobile Grafikkarten ab 660m abwärts evtl. obsolete wären.

Man bedenke, dass Intel nach Larabee wirklich große Schritte in Richtung High-End iGPU gemacht hat. AMD-Fans werden natürlich immer die Mehrleistung der AMD vorhalten... jedoch kann AMD im Temperaturbereich, Leistungsaufnahme und Leistungsumfang den Intel-CPUs nicht wirklich das Wasser reichen und kann eigentlich nur als Gaming-CPU angesehen werden, wobei AMD hier nur das bessere Preis/Leistungs-Verhältnis bietet. Vielen ist der Preisunterschied im 100Euro-Bereich jedoch schlichtweg egal.
 
Zuletzt bearbeitet:
Mr.Kaijudo schrieb:
Das ist kein Vergleich mit Richland dessen Chips bereits raus sind was man von GT3(Oktober) nicht behaupten kann.


Richland existiert bisher nur auf dem Papier. Kaufen kannst du den genauso wenig wie Haswell. Die ULV Modelle sind noch nichtmal vorgestellt. Bei den ULV reicht die GT2 von Intel, um AMD in die Schranken zu weisen. Der GT3 Quadcore ist sowieso preislich eine ganz andere Liga als Richland. Allerdings dürfte AMDs iGPU ziemlich Haue bekommen. Das dürfte AMD nicht schmecken egal ob preislicher Konkurrent oder nicht.
 
kalude schrieb:
Man bedenke, dass Intel nach Larabee wirklich große Schritte in Richtung High-End iGPU gemacht hat. AMD-Fans werden natürlich immer die Mehrleistung der AMD vorhalten... jedoch kann AMD im Temperaturbereich, Leistungsaufnahme und Leistungsumfang den Intel-CPUs nicht wirklich das Wasser reichen und kann eigentlich nur als Gaming-CPU angesehen werden, wobei AMD hier nur das bessere Preis/Leistungs-Verhältnis bietet. Vielen ist der Preisunterschied im 100Euro-Bereich jedoch schlichtweg egal.

Wenn das wiederrum kein Intelfan Beitrag ist. Du findest also dass Intel mittlerweile mi der iGPU im Highend angekommen ist, oder zumindest schon kurz davor sind? :evillol:
Das mit den Temperaturen, Leistngsaufnahme und Umfang ist auch ein Märchen. AMD hat in verschiedenen TDP Klassen Ihre CPU´s / APU´s, diese reichen von ca. 4W bis 125W.
Und dass den Menschen 100€ Bereiche schlichtweg egal sind, ist genauso übertrieben, sehr wohl ist es. Manche kaufen sich eine CPU für 50€ und möchten nicht mehr Ausgeben, vor allem in den ärmeren Ländern.
 
Mourinho schrieb:
Wenn das wiederrum kein Intelfan Beitrag ist. Du findest also dass Intel mittlerweile mi der iGPU im Highend angekommen ist, oder zumindest schon kurz davor sind? :evillol:
Das mit den Temperaturen, Leistngsaufnahme und Umfang ist auch ein Märchen. AMD hat in verschiedenen TDP Klassen Ihre CPU´s / APU´s, diese reichen von ca. 4W bis 125W.
Und dass den Menschen 100€ Bereiche schlichtweg egal sind, ist genauso übertrieben, sehr wohl ist es. Manche kaufen sich eine CPU für 50€ und möchten nicht mehr Ausgeben, vor allem in den ärmeren Ländern.

Hmm, also wenn man diesen Benchmark Glauben schenken mag...

http://www.pcgameshardware.de/CPU-H...ssoren-Test-Bestenliste-AMD-und-Intel-675663/

dann ist die schnellste gemessene AMD CPU (FX 8350) rund 20 Prozent langsamer als die Mainstreamquad i7-3770K, wobei die Leistungsaufnahme rund doppelt so hoch ist (Strom ist teuer und ca 100 Euro zusatzlich im Jahr für den Rechner sollte man schon beachten).

Wie gesagt... AMD scheint das bessere Preis/Leistungs-Verhältnis zu haben, jedoch nur wenn man sich auf den Gaming-Bereich beschränkt und Mutti die Stromrechnung zahlt. Dann ist es durchaus eine Überlegung wert sich eine CPU von AMD zu besorgen, die ca 100 Euro günstiger ist als eine vergleichbare CPU von Intel.

Die von Dir angesprochene 50€ AMD CPU hat jedoch keine gescheite Grafikeinheit verbaut, die gegen die HD4000 von Intel anstinken kann. Mit einer echten Grafikkarte ist diese CPU sicherlich vorteilhaft.

Im iGPU Bereich führt AMD mit der A10-3800K das Feld an und ist um rund 1,6 mal zügiger als die i7-3770K, kostet dann aber auch schon rund 120 Euro (und liefert sonst nicht die Gesamtleistung der Intel CPU ab).

Also hängt es einfach nur davon ab, wofür man einen Rechner verwenden möchte. Als Allrounder sind definitiv die Intels besser, beim Gaming lohnt jedoch der Aufpreis nicht und AMD ist hier attraktiver.
 
Zuletzt bearbeitet:
Also in den größeren CPUs die bessere Grafik ... Intel bleibt also der großen Leistungslücke zwischen CPU- und GPU-Leistung treu. Schade eigentlich, ein reiner Multimedia/Entertainment Rechner braucht eben ein anderes Verhältnis von CPU- und GPU-Leistung. Hier liefert AMD also weiterhin das etwas besser abgestimmte Gesamtpaket (leider auf nicht ganz so hohem Leistungsniveau)
Highend CPU Bereich: Hier braucht es meist eine passende Grafikkarte, CAD/Simulation --> Quattro & Fire Karten oft sinnvoll; Gaming --> GamingGrafik der Oberklasse sinnvoll; Office/Video/Audio/Foto Bearbeitung --> hier kann die integrierte Grafik mal genutzt werden, stößt bei Multimonitorlösungen aber auch an Grenzen.

Die große Grafikeinheit vorranggig in kleine CPUs (i3, vielleicht auch Celerons) und schon hat man eine super Konkurrenz zu AMDs A-Serie.

Aber so wie es aktuell dann aussieht gehört für mich weiterhin eine dedizierte Grafikkarte zu einem Intel-CPU, sobald auch nur einigermaßen Grafikfordernde Anwendungen laufen sollen.
 
Ralf555 schrieb:
Richland existiert bisher nur auf dem Papier. Kaufen kannst du den genauso wenig wie Haswell.

Es geht hier um Notebooks und nicht um den Desktop, da ist Richland sehr wohl vorhanden.
 
@dMopp

Stimmt ja auch früher gab es bei AMD keine ausschaltung beim Sockel A.
 
Mir fällt spontan ein großer Kunde ein, der Intel dazu bewegt haben könnte, diese Vollausbau-GPU HD 5200 (gekoppelt mit High-End-Mobil-CPUs) zu bringen. Apple braucht so viel iGPU-Grafikleistung für die Retina-MacBooks und vielleicht auch zukünftige iMacs.

Und was Apple macht, machen andere Hersteller oft genug nach. Ich könnte mir gut vorstellen, dass man diese speziellen Haswell-Chips vor allem in diversen Notebooks mit >FullHD-Displays finden wird.
 
Zuletzt bearbeitet:
@Mr.Kaijudo

Lohnt es sich überhaupt eine Unterscheidung Trinity <-> Richland zu treffen? ;)

@Herdware

ich bin auf die Features gespannt, weniger auf die Leistung an sich. Wenn der idle Verbrauch und die Laufzeiten (idle) phänomenal werden (man denke allein an die 65 -> 32nm beim Chipsatz) + Connected Standby, dann ist das sicher das größere Alleinstellungsmerkmal als +-20% GPU Leistung.
 
Zuletzt bearbeitet:
kalude schrieb:
Hmm, also wenn man diesen Benchmark Glauben schenken mag...

http://www.pcgameshardware.de/CPU-H...ssoren-Test-Bestenliste-AMD-und-Intel-675663/

dann ist die schnellste gemessene AMD CPU (FX 8350) rund 20 Prozent langsamer als die Mainstreamquad i7-3770K, wobei die Leistungsaufnahme rund doppelt so hoch ist (Strom ist teuer und ca 100 Euro zusatzlich im Jahr für den Rechner sollte man schon beachten).
Im iGPU Bereich führt AMD mit der A10-3800K das Feld an und ist um rund 1,6 mal zügiger als die i7-3770K, kostet dann aber auch schon rund 120 Euro (und liefert sonst nicht die Gesamtleistung der Intel CPU ab).

Bekanntlich soll der Vollausbau der „Haswell“-GPU namens GT3 nur bei den Mobilprozessoren zum Einsatz kommen; im Desktop- und Server-Bereich ist offenbar bei GT2 Schluss.

@Kalude, erstmal Nachrichten richtig Lesen und Interpretieren, dann Nachdenken und Schreiben. Für Dich Exsistieren anscheinend nur CPU´s ab 125TDP, hier ist hauptsächlich von Ultrabooks die Rede, wo zumindest die stärkste iGP von Intel zum Einsatz kommt.... aber auch da nennst Du es schon Highend..also kann Nvidias Titan wohl bald Einbacken. LOL :freak:
 
Zurück
Oben