News Vollausbau der „Haswell“-Grafik als „HD 5xxx“ in Notebooks

@Krautmaster
In allen Fällen, wo eine iGPU sowieso schon leistungsfähig genug ist, also praktisch alles außer anspruchsvolleren Spielen bis FullHD, ist die Leistung natürlich nicht so furchtbar spannend.

Bei höheren Auflösungen, wie z.B. den 2880 x 1800 des 15"-Retina-MacBook Pro, kommt die HD4000 der Ivy Bridge aber schon bei typischen Desktoparbeiten, z.B. Text scrollen oder Fenster verschieben usw., arg an ihre Grenzen und liefert kein flüssiges Ergebnis mehr.
Wie gesagt sehe ich darin den Hauptgrund, dass es sowas wie die G3 HD5200 (exklusiv für Mobil-CPUs) überhaupt gibt. Da geht es nicht um neue Features oder Energiesapren, sondern um schiere iGPU-Leistung, um diese extrem hohen Auflösungen schultern zu können. Am besten so gut, dass zusätzliche dedizierte GPUs dafür ganz unnötig werden.

Es würde mich nicht wundern, wenn die HD5200 iGPU speziell designt wurde, um Apples Vorgaben für Retina-Geräte zu erfüllen.
 
smalM schrieb:
Wir wissen was ein 7750 zu leisten vermag, der eine Speicherbandbreite von ca. 70 GB/s zur Verfügung steht. Es wird der IGP nicht nur am GPU-Takt fehlen.

PS: Du solltest über den Gebrauch von "scheinbar" noch einmal nachdenken :D


Und du solltest mal genauer lesen, denn ich sprach von GDDR5 statt DDR3. Btw wird spikuliert dass Kaveri einen DDR3-DDR4-GDDR5 Speicherkontroller haben wird.
Sehe aber dass ich das nicht so genau erwähnt habe scheinbar, einige werden es aber wissen.
Ergänzung ()

Ralf555 schrieb:
Richland existiert bisher nur auf dem Papier.
.Kaufen kannst du den genauso wenig wie Haswell.
Du sagst es ja schon. Hauptsache davon reden wie toll GT3 ist, aber mit Richland darf man es nicht vergleichen ^^ interessant, dabei wurde von dem auch schon Prognosen abgegeben

dann ist die schnellste gemessene AMD CPU (FX 8350) rund 20 Prozent langsamer als die Mainstreamquad i7-3770K, wobei die Leistungsaufnahme rund doppelt so hoch ist (Strom ist teuer und ca 100 Euro zusätzlich im Jahr für den Rechner sollte man schon beachten).
Woran glaubst du liegt das, dass eine Intel CPU weniger verbraucht ?
Intel wird bei den IGP nicht durch Technik vorrücken, nein sie werden es durch die Fertigungstechnik machen. Wer wunder wünscht wird sie nur in limitierte Form mit hohen Preisen sehen, deshalb wird GT3 dort angesetzt wo Intel wachsen möchte.
GT3 sehe ich für sinnvoll wenn der erste Shrinke daherkommt.

Man muss ja nur die Foren sehen. Sobald es um Grafikkarten geht, muss sich bsp eine 7970 mit einer Titan messen, obwohl kaum jemand eine Titan besitzt, trotzdem argumentiert jeder so, als ob er diese hätte. Es geht rein darum bei den Benchmarks weit oben zu stehen und Werbung zu machen, damit AMD nicht zuviel vom Kuchen abbekommt. Meiner Meinung nach sowieso unnötig, denn man sieht, aha Intel kann bei IGP mitmischen, ah jetzt gewinnt eine IGP an Bedeutung. Bin schon gespannt wie die Meinung rasch im Forum ändern wird wenn man mal die Performance eines A10 erreicht.

Krautmaster
Lohnt es sich überhaupt eine Unterscheidung Trinity <-> Richland zu treffen?
Lol das selbe könnte man bei SB zu IB oder IB zu HSW fragen, wo sind die großen Sprünge ?
Lieber abwarten was hinter Richland genau steckt. Immerhin hat man zu mindestens Richtung Software viel getan.
 
Zuletzt bearbeitet:
pipip schrieb:
Ergänzung ()

Du sagst es ja schon. Hauptsache davon reden wie toll GT3 ist, aber mit Richland darf man es nicht vergleichen ^^ interessant, dabei wurde von dem auch schon Prognosen abgegeben

Wer sagt, dass man nicht mit Richland vergleichen kann? Vielleicht solltest du mal richtig lesen. Verstanden hast du offensichtlich nichts.
 
Ralf555 schrieb:
Bei Intel spielt der Basistakt keinerlei Rolle für die Performance, der ist nur im Idle interessant. Einen geringeren Basistakt bekam schon Ivy Bridge verpasst. Das bringt im Idle vielleicht minimalste Energieeinsparungen. Wenn es um die Leistung geht, zählt der dynamische Takt.
Das ist falsch.
http://de.wikipedia.org/wiki/Liste_der_Intel-Core-i-Prozessoren#Desktop
Der Basis-Takt ist sogar mit der Zeit gesunken.
Ganz im Gegenteil. Mit der Einbeziehung des dynamischen iGPU-Takt konnte der iGPU-TDP-Bereich @ Teil-Lasten für CPUs besser ausgenutzt werden.

Es sieht klar danach aus, dass Intel mit diesen erheblich größeren iGPU jetzt den Gesamt-TDP der CPU auch seitens der iGPU viel besser bzw. agressiver ausnutzen wollen, was im Grunde nichts schlechtes ist.
Nur wie ich letztens bei der TDP-"Diskussion" merkte war, wie wenig Ahnung die Leute über Intels TDP überhaupt bescheid wussten und so die Intel-CPU in den letzten Jahren bei weitem schöner darstellten als es real der Fall war. Deshalb mache ich darauf aufmerksam, bevor wieder so viele glauben, dass Intel eine angeblich doppelte iGPU-Effizienz bei gleicher Fertigung herzaubern kann.
 
TDP hat nichts mit dem Verbrauch zu tun sondern wie groß der Kühler sein muss. Wenn AMD so blöd ist und schon OC in ihre TDP rein rechnet selber schuld.
 
@aylano

sprach der der dem Forum weis machen will wie sehr die Akkulaufzeit massiv durch den Turbo (der zudem kurzzeitig über eigentliche TDP Angabe gehen darf) leidet. Denn darum gings wohl bei der vermeidlich neuerlichen TDP Diskussionen auf die du anspielst ganz bestimmt.

Die TDP ist sicher der geringste Faktor wenn es darum geht "wie gut eine CPU" dasteht ^^ dazu muss man sich nur Effizienztests anschauen. Meistens siehts da so aus, dass Intel nicht zuletzt (gerade bei den low Power CPU) wegen dem Fertigungsvorteil halt besser dasteht. Das sollte man einfach mal so akzeptieren.

28nm bei AMD mischt da das Blatt sicher etwas neu. Wünschenswert wäre es.
 
aylano schrieb:
Das ist falsch.
http://de.wikipedia.org/wiki/Liste_der_Intel-Core-i-Prozessoren#Desktop
Der Basis-Takt ist sogar mit der Zeit gesunken.
Ganz im Gegenteil. Mit der Einbeziehung des dynamischen iGPU-Takt konnte der iGPU-TDP-Bereich @ Teil-Lasten für CPUs besser ausgenutzt werden.


Was ist falsch? Du bestätigst mich doch mit dem Link. Der Basistakt ist schon mit Ivy Bridge gesunken von Sandy Bridge ausgehend. Das ist nicht falsch sondern völlig richtig wie dein Link untermauert. Aber wie gesagt, der Basistakt spielt keinerlei Rolle für die 3D-Performance. Entscheidend ist der dynamische Takt und wie hoch dieser tatsächlich anliegt. Mit einem nominell maximalen Takt von 1300 Mhz sind die beiden GT3 Quadcore Varianten ziemlich hoch getaktet. Mit GT2 Taktraten hätte ich bei der GT3 nicht gerechnet.
 
ich auch nicht. Bin gespannt wie es sich mit den Taktraten unter CPU + GPU Last verhält. Klar, benched man separat erzielt man hohe Werte auf beiden Seiten (GPU und CPU) - beides zusammen dürfte interessant werden.

Die GT3 dürfte ganzschön fix werden.

aylano schrieb:
Die Frage lautet eher, wie die iGPU dann (deutlich) schneller wurde. Denn ein Basis-Takt von 200Mhz hört sich verdammt wenig an und wäre mit 40EU @ 200Mhz vs 16 EU @ 650 Mhz bei EU-Only-Betrachtung sogar langsamer.

aylano, sind wir uns einig dass die Aussage genau wie diese

aylano schrieb:
Warum sollte ich mich wiederholen, wenn du nicht verstanden hast, dass TDP und die "Entstehung der Abwärme" nicht zur gleiche Zeit stattfinden.

wenig Sinn ergibt? ;)

Edit: Um bei deiner angesprochenen TDP Diskussion zu bleiben rufe ich mir mal meine Lieblingsaussage von dir ins Gedächtnis

aylano schrieb:
Und dass du Wärme-Energie mit Watt-Elektrische Energie gleichsetzt, zeigt eben wie wenig wissen du über Physik hast. Nicht nur dass man dich schwer verstehen kann, sondern bei dieser Energie-Umwandlung findet noch einiges statt, was der Grund ist, warum du TDP (bzw. warum "P > TDP seinkann) vorne & hinten nicht verstehst.

^^ auf die fundierte physikalische Erklärung warte ich bis heute.
 
Zuletzt bearbeitet:
Ralf555 schrieb:
Was ist falsch? Du bestätigst mich doch mit dem Link. Der Basistakt ist schon mit Ivy Bridge gesunken von Sandy Bridge ausgehend.
Sorry, ich hatte gedacht, dass du gestiegen statt gesunken schriebst.

Aber wie gesagt, der Basistakt spielt keinerlei Rolle für die 3D-Performance. Entscheidend ist der dynamische Takt und wie hoch dieser tatsächlich anliegt.
Nö, entscheident für Takte im Turbo-Modus ist immer der Stromverbrauch und der bestimmt, wie hoch getaktet werden kann.

Es ist schön, wenn in Realitäts-fernen Bechmark-Tests hohe bzw. höchste nominelle Takte erreicht werden, aber entscheident ist eben der dynamische Takt, der dann abhängig vom Stromverbrauch unter Last erreicht wird.

40 EU sind zwar schön und nett, aber sie bringen auch nicht viel mehr als wenn sie im schnitt nur halb so hoch getaktet werden können wenn sie nur 16 EUs verwenden würden.

Deine Aussage ist so allgemein (von etwas langsamer bis 3x so schnell), dass sie selbst bei einem GPU-Performance-Rückgang gültig wäre.
Also, die komplette mögliche Performance-Streuung.

Der Grund warum die Hasswell-iGPU nicht das 3-fache an GPU-Performance zulegen wird, ist eben durch den Stromverbrauch bzw. TDP begrenzt.

Grundsätzlich ist zu sagen, dass man mit breiten bzw. überbreiten und niederen bzw. niedrigsten Takt die GPU-Effizienz auch erheblich steigern kann.
 
aylano schrieb:
Der Grund warum die Hasswell-iGPU nicht das 3-fache an GPU-Performance zulegen wird, ist eben durch den Stromverbrauch bzw. TDP begrenzt.

Grundsätzlich ist zu sagen, dass man mit breiten bzw. überbreiten und niederen bzw. niedrigsten Takt die GPU-Effizienz auch erheblich steigern kann.

gut, die Aussage passt aber nicht nur zu Haswell sondern eher generell wenn die Last dynamisch verteilt wird.

Nimm Trinity z.B.

https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/11/

CPU Last only führt zu ~ 100W höherem Verbrauch beim AMD A10-5800K ... dass da nicht mehr viel Headroom für die GPU bleibt ist klar.

Ist also genau dasselbe Spiel.

Wenn hauptsächlich GPU Last auftritt, zB beim trans-codieren auf GPU, dann bekommt die GPU einen Großteil des TDP Budgets

https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-gpu-test/14/

auch gut 80W.

Diese dynamische Verteilung ist natürlich nur positiv zu sehen, denn nur so bekommt der Kunde im Rahmen der TDP die maximale Leistung beim jeweiligen Anwendungsszenario. Bei AMD als auch bei Intel ...

Wie also sollte man nun die Effizienz bzw die Performance Korrekt messen?

Halbe CPU Kernzahl auslasten und dann GPU Benchmarks fahren?

Mich würde generell einfach mal interessieren wie bei Intel / AMD zb die GPU Leistung einbricht wenn man zugleich die CPU an den Anschlag fährt. Dann wirds auch interessant wie die Prioritäten gesetzt werden. Vielleicht wird z.B. anfallende CPU Last priorisiert abgearbeitet und die GPU Leistung sackt weg.
Oder eben andersherum...
 
Zuletzt bearbeitet:
aylano schrieb:
Sorry, ich hatte gedacht, dass du gestiegen statt gesunken schriebst.

Nicht so viel träumern beim nächsten mal, besser wäre es aufmerksamer zu lesen.

aylano schrieb:
Nö, entscheident für Takte im Turbo-Modus ist immer der Stromverbrauch und der bestimmt, wie hoch getaktet werden kann.

Dann schauen wir mal was ich geschrieben habe:

Aber wie gesagt, der Basistakt spielt keinerlei Rolle für die 3D-Performance. Entscheidend ist der dynamische Takt und wie hoch dieser tatsächlich anliegt.

Ist das jetzt so schwer verständlich oder geht es dir nur darum anderen zu widersprechen? Du hast einen grob unwissenden Beitrag geschrieben, den ich verbessert habe. Dafür solltest du mir dankbar sein und du solltest den Fehler endlich eingestehen.

aylano schrieb:
Deine Aussage ist so allgemein (von etwas langsamer bis 3x so schnell), dass sie selbst bei einem GPU-Performance-Rückgang gültig wäre.

Was ist allgemein? Dass der dynamische Takt entscheidend ist? Natürlich ist er das.

aylano schrieb:
Der Grund warum die Hasswell-iGPU nicht das 3-fache an GPU-Performance zulegen wird, ist eben durch den Stromverbrauch bzw. TDP begrenzt.

Wie kommst du denn auf das dreifache? Boah alter du schreibst so ein Müll zusammen unglaublich. Selbst wenn die Rechenleistung um das dreifache steigen würde, was nicht der Fall ist, bekommst du aus einer iGPU nicht die dreifache Leistung in der Praxis. Weil die Bandbreite schon seit Jahren nicht mit der Rechenleistung mitskaliert.
 
Bin auch gespannt auf die Grafikleistung der neuen GPUs von Intel, mir hat selbst die Grafik im i5-2500 für meine kleinen Spielchen nebenbei gereicht.
 
Mr.Kaijudo schrieb:
Das ist kein Vergleich mit Richland dessen Chips bereits raus sind was man von GT3(Oktober) nicht behaupten kann.

Wow, 4% Mehrtakt bei der Grafik, sonst ändert sich da nix. Das wird natürlich das Ruder rumreißen. Nichts gegen AMD, ich bin ein großer Fan von denen aber Richland als "neue" CPUs zu verkaufen ist Verarsche. Der A10-6800K hat maximal den Namen 5850K verdient.

Und unter "Raus" sein verstehe ich verfügbar. Und da finde ich bei Geizhals keine einzige Richland CPU.
 
Ralf555 schrieb:
Nicht so viel träumern beim nächsten mal, besser wäre es aufmerksamer zu lesen.
Schön gesagt.: ich erkenne wenigstens, wenn ich unsinn schrieb nachdem jemand darauf Aufmerksam gemacht hat.
Ist das jetzt so schwer verständlich
Ist für mich schon schwer verständlich, dass der Stromverbrauch überhaupt keine Rolle bzw. nicht die entscheidene Rolle spielt.

oder geht es dir nur darum anderen zu widersprechen?
Sagt einer, der meine Aussage als erster Widersprochen hat. Wenn du das anderen unterstellst, dann solltest du wenigstens nicht als ersters die Aussage des anderen widersprechen.

oder geht es dir nur darum anderen zu widersprechen? Du hast einen grob unwissenden Beitrag geschrieben, den ich verbessert habe. Dafür solltest du mir dankbar sein und du solltest den Fehler endlich eingestehen.
Genau an solchen Aussagen erkennt man, dass du gerade derjenige bist, der nur anderen Widerspricht. Wer was von Diskussion versteht, der sagt niemals "ich verbessert" sowie "dankbar" "Fehler endlich eingestehen". Dein Problem ist, du hast meinen Kern der Aussage nicht verstanden und der ist die 3D-Performance im Bezug auf Stromverbrauch.
Dass du das überhaupt nicht verstanden hast, erkennt man daran, dass du auf den Stromverbrauch überhaupt keinen Bezug genommen hast.

Was ist allgemein? Dass der dynamische Takt entscheidend ist? Natürlich ist er das.
Das ist so genauso eine Unsinnige Aussage wie wenn man sagt, dass der Strom entscheident ist für die 3D-Performance. Denn ohne Strom-Versorgung arbeitet eine GPU oder CPU nicht.

Performance-Steigerungen mit fix definierten TDP sind nur mit Verbesserungen möglich. Im Gegensatz zu Ive-Bridge, wo betrachtliche GPU-Performance-Steigerungen möglich waren, wird Haswell keine Struktur-Verbesserung mittels kleineren Strukturen bekommen.

Wie kommst du denn auf das dreifache? Boah alter du schreibst so ein Müll zusammen unglaublich.
Man sollte halt wissen, dass die 3-fache EU bzw. Shaders grundsätzlich (mit etwas abzügen) mit 3-fachen GPU-Performance bedeutet.

Selbst wenn die Rechenleistung um das dreifache steigen würde, was nicht der Fall ist, bekommst du aus einer iGPU nicht die dreifache Leistung in der Praxis. Weil die Bandbreite schon seit Jahren nicht mit der Rechenleistung mitskaliert.
1) Das hat niemand anders Behauptet.
2) Ist die Auswahl der 40 EU trotzdem eine Entscheidung von Intel. Wennst was zum Ausbessern hast, dann sag es den Intel-Ingeneuren und nicht mich. Deine Belehrung, dass der Takt die 3D-Performance bestimmt ist hingegen lächerlich, wenn ich mir gerade überlegt habe, wie Intel zu einer GPU-Performance-Steigerung bei gleicher TDP kommt, was nicht unwichtig ist, weil es hier um Notebook-CPUs gehts.
 
Mourinho schrieb:
@Kalude, erstmal Nachrichten richtig Lesen und Interpretieren, dann Nachdenken und Schreiben. Für Dich Exsistieren anscheinend nur CPU´s ab 125TDP, hier ist hauptsächlich von Ultrabooks die Rede, wo zumindest die stärkste iGP von Intel zum Einsatz kommt.... aber auch da nennst Du es schon Highend..also kann Nvidias Titan wohl bald Einbacken. LOL :freak:

Troll Dich! Ich habe die Mobilen CPUs nicht angesprochen, weil der Vergleich noch schlechter für AMD aussieht und der Grafikvorteil kaum erwehnenswert ist. Mag ja sein, dass ich in Benchmarks 30% flüssigere Bilder bekomme... die CPU muss trotzdem dadurch mehr schwitzen.
Im Desktop-Bereich sehe ich durchaus einige Vorteile, die für eine AMD-CPU sprechen, denn das Preis/Leistungs-Verhältnis scheint auf den ersten Blick besser zu sein. Die mobilen AMD-CPUs sind ein Witz und werden kaum beachtet.
 
aylano schrieb:
... wie wenn man sagt, dass der Strom entscheident ist für die 3D-Performance. Denn ohne Strom-Versorgung arbeitet eine GPU oder CPU nicht.

naja wenn man zwingend irgend was hirnrissiges getextet haben muss, dann kann man natürlich sowas von sich geben O_O
dass der Strom entscheident ist für die 3D-Performance
- lass mich raten, das gilt sicher auch für TDP, 2D Leistung, Temperaturentwicklung.. bla bla bla?

Und ja, natürlich ist für die reine GPU Leistung her bisher vor allem der Takt im Turbo so wie Ralf schrieb, entscheidend. Wie man das mit so ner dümmlichen Antwort kommentieren kann ist mir nicht ganz klar. Ein reines Anmerken, dass das vorhandene TDP Budget und der TDP-Headroom,bezogen auf gleichzeitig abverlangte CPU Leistung, auch einen Einfluss auf die GPU Performance hat, hätte absolut gereicht...

Performance-Steigerungen mit fix definierten TDP sind nur mit Verbesserungen möglich. Im Gegensatz zu Ive-Bridge, wo betrachtliche GPU-Performance-Steigerungen möglich waren, wird Haswell keine Struktur-Verbesserung mittels kleineren Strukturen bekommen.

Was ist bei dir fix definierte TDP? CPU(ink GPU) oder nur für den GPU Part? Es wird ganz einfach so sein... bei einer CPU mit 35W TDP hat bei IB die GPU eventuell maximal 10W ausschöpfen können, wenn es das TDP Budget noch hergab (geringe parallele CPU Leistung).
Bei Haswell wird die GPU aber eventuell mehr als 20W, vllt gar 30W dieser 35W abschöpfen dürfen - genau wie die CPU ja auch allein die 35W abschöpfen darf.
Wenn es also um "fixe" TDP geht, dann müsstest du in den Datenblättern schauen, was die maximal angegebene Leistungsaufnahme des CPU Part angeht - nur findet man dazu vermutlich nichts mehr, interessiert prinzipiell auch nicht.

Wenn die Haswell GPU von 20 auf 40 EU zulegt, bei gleichem oder höherem Maximaltakt, dann wird auch die Leistung praktisch doppelt so hoch ausfallen (maximal) - und selbstverständlich braucht sie dabei mehr Saft als die 20 EU GPU (heißt aber nicht dass es dann ineffizienter ist).
Die ganze CPU (CPU+GPU) braucht deswegen aber nicht mehr.


1) Das hat niemand anders Behauptet.
2) Ist die Auswahl der 40 EU trotzdem eine Entscheidung von Intel. Wennst was zum Ausbessern hast, dann sag es den Intel-Ingeneuren und nicht mich. Deine Belehrung, dass der Takt die 3D-Performance bestimmt ist hingegen lächerlich, wenn ich mir gerade überlegt habe, wie Intel zu einer GPU-Performance-Steigerung bei gleicher TDP kommt, was nicht unwichtig ist, weil es hier um Notebook-CPUs gehts.

in deinem NB merkst du davon wenig. Da kommen dir eher die neuen idle Sparmodi entgegen oder Connected Standby.
Wie Intel bei gleicher CPU TDP zu doppelter GPU Leistung kommt habe ich dir gerade erklärt und das ist wirklich alles andere als komplex- auch bei gleicher Fertigung. Die hypothetische GPU-TDP dieser DIE steigt natürlich an, aber vollkommen irrelevant für den Einsatz der CPU.

Die Frage ist was du willst. Ein NB das bei 20 FPS in Game 5 h läuft, oder eins das bei 40 FPS 3 h rennt. Die Frage stellt sich.
 
Zuletzt bearbeitet:
Zurück
Oben