Test Intel Iris Pro 5200 Grafik im Test

Bitte noch einen Oc Test machen was bei der Iris noch an Leistung geht,wundert mich das ihr das nicht gemacht habt.
 
Zitat:
"In Intels Datenbank wurden entsprechende Notebook-Modelle daraufhin kurzerhand auf das dritte Quartal verschoben, von den mittlerweile angeblich drei lieferbaren Desktop-Lösungen ist im Handel allerdings weiterhin nichts zu sehen."

Zitat:
"Im Batteriebetrieb taktet das S413 die GPU übrigens lediglich mit dem Basistakt von 200 MHz –
die 1.200 MHz im Turbomodus sind nicht abrufbar."

Ohne Worte.... :freak:

Wahrscheinlich handelt es sich dann hier um eine Desktop-Lösung :evillol: . Mobil ist ja nicht viel möglich....
 
Zuletzt bearbeitet:
nervenjere schrieb:
amd sollte mal das selbe wie intel verlangen und die leistung dementsprechend pushen ... ich bin mir sicher dann sieht intel kein land mehr.

Du hattest gerade die gleiche Idee, die AMD mit dem FX–9590 hatte.
Herausgekommen ist ein teurer Heizofen.
 
Mich würde mal interessieren wie es unter FullHD aussieht. Mit einer GT 650m, welche auf Taktraten der 750m läuft ist das durchaus möglich. Ich denke hier wird die Intel GPU derb einbrechen.
 
Kann mir jemand etwas zu der Kombination Core i7-4770R + Thin Mini ITX sagen? Ich konnte bisher kein solches MB ausfindig machen, es wäre aber naheliegend, genau mit dieser CPU ein Thin Mini ITX auf den Markt zu bringen. Ich hoffe da kommt bald was.

i7-4770R dürfte der stärkste Haswell mit HD5200 sein, und zwar keine mobile CPU (meine ich mal).
 
Ich denke mit zunehmender Auflösung steht die 5200 auch besser im Vergleich zur HD4600 da.

Was man schon sagen muss, ist das sich Intel ganzschön pushen muss um diese Leistung zu erreichen, auch angesichts der DIE und dem Transistorenaufwand. Bin gespannt wie die Architektur mit mehr EU skaliert.
 
Bin gespannt wie die Architektur mit mehr EU skaliert.
Wenn man sich da nur die 5200 und die 4600 anschaut sieht das eher ernüchternd aus.
20 EUs (4600) bringen etwa 75-80% der Leistung von 40EUs (wenn man davon ausgeht, dass ca. 15% der Leistung vom EDRam kommen).
 
pipip schrieb:
Richland hat beim Turbo und software features besonders bei den Notebook-Modellen einen Schritt nach vorne gemacht.

56013.png

56002.png


Die Beispiele zeigen eher die verbesserte CPU Leistung auf. Oder die Kombination aus beidem. Da wurde sogar die iGPU vom A10-4600M limitiert, die ist in den Spielen zu lahm. Kommt nicht häufig vor. Wenn das Beispiele für die gesteigerte GPU Leistung sein sollen, sind das 2 schlechte Beispiele.


pipip schrieb:
Sonst, klar geht der Turbo auf, der Funktioniert bei den mobilen nämlich seit Trinity super.


Der Turbo mag super funkttionieren, es ist und bleibt dennoch ein Turbo. Bei dem verglichenen Desktop Modell hast du den GPU Takt ständig anliegen egal welche Last, bei den Notebook Modellen nicht.
 
Ich zitiere mal Chase 256 , welcher CB zitiert hat. ""Im Batteriebetrieb taktet das S413 die GPU übrigens lediglich mit dem Basistakt von 200 MHz –
die 1.200 MHz im Turbomodus sind nicht abrufbar."

Sorry, aber das ist totaler Müll, das disqualifiziert einfach den ganzen Chip, wenn etwas nur dann zu gebrauchen ist, wenn es stationär angebunden ist, dann kann auch direkt auf einen Rechner zurückgreifen..... und da ist jeder Chip eher angebracht als diese schwachsinnige All in One Lösung die hunderte Euro mehr kostet als AMDs Lösung und dabei genau soviel Leistung bietet... jetzt soll mir bloß keiner mit Stromvebrauch kommen.
 
DaysShadow schrieb:
@MeridaFan: Scheinbar nicht, weil Intel diese Grafik als ihren Highend-Chip sieht und den entsprechend nur in den(der?) großen CPU einbaut die in den Ultrabooks keine Verwendung finden wegen des Stromverbrauchs und der Wärmeentwicklung.

Vielleicht in der nächsten Generation?


Auf jeden Fall sieht man hier trotzdem mal was es ausmacht genügend Kohle zu haben und so forciert zu entwickeln, vor 3 Jahren waren die Intel Grafikchips noch gar nichts und jetzt sind sie immerhin im oberen Lowend bis unteren Mittelfeld vorzufinden im Vergleich mit Nvidia und AMD.
2 Jahre noch und die spielen weit oben mit, wenn das so weiter geht von der Geschwindigkeit.

Hmm mal gucken in 2 Jahren ist Intel bei 14nm und die Konkurrenz bei 20nm. Der DIE von Iris Pro ist schon ziemlich aufgeblasen groß, glaube kaum das man interessiert ist das Teil noch größer zu machen.
 
aivazi schrieb:
Sorry, aber das ist totaler Müll, das disqualifiziert einfach den ganzen Chip, wenn etwas nur dann zu gebrauchen ist, wenn es stationär angebunden ist, dann kann auch direkt auf einen Rechner zurückgreifen..... und da ist jeder Chip eher angebracht als diese schwachsinnige All in One Lösung die hunderte Euro mehr kostet als AMDs Lösung und dabei genau soviel Leistung bietet... jetzt soll mir bloß keiner mit Stromvebrauch kommen.

Das wird eher ne Treibersache sein, oder EFI, Windows Kram... aber nicht so bleiben ^^
 
aivazi schrieb:
Ich zitiere mal Chase 256 , welcher CB zitiert hat. ""Im Batteriebetrieb taktet das S413 die GPU übrigens lediglich mit dem Basistakt von 200 MHz –
die 1.200 MHz im Turbomodus sind nicht abrufbar."

Sorry, aber das ist totaler Müll, das disqualifiziert einfach den ganzen Chip, wenn etwas nur dann zu gebrauchen ist, wenn es stationär angebunden ist, dann kann auch direkt auf einen Rechner zurückgreifen..... und da ist jeder Chip eher angebracht als diese schwachsinnige All in One Lösung die hunderte Euro mehr kostet als AMDs Lösung und dabei genau soviel Leistung bietet... jetzt soll mir bloß keiner mit Stromvebrauch kommen.



Die Aussage im Test ist leider so wertlos. Denn da müsste man erstmal die Energieoptionen nachprüfen.
 
Das ist der mit Abstand schlechteste und parteiischste ̶t̶̶e̶̶s̶̶t̶ Artikel fuer den Arbeitgeber des Gruenders von Computerbase den Ihr die letzten Jahre veroeffentlicht habt.

Als "Ort" fuer fachliche/sachliche Artikel habt ihr euch fuer die naechsten jahre disqualifiziert.
 
Ich finde die Diskussion über die vergleichswerte eher uninteressant. Was aber noch interessant wäre, wären Tests der HD 5200 in ein paar mehr unterschiedlichen Einstellungen. Mit AA, höhere Auflösung bei gleichen Einstellungen.
Bisher war Intel bei basic settings relativ gut hat aber viel Boden bei höheren Einstellungen verloren. Fragt sich ob bei der HD 5200 das Problem immer noch besteht. Nun ist ja das Bandbreitenproblem gelöst, aber wie gut klappt das wenn man es wirklich stresst.
 
Tobi4s schrieb:
Außerdem wurden im Gegensatz zur HD4600 doch die EU's verdoppelt, was rein rechnerisch ja auf ca. 90-100% mehr Leistung schließen lassen sollte. Zusammen mit dem EDRAM sollten doch Ergebnisse über 120% drin sein. Im Schnitt sind es aber trotz EDRAM nur ~60% Leistungsverbesserung. Woran liegt das?
Das ist völlig normal. Nur die Rechenwerke zu verdoppeln bringt noch lange nicht die doppelte Leistung. Die Frage ist wie der Rest der GPU aussieht. Es wurde aber mit Sicherheit nicht die komplette GPU verdoppelt.
Das sieht bei AMD ja nicht anders aus. Ein A6-5400K mit nur halb so vielen Rechenwerken wie der A10-5800K (und weniger Takt) erreicht auch laut CB-Test 66-71% der Leistung des A10. Da ist ein Teil sicher die Limitierung der Speicherbandbreite, aber nicht nur.
 
Zuletzt bearbeitet:
duskkk schrieb:
Ich finde die Diskussion über die vergleichswerte eher uninteressant. Was aber noch interessant wäre, wären Tests der HD 5200 in ein paar mehr unterschiedlichen Einstellungen. Mit AA, höhere Auflösung bei gleichen Einstellungen.
Bisher war Intel bei basic settings relativ gut hat aber viel Boden bei höheren Einstellungen verloren. Fragt sich ob bei der HD 5200 das Problem immer noch besteht. Nun ist ja das Bandbreitenproblem gelöst, aber wie gut klappt das wenn man es wirklich stresst.


Im Anandtech Test sah Iris Pro bei höheren Settings eher einen Tick besser aus.


bensen schrieb:
Das ist völlig normal. Nur die Rechenwerke zu verdoppeln bringt noch lange nicht die doppelte Leistung. Die Frage ist wie der Rest der GPU aussieht. Es wurde aber mit Sicherheit nicht die komplette GPU verdoppelt.
Das sieht bei AMD ja nicht anders aus. Ein A6-5400K mit nur halb so vielen Rechenwerken wie der A10-5800K (und weniger Takt) erreicht auch laut CB-Test 66-71% der Leistung des A10. Da ist ein Teil sicher die Limitierung der Speicherbandbreite, aber nicht nur.


Verdopplung ist ja auch nicht ganz richtig. Der Uncore ist nicht verdoppelt bei der GT3. Das ganze immer nur anhand der EU Anzahl auszumachen ist Quark. Wenn die Texture Sampler und alles drumherum nicht im gleichen Maß vergrößert werden, können sich woanders Engpässe auftun. Dazu gehört auch die Bandbreite. Edram hin oder her, der kann auch nicht alles abfangen.
 
bensen schrieb:
Das ist völlig normal. Nur die Rechenwerke zu verdoppeln bringt noch lange nicht die doppelte Leistung.
Das ist mir schon klar, nur müsste doch der EDRAM mal was reißen, immerhin ist der Speicher idR. der Flaschenhals. Dass da nicht wesentlich mehr kommt, trotz Verdoppelung der EUs und ankleben eines besonders schnellen Rams ist mir völlig unverständlich. Entweder taugt der EDRAM nicht so viel, wie man vermutet, oder die Architektur skaliert in diesen Größenordnungen furchtbar.
 
Das was Intel mit der Iris Pro hier macht ist weder besonders gut noch besonders innovativ - das nennt man Brechstangenmethode.

HD 4600 reicht nicht um an AMD ranzukommen? Na gut, Grafikeinheiten verdoppelt und eDram mit draufknallen...das müsste doch eigentlich ein Blinder von Hinten sehen.
Denn beim Rendern bringt dir der eDram nix.

Schnellste Grafikperformance abliefern, um jeden Preis. Ein praxistaugliches Produkt sieht meiner Meinung nach anders aus.
 
Ralf555 schrieb:
Verdopplung ist ja auch nicht ganz richtig. Der Uncore ist nicht verdoppelt bei der GT3.
Das ist das was ich schrieb. :confused_alt:

@Tobi4s
Gut skaliert das Design sicher nicht, aber furchtbar würde ich das jetzt nicht zwingend nennen. Wie gesagt bei AMD siehts auch nicht viel besser aus.

Aber generell lässt die Architektur sicherlich noch viel Raum für Verbesserungen. AMD mit GCN oder Nvidia mit Kepler sind da sicherlich schon auf einem ganz anderen Niveau.

@XyZ25
Wie soll man es sonst machen?
Bei den Grafikkarten macht man es seit Jahren auch nicht anders. Sicher ab und an kommt ne neue Architektur, aber meist sind das kleine verbesserungen und man geht einfach massiv in die Breite.
 
Zuletzt bearbeitet:
Ralf555 schrieb:
Die Beispiele zeigen eher die verbesserte CPU Leistung auf. Oder die Kombination aus beidem. Da wurde sogar die iGPU vom A10-4600M limitiert, die ist in den Spielen zu lahm. Kommt nicht häufig vor. Wenn das Beispiele für die gesteigerte GPU Leistung sein sollen, sind das 2 schlechte Beispiele.
Das war ja auch meine Absicht und Erklärung gab es auch dazu

Der Turbo mag super funkttionieren, es ist und bleibt dennoch ein Turbo. Bei dem verglichenen Desktop Modell hast du den GPU Takt ständig anliegen egal welche Last, bei den Notebook Modellen nicht.

Mit der AMD Trinity APU hat AMD eine Technik eingeführt die sorgen soll dass CPU und GPU immer die Performance otpimal ausnützt dabei aber in der TDP bleibt.
Ist eine Anwendung CPU lastig, CPU Turbo, Zockt man => GPU turbo. Die TDP wird aber immer eingehalten.
 
Zurück
Oben