Test Test: Trinity vs. Ivy Bridge im GPU-Test

In Laptops und HTPCs, wo die Platzfrage die Kosten in die Höhe treibt, halte ich Trinity für seht gut platziert, zumal man gerade auf Laptops in der Masse kaum höher als 1366x768 spielt. Da stört es auch nicht, wenn man eine Auflösung runterschalten müsste.

Aber auf dem Desktop haben Trinity/Llano nichts zu suchen.
 
fortunes schrieb:
Das schafft auch ein Celeron G550, kombiniert mit einer überdeutlich schnelleren HD6670 - für ganze 25€ weniger. Mainboard und RAM sind bei Intel auch günstiger, spart man noch mehr. Also all die Kosten für eine handvoll Games, die ich mit einer Intel-Konfiguration günstiger und besser spielen kann? Ach komm' schon... :rolleyes::

Ganz ehrlich? Exakt so einen Vergleich vermisse ich auf den Benchmarkseiten... würde mich mal wirklich interessieren wie sich die 2 Systeme im direkten Vergleich so schlagen. Der Preisunterschied dürfte wohl mit der besseren Verfügbarkeit noch verflüchtigen. Aber ob der (vermutlich) schwächere G550 dann zum Flaschenhals wird wär mal interessant. Oder hast du einen Link wo exakt das getestet wird?

Außerdem will ich auch nicht behaupten das deswegen ein Intel-System komplett nichts mehr wert ist... aber Trinity ist mindestens eine gleichwertige Alternative. Vor allem könnte man durch den Wegfall der Steckkarte für die GPU sehr kompakte Rechner bauen.


fortunes schrieb:
Sollte? Schau' dir meinen Link oben an. Crysis 2 in FullHD unspielbar, unter 10fps!!!

Wie gesagt: dann eben nur auf HD (1280x720) so sieht das Spiel immer noch gut aus. Anekdote: wenn ich hier auf meinem 26" Crysis 2 in 3D vorgeführt hab dann auch immer in 1280x720, da ich ansonsten nur 24Hz hab. Ist keinem aufgefallen... die waren alle von der Grafik und dem 3D Effekt (der ja auch nicht der beste ist) begeistert ;-)

Wie gesagt habs grad eben auf nem A6 Mobile gezockt... ok, waren keine oberkrassen Actionszenen sondern nur der Anfang bis zum ersten offenen Ausblick, aber das alles war flüssig genug. Wichtig ist nur das man auch noch dieses Motion-Blur abschaltet... ansonsten ists nicht spielbar...
 
Matzegr schrieb:
Bei HD3000 zu HD4000 war eine Strukturverkleinerung von 32nm auf 22nm (Faktor 2,11) dabei.
Die HD2500/HD4000 basieren auf einer neuen Architektur, deren Beschaffenheit Intel aber der Außenwelt vorenthält (warum auch immer). Eine alleinige Verkleinerung der Strukturbreite bringt doch keine Geschwindigkeitsvorteile.

Bei IvyBridge wurde auch die Architektur verändert, als man auf die kleinere Strukturbreite umsattelte und konnte so nochmals 5% aus der eh schon effizienten Architektur des SandyBridge rausquetschen.

Matzegr schrieb:
aber nächstes Jahr kommt von AMD auch Kaveri. Da haben wir nicht mehr die altbackene VLIW-Shader-Architektur sondern GCN. Das alleine bringt schon ein deutliches Leistungsplus.
Das möchte ich auch hoffen. Denn wenn das Leistungsplus der nächsten iGPU von Intel erneut so gut ausfällt, wird AMD bei dem mickrigen GPU-Leistungsplus von Llano auf Trinity Probleme bekommen.

Matzegr schrieb:
Vergleicht man ne HD5770 (VLIW-5) mit einer HD7770 (GCN) (beide haben 16 ROPs, 10 Shader-Cluster, 40 Textureinheiten und ein 128-bit Speicherinterface)bei gleichen Takt ist die GCN-Architektur bis zu 37% schneller. Wobei man noch erwähnen muss, dass bei GCN noch viel Raum für Treiberoptimierungen da ist.
Das stimmt, aber aufgrund der DIE-Oberfläche des Kaveri muss die iGPU schlank gehalten werden. Und je weniger bzw. kleiner die GPU wird, desto schlechter skaliert sie. Die hohe Leistung der GCN-Architektur rührt aus der Effizienz der ALUs, die Dank der neuen Architektur niemals ungenutzt bleiben. Wenn jedoch nur noch sehr wenige ALUs vorhanden sind, schmilzt der Vorsprung zusammen, da bei weniger ALUs die Gesamtauslastung fast immer gegeben ist.
 
@fortunes: "können froh sein wenn sie starten", Hast du selber ja schon bemerkt. Und wir sollen also wissen wie du das meinst auch wenn es anders da steht.

Naja. Ich denke du bleibst bei deiner Meinung und wir bei unserer und dann muss niemand noch mal lesen lernen.
 
Jesterfox schrieb:
Ganz ehrlich? Exakt so einen Vergleich vermisse ich auf den Benchmarkseiten... würde mich mal wirklich interessieren wie sich die 2 Systeme im direkten Vergleich so schlagen. Der Preisunterschied dürfte wohl mit der besseren Verfügbarkeit noch verflüchtigen. Aber ob der (vermutlich) schwächere G550 dann zum Flaschenhals wird wär mal interessant. Oder hast du einen Link wo exakt das getestet wird?
Leider kam noch keine Webseite auf den Trichter, Trinity mal gegen eine LowBudget-Intel-Lösung mit guter dedizierter Grafik zum Trinity-Preis antreten zu lassen.

Aber hier kann man in etwa nachfühlen, was einen erwarten würde:
http://www.tomshardware.de/gaming-fx-pentium-apu-benchmark,testberichte-240958-4.html

Der G550 liegt etwas unterhalb des Pentium G630 und der Trinity ist etwas schneller als der Llano. Und da der Pentium gegenüber dem Llano sehr gut dasteht, würde es mich nicht wundern, wenn der Celeron dem Trinity in Games CPU-technisch das Wasser reichen kann.

Nimmt man dem Trinity die dedizierte Grafik weg und gibt dem Celeron eine hinzu, so dass man etwas unterhalb des Preises von Trinity liegt, sieht Trinity ganz schön blass aus - eben wegen der iGPU.

Jesterfox schrieb:
aber Trinity ist mindestens eine gleichwertige Alternative. Vor allem könnte man durch den Wegfall der Steckkarte für die GPU sehr kompakte Rechner bauen.
Eine gleichwertige Alternative leider nicht, denn die Architektur ist in Games nicht annähernd so effizient wie in Sandy- bzw. Ivy-Bridge. Da genügen bereits deutlich günstigere Celerons/Pentiums, um Llano/Trinity in Schach zu halten. Wenn man eine dedizierte Grafikkarte hinzupackt.

Die Daseinsberechtigung für kompakte Rechner, gerade HTPCs oder Laptops, spreche ich Llano/Trinity niemals ab. Gerade hier sehe ich die Vorteile gegenüber Intel.
 
Ich habe mit Interesse den Test gelesen, kann aber so wirklich nichts mit ihm anfangen. Wie mehrfach hier erwähnt wurde, wäre der i3-3225 der richtige Testpartner gewesen durch die HD4000 macht das schon einen großen Unterschied. HTPCs werden in dem Test zwar erwähnt aber deren Bedürfnisse nicht brücksichtigt. Intel aufgrund des niedrigeren Stromverbrauchs in diesem Bereich zu empfehlen ist fraglich da Ihr den 24p Bug noch immer nicht getestet habt. Aufgrund der starken Grafik und des nicht vorhandenen 24p Bugs könnte AMD bei HTPCs eine sehr gute Alternative sein.

Der Test ist interessant aber bei der Frage, was er mir bringt, sehe ich nur ein großes Fragezeichen. Die Testkandidaten passen einfach nicht zusammen und die anderen Trinity APUs wurden außer acht gelassen. Dazu Empfehlungen (für HTPC) zu denen der Test nicht passt und gar nichts aus sagt.

Mich würde die Meinung von Computerbase dazu interessieren, vielleicht kann einer der Moderatoren etwas dazu sagen.
 
Die Moderatoren können dazu herzlich wenig sagen. Der/die Autor(en) sollten sich mal zu Wort melden oder nachziehen.
 
fortunes schrieb:
Eine alleinige Verkleinerung der Strukturbreite bringt doch keine Geschwindigkeitsvorteile.

Kürzere Leitungslängen -> kürzere Signallaufzeiten sowie geringeren Latenzzeiten beim Umladen der Kapazitäten in den Bauelementen.
Dazu geringere Leistungsaufnahme -> höhere Taktraten möglich bei gleichen Verbrauch.
 
Nuklon schrieb:
An den Kommentaren sieht man mal wieder das die hier die Nerds rumrennen. :)

AMD schielt auf den Fertig-PC-Markt für Otto-Normaluser. Für Webseiten surfen reicht es total, wie auch zum Word öffnen und selbst Spiele überlebt er. Auch im Laptopbereich sind die Trinitys genial.

Die Leistungsaufnahme find ich völlig übertrieben dargestellt. Die meisten Rechner idlen mit Word und Browser vor sich hin. Und wie lange zockt man denn in der Regel mit solchen Rechnern? (Ja, die Dauerzocker kaufen sich eh was anderes). Im Idle ist er doch ne Wucht und dort wird er die meiste Zeit sein.
Selbst mein E350 reicht im Notfall für SC2, CS:S und andere Sachen.

Ich finde die Test heutzutage haben einfach nichts mehr mit der realen Benutzerverhalten eines Durchschnittsuser zu tun, bzw sagen wenig darüber aus. Keiner weiß ob er dauerhaft mit Intel +Graka oder AMD mehr verbraucht. Einfach weil es keiner dauerhaft testet.

Grüße Nuklon

Dem muss ich im Prinzip zustimmen. Gerade für den Laptopsektor ist die kombinierte CPU + Grafikleistung toll, bei gleichzeitig möglichem niedrigen Verbrauch.

Jedoch fragt man sich trotzdem wozu man dieses bisschen (zu wenig) Grafikleistung im Desktop PC braucht.
Für jegliches Gaming eigentlich zu wenig und für gar nicht Gaming schlicht zu viel.

Vom Preis her ist so ein Trintiy A6 oder A8 für unter 100€ mit entsprechend günstigem Drum rum schon interessant als Allround PC.
Allerdings muss sich dieser dann vom Preis her wiederum messen lassen mit Celeron oder Pentium + kleine Grafikkarte. Wobei AMD die Karten unter 100€ ja auch vernachlässigt, wahrscheinlich mit Absicht. Im Grunde gibts da nur HD6670 oder so, die man fürs gleiche Geld wie einen A10 mit nem Celeron G530 kombinieren kann.
Und die 3-4W Vorsprung im Idle sind auch toll, aber im Grunde auch nur was für Freaks (wie mich :)), aber nicht ausschlaggebend.

Das Problem ist:
Wer wirklich auf den Preis sowie auf den Stromverbrauch und dessen Kosten achtet kauft eigentlich gebraucht wenn er clever ist.
Und ein 45nm Core2Duo bzw. Pentium Dual Core ist mit IGP ebenso sparsam bzw. mit mittlerer Graka etwas drüber, dafür in Summe auch schon wieder deutlich schneller (HD57xx).

Alle anderen kaufen das, was grad im Mediamarkt steht.
Egal ob da Intel oder AMD oder Pustekuchen drauf steht.
Je nachdem was die Werbetafel zeigt und was der meistens unwissende Mediamarktfacharbeiter der Meinung ist.

Es gibt also immer Alternativen.
 
Zuletzt bearbeitet:
^
Dieses oder nächstes Wochenende und das demnach Nächste gehe ich in den lokalen Media-Markt und bau mal eine Statistik auf:
Intel/AMD CPU
Intel/Amd APU
AMD/Nvidia GPU

gegebenenfalls auch erst wenn flächendeckend Trinity und Piledriver erschienen sind....
Jemand eine Ahnung in Welches Forum das dann gehört?
 
Matzegr schrieb:
Kürzere Leitungslängen -> kürzere Signallaufzeiten sowie geringeren Latenzzeiten beim Umladen der Kapazitäten in den Bauelementen.
Dazu geringere Leistungsaufnahme -> höhere Taktraten möglich bei gleichen Verbrauch.
Das, was du als "kurz" bezeichnest, nennt man Theorie. Das bewirkt in der Praxis einen Vorteil im Bereich von Nanosekunden, den man nicht messen kann.

Die höheren Taktraten würde man auf dem Papier erkennen und so die höhere Leistung bereits logisch nachvollziehen können.

Woran aber erkennt man die Mehrleistung von SandyBridge auf IvyBridge bei gleichem Takt?

SandyBridge: 1,16 Milliarden Transistoren
IvyBridge: 1,4 Milliarden Transistoren

Werden das plötzlich mehr Transistoren, nur weil Intel den Fertigungsprozess geschrumpft hat? :stock:

Oder sind das womöglich Architekturverbesserungen? ;)
 
@Krautmaster
Habe mich wohl schlecht ausgedrückt.
Wenn ich eine weitere GPU dazu stecke, dann deaktiviere ich die HD4000 und nutze nur die HD7770.
Macht doch keinen Sinn beide laufen zu lassen, weil ich damit auch wieder mehr Stromverbrauch habe.
Wenn die HD7770 von der Leistung nicht ausreicht, dann habe ich einfach die falsche GPU gekauft. Glaube kaum, das mir das zuschalten der HD4000 da viel helfen wird.

@Alle
Für einen HTPC könnte ich mir schon einen G550 mit einer (wegen dem Stromverbrauch hervorragenden) HD 7750 vorstellen. Das macht dann € 124,-. Ich spare allerdings am RAM, weil hier reicht mir der billigste 1066MHz RAM voll aus, weil die Grafikkarte ja Ihren eigenen RAM hat.
 
Stellt aktuelle, anspruchsvolle Spiele nicht in FullHD flüssig dar. Mit Spielen von übergestern oder KlickiBunti-Spielen braucht mir keiner ankommen. Ich rede von richtigen Spielen.

Für dich - okay.
Ich kann auch mit der Auflösung runter und für mich sind die 30fps in C2 alles andere(!) als schlecht.
Ich rede auch von richtigen Spielen, selbst Moorhuhn ist auch ein richtiges Spiel - was ist denn ein falsches?

C2 also auch ein "falsches Spiel", wenn es (mit etwas niedrigerer Auflösung) mit 30 (subjektiv mit mehr als reichenden fps) läuft?

Und, dass jeder FullHD-Monitore hat, halte ich auch für sehr fragwürdig ;)
Ich denke selbst hier im Forum ist die Anzahl von FullHD-Monitoren <50%.
In der Allgemeinheit wird der Anteil noch deutlichst niedriger sein - jedoch nur meine Vermutung.

Nenn mal deine richtigen Spiele, die (mit verminderten Details!) nicht gscheit laufen (mit max. Details wird wohl kaum ein Spiel der letzten Jahre gscheit laufen :rolleyes:, aber auch logisch, denn da kommen schon neuere GPUs ins schwitzen) - wahrscheinlich alle, da du xxx fps brauchst. Ich brauch xxx fps nicht.

Die einzigen Spiele, bei denen es eng werden könnte und die mir einfallen sind:
ARMA II und evtl. GTA IV.
All deine sogenanten "richtigen Spiele" werden wohl oder übel laufen - nicht mit maximalen Details und vielleicht ein oder zwei Stufen in der Auflösung runter (wenn man einen FullHD Monitor hat, ansonsten nativ belassen) und es luppt wunderbar.

Gottseidank gibt es verschiedene Ansichten, wäre ja auch langweilig, wenn man nichts zum diskutieren hätte :D
 
Zuletzt bearbeitet:
fortunes
Denn wenn das Leistungsplus der nächsten iGPU von Intel erneut so gut ausfällt, wird AMD bei dem mickrigen GPU-Leistungsplus von Llano auf Trinity Probleme bekommen.
Da bin ich sehr gespannt. Denn was ich gelesen habe bis jetzt, hat HSW keine verbesserte Architektur sondern verwendet die igp-Architektur von IB.
Weiteres soll für den Desktop nur GT2 kommen. Das wahrscheinlich den Grund das GT3 nur teuer produziert werden kann, und die GT3 hauptsächlich für Ultrabooks kommen soll.
http://semiaccurate.com/2012/10/03/oems-call-intels-haswell-pricing-absurd/

Naja ich bin gespannt :P

Werden das plötzlich mehr Transistoren, nur weil Intel den Fertigungsprozess geschrumpft hat?
Weil die die HD4000 zum Bsp mehr Einheiten dazubekommen hat ?
 
Zuletzt bearbeitet:
MikelMolto schrieb:
Für einen HTPC könnte ich mir schon einen G550 mit einer (wegen dem Stromverbrauch hervorragenden) HD 7750 vorstellen. Das macht dann € 124,-. Ich spare allerdings am RAM, weil hier reicht mir der billigste 1066MHz RAM voll aus, weil die Grafikkarte ja Ihren eigenen RAM hat.
Nur dass ich in einem HTPC die Leistung eines Trinity niemals benötigen werde - wenn ich nicht das eine oder andere Spielchen wagen möchte.

Für die Aufgaben eines HTPCs sind bereits E-350 und E-450 vollkommen ausreichend, da stellt Trinity das leistungsmäßige Optimum dar. In diesem Feld ist Intel unterlegen, ohne dedizierter Grafik erst recht, denn die Grafiktreiber von Intel sind alles andere als bildfreundlich.

SaarL schrieb:
Für dich - okay.
Ich kann auch mit der Auflösung runter und für mich sind die 30fps in C2 alles andere(!) als schlecht.
Ich rede auch von richtigen Spielen, selbst Moorhuhn ist auch ein richtiges Spiel - was ist denn ein falsches?
Klar, Lanfwirtschaftssimulator ist auch ein richtiges Spiel - aber dafür brauche ich kein Trinity, da tut's auch eine HD4000.

Und was soll der geneigte, unerfahren Käufer von Spielen denken, dem Trinity als "klasse, vollkommen ausreichend" verkauft wurde, wenn er auf seinem nagelneuen FullHD-TFT (die Dinger gibt's schon ab 90€ !!) die Grafikeinstellungen runterdrehen muss und das Bild dann plötzlich gar nicht mehr nach FullHD aussieht? :rolleyes:

Für Browsergames etc. brauche ich kein Trinity, für Crysis2 ist Trinity in ansehnlichen Auflösungen zu schwach.

Und du weißt ganz genau, was ich mit "richtigem Spiel" meinte. Aber wenn einem die Argumente ausgehen, legt man eben jedes Wort auf die Goldwaage. :freak:

SaarL schrieb:
Und, dass jeder FullHD-Monitore hat, halte ich auch für sehr fragwürdig ;)
Schon wieder werden meine Aussagen komplett verdreht. Du lässt da ein einziges, ganz entscheidendes Wort in meiner Aussage weg. Wenn du zitierst, dann bitte richtig. :stock: Und den Marktanteil an FullHD-TFTs kannst du dir selbst ausrechnen, wenn die Dinger weniger als eine aktuelle Trinity-APU kosten. Auf die Schnelle finde ich leider keine Statistiken.

SaarL schrieb:
Nenn mal deine richtigen Spiele, die (mit verminderten Details!) nicht gscheit laufen (mit max. Details wird wohl kaum ein Spiel der letzten Jahre gscheit laufen :rolleyes:,
Habe ich doch bereits. Crysis2 & Metro2033 sind in FullHD auf dem Trinity unspielbar, selbst in geringsten Details. GTA4 sollte allerdings in FullHD mit geringsten Details spielbar sein. So lange man nicht dieses HighRes-Update einspielt...

SaarL schrieb:
Gottseidank gibt es verschiedene Ansichten, wäre ja auch langweilig, wenn man nichts zum diskutieren hätte :D
Dem stimme ich dir ausnahmsweise zu. :evillol:
 
fortunes schrieb:
Werden das plötzlich mehr Transistoren, nur weil Intel den Fertigungsprozess geschrumpft hat? :stock:

Oder sind das womöglich Architekturverbesserungen? ;)

Hab ich irgendwann Architekturverbesserungen ausgeschlossen? :rolleyes: Die HD4000 im Ivy hat 16 Execution units statt 12 EUs (HD3000) desweiteren wurde der Aufbau wesentlich modularer gestaltet. Trotzdem kommt ein Teil der Leistungssteigerung auch aus der kleineren Fertigung.

HD3000 zu HD4000 waren laut CB-Test +33% Leistung.

Wenn man mit Haswell wieder +33% Leistung schafft ist man immer noch nicht auf Llano-Niveau. Um auf Trinity aufzuschließen braucht man +60% bzw. +70%. Das wäre machbar, keine Frage, nur müsste man sich das diesmal mit höheren Stromverbrauch "erkaufen", da keine Strukturverkleinerung stattfindet. Bei Ivy konnte man dank kleinerer Struktur 33% mehr EUs verbauen bei sogar noch leicht gesenkten Stromverbrauch. Sowas geht nicht alleine durch Architekturverbesserung.
 
pipip schrieb:
Da bin ich sehr gespannt. Denn was ich gelesen habe bis jetzt, hat HSW keine verbesserte Architektur sondern verwendet die igp-Architektur von IB.
Weiteres soll für den Desktop nur GT2 kommen. Das wahrscheinlich den Grund das GT3 nur teuer produziert werden kann, und die GT3 hauptsächlich für Ultrabooks kommen soll.
http://semiaccurate.com/2012/10/03/oems-call-intels-haswell-pricing-absurd/
Was die preislichen Planungen von Intel angeht, schießen sie sich selbst ins Bein. AMD soll sich beeilen und Trinity mit aller Macht in den Notebookmarkt drücken. Die Leistung reicht für Notebooks dicke aus und mit der APU wird auch das eine oder andere Spielchen trotz der schlanken Notebookform möglich sein - im gegensatz zur HD4000.

Was letzten Endes bei Haswell rumkommt, behalte ich für mich. Ich mag Spekulationen nicht. Ich sagte ja auch nur, falls es Intel wieder schafft, die Leistung derart aufzubohren. Wenn nicht, hat AMD leichtes Spiel.

pipip schrieb:
Weil die die HD4000 zum Bsp mehr Einheiten dazubekommen hat ?
Die 3D-Tri-Gate-Transistoren spielen da auch noch eine entscheidende Rolle, aber ohne die iGPU massiv aufzubohren wird Intel wohl kaum die Leistung derart verbessert haben können. ;) Leider kann man nicht sagen, welchen Anteil die HD4000 an den DIEs hat - aber die CPUs werden auch schon ihren Teil abbekommen haben.
 
Matzegr schrieb:
Hab ich irgendwann Architekturverbesserungen ausgeschlossen?
Soll ich bei deinen Aussagen an alles denken, was du nicht sagst? :rolleyes: Du hast bei deiner Argumentation keine Strukturverbesserungen aufgeführt.

Matzegr schrieb:
nur müsste man sich das diesmal mit höheren Stromverbrauch "erkaufen", da keine Strukturverkleinerung stattfindet. Bei Ivy konnte man dank kleinerer Struktur 33% mehr EUs verbauen bei sogar noch leicht gesenkten Stromverbrauch. Sowas geht nicht alleine durch Architekturverbesserung.
Wenn man dem Tick-Tock-Modell folgt, würde dies bedeuten, dass mit Haswell eine komplett neue, überarbeitete CPU-Generation ansteht.

Erst der Shrink von Sandy auf Ivy und dann die neue Generation. Wenn Intel der neuen Generation nicht auch noch eine deutlich weiter entwickelte und nicht nur geshrinkte+gewachsene iGPU dazugibt, werden sie es nie schaffen, an AMD heranzukommen.

Aber Spekulationen helfen nichts. Abwarten schon eher. ;)
 
@pipip
Ich kann ja viele Entscheidungen von Intel überhaupt nicht verstehen. Wenn aber mit Haswell GT2 für Desktop und GT3 im mobilen Bereich kommt, dann ist das aus meiner Sicht der richtige Weg.
Man muss ja auch einmal fragen, wie viel APU/iGPU ist überhaupt sinnvoll in einem Desktop Rechner. Muss es da ein Wettrennen zwischen Intel und AMD geben?
Klar passt das schon im mobilen Bereich wo Intel ja auch mit der GT3 auf AMD reagiert. Wenn ich aber zum gescheiten zocken eh eine GPU stecke, dann brauche ich auch keine starke APU/iGPU, die ich dann auch noch bezahle aber nicht nutze.
Jetzt erzähle mir bitte keiner, das Intel/AMD sich die APU/iGPU nicht von uns bezahlen lassen.
 
Zurück
Oben