Test Test: Trinity vs. Ivy Bridge im GPU-Test

KOENIGSBLAUER schrieb:
Ein A4-5300 kostet jetzt 52,72 € Tendenz höchstwahrscheinlich fallend und der wird beim jetzigen Anforderungsprofil zum größten Teil im Idle sein.

12 Jahre.....Übergang zwischen Unvernunft und Vernunft würd ich sagen.....Du kennst deine Tochter besser,dennoch würd ich nicht zum A4/6 oder gar Celeron greifen,sondern zum A10 5700 wenn du nicht dauernt aufrüsten willst,da die CPU Leistung in diesem Alter vieleicht doch noch entscheidender ist als die Graka..
Ergänzung ()

WOW lief schon recht gut mit dem Llano,ne 1000 Mann Schlacht hab ich da aber nicht mit getestet.
 
Jesterfox schrieb:
Jo, für WoW sollte der Ideal sein, das braucht ne gute Kombi aus CPU und GPU, das sollte der Trinity eigentlich exakt treffen. Da dürfte auch die Kombo aus Celeron und 6670 im Nachteil sein.
Wohl kaum. WoW ist wie viele andere "Billig"-Games auf alten Engines zusammengeschustert worden und profitiert kaum von mehreren Kernen.

Während AMD-CPUs und -APUs von der Nutzung mehrer Kerne überirdisch stark profitieren, fallen sie in der Pro-Takt-Leistung bei einzelner Kernnutzung stark zurück.

Ein Modul des Trinity dürfte es selbst gegen den Celeron G550 mit seinen 2,6GHz schwer haben, ihn in Schach zu halten, wenn ein einzelner Kern im 3,3GHz i3 ihn mächtig deklassiert.
https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/21/

Und die externe HD6670 ist deutlich schneller als die HD7660D.

Casi030 schrieb:
12 Jahre.....Übergang zwischen Unvernunft und Vernunft würd ich sagen.....Du kennst deine Tochter besser,dennoch würd ich nicht zum A4/6 oder gar Celeron greifen,sondern zum A10 5700 wenn du nicht dauernt aufrüsten willst,da die CPU Leistung in diesem Alter vieleicht doch noch entscheidender ist als die Graka..
Ich würde schon erstmal nur zum A4/A6 greifen, da das für das aktuelle Aufgabenspektrum vollkommen ausreicht. Selbst Sims3 dürfte damit spielbar sein. Und wenn es doch plötzlich mehr wird, vielleicht nächstes Jahr, kann man das gesparte Geld direkt in Kaveri investieren.
 
Cinebench ist n FPU Test... der ist wenig aussagekräftig für Spiele. Außerdem nutzt WoW mindestens 2 Kerne, ich glaub sogar das es insgesamt mehr Threads hat die allerdings dann kaum Last verursachen und somit kaum die Skalierung beeinflussen.

Die stärkere Grafikkarte nutzt dann wenig wenn das Spiel im CPU Limit hängt. Aber wie so oft: leider haben wir keine aussagekräftigen Benchmarks sondern können nur vermuten...
 
Jesterfox schrieb:
Cinebench ist n FPU Test... der ist wenig aussagekräftig für Spiele. Außerdem nutzt WoW mindestens 2 Kerne, ich glaub sogar das es insgesamt mehr Threads hat die allerdings dann kaum Last verursachen und somit kaum die Skalierung beeinflussen.
Cinebench zeigt die Effizienz eines einzelnen Kerns, bei dem AMD ganz schön alt aussieht. AMD fordert deswegen jeden bei Benchmarks auf, die Programme in den aktuellsten, auf Multicore optimierten Version zu nutzen. ;)

Jesterfox schrieb:
Die stärkere Grafikkarte nutzt dann wenig wenn das Spiel im CPU Limit hängt. Aber wie so oft: leider haben wir keine aussagekräftigen Benchmarks sondern können nur vermuten...
Das CPU-Limit erreicht man auch in WoW nicht, wenn man die Auflösung auf FullHD schraubt und maximale Details aktiviert.

Was die CPU-Skalierung angeht: Intel erreicht bereits bei DualCores das Optimum - AMD braucht dafür 3 Cores / 3 Module:
http://www.tomshardware.de/world-of...ctx-11-performance,testberichte-240687-9.html

Und ein Intel i3-530 (2x 2,93GHz) zersägt bereits mit seinen 62fps einen Phenom II X6 (6x 3,7GHz) mit dessen 60fps.

4 Kerne weniger, 700MHz weniger und doch schneller. Fällt dir was auf?

AMD hat beim Trinity einen Vorsprung von 1,2GHz auf den Celeron G550 (aber nur 4 Module, keine 6 Kerne) - von denen architekturbedingt in etwa 700MHz wegfallen. Bleibt ein Vorsprung von 500MHz. Die HD6670 ist in WoW aber durchschnittlich 45% schneller als die HD5570/GT430, die in etwa einer HD7660D entsprechen.
Und da WoW in hohen Auflösungen massiv von einer hohen Grafikleistung profitiert, wird Trinity mit seiner kleinen HD7660D das Nachsehen haben.

WoW profitiert zwar von einem hohen Grundtakt - noch mehr aber von einer hohen GPU-Leistung.
 
Das CPU Limit kann man bei WoW jederzeit erreichen wenn man die LUA-Engine ausreizt... die AddOns sind der größte Performancekiller, aber es gibt wohl kaum einen der wirklich ohne spielt. Außerdem wird wohl auf dem Trinity nicht unbedingt auf FullHD geschraubt, aber das Thema hatten wir schon...

Die 3 Core Auslastung kann ich grob bestätigen aber ich hab auch nen AMD ;-) deswegen sagte ich ja es gibt nen leichten Vorteil bei mehr als 2 Cores, aber keine "volle" Skalierung.


Aber Cinebench ist trotzdem n FPU Bench, wir bräuchten nen Single-Core Integer/Mixed Bench um was zu sehen. Aber ich glaub da gibts nix vernünftiges, oder? Verlgeich mal einen Pentium 166 mit einem Cyrix 166 einmal auf Integer und dann einmal auf FPU und du siehst was ich meine.
 
Habe hier noch einen kleinen Test:
http://www.techpowerup.com/reviews/AMD/HD_6670/17.html

Während die HD6670 in 1920x1200 @ Ultra-Settings und 4x AA noch 26fps auf die Beine stellt, sehen GT430/HD5570, welcher von der Leistung her einer HD7660D entsprechen, mit 15-17fps ganz schön alt aus.

Schaltet man dann das 4xAA ab, rutscht die HD6670 locker über die 30fps - die HD7660D noch lange nicht.
Ergänzung ()

Ich habe gerade noch'mal diese News gelesen:
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=23353 &catid=34&Itemid=99

Wenn sich die 3fache HD2500-Leistung bewahrheitet, hat intel mit Haswell die Trinity-GPU eingeholt und wird irgendwo zwischen HD7480D und HD7660D landen.

Wenn sich das so bewahrheitet. Aber ich halte ja nicht viel von Spekulationen. ;)
 
Zuletzt bearbeitet:
HWInfo hat auch nen Integer Benchmark,
auch kann man Single oder Multicore auswählen

was bei Trinity vielleicht noch greift gegenüber den günstigen Intels ist das Instruktionset AES AVX etc

Video ENcoding auf der GPU ist mit CCC-AMD-Videokonverter ja nicht besonders.
FLV mag der gar nicht und stürzt auch oft ab hier.

xMediaRecode zB nutzt schon AVX
 
Zuletzt bearbeitet:
Auf 1920x1080 sollte die HD7660D WoW 4.x.x/5.x.x packen, zumindest mit 1x AA. Selbst auf einer älteren 5650M GPU läuft das ganze akzeptabel und auf einer 5870M sogar auf sehr hohen Details @ 60FPS/1080P.

Budget PC Benutzer können einfach WoW 2.4.3 (TBC) spielen, das hat weitaus weniger Anforderungen und läuft auch auf weitaus älteren Systemen (Zum Bsp P3 1Ghz, 1 GB RAM, FX5500 PCI) flüssig, daher läuft das ganze auch auf älteren Netbooks oder dem WeTab spielbar.

Wer an "WoW 2.4.3 TBC" Interesse hat und ausbalanciertes PvP/PvE bevorzugt kann einfach mal meinen Namen googeln :)
 
Die Treiberinformation im Test wurde immer noch nicht hinzugefügt. Das zeigt wieder mal deutlich, dass der hier testende Redakteur überhaupt kein Interesse an seinen Tests zeigt, um etwaige Fehler auszubessern.
 
crogge schrieb:
Auf 1920x1080 sollte die HD7660D WoW 4.x.x/5.x.x packen
Die HD7660D packt WoW nicht in FullHD @ Ultra. Das schafft die HD6670 "gerade so" spielbar. ;)
 
fortunes schrieb:
Die HD7660D packt WoW nicht in FullHD @ Ultra. Das schafft die HD6670 "gerade so" spielbar. ;)

Ich hatte nichts von "Ultra" geschrieben, relativ hohe Details sollten jedoch möglich sein.
 
crogge schrieb:
Ich hatte nichts von "Ultra" geschrieben, relativ hohe Details sollten jedoch möglich sein.
Ist auch problemlos möglich. In den "guten" Qualitätseinstellungen ist es problemlos spielbar. Sieht aber im Vergleich zu "ultra" sehr, sehr bescheiden aus. Dann merkt man WoW sein Alter überdeutlich an. Und dafür dann so viel Geld ausgegeben zu haben...

Da komme ich mit einem Sandy-Pentium und einer HD6670 günstiger und schneller weg.
 
In Sachen zwischen in und externer Grafik umschalten, könnte vielleicht einige interessieren, dass es von Gigabyte ein Board mit Lucid Universal MVP Support gibt :)
http://www.gigabyte.com/microsite/319/images/features.html


pipip schrieb:
KAOZNAKE

Apus, wie viele gibt es denn xD
Apu.png

/signed, mir kam das gleiche in den Sinn und fand ich sehr nervig...
 
Naja, die Idee hinter Lucid ist noch etwas holprig. Viele meckern über die Treiber, die Leistung fressen, und Grafikkarten, die sich entweder nicht abschalten oder nicht mehr aufwachen.

Das System ist etwas unausgereift. Ich hoffe immer noch, dass die Hersteller da an etwas arbeiten, aber wenn der IDLE-Verbrauch weiter so permanent nach unten geht, brauchen wir die Mehrkosten für so einen Chip bald nicht mehr. ;)
 
derGrimm schrieb:
In Sachen zwischen in und externer Grafik umschalten, könnte vielleicht einige interessieren, dass es von Gigabyte ein Board mit Lucid Universal MVP Support gibt :)

Bitte hier keine Schleichwerbung, schon gar nicht auf Basis von Halbwissen.;)

Das ist keine Funktion des GB-MBs sondern eine Sache des Chipsatzes. Konkret kann das jedes aktuelle Z77-MB, meines (AsRock Z77 Extreme 4) auch. Allerdings ausprobiert hab ich das bisher nicht. Jedoch habe ich oft von vielen Problemen und Inkompatibilitäten gehört.

derGrimm schrieb:
Als ob es einen Unterschied bei der GPU Beschleunigung macht, ob man den A10+Nvidia Graka oder Intel+Nvidia Graka testet. Die Nvidia Grafikbeschleunigung dürfte immer identisch sein.

Also für mich ist eine GT430 keine GraKa, sondern das was man in einen älteren Office-PC (z.B. mit G33-Chipsatz) steckt um einen DVI/HDMI Anschluß zu bekommen, oder auf ein MB ohne GrafikChip für den reinen Anwendungsbetrieb (2D). Eine GraKa dagegen ist etwas, das man fürs Zocken braucht. Das wäre um bei aktuellen Modellen zu bleiben eine GTX 660 - ohne ti für Low-End Auflösung (1680x1050) und eine mit ti als Low-End-Lösung für 1080p. Das dürfte in AMD-Worten also HD 7870 / HD 7950 oder so ähnlich entsprechen, kenne mich da nicht so aus.

Klar gibt es viele GraKa-Klassen darunter. Die kauft man aber nicht. Genauso wenig wie einen Akkuschrauber für 29€ im Baumarkt. Es muß nicht unbedingt Festool für 500€ sein, aber doch mindestens ein Bosch oder Metabo für ca 100€. Alles andere ist einfach nur noch Schrott. Wenn man das Geld nicht hat, kauft man lieber gar nichts sondern spart bis man es hat anstatt sich Schrott zu kaufen. Das ist keine Arroganz sondern schlichtweg Lebenserfahrung.

Ich habe einen High-End PC (ca. aktuell 1200€) und einen High-End Monitor (600€) und ziemlich passables THX 7.1 LS-Set (300€). Zusammengespart von ca. 150€ monatlich zur meiner freien Verfügung. Das geht durchaus.

So wie ich jeden davor warne sich einen 30€ Akkuschrauber zu kaufen, warne ich jeden sich Low-End im PC-Bereich zu kaufen. Das geht nicht gegen AMD sondern gegen Low-End. Egal ob NVidia-GraKa, AMD APU, Akkuschrauber oder Auto, mein Motto ist lieber sparen und sich etwas vernünftiges Kaufen.
 
BlackWidowmaker
Genauso wenig wie einen Akkuschrauber für 29€ im Baumarkt. Es muß nicht unbedingt Festool für 500€ sein, aber doch mindestens ein Bosch oder Metabo für ca 100€.
Es gibt auch Leute die verwenden einen normalen Schraubenzieher.
sondern schlichtweg Lebenserfahrung.
Aus der Baumarktwerbung ?
mein Motto ist lieber sparen und sich etwas vernünftiges Kaufen.
Was Vernünftig ist oder nicht, muss jeder für sich selbst entscheiden, denn die Bedürfnisse und Vorstellungen sind nun mal anders. Es gibt genug Leute die nicht mehr als 400 euro ausgeben wollen, kaum zu glauben was :O
 
Zuletzt bearbeitet:
pipip schrieb:
Was Vernünftig ist oder nicht, muss jeder für sich selbst entscheiden, denn die Bedürfnisse und Vorstellungen sind nun mal anders.

Vorstellungen ist das was man hat wenn man nicht über Erfahrung verfügt. Bedürfnisse dagegen steigen zu 99,9%. Qualität ist etwas was man auch erleben muß. Sobald man sie erlebt steigen die Bedürfnisse.

Die meisten Leute die zu mir kommen sind z.B. der Meinung es reicht ihnen ein 22" TN-Panel. Dann führe ich mit ihnen den direkten Vergleich durch zwischen meinem alten HannsG 281 (27,5" TN-Panel 1200p) und meinem Dell 2709W (27", S-PVA, 1200p), vor allem Ausleuchtung, Blickwinkel, Farbstabilität und Schwarzwert. Dadurch das ich ihnen zeige auf welche Details sie achten müssen und wo die Unterschiede sind, sensibilisiere ich die Leute überhaupt für Qualität. Klar könnte man auch mit einem TN vorlieb nehmen. Doch die allermeisten gehen wieder mit einem will-haben-Gefühl. Wenn ich so etwas sage wie z.B. daß man das 2-3 fache des Preises seiner GraKa für den Monitor ausgeben sollte hält man mich oft für einen Spinner/Nerd. Wenn man bei mir gewesen ist nicht mehr. Das gleiche gilt auch für HiFi. Erst wenn man eine wirklich gute Anlage bzw Ls gehört hat, weiß man was guter Klang ist. Davor denkt man oft, daß Surround einfach heißt 6 oder 8 Ls zu haben.
 
Zuletzt bearbeitet:
Qualität ist etwas was man auch erleben muß.
Qualität ist in Realität etwas neutrales, und beschreibt eher die Beschaffenheit, was erst durch paar Decade immer mehr in den Mittelpunkt kommt und durch Marketing erst eine positive Konnotation bekommen hat.
Qualitätmanagement ist nicht so alt wie du es vermutest.

Bedürfnisse dagegen steigen zu 99,9%
Was soll diese Aussage bedeuten ? dass der Mensch heute ein Schnitzel isst, und morgen 2 haben möchte ?

Sobald man sie erlebt steigen die Bedürfnisse.
Was stimmen mag, wenn man davon ausgeht, dass der Mensch immer das beste vom besten haben will.
Wir können klar über "logos" diskutieren (aber vermutlich zu offtopic werden würde, obwohl es gut zum thema igp passen würde), aber es scheint mir deine Bsp die du bringst nur wenige Prozente der Masse zu interessieren.

sensibilisiere ich die Leute überhaupt für Qualität
Weil man dann ja gut auf emotionale Ebene so gut objektiv denken kann stimmts ? In meinen Augen klingt das eher danach, "friss oder stirb". Einen echten Unterschied macht eine Sache nämlich nur dann, wenn man diese Sache auch schätzen und nützen kann.

Wenn man bei mir gewesen ist nicht mehr.
Könnte genauso erzählen, wie bewundernswert meine "Gerätschaften" meine Freunde finden. Trotzdem hat es wenig sinn, ihnen etwas aufzuschwatzen was sie eigentlich gar nicht brauchen, oder verwenden.

Hier geht es eben dann nicht um meine sondern dessen Bedürfnisse und Vorstellung. Klar könntest du gleich mit einem Höhlengleichnis kommen. Ebenso wäre aber eine Reaktion interessant, wenn jemand mit dieser Person redet und eine 2te Meinung liefert, nämlich die, was brauchst du wirklich ?
Ist das, das Geld wert ?

Das heißt, klar wenn jemand Erfahrung macht mit dem schnellsten, und überzeugend ist, kann man auch ein teures Auto verkaufen. Trotzdem wird die igp des Trinity in vielen Fällen gut genug, oder vllt sogar zu gut sein.
 
Zuletzt bearbeitet:
fortunes schrieb:
Crysis2 in 1024x768 bei gerade mal knapp über 30fps - ohne Bildverbesserung, ohne HighRes.

Tut mir leid, Trinity mag mit alten Games wunderbar klarkommen, aber aktuelle Spielegenerationen können froh sein, wenn sie noch starten.

Ja ohne Highres (was immer das bedeutet), aber mit high details. Mit medium sollte das problemlos gehen, was auch das später gezeigte Video "beweist". Trotz zweitem parallelem Benchark und windows mode (der ja nochmal mehr Leistung braucht). Auch wenn du den Leuten von vr-zone unterstellst, sie hätten getrickst und mit einer Graka gearbeitet (Sinn???)

pipip schrieb:
KAOZNAKE

Apus, wie viele gibt es denn xD

LOL :)

fortunes schrieb:
Es ging nicht darum, warum Intel erst bei 22nm die Transistorzahl erhöht hat, sondern dass ein DIE-Shrink allein keinen Geschwindigkeitsvorteil bringt. Wenn der Hersteller nur den DIE shrinkt, bringt das rein gar nichts. Er muss schon Optimierungen an der Architektur durchführen, die zwangsläufig zu mehr Transistoren führen, die man letztlich unterbringen kann. Das war schon bei AMDs Newcastle & Venice so, das wird immer so sein.

Doch ein Die-Shrink bringt einen geringeren Stromverbrauch (neben einem kleineren Die). Nur deswegen kann man mehr Transistoren dazupacken, die halt wieder mehr verbauchen.

Einerseits kann man das in verbesserte Architekturen bzw. Features stecken (a la SSE4a, SSE4.1, SSE4.2, AES, AVX, CLMUL, XOP, FMA4, CVT16 usw usw ) oder einfach den "Hubraum " aufbohren, sprich mehr Shader, Kerne ..... was eigentlich der Hauptgrund für mehr Transistoren ist. Einfach mehr Leistung durch mehr Ausführungseinheiten, die nebenbei auch schneller getaktet sein können
 
Zurück
Oben