Test Test: Trinity vs. Ivy Bridge im GPU-Test

Hätte nicht gedacht, dass die GPU von der APU soviel zulegt. Aber sollange nicht die Betriebssysteme noch mehr auf die GPU auslagern, Berechnungen usw. und AMD endlich mal das CrossFire einigermaßen hinbekommt. Sehe ich für APUs deutlich schwarz. Diese sind wirklich nur für seltene Randgruppen interessant.

Und kommt mir bitte nicht, aber der Vater mit 2 kleinen Kindern. Dieser Vater ist bei eine XBOX 360 oder PS3 für 200€ deutlich besser bedient als jede APU. Damit kann man sogar nicht nur Core-Games zocken, sondern auch fast alles anderen.

Office: reicht ein dual core Intel
Multimedia: reicht ein dual core Intel + ab einer HD 2000 GPU.
Gamer: bissle mehr. ;)
Alles was wenig Strom braucht: Intel ULVs oder AMD E-XXX/X

Bin mal gespannt, wie AMD den Stromverbrauch bei Trinity bei Notebooks und Ultrabooks hinbekommen möchte.
 
Man hätte den A10-5800K auch mit den Core i3 3225 vergleichen können der 10€ teuer ist als der A10-5800K, aber trotzdem ist der AMD besser.
 
fortunes schrieb:
Tut mir leid, Trinity mag mit alten Games wunderbar klarkommen, aber aktuelle Spielegenerationen können froh sein, wenn sie noch starten.

Wieviel Schwachsinn in diesem Thread gepostet wird ist echt schlimm.
Du kannst jedes Spiel mit der AMD IGPU starten! (zeig mir bitte eins das nicht startet), nehmen wir beispielweilse Sleeping Dogs, das läuft sogar auf Mitteleren Settings noch über 30 FPS mit 1866 Ram, oder Dirt Showdowns, Dirt 3 oder Diablo 3 ist auch spielbar.
Klar muss man hier und da Auflösung reduzieren und mit mittleren Details fahren, dasd ist ja auch keine Gamergrafikkarte sondern ne Allroundlösung.

Lost_Byte schrieb:
In einigen Fällen frage ich mich, ob man nicht auf Grund mangelnder Intelligenz und Populismus Leuten das Recht nehmen müsste in der Öffentlichkeit zu kommunizieren um die Allgemeinheit zu schützen.

Das ist keine mangelnde Intelligenz, das ist pures Getrolle und absichtliches Schlechtreden von Produkten, da ist jedes Mittel recht, auch wenns keinen Sinn ergibt.
Ein Teil derer wird auch dafür bezahlt.
 
Zuletzt bearbeitet:
@Darzerrot:
Das will ich sehen das du nen Intel für 100-150EU zusammenstellst,damit die Kids daran alles andere machen können was nicht mit Spielen zu tun hat.

@ Matzegr:
Aus deinem Zitat:
Jedoch verhungert die GPU dann offensichtlich völlig an der gleichbleibenden Speicherbandbreite.......

Wiso war Mister Tester dann nicht so schlau und hat mal mit dem verfügbaren 2133MHz Ram getestet,sondern nur mit 1866?
In den 3 Vergleichsspielen brachte der Unterschied zwischen 1866 und 2133 im Schnitt immerhin 4,6% mehr.
Wiso Übertakte ich ne GPU,den Ram aber nicht mit(vorhandener 2133MHz),obwohl ich doch genau weiß,das der Ram die Bremse beim Übertakten ist.
Die GPU ist wohl genau auf 1866MHz Ram abgestimmt.
 
Zuletzt bearbeitet:
Lost_Byte schrieb:
@BlackWidowmaker: Du bist jetzt seit 2 Jahren auf CB registriert und hast über 1000 Beiträge und nicht gemerkt, dass bei einer Produktneuvorstellung das neue Produkt getestet wird (und auch von dem dann das Logo dort groß gezeigt).

Liest doch mal den Titel: Es geht nicht um Trinity, sondern um einen Vergleich Trinity vs. IVY. Daher sollte man beide Kontrahenten auch gleich behandeln. Das gilt auch für das Logo.

Lost_Byte schrieb:
Dass die einzige sinnvolle Konfiguration deiner Meinung nach Ivy+Nvidia ist kann ich auch nciht verstehen. Nvidia hat in der Leistungsklasse einfach kein überzeugendes Produkt (wird hier aber trotzdem getestet) und von Intel werden die aktuelle HD4000 (zwar nur beim i7, aber beim i3 wär die auch nicht viel langsamer) und HD2500 getestet...

...Deine Behauptung dieser Test sei wie BMW vs Fiat ist vollkommener Schwachsinn. Der A10 und der i3 kosten gleich viel. Es wär also eher BMW vs Audi...

Wie viele Leute kennst Du, die einen 3770K ohne dedizierte GraKa betreiben? Und wieso sollte man in so einen Vergleich nur Low-End GraKas bis HD6570 oder GT430 berücksichtigen? Schwachsinn ist es mMn die Trinitys mit einem 3770K zu vergleichen. Daß die GPU in keinem Intel mit einer AMD-APU auch nur annähernd mithalten kann, muß doch nicht extra getestet werden. Das war jedem Interessierten von vorneherein klar. Ich gehe sogar soweit vorherzusagen, daß bei den nächsten Generationen es wieder so ähnlich sein wird, AMD gar seinen Vorsprung ausbauen könnte.

Doch bleibt die Frage der Relevanz und diese Frage wird nur von der jeweiligen Anwendung gestellt und beantwortet. Sehr viele PCs (>70%) werden im reinen 2D-Modus betrieben. Dementsprechend gibt es hier keinen relevanten Unterschied zwischen Intel und AMD. Selbst für DVD/Bluray (HTPC) und so manches Browsergame ist die GPU-Performance schlichtweg belanglos.

Lost_Byte schrieb:
Der i5-3570K ist für 99% aller Gamer überdimensioniert.

Das wierum ist absoluter Schwachsinn. Erstens ist so eine Aussage nicht auf Gamer anwendbar sondern maximal auf Games. Ich glaube kaum, daß sich Gamer bewußt entscheiden CPU-lastige Games zu spielen oder nicht, oder nur grafik-lastige oder sonstwas. Sie spielen Games die ihnen gefallen. CPU-Lastige Games dagegen (läßt mal Low-End-Games á la Kartenspiele oder Browsergames weg) belegen sicherlich weit mehr als 1%. Spiele wie GTA, Anno, Skyrim/Fallout, Badman... werden von einer großen Zahl von Gamern konsumiert. Bei solchen Spielen macht sich ein Quad-IVY durchaus deutlich bemerkbar.

Wir sprechen hier nicht von der Praxis entfernten Tests in 1366x768 sondern von 1080p als absolutes Minimum.

Lost_Byte schrieb:
Du vergleichst ja auch kein Range Rover mit einem 911er Porsche, da die komplett andere Autos sind.

Du meinst so wie einen 3770K und einen A10 zu vergleichen? Du hast Recht soetwas sollte man nicht machen.:lol:


In Sachen GPU-Computing:

Ich verstehe darunter nicht Software mit eingebauter Hardwareunterstützung (á la WinRar oder Photoshop), sondern mehr wirklich wissenschaftliche Berechnungen hochkomplexer Vorgänge, die über enormen Hardwarehunger verfügen, auf reiner GPU-Basis.

In Sachen Hardwareunterstützung von GPUs dagegen fehlt eindeutig die Kombination IVY+kleine NVidia-GPU im Vergleich, die mit Sicherheit in so einem Vergleich die Nase um Längen vorn hätte, zumal NVidia in dieser Disziplin deutlich die Nase vorn hat.

Gronkh schrieb:
... Gibt es sowas wie Rassismus auch bei Hardware? ...

... Denn wenn es nach dieser Argumentation geht spielt auch die CPU Leistung keine Rolle, denn dann zählt nur ne SSD.

In dem Punkt muß ich Dir absolut Recht geben. Wenn mir nur diese eine Wahl bliebe, würde ich persönlich es vorziehen mit einer kleinen AMD-APU + Samsung 830 SSD, als mit Z77+3770K+5400er HDD zu arbeiten. Oder anders ausgedrückt: Ein (Computer-)Leben ohne SSD ist für mich nicht vorstellbar, ein Leben ohne Intel schon. Aber nur dann wenn es Alternativen zu Intel gäbe, die auf Performance beruhen und nicht auf den verzweifelten Versuch der "political correctness" im Hardwarebereich.

Früher (z.Z. von Postville G2) preiste ich eine Intel SSD als das Maß aller Dinge. Im Moment würde ich Samsungs SSDs in dieser Rolle sehen. Früher war mein Lieblingsspruch:

"Es gibt zwei Sorten von MBs: Asus und Schrott. Ebenso nur zwei Soundkarten: Soundblaster & Schrott".

Heutzutage habe ich ein AsRock MB und halte Creative-Soundkarten nur noch für Betrug am Kunden. Wenn es um Hardware geht bin ich ein absoluter Rassist, das gebe ich gerne zu.:D Im Gegensatz zu einem echten Rassisten bin ich aber lern- und wandlungsfähig.

Bezüglich Autovergleiche: Ich muß tagtäglich Leuten, die kein bißchen digitales Verständnis mit sich bringen, Computersachverhalte erklären/beibringen. Analogien zu Autos deren Technik allgemein leichter verstanden wird, haben sich in vielen Jahren der Praxis da als probates Mittel bewährt.
 
fortunes schrieb:
Bitte lies meine Beiträge komplett, bevor du Sätze aus dem Zusammenhang reißt und unvollständig zitierst. Die Antwort auf deine Frage erhältst du eine Zeile darüber.

Da steht nichts von "nicht starten".

Far Cry 2 mit Medium Details in 1024x768 rennt mit 105 fps? Und da ist noch nicht mal das letzte Wort gesprochen (OC, schnellerer RAM). Das ist alles anderes als inkompatibel, sondern eine tolle Leistung.

Bitte verbreite nicht irgendwelche Gerüchte von wegen "inkompatibel".
 
Zuletzt bearbeitet:
http://www.technic3d.com/review/cpu-...fikcheck/3.htm
Crysis2 in 1024x768 bei gerade mal knapp über 30fps - ohne Bildverbesserung, ohne HighRes.

Und?
Ich spiel mit meiner DesktopGPU C2 auch mit 30fps und finde es funzt wunderbar. Dafür halt höhere Details.

Man muss halt auch mal anders denken, und nicht meinen, überall muss man bei maximalen Details und 8xSSAA 100fps haben ;)

Andere Leute, andere ansprüche. Trinity reicht für fast alles was man spielen kann aus - sofern man kein BQ-Fetischist(was aber ein Kauf einer solchen APU schonmal kategorisch ausschließt) ist.

Jemand der BF3 mit 8xSSAA und zwei 690GTX spielt ist Gamer.
Jemand der Moorhuhn mit ner integrierten GPU spielt ist auch Gamer.

Soviel zu dem "nicht "Gamingtauglich"(definiert das mal bitte ;))"-Geschreie.
 
Zuletzt bearbeitet:
BlackWidowmaker schrieb:
Liest doch mal den Titel: Es geht nicht um Trinity, sondern um einen Vergleich Trinity vs. IVY. Daher sollte man beide Kontrahenten auch gleich behandeln. Das gilt auch für das Logo.

Der Titel ist eh unglücklich. Lies doch mal den Untertitel "Duell um die Grafik-Krone". Ivy lag schon hinter Llano, also hatte man gar keine Chance ;)

Also müsste man laut dir 3 Logos präsentieren. Trinity, Ivy, Llano! Sinn? Da kann ich gleich den Gewinner als Logo präsentieren und das ist nun mal Trinity, respektive der A10-5800K und wie der Titel schon sagt geht es um einen GPU-Test


BlackWidowmaker schrieb:
Sehr viele PCs (>70%) werden im reinen 2D-Modus betrieben. Dementsprechend gibt es hier keinen relevanten Unterschied zwischen Intel und AMD.

Doch in der Leistungsaufnahme, Trinity ist im Idle sparsamer als nen i3-3220 (+24%) wenn bei beiden die iGPU genutzt wird.
 
SaarL schrieb:
Und?
Ich spiel mit meiner DesktopGPU C2 auch mit 30fps und finde es funzt wunderbar. Dafür halt höhere Details.

Jo, im Singleplayer ist das mit den FPS durchaus spielbar. Habs grad selber auf meinem A6 4400M Trinity am laufen mit ca. 25FPS bei 1280x720 (native 1600x900 sind leider zu langsam). Aber so kann man das durchaus zocken.

Trinity ist für den Durchschnittsuser der nur ab und an mal n F2P Game oder Sims zockt auf jeden Fall eine gute Wahl. Und ich würde soweit gehen und sagen dass das schon lange nicht mehr die Ausnahme ist sondern sehr viele Leute auf dem PC auch spielen. Für reine Browser-Games mag ein Intel HD2500HD / HD4000 noch reichen, sobald es aber nativ über D3D läuft hat man mit einer APU einfach die bessere Wahl getroffen (wenn ich dran denke was ich mit dem GMA 4500HD für probleme hatte, auch wegen der Treiber). Man könnte dem Intel natürlich eine kleine GPU zur Seite stellen, aber die kostet extra und zieht zusätzlich Strom... Dadurch ist so ein System nicht mehr im Vorteil (vermutlich aber auch nicht groß im Nachteil)

AMD hat da ein gutes Gesamtpaket zusammengebaut, das man in seinem Einsatzgebiet "Multimedia-PC" durchweg empfehlen kann.
 
Trinity ist jedenfalls um längen besser, als die jüngsten AMD Produkte. Die Zeit zwischen Phenom II 955 und Trinity würde ich am liebsten vergessen...
 
Matzegr schrieb:
Kein Fortschritt?
Ein normaler Rechner befindet sich die meiste Zeit im Idle. Bei dem Link braucht der 5600K im Idle 41W nen gleichschneller Llano 47W, das sind knapp 15% mehr für Llano. Selbst der schnellste Trinity ist im Idle noch rund 7% sparsamer als der Llano, dass unter Vollast (CPU und GPU! bei dem Test) Trinity mehr verbraucht ist ja auch logisch. Schließlich leistet die GPU auch mehr!

Das is schlicht Sache des Mainboards in diesem Fall. Schon Llano war super sparsam idle aufm richtigen Board, genauso die Intels.

Mit nem Intel / MSI Board und gescheitem Netzteil sind auf allen drei Plattformen FM1 FM2 und S1155 unter 20 oder gar 15W idle kein Problem, die Tests bei diversen Seiten zeigen viel eher wie schwachsinnig das ein oder andere Setting zur Ermittlung der Idle LeistungsAufnahme sind.
Ergänzung ()

fortunes schrieb:
Was mich übrigens noch mehr zu Intel tendieren lässt:
http://www.anandtech.com/show/6161/...ssd-arrays-on-7series-motherboards-we-test-it

Ein Mainboard der 7er-Serie mit RAID-Funktionen (B75 also ausgeschlossen) bietet jetzt TRIM auf SSDs im RAID0. Endlich. Und entsprechende Tests beweisen eine geniale Transferraten jenseits der 1GByte/s. :)

Das ist vor allem auch bei Servern interessant. Ich hab Intel als auch NV als auch AMD Raid getestet. Das Intel bietet schon mit Abstand die höchste Zuverlässigkeit + Komfort. Hatte nicht ein Problem damit bei 50 x Strom weg, zudem schon bei Clarkdale locker 500MB/s+ mit meinem Raid5 und 5x2 TB.

Da man bei einem Server ohnehin nicht auf die starke GPU von Trinity angewiesen wäre, wird man aber hier generell eher zu einem kleinen i5 tendieren und gerade Board und Netzteil effizient auslegen.

Wenn der Server allerdings kaum CPU Leistung benötigt wären die kleinen billigen AES fähigen Trinitys auch wieder im Rennen. Bin mal gespannt was die optimalen Verbräuche auf FM2 sind.

Bitte hier posten:

https://www.computerbase.de/forum/t...h-nur-konfigs-ergebnisse.857615/#post-9362834

(hier sieht man auch wie mit SB ohne irgendwelche Optimierungen/Anpassungen/UV 15-20W idle gar kein Problem sind)
 
Zuletzt bearbeitet:
Ich weiss echt nicht, was es soll, dass man ausschliesslich auf dem Stromverbrauch herumreitet.
Diese CPU ist sicher nicht für jemanden gedacht, der den ganzen Tag Prime laufen lässt.

Viele Anwender nutzen ihren Rechner um mal Musik zu hören oder zu surfen, oder mal einen Brief zu schreiben.
CPU ist dabei quasi immer idle.
Dass der Rechner, wenn man dann mal einmal im Monat ne Runde ein altes Spiel rausholt und der Rechner etwas mehr Strom verbraucht, das fällt wohl eher kaum ins Gewicht.

Aber gut, wäre ja auch zu Schade, wenn man nicht Intel loben könnte, und Intelfreundlich hoch zwei ist natürlich der Hinweis, dass man sich am besten die Leistungsfähigere Variante holt, da die Andere häufig doch zu schwach ist. Zwei Fleisspunkte gibt es dafür von Intel. :top:

Schön wäre mal ein Monatsrealverbrauchstest. Diese Extremsituationstests bringen doch wirklich niemandem was.
 
Zuletzt bearbeitet:
Gronkh schrieb:
Du kannst jedes Spiel mit der AMD IGPU starten! (zeig mir bitte eins das nicht startet),
Meine Güte, lernt endlich lesen! Ich schrieb "können froh sein, wenn" - das soll heißen, dass sie nicht traurig sein sollen, wenn es unspielbar lahm läuft, weil es sich immerhin starten ließ. Ich schrieb nirgends, dass es irgendwo nicht startet. :rolleyes:

Gronkh schrieb:
nehmen wir beispielweilse Sleeping Dogs, das läuft sogar auf Mitteleren Settings noch über 30 FPS mit 1866 Ram, oder Dirt Showdowns, Dirt 3 oder Diablo 3 ist auch spielbar.
Das sind alles Games, ohne große Anforderungen. Dirt3 bspw. baut auf der EgoEngine 2.0 auf, die bereits 2009 DX11-Effekte integriert hatte und bis zum Erscheinen von Dirt3 im Jahre 2011 nochmals um DX11-Effekte erweitert wurde. Die Basis aus 2009 bleibt aber die gleiche. Und Dirt3 ist Dank DX11 recht hübsch anzusehen, aber man sieht, dass es nicht die modernste & schönste Engine ist, nur weil sie DX11 kann. Diablo3 ist da ähnlich - dessen dunkles Comicdesign fordert einer Grafikkarte nicht viel ab, da reicht bereits die IntelHD4000, um in den hier benannten Auflösungen akzeptable Frameraten zu erreichen.

Ich rede von richtigen, aktuellen Games, die in die Zukunft weisen und uns zeigen, was uns erwartet.
http://www.tomshardware.de/Trinity-Gaming-Performance-Virgo,testberichte-241107-3.html
Viel Spaß in der Gegenwart. Wer Spiele von gestern und übergestern spielen will, kann das mit Trinity auch, dagegen sagt ja keiner was. Aber eine GPU, die in FullHD trotz niedriger Qualitätseinstellungen nicht über 30fps hinauskommt (Metro2033, BF3, Crysis2 & Witcher2 absolut unspielbar!!!), ist nicht zum Spielen zu gebrauchen.
Immerhin erstaunt hat mich Batman:AC - trotz FullHD & Medium noch spielbar. Wenn auch Dank fehlendem PhysX, nicht gerade hübsch.


BlackWidowmaker schrieb:
Ich gehe sogar soweit vorherzusagen, daß bei den nächsten Generationen es wieder so ähnlich sein wird, AMD gar seinen Vorsprung ausbauen könnte.
Damit wäre ich vorsichtig. Intel hat sich in den letzten Jahren eine Menge KnowHow dazugeholt und der Sprung von HD3000 auf HD4000 war schon beachtlich. Wenn die HD5000 noch einmal einen solchen Sprung macht, kommt Intel mit der nächsten Generation in Schlagweite...

BlackWidowmaker schrieb:
Dementsprechend gibt es hier keinen relevanten Unterschied zwischen Intel und AMD. Selbst für DVD/Bluray (HTPC) und so manches Browsergame ist die GPU-Performance schlichtweg belanglos.
Dem stimme ich zu. Für Browsergames ist Trinity zu dick, zum richtigen Zocken zu lahm. Wer will denn heute die Games von gestern zocken?

BlackWidowmaker schrieb:
Wir sprechen hier nicht von der Praxis entfernten Tests in 1366x768 sondern von 1080p als absolutes Minimum.
+1

MrTengu schrieb:
Da steht nichts von "nicht starten".

Far Cry 2 mit Medium Details in 1024x768 rennt mit 105 fps? Und da ist noch nicht mal das letzte Wort gesprochen (OC, schnellerer RAM). Das ist alles anderes als inkompatibel, sondern eine tolle Leistung.

Bitte verbreite nicht irgendwelche Gerüchte von wegen "inkompatibel".
Ihr verbreitet hier Gerüchte von wegen "inkompatibel". :rolleyes: Aber meine Antwort darauf kannst du oben lesen.

Und super, dass man FarCry2 darauf spielen kann. Das erschien 2008. Ein 4 Jahre altes Spiel, das schon damals nicht so hohe Anforderungen setzte wie Crysis zur Erstveröffentlichung, läuft auf dem Trinity abartig gut. Prima. Aber hey, ich habe gehört, "Minesweeper" läuft auch ruckelfrei. Das ist von 1992. ;)

SaarL schrieb:
Man muss halt auch mal anders denken, und nicht meinen, überall muss man bei maximalen Details und 8xSSAA 100fps haben ;)
Ich spiele so gut wie jedes Spiel ohne FSAA, Bildverbesserungen und was-weiß-ich für schnickschnack. Aber wenn eine Grafikkarte das Spiel nicht in FullHD spielbar darstellen kann, bleibt die Karte draußen, so einfach ist das. Und da gibt es bei Trinity eine ganze Menge Spiele.

SaarL schrieb:
Jemand der Moorhuhn mit ner integrierten GPU spielt ist auch Gamer.
Dafür reicht auch eine Intel HD2500. :rolleyes:

SaarL schrieb:
Soviel zu dem "nicht "Gamingtauglich"(definiert das mal bitte ;))"-Geschreie.
Stellt aktuelle, anspruchsvolle Spiele nicht in FullHD flüssig dar. Mit Spielen von übergestern oder KlickiBunti-Spielen braucht mir keiner ankommen. Ich rede von richtigen Spielen.
 
Zuletzt bearbeitet:
@fortunes: richtig du redest hier von "richtigen" Spielen, wir hier von dem was wohl die Masse an Leuten eher spielt: F2P MMOs, Fifa Soccer, Sims und das was auf der aktuellen Computer Bild Spiele an Vollversion drauf ist. Das schafft Trinity problemlos, notfalls halt nicht in FullHD, hat eh noch nicht jeder den passenden Monitor (und es ist auch kein Beinbruch bei Spielen nicht die volle Auflösung zu verwenden), aber es läuft und das um einiges besser als mit der iGPU eines Intel.

Und ich kann hier jedenfalls Crysis 2 in HD auf nem Trinity spielen... 1280x720 bei 25-30 fps, das reicht für Singleplayer aus um flüssig genug zu sein. Ist aber auch nur ein A6 4400, auf den größeren Desktop-APUs sollte das noch besser laufen.

Dass die Leute hier immer ihre Ansprüche über alles stellen müssen... Trinity als nicht spieletauglich abstempeln nur weil sie einen Anfall bekommen wenn man mal ein Spiel nicht auf ultra max Details mit über 200 FPS spielen kann...
 
@fortunes: du hast geschrieben das spiele eventuell nicht starten. Und ich wollte wissen worauf du deine aussage stützt. Also?
 
Das ist ja auch der Grund, warum eine APU oder iGPU gepuscht wird, weil in mobilen Geräten, wo man nicht eben mal eine Grafikkarte stecken kann, freut man sich, wenn das ein oder andere Spiel dann auch spielbar ist.
Wenn man aber wie ich eine Zeit lang mit einer HD4000 gezockt hat, dann kommt doch da beim Desktop keine Freude auf. Steckt man sich eine HD7750 oder wie in meinem Fall eine HD7770 dazu, dann ist das sehr gut angelegtes Geld.
Die aktuellen AMD GPU´s sind mittlerweile dann auch in Office/Multimedia/2 Monitore so sparsam, das gerade einmal 3-5 Watt mehr verbraten werden.
Aus meiner Sicht macht die APU/iGPU nur für Leute Sinn, die wirklich kaum oder keinen Wert auf Zocken legen, weil die Browser oder Java Games liefen auch schon mit der HD2000 ohne Probleme.

Wer dabei Spaß hat sein Crysis 2 in 1280x720 bei 25-30 fps zu spielen, der soll das doch machen. Ich für meinen Teil gehöre nicht dazu, obwohl ich auch schon keine Anforderungen an die Grafik stelle. Bin mir da einfach zu schade dafür und gebe ein paar Euro mehr aus.
 
Zuletzt bearbeitet:
Jesterfox schrieb:
@fortunes: richtig du redest hier von "richtigen" Spielen, wir hier von dem was wohl die Masse an Leuten eher spielt: F2P MMOs, Fifa Soccer, Sims und das was auf der aktuellen Computer Bild Spiele an Vollversion drauf ist. Das schafft Trinity problemlos,
Das schafft auch ein Celeron G550, kombiniert mit einer überdeutlich schnelleren HD6670 - für ganze 25€ weniger. Mainboard und RAM sind bei Intel auch günstiger, spart man noch mehr. Also all die Kosten für eine handvoll Games, die ich mit einer Intel-Konfiguration günstiger und besser spielen kann? Ach komm' schon... :rolleyes::

Jesterfox schrieb:
notfalls halt nicht in FullHD, hat eh noch nicht jeder den passenden Monitor
Selbst die Pateneltern meines Kumpels (die sind Anfang 70) haben einen FullHD-Monitor. Weil die Dinger nichts mehr kosten. Die hat mittlerweile fast jeder!!!

Jesterfox schrieb:
aber es läuft und das um einiges besser als mit der iGPU eines Intel.
Ich würde auch nie mit einer iGPU von Intel ernsthaft Spiele spielen. Bevor ich einen i7-3770K mit iGPU nutze kaufe ich mir lieber einen Celeron G550 mit HD6670 - der schlägt den Trinity in Games um Längen und ermöglicht dadurch höhere Auflösungen.

Jesterfox schrieb:
Und ich kann hier jedenfalls Crysis 2 in HD auf nem Trinity spielen... 1280x720 bei 25-30 fps, das reicht für Singleplayer aus um flüssig genug zu sein. Ist aber auch nur ein A6 4400, auf den größeren Desktop-APUs sollte das noch besser laufen.
Sollte? Schau' dir meinen Link oben an. Crysis 2 in FullHD unspielbar, unter 10fps!!!

MrTengu schrieb:
@fortunes: du hast geschrieben das spiele eventuell nicht starten. Und ich wollte wissen worauf du deine aussage stützt. Also?
Ich habe nirgends geschrieben, dass Spiele eventuell nicht starten. Wo habe ich das geschrieben? :rolleyes:
 
@MikelMolto

ne weitere GPU dazu stecken bringt wohl eher Defizit als Benefit ;)

https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-gpu-test/9/

Und auch beim A10-5800K in Verbindung mit einer Radeon HD 6570 hat CrossFire mit demselben Problem wie bei Llano zu kämpfen: Es gibt intensive Mikroruckler, die ein Spielen bei 30 Bildern pro Sekunde stark (negativ) beeinflussen. Selbst 40 FPS sind gefühlt noch nicht frei von den „Hakern“. Ab 50 Bildern pro Sekunde lassen sich die Mikroruckler dann mehr oder weniger ignorieren – wobei dies natürlich auch vom Spiel abhängig ist und variieren kann.

Gerade bei diesen "kleinen" Frameraten und GPU Leistungen kann man CF praktisch in die Tonne treten.

Wenn Trinity dann wohne weitere GPU im CF bitte. Eine von dir genannte HD7770 wäre allein weit schneller und angenehmer. Nur kann ich dann auch nen 35€ DualCore Celeron damit kombinieren, oder eben nen kleinen i3.

Ändert nicht daran dass Trinity eben für Casual Gamer wohl genug Leistung bieten dürfte. Ne 50€ GPU bleibt trotzdem schneller als dessen iGPU.
 
Zuletzt bearbeitet:
Naja, ich she halt hier selber mit meinen eigenen Geräten wie spieletauglich mein voheriger C2D mit GMA 4500HD war... wenn das Spiel mal starte (Blur, Strangers Wraith HD startet nicht!) dann lief es schon hart am Limit bis hin zur Ruckelorgie... meine A6 4400 jetzt dagegen schlägt sich wirklich gut und ich hatte bisher noch kein Spiel das nicht lief, Blur geht, Strangers Wraith noch nicht getestet, geh aber stark davon aus das es auch läuft.

Und es ist nicht so das ich nicht gern auch mit max Details auff FullHD spiel.. hab auch noch nen Quadcore mit GTX580 ;-) aber als Mobiles 2. Gerät reicht mir der Trinity voll auf und ich kann mir sehr gut vorstellen dass es vielen auch als Hauptgerät reichen würde und gegenüber einer Intel iGPU die bessere Wahl wäre. Die Welt ist eben nicht nur Schwarz/Weiß aufgeteilt in Hardcroe-Zocker und absolute Nichtspieler.
 
fortunes schrieb:
Damit wäre ich vorsichtig. Intel hat sich in den letzten Jahren eine Menge KnowHow dazugeholt und der Sprung von HD3000 auf HD4000 war schon beachtlich. Wenn die HD5000 noch einmal einen solchen Sprung macht, kommt Intel mit der nächsten Generation in Schlagweite...

Bei HD3000 zu HD4000 war eine Strukturverkleinerung von 32nm auf 22nm (Faktor 2,11) dabei. Bei Haswell haben wir immernoch die 22nm. Allerdings wird man trotzdem zu Trinity deutlich aufschließen können aber nächstes Jahr kommt von AMD auch Kaveri. Da haben wir nicht mehr die altbackene VLIW-Shader-Architektur sondern GCN. Das alleine bringt schon ein deutliches Leistungsplus. Dazu kommt noch eine kleinere Fertigung von 32nm auf 28nm (Faktor 1,3) gegenüber Trinity, so dass hier auch noch mehr Leistung rausgeholt werden kann.

Vergleicht man ne HD5770 (VLIW-5) mit einer HD7770 (GCN) (beide haben 16 ROPs, 10 Shader-Cluster, 40 Textureinheiten und ein 128-bit Speicherinterface)bei gleichen Takt ist die GCN-Architektur bis zu 37% schneller. Wobei man noch erwähnen muss, dass bei GCN noch viel Raum für Treiberoptimierungen da ist.
 
Zurück
Oben