Test Test: Trinity vs. Ivy Bridge im GPU-Test

Hallo @ all,

also ich bin richtig enttäuscht von diesem Test, nein beinahe wütend. Schon auf der ersten Seite war sofort klar, daß dies kein objektiver Vergleich ist sondern nur versteckte Werbung für AMD. Da wird nur das AMD-Logo übertrieben groß gezeigt, warum nicht auch das Intel-Logo? Damit wird schon im Vorfeld in die Psycho-Trickkiste gegriffen um den Leser einseitig zu beinflussen. Ebenso wie bei eurem CPU-Vergleich ist es eine einseitige Betrachtung des Trinitys, wirklich verglichen wird er eigentlich nur mit dem Vorgänger.

Ich kann verstehen, daß man Angst hat die Dinge beim Namen zu nennen, denn dann unterstützt man ein ständig mächtiger werdendes Monopol seitens Intel. Dieser Gedanke ist auch für mich beängstigend, er rechtfertigt jedoch in keinster Weise eine subjektive Berichterstattung - damit verletzt ihr eure Autorenpflichten.

Ich weiß gar nicht wo ich eigentlich anfangen soll - bei der (falschen) Wahl der Testkanditaten, bei der Auswahl der Tests oder für mich am gravierensten bei der subjektiven Gewichtung der Ergebnisse. Wie subjektiv nein besser gesagt einseitig das Ganze ist zeigt sich am Besten im Fazit in dem ihr Intel nur beiläufig im Nebensatz erwähnt.

Weswegen ich aber wütend bin, daß ihr die einzige Konfiguration die mMn Sinn macht nämlich IVY + NVidia überhaupt nicht in euere Überlegungen erwähnt. Ebenso geht ihr auch gar nicht auf die Möglichkeiten des Z77-Chipsatzes ein, der ähnliche Möglichkeiten wie Crossfire bei AMD bietet.

Den Gipfel der Unverschämtheit bildet mMn aber das Schlußwort:

Für alles andere ist Trinity bei dem Preis die bessere Wahl.

Ist ungefähr so als würden man einen BMW mit einem Fiat Cinquecento vergleichen und am Ende zu dem Schluß kommen daß der Fiat die bessere Wahl ist aufgrund des besseren P/L-Verhältnisses.

Letztendlich darf man so einen Vergleich aber auch nicht rein synthetisch losgelöst von der tatsächlichen Anwendungsrealität bewerten. Schließlich geht es nicht nur um APUs, Anwender legen sich ein bestimmtes System zu, um ihre Bedürfnisse zu befriedigen. Daher sollte man auch nicht die Vor- und Nachteile von einzelnen Komponenten betrachtet, da deren Plattformen nicht kompatibel sind. Daher muß man das Gesamtsystem bewerten in allen seinen Aspekten. Ein reiner Vergleich der Komponenten verzert die Anwendungsrealität extrem. Was nützt mir z.B. als reiner Anwender die bessere GPU-Komponente des AMDs, wenn der Q77 eine bessere Performance im SATA-III Bereich bietet. Von der LAN-Komponente mal ganz zu schweigen. Was nützt mir das als Enthusiast, daß ich mit einer AMD-GPU auch ein bißchen zocken kann, wenn ich ein Matrix-RAID aufbauen will?

Ist schon klar CB entwickelt sich zu einem Kindergartenforum bei dem Clicks wichtiger als Inhalte werden. Da nimmt z.B. auch Angry Birds einen höheren Stellenwert ein als Netzwerkperformance eines Systems.

Tatsächlich ist so eine AMD-APU lediglich die bessere Wahl für einen nur Gelegenheitsgamer mit niedrigen Ansprüchen.

GPU-Computing kann man eigentlich vernachlässigen. 99,9% der Anwender haben nichts damit am Hut, diejenigen dagegen die das ernsthaft betreiben setzen SLI/Crossfire Verbunde ein, deren Wert im vierstelligen Bereich liegt. Kein Mensch betreibt GPU-Computing nur mit reiner APU-Leistung. Dem Leser anderes vorzumachen ist nicht nur lachhaft sondern Verzerrung der Realität.

Für den reinen Anwender gibt es absolut keinen Grund einen AMD einzusetzten, nein es wäre geradezu fahrlässig. Bei besserer Leistung verbraucht der Intel im Schnitt weniger Strom. Es spielt überhaupt keine Rolle, daß die Grafikleistung bei AMD besser ist, denn selbst die Intel-GPU wird von reinen Anwendungen nicht ausgereizt. Zudem ist die Q77-Plattform (Intel-LAN) im Moment die beste Wahl geht es um Performance im Anwendungsbetrieb. Braucht man reine CPU-Leistung gibt es nur Intel.

Im HTPC-Bereich kann man durchaus eine kleine NVidia-Karte einsetzen, will man optimale Qualität. Daher zieht das Qualitätsargument nicht.

Für ernsthafte Gamer schlußendlich, gibt es z.Z. absolut nur eine Wahl: den i5-3570K. Klar ist der teuer, und ja sein P/L Verhältnis ist nicht berauschend. Gepaart mit einer GTX 660ti ergibt sich ein optimales Bundle für unbeschwerte 1080p/1200p Gamer-Freuden. Man kann hier vielleicht eine AMD-GraKa nehmen wenn man will, aber eine wirkliche Alternative gibt es mMn dazu nicht.

Ich will nicht herablassend klingen, mir ist bewußt, daß nicht jeder das Geld hat sich so etwas zu leisten. Dann muß man halt Kompromisse eingehen. Ebenso kann sich nicht jeder einen BMW leisten, manche müssen mit einem Fiat Vorlieb nehmen.

Das ist aber noch lange kein Grund so zu tun als ob Fiat ein Auto wäre. :evillol:
 
Zuletzt bearbeitet:
BlackWidowmaker schrieb:
also ich bin richtig enttäuscht von diesem Test, nein beinahe wütend. Schon auf der ersten Seite war sofort klar, daß dies kein objektiver Vergleich ist sondern nur versteckte Werbung für AMD. Da wird nur das AMD-Logo übertrieben groß gezeigt, warum nicht auch das Intel-Logo?

Ob ich nun ein Bild von dem Logo als Aufmacher präsentiere, oder mir Mühe gebe ein schönes Foto mit Blümchen zu machen wie hier: Klick mich hart ist zumindest aus meiner Sicht relativ zweifelhaft hier Ableitungen zu einer Befangenheit zu suchen, ich finds vielmehr einfach nur lächerlich.

Den Gipfel der Unverschämtheit bildet mMn aber das Schlußwort:

Du musst schon solche Aussagen auch im Zusammenhang sehen, der lautet nämlich wie folgt:

Wer dagegen pure CPU-Leistung benötigt, sollte sich im Intel-Lager umsehen. Der gleich teure Core i3-3220 ist zwar nicht viel schneller, erledigt die Aufgaben aber bei einer viel geringeren Leistungsaufnahme. Dasselbe gilt übrigens auch, wenn primär Blu-rays abgespielt werden sollen – Stichwort: Stromsparender HTPC. In dem Fall sollte man „Ivy Bridge“ vorziehen. Für alles andere ist Trinity bei dem Preis die bessere Wahl.

Intel wird im Prinzip sogar für mehrere Szenarien als das bessere Produkt bewertet, hier Befangenheit zu unterstellen? Naja ich verstehe es nicht.

GPU-Computing kann man eigentlich vernachlässigen. 99,9% der Anwender haben nichts damit am Hut, diejenigen dagegen die das ernsthaft betreiben setzen SLI/Crossfire Verbunde ein, deren Wert im vierstelligen Bereich liegt. Kein Mensch betreibt GPU-Computing nur mit reiner APU-Leistung. Dem Leser anderes vorzumachen ist nicht nur lachhaft sondern Verzerrung der Realität.

Solche User wie du haben Null Tellerrandblick, das lohnt sich nicht hier überhaupt drauf zu antworten.
Bei deinen Ausführungen mangelt es an Logik und Substanz, setzen 6 würd ich da mal behaupten.

Gibt es sowas wie Rassismus auch bei Hardware? Wenn man sich dein populistisches Gefasel anhört und Hardware mit Autos vergleicht, will man genau so etwas meinen. :rolleyes:

Bei besserer Leistung verbraucht der Intel im Schnitt weniger Strom. Es spielt überhaupt keine Rolle, daß die Grafikleistung bei AMD besser ist, denn selbst die Intel-GPU wird von reinen Anwendungen nicht ausgereizt.

Natürlich spielt das keine Rolle, das ist ja immer die Prämisse die hier kolportiert wird.
Denn wenn es nach dieser Argumentation geht spielt auch die CPU Leistung keine Rolle, denn dann zählt nur ne SSD.

Schau dir doch den Beitrag von Kaoznake nochmal eine Seite vorher an.

Tante Edit:

Ist ungefähr so als würden man einen BMW mit einem Fiat Cinquecento vergleichen und am Ende zu dem Schluß kommen daß der Fiat die bessere Wahl ist aufgrund des besseren P/L-Verhältnisses.

Nur dass Autos ganz andere Merkmale haben als CPU´s, insofern beruht dein Vergleich mehr oder weniger auf sinnlosen Vorurteilen und falschen Annahmen.
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
ABER der A5800K bietet die stärkste integrierte Grafik die es zur Zeit auf dem Markt gibt und man kann damit sehr wohl 99% der Spiele auf dem Markt in einer ansprechenden (wenn auch nicht der besten) Optik spielen.
http://www.technic3d.com/review/cpu-s/1457-amd-a10-5800k-apu-im-grafikcheck/3.htm
Crysis2 in 1024x768 bei gerade mal knapp über 30fps - ohne Bildverbesserung, ohne HighRes.

Tut mir leid, Trinity mag mit alten Games wunderbar klarkommen, aber aktuelle Spielegenerationen können froh sein, wenn sie noch starten.

KAOZNAKE schrieb:
Nur das der Core-I3 den A10 nicht "vom Feld bläst", sondern vergleichbare oder teils sogar deutlich schlechtere Leistung abliefert.
Das darf man an der Stelle nicht so "eng" sehen. Der i3 hat "nur" zwei Kerne und wenn du die Leistung auf 55W TDP runterbrichst, kehrt sich das Bild um. ;)
 
BlackWidowmaker schrieb:

Lächerlich, aber kennt man schon von dir...


Was ich aber insbesondere gerne wissen würde:

Woher weißt du das der Q77 besser ist als der A85X
 
Schade das man machen Leuten nicht mal das Geld wegnehmen kann, es scheint nämlich Ihren Verstand zu beeinflüssen.
Ein paar Jahre wenig Mäuse und schon ist ein Fiat plötzlich wieder ein Auto und ein A10 5800K
der nackte Wahnsinn. MFG


#
 
AMD sollte für HTPCs mal überlegen, einen Trinity mit 35W auf den Markt zu werfen. Aber damit würden sie wahrscheinlich den eigenen Zacate zu nah auf die Pelle rücken. Schade eigentlich.

Außerdem verfällt AMD dem gleichen "Opfer" wie Intel: zum Schutz & als Kaufgrund der großen APUs, erhalten die kleinen APUs nur lahme Grafiktransistoren. Aber Intel hat mit dem i3-3225 dazugelernt. Das sollte AMD jetzt auch. Einen A6 mit 3,6GHz (4GHz im Turbo) und der 7660D wäre ziemlich geil für kleine Spielerechner. Bei einer TDP von 65W unter 100€ ein echter Leckerbissen. Der könnte auch mit dem i3-3220 mithalten - CPU technisch.
 
@BlackWidowmaker: Du bist jetzt seit 2 Jahren auf CB registriert und hast über 1000 Beiträge und nicht gemerkt, dass bei einer Produktneuvorstellung das neue Produkt getestet wird (und auch von dem dann das Logo dort groß gezeigt) und wenn man einen ausführlichen des Konkurenten siehen möchte, dann muss man einfach den Test zu dem produkt aufrufen. Der wäre in diesem Fall hier. Das hat rein gar nichts mit einer Bevorzugung AMDs zu tun (schon gar nicht bei AMD. Da wär das mehr als verwunderlich).

Dass die einzige sinnvolle Konfiguration deiner Meinung nach Ivy+Nvidia ist kann ich auch nciht verstehen. Nvidia hat in der Leistungsklasse einfach kein überzeugendes Produkt (wird hier aber trotzdem getestet) und von Intel werden die aktuelle HD4000 (zwar nur beim i7, aber beim i3 wär die auch nicht viel langsamer) und HD2500 getestet. Das sind die "APUs" von Intel. Du vergleichst ja auch kein Range Rover mit einem 911er Porsche, da die komplett andere Autos sind.

Deine Behauptung dieser Test sei wie BMW vs Fiat ist vollkommener Schwachsinn. Der A10 und der i3 kosten gleich viel. Es wär also eher BMW vs Audi.

GPU Computing ist keineswegs zu vernachlässigen. Dank WebGL und anderen Anwendungen wie Winzip hat der Endanwender im Alltag etwas davon und nicht nur irgendwelche Freaks. Da haben wesentlich weniger Leute Probleme mit der angeblich zu geringen SATA3 Leistung, die beim aktuellen Chipsatz aber noch nicht getestet wurde, sodass du selbst darüber keine Aussage treffen kannst.

Die Videoqualität ist bei den AMD Karten besser als bei Nvidia. zudem unterstützen die AMD Karten schönere Audiofeatures. Das Qualitätsargument zieht also durchaus.

Der i5-3570K ist für 99% aller Gamer überdimensioniert. Nur gibt das keiner zu. Ein alter x4 965BE reicht für jedes Spiel aus um es flüssig darzustellen. Wenn die CPU limitiert und die Grafikeinstellungen bereits so hoch gesetzt wurden wie es geht, dann hat man trotzdem noch weit über 50fps.
Die GTX660Ti ist mMn zu teuer für ihre Leistung. Auch da gibt es Preis/Leistungstechnisch von AMD bessere Lösungen (Wobei die Bildqualität bei Spielen bei Nvidia minimal besser ist, welches man aber nur im direkten Vergleich sieht).

In einigen Fällen frage ich mich, ob man nicht auf Grund mangelnder Intelligenz und Populismus Leuten das Recht nehmen müsste in der Öffentlichkeit zu kommunizieren um die Allgemeinheit zu schützen.

@fortunes: Ein A6 mit 7660D wäre ziemlicher Schwachsinn, da das A4, A6 und A10 für die Stärke der Grafikeinheit steht und die darauf folgende Nummer die Prozessorleistung beschreibt. Ein A10-5400 wär eher das, was du suchst (1 Modul mit 3,6GHz und HD7660D). Gibt es nicht, aber der A10-5700 sollte nah an deiner Vorstellung dran sein. 2 Module mit 3,4GHz und HD7660D bei 65W TDP. Also durchaus ähnlich zu deinem Wunsch.
 
Zuletzt bearbeitet:
@ fortunes

35 Watt würde vermutlich schon die iGPU schlucken, schnellster 65 Watt Trinity ist übrigens
der A10 5700 falls der Spitzverbrauch etwas abgekappt werden soll, den könnte ich mir auch
#gut in einem Rechner vorstellen wo ab und zu mal ein wenig ein Gelegenheits Game gezockt wird.

iGPU - 40 MHZ zum 5800K

mfg


#
 
Zuletzt bearbeitet:
KAOZNAKE
PCGH - Neu im Testlabor: FM2-Mainboards: So spielt es sich mit AMDs Trinity A10-5800K
Apus, wie viele gibt es denn xD
Apu.png


BlackWidowmaker
Gott sei Dank ist die Hintergrundfarbe von CB blau und nicht rot oder grün :P

Kein Mensch betreibt GPU-Computing nur mit reiner APU-Leistung. Dem Leser anderes vorzumachen ist nicht nur lachhaft sondern Verzerrung der Realität.
Liegt wohl daran, dass AMD bei Trinity tatsächlich noch nicht die vollwertige APU am Markt hat.
 
Zuletzt bearbeitet:
Das spaßige ist immer noch, wie die meisten hier von ihrem eigenen Spieleverhalten auf das aller anderen schließen.

Ein sehr großer Teil der Leute spielt die Free2Play-Spiele von 7Games oder Gamigo (nicht umsonst stellen die großen Publisher auch auf Free2Play um) und genau für den Bereich ist in meinen Augen der Trinity absolut predestiniert, während er noch genügend Leistung bietet, um auch einige aktuelle Spiele auf mittleren Details zu zocken.

Bei GERINGEM Budget wie ich finde eine tolle Komplettlösung. Und die Limitierung durch DDR3 ist auch immer noch drin. Bin sehr gespannt, wie die neuen APUs aussehen, die DDR4 zur Verfügung haben.
 
bl!nk schrieb:
Das spaßige ist immer noch, wie die meisten hier von ihrem eigenen Spieleverhalten auf das aller anderen schließen.

Ein sehr großer Teil der Leute spielt die Free2Play-Spiele von 7Games oder Gamigo (nicht umsonst stellen die großen Publisher auch auf Free2Play um) und genau für den Bereich ist in meinen Augen der Trinity absolut predestiniert, während er noch genügend Leistung bietet, um auch einige aktuelle Spiele auf mittleren Details zu zocken.

Bei GERINGEM Budget wie ich finde eine tolle Komplettlösung. Und die Limitierung durch DDR3 ist auch immer noch drin. Bin sehr gespannt, wie die neuen APUs aussehen, die DDR4 zur Verfügung haben.

Dafür reicht auch ein Celeron G530 mit HD 6570 oder GT 630.
 
Lost_Byte
Der Vorteil einer APU, ich kann in einem Jahr wenn die igp nicht ausreicht eine Grafikkarte dazu kaufen. Beim Intel mit dgpu hätte ich dann eine Grafikkarte, die ich erst an den Mann bringen müsste. Verglichen aber zur CPU hätte ich dann eine bessere CPU mit offenen Multi (wenn man die instruction sets ect bedenkt).
Somit ist klar Intel + dgpu die Alternative, aber sicherlich nicht automatisch die bessere, wie gerne suggeriert wird
 
Lost_Byte schrieb:
@grenn: Welches weder schneller ist noch im Idle weniger verbraucht. Also bringt es keinen Vorteil.

Aber günstiger als A10-5700, Celeron 530/540 ab 36€ und HD 6570 und GT 630 ab 48€.
Dafür ist der Celeron 530/540 langsamer, aber reicht locker für Browsergames.
 
fortunes schrieb:
Tut mir leid, Trinity mag mit alten Games wunderbar klarkommen, aber aktuelle Spielegenerationen können froh sein, wenn sie noch starten.

Na das würde mich jetzt aber schon mal interessieren. Gibt es eine Quelle für deine Aussagen zur Inkompatibilität? Oder hast du das auf die Leistung bezogen, dass diese mit Trinitiy weniger gut ausfällt?
 
MrTengu schrieb:
Na das würde mich jetzt aber schon mal interessieren. Gibt es eine Quelle für deine Aussagen zur Inkompatibilität? Oder hast du das auf die Leistung bezogen, dass diese mit Trinitiy weniger gut ausfällt?
Bitte lies meine Beiträge komplett, bevor du Sätze aus dem Zusammenhang reißt und unvollständig zitierst. Die Antwort auf deine Frage erhältst du eine Zeile darüber.

fortunes schrieb:
http://www.technic3d.com/review/cpu-s/1457-amd-a10-5800k-apu-im-grafikcheck/3.htm
Crysis2 in 1024x768 bei gerade mal knapp über 30fps - ohne Bildverbesserung, ohne HighRes.
 
CB:
Und in der Tat, die GPU unserer Trinity-APU lässt sich sehr gut übertakten. So können wir stabil ein Plus von satten 345 MHz erzielen, was in 1.145 MHz resultiert – 40 Prozent mehr Frequenz! Jedoch verhungert die GPU dann offensichtlich völlig an der gleichbleibenden Speicherbandbreite, sodass die Performance je nach Applikation nur um neun bis 13 Prozent ansteigt. Die Leistungsaufnahme erhöht sich zudem um üppige 34 Watt.

Bei Übertaktung +34Watt

planet3dnow:
Die VLIW-4-GPU ... ohne Spannungserhöhung ~35% mehr Takt. ...Mehrleistung ... Crysis 1 ... 10,4 % ...LuxMark ... 17,6 % ... Erhöhten .. Versorgungsspannung .. 1,15 auf 1,293 V, ... 1151 MHz stabil. Der Mehrgewinn .. Crysis .. nicht mehr messbar,..LuxMark ...Plus ... 4,3 %. Erfreulicherweise konnten wir dabei einen Mehrverbrauch von lediglich 2 beziehungsweise 3 Watt feststellen.

Mehrverbrauch 2 bzw. 3Watt

Wie sind so deutliche Unterschiede Möglich?
 
Auf Seite 5 sind die Differenzangaben im Text ja purer Nonsense... 1 Fehler nach dem anderen! Bitte überarbeiten und einheitlich bleiben. Verarschen könnt ihr euch damit doch selber!
 
Zurück
Oben