Test Test: Trinity vs. Ivy Bridge im CPU-Test

nanoworks schrieb:
@ Herdware:

Warum wäre die APU dann inkompatibel? Früher wurde die Gleitkommaeinheit sogar als eigener, externer Chip verbaut, irgendwann ist sie dann in die CPU gewandert. Die HSA schmeißt die Gleitkommaeinheit ja nicht raus, sie verlagert sie nur von (wenigen) FPUs in der CPU hin zu (extrem vielen) FPUs in der iGPU.

Auch früher konnte nur speziell auf x87 optimierte Software etwas mit dem Floatingpoint-Co-Prozessor (egal ob intern oder extern) anfangen. Beim Rest der Software lag der einfach brach und die Integer-Einheiten mussten sich auch mit den Fließkomma-Berechnungen herumschlagen (was um Größenordnugnen langsamer ablief).
Das wird mit der GPU einer FPU-losen HSA-APU nicht anders sein, bzw. läuft damit die herkömmliche Software gar nicht, weil alle halbwegs aktuelle Software vorraussetzt, dass die CPU über FP-Einheiten verfügt.
Alte Nicht-HSA-Software weiß ja nichts von der GPU und ihren FP-Fähigkeiten. Die kennt nur x87, SSE (ältere Schätzchen vielleicht sogar noch auch 3DNow) usw.

Ich bin deshalb sicher, dass AMD auch zukünftig konventionelle FPUs in seinen APUs haben wird. Wenigstens so lange, bis niemand mehr ein Problem damit hat, auf alte Nicht-HSA-Software zu verzichten. Aber bis da hin wird noch seeeehr viel Zeit vergehen, wenn es denn überhaupt jemals so weit kommt.

Auch wenn sich schon einige größere Unternehmen in der HSA-Foundation zusammengefunden haben, der Hersteller von über 80% aller x86-CPUs ist nicht dabei und der (nach Intel) zweitgrößte GPU-Hersteller im PC-Segment ebenfalls nicht.
Nvidia ist bei HSA sowieso außen vor, denn mangels x86-Lizenz können die keine integrierten HSA-Systeme entwickeln und mit dedizierten GPUs funktioniert es wie gesagt nicht. Nvidia könnte höchstens zukünftige ARM-SoCs auf HSA auslegen, aber die spielen nunmal im PC-Bereich keine Rolle.

Deshalb sehe ich für HSA im vom HSA-Mitglied ARM dominierten Mobilbereich viel bessere Chancen, als bei PCs. Möglicherweise auch in Spielkonsolen.
 
Zuletzt bearbeitet:
Leute,
könnt ihre den Quatsch mit dem Marketingbuzzword HSA nichtmal lassen. Das ist nichts anderes wie reines GPGPU und wird auch in Zukunft eben nicht die Aufgaben der CPU übernehmen. CPUs sind eben keine GPUs. Und daran wird auch kein Marketingbuzzword etwas ändern.

Das AMD daraus mehr macht, ist doch klar. Deren CPUs sind eben nicht mehr konkurrenzfähig. Also versucht man nun die Wichtigkeit herunterzuspielen.
 
AMD-Mafiosi schrieb:
Ganz ehrlich? das ist doch nur Dummes Gewäsch.. wer will bitte wissen bei einer 100€ CPU wo das Limit beginnt.. Im Realbetrieb wird immer das GPU-Limit erscheinen, denn diese CPU Schreit gradezu danach mit einer Günstigen Dedizierten zu Betrieben werden. Ebenso würde ich nie an einen 3220 eine 400€ GPU hängen, denn somit mache ich mir eben diesen Preisvorteil kaputt. Im Mainstream sind für mich andre Dinge wichtiger als die Spieleperformance unter Full HD.
Und ich wage zu behaupten der Vorteil kommt Ausschließlich durch die Fertigung, die GPU dürfte nämlich bei Trinity ca 30% der Gesamt TDP fressen, was angesichts der Brachialen Leistung für eine IGPU lächerlich wenig ist.

Ich schon, weil ich möchte schon wissen ob die CPU 60fps+ schafft. Habe ich eine kleinere GPU nehm ich zur Not die Grafikeinstellung lieber zurück um bei 60fps mit Vsync zu bleiben, statt mir eine CPU-limitierte Ruckelorgie irgendwo zwischen sagen wir mal 30 und 50 fps anzugucken.

Zum Thema Stromverbrauch, kann sein dass das einige noch nicht interessiert, mich schon. Bei dem Test der Leistungsaufnahme war wohlgemerkt keine GPU aktiv, da mit Prime95 getestet wurde.
 
Herdware
Es reicht, wenn HSA sich im Mobilen und Konsolen Sektor durchsetzt. Hier kann man optimal optimieren, mit wesentlich weniger Aufwand. Sobald sich das hier gut durchgesetzt hat, könnte der Desktop so richtig durchstarten, falls dieser überhaupt in Zukunft noch so interessant ist.
So oder so, AMD geht mit HSA einen guten weg, denn man mit Foundation schon mal breit genug gemacht hat.

Sontin
Schreib doch mal Texte mit Inhalt, danke. Ich kann deine Ansichten nachvollziehen, aber du betreibst immer so schlimme Schwarz-Weiß Malerei. Man könnte genauso behaupten Intels MagnyCore wird nie eine gpu ersetzen können... Genauso kann ich von IPC oder CPU-only ebenso von Marketing sprechen, denn für mich ist ein Computer dann ausgewogen, wenn die CPU und die igp zusammenpasst, wobei es sinnvoll ist, bei einem Gaming Rechner die dgpu stärker anzusetzen. Dass man bei einem Office PC keine so starke igp braucht ist nachvollziehbar. Doch dass man für office enorme CPU Performance braucht ist genauso lächerlich. Wenn also AMD schafft im Office die igp mehr einzubinden, bsp Powerpoint, oder CAD Rechner ect, dann kann die igp doch ein Argument werden.

RayKrebs
50411.png

Es kann auch anders aussehen. Wem aber der Last verbauch zu hoch ist, könnte auch an einem 5700 Ausschau halten.

https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/7/
Ich zu mindestens sehe mich darin bestätigt dass man den PII x4 965 geschlagen hat. Dieser reicht vollkommen aus, um aktuelle Games ect gut zu befeuern. Da darf man doch auf die Athlon II x4 gespannt sein, die dann um die 80 euro zum kaufen geben könnte (k-Modell), immerhin konnte man ja 4,7 ghz erreichen. Somit ist es eine soldie CPU Performance, mit den neusten Instruction sets, die aber momentan noch nicht den Vorteil bringen. Man sieht aber dass der A10 trotz höheren Takt und etwas bessere Performance besser schlägt als der PII x4 965. Auch ein FX 4100 müsste sich geschlagen geben, und würde wahrscheinlich genauso viel verbrauchen wie der A10. Der FX 4170 zeigt ja, dass dieser nicht westentlich schneller ist, aber wesentlich mehr Verbraucht.
Somit sehe ich in Trinity CPU-only schon klare Verbesserungen zum Vorgänger.

Ich nehme stark an dass der A10 5700 ca die Performance eines PII 955 erreicht und die igp nicht wesentlich langsamer ist. Kann mir gut vorstellen, dass der 5700 das besser abgestimmte Produkt ist. Der 5800k ist nun mal ein Prozessor denn man anpassen sollte.
 
Zuletzt bearbeitet:
Sontin schrieb:
Und was kann die Video-Decoding-Einheit von SB/IB nicht? Sie schafft vielleicht nicht genau 23,976FPS, aber mit 23,973 wird auch nur alle 3-4 Minuten neu synchronisiert. Wobei das nichtmal immer auffallen wird.

Darüber hinaus klappt alles inkl. 3D und 1080i über Quicksync.
Es ist definitv sichtbarer und störender als die von manchem so hoch gehaltene "Unspielbarkeit" unter 60 fps in Games oder die immer wieder bemühten Microruckler bei Crossfire/SLI. Es ruckelt weil Frames gedropt werden. jetzt ist es eben nicht mehr alle 42 sekunden, jetzt sind es all 2-3 min. Nervt trotzdem und hat in einem HTPC nichts zu suchen.

dacapo schrieb:
also ich habe ein blueray laufwerk in meinen a200 mit t8300 eingebaut und konnte bisher alle filme anschauen.gut da ist auch ne hd 2600 verbaut inwieweit sie nun etwas beschleunigt weiß ich nicht,aber ruckeln etc. konnte ich nicht feststellen,sowohl bei 720p und 1080p,denke aber da wird der i3 mit seiner fortschrittlicheren technik doch ähnlich abschneiden??
Und woher kannst du dann beurteilen dass es normal aussieht wenn du gar nicht die Intel IGP nutzt zur Videoausgabe?

Sontin schrieb:
Leute,
könnt ihre den Quatsch mit dem Marketingbuzzword HSA nichtmal lassen. Das ist nichts anderes wie reines GPGPU und wird auch in Zukunft eben nicht die Aufgaben der CPU übernehmen. CPUs sind eben keine GPUs. Und daran wird auch kein Marketingbuzzword etwas ändern.

Das AMD daraus mehr macht, ist doch klar. Deren CPUs sind eben nicht mehr konkurrenzfähig. Also versucht man nun die Wichtigkeit herunterzuspielen.
Nein ist es nicht - erkundige dich bitte mal. Was hat denn GPGPU mit gemeinsamen Speicherbereichen von CPU und GPU zu tun und Verwendung von gemeinsamen Pointern?

Hier hat es Info: http://hsafoundation.com/pubs-presos/
Danach solltest du es wohl kaum noch als Buzzword für GPGPU sehen.
 
Matzegr schrieb:
Dieser Differenz Idle-Last Vergleich ist das Dümmste was es gibt! Mit exakt NULL Aussagekraft!

Nehmen wir an wir haben ein System A und B.
A braucht im Idle 20W unter Last 100W
B braucht im Idle 60W unter Last 100W

Dann braucht nach dem Differenz Idle-Last Vergleich System A 80W und System B 40W, also das Doppelte! Nun die Frage an dich: Welches System ist aber in Wirklichkeit besser? Eindeutig System A!

Idle-Last-Vergleich ist nutzlos!

Interessanter wäre Idle, Teillast, Volllast (CPU), Volllast(CPU+GPU)

Und für den Alltag noch ne kleine nette Rechnung, die ein realistischeres Bild auf den zu erwarteten Verbrauch zuläßt.
Im Alltag ist eine CPU zu 85% der Zeit im Idle.

Also wäre eine Rechnung (0,85*Idle)+(0,15*Volllast) wesentlich besser geeignet um den tatsächlichen Durchschnittsstromverbrauch abzuschätzen.
Beim Beispiel oben kämen wir dann bei System A auf 32W und bei System B auf 66W, was ja mal wesentlich näher an der Realität liegen würde als die Aussage (nach Differenz Idle-Last) das System A das Doppelte braucht! :rolleyes:

Ja, stimme Dir zu. So ein Test mit Teillast währe schon nicht schecht, wobei Blue-Ray auch schon eindeutig zugunsten von Intel ausfällt.

Aber Du hast schon gesehen das bei Idle / Volllast beide System nahezu gleiche Leistung in Idle hatten: 56 Watt Intel i3 und 55 Watt Amd A10. Also ist hier Idle-Last-Vergleich nicht sinnlos:freaky:
 
Meetthecutthe
Wie kann man über AMDs neuster APU von Fail reden, wenn der wesentlich besser, schneller, effizienter als sein Vorgänger ist ? Besonders dann wenn man bei einem User das ließt ?
WiiU ist vorbestellt

AMD hat genauso wie Nintendo ein Konzept, das sich in einer gewissen Liga gegen Sony oder Microsoft nicht messen kann, zeigt aber in dem Gebiet, für dass das Konzept geschaffen ist, eben seine Vorteile und deshalb auch sein Kaufreiz.
 
MountWalker schrieb:
Der x86-Teil ist der Integer-Teil und da liegt das Bulldozer-Konzept weit vorn. Die x87-Leistung war bei AMD schon immer schlehter, als bei Intel, weil AMD immer forcieren wollte, dass FP-Berechnungen so weit wie möglich mit SSE (bzw. früher mit 3Dnow!) durchgeführt werden. Hintergrund ist einfach, dass man nicht unnötig Silizium für zwei Einheiten verbrauchen will, wenn beide Einheiten theoretisch den gleichen Zweck verfolgen.

AMD hat den Schritt vielleicht deutlich (Jahre) zu früh gemacht, aber langfristig macht es Sinn auf SSE uä. zu verzichten, wenn FP-Berechnungen auf GPUs durchgeführt werden. Kann sein, dass AMD den "PC-markt" verlassen wird, bevor das Konzept aufgeht, aber auch Intel macht Fehlinvestitionen - AVX bringt jetzt kurzfristig Vorteile, der Code dafür muss aber auch erst geschrieben werden und bis genug Anwendungen von AVX profitieren ist das GPGPU-Für-Alles-Zeitalter vielleicht schon angebochen.

P.S.
Kann auch sein, dass GPGPU die falsche Richtung ist, und stattdessen doch Konzepte wie der Cell die Zukunft sind, aber im Moment siehts eher nach GPGPU aus.

x87 is schon seit jahrmillionen teil von x86, wenn ich also x86 sage dann meine ich den cpu-teil im allgemeinen. miserable ipc UND ein riesen chip, ist ja i.wie klar dass das nichts wird...
 
Perry S. Hilton schrieb:
... wenn ich also x86 sage dann meine ich den cpu-teil im allgemeinen. ...
Warum ist eine VLIW4-Einheit denn weniger "CPU-Teil", als eine SSE-Einheit oder eine AVX-Einheit? x87 war die erste FPU im "x86-Umfeld", diese wurde ersetzt durch 3Dnow! und SSE. Ich verstehe nicht, wo der Prinzipunterschied zwischen einer FPU-Einheit für AVX und einer FPU-Einheit für AMD Stream besteht - das sind zwei unterschiedliche Instruction Sets, aber AVX ist auch ein anderes Instruction Set als SSE.
 
Zuletzt bearbeitet:
Hoffentlich kann AMD genug A10-5700 an Selberschrauber liefern und nicht nur an Aldi und Co.
 
Warum sind im CPU test eigentlich so viele Spieletests?
Ist das nicht irgendwie unsinnig?

Außerdem verstehe ich nicht, was ein "Performancerating zu Watt (Differenz Idle/Volllast)" bringen soll.

Wenn man eine CPU hätte, die gar keine Energiesparmechanismen hätte (also immer da gleich brauchen würde), dann wäre die da ganz vorne. Ist das gewollt?

Außerdem sind hier CPUs, die (wodurch auch immer) in der Leistngsaufnahme beschrönkt sind auch besser (weil die Differenz kleiner wird). Die Leistung wird aber auch schlechter.

Das P/L Verhältnis (Seite 16) hat mir früher besser gefallen. Es ist total unübersichtlich geworden:

https://www.computerbase.de/2012-10/test-trinity-vs-ivy-bridge-im-cpu-test/16/

Bitte lasst das klassische weiter drin!

Ansonsten:
Danke für den test.
Sehr umfangreich, sehr gut!
 
RayKrebs schrieb:
Aber Du hast schon gesehen das bei Idle / Volllast beide System nahezu gleiche Leistung in Idle hatten: 56 Watt Intel i3 und 55 Watt Amd A10. Also ist hier Idle-Last-Vergleich nicht sinnlos:freaky:

Ein Differenz Idle-Last-Vergleich ist auch hier sinnlos.
i3: 33W; Trinity: 105W macht +218% mehr Leistungsaufnahme was einem suggeriert wird

Das endet in Sätzen wie:
Der A10-5800K genehmigt sich satte 105 Watt – mehr als das Dreifache!

Was absoluter Bullshit ist. :mad:
Da bei Last der i3 89W zieht und der Trinity 160W, das macht +80% mehr Leistungsaufnahme.

Es wird zu keinem Zeitpunkt das Dreifache Verbraucht, sondern im schlimmsten Fall das 1,8-fache!!!


pipip schrieb:
50411.png

Es kann auch anders aussehen. Wem aber der Last verbauch zu hoch ist, könnte auch an einem 5700 Ausschau halten.

So ein Balkendiagramm ist auch äußerst ungünstig.

Es suggeriert, das ein Trinity A10 +78% und ein Trinity A8 +66% mehr verbraucht als ein i3 beim encodieren.

Da das encodieren aber auf den i3 länger dauert, ist der Mehrverbrauch in Wirklichkeit "nur" +56% bzw. +50%

Jetzt machen wir mal nen Szenario daraus, indem der Rechner 4,5 Stunden läuft, wobei ein 45min. Video encodiert wird und der Rest der Zeit der Rechner im Idle ist. (~20% der Zeit Last, ~80% der Zeit Idle)

Und schon braucht der A10 nur noch +5,4% und der A8 +3,1% mehr als das Intel-System (Verbrauchswerte aus dem Test von Anandtech).

Und das ist realistischer als 100% Volllast über die gesamte Laufzeit. Dann kann man sich auch folgende Sätze sparen:
außer man legt Wert auf die Leistungsaufnahme, denn dann sollte man einen großen Bogen um die Modelle schlagen
Keiner, wirklich keiner, der eine CPU in der Preisklasse kauft, lastet eine CPU die ganze Zeit zu 100% aus, oder?
 
@derGrimm
ich glaub da hast du selber nur etwas falsch verstanden bzw. selber völlig falsch aufgefasst hast!
nunja eine Fehlinterpretation deiner Seite die dich zu allerhand Spekulation veranlasst hat!
Nein mit Core I3 hat das sicher nichts zut tun!

@MrTengu
mein Computer nutze ich hauptsächlich zur Audiobearbeitung das heist wave bearbeitung und mp3 converting ist nur am rande wichtig aber auch hier sieht man beiläufig das Intel die Nase seit jahren vorn hat und AMD dort die angesetzt hat sich zu verbessern! Die AMD-Schwäche im Audiobereich ist ja nicht erst seit gestern bekannt sondern seit Jahren bekannt!
um 2 Gigabyte Wave Datei in mp3 umzuwandeln benötigt ein Core i7 3770k 2Minuten ein
AMD 3870k LLano braucht dafür knapp 7Minuten!!!
Wichtiger ist aber meine DAW Software also (Fruity Cubase Ableton,usw... !)
meine DAW profitiert sehr von CPU Takt aber auch vor allem von entsprechenden CPU Features wie HT & SMT, multithreaded generated Processing!
ich glaube sowas alles hat nen Core I5 nicht mal! Für mich spielt Preis und Stromverbrauch eine wichtige Rolle, aber auch falls ich doch mal nen 3D Spiel spielen will, wenn ich die Zeit dafür habe...! denn soll dies auch spaß machen und ich will nicht ständig irgendwelche Details auch bei älteren Games so wie Far Cry 2 runterschrauben, hatte vorher nen 3870k von AMD und mal ehrlich besser gleich ne vernünftige Grafikkarte rein!
schön und bewundertswert von AMD das die integrierte Grafikeinheit APU schnell/schneller ist
aber für einige ältere nicht so anspruchsvolle Games & HTPC ist das nur zu gebrauchen da ändert sich auch mit Haswell nichts leistungstechnisch gross!

@Meetthecutthe
Ich hoffe es! Es ist ja so wenn ich jetz mir was neues kaufe denn will auch etwas davon länger haben! Der LLANO hat bei mir nur 10Monaten seine Dienste getan und er ist schnell in verschiedenen Bereichen bei mir an seine Grenzen gestossen! Als Systembuilder würde
ich den Trinity als gute Basis für einen HTPC empfehlen! Die integrierte Grafikeinheit ist gut!Das System wäre auf längerem Zeithorizont ein guter HTPC zu einem wenigsten fairen Preis!
Intel Core I7 System wenn ein leistungsarker PC gefragt ist! Denn im Dezember oder Januar noch ne Radeon HD 8850 und ne Samsung Pro 840 , also ich kann dein Satz nur unterstreichen, wer billig kauft kauft 2mal!
 
Zuletzt bearbeitet:
Sontin schrieb:
könnt ihre den Quatsch mit dem Marketingbuzzword HSA nichtmal lassen. Das ist nichts anderes wie reines GPGPU und wird auch in Zukunft eben nicht die Aufgaben der CPU übernehmen.
Tolles Buzzword, nicht? http://winfuture.de/news,72294.html

Bleib du doch bitte bei deinem CPU-Rendering in Spielen und lass die Großen mal machen. CUDA, Stream, OpenCl, DirectCompute und Co. sind natürlich auch nur Buzzwords. Geh weiter spielen...
Hademe schrieb:
Um Gottes Willen is das ne mieserable Performance.
Kann ich bitte den Herrn Dünnsch sprechen? :freak:


Schade, dass eine interessante Diskussion immer wieder durch Pappnasen zunichte gemacht wird. Hab gern hier quer- und mitgelesen, aber wegen durchgehend überflüssigen Kommentare hat man irgendwie kaum Lust weiter zu lesen...

Hauptsache man mokiert darüber, dass der Balken lang genug ist und die Technik, sowie entsprechende Möglichkeiten in der Zukunft ja egal sind, so lange der "Lieblings-" und "One-and-only-Hersteller" die Nase vorn hat und seien es 2 % an denen sich manche hier aufgeilen können... :(

Es ist eigentlich immer wieder erstaunlich zu sehen, was AMD alles mit dem mickrigem Budget auf die Beine stellt. Seh ich mir dagegen Intel an, kommt der lahme Riese nicht in die Pötte und gibt kaum was zukünftig Brauchbares ab.
 
pipip schrieb:
Meetthecutthe
Wie kann man über AMDs neuster APU von Fail reden, wenn der wesentlich besser, schneller, effizienter als sein Vorgänger ist ? Besonders dann wenn man bei einem User das ließt ?

Wesentlich besser?

Performance:

Vorteil A10-5800K gegenüber dem A8-3870K (CPU) = 10 Prozent
Vorteil A10-5800K gegenüber dem A8-3870K (GPU - Spiele) = 25 Prozent
Vorteil A10-5800K gegenüber dem A8-3870K (GPU - Transkodierung) = ca. 15 Prozent

Stromverbrauch:

Nachteil A10-5800K gegenüber dem A8-3870K (CPU) = ca. 3 Prozent
Nachteil A10-5800K gegenüber dem A8-3870K (GPU - Spiele) = 27 Prozent
Nachteil A10-5800K gegenüber dem A8-3870K (GPU - Transkodierung) = 24 Prozent

Also wie man die Ergebnisse als wesentlich besser und effektiver bezeichnen kann, ist mir persönlich ein absolutes Rätsel. Sieht eher nach einem gepflegten Treten auf der Stelle aus, wenn man die einzig und alleinigen Vorteile durch neue Befehlsätze auf CPU-Seite als Grundlage für die bessere Performances in ein paar Benchmarks gegenüber dem Llano zugrunde legt, ist das eher ein Rückschritt. :freak:
 
News schrieb:
Der A10-5800K genehmigt sich satte 105 Watt – mehr als das Dreifache!

Matzegr schrieb:
Was absoluter Bullshit ist. :mad:
Da bei Last der i3 89W zieht und der Trinity 160W, das macht +80% mehr Leistungsaufnahme.

Es wird zu keinem Zeitpunkt das Dreifache Verbraucht, sondern im schlimmsten Fall das 1,8-fache!!!

Vielleicht meinen die, dass der A10 uner Last mehr als dreimal so viel Strom verbraucht, wie im Idle.
Im Idle 55W, unter Last 160W.

Das ist ja der komplette PC.
Vielleicht kommt es beim reinen CPU Verbrauch ja hin!
 
Hier wird wieder unglaublich viel Müll geschrieben um ehrlich zu sein. Vielleicht kommt das davon, dass ein getrennter Test zwischen GPU und CPU gemacht wurde. Nach den Kommentaren zu Urteilen sehen die meisten wohl nur Trinity ist in Spielen langsamer als Ivy und braucht dazu noch 3 mal so viel Strom.

Erstmal ist die Spieleleistung von Trinity mit zusätzlicher GPU völlig irrelevant. Die APU ist nicht dazu gedacht eine dicke dGPU daneben zu stecken. Wer das vor hat, sollte lieber in 3 Wochen einen kleinen Vishera kaufen oder einfach einen i3.
Trinity "sollte" mit den iGPU genutzt werden und da ist auch die Stärke der APU.
In Anwendungen ist Trinity knapp hinter einem i3-3220 der ungefähr gleichviel kostet. Schlecht ist das garantiert nicht. Mit dem i3-3220 wird man aber sobald die iGPU benutzt wird (mehr als 2D) nicht glücklich. Trinity kann einem anspruchslosem Spieler aber durchaus reichen.

Die Leistungsaufnahme ist bei Ivy-Bridge klar besser, da gibt es nichts zu rütteln. Wenn man aber die gleiche Grafikleistung wie beim Trinity will, muss man aber nochmal 50% draufzahlen und ein großteil des Effizienzvorsprungs ist dahin.

Was ist mit dem allen mein ist, dass Trinity durchaus interessant ist, wenn man mehr GPU Leistung will als eine HD4000 bieten kann. Für einen Office-PC ist ein Celeron ausreichen und für die Verwendung mit einer dGPU braucht man mehr CPU-Leistung, aber wer eine ordentliche CPU will und hin und wieder ein Spiel spielt für den ist Trinity kostengünstiger (auch auf lange sicht) als ein System mit dGPU
 
Simon
Nur sind die % angaben leider nicht 1zu1 zu vergleichen oder ?
Bsp : Niedrige Zahlen : 92 vs 114 watt => 25 %

jetzt das in min ausgedrückt : 7:44 Minuten vs 8:50 Minuten.

Das heißt der A10 ist 64 sec länger im idle.

Jetzt Gpu Spiele :
93 vs 118 frames : also 25 watt zieht Trinity mehr ?
1366x768 4xAA/16xAF hab ich verglichen zum Vorgänger 39 frames mehr. Soviel schafft gerade mal die HD 2500 zu generieren.

In meinen Augen, verwundert es mich schon, dass man soviel mehr verbraucht, da hätte ich mir gern ein besseren Turbo vorgestellt.
Doch wenn man bedenkt, dass ein 5700 eine tdp von 65 watt hat, kann man gut vorstellen dass dieser den 3870k schlagen kann und wird, egal ob CPU oder igp.
 
Zuletzt bearbeitet:
Zurück
Oben