Test AMDs „Richland“ im GPU-Test

Unter "Lian Li 007" find ich jetzt nur normale ATX-Tower...

Ich hab n schönes Silverstone mITX Gehäuse (genaue bezeichnung weiß ich grad nicht und finds auch nicht per Google... ist schon etwas älter). Ist n schöner kleiner Kasten mit SlimLine Laufwerk. Da passt aber keine extra Grafikkarte rein...
 
Mir gefällt die neue APU, nur lohnt sich ein Austausch gegen meinen 5800k wohl nicht.
 
Es ist schon faszinierend. Da übertrifft AMD bei der Leistungssteigerung der GPU die Erwartungen (deutlich), steigert den CPU-Teil durch Takt im erwarteten Rahmen und senkt den Verbrauch. Das Resultat: Ein großer Teil der User basht gegen die neuen APUs.

Im Ernst, hätte Intel das so gebracht, würde man hier jetzt den roten Teppich ausrollen. Geht's noch?


@CB: Ich sag das selten - aber schöner Test. ;)
 
body22 schrieb:
[...]
Also für genau 25€ bekomme ich eine erheblich stärkere Grafik Performance. Und die Leistungsaufnahme wird ähnlich sein.
Was spricht jetzt noch für Richland? Und wenn einer die Grafikleistung nicht braucht fährt nochmals viel günstiger -80€ für die dGPU.
Die A10 ist günstiger als €141, die kostet im moment etwa €134.

Und warum überhaupt bei €300 aufhören? Ein A10-6800K + HD6670 für €320 hätte nochmals eine erheblich höhere Grafikperformance für lediglich €20 mehr... Sogar eine A8-6500 + HD6670 für etwa €300 wäre noch schneller.
Steht ja auch im Test, nicht wahr?

Ja, also deine i3 + AMD Grafikkarte Kombination ist nicht so dolle. Es spricht vieles für Richland, wie du sehen kannst. Unter anderem auch die minimale Bauweise.
 
Schon die Einleitung ist ja ein Witz.
Wer auf eine diskrete Grafikkarte verzichten und dennoch die GPU in Spielen nutzen möchte, kommt derzeit nicht an AMDs Trinity-APUs vorbei. Daran hat auch Intels neue vierte Core-Generation mit Haswell-Architektur nichts geändert, obwohl der Chipgigant große Anstrengungen unternommen hat, die GPU-Leistung zu verbessern.
Intel hat aber auch nicht geplant mit der Hd 4600 wirklich etwas großes zu liefern, sondern mit der HD 5000 und besonders der HD 5200.
Letztere wurde ja bereits getestet und selbst mit 47 oder 55W sieht AMD da kein Land.
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested

Tatsache ist doch diese CPUs sind nur wirklich interessant für Notebooks. Jeder der am Desktop spielen will baut sich seine GPU (für 100-150€) ein und alles mehr als eine HD 4600 ist reine Platzverschwendung am Chip. Mit einem HTPC spielt kaum wer, da kauft man sich eher ein Console mit Kontrollern und anständigem Spielerlebnis vorm Fernseher.
Im Notebook braucht eine GPU extra Kühlung und extra Platz am Mainboard. Man muss irgendwie die GPUs umschalten können um nicht Akkulaufzeit zu verlieren. All das macht Geräte dicker und unattraktiver. Dort ist die Leistung einer APU wirklich nützlich und gewollt. Dort spielen Leute auch APUs und dort gibt es auch die ganzen 1366x768 Auflösungen. Keine Spieler am Desktop hat heute noch so niedrige Auflösung schon gar nicht wenn er sich was neues kauft.

Gerade dann wenn AMD keine 100W TDP verbraten kann sehen die APUs aber auch in Games schwach aus. Am Desktop stört sich auch niemand daran einen 2133 DDR3 Riegel zu verbauen da der Energieverbrauch egal ist, im Notebook zählen 500 mW als viel.

Das Fazit dieses Artikel ist einfach extrem einseitig und irrelevant. Tatsache ist im Zielmarkt von Notebook tut sich Richland deutlich schwerer da es nicht wirklich dramatisch Energieeffizienter ist und selbst die HD 4600 wird dort zur Konkurrenz. Mit Blick auf die GT3 Lösungen und die vielfach zu schwache CPU Leistung bei den ULV Modellen für selbst niedrige Einstellungen in Spielen (die CPU Anforderungen skalieren ja meist wenig mit) führt dazu das man wirklich nicht mehr sagen kann AMD hätte die Nase vorn.

Kaveri wird vor allem bei GPGPU was ändern aber massiv Energieeffizienter war GCN auch nicht. Der wird ja weiter auf 28nm bleiben afaik.
Preislich kann AMD Intel im mobilen Segment unterbieten aber in Sachen wer das bessere Produkt liefert haben sie keine Chance. (Leider)
 
Casi030 schrieb:
Was ist dann für dich eine HD 6670(oder HD 6570) und eine GT 630?
das ist für mich irgendwas zwischen zu wenig und einem schlechtem scherz.

geh mal zum kürzlich erstellten grossen grafikkarten vergleich von CB und sag mir dann mal, wo sich diese karten in etwa einfinden
https://www.computerbase.de/artikel/grafikkarten/17-grafikkarten-test.2023/

und bevor nun als antwort kommt, dass es unsinnig sei, solch eine karte mit den dort verwendeten spielen und settings zu testen, möchte ich nochmals auch daran erinnern, dass ich erwähnt habe, auch andere spiele aus den nicht tripple A bereich zum benchen zu nutzen.
 
duskkk schrieb:
Kaveri wird vor allem bei GPGPU was ändern aber massiv Energieeffizienter war GCN auch nicht. Der wird ja weiter auf 28nm bleiben afaik.
Preislich kann AMD Intel im mobilen Segment unterbieten aber in Sachen wer das bessere Produkt liefert haben sie keine Chance. (Leider)

Wieso muss man eigentlich immer das bessere Produkt haben ?

AMD bietet ein Produkt an, entweder es findet seine Käufer oder auch nicht. Was nützt mir eine Schlacht um die schnellste CPU der Welt, wenn ich sie nicht bezahlen kann.
 
mhm, jetzt hatte ich mir extra 2133er ram für den htpc geholt und dann kriegt nur der beste das schnellere interface^^ gemein *g*

ich denk mal, davon wird ja wohl auch der größte leistungssprung kommen. das hatte cb ja schonmal vor längerem getestet, dass die apus von schnellerem ram massiv profitieren. aber trotzdem schönes ding. wenn ich mal aus dem alter von den highend-spielen raus bin, wird sicherlich sowas mal einzug halten. allerdings mach ich auch viel videoschnitt etc. und da hängt der cpu teil ja leider bisschen hinterher..aber bis es soweit ist, hat amd da hoffentlich auch aufgeholt..^^
 
Morrich schrieb:
Sehr schön! Dann kann der A10-6700 ja Einzug in mein System halten. Wer, wie ich, diesen ganzen an Accounts geknebelten Kram boykottiert und nur ältere und weniger anspruchsvolle Titel spielt, der hat mit einer solchen APU doch klasse Hardware vor der Nase.
Keine dedizierte Graka, die unter Belastung nen Haufen Strom zieht, ein Lüfter weniger, deutlich kleineres Gehäuse möglich und mit gerade mal 65W TDP kann man einen A10-6700 locker auch passiv kühlen.

Oh, das wird geil.


Darauf warte ich noch ;) der Anfang ist ja gemacht in Zukunft denke ich auch das ich mich dann von extra Karte und Co trennen werde und auf APU umsteige :)
 
quotenkiller schrieb:
das ist für mich irgendwas zwischen zu wenig und einem schlechtem scherz.

geh mal zum kürzlich erstellten grossen grafikkarten vergleich von CB und sag mir dann mal, wo sich diese karten in etwa einfinden
https://www.computerbase.de/artikel/grafikkarten/17-grafikkarten-test.2023/

und bevor nun als antwort kommt, dass es unsinnig sei, solch eine karte mit den dort verwendeten spielen und settings zu testen, möchte ich nochmals auch daran erinnern, dass ich erwähnt habe, auch andere spiele aus den nicht tripple A bereich zum benchen zu nutzen.

Ohhh verdammt,jetzt fehlt mir ein Zacken......:
http://ht4u.net/reviews/2012/budget_grafikkarten_benchmarks_gt_640_gtx_650_hd_7750_ddr3/index20.php

Wo genau fängt bei dir UNTEN an?Grakas ab 300EU?! :freak:
 
duskkk schrieb:
Schon die Einleitung ist ja ein Witz.

Intel hat aber auch nicht geplant mit der Hd 4600 wirklich etwas großes zu liefern, sondern mit der HD 5000 und besonders der HD 5200.
Letztere wurde ja bereits getestet und selbst mit 47 oder 55W sieht AMD da kein Land.
http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested
Na, ist doch etwas wenig für eine riesige CPU + EDRAM für $600. Böse Zunge würden behaupten, dass das Teil ein Fail ist. :) Der Test bestätigt nur, dass Intel immer noch keine GPUs bauen kann.

Und in höheren Auflösungen kackt das Intel Teil so dermaßen ab... also für $600 erwarte ich da viel, viel mehr. Da fährt man mit einer dedizierten GPU viel besser und hätte zudem auch viel mehr Leistung.
 
Zuletzt bearbeitet:
Kapi schrieb:
Intel hat mit aller Gewalt die Anzahl der Shader mit Haswell verdoppelt (neue Generation), AMD hat die Anzahl der Shader nicht erhöht (ist halt auch nur ein Refresh) und verbessert die Leistung dennoch um +20%...

Das ist schon ein gewaltiger unterschied. :)

dann sollte man aber auch den passenden Test mit der "Verdopplung" der Shader anschauen ;)

Kleiner Tipp, der i7 4770K ist es nicht :D

Edit: okay hat sich ja wohl schon geklärt ^^

-> Intel scheints mit der iGPu wichtiger Sein OpenCl Leistung nach oben zu schrauben als reine Gamingperformance. Kann sich dennoch ganz gut sehen lassen. Abgesehen davon hat das Teil nicht mal die Hälfte der TDP. ;)
Fail is relativ.
 
Zuletzt bearbeitet:
@Krautmaster

Wenn ich mir den AMD A10-6700 und den Intel Core i7-4770K anschaue sehe ich bei den Messungen zur Leistungsaufnahme aber nicht den halben Verbrauch. Eigentlich nicht so toll wenn man wie Intel noch den Fertigungsvorteil hat.
 
Casi030 schrieb:
Ohhh verdammt,jetzt fehlt mir ein Zacken......:
http://ht4u.net/reviews/2012/budget_grafikkarten_benchmarks_gt_640_gtx_650_hd_7750_ddr3/index20.php

Wo genau fängt bei dir UNTEN an?Grakas ab 300EU?! :freak:
eben nicht 300€, wie du scheinbar missverstehen willst, sondern eher ab 30 bis 40.
der "grosse" grafikkarten test" beginnt bei knapp unter 100 euro. entsprechend ist es nicht einmal wirklich ersichtlich, wie leistungsfähig oder halt schwach, die dinger wirklich sind. es ist auch anhand der ausgewählten spiele nicht ansatzweise ersichtlich, was mit den dingern möglich ist, oder auch nicht. insofern sind diese tests zwar nett zu lesen und es hilft auch die grafik leistung der einzelnen prozessoren untereinander zu vergleichen, aber das war es dann auch schon.

und was interessiert mich der test von ht4u. ich kritisiere schliesslich das fehlen dieser angaben in dem cb test. übrigens nicht zum ersten mal und auch nicht als einziger. es gab bei praktisch allen apu tests schon von verschiedenen leuten entsprechende anforderungen.
 
@Jesterfox
afür müsst ich mein Gehäuse grob geschätzt 3 mal aufeinanderstellen um an die Größe zu kommen... ;-)

Und darin ist ein AMD mit ner TDP 100W?

Also wie ich geschrieben habe, ich befürworte APUs für die Zukunft oder wenn man nicht Spielen will auch schon heute.
Ist wirklich sinnvoll!!!

Und AMD hat für ein besseres Stepping echt ne schöne Leistungssteigerung hingelegt.
Aber ich halte die 5800 und 6800 für nur einen sehr kleinen Kundenkreis interessant.

Und eine 7750 mit nem I3 ist geringfügig teurer. Aber ich habe auch nicht die billigsten Komponenten gewählt. Also im grunde gleicht teuer/günstig.
Und ne 6670 im CF mit dem 6800K ist für mich der mega Schwachsinn.
 
Krautmaster schrieb:
dann sollte man aber auch den passenden Test mit der "Verdopplung" der Shader anschauen ;)

Kleiner Tipp, der i7 4770K ist es nicht :D
Huch, Vertippt. Ja, also Intel hat 25% mehr Shader (Execution Units) in die 4770K verbaut, den Takt um 100Mhz erhöht (10%) und die GPU-Leistung stieg um etwa 30%. So ist richtig.

Tja, ein Jahr später und an den Execution Units hat sich offensichtlich so gut wie nichts getan. Da muss Intel sich mehr Mühe geben, wenn Sie AMD einholen wollen. ;)

Krautmaster schrieb:
-> Intel scheints mit der iGPu wichtiger Sein OpenCl Leistung nach oben zu schrauben als reine Gamingperformance. Kann sich dennoch ganz gut sehen lassen. Abgesehen davon hat das Teil nicht mal die Hälfte der TDP. ;)
Fail is relativ.
Klar, das muss man natürlich relativieren, so wie du es gerade machst, wenn die iGPU einer $600 Intel Notebook CPU auf der ganzen Linie failt, abgesehen von 1-2 Tests. :evillol:
 
Zuletzt bearbeitet:
Whoozy schrieb:
@Krautmaster

Wenn ich mir den AMD A10-6700 und den Intel Core i7-4770K anschaue sehe ich bei den Messungen zur Leistungsaufnahme aber nicht den halben Verbrauch. Eigentlich nicht so toll wenn man wie Intel noch den Fertigungsvorteil hat.

wer redet vom i7 4770K? Ging ja um Iris und "Shader verdoppelt".

http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/11

hier ist ja der Test zu der 47W APU / CPU wie auch immer mans nennen mag.

@Kapi

jep gerade die Flächeneffizienz bzw die Eus gilt es zu überarbeiten. Vielleicht deswegen Generation 7.5?

Wo failed die GPU denn? Vor allem wo auf ganzer Linie`?

Die ist meist fast 70-100% schneller als die HD4600 des Core i7 4770K - und die CPU Leistung dürfte sich ebenfalls sehen lassen können. Iris dürfte unterm Strich so schnell sein wie ne 100W Richland APU im Desktop. CPU seitig fixer, GPU seitig dezent fixer, bei 47W.

Ich würde mal sagen weder Richland noch Iris/Haswell failed.

Edit. Und der Preis is total wayne wenns um das Produkt selbst geht.
 
Zuletzt bearbeitet:
Eben bei getgoods zusammengestellt:

A10 5800K + ASRock FM2A75 Pro4-M + 8GB DDR3-2400
= 172 €

A10 6800K + ASRock FM2A75 Pro4-M + 8GB DDR3-2400
= 205 € Falls das Mobo die neuere APU erkennt....
In meinen Augen lohnt sich der Aufpreis an dieser Stelle nicht

Alternativen mit dGPU:

Athlon II X4 750K + ASRock FM2A75 Pro4-M + 8GB DDR3-1600 + HD 6670 DDR3
= 171 € von der Geschwindigkeit gleich wie A10 5800K (CPU eher etwas weniger, dafür GPU etwas mehr)

Intel Core i3-3220 + MSI B75MA-E33 + 8GB DDR3-1600 + HD 6670 DDR3
= 207€ 30€ mehr für eine sparsamere CPU??? "How 'bout NO!"


Fazit, je dicker die GPU werden soll, desto lohnender ist der Griff zum Athlon! Weil dann sowieso alle APU iGPU's zu langsam sind.
 
Zurück
Oben