Test AMDs APU „Kaveri“ im Test

Hat schon jemand Erfahrung mit dem A10-7850k beim Gaming sammeln können?

Ich bin an der APU als Wohnzimmergerät interessiert. In den Weiten des Internets habe ich zwar zu einigen Spielen benchmark finden können! aber nicht zu diablo 3 und starcraft 2. Laufen die Spiele gut in 1080p?
 
Also D3 lief mit Trinity und Richland ja schon sehr gut, dürfte mit Kaveri noch besser laufen. SC2 ist ne gute Frage.
 
Soweit ich weiß wird gerade bei SC2 die CPU begrenzt, aber nur online bei max. Spieler und sehr vielen Einheiten. Da müsste man evtl. nen Benchmark abwarten.
 
APU HD Leistung -- Habe ein A10 5800k. Neue Spiele wie COD Ghosts, BF4, AC Black Flag ... das alles geht mit niedrigen bis mittel Details bei 1280x720 Auflösung. Free to Play Games, da laufen viele auch mit 1920x1080. Also erwartet nicht viel. Habe teilweise eine alte Geforce GTX 560Ti beigetan. Dann geht es mit HD Auflösung und den aktuellen Games.
 
Zuletzt bearbeitet von einem Moderator:
D3 lief da schon gut, heißt auch in 1080p und maximalen grafikdetails? Ich brauche fürs Wohnzimmer nur diablo3, left 4 dead und cs go. Alles andere wird auf nem richtigen Rechner gespielt.
 
Bei dem Trinity Test den ich gesehen hatte war es glaube ich auf mittel. Auf max. Details müsste es Kaveri technisch mal getestet werden.
 
deathscythemk2 schrieb:
Soweit ich weiß wird gerade bei SC2 die CPU begrenzt, aber nur online bei max. Spieler und sehr vielen Einheiten. Da müsste man evtl. nen Benchmark abwarten.

SC2 hatte ich weiter oben ja schon einmal verlinkt.....
Casi030 schrieb:
Blind sollte man aber auch nix glauben,wobei mir das Ergebnis aber auch recht komisch vorkommt.
Hier nach reicht nicht mal ein Intel
Anhang anzeigen 390859
 
Matzegr schrieb:
Am Ende ist es egal was im Datenblatt steht. Die 8 Modul CPU werden wir schließlich auch nicht sehen.

Sei nicht so hart. In die PS4 hat es doch eine Variante mit GDDR5 geschafft.

Matzegr schrieb:
Einzig bei der Verwendung im Server-Segment könnte es sein, dass wir dort die Kaveri-Die mit Quad-Channel DDR3 sehen werden.

Ich fürchte nicht. Heise spricht von vier 32-bit Kanälen oder zwei 64-bit Kanäle. Für Server mit DDR3-Speicher wären vier 64-bit Kanäle nötig.
 
noxcivi schrieb:
Ich fürchte nicht. Heise spricht von vier 32-bit Kanälen oder zwei 64-bit Kanäle. Für Server mit DDR3-Speicher wären vier 64-bit Kanäle nötig.

Was für ein Sinn hätte es DDR3 Kanäle und GDDR5 Kanäle physisch voneinander zu trennen? Macht man bei GPUs auch nicht.

BKDG schrieb:
If Ddr3Mode each 64-bit channel has one calibrator and one disable bit.
If Gddr5Mode two 32-bit channels have one calibrator and one disable bit located in the master channel

Klingt für mich so als ob aus dem 64-bit channel im DDR3 Mode "einfach" zwei 32-bit channels im GDDR5 Mode werden.
 
Hi, ich bin am A10-7850K für Gaming interessiert. Hier bei CB wurde die Spieleleistung mit ++ (also Sehr gut) bewertet. Kann ich also mit der APU Spiele mit niedrigen bis mittleren Details zocken? Als Arbeitsspeicher würde ich dann 8 GB DDR3-2133 nehmen.
 
Die meisten Spiele mit niedrig bis mittel in 1080p mit etwa 30 fps. Anspruchslose Titel mit höheren Details.
 
Xanthor1992 schrieb:
Hi, ich bin am A10-7850K für Gaming interessiert. Hier bei CB wurde die Spieleleistung mit ++ (also Sehr gut) bewertet. Kann ich also mit der APU Spiele mit niedrigen bis mittleren Details zocken? Als Arbeitsspeicher würde ich dann 8 GB DDR3-2133 nehmen.

Nimm 2400 MHz Dualrank-Module (siehe aktueller CB-Test). Spiele wie Dota2 kannst problemlos in FullHD mit max. Details zocken, hab leider aktuell nicht viele andere Beispiele.

Diese hier zB, die hat auch Casi030 im Einsatz:
http://www.kingston.com/datasheets/KHX24C11T2K2_8X.pdf
 
Casi030 schrieb:
in welche Richtung gehen dann NFS World, LOL, WOT?
NfSW habe ich ewig nicht mehr angerührt, damals war das für F2P ein ziemlicher HW-Fresse. WoT geht ziemlich auf die CPU, mit dem Rendering-Update auch auf die GPU ... müsste ich testen, wie genau das auf einem 7850K läuft. LOL ist in 1080p easy.
 
Wolfgang schrieb:
Erschien mir zuerst auch etwas merkwürdig, ist aber völlig reproduzierbar.
Wenn du dir aber den 4770K anschaust und die Differenz Idle zu Vollast siehst. da kommt man dann schon in etwa an die TDP von 95 Watt heran. Der 4670K scheint dagegen einfach ein ziemlich "schlechtes" Exemplar zu sein.
Systematische Fehler haben auch die ungute Eigenschaft, dass sie vollkommen reproduzierbar sind. Ich bleibe dabei, in dieser Messung ist irgend ein ganz grober Schnitzer. Sei es gewollt oder ungewollt, irgendwas greift da. Turbomodus, GPU-unterstützung, Treiberbug, BIOS-Fehler, was weiß ich - ihr widersprecht ALLEN euren eigenen bisherigen Messungen mit Haswell völlig. Und 105W Delta sind einfach das doppelte dessen, was realistisch ist. Wie gesagt - euer System mit der GTX Titan hat bei Cinebench X-CPU Gesamtverbrauch 104W für diesen Prozessor. Und das System braucht 46W idle - macht 58W delta, nicht 105W. Bei solchen Differenzen müssen einfach die Alarmglocken schrillen! Wenn ihr euch die Differenzen nicht erklären könnt, dann publiziert nicht offensichtlich falsche Werte, sondern geht der Sache aufn Grund!

Was das Mainboard angeht: Sorry, das ist Stuss. Ihr verwendet ein über-drüber-OC-Board für Haswell, und ein Mini ITX Mainboard für Kaveri, das noch dazu zum guten Teil deaktiviert wird "um einen fairen Vergleich zu haben". Natürlich spuckt euch das "starke" Haswell-Mainboard gewaltig in die Suppe, gerade im Idle. Euer System mit dem 4330 verbraucht mehr im Idle als meins mit 4310T unter Vollast.

Ich bleibe dabei, diesen test hättet ihr als Ganzes einfach nicht veröffentlichen sollen. Dass jetzt flickenartig einzelne Teile nachggereicht werden, das steigert die Qualität nicht unbedingt. Ihr tut euch und auch den Lesern keinen Dienst mit einem unfertigen Bericht! Bitte beweist in Zukunft in solchen Fällen einfach mehr Rückgrat und veröffentlicht einfach ein Statement: "Sorry, wir können euch noch nicht sagen ob Kaveri was taugt, wir habens noch nicht lang genug testen können". Mit solchen Hau-Ruck Aktionen wie diesem Artikel ruiniert ihr euch den Ruf und macht euch zugleich zum Sklaven der Branche. AMD ist ja eh schon bekannt dafür die Presse pünktlich kurz nach der Veröffentlichung mit Hardware zu versorgen.

mfg
 
Zuletzt bearbeitet:
y33H@ schrieb:
NfSW habe ich ewig nicht mehr angerührt, damals war das für F2P ein ziemlicher HW-Fresse. WoT geht ziemlich auf die CPU, mit dem Rendering-Update auch auf die GPU ... müsste ich testen, wie genau das auf einem 7850K läuft. LOL ist in 1080p easy.

Danke.
Sind 3 von 7 Spiele (außer beim A8 3850,da sind es 3 von 4) die ich für einen "??Ich will feste 60FPS haben???" Langzeittest verwenden werde.
Somit schon mal ein guter mix?!
 
bin ja mal gespannt was dann "dual graphics" also hybrid crossfire noch bringt. Wenn man zum A10-7850K noch ne R7 250 dazusteckt.

Leider werden offiziell dafür momentan nur die R7 240/250 Karten unterstützt. Und vom Treiber her ist selbst das noch nicht möglich.
 
KainerM schrieb:
... ihr widersprecht ALLEN euren eigenen bisherigen Messungen mit Haswell völlig. Und 105W Delta sind einfach das doppelte dessen, was realistisch ist. Wie gesagt - euer System mit der GTX Titan hat bei Cinebench X-CPU Gesamtverbrauch 104W für diesen Prozessor. Und das System braucht 46W idle - macht 58W delta, nicht 105W. Bei solchen Differenzen müssen einfach die Alarmglocken schrillen! ...


Du kannst doch keine Cinebench-Volllastwerte mit Luxmark-Volllastwerte vergleichen.

Beim 4770K Test kommt bei Prime-Idle 89W Differenz raus.
Hier kommt beim 4770K bei Luxmark-Idle 95W Differenz raus.

Und da die Werte nahe der TDP sind, die ja bei Intel seit Turbo Boost Technology 2.0 auch kurzzeitig überschritten werden darf, seh ich da erstmal kein Problem.

Nun zum i5-4670K

Der zeigte schon in einem anderen Test ein merkwürdiges verhalten:
Cinebench: 104W zu 113W im Vergleich zum i7
Prime: 137W zu 134W im Vergleich zum i7

Braucht das System mit i5 bei Cinebench 9W weniger als das System mit i7, braucht es bei Prime plötzlich 4 W mehr.

Luxmark wird man eher mit Prime als mit Cinebench vergleichen können. Von daher erscheint mir der Mehrverbrauch von 9 W nicht unrealistisch in diesem Test.

Wenn Luxmark von AVX gebraucht macht, hast du auch hier deine Antwort für die höheren Werte.
Zum Vergleich, folgender Test zum Verbrauch.

Bei "normaler" Volllast (x264) liegt der i7 4770K bei 66W (Volllast-Idle), sobald aber AVX ins Spiel kommt steigt die Volllast-Idle-Differenz auf 105W.

Die Werte wiedersprechen sich also nicht.

Die Frage ist wie sinnvoll die Luxmark-Werte sind. MMn am Ende genauso wenig sinnvoll wie Prime-Werte, da man in Alltagssituationen solche Werte wohl nicht erreichen wird.

Man sollte den Test allerdings noch um ein realistischeres "Volllastszenario" wie z.B. x264 ergänzen.
 
Zurück
Oben