Test AMDs APU „Kaveri“ im Test

marantz schrieb:
2GB DDDR5 würde für die Grafik ja locker reichen, also knapp 40$ oder 30€ mehr pro HighEnd-Board.
Dafür aber 50% mehr Performance beim Gaming

"High End" Board, aber nach wie vor eine Grafikleistung im untersten Gamersegment.
Für 250 Euro (APU+ Board) gibt es wohl wesentlich potentere CPU + GPU Lösungen.

Und genau so werden es Verantwortlichen bei AMD sehen, die ja erst ein mal ein zusätliches Speicherinterface in die APU integrieren müßten.
Das erfordert wieder einen neuen Sockel mit mehreren hundert Pins mehr, was die Sache zusätzlich verteuert.
Das sowas nicht kommt, dürfte wohl auf der Hand liegen.
 
Jesterfox schrieb:
Sobald aber aus dem casual office user ein casual gamer wird passts wie der Faust aufs Gretchen ;-)

Klar, man könnte auch ne Grafikkarte in den Office PC stecken wenns das Gehäuse hergibt. Aber mit ner APU kann man halt schmucke kleine Boxen bauen.
Das Problem ist, dass solche Plattformen (ITX) zu teuer sind. Wenn man sich ein gutes ITX, Gehäuse+ Board+ Netzteil+ Slotin Laufwerk+ Lüfter kauft, ist man weit über dem was man für reguläre Standard Ware (ATX) zahlt.
 
Casi030 schrieb:
Bringt aber auch nix weil das gleiche Spielchen kannst dann auch auf der AMD Seite machen
Ich hab nicht behauptet, dass die intels weniger verbrauchen:
Peter_Shaw schrieb:
@ KainerM
Ich bezweifle, das die Intel+AMD GPU Combo mehr Strom braucht, auch nicht im Idle.
Da will ich mich nicht zu weit aus dem Fenster lehnen. Der Idle-Verbrauch ist einfach zu sehr vom Board abhängig und was mit dem richtigen MB + ordentlich Tweaking noch drin ist, kann ich nicht abschätzen.
CB tut sich mit solchen Aussagen ja nicht allzu schwer und nicht wenige hier im Forum sind aufgrund der cb-Tests ja auch felsenfest der Meinung, dass die APUs im Idle weniger verbrauchen. Ich würde mal sagen, moderne CPUs verbrauchen im Idle alle ungefähr gleich viel, nämlich so gut wie nichts, die tatsächlich ins Gewicht fallenden Unterschiede kommen vom MB.

Aber das ist eh Erbsenklauberei, da ein paar Watt Unterschied für den Privatanwender wirtschaftlich keine Rolle spielen.

Mir gehts nach wie vor einzig und allein darum, dass cb den Einfluss des MBs bei der Leistungsaufnahme ausblendet und in den Testberichten graderaus behauptet, die CPU aus der einen Prozessorenklitsche wär im Idle stromhungriger als die aus der Konkurrenzklitsche - oder andersherum. Ich würd mich damit bei unterschiedlichen Plattformen nicht so leicht tun.

EDIT: Hier wird etwas verglichen, was sich so einfach eben nicht vergleichen lässt. Und bevor ich unzuverlässige Werte veröffentliche, würde ich es lieber ganz bleiben lassen.
 
Zuletzt bearbeitet:
Was eigentlich ein interessantes Konzept wäre: Mainboards mit 4GB aufgelöteten GDDR5 und zusätzlich DDR3 Speichersockel anzubieten. Die APU bräuchte dann halt beide Speichercontroller und die Software müsste in der Lage sein intelligent zu entscheiden ob der angeforderte Speicherblock in den GDDR5 muss oder auch im DDR3 sein kann. Also im Prinzip wie damals beim Amiga mit Chip- und Fast-MEM ;-)
 
@Peter_Shaw
Naja,wundert mich nur,sowas hab ich von dir glaub ich noch nie gelesen.........Stimmt bis jetzt verbrauchten die AMD auch immer mehr,da war die Intelwelt noch in Ordnung.Wiso hast das bei AMD Tests nicht schon mal angezweifelt?!
Auch wenns nicht nach MIR klingt,aber wie soll CB "Volker und CO" das bitte schön machen,sollen die sich jetzt 50 Bretter dahinstellen mit je 10 CPUs/APUs und 1 Monat drauf lostesten nur damit DU deine Befriedigung hast?!
Und was ist mit den vielen anderen Testseiten,die müssten ja dann auch alle nachtesten,oder verbrauchen die AMD dort wieder mehr?
 
Zuletzt bearbeitet:
Piktogramm schrieb:
Thats it!
Wobei es bei dem Portfolio auf absehbare kein potentes Gerät um 1.5kg und +6h Akkulaufzeit (reale Nutzung) geben wird.

So gehts mir auch! Wenn ich ein Notebook mit 14" in Full HD mit max. 2kg und >5 Stunden Lauzeit suche, 3D Performance mindestens IrisPro dann bleibt mir aktuell selbst bei 1000 Intel Angeboten nicht anderes Ueber als zur AMD Plattform zu greifen.

ProBook 645

Fazit, so schlecht kann die Technik nicht sein und ich bin auch bereit 1000 Euro dafür hinzulegen. Brauch ich aber nicht, hat nur 780 gekostet.
 
Zitat von marantz
2GB DDDR5 würde für die Grafik ja locker reichen, also knapp 40$ oder 30€ mehr pro HighEnd-Board.
Dafür aber 50% mehr Performance beim Gaming

Die 8 GB in der PS4 kosten 88 Dollar.
 
Zuletzt bearbeitet: (Link ging nicht)
Uwe F. schrieb:
"High End" Board, aber nach wie vor eine Grafikleistung im untersten Gamersegment.
Für 250 Euro (APU+ Board) gibt es wohl wesentlich potentere CPU + GPU Lösungen.
Man würde für 50€ eben 50% mehr Gaming-Leistung erhalten, welchen Aufwand es für AMD bedeuten würde kann ich technisch nicht beurteilen. Grundlegend neue Technik müsste AMD dafür nicht erfinden, die Pinbelegung etwa haben sie mit Kaveri ohnehin gerade geändert ...
So kostet das Angebot von AMD 200€ und lässt sich ebenfalls mit CPU + CPU toppen ...
 
Kurze Frage an Computerbase:

Kann es sein, dass ihr euch beim Kühler im Anhang vertan habt?

Das Bild zeigt einen NH-L9a, im Anhang steht aber Noctua NH-U12P SE2
 
Casi030 schrieb:
Auch wenns nicht nach MIR klingt,aber wie soll CB "Volker und CO" das bitte schön machen,sollen die sich jetzt 50 Bretter dahinstellen mit je 10 CPUs/APUs und 1 Monat drauf lostesten nur damit DU deine Befriedigung hast?!

Das wird niemals passieren, wir haben wichtigere Dinge zu tun.

Aber Recht hat er in dem Punkt, dass die Vergleiche plattformübergreifend nicht akkurat sind und deshalb in Zukunft auch nicht mehr so beschreiben werden sollten. Ich hab gerade Richland und Kaveri nochmal auf einem anderen Board im CPU-Testpark und da sieht es auch schon wieder anders aus. Untereinander kann so perfekt vergleichen werden, auch mit dem Maximalwert kann man noch halbwegs etwas anfangen, aber gerade beim Leerlauf wirds fischy. Theoretisch sollen da ja alle CPUs nahezu 0 Watt verbraten, aber dann kommt eben Chipsatz, Speicher + das gesamte Mainboard mit imemr noch anderen Controller-Chipz, Zusatz-dies und Zusatz-das, dazu die Peripherie, SSD, HDD, DVD usw. hinzu. Und dann gehen die Watt-Zahlen ganz schnell weit nach oben.
 
Zuletzt bearbeitet:
Weil Mainboardtests nicht gelesen (ok auch 5-stellige Klicks, aber im Verhältnis zu anderen Dingen "nicht") werden, außer von einigen die sich hier dann beschweren. Mainboards sind am Ende einfach noch viel nerdiger als CPUs, Grakas usw. Und am Ende ist das leider dann etwas, was wegrationalisiert werden muss, denn die Zeit, die da investiert wird, bringt an anderer Stelle mehr.
 
Casi030 schrieb:
@Peter_Shaw
Naja,wundert mich nur,sowas hab ich von dir glaub ich noch nie gelesen.........
Aha... Glaub mir, ich bin zu alt für diesen Fanboy-Mist. Außerdem hatte ich einfach schon zu viele Systeme von beiden Herstellern, um mir in dieser Richtung was vorwerfen lassen zu müssen. Woher kommt dieser ganze Hass eigentlich?

Stimmt bis jetzt verbrauchten die AMD auch immer mehr,da war die Intelwelt noch in Ordnung.Wiso hast das bei AMD Tests nicht schon mal angezweifelt?!
Noch mal: Es geht um die Idle-LA. Haben die AMDs da in der Vergangenheit wirklich signifikant mehr gezogen als die intels? Klär mich auf...

Auch wenns nicht nach MIR klingt,aber wie soll CB "Volker und CO" das bitte schön machen,sollen die sich jetzt 50 Bretter dahinstellen mit je 10 CPUs/APUs und 1 Monat drauf lostesten nur damit DU deine Befriedigung hast?!
Und was ist mit den vielen anderen Testseiten,die müssten ja dann auch alle nachtesten,oder verbrauchen die AMD dort wieder mehr?
Boards durchzutesten, bringt doch gar nichts. Es geht lediglich darum, mal festzustellen, dass keine Vergleichbarkeit zwischen verschiedenen Plattformen gegeben ist. Da würde ein kleiner Hinweis in den Testberichten doch schon genügen.

@ Volker
Wundert mich nicht und kann ich absolut nachvollziehen. Immerhin gibts auf englischsprachigen Testseiten ab und an mal Roundups, dort kann sich der geneigte Nerd dann ja auch informieren. ;)
 
Zuletzt bearbeitet:
marantz schrieb:
2GB DDDR5 würde für die Grafik ja locker reichen...

Mit Kaveri hat die hUMA Technologie Einzug gehalten. Es gibt keinen Speicher mehr nur für den GPU-Part, da der gleiche Speicherbereich stets sowohl vom CPU- als auch vom GPU-Part verwendet wird. Ein dedizierter GDDR5 Speicher wäre also in etwa eher wie ein L3 (bzw Last-Level)-Cache.

Volker schrieb:
Weil Mainboardtests nicht gelesen (ok auch 5-stellige Klicks, aber im Verhältnis zu anderen Dingen "nicht") werden, außer von einigen die sich hier dann beschweren. Mainboards sind am Ende einfach noch viel nerdiger als CPUs, Grakas usw. Und am Ende ist das leider dann etwas, was wegrationalisiert werden muss, denn die Zeit, die da investiert wird, bringt an anderer Stelle mehr.

Schade, aber ihr testet ja auch bspw Gehäuse, Kühler und Netzteile. Sind da denn tendenziell höhere Klickraten als bei Mainboardtests zu erwarten? Kann ich mir kaum vorstellen!
 
Athlonscout schrieb:
Mit Kaveri hat die hUMA Technologie Einzug gehalten. Es gibt keinen Speicher mehr nur für den GPU-Part, da der gleiche Speicherbereich stets sowohl vom CPU- als auch vom GPU-Part verwendet wird. Ein dedizierter GDDR5 Speicher wäre also in etwa eher wie ein L3 (bzw Last-Level)-Cache.

AMD spricht nur von HSA Features, liefert also noch keine komplette bzw. abgeschlossene Integration von CPU und GPU. Was da geht und hätte anders gemacht werden können, können wohl nur ein paar Dresdner wissen.
Aber vermutlich gibt es wirklich keine wirtschaftlichen Lösungen zwischen XOBX (Cache auf der APU) und PS4 (ein schneller Arbeits-/Grafikspeicher für Alles).
Die APU-Technik scheint noch mindestens eine weitere Generation in der Sackgasse zu sitzen, also bis Ende 2015 DDR4 kommt. Linderung kann nur Mantle schaffen, wenn denn im Schnitt 25% rausspringen.
 
Revolutionärer Chip. Hatte erst vor mir eine Cpu wie den 760k auf Kaveribasis zu kaufen. Da jetzt aber auch die Gpu zur Rechenmaschine wird,macht das keinen Sinn mehr, auf rund 70 % der Rechnleistung zu verzichten. Na Passwörter kann man jetzt wohl schneller ausrechnen. Intel kann sich warm anziehen wenn sich die gemeinsame Nutzung von Gpu und Cpu für Rechenaufgaben in der Software durchsetzt. Die neuen Spielekonsolen machen es vor.
 
@marantz

Kaveri arbeitet schon mit hUMA. Steht doch auch hier im Artikel:
So kann die APU mit „hUMA“ (Heterogeneous Uniform Memory Access) umgehen, wodurch sowohl die CPU als auch die GPU auf exakt denselben Speicher(-Bereich) zugreifen und diesen auch ändern können. Doch was heißt das genau?
Wenn zum Beispiel die GPU Zugriff auf von der CPU berechneten Daten benötigt, ist es bei Kaveri theoretisch nicht mehr nötig, dass die CPU zuerst die Daten in einen Adressraum kopiert, auf den die GPU dann Zugriff hat. Die Anzahl an zeitaufwändigen Kopiervorgängen von Daten wird so deutlich reduziert. Das beschränkt sich nicht nur auf den Systemspeicher, sondern gilt auch für den Cache. So kann die CPU auf den Cache der GPU zugreifen – und anders herum. Genauere Details zu hUMA haben wir in einer separaten Meldung zusammen gefasst.
 
Zurück
Oben