News AMDs „Kaveri“ mit 12 Compute Cores nun offiziell

Habe keinen Bock mich mit Dir hier zu streiten. Ändert aber nichts an meiner Meinung zu dem Thema.
Wenn ich gescheit zocken will, dann nehme ich eine dezentrale GPU und fertig. Du darfst gerne mit Deiner APU zocken und glücklich damit sein. Habe ich überhaupt nichts dagegen.

An dem Tag, wo ich eine für mich sinnvolle Anwendung mit einer APU und HSA finde, die mir Intel nicht bieten kann, dann kaufe ich auch so ein Teil. Glaube nicht, dass wir so etwas vor 2015/2016 sehen werden. Aber wer weiß? Amd kann mich ja eines besseren belehren.
 
Nein ich möchte kein ITX board. Ich möchte nur exakt dieses Board: http://geizhals.at/de/gigabyte-ga-z87x-ud5h-a947814.html?bl1_id=-1#filterform jedoch anstelle darauf eine Intel CPU zu betreiben, möchte ich einen Kaveri darauf setzen. :D

Und nein, mir geht es nur darum dass ich unnötige Erweiterungskarten betreibe die im Vergleich mehr Strom fressen als bei ein paar onboard Chips welch diese Funktionen übernehmen. Mein Rechner frisst mit 80 bis 90W im Idle verhältnissmäßig viel Strom. Wenn ich die Angaben anderer Kollegen und ihrer AMD APUs vertrauen kann ;)

Na was hätten wir den da. Also auf W-Lan kann ich nicht verzichen. Aber worauf ich gerne verzichten würde, wäre einmal eine FireWire Karte, eine Sata Controller Karte und eine USB 3.0 Karte. Das alles könnte ich mir sparen, wenn Gigabyte endlch ein gleichwertiges Pendant zum bereits geposteten UD5 bringen würde.

Die Nachfrage ist ja vorhanden, jedoch keine Boards welche diese Anforderungen unterstützen. Ich würde gerne 50 bis 100 Euro mehr ausgeben, wenn ich dafür auch so ein Board bekommen würde.

Zusätzlich kommt noch dazu, dass man bei dem aktuellen Top Model dem Sniper G1 nur noch zwei digitale Monitor out hat. Weshalb auch hier eine zusätzliche Grafikkarte von nöten ist. Was ziemlich schade ist, denn Trinity und Richland können ja drei Monitore gleichzeitig ansteuern. Würde mich wundern wenn Kaveri dies nicht mehr könnte...

Das UD5 ist einfach ein Perfektes Board in meinen Augen. Das musst du aber auch zugeben :)
 
Zuletzt bearbeitet:
Vielleicht lohnt sich jetzt ja der Wechsel meines FM1 Systems mit A3870K auf ein neues FM2+ Board samt Kaveri.
Mich würde die Mehrleistung des Kaveri gegenüber den Llano APUs interessieren!
 
kommt der KAVERI denn nur auf FM2+???

oder auch für AM3+?

ich weiß sowieso nicht welcher sockel amd´s bester ist ?

zur APU, ich freu mich drauf, da ich seit längerem mit meiner iGPU spiele und die leistung sehr mau ist könnte ich mir vorstellen so ein teil zu kaufen^^^
wenns bei PS4 und X box geht warum dann nicht beim PC?

(oder ich habe total was falsch verstanden)^^
 
Kaveri ist eine APU, hat keine Hyperthreading Schnittstelle mehr und kann deshalb nicht für AM3[+] kommen.
AMD könnte die Steamroller Module nehmen und sie mit einem Uncore für AM3[+] versehen. Es scheint aber gegenwärtig als wäre das nicht geplant.
Welcher Sockel AMDs bester ist hängt - *ÜBERRASCHUNG* vom Einsatzzweck ab. In einem ThinClient oder NAS wäre es vermutlich der für Kabini, in einem Arbeitsplatz-PC mit Anwendungssoftware die 8 x86 Kerne nutzen kann der AM3+, ebenso in einem GamerPC der Oberklasse. Dazwischen dürfte eine ziemlich große Nische für FM2+ liegen.
 
Ein Rundum-APU-Vergleichstest wäre mal ganz spannend:
Llano vs. Trinity vs. Richland vs. Kaveri.
 
Ich hätt gern einen FM2+-Motherboard-Test für sparsame Boards, wenn hier gerade Wunschstunde ist :)
 
Ist ja nicht mehr weit, am 14. gibt es dann endlich Neuigkeiten :)
 
bis 50% bei GPU is ja nicht wirklich ne Kunst wenn man damit auch Computing Benchmarks meint die GCN natürlich deutlich besser liegen als dem Vorgänger ^^

Alles in Allem hört sichs gut an, sowohl die 20% als auch die 50% - mal sehen was im Test dabei rumkommt. Schön wäre wenn man den Plattform-verbrauch noch etwas optimieren konnte.

Wie schauts eigentlich mit 4K-Support aus...? Damit mein ich jetzt nicht die Ansteuerung eines Displays sondern das Hardware Decoding.

http://www.xbitlabs.com/articles/cpu/display/amd-richland-intel-haswell-gpu_7.html#sect0

playback.png


Since this is quite an important application, we want to check out how the Richland and Haswell-based processors cope with 4K videos. In this test we use a widescreen 4K video clip with a resolution of 3840x2160 pixels and a frame rate of 30 fps encoded with the H.264 codec with a bitrate of about 100 Mbps.

Surprisingly enough, none of the Intel processors, including the Ivy Bridge series, has any problems reproducing 4K video content whereas AMD’s Trinity and Richland-based APUs fail completely. It is clear that the UVD3 engine cannot decode the high-resolution video, therefore these APUs have to make heavy use of their x86 cores. Their x86 performance is not high enough to correctly decode the 4K video clip, so we have nearly 100% CPU load and dropped frames. Thus, Socket FM2 platforms seem to be useless when it comes to 4K video formats, which puts their perspectives in modern multimedia computers and HTPCs under question. Intel’s solutions seems to be a much better choice for HTPCs thanks to the higher performance of their integrated multimedia engine.

September 2013, nicht wirklich alt... hat AMD da mal was unternommen?

Im Rahmen eines HTPC Builds müsste zuverlässiger 4K Decoding Support schon drin sein - auch das Encoding ist bei Intel mit QuickSync deutlich überlegen.

handbrake.png


Und deutlich effizienter bei der Wiedergabe ist man sowieso:

power-3.png


Sind für mich alles Punkte bei denen ich eher AMDs Baustellen sehe als bei 50% mehr GPU Performance mit denen ich nix anfangen kann wenn ich nicht am PC zocke...
 
Zuletzt bearbeitet:
@Krautmaster
Und wen genau interessieren diese Statistiken? Power User die transkodieren kaufen sich eh eine stärkere CPU und die Normalanwender interessiert es genausowenig.
Ich würde mich auch als eher fortgeschrittener User und Spieler bezeichnen, wüsste aber nicht, wann ich diese Dinge bräuchte die du da mit deinen Statistiken darstellst.
 
Krautmaster schrieb:
Wie schauts eigentlich mit 4K-Support aus...? Damit mein ich jetzt nicht die Ansteuerung eines Displays sondern das Hardware Decoding.

Bei den Tech Day Folien vom Januar die bis zum 14. unter NDA stehen gibt es zumindest eine Folie wo "Enable Ultra HD Media" drauf steht und später folgt noch eine Folie wo man von "HEVC Encode/Decode Accelerated via HSA" "Upscale to Ultra HD from 1080p" und 4K@60Hz via DP 1.2 spricht.

Die Video Coding Engine hat auch ne neue Versionsnummer bekommen.
 
@deathscythemk2

Statistiken?

4K Wiedergabe find ich jetzt nicht wirklich ne Statistik... zumal 4K TVs zunehmend preislich erschwinglich werden und damit auch quasi jeder HTPC heute 4K fähig sein sollte...

Was Encoding angeht... sicher etwas spezieller ja, aber auch das ist keine "Statistik", genauso wenig wie der Verbrauch wie Wiedergabe - gerade im kleinen HTPC Case zählt da jedes W. Encoding ist z.B gerade bei der automatisierten Komprimierung von z.B. TV Aufnahmen interessant.

4K ist bei Nvidia und Intel bereits jetzt kein Problem und renommiert Seiten kamen deshalb schon vor gut einem Jahr zum Schluss, dass Nvidia das Maß der Dinge bei den HTPC Fähigkeiten ist - gut denkbar, dass der 4K Support in Summe nachher nen größeren Benefit für heutige GPUs bedeutet als DX11 vs DX11.2 - gerade bei kleineren GPU.


@Matzegr

ok das klingt doch schon mal gut. Wäre auch irgendwie fatal wenn gerade AMD als Multimedia Verfechter kein anständiges 4K gebacken bekommt, jetzt wo die 4K TVs ab 1040€ losgehen. Was ist mit Richland und Trinity, ist es nicht eher Treibersache oder ist die UVD 3 einfach unfähig 4K zu decodieren? Imho hat das Intel schon seit IB mit an Bord...

Es geht halt etwas unter wie ich finde (da sich viele Seiten nur auf Gaming beziehen)... war selbst mir lange nicht bewusst und ich dachte eig., dass es zeitnahe via Treiberupdate supportet werden müsste, nicht nur @ Win, auch bei @ Linux. Spätestens dieses Jahr dürfte 4k wirklich in breiter Basis kommen, da hätte ich schon ganz gern Openelec @ 4k mit ggf. FHD Inhalten und HQ 4K Upscaling - aber natürlich auch mit 4k decoding Support.
 
Zuletzt bearbeitet:
Wenn ich mich richtig erinnere, ist in den GCN-GPUs auch ein Hardware-Encoder (ähnlich wie Intels Quicksync) drin. Wenn das so ist, bestünde ja eine recht gute Chance, dass der auch in den Kaveri vorhanden ist. Aber das muss natürlich auch von der Software genutzt werden.

(Ich habs gefunden. Bei AMD heißt der Encoder VCE "Video Compression Engine".)
Ergänzung: Laut diversen Artikeln die ich überflogen habe, scheint VCE in Kaveri vorhanden zu sein. In Kabini ist es definitiv auch schon drin.

Was das 4K-Decoding/Playback angeht, sind diese Zahlen natürlich ziemlich erschütternd. In dem Fall könnte es aber auch einfach nur schlechter Treibersupport sein oder auch nur irgendwo eine falsche Einstellung. Ich kann mir schwer vorstellen, dass den APUs die Rechenleistung für 4K-Playback (ohne große CPU-last) fehlt. Besonders weil die schwächeren Intel-iGPUs es ja auch schaffen.
 
Zuletzt bearbeitet:
http://www.pugetsystems.com/labs/articles/AMD-A10-7850K-Performance-Review-529/

kaverid2bj2.jpg

kaveri2d4lo4.jpg

kaveri327xes.jpg


Wenn sich das bewahrheiten sollte, dann wars das entgültig mit der BD Architektur, man sieht gut das die Architektur selbst mit einem 2. Decoder und getunten L1x Cache nicht wirklich nach oben Skalieren kann, da hat selbst der K10 bessere Fortschritte gegenüber den Vorgänger machen können. :(

AMD sollte sich am besten von der ganzen BD Entwicklung trennen und sich auf Konsolenchips & ARM konzentrieren.

Quelle 3DCenter http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10066173&postcount=862
 
naja, wenn man alle ergebnisse vergleicht hat man bei ~10% weniger Takt auf der CPU seite und 5% weniger TDP ca. 5% mehr CPU Leistung und 10% mehr Grafikleistung. Das hat Intel mit dem letzen Refresh nicht geschafft.
 
Und nicht zu vergessen, dass sich bei den Features einiges getan hat.
Vor allem HSA (inklusive hUMA) und Mantle haben ein großes Potential.

Wenn diese Features nicht enttäuschen und von den Entwicklern gut angenommen werden, könnten sie für sich allein schon Grund genug sein (von Trinity oder Richland) auf Kaveri zu wechseln. Damit wäre Kaveri auf jeden Fall ein interessanteres Upgrade, als von Ivy/Sandy Bridge auf Haswell.
 
Zuletzt bearbeitet:
Herdware schrieb:
Damit wäre Kaveri auf jeden Fall ein interessanteres Upgrade, als von Ivy/Sandy Bridge auf Haswell.
Noch uninteressanter zu sein wäre ja auch ein Kunststück.
Ein komplettes Bild liefert aber nur ein vernünftiger Test.
 
Oh man, wie einzelne ein Getöse machen um nichts. 99% aller Leute erkennen bei 50" keinen Unterschied von HD Ready Filmen zu FullHD. Naja mit irgendwas müssen die Firmen ja Geld machen... und als ob man im prof. Bereich auf eine 130€ APU setzt glaube ich kaum. Bald kommen die ersten 4K Handys, da können sich wieder einige dran austoben.

Krautmaster für dich sind die teuersten Sachen gerade gut genug, verballerst ein Kraftwerk an Strom und kritisierst Stromverbrauch von 20Watt und dann noch "deutlich"? Ich kann nicht einmal der Statistik zustimmen da ich andere Werte selbst ertestet habe aber ist gut.

Man sollte das Gesamtpaket sehen und sich, wie einige nur auf Gaming, nicht nur auf theoretische Tests festhaken und sagen: Hey, ein i3 schlägt den AMD im Stromverbrauch, ein i7 kommt beim Gaming relativ nahe, ein Celeron ist billiger und als K - Edition kann ich genauso einfach übertakten. Passt nur eben nicht alles in ein Paket. Wenn gegen AMD jeder Intelprozessor ins Feld geworfen bei Berechnungen, warum werden dann bei Spieletests plötzlich externe Grafikkarten umfangreich hinzugenommen?
Ich wäre stark dafür das man nur bei grober Preisgleichheit miteinander testen kann.
 
@LHC
Wie transparent ist denn dieser Benchmark? Ist das auch einer der verhunzten die bestimmte CPU Funktionen nicht nutzen?
 
Zurück
Oben