News AMD „Kaveri“: BF4-Bundle und Leistungsprognosen

Saftpresser schrieb:
Ob dann der größte APU in der CPU-Leistung mit dem kleinsten i3 mithalten kann?

Von der CPU her eher nicht, aber von der GPU her wird der i3 von Kaveri wohl pulverisiert :)
 
Saftpresser schrieb:
Ob dann der größte APU in der CPU-Leistung mit dem kleinsten i3 mithalten kann?

Die Frage ist bei was?
Wenn man Richland mit Ivy i3-3220 vergleicht sieht man, dass bei Single Thread-Leistung der i3 in Führung und bei Multi Thread-Leistung Richland in Führung ist. Mit Kaveri wird man bei Single Thread-Leistung auf Intel aufholen aber keineswegs überholen.
 
Dafür hinkt Intel der iGPU mindest zwei Generationen hinterher. Wenn AMD jetzt noch schafft die iGPU und dGPU zu koppeln, dann wäre das für Gamer phänomenal.
 
Marius schrieb:
Wüsste nicht was man damit an 3D Games vernünftig spielen können soll.
Anno 2070/Siedler7/Grid2/Skyrim/... jedenfalls nicht, denn dafür langt meine GTX 560ti grade noch so mit Ach und Krach und die ist ca. 3x so schnell wie der Kaveri.

Jetzt übertreib mal nicht, auf 1900x1200 kann ich Skyrim auf max. mit einer GTX 460 gut spielen.

Aber ich bezweifle auch, dass ein BF4 auf Kaveri gut läuft.
 
Ich frage mich mittlerweile immer mehr wie sich der Leistungshunger der PC Spiele in Zukunft entwickeln wird. Und ob die Optimierung des Leistungshungers besser wird.

Bei den meisten Titeln liegt das Hauptaugenmerk ja bei der Entwicklung der Konsolenversionen. Da PS4 und XBox1 nun sehr Ähnlich zu PC APUs sind stelle ich mir eine Optimierung für PC APUs nun wesentlich einfacher vor.

Meine Wunschvorstellung wäre nun, dass PCs mit aktuellen APUs über die gesamten Lebenszyklus der Konsolen zum Spielen aktueller Titel taugen. Technisch gesehen spricht doch eigentlich nichts mehr dagegen, oder? Erst recht nicht mit Mantle...
 
Naja, die PS4 hat 8 anstelle von 4 Threads und 1280 Shader statt der 512 von Kaveri. Vom GDDR5 Speicher ganz zu schweigen. Also eher nein, wobei ich für Überraschungen offen bin. Vielleicht kann HUMA ja noch was reisen.
Man darf die Desktop-APUs wirklich nicht überschätzen, so stark sind sie nicht. Das Richland Topmodell war in etwa so stark wie eine HD 6670 (Wieso eigentlich? Ich kenne mich mit Architekturen nicht besonders aus, aber die HD6670 hatte nur 1/4 der Shader?), da kann man von Kaveri auch keine Wunder erwarten. Wenn er eine HD7730 ersetzt wäre das ein gutes Ergebnis und eine HD7730 wird diese Konsolengen. nicht mitmachen, das wird selbst meine HD7870 nicht schaffen.

Grüße
 
Tobi4s schrieb:
Naja, die PS4 hat 8 anstelle von 4 Threads und 1280 Shader statt der 512 von Kaveri. Vom GDDR5 Speicher ganz zu schweigen. Also eher nein

Dann frage ich mich ernsthaft warum AMD nicht mal eine APU mit einer solchen Grafikeinheit bringt? Da Abwärme nicht das größte Problem bei PCs ist, wäre auch eine stärkere CPU drin.

Also ich wäre ein Potentieller Käufer, so wie wohl viele HTPC Besitzer.
 
anonymous_user schrieb:
Na, da steht doch aber Intel drauf, das sind mindestens Gefühlte 20Watt TDP weniger :D

unabh davon dass sowohl 84W als auch 95W easy zu kühlen sind kann man die TDP quasi fats nur für das TopModell der jeweiligen Serie heranziehen, heißt schnellster i7 auf Sockel 1150 vs schnellster Kaveri - die kleineren Modelle um i5 brauchen trotz selber TDP Einstufung meist weniger.

Ich bin gespannt wie hoch die SingleCore Leistung bei Kaveri mit den 2 Decodern und Turbo ausfällt.
 
Lobo666 schrieb:
Dann frage ich mich ernsthaft warum AMD nicht mal eine APU mit einer solchen Grafikeinheit bringt? Da Abwärme nicht das größte Problem bei PCs ist, wäre auch eine stärkere CPU drin.
Die Abwärme ist nicht das größte Problem, sondern der RAM. GDDR5-RAM aufs Mainboard verlöten klingt erstmal verlockend, allerdings bräuchte man da erneut einen neuen Sockel und wenn der mal korrupt wird kannst du das Board in die Tonne kloppen (Mit 8Gb Gddr5 fingen die vermutlich bei 150-200€ an).
Das ganze könnte man natürlich mit dem ESRAM der XBOX umgehen, dann hast du auf deinem Die aber wieder keinen Platz mehr für eine ordentliche Anzahl von Shadern (bzw. grundsätzlich geht das vermutlich, nur wäre der Chip dann so Teuer und Groß und der Fertigungsprozess bei GloFo wieder so beschissen, dass man dann effektiv nur eine Hand voll Chips im Quartal Ausbeute hätte und diese dann für 5-600€ verticken müsste. Bei einer Leistung von einem i3+HD7870 wohlgemerkt).
 
Matzegr schrieb:
Die Frage ist bei was?
Wenn man Richland mit Ivy i3-3220 vergleicht sieht man, dass bei Single Thread-Leistung der i3 in Führung und bei Multi Thread-Leistung Richland in Führung ist. Mit Kaveri wird man bei Single Thread-Leistung auf Intel aufholen aber keineswegs überholen.

Womit Kaveri dann zum i5 aufgeschlossen hat.
 
Volker schrieb:
Bei gleichem Takt? Die 856 GFLOPS jetzt sind halt wenig berauschend. Und wäre es bei gleichem takt haben wir das Prob, dass Kaveri zu Anfang geringer taktet als Richland, zehn Prozent. D

Was willst du uns mit de GFLOPS sagen ? Da wir Architekturverbesserungen haben und mehr Shader, erhöht sich nicht nur die theoretischen GFLOPs sondern auch die tatsächliche Performance, die an den Tag gebracht werden. Wir könnten auch zwei identische APUs mit der gleichen GFLOPs haben und die eine APU kann besser abschneiden. Somit es ist ein nicht linearer Fall.

Was den Takt angeht. Wenn man etwas bei der Bulldozer Architektur gesehen hat, besonders bei den FX dann steigt die Performance ab einem gewissen Takt nicht mehr linear sondern fällt exponentiell ab. So ist der 5 GHZ FX nicht mehr bedeutend schneller als seine kleinen Brüder. Wenn also der Takt von Kaveri super mit seiner Architektur harmoniert, Richland aber mit seinem Takt nicht mehr optimal ist, dann relativiert das deine Aussagen, weil wie schon gesagt ideal =/= Realität.

Ich hab zwar schon meine Prognose abgeben 10-15% mehr CPU, 25% mehr GPU, aber das ist mehr eine Schätzung, weil AMD bis jetzt immer solche Schritte gemacht hat.

dann bleibt, wie in der Tabelle der News schon bissel gezeigt wird, anstatt 4% mehr noch 8% mehr übrig, anstatt 38% mehr >40%. Un das das ist ja mit Ach und Krach noch messbar, aber spürbar keinesfalls.

Vorsicht :
letzten Endes heißt es wie so oft, auf unabhängige Tests mit praxisnahen Anwendungen zu warten, um sich ein genaues Bild von der Leistung von Kaveri im Vergleich zum Vorgänger und zur Konkurrenz machen zu können.

Leider ist das auch nur ein theoretischer Test und somit sehen wir hier theoretische Messungen falls die jeweiligen APUs optimal genutzt werden im Falle Richland wissen wir, dass das aber nicht geschieht. Ein wirkliches Bild könnt ihr uns dann mit einem, oder im Falle von CB zwei Tests demonstrieren.
Das neuere Stepping von Bulldozer hat im Falle von Piledriver dann auch mehr Performance in Games gebracht, mal sehen, was das richtig überarbeitete Frontend von Kaveri uns so beschert.

Um es noch einmal schön zu Vergleichen, die PS360 werden oft gegenüber einer WiiU als stärker eingestuft, weil die GFLOPs/Rohleistung besonders bei der CPU höher ist. Sieht man dann die Ergebnisse, schafft die WiiU die gleichen Bilder (manchen Games schon bessere Bilder) mit 1/3 des Verbrauches, weil sie effizienter arbeitet und mehr Rohleistung nützen kann. (32 watt vs 90 Watt unter Last). Somit GFLOPs sind schön und gut, aber nur theoretische Werte die dann nicht erreicht werden weil wir nicht lineare Systeme haben die irwo ein Flaschenhals haben. Kaveri ist ja gerade die Verbesserung die solche Flaschenhälse beseitigt, da ist nicht mal wichtig ob man ordentlich Rohleistung erhöht.

TPC auf 42" ne Runde CoD MW3 in vollen Details und FHD ist mit ner A4-5300 auch noch flüssig drin. BF4 allerdings nicht mehr.
Ich hab ein A6 5400k auf 1 GHZ GPU OC. Da läuft auch eine 64 Player Map auf 720p. Wenn zu viel los ist, ist manchmal die CPU überlastet somit bekommt man kurz Framedrops. Mit einem 2 Moduler dürfte man BF3 720p ohne Probleme zocken können, somit ist es nicht unrealistisch dass sich Kaveri um einiges besser schlägt.
Was Kaveri angeht, eine Menge von Leuten die ich kenne, würde mit einem A10 6800k schon super zurecht kommen. Falls die GPU mal tatsächlich zu schwach wird, kann man nach einem Jahr den Nachfolger oder einfach eine Grafikkarte kaufen. Eine Freundin von mir zum Beispiel wusste nicht mal, ob sie nur ein Gelegenheitsspieler ist. Sie hat Jahre lang CS gezockt, bis sie mir gesagt hat, sie will die APU (A8 3850) aufrüsten. Dann habe ich nur mehr eine 7850 reinstecken müssen und es hat wieder alles gepasst. Am Anfang hat sie aber nicht mehr als ca 400 Euro für den PC ausgeben wollen, also ist sie lange super mit der APU gefahren.
Würde sich die Situation bei den künftigen APUs dorthin verbessern dass sie man noch effektiv in Games weiter nützen kann, wird auch die Wertigkeit der IGPs hier in CB Forum steigen, das wage ich zu wetten.

Poulton
Slide Memory wäre aufgrund von hUMA keine Option. Außer man würde die Side-Memory noch vor die RAM anbinden und transparent machen.
Weitere Alternative: Man führt wieder Slots für die CPU ein
Jop in Form einer Grafikkarte ^^
 
Zuletzt bearbeitet:
Tobi4s schrieb:
GDDR5-RAM aufs Mainboard verlöten klingt erstmal verlockend, allerdings bräuchte man da erneut einen neuen Sockel und wenn der mal korrupt wird kannst du das Board in die Tonne kloppen (Mit 8Gb Gddr5 fingen die vermutlich bei 150-200€ an).
Es gab doch schonmal Mainboards mit Sideport Memory, damals aber noch bei den 7xxG(X) Chipsätzen? Die Frage ist nur wie groß der sein muss. Ein einzelner 128MB oder 256MB GDDR5 Ramchip dürfte auch preislich nicht weltbewegend sein, aber, gerade im Bezug auf die IGP und trotz der geringen Größe, die Leistung um einiges steigern.

Weitere Alternative: Man führt wieder Slots für die CPU ein. :lol:
 
Tobi4s schrieb:
Naja, die PS4 hat 8 anstelle von 4 Threads und 1280 Shader statt der 512 von Kaveri. Vom GDDR5 Speicher ganz zu schweigen. Also eher nein, wobei ich für Überraschungen offen bin. Vielleicht kann HUMA ja noch was reisen.
Man darf die Desktop-APUs wirklich nicht überschätzen, so stark sind sie nicht. Das Richland Topmodell war in etwa so stark wie eine HD 6670 (Wieso eigentlich? Ich kenne mich mit Architekturen nicht besonders aus, aber die HD6670 hatte nur 1/4 der Shader?), da kann man von Kaveri auch keine Wunder erwarten. Wenn er eine HD7730 ersetzt wäre das ein gutes Ergebnis und eine HD7730 wird diese Konsolengen. nicht mitmachen, das wird selbst meine HD7870 nicht schaffen.

Grüße

Dein Vergleich hinkt hier an einer weiteren Stelle. Die Jaguarkerne der XBoxOne (bei der weiß man es) und der PS4 (hier wird vermutet) takten ja gerade mal etwas über 1 GHZ. CPU technisch könnte es, wenn es optimal läuft also deutlich pro Kaveri ausgehen.
 
Sind bei den Konsolen CPU und GPU/APU nicht getrennt?

Ausserdem laufen die Konsolen mit direkter HardwareLowLevelProgrammierung, die holen mehr aus den Transsistoren raus als bei PC mittels DX moeglich ist. Deswegen ist Mantle ja auch so interressant.


ein Soc mit der architektur (1core/2threads/apu mit 128shader) reicht schon vollkommen um Gaming an tablets weiter voranzutreiben.


Konsolenvergleich hinken so oder so.
Erstmal muss die CPUpower alleine ausreichen, dann erst auf APU schauen(mMn das beste verfuegbare Stueck APU-Silizium ist). Warum? Effektiv, 3Dnutzbar, nur ein Chip der Storm frist und Hotze erzeugt - da ein Riesenkuelblock drauf und dann hoert man nur nochs Netzteil(wenn ueberhaupt). Wenn AMD genug Kapital haette waere hier eine eigene Gaming-PC-reihe angesagt mit eigenem Shop mit PC-Games die nur allzu powerlastig sind, beim Download mit bestenmoeglichen voreinstellungen. etc....




Alleine die Anzahl an Moeglichkeiten die sich durch leistungsfaehige CPU/APU eroeffnen, zeigen das Potenzial - die uebernaechste Generation in 3 Jahren wird dann fuer 4 Jahre Gaming ausreichen....bis Konsolen aufstocken lol...
 
Zuletzt bearbeitet:
Tobi4s schrieb:
Naja, die PS4 hat 8 anstelle von 4 Threads und 1280 Shader statt der 512 von Kaveri. Vom GDDR5 Speicher ganz zu schweigen. Also eher nein, wobei ich für Überraschungen offen bin. Vielleicht kann HUMA ja noch was reisen.

Der Korrektheit wegen, die PS4 hat 1152 Shadereinheiten.

Novasun schrieb:
Die Jaguarkerne der XBoxOne (bei der weiß man es) und der PS4 (hier wird vermutet) takten ja gerade mal etwas über 1 GHZ. CPU technisch könnte es, wenn es optimal läuft also deutlich pro Kaveri ausgehen.

Die Xbox One taktet mit 1,75 GHz, die PS4 vermutlich mit 1,6 GHz. Allerdings könnte es sein, das die PS4 bei Bedarf den Turbomodus der Jaguar-Kerne nutzen kann.
 
realAudioslave
Allerdings könnte es sein, das die PS4 bei Bedarf den Turbomodus der Jaguar-Kerne nutzen kann.
Ein Turbo-Modus ? Naja wenn dann würde das nur für alle Cores sinnvoll sein. Aber nachdem der Verbrauch unter Normalbetrieb, BlueRay kaum zu unterscheiden ist und gerade bei Games steigt, glaube ich an keinen Turbo wenn man offensichtlich nicht mal Stromspar Modi verwendet. Offensichtlich wurde hier an Entwicklung gespart. (bsp Software)
Und falls es einen Turbo gäbe wird es ein Entwickler kaum bewusst nützen, am Ende will man konstante 60 Frames und wird die Szenen eher anpassen anstatt zu hoffen dass ein Turbo einsetzt. Ich glaub Entwickler wollen feste Werte.
 
Zuletzt bearbeitet:
realAudioslave schrieb:
Die Xbox One taktet mit 1,75 GHz, die PS4 vermutlich mit 1,6 GHz. Allerdings könnte es sein, das die PS4 bei Bedarf den Turbomodus der Jaguar-Kerne nutzen kann.

Extrem unwahrscheinlich imho, da der Turbo im Chip intern nach Auslastung und Meßwerten gesteuert wird. Das würde das Timing zeitkritischer Codepfade zum Glücksspiel machen.
 
@Pipip/Kenneth Coldy:
Es ist eine Vermutung von IGN, und nicht abwegig, da der Stromverbauch doch sehr stark ansteigt, wenn in Game das Menü aufgerufen wird. Davon abgesehen, unterstützt der Jaguar diese Funktion, also warum sollte Sony sie nicht nutzen?
 
realAudioslave
Weil ein Turbo beim PC oft quasi ein schlecht programmierten Code kaschiert oder viele Programme gibt die nur wenige Threads verwenden, das ist bei der PS4 einfach nicht nötig.

da der Stromverbauch doch sehr stark ansteigt, wenn in Game das Menü aufgerufen wird
Okay, bei einem Menü würde es eventuell noch Sinn machen. Mit IGN hat man aber nicht gerade eine tolle Quelle erwischt und 2,75 Ghz klingen auch nicht gerade nach wenig.
 
Zuletzt bearbeitet:
Zurück
Oben