News AMD „Kaveri“: BF4-Bundle und Leistungsprognosen

realAudioslave schrieb:
@Pipip/Kenneth Coldy:
Es ist eine Vermutung von IGN, und nicht abwegig, da der Stromverbauch doch sehr stark ansteigt, wenn in Game das Menü aufgerufen wird.

Korrigiere mich ruhig wenn ich irre, aber sollte jeglicher Turbo bei CPUs nicht lediglich die durch ungenutzte Einheiten entstehenden Resserven ausnutzen und damit eben keine signifikant höhere Leistungsaufnahme zur Folge haben?

Davon abgesehen, unterstützt der Jaguar diese Funktion, also warum sollte Sony sie nicht nutzen?

Aus den im Vorpost erwähnten Gründen. Ein Turbo ist nicht kalkulierbar. Und damit in einer Spielkonsole witzlos.
 
Natürlich nutzen die Konsolen den Turbomodus(3,7Ghz einzelne Kerne)
Mantle ist ein Marketing Gag und wird maximal im einstelligen %-Bereich messbar sein.
Wo hingegen Schatten von Hoch auf Niedrig gleich mal 25% mehr FPS bringt bei so manchem Titel.
Drum tricksen die bei den Konsolen auch so mit Ach und Krach bei den Effekten und Schatten so herum.

Skyrim auf Hoch und mit den gängigen Mods auf einer APU?!
HAHAHAHA!!!!
Eine GTX 560ti ist da schon am abkacken mangels Datendurchsatz, was soll da mit DDR3 rausschauen?
Auch ein Grid2 wird da quasi unspielbar sein auf FHD und AA.

Wenn ich mit Einstellungen wie auf einer Konsole spielen will, dann kauf ich mir eine Konsole fürs Spielen.

Wenn ich da bei manchen lese, daß sie eine AMD 7850/70 gegen diese APU tauschen wollen... na viel Spaß mit der Drittel Leistung der GPU und einer Leistung der CPU die schon das OS ausbremst, überspitzt formuliert.
 
Zuletzt bearbeitet:
Du bist seit 5 Jahren in diesem Forum aktiv, daraus schlussfolgere ich, dass du mindestens 18 bist. Wie kann man denn 5 Jahre auf einer Meinungs-austausch-plattform verbringen und anschließend immer noch denken, dass die eigene Meinung allgemeine Gültigkeit hätte.
Woher du diesen bescheuerten Skyrim-Vergleich hast würde ich auch gerne wissen, du bist der einzige, der den immer wieder vorholt. Natürlich kann ich damit Skyrim nicht auf MAX mit Mods spielen, das ist mir und vielen anderen aber egal. Und wenn es nur auf Low für 60FPS langt, das Spiel bleibt das gleiche.

Also was willst du uns sagen? Dass Kaveri für deine Ansprüche nichts taugt? Herzlichen Glühstrumpf, dann ist das so.
Es gibt Menschen, die setzen andere Prioritäten. Zum Beispiel ein gutes Gameplay und Leveldesign -und das hat selbst Doom 2- (vor allem wesentlich besser als BF3/4, da streite ich auch nicht drüber) sind wesentlich wichtiger als Story und Grafik. Aber selbst die Story trägt noch mehr zum Spielspaß bei als die Grafik. Natürlich ist Grafik nicht unwichtig, bei dieser zählt aber vor allem eins: Sie muss einheitlich sein. 8-Bit Style? Kein Problem. 4K-Texturen? Auch gut. 4K und 8-Bit gemischt (Wie das gefühlt z.B. in Crysis 2 war)? No way.

Zu deinen weiteren Aussagen:
Mantle ist ein Marketing Gag und wird maximal im einstelligen %-Bereich messbar sein.
Sprach er, kicherte und flog mit seinem Besen namens Kartoffelbrei zum Jahrmarkt. Btw. Wäre ich auch über 5-10% Leistungssteigerung nicht böse. Alles über 0 ist besser als nichts, ich habe die Karte ja immerhin gekauft, als ich mit diesen %en noch nicht rechnen durfte. Warum einige Entwickler ganz begeistert auf diesen Marketing Gag aufspringen wird wohl auch dein Geheimnis sein, mhm?
Wo hingegen Schatten von Hoch auf Niedrig gleich mal 25% mehr FPS bringt bei so manchem Titel.
Ja und jetzt? Detailverringerung bringt mehr FPS. Erkenntnis des Tages. Falls es dir entgangen sein sollte, bei Mantel erhofft man sich einen FPS-Anstieg ohne Detailreduzierung.

Auch ein Grid2 wird da quasi unspielbar sein auf FHD und AA.
Weiste was? Ich spiel gleich auf meinem 3DS Xl mit 400x240er Auflösung. Ich bin mir ziemlich sicher, dass AA da auch aus ist, bin mir aber nicht ganz sicher. Spaß macht es trotzdem.

Wenn ich mit Einstellungen wie auf einer Konsole spielen will, dann kauf ich mir eine Konsole fürs Spielen.
Dann kauf dir doch eine, sieht mit Sicherheit besser aus als mit deiner 560Ti :rolleyes:. Mein Gott, Kaveri soll keinen Spielerechner ersetzen, er soll einen Rechner für Gelegenheitsspieler ersetzen und das kann er. Eine HD 6670 wird er wohl packen und etwas besseres brauch man für lol/mmos nicht.

Wenn ich da bei manchen lese, daß sie eine AMD 7850/70 gegen diese APU tauschen wollen... na viel Spaß mit der Drittel Leistung der GPU und einer Leistung der CPU die schon das OS ausbremst, überspitzt formuliert.
Dann sag doch wie es tatsächlich ist. Die CPU ist gerade so stark, dass sie den GPU-Part nicht ausbremst und die GPU ist schnell genug um alle aktuellen Spiele in 1080p und Low dar zu stellen. Indies und älteres auch auf High+AA.
 
Kenneth Coldy schrieb:
Korrigiere mich ruhig wenn ich irre, aber sollte jeglicher Turbo bei CPUs nicht lediglich die durch ungenutzte Einheiten entstehenden Resserven ausnutzen und damit eben keine signifikant höhere Leistungsaufnahme zur Folge haben?

Der Turbo übertaktet die CPU, die Leistungsaufnahme steigt.

pipip schrieb:
realAudioslave
Weil ein Turbo beim PC oft quasi ein schlecht programmierten Code kaschiert oder viele Programme gibt die nur wenige Threads verwenden, das ist bei der PS4 einfach nicht nötig.

Wieso sollte das nicht nötig sein? Mehr Takt pro Kern ist immer gefragt. Bloss weil hier 8 Kerne drin stecken, ist die CPU nicht besonders Leistungsfähig und viele Threads gleichzeitig bedeutet nicht gleich mehr Leistung. Da wird mehr Takt gern genommen, aus Entwicklersicht.

Keine Ahnung, ob und wenn wie der Turbo genutzt wird/werden darf, ich bin kein Programmierer. Aber ich bin mir sicher, dieses Feature würde sinnvolle Anwendung finden.
 
Zuletzt bearbeitet:
@Tobi4s

Ich bin über 18, 39 ganz genau und ich spiele auf Rechnern seit 30 Jahren, mit VC20 angefangen, über C64, Amiga 500, 386, 486DX, usw.
Erste 3D Graka war ein Elsa Victory Erazor mit satten 4MB.

Was ich hier von AMD vermessen finde, ist eben BF4 mit dieser APU zu verkaufen und zu behaupten das Spiel läuft gut darauf.
Es läuft grade halt so eben drauf, wenn sich nicht zuviel tut.
Außer man setzt echt minimale Maßstäbe an Grafik und FPS an.

Vorgegaukelt wird aber in der Werbung, daß diese APU quasi mit Next Gen, oder einer Midrangekarte mithalten kann.
Und das kann diese APU nicht.

Herstellerempfehlung für BF 4
Radeon HD 7870 oder Geforce GTX 660
AMD 6 Kern, oder Intel 4 Kern CPU

Wie geht das zusammen mit dieser APU die ca. die halbe Leistung der Empfehlung bietet?
Ich bin kein Trottel, nur realistisch und möchte nicht, daß irgendwer denkt diese APU kann eine 7850 oder GTX 660 ersetzen!
 
Zuletzt bearbeitet:
Ich für meinen Teil warte ab, wie viel Leistung bei unabhängigen Tests rum kommt, bevor ich mir eine Meinung bilde. Sollte aber die Prognose, die in den YouTube-Videos von BF4 dargestellt wird, das nämlich 30 -40 FPS (inkl. Mantle) drin sind, bewahrheiten, würde ich mir ein Kaveri-System aufsetzen.
 
Prozessortechnisch liegt Kaveri im Cinebench R15 garnetmal so schlecht zu Intel:
http://wccftech.com/amd-kaveri-a107850k-benchmark-surfaced/

Leistung liegt zwischen dem Intel i7-3720QM und dem Intel i7-3840WM

also ich werde den Schritt nun zum erstenmal tun, der nächste PC ohne Grafikkarte mit Kaveri, dafür komplett geräuschlos.

Ich werde mir das Ding hier zusammen konfigurieren und zum erstenmal nen wirklich lautlosen Rechner bekommen *freu*

Battlefield 4 in Full HD mit mittleren Details 30+ Frames....diese Grafikleistung reicht für meine Zwecke mehr als vollkommen auch wenn ich nie Battlefield spielen werden. Mantle war bei dem Test noch nichtmal aktiv...das heißt da wird AMD mit Kaveri nochmal mehr rausholen in Zukunft...ne ganze Ecke. Und dafür spar ich mir das Geld für ne zusätzliche Grafikkarte....und wenns in 3-4 Jahren knapp wird mit der Leistung kann ich immernoch ne Grafikkarte in den Rechner stecken als Unterstützung.

Jedenfalls kein überteuerter Intel Prozessor mehr und da ich am PC meist eh nur ältere Games zocke brauche ich auch keine übertriebene Prozessorleistung...da hat Kaveri weit mehr als nötig aufm Kasten.

und was man auch nie vergessen darf...natürlich vergleicht man immer aktuelles mit aktuellem - sprich kaveri mit haswell...aber ist schon beachtlich dass die mit ihren 28nm zu den 22nm von intel garnet übel aussehn.

Man wie cool wäre das wenn nächstes Jahr AMD mit 14nm auffahren würde und nicht intel...dann koennte man die GPU auf 1024 Shader ausweiten ohne höhere TDP und dann wäre ne Grafikkarte wirklich sinnlos.

aber nee...leider bringt intel die 14nm raus...also wieder mal tolle Benchmark werte....aber in vielen Games liegt AMD trotzdem mit bis zu 30-100% mehr frames vorne (im Vegleich zur integrierten Intel GPU)...immernoch wegen besserer Treiber.
Hatte gehofft das da Intel bissle besser wird...aber mir geht das zu langsam bei denen.

Und nochwas was ich mir von Mantle erhoffe: Jeder der früher mal Diablo 2 mit "Glide" API gezockt hat....und nachdem 3dfx aufgekauft wurde durch Nvidia...später Diablo2 mal mit Nvidia Karte zockte...der wird genauso gekotzt haben wie ich ..bild einfach grottenschlecht im vergleich zu der glide schnittstelle. Also ich hoffe Mantle macht auch besseres Bild.
 
Zuletzt bearbeitet:
Schon vor Tagen als Fake enttarnt. Ist wie vor jedem AMD-Launch, erst wird durch Fakes ein Hype erzeugt, dann kommt die Ernüchterung.

Wartet offizielle Werte ab!
 
chendal
Ob Kaveri wirklich diese Leistung bringen wird, darf angezweifelt werden. Wichtig ist aber erstmal, du redest von Kaveri und erklärst dann, was du dir gerne als lautlosen PC vorstellst.
DDR3 1600 4GB Kit Speicher zu kaufen ist unüberlegt. Wenn dann ein 8GB Kit und mindestens DDR3 2133.
Warum du von Kaveri sprichst, dir dann aber ein Board kaufen willst, welches niemals Kaveri Support haben wird, muss du noch erklären.
 
Es ging wohl eher um das Gehäuse... sobald Kaveri verfügbar ist, wird es ja den gleichen Rechner mit entsprechender Kaveri Ausstattung geben (A88X).
Btw. macht bei Kaveri imho alles unter 2133 DDR3 wenig Sinn, zumindest bei den höchsten Modellen (A10). Die Grafikeinheit braucht einfach schnellen RAM um am besten funktionieren zu können.
 
na klar muß man beim Speicher auf Kompatibilität achten :) aber das wird dann schon noch angepaßt. Wobei mir Kompatibilität ehrlich gesagt wichtiger ist als das letzte i-tüpfel´chen an Leistung...grade bei den 2133ér chips wirds schwer werden was "ausgereiftes" zu finden...daher schlägt man ja auch nicht gleich im Januar/Februar zu sondern wartet ein bisschen :)
Aber da viele Leistungstest von Trinity und Richland...z.b. grade bei der c´t immer auf 1333ér ramriegeln stattfanden(grade wegen der Kompatibilität) siehts beim enduser der sich das zeug zusammen konfiguriert eh immer nochmal bissle besser aus mit der leistung.
Und natürlich werde ich mir auch nicht das 95 TDP Modell zulegen sondern das 65´er TDP....das ist einfach effizienter wenn man den Takt nicht bis auf die Spitze treibt...und soviel mehr Frames bringts net.

@Amindia: auf der Seite kannst du auch versch Boards wählen (zumindest 3 versch.für richland) usw...usw...einfach mal durchlicken bevor man 1 min. nach meinem post schon knottert ;)...natürlich kämen bei mir 16gb ram rein und ne ssd von samsung :) und es gibt auch noch die unterscheidung zwischen komplett passiv gekühlt...und fast lautlos (-max. 0,5 sone)..muß man dann abwägen da sind die komponenten nochmal bissle anders..kannst dazu auch hier schauen:
http://www.silentmaxx.de/technik/silentmaxx-fanless-heatpipe-kuehlsystem.html

und nochwas Amindia: Bei Ultra Durable Mainboards ist die auswahl net ganz so groß...aber anders kriegste halt die Hotspots net weg...die 0815 Boards die jeder sonst so in seinem Rechner hat....da kannste passive Systeme fast knicken :)

http://www.sizo.biz/Media/Shop/ShopTextMedia/waermebild_mainboard_kuehlung.jpg
 
Zuletzt bearbeitet:
Wenn eine Seite die Leistung einer APU mit 1333er Speichern testet, grenzt das eigentlich schon an Täuschung, denn die CPUs und Mainboards sind auf höhere Taktraten ausgelegt und von 1333 auf 1866 gibt es einen riesigen Sprung was die Leistung der Grafikeinheit angeht.
 
ja wem sagst du das...aber schau dir mal z.b. in der letzten c´t (wo sie 3 Rechnerkonfigurationen vorschlagen) mal die Listen an von Prozessor und Grafikkarten Leistung...steht immer 1333er dabei beim testsystem.
Ich bin da eh bissle skeptisch...wenn man dort die R9 270X schaut...unter vollast max. 128 Watt....das wäre damit die effizienteste Karte überhaupt bei Leistung pro Watt. Mal die total unerschwingliche Titan mit ihren 180 Watt außen vor...aber wer will shcon 800+ Euro für ne Grafikkarte ausgeben...das macht sowas von kein Sinn.
Ich schau dahe rimmer bei vielen versch. Testergebnissen...und irgendwas in der mitte wird schon stimmen :)
 
Casi030 schrieb:

guter einwand...würde ich auch gern wissen..bei 4,9 ghz...denke auch das müßte hinkommen sonst hätte ich es erst garnicht verlinkt. Standart ist ja glaube ich "nur" 3,7 ? oder 3,9 ? :)
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Casi030, Volker hat schon NDA. Ich interpretiere seine Aussage somit als "er weiß es wohl".
 
Um wieviel ist Kaveri schneller,max 20% sollten es sein oder?!
20% auf 440P sind?
4x4.jpg
Und Volker ist keine glaubwürdige Quelle.....
 
Marius schrieb:

@Marius
Da hast du Recht, Kaveri...auch wenn das schon die 4te Steigerung nach Llano, trinity und richland ist...wird keine gute Grafikkarte ersetzen. ABER: Es reicht dass man sich BF4 mal anschaun koennte...wer das denn will. Für viele Leute spielen halt auch Kosten eine Rolle....grade die Nvidia Karten sind recht teuer...AMd meist immer etwas günstiger. Und mit Kaveri kann man gewisse Sachen zumindest starten und spielen und hat 150-200 euro einfach erstmal gespaart zu einer Kombo mit intel CPU und dedizierter Grafik. Und für Gelegenheitsspieler...reicht das erstmal aus :)
 
Zuletzt bearbeitet von einem Moderator: (Zitat entfernt)
Zurück
Oben