News AMD: FX-CPUs auf Basis von „Piledriver“ Ende Oktober?

was soll mir der reine gpu-test in deinem link nun näher erläutern ?
Ganz einfach, was nützt mir hier, hier, und hier eine Intel CPU. Denke du verstehst jetzt worauf ich hinaus wollte.:)
ich glaube ... ich brauch auch noch ne tasse kaffee. ^^
Besser ist das. :)

Ich schätze mal seine Aussage bedeutet, lieber ne fette Grafikkarte zum gamen als einen fetten Prozessor ^^

Endlich, einer der mich verstanden hat. :D
 
der BF3 screen sieht gut aus ... Witcher & Skyrim sind mMn für die eingesetzte graka *etwas* mager u.
unterm strich kann ich deine aussage - lieber ne fette graka - ebenfalls bestätigen. ;-)
 
SuddenDeathStgt schrieb:
der BF3 screen sieht gut aus ... Witcher & Skyrim sind mMn für die eingesetzte graka *etwas* mager u.
unterm strich kann ich deine aussage - lieber ne fette graka - ebenfalls bestätigen. ;-)

Im Grunde kann ich die Karte mit fast jedem halbwegs aktuellem Game an die Grenzen des machbaren bringen. Mein Ziel sind 60 FPS bei 60 hz und maximal möglichen Grafikeinstellung soweit die Karte das mitmacht. Denke aber um dem Prozzi an die Grenzen zu bringen braucht der die doppelte Leistung der vorhanden Karte. Die HD8970 wären da schonmal ein Anfang für die ganzen SSAA Geschichten wofür die 7970er eindeutig zu lasch sind. Und von MultiGPU Lösungen halte ich nix. Also wieder an CPU und Board eingesparen und auf die nächste SingelGPU warten ist angesagt.:D
 
klar ... warum auch nicht ?
fakt ist, wenn DU mit deiner config zufrieden bist u. diese dir in deiner umgebung / anwendungen / bevorzugte games etc. DICKE ausreicht, dann ist auch alles im lack bzw. darauf kommt es an ... u. nicht was hinz & kunz von sich gibt. ;-)
 
Ich weis nicht was einige hier haben...
Ich hab noch nen "alten" Phenom II X6 1090T (@3,6 Ghz und Undervolting)
Das Ding habe ich in BF3 gerade mal auf 50% Last bekommen!

Klar ist Intel paar Prozentpunkte schneller, ABER:
Ich habe keine Lust beim Mainboard und CPU Kauf damit rumzuärgern was
mit welchem Chipsatz nun bei der CPU unterstützt wird.
Bei AMD kaufe ich das Mainboard und ALLES geht mit der CPU. (ob nun OC oder was auch immer)

Solange Intel diesen HickHack macht mit ihren CPU/Chipsätzen kaufe ich keine CPU
von denen.... zumal ich mich noch an das "Totblechen" in den 90'gern erinnern kann,
als Intel noch Mondpreise für ihre CPUs verlangen konnte, weil
AMD noch keinen Athlon etc. entwickelt hatte.

Jeder soll die CPU kaufen die er will und die seinen Ansprüchen gerecht wird. Basta!

Ach ja, ich nehme zum Zocken eine GTX570 Phantom.
Leise und immer noch schnell genug.
Wer umbedingt Viceocodecs umrechenen will nimmt eh "Badaboom" dafür.
Die nVidia Grafikkarten können das eh effizienter als jede CPU.
(leider gibt es das Tool NUR für nVidia Grafikkarten)
 
Zuletzt bearbeitet: (was vergessen)
SuddenDeathStgt schrieb:
klar ... warum auch nicht ?
fakt ist, wenn DU mit deiner config zufrieden bist u. diese dir in deiner umgebung / anwendungen / bevorzugte games etc. DICKE ausreicht, dann ist auch alles im lack bzw. darauf kommt es an ... u. nicht was hinz & kunz von sich gibt. ;-)

Richtig, hängt immer von der Anwendunggebiet ab. Und wenn wir mal ehrlich sind leisten die AMD FX CPU auch ihren Beitrag dazu. Soll heissen wer sich ein FX kauft hat auch Verwendung dafür.:)

Für meinereiner sind die derzeitigen Desktopplattformen kaum unterscheidbar.
Wenn ich mal dran erinnern darf wie krass der Sprung vom Singelcore auf Dualcore war.
BF2 (mit einem Athlon X2 4000 ) endlich flüssig zocken, war das geil.
Und heute merk ich davon nix mehr. Wenn AMD das mal mit den APUs vernünftig hinbekommt , und die Desktop CPUs damit Leistungsmäßig ersetzen können wäre das ein Schritt in die richtige Richtung. Eine sparsame leistungsstarke APU mit genug Dampf um eine Highendkarte zu befeuern, und die Möglichkeit die Karte gänzlich abzuschalten wenn sie nicht benötigt wird. Das wär mal was. :) Ich denke darauf kann ich lange warten. :(
 
mastermc51 schrieb:
Wer umbedingt Viceocodecs umrechenen will nimmt eh "Badaboom" dafür.
Die nVidia Grafikkarten können das eh effizienter als jede CPU.
(leider gibt es das Tool NUR für nVidia Grafikkarten)

Ja für Amateurencoder :lol: gibs auf CPUs bleiben in dieser Kategorie an der einsamen und Kalten Spitze.
 
SuddenDeathStgt schrieb:
mit dem verbrach ... da bin ich bei dir. :)
gaming beinhaltet aber mehr als nur titel, welche primär die gpu fordern.

Jupp, aber es dürfte ja kein Problem sein, die Leistungsaufnahme bei 3 repräsentativen Games (1x GPU lastig, 1x CPU lastig, 1x ausgewogen) zu bestimmen. Die reinen Idle/Prime95 Messungen haben ne Aussagekraft von nem verschimmelten Toast. Weil die wenigsten ihre CPU ständig zu 100% auslasten.
 
Leute, ihr macht immer so. Als gebe es unter Intel IVY Bridge und mindestens 16 GB Arbeitsspeicher und einer GTX 680 Grafikkarte keine Leistung?

Habe selbst nur einen Athlon X3 mit einer AMD 6850.
Mit diesem PC ist uneingeschränkt alles möglich.
Fast jedes Spiel läuft auf Full HD.
Besser gesagt 98% der Games.

Letztens ein neuen PC zusammengestellt für meinen Neffen. Mit Ivy Bridge und 6950 und SSD.
Am meisten merkte man SSD.
Also wieso sollte kein FX AMD CPU reichen? Oder sogar sooo schlecht sein?
Man muss nicht immer übertreiben.
 
Hawk1980 schrieb:
Nö ist es nicht.
Wird langsam Zeit für neue Grafikkarten.

Oh je! Ich kann mit meiner Grafikkarte Battlefield 3 nicht auf 2.560 x 1.600 spielen. Ja, du hast Recht gehabt. Da brauche ich unbedingt eine neue Grafikkarte...schade das heute Sonntag ist, sonst wäre ich gleich los gelaufen... :D
 
Ich habe grad bei HT4U gelesen, dass in dem LineUp noch ein FX 4320 mit 4GHz Takt dabei sein soll. Ist dazu etwas bekannt?

Quelle - HT4u-News
 
Hawk1980 schrieb:
Mein Ziel sind 60 FPS bei 60 hz und maximal möglichen Grafikeinstellung soweit die Karte das mitmacht. Denke aber um dem Prozzi an die Grenzen zu bringen braucht der die doppelte Leistung der vorhanden Karte.

Ich schaffe auf einer zerschossenen Karkland Map FullHD@Ultra oft nicht die 60 FPS (adaptiv vsync) zu halten, aber es liegt nicht immer an meiner GPU (670). 1090t@4Ghz läuft hier auch ab und an ins Limit.
 
Zuletzt bearbeitet:
Ich möchte hier auch mal meinen Senf zum Thema Intel oder AMD abgeben. Ich habe nach 14 Jahren, in denen ich ausschließlich AMD CPUs gekauft habe (Athlon bis zum Phenom II X4 810), den Umstieg auf ein Intel System vollzogen.

Warum ? Der Grund ist ganz einfach ich habe eine schnelle, leicht zu kühlende CPU für Bildbearbeitung und Spiele gesucht. Meine erste Wahl fiel dabei auf den FX8150, dessen 8 Kerne gerade für die Bildbearbeitung wie geschaffen sind. Allerdings hat er eine TDP von 125W und das stellt schon Ansprüche an die Kühlung. Meine Alternative war der Xeon E3 1240V2 auf Ivy Bridge Basis, der eine TDP von nur 69W hat und von der Performance dem FX in nichts nachsteht.

Ich habe mich also für den Xeon entschieden, der sehr einfach und leise zu kühlen ist. Der Rechner ist fast unhörbar ohne das ich viel Geld in die Kühlung investieren mußte. Die Mehrkosten halten sich auch in Grenzen, der Xeon war nur knapp 70€ teurer als der FX und das Mainboard (ASRock Extreme4) kostet in etwa das was auch ein gutes AMD Board kostet.

Ich hoffe indes inständig das AMD auf mittlere Sicht konkurenzfähig bleiben wird. Es ist einfach ungemein wichtig das neben Intel ein zweiter Anbieter auf dem Markt verfügbar ist um den Konurenzdruck zu erhalten.
 
mastermc51 schrieb:
...
Wer umbedingt Viceocodecs umrechenen will nimmt eh "Badaboom" dafür.
Die nVidia Grafikkarten können das eh effizienter als jede CPU.
...

Das stimmt so spätestens seit Sandy Bridge nicht mehr. Quick Sync ist wesentlich schneller und erreicht dabei eine bessere Video-Qualität als GPU-beschleunigtes Encoding. Die Trinity-APUs haben auch solche dedizierte Encoding-Hardware (VCE) eingebaut, aber die kommt derzeit nicht an Intels Lösung heran. Vielleicht ändert sich daran noch etwas mit besserer Softwareunterstützung.

Bei den Vishera wird wohl leider keine solche Encoding-Hardware an Bord sein, denn höchstwahrscheinlich ordnet AMD die (wie Intel) der integrierten GPU zu und nicht den x86-Cores.

Ansonsten wurde ja auch schon geschrieben, dass man optimale Video-Qualität derzeit nur mit reinem CPU-Encoding hinbekommt. Wenn es also um mehr geht, als Videos für Smartphones oder Ähnliches zu konvertieren, bleibt bis auf Weiteres möglichst viel x86-Leistung gefragt.
 
Zuletzt bearbeitet:
rico007 schrieb:
SLI braucht mehr CPU Leistung als CrossFire. Ist halt einer der Gründe warum es bei Intel besser läuft. Ändert aber nichts daran, dass die aktuellen AMD Prozzis die aktuellen AMD Karten limitieren.

Ob SLI mehr Leistung als Crossfire benötigt kann ich aktuell nicht sagen.
Tatsache ist aber das aktuelle Chipsätze von AMD die HD 7xxx Karten nicht voll ausnutzen können,alleine schon wegem fehlendem PCIe 3.0

Trozdem habe ich in der AMD 790FX Zeit ein Crossfire Gespann aus 2 HD 5770 gesehen und da war die Performance schon enorm gut.

Ich finde das man deine Aussage nicht pauschalisieren kann,da es auch an einer überlegten Zusammenstellung der Komponenten abhängt(was nützen mir ein brachiales Board CPU RAM Graka,wenn der Flaschenhals dann die HHD ist):D

Hab schon viele meckern hören wegen so etwas ohne das sie sich vorher Gedanken darum gemacht haben,weil sie der Meinung sind alles was neu ist läuft dann auch schneller.:rolleyes:
 
http://www.pcgameshardware.de/CPU-H...meback-fuer-AMD-Update-mit-Umfragen-848744/3/


Will ja kein Feuer ins Öl gießen, aber meiner Meinung sind die Intel Cpus für ambitioniertere Spieler die auf ne konstantere Fps rate Wert legen klar die bessere Cpu.

Heißt nicht das die Amds schlecht sind, und das auch natürlich nicht bei jedem Spiel, einiges Läuft auch ins GPU Limit, aber einiges auch nicht.

Hatte vorher auch nur ne 955BE @ 3,8Ghz und ja mit meiner GTX 680 gibt es da doch ein gewaltigen Unterschied mit Oc zu meinem aktuellen 4,33ghz i5.
 
Sgt.Slaughter schrieb:
Ob SLI mehr Leistung als Crossfire benötigt kann ich aktuell nicht sagen.
Tatsache ist aber das aktuelle Chipsätze von AMD die HD 7xxx Karten nicht voll ausnutzen können,alleine schon wegem fehlendem PCIe 3.0

Ja PCIe 3.0 bringt äusserst viel beim Gamen.....:rolleyes:
https://www.computerbase.de/2012-02/bericht-amd-radeon-hd-7900/10/


Bringt ja kaum was bei GPU Computing welches die Bandbreite deutlich besser ausreizt...
https://www.computerbase.de/2012-02/bericht-amd-radeon-hd-7900/11/

Fazit: PCIe 3.0 noch total wertlos.
 
Zuletzt bearbeitet:
@ Essener: Hattest die beiden CPU im direkten vergleich miteinander Verglichen?
Selbst wenn der FX und der Xeon die gleiche Leistung haben in deinen Anwendungen,ist dir da bewusst wie lange da der Xeon laufen muss um die 70EU über die Stromkosten wieder rein zu bekommen?!
Min 1 Jahr,10Stunden am Tag Volllast und es ist noch ein 30EU CPU Kühler mit dabei beim FX.

@Blazin Ryder: Ob ich mein FX @x4 mit 4,2GHz oder mit 4,8GHz Laufen lasse ist auch ein großer Unterschied je nach Spiel.
Vergleich lieber mal mit gleichem Takt,da wirst kaum noch was merken.
 
@Casio030

Schau doch oben im Link von PCGH rein dort sind die Intels Stock, wie auch die AMDs. Ich habe nicht Oc mit non Oc verglichen.
 
Meridian1 schrieb:
Ich schaffe auf einer zerschossenen Karkland Map FullHD@Ultra oft nicht die 60 FPS (adaptiv vsync) zu halten, aber es liegt nicht immer an meiner GPU (670). 1090t@4Ghz läuft hier auch ab und an ins Limit.
Das ist richtig, kratzt mich aber recht wenig, solange es nicht in den unspielbaren Bereich fällt, und das hab ich bei Camperfield selten unter 45fps minimum gesehen. :)
Wenn Dice es nicht gebacken bekommt ein Spiel vernünftig zu programmieren, muss ich mir also ne neue CPU kaufen um das Defizit der Engine auszugleichen? Ganz klar Nö, die Zeiten sind vorbei.
Die B2k Map sind so schlampig hingeschuster worden, das einem das Gefühl aufkommt, das Spiel wäre noch im Betastatus. Komischerweise laufen AK Maps um einiges sauberer trotz überdimensionale Mapgröße. Wie dem auch sei, kauf ich für ein Spiel mit Sicherheit keine neue CPU, da der Großteil der Games die ich besitze überwiegend am Grakalimit hängen, und für sonstige Anwendungen völlig ausreicht, hat sich das eh erledigt. :)

Oh je! Ich kann mit meiner Grafikkarte Battlefield 3 nicht auf 2.560 x 1.600 spielen. Ja, du hast Recht gehabt. Da brauche ich unbedingt eine neue Grafikkarte...schade das heute Sonntag ist, sonst wäre ich gleich los gelaufen...

Halt mal schön die Bälle flach.

Dirt Showdow in FullHD und mit lächerlichen 4x MSAA, und max Details.
CPUlimit ?! Äh, Unwahrscheinlich.



Und hier in FullHD, und Ingame Setting alles auf Maximum.

Wie gesagt, wird Zeit fürn ne neue Graka.


Da brauche ich unbedingt eine neue Grafikkarte...schade das heute Sonntag ist, sonst wäre ich gleich los gelaufen...
Verlauf dich nicht.:evillol::freak:
 
Zuletzt bearbeitet:
Zurück
Oben