Test Test: AMD „Bulldozer“

Ich denke über einen kauf von AMD FX-Series FX-8120 nächstes jahr, nach.
mal schauen was sich bis dachin tut
 
Tigerkatze
http://geizhals.at/deutschland/580328
sry mein Fehler hab nicht gesehen dass es noch ne günstigeres Angebot gibt 182 euro


sry beide kosten 100 euro weniger... also 182€ der 2500k und 177€ der FX-8120
(kommt davon wenn man den ganzen Tag mit zahlen zu tun hat)
 
Zuletzt bearbeitet: (xD ups schon wieder vertippt xD)
jeger schrieb:
Ich denke über einen kauf von AMD FX-Series FX-8120 nächstes jahr, nach.
mal schauen was sich bis dachin tut

Nächstes Jahr kommen dann die Piledriver raus, da macht es keinen Sinn, einen FX-8120 zu kaufen, da die Piledriver mehr Leistung und weniger Verbrauch haben werden.
 
Zuletzt bearbeitet:
@ Fischkopp

Hallo! Ich befürchte, Bulli wird das schaffen, soviel Saft zu nuckeln. In einem anderen Thema hat unser Aller CB-Volker (Danke für die ganzen Tests an Ihn!) geschrieben, daß bei einem OC-Versuch, im noch normalen Rahmen was OCler so einstellen, ein 600W-NT nicht ausgereicht hat, den Hunger von Bulli zu stillen und das er eine solche Stromgier schon seit langem nicht mehr gesehen hat.
Mannomann, der Bulli hat ein paar interessante Ideen, aber die Umsetzung ist wirklich mies.
 
@Tigerkatze:

Hier im Prime Stresstest gar 550 Watt und mit einer GTX 460 at Full Load gleich mal 800 Watt für das Gesamtsystem?
http://www.hardwarecanucks.com/foru...md-bulldozer-fx-8150-processor-review-20.html

Das zieht mein 2600K mit ZWEI 580 GTX!

Edit: Da bin ich ja Froh das ich noch ein MaxRevo für den Bulli übrig habe :)

Nochmal Edit: Habe das von Volker (von mir ebenfalls vielen Dank!) auch grad gelesen und schliesse mich der Meinung an! Nur mal zum Vergleich, ich habe grad mal mein SR-2 mit zwei Übertakteten Xeon X5690 (Je 6 Core at 4,5 Ghz!) mit Prime laufen lassen und die GPUs bis auf eine abgeschaltet. Natürlich kann ich mit einem normalen Voltmessgerät keine Wissenschaftlich korrekten Messungen machen, aber wenn die Daten von Hardwarecanucks stimmen dann zieht mein System grad mal um die 50 Watt mehr ohne GPU Last!
Ich werde gleich mal den unfairen Vergleich starten und die GTX 580 @ Furmark dazu schalten ;)
 
Zuletzt bearbeitet:
Fischkopp schrieb:
@Tigerkatze:

Hier im Prime Stresstest gar 550 Watt und mit einer GTX 460 at Full Load gleich mal 800 Watt für das Gesamtsystem?
http://www.hardwarecanucks.com/foru...md-bulldozer-fx-8150-processor-review-20.html
Das zieht mein 2600K mit ZWEI 580 GTX!
Edit: Da bin ich ja Froh das ich noch ein MaxRevo für den Bulli übrig habe :)
Meine Herrn, selbst mein alter Northwood P4 war nicht so gierig für seine Leistung. Obwohl (oft zurecht) über die P4 gespottet wurde und sie AMDs Athlon unterlegen waren, brachten sie aber halbwegs konkurrenzfähige Leistung für Ottonormaluser! Bulli hat uns das nicht wirklich zu bieten, ich nutze meinen PC auch für die Arbeit und habe ein paar durchaus anspruchvolle Progs aus dem Bereich, aber mein 2500k ist selbst in den MT-Anwendungen nicht soviel langsamer (bei vielen ST sogar schneller), daß ein Umstieg jemals lohnen würde. Mal ganz davon abgesehen, daß mein System als höchste Arbeitslast 86W (101W max. mit Benchmarkern) zieht!
 
Bulli hat uns das nicht wirklich zu bieten, ich nutze meinen PC auch für die Arbeit und habe ein paar durchaus anspruchvolle Progs aus dem Bereich,

Dem Bulli würde ich gern mal persönlich auf den Zahn fühlen, da er in einigen für mich interessanten Bereichen ziemlich gut sein soll. Nach meinen Messergebnissen werde ich den aber garantiert nicht übertakten!
Das ist ja Desaströs! Die CPU kann nicht mal einem 990X das Wasser reichen und verbraucht im OC Zustand mit kaum mehr Mhz fast soviel Strom wie zwei übertaktete 990X ( = Xeon 5690!)!

Update:
Ich denke mal das es reicht:

Nur zum Vergleich:
Hardwarecanucks:
At these settings, the system is idling at around 195W, but when running the aforementioned Prime95 stress test, it pulls an immense 550W from the socket. If we also add a fully loaded GeForce GTX 460 1GB to the mix, that number spikes up to almost 800W.

Ein übertaktetes Dual Xenon (X5690 6Core mit HT @ 4,5 Ghz) System auf EVGA SR-2 mit einer GTX 580 @ Furmark und Prime95:
942Watt!

Ich habe zwar nur ein Steckermessgerät, aber wenn ich bedenke das da nur eine GTX 460 verwendet wurde, wird mir schwindelig!

Nochmal die Quelle meines Missmuts:
http://www.hardwarecanucks.com/foru...md-bulldozer-fx-8150-processor-review-20.html
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Dem Bulli würde ich gern mal persönlich auf den Zahn fühlen, da er in einigen für mich interessanten Bereichen ziemlich gut sein soll. Nach meinen Messergebnissen werde ich den aber garantiert nicht übertakten!
Das ist ja fast schon Desaströs! Die CPU kann nicht mal einem 990X das Wasser reichen und verbraucht im OC Zustand mit kaum mehr Mhz fast soviel Strom wie zwei übertaktete 990X ( = Xeon 5690!)!
Hallo Fischkopp! Das "fast" kann man streichen. Der Verbrauch durch die Bank (idle mal grob ausgenommen, das geht, wenn auch nicht ganz auf Intelniveau) ist ein Desaster, gerade wenn man die vollmundigen Ankündigungen von AMD über Bullis Effizienz gesehen hat. Effektiv ist er beim Stromvernichten, aber sonst nirgends, was Verbrauch angeht.
Und ich stelle mal die These in den Raum, daß er bei den MT-Anwendungen, wo Bulli teils wirklich gut aussieht, auch einen kräftigen Schluck aus der Pulle nimmt, da ja alle 8 "Kerne" rumwummern.
 
Und ich stelle mal die These in den Raum, daß er bei den MT-Anwendungen, wo Bulli teils wirklich gut aussieht, auch einen kräftigen Schluck aus der Pulle nimmt, da ja alle 8 "Kerne" rumwummern.

Das würde ich auch befürchten, erst recht mit den Tweaks die angekündigt wurden!

Edit: Habe das "Fast" gestrichen! Bei näherer Betrachtung sollte AMD einen Warnhinweis auf die CPU Verpackung drucken " Only Overclock when you got a fucking Big Power Supply with 950 Watts and above for Single GPU!"
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Das würde ich auch befürchten, erst recht mit den Tweaks die angekündigt wurden!
Edit: Habe das "Fast" gestrichen! Bei näherer Betrachtung sollte AMD einen Warnhinweis auf die CPU Verpackung drucken " Only Overclock when you got a fucking Big Power Supply with 950 Watts and above vor Single GPU!"
Oder den Hinweis: Recommended CPU for all Energy Production Shareholders, only you can stomach the electricity bill!":evillol: :D
Bulli hat in einigen Ecken wirklich Potenzial und ich bin gespannt, was man noch rausholt mit den Tweaks (und den nun dringlich benötigten Nachfolgern), aber was Verbrauch angeht, ist er eine Mißgeburt erster Ordnung! Und da sehe ich keine Besserung am Horizont, denn wenn AMD wirklich soviel am Verbrauch rumgedoktort hat wie sie behaupten, dann ist da nicht viel Steigerung der Effizienz mehr drin. Da liegt das Problem tiefer. Und dieser Verbrauch ist für mich der eigentliche Fail.
 
Wenn ich mir die Leistung Pro Watt angucke braucht AMD ein Wunder!
Ich bin schon gespannt auf die Threads "Mein Papa/ meine Frau hat meinen geocten BD PC aus dem Fenster geworfen nachdem er/sie die Stromrechnung gesehen hat! Was soll ich jetzt bloss tun?"

Kleines Update:

Intel I7 2600K @5Ghz mit GTX 580 SLI: 860 Watt!
60 Watt mehr als der Bulli von den Canucks!

Beinahe möchte man meinen das der BD doch nicht so schlecht ist, aber bei weniger Takt (und damit Leistung) und einer GTX 460 würde mich mal die Argumentation von AMD interessieren?

Edit: Ach ja die Gamingtauglichkeit! Ich möchte wetten das ein GTX 580 SLI System mehr "Gamingpower" hat als eine GTX 460 ;)
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Wenn ich mir die Leistung Pro Watt angucke braucht AMD ein Wunder!
Ich bin schon gespannt auf die Threads "Mein Papa/ meine Frau hat meinen geocten BD PC aus dem Fenster geworfen nachdem er/sie die Stromrechnung gesehen hat! Was soll ich jetzt bloss tun?"

Kleines Update:
Intel I7 2600K @5Ghz mit GTX 580 SLI: 860 Watt!
60 Watt mehr als der Bulli von den Canucks!
Beinahe möchte man meinen das der BD doch nicht so schlecht ist, aber bei weniger Takt (und damit Leistung) und einer GTX 460 würde mich mal die Argumentation von AMD interessieren?
Da würde mich interessieren, wie der i7 Verbrauch bei gleicher OC-Ghzzahl ist? Ich denke, daß er trotz GTX 580 anstelle 560, niedriger ist. In solchen Bereichen sinkt die Gesamteffektivität der Stromsparmaßnahmen ab.
Da kann man ins Schwitzen kommen, wenn man die Watt sieht! Ich habe mein i5-System auf Stromsparen eingestellt, idle bei rund 22W und wie erwähnt, habe ich 86W nur bei hoher Arbeitsauslastung.
 
Da würde mich interessieren, wie der i7 Verbrauch bei gleicher OC-Ghzzahl ist?

Dauert einen kleinen Moment!

Neustarten und so ;)

Ich kann auch nochmal mein 990X System laufen lassen, aber wir wollen es ja nicht übertreiben!

Edit:
Da brauche ich nicht lange Fackeln, ein kurzer Prime run @ 4,6 Ghz mit HT@1,3 Volt: 253 Watt Gesamtsystem!
Das ist deutlich weniger als die Hälfte vom BD bei selbem Takt!

Edit: Die zweite GTX habe ich für den Test per ECP abgeschaltet, d.h. es idelt nur eine GTX 580 vor sich hin ;)

Das würde ich mir mal in offizieller Form von einer Hardwareseite wünschen, aber wer sich das wagt wird wohl nie wieder von AMD Hardware zum testen bekommen!
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Da brauche ich nicht lange Fackeln, ein kurzer Prime run @ 4,6 Ghz mit HT@1,3 Volt: 253 Watt Gesamtsystem!
Das ist deutlich weniger als die Hälfte vom BD bei selbem Takt!
Edit: Die zweite GTX habe ich für den Test per ECP abgeschaltet, d.h. es idelt nur eine GTX 580 vor sich hin ;)
Das würde ich mir mal in offizieller Form von einer Hardwareseite wünschen, aber wer sich das wagt wird wohl nie wieder von AMD Hardware zum testen bekommen!
Danke schön! Wau, sind das Unterschiede. Wenn man das wirklich mal offiziell schreiben würde, da hast du ganz recht, die entsprechende Seite hätte wohl ein Problem mit AMD ab dann.
Aber die Werte sind eindeutig! Solange man nicht bis zum Anschlag OCed, hält sich Intel sehr wacker, während Bulli abschmiert. Das muß man sich mal geben! Bei gleichem OC-Takt von 4,6Ghz frißt Bulli 550W und Sandy 253W! Von der Nummer mit vollausgelasteter Graka ganz zu schweigen. Hinsichtlich der Leistung pro Watt ist das jenseits von Gut und Böse. Komm unter meine Decke, Sandy!;)
 
Mal zu Übersichtszwecken, fassen wir mal zusammen:

Intel 2600K @4,6 Ghz/8Th*/GTX580: 253 Watt @ Prime95
Intel 2600K/5 Ghz/8Th*/GTX580SLI: 860 Watt @ Prime und Furmark
2xIntel Xeon 5690**/4,5 Ghz/24Th*/GTX580: 600 Watt @ Prime
2xIntel Xeon 5690**/4,5 Ghz/24Th*/GTX580: 942 Watt @ Prime&Furmark

AMD FX 8150/4,6 Ghz/8Th*/GTX460: 550Watt @ Prime
AMD FX 8150/4,6Ghz/8Th*/GTX460: 800 Watt @ Prime&Furmark

Werte vom FX stammen von Hardwarecanucks: http://www.hardwarecanucks.com/foru...md-bulldozer-fx-8150-processor-review-20.html
* = Threads!
**= entspricht 2x Intel Core I7 990 Extreme Edition auf Evga SR-2!
Wenn ich mir die Werte aus dem SB Test von CB ansehe verbraucht meiner sogar noch zuviel :(
https://www.computerbase.de/2011-01/test-intel-sandy-bridge/50/#abschnitt_overclocking
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Mal zu Übersichtszwecken, fassen wir mal zusammen:

Intel 2600K @4,6 Ghz/8Th*: 253 Watt @ Prime95
Intel 2600K/5 Ghz/8Th*/GTX580SLI: 860 Watt @ Prime und Furmark
2xIntel Xeon 5690/4,5 Ghz/24Th*: 600 Watt @ Prime
2xIntel Xeon 5690/4,5 Ghz/24Th*/GTX580: 942 Watt @ Prime&Furmark

AMD FX 8150/4,6 Ghz/8Th*: 550Watt @ Prime
AMD FX 8150/4,6Ghz/8Th*/460GTX: 800 Watt @ Prime&Furmark

Werte vom FX stammen von Hardwarecanucks: http://www.hardwarecanucks.com/foru...md-bulldozer-fx-8150-processor-review-20.html
* = Threads!
Das knickt eigentlich auch den Strohhalm von der "Bulli-Server-CPU" um. Die 24T-Xeon-Combo verbraucht gerade 50W mehr, wenn nur die CPU beansprucht wird. Was zum Henker haben die bei AMD gemacht? Einen Deal mit E.on, Vattenfall oder so?
 
Was zum Henker haben die bei AMD gemacht?

Die Frage ist, in wie fern die Hardwarecanucks Werte stimmen. Bei Guru3D verbraucht der FX ja "nur" 430 Watt oder so! Allerdings auch mit weniger Spannung und die HC´s werden die Spannung wohl für den Takt gebraucht haben!

Die 24T-Xeon-Combo verbraucht gerade 50W mehr, wenn nur die CPU beansprucht wird.
Das ist für mich der Wirkliche Schock!
Besonders wenn man die 48% beim Cinebench CPU Test im Hinterkopf hat die schon der 980er mit 3,33 Ghz gegenüber dem FX 8150 mit 3,6 Ghz gut macht!

Nochmal Edit: Bei dem Verbrauch hat man den Preis für das Xenon System nach ein paar Wochen wieder durch die gesparte Arbeitszeit drinnen :D
 
Zuletzt bearbeitet:
Zurück
Oben