Test Test: AMD „Bulldozer“

Ich frage mich aber trotzdem wozu Du Dir den FX nun geholt hast.. in meinen Augen die reinste Verschwendung.
Das Ergebnis bei Dir war ja an sich ebenso zu erwarten... ;-)
 
Weil ich mit theoretischen Benchmarks nichts anfangen kann, wie sie bei praktisch allen Testberichten benutzt werden!

Ich wollte selber sehen ob der BD bei Multithread wirklich so gut ist wie behauptet wurde und das ist er offensichtlich nicht ;)

Das kann man auch nicht auf den Sheduler schieben, wenn alle 8 Kerne auf Anschlag ausgelastet sind!

Edit:

Eigentlich wollte ich das ganze auch hier als eigenen Thread aufmachen, aber das überlege ich noch. Zumal ich ja vor allem die Leistungsaufnahme bei OC testen wollte.
Auf den Test bin ich sehr gespannt :)
 
Zuletzt bearbeitet:
Und am Ende des Tages siehst Du zudem, dass die theoretischen Benchmarks also doch ihre Daseinsberechtigung haben.. der objektive Vergleich hat ja recht ähnliche Ergebnisse gezeigt.

"Behauptet" wurden ja nur seitens AMD soviele Dinge... und naja, ich mag... nein halt, mochte die Firma an sich auch immer. Aber scheinbar haben sich dort einige Zielsetzungen und Prioritäten stark gewandelt.
Ich könnte noch stundenlang über die faktische Kundenverarsche wettern, die man dort inzwischen praktiziert.

Ach übrigens Fischkopp, schade ums Geld. ;-)
 
Zuletzt bearbeitet:
Ach übrigens Fischkopp, schade ums Geld. ;-)

Nö, den kriegt mein Sohn! Dem ist es egal wieviel Leistung das System bringt wenn er mit seinem Grafiktablet zeichnet und seine Musik macht :)
Aber erstmal gucken, nicht das seine Mama mich nachher die Stromrechnung bezahlen lässt :D

Edit:

Quizfrage: Wie bekommt man ein Enermax MaxRevo 1350 WATT NT dazu alle Viere von sich zu strecken?
 
Zuletzt bearbeitet:
In Zeiten wo wir Atomkraftwerke abschalten möchten, sollten wir auch wahrlich keine Bulldozer übertakten. :D

Vielleicht könnte man die Effizienz etwas steigern wenn man das Zeug nach oben hin einbaut und sich damit den Kaffee warmhält!
 
sollten wir auch wahrlich keine Bulldozer übertakten.

Och geht doch...

Ich habe mich an den tollen Guide hier gehalten:
http://www.xtremesystems.org/forums...nce-Scaling-Charts-max-OCs)LN2-Results-coming

Ich habe sogar das selbe Board :)

Der BD schafft die 5 Ghz mit rund 1,5 Volt unter Wakü 30 min Prime!

Nur Doof das ich mein Triple SLI System schon angeschlossen hatte... :freak:

Beim starten von 3D Mark hat das ganze System die Hocke gemacht, trotz 1350 Watt und das MaxRevo hat eigentlich Reserven bis über 1500 Watt!

Das sind definitiv nicht die GPUs die das verursachen, denn das NT hat sogar geschafft mein SR-2 zu befeuern MIT Triple SLI!
Ich hoffe da ist jetzt nichts kaputt gegangen, denn das Board will nicht mehr starten!
Ganz toll :(

Update: NT lebt noch, aber das Board ist hinüber!
Ich hätte mir doch gleich 2 Boards bestellen sollen :(
Nun weiss ich nicht wie es der CPU geht, aber das wichtigste: Meine GPUs leben auch noch!
 
Zuletzt bearbeitet:
Wahrscheinlicher ist da m.E., dass bei dem Board bei satten 1,5V die Spannungswandler durchgebrutzelt sind und daher der Rechner sich verabschiedet hat. Denn wenn ein Netzteil bei zu großer Überlast sich ganz normal abschaltet, so dass es danach problemlos weiter funktioniert, geht andere Hardware i.a.R. nicht kaputt.

Mein Beileid. :(
 
Zuletzt bearbeitet:
Hattest Du im Bios zusätzlich einige Spannungen auf Auto gelassen? Das wäre ein beliebtes Problem, da die Bretter gern nach Gut- bzw. Schlechtdünken andere Boardspannungen hochjagen, wenn man es als User nicht explizit verbietet.

Auf jeden Fall ist also Vorsicht angebracht, und das bei einem High-End-Board (das UD7 war's, stimmt's?), das eigentlich robust genug sein sollte.

Immerhin nimmst Du es sportlich, das zeigt Größe. :)
 
Ja war das UD-7 :(
Ich habe die Spannungen nach besten Wissen (auch dank diverser Guides!) manuell eingestellt und es lief ja soweit, auch Prime kein Problem.
Aber ich muss mich den Leuten anschließen die schreiben das sie sowas wie die Leistungsaufnahme vom BD noch nicht gesehen haben!

Selbst mein damaliges P4 System mit Asetek Kompressorkühlung war da noch ein Witz gegen, denn da hat für CPU, Kompressor, GPU und Rest des Systems ein 850 Watt NT gereicht, das schafft der BD fast alleine @ 5 Ghz!
 
MRM schrieb:
Sollte man IMHO dennoch mal durchprobieren - denn aus dem vorherigen Link ist ja auch zu sehen, das keineswegs jedes Programm von einem höheren HT Takt profitiert. -Daher bin ich mir hier zB unsicher, ob HT4U das wirklich mit verschiedenen Programmen getestet hat, oder ob die das nicht evtl nur mit einem Programm ausprobiert haben, und dann zu ihrer ( voreiligen ? ) Schlußfolgerung kamen.
Wir treffen nie voreilige Schlussfolgerungen. Wir haben unserem kompletten Benchmark-Parcours bestehend aus mehr als 30 Benchmarks mit diversen HT-Setting getestet - Es gibt keinen Unterschied.

Im Übrigen finde ich es recht merkwürdig, wenn ich hier lesen muss, dass an unseren Resultaten/Aussagen gezweifelt wird. Auch wir besitzen ein Forum, und wenn man etwas nicht glaubt, versteht oder anderer Meinung ist, darf man da gerne nachfragen - insbesondere bevor man irgendwelche Vermutungen äußert.

Grüße
Fabian
 
Entweder hab ich grad nen Brett vorm Kopf oder HT4U zeigen doch das gleiche wie Xtremsystems. Nämlich dass der Takt des HT-Links völlig egal ist.

Ich verstehe das Ergebnis bei Xtremsystems auch nicht ganz. Sie zeigen das weder der HT-Link noch die Northbridge von einem hohen Takt profitiert. Die Erhöhung des Referenztaktes hingegen bringt was.
Nun die Frage: Was ist denn noch mit dem Referenztakt gekoppelt? Was genau wird denn jetzt durch einen hohen Takt verbessert?
 
Also ich habe gestern auch meinen FX-6 bekommen, aber leider nur 1333er Speicher zum testen.
Was definitiv Leistung bringt, ist das synchrone Takten von Northbridge und HTT. Habe beide statt auf 2000/2600 auf 2200/2200 gestellt und etwa 10 % mehr Leistung erhalten. Eine weitere Erhöhung von NB-Takt, HTT, Referenztakt, brachte nichts. Ich schätze die Xtremsystems Einstellungen bezogen sich darauf, dass es beim Übertakten Bremsen gibt, die man durch diese Einstellungen lösen muss.

In meinem System ist allerdings irgendwo der Wurm drin, z.T. ruckelt der Mauszeiger und es gibt manchmal halbsekündige Künstlerpausen. Hatte nicht neu installiert, nur das Win7 von einem anderen Rechner dran gesteckt.

Die Sache mit dem Stromverbrauch ist arg übertrieben. Bei 3dmark06 und einer HD6950 @880 MHz, ging der Verbrauch nie über 220 Watt. Im Schnitt bewegt er sich bei ca. 180 Watt. Im CPU Test zieht er 140 Watt. Auf einer Browserflashseite mit viel Inhalt und schnellem hoch-/runterscrollen, verharrt der "Zeiger" auf 94 Watt. Und das habe ich alles ohne C6, C1 und C&Q getestet. Das überall herum posaunte Prime Szenario von >230 Watt ist für den Mülleimer. Sowas kommt im Alltagsbetrieb nie vor und schon gar nicht dauerhaft beim Spielen. Mein 400 Watt Netzteil wurde gerade handwarm in mehreren Stunden Dauertest.
 
Dann das ganze mit AVX:
SB 2600K = 67 Spuren
FX 8150 = 63 Spuren
Bei den beiden anderen bleibt alles wie gehabt!
Ich sehe da auch sehr kritisch, im perfekten Szenario für Bulldozer, für das er teilweise gelobt wurde(zu unrecht) versagt er also auch. Eben weil man Sandy heftigst OC kann und dann immer noch effizienter fährt als der FX. Ergo bleiben die schlechte Performance und die Ineffizienz. Auch wenn der Preis irgend wann mal fällt, so wird das nix, da sind keine Argumente für einen Kauf vorhanden.


Die Bevorzugung von Intel der letzten 15 Jahre konnte man nun mal mehr geforscht werden...ob Intel mit 1/10 seiner Selbst an AMD herankäme ?!
Und wen interessiert das wenn man sich ein perfektes System für die nächsten Jahre aufbauen will. Irgend wo hört die Sympathie auf.

Update: NT lebt noch, aber das Board ist hinüber!
Ich habs mir ehrlich gesagt schon gedacht. 400Watt+ ist zuviel für das Mainboard. Da braucht man extreme Spannungswandler Kühlung. Mit TRI SLI am Anschlag wirds aber auch eng. 300-320Watt für jeden Fermi Klotz also 900-1000Watt für die GPUs(nicht OC) und dann noch 400Watt+ für Bulli sind wir schon bei 1400Watt. Dein NT ist da schon am Anschlag. 1500Watt müsste man schon knacken können.

Fazit aus der Geschichte, jeder der den Bulli OC riskiert seine Mainboard Spannungswandler... Was bei Sandy nicht der Fall ist, da man nicht viel mehr Saft zieht.
 
Zuletzt bearbeitet:
Die OC Boards für Intel sind ja auch alle mit deutlich mehr Phasen ausgestattet als die AMD Boards. Kleines Beispiel: Das Gigabyte UD7 für Intel 24 Phasen, das gleich Board für AMD hat gerade mal 8+2. Für AMD gib es fast immer nur 8+2, mit einer Ausnahme das ASRock Fatal1ty mit 12+2 Phasen, was aber immer noch hinter den meisten Intel OC Boards hinterher hingt.

@Fischkopp
Wenn du noch ein Zambezi OC versuch startest mit den 3 Grafikkarten, dann besser mit zwei Netzteilen und das für den FX mit einer starken 12V Leitung, statt mit vielen kleinen ;)
 
300-320Watt für jeden Fermi Klotz also 900-1000Watt für die GPUs(nicht OC) und dann noch 400Watt+ für Bulli sind wir schon bei 1400Watt. Dein NT ist da schon am Anschlag. 1500Watt müsste man schon knacken können.

Die Fermis sind eher so bei 260 bis 280 Watt, wenn ich mir die Werte zwischen SLI und Triple SLI ansehe!
Aber das macht das Bild vom BD auch nicht besser :D
Das selbe NT hat bei mir mal bei ca. 1700 Watt abgeschaltet, aber da war es das SR-2 mit zwei Gulftowns@OC und Tri SLI!
Aber da ist der Hardware nichts passiert.
Bei dem Gigabyte UD-7 war wohl in diesem Fall eher Ende der Fahnenstange als beim NT, bzw. beides :(

Kleines Beispiel: Das Gigabyte UD7 für Intel 24 Phasen,
Das ist schlicht falsch, selbst mit deutlich günstigeren Mainboards kann man einen SB locker an seine Grenzen treiben! Das Gigabyte Zeuch ist Augenwischerei, siehe Asus Maximus usw.
Extreme Engine Digi+ :
- 8 -phase CPU power design + 4 -phase iGPU power design
- 3 -phase Memory power design
- ML Caps on CPU respectively

Quelle!
 
Zuletzt bearbeitet:
Die Fermis sind eher so bei 260 bis 280 Watt, wenn ich mir die Werte zwischen SLI und Triple SLI ansehe!
Davon kannst du aber nicht immer ausgehen. Max zieht Fermi bei 100% Last 320Watt non OC. Das muss man mit einrechnen, man kann nie wissen wann die Dinger plötzlich warum auch immer Vollgas fahren. Wenn man es so knapp und pi mal Daumen rechnet wie du riskiert man einen Totalausfall. Genau so wie bei deinem Bulli OC Versuch. Beim NT sollte man ja eigentlich noch ein bisschen Luft nach oben haben, 1500Watt(max. was der Markt her gibt) sind zu wenig mit OC bei extremer Auslastung. Ergo müssen 2 NT her, wie schon gesagt wurde. Würde sagen 2x 1000 Watt. Eins für TRI-SLI, das andere für den Rest. Bzw. das 1300Watt für TRI-SLI um noch Reserven fürs OC zu haben.

Aber da ist der Hardware nichts passiert.
Lass mich raten, du spielst gern Poker und deine Daten sind alle unwichtig oder. :rolleyes:
 
Zuletzt bearbeitet:
Ok, dann habe ich geirrt, aber warum hast du dann nicht das Asus genommen? Ist günstiger und du hättest bisschen was am Elektro Müll gespart :)
 
Ergo müssen 2 NT her, wie schon gesagt wurde. Würde Sagen 2x 1000 Watt. Eins für TRI-SLI, das andere für den Rest.

Für das SR-2 habe ich eigentlich auch 2 NTs ;)
Beim BD war das im wahrsten Sinne des Wortes ein Unfall!

Lass mich raten, du spielst gern Poker und deine Daten sind alle unwichtig oder.
Pokern ja, aber meine wichtigen Daten sind niemals auf Rechnern mit denen ich Tests fahre ;)
 
Nun weiss ich nicht wie es der CPU geht, aber das wichtigste: Meine GPUs leben auch noch!
Sag bescheid wenn die CPU noch lebt. Vielleicht gibts hier neben dem fehlen von "Intel Insider and remote-control" bzw. DRM Features in der CPU noch einen Vorteil von Bulldozer. Und zwar das es keinen Sockelbrand gibt. Mit Intel hätte man in dem Fall wohl eine angebratene CPU bzw. in Rauch aufgegangene Pins und CPU Beschädigung.

Die 3 Vorteile von Bulli, die ich bis jetzt zusammentragen konnte:
+ Kein Hardware DRM
+ (kein Sockelbrand)-> ausstehend
+ extrem exklusiv, nicht viele werden das Teil kaufen, quasi wie eine Asus Mars :rolleyes:
+ Überlegene Verpackung, die Blechdose ist ja mal wirklich gelungen. (die letzten 2 Punkte könnte man wohl auch weg lassen)

Mfg Kasmo
 
Zuletzt bearbeitet:
Zurück
Oben