Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

Fischkopp
übrigens danke für den link ^^ xD denn wenn ich mir einen FX 8150 kaufe und stark übertakte, müsst ich ma sogar n neues Netzteil kaufen :D
Mich würde aber echt stark interessieren was ein FX 4100 auf einem hohen Takt verbraucht, und wie er sich so tun würde und ob ein hoher Takt überhaupt was beim FX 4100 bringen würde.
 
Zuletzt bearbeitet:
Mich würde aber echt stark interessieren was ein FX 4100 auf einem hohen Takt verbraucht, und wie er sich so tun würde und ob ein hoher Takt überhaupt was beim FX 4100 bringen würde.

Hoffentlich nicht halb soviel wie der 8150, denn dann wäre der "Kleine" auf SB 2600K Niveau :(
Besser wäre deutlich weniger ;)

Aber nicht jeder übertaktet seine CPU auf über 4,5 Ghz und gibt ihr über 1,45 Volt!
 
naja er braucht garantiert mehr als die Hälfte vom 8XXX... zumal es nur "Ausschuss" ist ohne eigene Maske.

Der FX-4XXX dürfte bei miserabler Leistung @ 4,2 Ghz dem FX-8XXX nahe kommen ;)
 
Mal ne Frage:
Mit was für Spielen testet CB eigentlich? Wenn ich mir andere Tests anschau in denen BC2 / BF3 Beta etc verglichen werden, kommt der 8150 ja auf 2500k Niveau und liegt auch deutlich vor dem X6.

Konnte das leider aus dem Test nicht rauslesen was überhaupt getestet wurde (bei Spielen).
 
@Lipix

Du mußt bei dem Test auf "Anhang" klicken, dann lassen sich auch die Einzelergebnisse einsehen ;)
 
@ Lipix : Wenn du im Bulldozer-Test auf den "Anhang"-Link klickst, dann öffnet sich eine Liste mit den Testergebnissen im Detail, darunter auch alle 8 Spiele. Zwar wurde dort kein Battlefield für einen Benchmark herangezogen, aus den vorhandenen Spielen sollte sich aber ein ganz akzeptabler Mittelwert bilden lassen.
 
Ah OK. Danke für den Hinweis.
Jetzt ist mir auch klar wie das Ergebnis zustande kommt und der Bulldozer im Vergleich zu anderen Tests so schlecht abschneidet.
Schade das kein E8400 und i3-2130 in der Liste sind :)
 
@frankpr

https://www.computerbase.de/artikel...580.1393/seite-6#abschnitt_sonstige_messungen

https://www.computerbase.de/artikel...zer.1581/seite-19#abschnitt_leistungsaufnahme

wenn ich den wattangaben der beiden tests glauben darf, würd ich behaupten, dass wenn solch eine dicke grafikkarte verbaut wurde, damit auch gezockt werden soll und zwar mit AA und AF am limit. daher wird eher die grafikkarte unter voller last stehen als die cpu. somit werden die 4xx watt der 6970/570/580 schwerer wiegen, als die 170 (intel 2600k) bis 230 (BD8150) watt der cpus, die beim spielen meistens nicht voll ausgelastet werden (tests dazu gibt es ja zu hauf). trifft sicher nicht auf 100% aller spiele zu, da z.B. sc2 oder anno ja wirklich mehr die cpu belasten, doch der größte teil der spiele sind heute wohl doch eher shooter oder rpgs/mmos, bei denen die grafikkarte den ton angibt.

@am3000
seit wann kann man denn "nur" mit den hi-end karten zocken? mag sein, dass jemand der auf 3 monitoren mit 2000ner auflösungen spielt sicher die dicken dinger braucht, aber so jemand schert sich nicht um verbrauch. wäre ja als würde sich ein porschefahrer sich über den benzinpreis beschweren. mal für neue spiele wie bf3 ausgenommen, würde eine 6950 doch mehr als ausreichen und dennoch fast 80 watt weniger ziehen als eine 6970/570. "WENN" verbrauch für jemanden ein wichtiges argument ist. allerdings wage ich zu bezweifeln, dass die anschaffungskosten für 2 rechner wirklich durch die einsparungen am energiebedarf des "alltag"-rechners reinzuholen sind, der müsste ja jahrelang laufen und würde doch gut alle 3 jahre spätestens ersetzt. vielleicht als frima/selbstständiger auf 2-3 rechnungen verteilen und dann als gwg in einem jahr abschreiben, aber das wär ja fast wieder steuerbetrug ;)

wie schon ein paar zeilen vorab beschrieben, wenn ich cpu-lastige spiele spiele, dann ist die grafikarte nicht so ausschlaggebend, bin ich aber der bf-veteran mit 3 monitoren und 580 sli, dann kommt es auch die 60 watt unter volllast(!), die ein amd im vergleich mehr zieht, auch nicht mehr an.

jedoch nur nochmal zu erinnerung, ich finde es auch unbestreitbar, dass intel in leistung und verbrauch voraus ist. nur wirkt das argument "verbrauch" unglaubwürdig, wenn dann neben her eine 580 fast 450 watt aus der leitung zieht.

seh ich mir beide unternehmen heute an, dann läuft amd gefahr vom prozessormarkt zu verschwinden bzw. in nischen gedrängt zu werden. was für uns heißen würden, wir müssten viel mehr für cpus und mainbaords bezahlen, die entwicklung wird immer langsamer (denn wieso soll intel für neuerungen investieren, wenn der alte scheiß immer noch weggeht und sich damit der maximale gewinn einfahren lässt?) und ein bisschen sieht man es ja schon heute. intel musste bei den sandys sich noch nicht mal die mühe machen und wirklich an der mhz-schraube drehen, weil ohne konkurrenz einfach keine notwendigkeit dafür besteht.
 
@derbiber842:

Also ich bin einer von den GTX580 Triple SLI Usern die mit extrem hohen Auflösungen, oft noch mit 3D, über 3 Monitore spielen! Dazu übertakte ich auch die CPUs, da die Grafikkarten auch versorgt werden wollen und mache mir eigentlich keinen Kopp um den Stromverbrauch. Wenn ich aber sehe was der BD bei OC verbrennt, ist das sogar mir deutlich zuviel: http://www.hardwarecanucks.com/foru...md-bulldozer-fx-8150-processor-review-20.html
Edit: Nur mal so zum Vergleich: https://www.computerbase.de/forum/t...hwarzer-mittwoch.945569/page-88#post-10825404

Edit: Aja der FX ist Trotzdem bestellt, aber ich werde mich hüten den zu übertakten ;)
 
Zuletzt bearbeitet:
@fischkopp

3 mal 450 watt für die 580er und dann nochmal 230 watt für ein bd und das allein für die @stock werte, gibt es denn überhaupt netzteile dafür ;) ?

aber spaß bei seite :) ich gönn jedem, dass er sich intel, amd, nvidia oder was auch immer in sein rechner steckt und dann freude daran hat. ob er nun in benchmarks am höchsten punktet, verschwindend geringen verbrauch hat oder auf 3 riesen monitoren in 3d spielerlebnisse in bester kinomanier hat. ich habe nur für mich entschieden, dass für meinen durchschnittlichen gebrauch mit ein paar spielchen, office und rumsurfen amd mit seinen aktuell mittelmäßigen produkten mehr als locker reicht und die paar euro, die ich mehr in den verbrauch stecke meine investition sind, dass es auch in zukunft wettbewerb gibt, der dem kunden zu gute kommt und nicht allein den gierigen aktionären (amerikanische AG -> keine gesetzlich vorgeschriebene thesaurierung) und dicken vorständen (boni über alles) bei einem monopolisten :)

dass dies allerdings nicht jedem reicht oder weiterhilft ist mir auch klar, aber wenn 2-3 das lesen und dann denken, ah gar nicht so doof, ich kauf mir doch was von amd, dann ist uns doch allen schon irgendwie ein stück geholfen oder? :)

in diesem sinne
 
Zuletzt bearbeitet:
aber wenn 2-3 das lesen und dann denken, ah gar nicht so doof, ich kauf mir doch was von amd, dann ist uns doch allen schon irgendwie ein stück geholfen oder?

Ja schon, ich meine jeder sollte sich das kaufen, was ihm am meisten Zusagt!
Man sollte halt immer Vor- und Nachteile und den eigenen Bedarf abgleichen. Was dann ins Budget passt, wird gekauft.

Dabei ist mir auch egal ob Via, AMD, Intel, Nvidia oder oder auf der Verpackung steht ;)
 
derbiber842 schrieb:
ich finde es auch unbestreitbar, dass intel in leistung und verbrauch voraus ist.
nur wirkt das argument "verbrauch" unglaubwürdig, wenn dann neben her eine 580 fast 450 watt aus der leitung zieht.

immerhin hast du einen unnötigen mehr Verbrauch an Strom wenn du eine
Neue schnelle AMD CPU nimmst als wenn du das mit den aktuellen Intel Modellen heute vergleichst, auch beim Gamer PC.
die Intel HW ist in der Neu Anschaffung teuer als die AMD HW das ist klar
muß man für sich persönlich abwägen was für einen selber sinnvoller ist
und wehm das man das Geld lieben schenkt .

wer auf einen PC angewiesen ist um u.a. damit zu arbeiten hat in der Regel auch noch einen 2. PC falls der 1. PC mal ausfällt .
 
Zuletzt bearbeitet:
die preise bei hoh.de für den FX8150 (und auch für die anderen AM3+ CPUs) sind ja jenseits von Gut und Böse... z.B. bei MF sind die grob um 10-20% billiger.
 
Zum Glück habe ich mir kein AM3+ Board gekauft. So ein Desaster.
Die Jungs bei Intel werden wohl vor Lachen Bauchschmerzen haben.
Schade für uns Verbraucher, ist doch schön wenn man nicht genau weiß ob besser AMD oder Intel. Wenn das noch länger so weiter geht rudert Intel Richtung Monopol, dann werden die guten CPUs richtig teuer.
 
Wir werden sehen sandy ist OK aber was danach kommt mit ivi ist die selbe architektur. AMD geht neue wege stoolpert noch ja. Wers besser macht wird man sehen.
 
Zurück
Oben