Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

SamGuitar schrieb:
Ja gut, stimmt schon. Aber liegt das nicht daran, dass dirt 3 einfach mehr Kerne unterstützt als andere Spiele. Und da der i5 2500k nur 4 Kerne hat, zeigt das doch, wie schlecht der fx-8150 auch bei hohen Auflösungen ist, oder versteh ich da was falsch ? :)

http://www.pcgameshardware.de/aid,8...1-Modus/Rennspiel-Sportspiel-Simulation/Test/

ja eigentlich ist der Bulldozer nicht gut, aber so schlecht ist er eben auch nicht,
und pcgh hat nur mit niedriger Auflösung gemessen,
"weil" es um die Rohleistung der CPU ging
aber Anantech hat auch 1920x 1080 genommen
und hier sind 5% Unterschied nicht die Welt..
 
Zuletzt bearbeitet:
dergraf1
Das Problem was viele hier haben xD sie wechseln die GPUs von Generationen zu Generationen. Und da möchte man ja die CPU solange mittragen wie es nur geht.
Tatsache ist aber, dass die meisten dann doch neue CPU kaufen. Nur ist man Momentan wie es mit IB und Abwärtskompatibilität gezwungen ein neues Board zu kaufen. Zumindestens hat jeder laut davon gesprochen, aber ob das dann schlussendlich doch stimmt, keiner weis es.
Finde es nur schade dass ich kein AM3 board habe. weil wenn man glück hat läuft BDII sogar auch noch auf das.
 
Fischkopp schrieb:
Doch, nämlich wenn man eine GPU Kombination benutzt die weniger limitiert als die getestete, z.b. die nächste Grakageneration oder SLI/CF!

ja aber wer SLI/CF spielt hat wieder hohe Auflösung + AA usw. :)

es soll kein Streitthema werden
habe selbst die i7-2600k und habe nicht vor BD zu kaufen
aber mir scheint das Fazit vom Test etwas negativer zu sein, als in manch anderen Seiten
und eben ohne diesen Faktor der hohen Auflösungen :)
 
ja aber wer SLI/CF spielt hat wieder hohe Auflösung + AA usw.
Jupp, aber eine CPU die schon bei niedrigen Auflösungen schwächelt, wird das erst recht bei einem SLI System mit hohen Auflösungen tun!

Sprich die CPU die ohne Grafikkartenlimitierung nicht genug Leistung liefert wird auch bei Leistungsfähigeren Grafikkarten eher an ihre Grenzen kommen, als eine die auch bei niedrigen Auflösungen schon vorn liegt!
Das ist der Sinn von Tests in niedrigen Auflösungen bei CPU Tests, zu sehen wie die rohe CPU Leistung sich auswirkt und erklärt auch warum der Bulli bei BF3 z.b. besser dasteht als bei vielen anderen Spielen, denn BF3 nutzt alle Kerne der CPU! Das selbe gilt übrigens für alle CPUs die mehr als 4 Kerne haben ;)
 
KainerM schrieb:
. Es gibg einfach keinen Grund so ein Teil zu kaufen. Wenn man von einem PII X4 970 aufrüstet, hat man nachher weniger Leistung, mehr Stromverbrauch (obwohl der bei den Phenom II schon hoch war), und dafür mehr Geld ausgegeben als überall anders.
Das ist Naiv! zu sagen es gäbe, keinen Grund , es gibt durchaus Gründe, die BD Architektur ist ganz nützlich, man hat ja gesehen dass die ganze Banane auch bei Intel funktioniert hat, warum also soll es auch net bei AMD funktionieren ?! und damit ziele ich auf die Pentium D Generation ab ! also die ersten dual cores für die es keine Software gab und diese deshalb hinter AMDs single cores lagen !

KainerM schrieb:
Das Teil ist Kundenverarsche auf unterstem Niveau, und ich habe damit den letzten Respekt vor den Praktiken der Firma AMD verloren. Die HD600 Namensgebung war irreführend, an der Bildquali wurde gespart weil die Karten zu langsam waren, dann wurden alte Karten einfach zu neuen umgelabelt, dann kamen die Athlons, die Plötzlich Phenom heißen, und jetzt dieses Stück gequirlter Sch...okojoghurt. Bei dieser Firma wird man als Kunde einfach ständig nur verarscht. Ich würd sogar soweit gehen und es Betrug nennen. VW nennt den neuen Golf jetzt ja auch nicht Passat, weil man dafür halt mehr verlangen kann..
jaaa, natürlichhh nur AMD hat Karten umgelabelt und als neu vermarktet ,nööö genauuu nur AMD ist schulddddd, Nvidia hat ja net ein und die selbe Karte über 3.Generationen verkauft, und um dir auf die Sprünge zu helfen... damit meine ich die 8800GT und die 9800GT und die GTS250 richtig entsetzend, jetzt wirst du dir wohl nur noch Karten von Intel kaufen können :D und das mit der Bildquali wurde nur einmal aufgewärmt und interessiert iwie heut keinen mehr, weil das so ein marginaler unterschied ist und wer sich sowie so ein Produkt ohne sich zu informieren kauft ist sowieso total plem plem !

KainerM schrieb:
NIE NIE WIEDER AMD!

mfg

das solltest du nicht behaupten, weil wenn AMD einen neuen Prozessor rausbringt der zufälligerweise schneller ist, was mit der neuen Architektur gar nciht so abwegig ist, bin ich mal gespannt ob du deine Meinung änderst !
 
pipip schrieb:
KainerM
Sry aber das mit der HD6000 war ersten selten einen unterschied auszumachen, zweitens waren das 1-3 % mehr leistung. Also wenn du selber keinen riegel nach rechts verschieben kannst, tut mir das Leid. AMD hat den Kunden nicht mehr oder weniger geschadet als Intel, oder hat den kunden mehr oder weniger ausgenommen... ich will aber jz gewisse Themen nicht ansprechen, da wir das schon zuoft hatten...

übrigens Phenom 820 war ein 2,8 ghz Phenom II mit 4mb l3 cache. Der Phenom II 840 ist ein 3,2 ghz Athlon II. Fällt dir was auf, um wieviel Prozent ist der Phenom dem Athlon II schneller ???
840 sollten eigentlich ein Phenom II x4 3 ghz mit 4 mb l3 cache sein. Der Athlon II x4 3,2 wäre somit gleich schnell. Somit wäre der Kunde nicht verarscht worden, wenn er die gleiche Leistung bekommt....

Sorry, ICH kann das schon. Aber der springende Punkt ist: Ich würde es selbst wohl nicht für möglich halten, dass ich als Kunde von AMD derart BETROGEN werde. Klar kann ich es wieder umstellen, wenn ich davon weiß. Aber in den Benchmarks wurde zum großteil mit Standardeinstellung getestet, wodurch die HD 6000 besser da standen, als sie es wirklich sind. Computerbase hat ja gewaltig stunk von Usern bekommen, weil sie das Setting geändert haben, sodass die Resultate die Wirklichkeit wiedergeben. Die etwa 5% Performanceunterschied hat sich AMD beim Großteil der Reviewer aber erschummelt.

Und Phenom 840: Egal was bei Benchmarks rauskommt! AMD selbst sagt, dass ein Athlon durch den L3 zum Phenom wird. Und dieser L3 ist definitiv NICHT VORHANDEN! Auch wenn im großen und ganzen die Leistung "ähnlich" ist, sie ist durch die Bank niedriger als die beworbene. In Einzelfällen sogar deutlich. Vor allem in Spielen sind die minimum-FPS oft viel schlechter. WinRAR leidet stark. Und so weiter.

Es geht nicht darum, dass dadurch jemand großartig geschädigt wurde, aber all zu Oft in der jüneren Vergangenheit hat man als AMD-Kunde nicht das erhalten, was man bezahlt hat. Ungefähr so, als ob dein Traffikant bei jeder Schachtel eine Zigarette rausnimmt ohne es dir zu sagen. Sind ja auch nur 5%. Würde dich das nicht stören (solltest du ein Raucher sein)?

Und der Bulldozer wurde als Überkiller promotet, mit großspurigen Präsentationen, wo dann der Preis des Intel Systems zum Beispiel künstlich erhöht wurde, indem der Intel Speicher misteriöser Weise das doppelte kostete... Und da gibts noch mehr Beispiele dafür. Dann bekommt das Ding den Namen "FX", ein Kürzel, das zuvor nur bei echten Top-Prozessoren verwendet wurde. Und unter diesem Kürzel vertreibt man Müll wie den den FX-2xxx, der mit ach und Krach mit einem 4 Jahre alten Q9550 mithalten kann. Oder einem noch älteren Q6600.
Die einzige Bezeichnung, den der FX-2xxx verdient hätte, wär "Sempron", und alle anderen "Athlon". Denn den Namen Athlon hat man ja schon zuvor ausgeschlachtet.


aivazi; diese Aussage (NIE NIE WIEDER AMD!) habe ich NICHT wegen der enttäuschenden Leistung des Bulldozer, sondern der verachtenswerten Praktiken der Fa. AMD getätigt.
Ja, ich weiß, die 8800GT wurde von nVidia ausgeschlachtet bis zum geht nicht mehr. Warum auch nicht, die Karte war einfach nur gut. Und es war ein Einzelfall, ansonsten kamen alles neue Modelle. Und seis drum dass sich keine Sau für die BQ interessiert: genau das wollte AMD doch! so haben sie ihre Karten gratis um 5% schneller gemacht als sie wirklich sind. Und dem normaldummuser fällts ja eh nicht auf. Der wundert sich nur, warum das Spiel mit der alten Karte besser ausgesehen hat. Ich bin ein Feind von Kundenverarsche, wie sie eben von AMD betrieben wird. Mir ist es egal was die in Zukunft so bringen, und wenn ich bei Intel mal mehr bezahlen muss als für ein Konkurenzfähiges AMD Produkt (was sie Momentan sowieso nicht haben), bin ich bereit dafür zu Zahlen. Auch Intel hat betrogen und betrügt nach wie vor, aber nicht so unverholen wie AMD.

mfg
 
Zuletzt bearbeitet:
@ Kraligor
Du musst deiner Signatur auch unbedingt gerecht werden, was? :D
 
KainerM
Also ich konnte als kunde um 75 euro Phenom II x2 kaufen, und den dann zum X4 unlocken xD Man konnte sogar Athlon II zum Phenom II x4 erfolgreich unlcocken.
Bei den meisten Phenom II konnte ich meinen Prozessor billig kaufen und selber optimieren xD Also wenn man do it yourself macht, verarscht AMD dich nicht. Nein sie lassen es sogar zu dass du sogar selbst Leistung rausholst.
Bei Intel kann man zwar auch was Freischalten, aber das nur über einen Code den man sich kauflich erwerben muss ^^

Intel hat übrigens auch oft genug die Kunden beschissen, damit will ich gar nicht mal anfangen, nur das AMD kunden so verarscht, dass lass ich da nicht gelten. Da ist eben AMD oder Intel kein deut besser. Und wenn du schon über die Grafikkarten sparte redest, können wir auch wenn du magst über Intels SSD sparte reden, doch wäre das offtopic und will ich gar nicht anfangen!!!
 
Zuletzt bearbeitet:
das einzige was ich entnehmen konnte war, das nicht die i7 limitiert, sondern die Grafikkarte,
also Jacke wie Hose,
jeder der mit hohen Auflösungen spielt, der wird die hohen Vorsprünge die die SBs bei niedrigen Auflösungen leisten
nicht merken und nichts davon haben..

Auch das ist Unfug.

Wenn man im GPU-Limit spielt, dann kann die CPU sehr selten zeigen, was sie kann. Die Momente, wo sie das kurz vermag, sind jene, wo kurzfristig die CPU stark belastet wird (viel KI, Explosionen, sonstige Physik). Wenn nun eine CPU eh schon nahe am Limit läuft und ihr Conterpart noch nicht, das aber durch das GPU-Limt verdeckt wird und nun so eine Phase eintritt, wird die unter LowRes-Benches als schwächer aufscheinende CPU nun einbrechen, während die andere CPU noch ihre Reserven ausspielen kann, sodass sie diese Lastphase abzufangen vermag.

Daher: Eine CPU, die unter 640x460 besser abschneidet, kann solche Situationen besser abfangen. Man kann daher die Rohleistung, die man in niedrigen Auflösungen beobachten kann, sehr wohl auch in hohen beobachten, aber nicht in einem Ausaß, das für einen Test brauchbar wäre (zu viele unsichere Faktoren). Daher bencht man in 640x460.

So einfach ist das, egal, wie oft du das ignorierst.
 
pipip schrieb:
Aber du musst bedenken, dass beim FX 4100 die Geschichte ganz anders aussehen kann. Kleinere DIE Fläche = weniger Verbrauch.
Die Die-Size ist beim FX-4100 genauso groß wie beim FX-8150, da beide auf dem Orochi-Die basieren. Was du meinst, ist eine geringere Anzahl an schaltenden Transistoren.
 
Das ist die derzeitige, unbefriedigende Situation mit begrenzter Produktionskapazität, geringer Ausbeute und vermutlich vielen teildefekten Chips.

AMD wird mit am Sicherheit grenzender Wahrscheinlichkeit kleinere Dies für FX-4 und FX-6 angedacht haben - sonst wäre die Segmentation des L3 Cache in Abhängigkeit von der Modulanzahl recht sinnfrei.
 
Die Momente, wo sie das kurz vermag, sind jene, wo kurzfristig die CPU stark belastet wird (viel KI, Explosionen, sonstige Physik).

richtig. Bei IPC- starken CPUs ist die Leistungs- "Basis" sozusagen wesentlich höher (in Spielen minFPS). Merkt man beim spielen wesentlich deutlicher als ein paar avgFPS mehr oder weniger.
 
Also mal ehrlich! So schlecht, wie BD gerade hier niedergeredet wird ist dieser Prozessor wahrlich nicht. Natürlich hätte ich mir von einer neuen Architektur mehr erwartet aber hier wird ja geradezu so getan, als ob vernünftiges Arbeiten oder auch Spielen nicht möglich wäre. In einigen Benches zeigt der BD doch sein Potential.

Was man AMD aber ankreiden muß ist der dilletantische Support gegenüber Mainboard- und Betriebssystemherstellern. Im HWL-Forum versuchen gerade die ersten "Helden" ihre Kisten einigermaßen lauffähig zu kriegen. Die BIOSe sind offensichtlich noch mehr als buggy. Weiters scheinen die Asus-Testkits der Reviewer auch nicht wirklich 100%ig funkioniert zu haben (P3D). Mich würde es nach derzeitigem Stand gar nicht mal wundern wenn, sagen wir mal in einem Monat, ein erneuter CB-Benchmarkparcour um einiges besser aussehen würde :). Da muß man sich schon fragen, was AMD in der Zwischenzeit gemacht hat, oder? Es war mehr als genug Zeit, Mainboardhersteller mit aktuellen Informationen zu versorgen. Das gleiche gilt für Windows. Wenns da wirklich ein Problem mit dem Scheduler gibt, dann hätte man das vor dem Launch fixen (müssen!). Ich finde es schon ziemlich lachhaft, daß sich erst der Windows 8-Scheduler dem BD annehmen wird.

Nun ja, man wird sehen was die Architektur in Zukunft zu leisten vermag. Meiner Meinung nach hängt das eben nicht unwesentlich von AMDs Softwaresupport für MB/BS-Hersteller ab. Ich denke sehr wohl, daß die Architektur an sich Potential hat.
 
Zuletzt bearbeitet:
Was mir bei dem Test fehlt, ist die Spiele-/Anwendungsleistung bei OC???
 
@Iceberg87

was die Geschichte mim Scheduler betrifft, muss ich dir recht geben, aber soweit ich mich erinnere war das mit dem SMT von Intel genauso , der scheduler von Win Vista konnte nichth perfekt mit dem Sandy arbeiten, aber soweit mich meine erinnerung nicht trügt, ist es so dass der Scheduler von Vista exakt dem gegenteil von win 7 entspricht also, der von Vista ist so wie ihn das CMT von AMD benötigt, kann mich auch irren, wäre aber interessant zu sehen, wenn ein Bully unter Vista eine Mehrleistung aufweißt ^^

@Game Michi: jop mir auch !, es wird ja immer gesagt dass die Leistung des Bullys mit dem Takt linear skaliert, das würde ich gerne sehen :D
 
Zuletzt bearbeitet:
@KainerM

Bedenke das Angst, Hass und Zorn zur dunklen Seite führen könnten.

@Sylvestris

Du musst dich nicht Rechtfertigen einen i5 gekauft zu haben. Ist ja auch ein sehr guter Prozessor. Zu deiner "Basis", wo ist denn das heutzutage denn noch der Fall? Bei den meisten Games kommt es auf die Grafikarte an und auf die Auflösung. Mit meiner Kombi X4 840, 5770, 1900 Auflösung, zock ich alles, auch mit "Explosionen" und die Basis habe ich nie gesehen^^.
 
@ aivazi

was die Geschichte mim Scheduler betrifft, muss ich dir recht geben, aber soweit ich mich erinnere war das mit dem SMT von Intel genauso , der scheduler von Win Vista konnte nichth perfekt mit dem Sandy arbeiten, aber soweit mich meine erinnerung nicht trügt, ist es so dass der Scheduler von Vista exakt dem gegenteil von win 7 entspricht also, der von Vista ist so wie ihn das CMT von AMD benötigt, kann mich auch irren, wäre aber interessant zu sehen, wenn ein Bully unter Vista eine Mehrleistung aufweißt ^^

Kann ich so jetzt nicht bestätigen. Ich hatte bis vor zwei Monaten Vista 64(SP 2) installiert. Konnte nach dem Umstieg auf W7-64bit arbeitsmäßig keine Unterschiede feststellen. Wobei beim Rendering, Audio- und Videoencoden ja ohnehin alle (HT-)Kerne ausgelastet werden. Beim Spielen, wo der Prozi multithreaded derzeit immer noch eher weniger gefordert wird könntest du aber schon richtig liegen :). Wenn da der Scheduler Mist baut, dann kostet das sicherlich einiges an Performance. Habe mal etwas gesucht: Leider gibts keinen Test des BD unter Vista64. Sollte es sich aber tatsächlich als wahr herausstellen daß BD unter Vista flotter läuft als unter W7 hätte AMD aber wirklich den Vogel abgeschossen und sich mangels Support des BS-Herstellers ein Eigentor geschossen. Glauben tue ich es aber eher weniger.
 
Zurück
Oben