Test Test: AMD „Bulldozer“

Ja, hab das schon alles gelesen, deswegen schrieb ich ja, das es toll wäre, wenn die Redaktion das mal nachprüfen würde. Irgendwo hängt es und zwar ganz gewaltig. Es wäre nur mal toll, zu erfahren, wo das Problem eigentlich ist^^
 
gibt es eigentlich mal nen test wo man ein anderes 990 board genommen hat?
 
Dazu muss man dann sagen das derjenige halt sich was zusammengefrickelt hat und offenbar durchaus deutliche Optimierungen vorhanden sind.

Stimmt schon, aber die 40% sind sogar mehr als die größten Optimisten bisher vorgerechnet hatten und ich halte das für "leicht" unglaubwürdig!

Was bei der ganzen Sache auch mit den Mainboards so eine Sache ist, scheinbar ist der BD z.b. auf dem Asrock zwar in einigen Applikationen schneller, verbraucht aber auch gleich nochmal mehr Strom in allen Lebenslagen.
Beim Asus ist er langsamer, aber der Stromverbrauch hält sich vergleichsweise in Grenzen.
Bei Gigabyte und MSI scheint irgendwie gar nichts richtig zu funktionieren, bzw. die stecken irgendwo in der Mitte zwischen guter Leistung und Stromverbrauch!

Nun stecke ich in der Zwickmühle zu überlegen welches Board man denn nun zum BD bestellen soll?
Offenbar hat das doch etwas sinnvolles das Asus Board zu nehmen, denn mir kommt es fast so vor als ob der BD mehr Strom verbrennt, je mehr Leistung er bringt, bzw. bringen muss. Was ja logisch wäre, aber in dem Fall bedeutet das da für meinen Geschmack wieder ein Fader Beigeschmack bleibt:
Hat AMD für die Reviews mit Absicht auf Leistung verzichtet, um nicht komplett Abgestraft zu werden in Sachen Stromverbrauch?
Nach dem was man so liest, könnte man zu dem Schluss kommen. Was in umgekehrter Folge heissen könnte, das diese Patches nur dafür sorgen das die Leistung Pro Watt eher noch schlechter dasteht als ohnehin schon!

@Sebi100: Auf Hardwareheaven z.b. und bei Overclock3d (war das glaube ich) gibt es eine Liste mit Reviews.
 
Zuletzt bearbeitet:
danke fischkopp.

Ich muss nämlch sagen trotz der etwas schwächeren (in meinen augen etwas) Leistung finde ich den bulldozer dennoch interessant. Desweiteren hjat amd irgend so ein dokument veröffentlicht in dem etwas über den B3 (oder heißt dort bei amd das stepping anders) stand. Wäre natürlich interessant. Aber wie dem auch sei... der bulldozer ist interessant... wäre dieser doch hohe verbrauch nicht
 
Leute chillt doch mal xD Die meisten die hier aufregen, haben nicht mal eine langsame CPU. Das finde ich so lächerlich von euch xD. Das einzige jz den großen Macker spielen müssen.
1. Wenn jemand der Meinung ist sie müssten den FX 8150 oder ähnliches kaufen, ist das legitim. Denn keiner kann sagen ob der nicht in 1-2 Jahren sogar den vollen nutzen hat, vllt durch bessere Software irwann mal den 2600k sehr nah rankommt. Und kommt mir jz nicht behinderten games pls.... Auch Starcraft 2 kann man spielen, das ist eine Geschichte sry. Das bekackte game kann ich sogar mit einem alten athlon spielen...
BD oder SB ist doch für die interessant, die noch mit einen alten Athlon oder Pentium herum geistern.

2.Weiters, falls das mit den ASUS board stimmt, geht das testen auch nicht von heut auf morgen... geduldet euch doch einmal, das hat ASUS/AMD dann verpatzt, und mit solchen Ausrutscher muss man halt ne weile leben falls es stimmt.
Combuterbase ist ja schnell beim Fehler auffinden sieht doch damals "6870" ...
Ich zumindestens, mach mir für den Nachfolger keine Sorgen mehr, wenn der Turbo 3.0 wirklich so funktioniert wie ich gelesen habe. Da wird man SB kaum noch was nachstehen.
 
Zuletzt bearbeitet:
Fischkopp schrieb:
Nun stecke ich in der Zwickmühle zu überlegen welches Board man denn nun zum BD bestellen soll?

Ich würde abwarten, mindestens zwei Monate, bis dahin sollten

1.) die Preise für den BD deutlich gefallen sein und
2.) technische Unzulänglichkeiten (zumindest was die angeblichen Performanceprobleme bei den ASUS-Boards angeht) geklärt und behoben sein.
 
Mal wieder lustig Graka Verbrauch mit CPU Verbrauch zu vergleichen.
Mich würd mal interessieren wieviel Kerne in den Spielen verwendet wurden?
Wie hoch war dabei der CPU Takt?
Wie hoch war der Verbrauch zwischen Intel und AMD?
Wie gut ist die Leistung bei festem Takt z.b.4GHZ,bei ner vernüftigen Auflösung die zu 90% genommen wird (ich denk mal das wird die 1920x 1080 sein)mit ein wenig AA und AF,allso reale Spieleeinstellungen.
Wie ist da der Verbrauch?
Ich bin mir sicher das man so kaum was merken wird.
 
blackiwid schrieb:
Du bestätigst ja grad meine These, in dem Test ist keine der getesteten CPUs spielbar, min-fps < 30 , von daher scheint wohl hier die Grafikkarte das Problem zu sein, die hd 6970 scheint wohl zu limitieren.
Sprichst du von Starcraft 2? Da kommt eine GTX 480 zum Einsatz und die bremst nicht, die Min-Fps sind CPU-limitiert.
blackiwid schrieb:
Finde es eh interessant das du jetzt plötzlich einen Test heraus holst mit hoher Auflösung und Max-details, mit solchen einstellungen gibt es ja auch tests wo der Bulli schneller ist wie jeder Intel prozi, die werden dann ja immer als nichtssagend hin gestellt, weil da ja die gpu limitieren würde und die paar fps drüber wären dann Messungenauigkeiten.
Natürlich sind CPU-Tests im Grafiklimit nicht aussagekräftig.
blackiwid schrieb:
Außerdem hat glaub PCGH auch noch mit dem kaputten ASUS Mainboard getestet, daher sind die Aussagen nicht wirklich viel sagend.
Mit anderen Board wird der FX auch nicht schneller ...
 
SMT braucht aber weder mehr Strom noch mehr Chipfläche.

Doch, es braucht mehr Strom und mehr Chipfläche als ein Chip ohne dieses Feature aufweisen würde. Allerdings ist dieses "Mehr" von einem eher geringem Umfang. Prozentzahlen muss ich nachschauen.

EDIT: Chipfläche so irgendwas zwischen 1% und 2%, etwa 5% mehr Transistoren.
 
Zuletzt bearbeitet:
Würde bis weihnachten warten, weil der FX 8170 einen turbo auf 4,5 ghz hat, und von anfang an einen Takt von 3,8 ghz oder ähnliches. Hat ja ein Grund warum es neues Stepping gibt.
Eigentlich hat man bis auf den FX 8150 nur einsteiger CPUs der Serie gezeigt. FX4100 und FX 6100 sind weit aus langsamer als die 150 und 170 versionen. Dafür sind sie in einer 95 watt tdp klasse. Und für mich eigentlich Interessant.
Lustig ist dass man eigentlich
Für die 10% weniger Leistung würde ich aber mich für den FX entscheiden.

y33H@
schon getestet ?
 
Zuletzt bearbeitet:
U.a. haben HT4U ein MSI 890FXA-GD70 genutzt und das war genauso schnell wie das C5F. Das 990FX-UD5 hier performt ebenfalls wie zu erwarten. Dass ein bestimmtes Board den FX flotter machen soll, ist Strohalm klammern wie es zuvor AGESA, BIOS oder der Scheduler waren ...
 
Mal wieder lustig Graka Verbrauch mit CPU Verbrauch zu vergleichen.

Wenn zwei Systeme bei denen bis auf Mainboard und CPU die selben Komponenten verwendet werden unterschiedliche Stromverbräuche aufweisen, woher soll das mehr an Stromverbrauch kommen wenn nicht von der CPU/Mainboard Kombi? :rolleyes:
Wie gut ist die Leistung bei festem Takt z.b.4GHZ,bei ner vernüftigen Auflösung die zu 90% genommen wird (ich denk mal das wird die 1920x 1080 sein)mit ein wenig AA und AF,allso reale Spieleeinstellungen.

Edit: Meine realen Spieleinstellungen sehen z.b. völlig anders aus ;)
Das ist völlig latte, weil da die GPU limitiert.
Anders sieht es dann aus, wenn eine CPU bei den Min. Frames ins CPU Limit kommt!

Ein wirklich interessanter Test wäre es, wenn man ein SLI/CF System nehmen würde, denn dann würde man sehen können wieviel Zukünftig, wenn Single GPUs so schnell wie aktuelle SLI/CF Systeme sind, von der Leistung der CPU übrig bleibt!

Darum wird auch mit kleinen Auflösungen getestet, da es dort kein GPU Limit gibt, also simuliert man im Grunde wie gut die CPU mit stärkeren Grafikkarten als den aktuell benutzten skaliert!
Stichwort Zukunftssicherheit usw.!

Wer das nicht in seinen Kopf bekommt, sollte sich zum Daddeln lieber eine PS3/Xbox kaufen!
Die sind tlw. sogar billiger als der Top BD alleine und reichen auch völlig zum spielen ;)
 
KainerM schrieb:
SMT braucht aber weder mehr Strom noch mehr Chipfläche.
Völliger Unsinn.
SMT braucht durchaus ein wenig mehr Chipfläche und sorgt dafür, dass die Ausführungseinheiten häufiger genutzt werden können, was aber auch zu höherem Verbrauch führt.
Aber dem Mehr an Verbrauch steht selbstverständlich auch ein Mehr an Performance gegenüber. ;)

Wie gut oder schlecht sich CMT auf die Leistung pro Watt wirklich auswirkt, wird man mit Zambezi nie und nimmer einschätzen können, da dessen Die eigentlich für Interlagos gemacht wurde und für Desktops daher wohl übergroß ist.
Trinity dagegen wird gerade in Notebooks wahrscheinlich glänzen.


han123 schrieb:
Anscheinend kann der Bulldozer um einiges schneller sein als der 2600k. In einigen Foren, dass das Testbios auf dem Asusboards buggy ist und einige haben mal ein bisschen rumgespielt und mit ein paar Tweaks fängt der Bulli an zu rennen. Schaut selbst. Wäre nett, wenn computerbase das mal nachprüfen könnte.

Klick

Deutlich vor dem 2600k beim Rendern und bei Videosachen. Der Typ schreibt, dass die Benchmarks schrott sind, aber die Erklärung finde ich dann schon merkwürdig.

Und der Stromverbrauch scheint auf anderen Boards auch zu sinken.

Wäre echt super, wenn die Redaktion dem mal nachgehen könnte!
Lies dir mal die Kommentare in dem Blog durch, den du da verllinkst.
Bulldozer hat zwar durchaus das Potenzial in einigen Anwendungen bei besonders optimierter Nutzung seiner Module mehr Performance zu haben, als der 2600k. Aber das werden dann eher 5 bis 10% sein und das war's dann auch schon.
Aber der Typ von dem Blog stellt es so dar, als wären da noch anderthalb mal soviel Performance drin. :rolleyes:
 
y33H@
sry aber hier wurde lediglich der Speicher verglichen ?? das soll aussagekräftig für den ganzen test sein. Der 1% unterschied. was ist wenn die Speicheranbindung die reduzierte Leistungung bringt ???? kann ja genauso sein. Somit würde deine Behauptung die These eines beschissenen Boards sogar unterstützen.
und eben das den Unterschied zwischen 900 und 800 Serie machen...
Aber soweit wollen wir nicht denken, leiber damit als done abstempeln was ?
Übrigens ist das MSI 890FXA-GD70 ein AM3 Board. Mit den ich sogar schlechtere Werte erwartet. Doch sieht man anscheinend keinen Leistungsunterschied ...

Ich für mein Teil sage nicht dass alle Test nicht mehr gelten, doch bin ich schon dafür dass man bestimmte Unstimmigkeiten nachprüfen sollte. Egal welche Firma das betrifft...
 
Zuletzt bearbeitet:
gewissen Redakteuren mit Intelbrille würde ich sowieso nicht soviel Glaubwürdigkeit zugestehen

Ich denke, solche Aussagen (Provokationen?) sind nicht angebracht. ;)
 
gewissen Redakteuren mit Intelbrille würde ich sowieso nicht soviel Glaubwürdigkeit zugestehen

Aber Planet3Dnow und Rage3D sind besser?
Wenn ich deren Testberichte und vor allem bei den Grünen im Forum lese was die Redaktuere tlw. ablassen würde ich nichtmal ansatzweise auf die Idee kommen mir irgendwas von AMD zu kaufen, da dort selbst noch Schei... schön geredet wird!

Wenn man nach denen geht war sogar der Phenom I eine ganz tolle CPU, die nur durch Intel Jünger runtergeputzt wird und in die falsche Welt hineingeboren wurde!

Darum habe ich die Seite auch nie wieder betreten, obwohl ich selbst mal AMD Fan war und das vielleicht durch den BD sogar wieder werde.
 
@ pipip

sry aber hier wurde lediglich der Speicher verglichen ??
Nein! Lies doch bitte einfach was steht und schau dir die Messwerte an, so schwer kann das doch nicht sein ...

HT4U schrieb:
Um dennoch sicher zu sein, dass es keine Unterschiede bei gleichen Settings gibt, haben wir sowohl auf der AM3+-Plattform als auch auf der älteren AM3-Plattform unseren Benchmark-Parcours absolviert.

Einmal das Asus C5F und einmal besagtes MSI 890FXA-GD70, nahezu gleiche Performance mit minimalem Benefit für das 990FX. Das Gerücht, AMD hätte mit dem C5F ein Board beigelegt, das deutlich schlechter performt als andere Platinen, halt ich u.a. aufgrund dieser Messungen für Unfug. Und wie gesagt, auf zB dem UD5 wird der FX auch nicht *plopp* 20% schneller ... er erreicht immer die Leistung, die AMD selbst im Reviewer's Guide angibt.

2011-10-16_133512_cr.png
 
Zuletzt bearbeitet:
Zurück
Oben