Test Test: AMD „Bulldozer“

KainerM schrieb:
Ja, Intel hat seine Vormachtsstellung ausgenutzt, die haben dafür auch eins aufn Deckel bekommen, mehrfach, in Milliardenhöhe. Ich finde dass es mal Zeit ist das AMD wegen seines gewerbsmäßigen Betruges belangt wird.

-Gegen eine Vormachtsstellung aus zu nutzen hat keiner was u. es ist vollkommen legitim. -Nicht jeder kann der beste sein, und die die besser aufgestellt dürfen dieses natürlich auch geniessen.
-Intel hat die Märkte geschmiert, ca. 10 Jahre lang, damit die Märkte keine AMD PC´s verkaufen und so dem Markt zu Ihren gunsten illegal manipuliert. Nur so waren Sie in der Lage auf heute 80% Marktanteil zu kommen, dieses ist bestimmt nicht auf die gute Core 2 Duo u. Sandy Bridge Architektur zurück zu führen. Und Intel hat "nur" darür ca. 2.3 milliarden US $ Strafe bezahlt, 1.3 an AMD, die andere milliarde an das EU Kartellamt. Wenn man bedenkt dass Intel pro quartal ca. 3-4 Milliarden Gewinn erwirtschaften, ist es ein Dreck. -Merkst Du dem Unterschied, zwischen Deiner und meiner Aussage? -Da ist Dein großer Aufschrei dass AMD Kundenverarsche betreibt ein pups gegen.
-Aber ich würde mich freuen wenn wir wieder zum FX kommen würden....das ist eigentl. das Thema.

@Tigerkatze habe wohlgemerkt die Werte aus d. tests genommen, mit pico-NT, undervolten etc. ist noch einiges möglich. Monitor hast du aber vergessen zu nennen...
-Auch wenn Deine Werte sehr gut sind (wenn diese wahr sind), alleine eine einigermassen gute, spielbare Grafikkarte nimmt sich unter Last 75w locker....
 
Zuletzt bearbeitet:
MrFlip0815 schrieb:
.... damit man dem Typen nebenan zeigen kann was man für ein geiler Player ist :D

Flip

Nicht alle. Bei mir wissen die Leute sofort das ich in der absoluten Oberliga spiele :D .

BTT :

Ich dachte die Diskussion um die Trantüte einer CPU Namens Bulldozer wäre -ähnlich den technologischen Leistungen AMD´s der letzten Jahre- endlich eingeschlafen.

Die Möhre ist eine Totgeburt sehts endlich ein .
 
Und ich dachte das ich langsam aber sicher solche Sinnfreien Kommentare nicht mehr lesen muss, es ist wirklich mühsam hier verwertbare Informationen raushzuholen. bzw. der Diskussion zufolgen.
 
Ein ausfühlicher Test und 86 Seiten Diskussion sollten eigentlich jedem gereicht haben zum einzig wahren Schluss über Bulli zu kommen : Er ist ein am Markt vorbei entwickelter Schuss in den Ofen.
 
Ich habe ein Problem mit Leuten, die "einzig wahre" Wahrheiten verkünden. Die Diskussion ist ganz und gar nicht einheitlich, ebensowenig sind es die Tests im Netz.

Was dabei herauskristallisiert ist:
- langsamer als erwartet
- Stromfresser unter Last
- stark in Spezialgebieten
- unklares Potential durch Verbesserungen (Scheduler, optimierte Anwendungen, BIOS-fixes)

Deshalb plädiere ich für: Ball flachhalten, abwarten. In spätestens zwei Monaten wissen wir mehr.
 
KainerM schrieb:
Also. Laut CB-Test stieg die Leistungsaufnahme unter Last mit dem Turbo um satte 9W an. Und die Chipfläche steigt lt. diversen Gerüchten um sagenhaft 5%. Sorry, aber das ist NICHTS! Das ist kein völliger Unsinn, das ist die Realität. Den 9W extra stehen auch 3-8% mehr Performance gegenüber. Deaktiviert man das Feature, so landet man - wunder oh Wunder - gleichauf mit dem i5-2500k (Taktbereinigt). Also ist SMT im schlimmsten Fall ein Feature, das mir egal sein kann.
Ouch.
Um den Turbo geht es erstmal gar nicht.
Es geht um deine definitiv falsche Aussage über HT bzw. SMT.
Die Chipfläche ist definitiv ein wenig größer als wenn man den Chip gleich ohne SMT designed.
Bei Sandy dürften es allerdings unter 5% sein, die galten noch für HT beim Pentium 4, IIRC.
Es würde also nur die Aussage stimmen "Durch SMT steigt die Chipfläche vernachlässigbar gering an".
Wäre das nicht so, dann würde Intels Atom kein SMT implementieren.
Die Aussage, dass die Chipfläche dadurch nicht steigt war, ist und bleibt Unsinn. Punkt.

Die Leistungsaufnahme steigt allein durch die vernachlässigbar größere Chipfläche selbstverständlich auch erstmal nur vernachlässigbar gering an, soweit klar, oder?
Aber das ist ja nicht alles, denn durch SMT will man ja erreichen, dass Ausführungseinheiten mit SMT in Situationen genutzt werden, in denen sie ohne SMT nicht genutzt würden. Aktive Ausführungseinheiten verbrauchen mehr als inaktive Ausführungseinheiten, auch klar, oder?
Da dem Mehrverbrauch aber auch mehr Performance gegenüber steht, passt's eben (ob CMT das Potenzial hat, besser als SMT zu sein oder nicht, sei mal dahingestellt).
Jetzt verstanden? ;)


Was CMT angeht: Wie gesagt, mit Zambezi wirst du niemals einschätzen können, wie gut oder schlecht es sich wirklich auf die Leistung pro Watt auswirkt. (Nochmal: Das Teil hat für Desktops einen übergroßen Die und im Desktopbereich fehlt selbstverständlich noch lange passende Software, die das zumindest teilweise ausgleichen könnte.)
Mit Interlagos schon eher, mit Trinity und dem Nachfolger von Interlagos wahrscheinlich noch besser.
Also abwarten und Tee trinken.
 
Zuletzt bearbeitet:
Die Diskussion beschränkt sich vielleicht auf 10 Seiten? Jeder zweite Post ist doch quasi wie deiner , mimimi Bulli ist schlecht, mimimi ich kauf mir jetzt ein Intel, mimimi ich hab kein Plan aber Bulli ist am Markt vorbei entwickelt.
 
Amando schrieb:
@Tigerkatze habe wohlgemerkt die Werte aus d. tests genommen, mit pico-NT, undervolten etc. ist noch einiges möglich. Monitor hast du aber vergessen zu nennen...
-Auch wenn Deine Werte sehr gut sind (wenn diese wahr sind), alleine eine einigermassen gute, spielbare Grafikkarte nimmt sich unter Last 75w locker....
Hi Amando!
Gebe gerne zu, daß mein System weitgehend auf Stromsparen ausgelegt ist. (wobei noch nicht alle Optionen gezogen sind oder werden, z.B.undervoltet habe ich noch nie, war nicht nötig) Da es aus Arbeitsgründen manchmal sehr lang oder wenn eine kurzfristige Deadline gesetzt wird auch mal rund um die Uhr an ist, ist der Verbrauch nicht völlig unwichtig. Darum habe ich auch den Zwofünf genommen, der hat genug Leistung für die nächsten paar Jahre und einen geringeren Verbrauch als der i7, der bei den von mir benötigten Anwendungen nicht soweit vor dem 2500K liegt, als das der Erwerb des Zwosechs wirklich Sinn gemacht hätte.

Wenn Du relativ viel spielst, ist eine starke Graka mit ihrem Verbrauch natürlich Pflicht. Ich spiele auch, so etwa 10-15% der Gesamtzeit am Rechner, aber da ich hauptsächlich ältere Spiele habe und was Neue angeht, eh keine der Grafikkartentodspiele hole, nutze ich die iGPU HD3000, was sich schon stark auf den Verbrauch auswirkt.

Dieser Bereich "Stromsparen" ist für mich auch der größte Kritikpunkt am Bulli. Über die Architektur läßt sich streiten, da sich da trotz Problemen einige wirklich interessante Ideen zeigen, nur der Verbrauch ist definitiv jenseits von Gut und Böse. Ein Chip mit soviel Potential, der so wenig davon rausholt, bei so hohem Verbrauch, das ist einfach nix. Hoher Verbrauch bei hoher Leistung ist unschön, aber akzeptabel, solange ein gewisser Rahmen nicht gesprengt wird. Nur zeigt Bulli meist eher schwache Leistung bei exorbitantem Verbrauch, es sei denn, er wird mit Spezialanpassungen gehätschelt. Aber eine Top-CPU muß es auch halbwegs krachen lassen, wenn die Anpassungen fehlen. Die Sandies konnten das bei ihrer Einführung ja auch und obwohl sie schon (für CPU-Verhältnisse) "lange" erhältlich sind, bleiben sie konkurrenzfähig.
 
Zuletzt bearbeitet:
Kraligor schrieb:
Was dabei herauskristallisiert ist:
- langsamer als erwartet
- Stromfresser unter Last
- stark in Spezialgebieten
- unklares Potential durch Verbesserungen (Scheduler, optimierte Anwendungen, BIOS-fixes)

Was dabei herauskristallisiert ist:
- langsamer als erwartet (in Spielen)
- Stromfresser unter Last (nicht in allen Tests, Heise hat mit 200 Watt, z.B. 10 % weniger als Thuban gemessen)
- stark in Spezialgebieten
- unklares Potential durch Verbesserungen (Scheduler, Kernabschaltung und 4M/4C, optimierte Anwendungen, BIOS-fixes, Nortbridge Übertaktung, 1600er Speicher, optimaler Multi, synchrone Taktung NB/HTT)

Mit anderen Worten das Teil ist unausgegorenen und schlecht ausbalanciert. Die Rechenkerne verhungern z.T., die Caches brechen z.T. unter falschem Multi zusammen und Cores behindern sich gegenseitig.
 
-=Azrael=- schrieb:
Die Diskussion beschränkt sich vielleicht auf 10 Seiten? Jeder zweite Post ist doch quasi wie deiner , mimimi Bulli ist schlecht, mimimi ich kauf mir jetzt ein Intel, mimimi ich hab kein Plan aber Bulli ist am Markt vorbei entwickelt.

Ne ..mein "mimimi" ist das :
"Ich-bin-der-wahrscheinlich-technisch-versierteste-Benutzer-im-Thread-will-aber-den-Verständniss-Verweigerern-nicht-alles-zum-hundersten-mal-erklären"-mimimi.

Die immer wieder kehrenden Scheduler- und Mehr-Thread-Geschichten könnt ihr jemand anderem erzählen da es nicht begründet warum ein Unternehmen mit ~20% Marktanteil meint Mäßstäbe setzen zu können auf die sich dann die Softwareindustrie einstellen soll.

Am Ende wird seitens AMD dann wieder versucht sich darauf herauszureden ja nur der arme Underdog zu sein welcher unter der bösen übermächtigen Konkurrenz leidet und daher eine in der Theorie "super fortschrittliche" Prozessorarchitektur nicht durchgesetzt haben zu können.
 
Zuletzt bearbeitet:
-=Azrael=- schrieb:
Die Diskussion beschränkt sich vielleicht auf 10 Seiten? Jeder zweite Post ist doch quasi wie deiner , mimimi Bulli ist schlecht, mimimi ich kauf mir jetzt ein Intel, mimimi ich hab kein Plan aber Bulli ist am Markt vorbei entwickelt.

Ja genau so siehts aus, wäre mal angebracht wenn ein Mod hier aktiv wird. Macht echt kein Spaß hier mehr weiterzulesen... :( Jeder zweite Beitrag Offtopic...
 
Was dabei herauskristallisiert ist:
- langsamer als erwartet (in Spielen)
- Stromfresser unter Last (nicht in allen Tests, Heise hat mit 200 Watt, z.B. 10 % weniger als Thuban gemessen)
- stark in Spezialgebieten
- unklares Potential durch Verbesserungen (Scheduler, Kernabschaltung und 4M/4C, optimierte Anwendungen, BIOS-fixes, Nortbridge Übertaktung, 1600er Speicher, optimaler Multi, synchrone Taktung NB/HTT)

Mit anderen Worten das Teil ist unausgegorenen und schlecht ausbalanciert. Die Rechenkerne verhungern z.T., die Caches brechen z.T. unter falschem Multi zusammen und Cores behindern sich gegenseitig.

Hir Querty08,

genug diese Problematik der Unausgereiftheit hatte ich bereits gestern hier angesprochen. Und hier scheint noch einiges im argen zu liegen. Ich habe ja noch kleines AM3+-Brett nebst Speicher hier rumliegen (für unseren Zweit-PC). Jo, eigentlich sollte da der FX-6100 drauf, aber das klappt wohl nicht wirklich. Laut einigen im HWL-Forum, hält das gute Teil seinen Takt nicht - und das selbst unter Vollast. Benchen wird so beinahme unmöglich. So werde ich wohl noch etwas warten (müssen), bis die ganze Sache stabiler wird.

Eins muß ich AMD aber bereits jetzt ankreiden - ich sags nochmal: Sollte sich wirklich rausstellen, daß durch fehlerhafte BIOSe, Patches, BS-Verbesserungen usw. Leistung im zweistelligen Prozentbereich versemmelt wurde dann hat AMD diesen Launch selber gründlich verhauen. Die Probleme des Bullies mit aktuellen Betriebssystem und Software dürften ja seit Anfang des Jahres bekannt gewesen sein. Und die BIOSe und UEFIs sollten in der Zeit auch locker solide laufen. Hier hat AMD ganz einfach geschlafen und sich womöglich ein Eigentor geschossen, sorry. Dem FX-Kürzel hat dieser Launch jedenfalls fürs erste nicht gut getan - die Marke FX wurde jedenfalls ersteinmal nicht unerheblich beschädigt.

Man sollte aber auch das Positive sehen: Es gibt ein enormes Verbesserungspotential :). Davon bin ich fest überzeugt.
 
Zuletzt bearbeitet:
Caanon schrieb:
Es geht um deine definitiv falsche Aussage über HT bzw. SMT.
Die Chipfläche ist definitiv ein wenig größer als wenn man den Chip gleich ohne SMT designed.
Bei Sandy dürften es allerdings unter 5% sein, die galten noch für HT beim Pentium 4, IIRC.
Es würde also nur die Aussage stimmen "Durch SMT steigt die Chipfläche vernachlässigbar gering an".

Öhm. Kennst du die Bezeichnung "i-düpfterl-reiter"? Was ist der Unterschied zwischen "nichts" und "vernachlässigbar"? Kleiner Tipp: sogar in der einzig genauen Wissenschaft, der Mathematik, wird, so man etwas vernachlässigt, jener Teil wie "nichts" behandelt. Dass ich für einen Zusatzaufwand in einem Chip mehr Transistoren brauche, ist klar. Aber nach der Definition von nichts kann etwas, das "nichts" ist, auch einfach irrelevant klein sein. Alles weitere geht dann allerdings ins Philosophische über und hat nix mit der Korrektheit meiner Aussage mehr zu tun.

Und ja, ich hab mich doch tatsächlich vertippt und "Turbo" statt "SMT" geschrieben. Der Text bezieht sich jedoch auf SMT.

mfg
 
aivazi schrieb:
Nvidia hat ja net ein und die selbe Karte über 3.Generationen verkauft, und um dir auf die Sprünge zu helfen... damit meine ich die 8800GT und die 9800GT und die GTS250

Das ist FALSCH.
Die GTS 250 hat mehr Shader als eine 8800/9800 GT.

Gruß
 
@KainerM: Mag ja sein, dass man hier bei dem Mehr an Chipfläche quasi umgangssprachlich von nichts reden kann. Andererseits liest vielleicht der ein oder andere deinen Post und versteht das nicht, weil er sich mit SMT noch überhaupt nicht beschäftigt hat. (Ist ja auch nicht uninteressant, dass man durch geringfügig größere Chipfläche deutlich mehr Leistung erreichen kann.)
Also ist hier etwas mehr Genauigkeit sicherlich nicht unangebracht.

Aber beim Verbrauch kann man schon nicht mehr von nichts reden. ;) Der steigt ganz klar an (wenn auch nicht dramatisch), wenn SMT auch genutzt wird, bloß dass sich der Mehrverbrauch ja auch lohnt.
 
@Graf-von-Rotz
Lächerlicher geht es wohl nicht mehr.
Alleine an der Tatsache das du versucht mir irgendwas von Threading/Scheduler in den Mund zulegen, bezweifle ich das du auch nur ein technisches Dokument zu Bulldozer verstehen würdest.
 
Zuletzt bearbeitet:
Ich frage mich wie man eine Server CPU entwickeln kann, diese dann auch noch am Markt etablieren möchte, aber nicht fähig ist auch nur ein Testsample der, meines Wissens, größten Linux Benchmarkcommunity (Phoronix) zukommen zu lassen. Selbs nach Anfrage von Phoronix nicht.
Ich meine Supercomputer laufen zu 90% auf Linux, klar mit sehr zugeschnittenen Kernel.
Die Zahlen für Server allg. gehen ein wenig auseinander, aber in grober Schätzung sind 70% der Web- und Fileserver Linuxbasierent. Firmeneigene Server hingegen 70% Win.

Was ich damit sagen will ist, dass ich dieses Missmanagement nicht verstehe. Es gibt glaube keinen dankbareren Bereich als die Linuxianer. Weil selbst wenn der Kernel erst mal nicht so klar kommt mit einer neuen CPU, gibt es unmengen von Programmiere für die es eine freude wäre Linux auf den Bulli anzupassen. AMD würde also die Entwicklungsarbeit in diesem Bereich, freiwillig, komplett abgenommen bekommen. Aber selbst das bekommt man nicht hin.
Kann einfach nur mit dem Kopf schütteln.
 
Zurück
Oben