Bulldozer CPU's komplett ausverkauft!

Wobei der I3 nur die Hälfte Strom benötigt für dieselbe Leistung, und noch für den Notfall eine integrierte Grafik bestitzt, welche man durchaus für anspruchslose Tätigkeiten verwenden kann.
 
es gibt doch einige Szenarien wo der FX nichtmal so schlecht dasteht und zwar wenn man die 8 kerne voll nutzen kann, es dauert Jahrzehnt bis sich der geringere verbrauch des 2600K gegenüber des deutlich höheren kaufpreises rentiert hat.

Überlege grade für nen Kumpel so einen Server mit 2*G34 zusammenzustellen
 
Knuddelbearli schrieb:
es gibt doch einige Szenarien wo der FX nichtmal so schlecht dasteht und zwar wenn man die 8 kerne voll nutzen kann, es dauert Jahrzehnt bis sich der geringere verbrauch des 2600K gegenüber des deutlich höheren kaufpreises rentiert hat.

Überlege grade für nen Kumpel so einen Server mit 2*G34 zusammenzustellen

Stimmt nicht habs ausgerechnet nach einem Jahr hast du die CPU schon draußen und nach 2 Jahren schon Geld gespart. Behauptet doch nicht immer sachen bevor ihr euch informiert.
 
die rechnung will ich bitte mal sehen ;-)

es sind 1,5 jahre bei 100% vollast 24/7 aber selbst server laufen das nicht ansatzweise, im idle verbrauchen sie gleichviel, zum günstigeren CPU Preis darf man den Mb Preis natürlich nicht vergessen ( und auch noch abgesehen davon das mangels Verfügbarkeit der AMD mom min 20€ zu teuer ist, Listenpreis unterschied sind 73$ )
 
Zuletzt bearbeitet:
@Knuddelbearli: Für dein Einsatzgebiet könnte AMD durchaus günstiger sein, wenn die Aufgaben auf dem Server wirklich von allen Kernen gebrauch machen können.
 
Vitec schrieb:
Für alle AMD-FANS:
http://www.legionhardware.com/articles_pages/amd_fx_8150fx_8120fx_6100_and_fx_4170,3.html
So könnte es aussehen wenn den irgendein Programm auf den Bulli mal hinoptimiert wird...
So könnte es aussehen, wenn man nichts zum Testsystem schreibt. Für mich sehen die Ergebnisse verdammt danach aus, daß BD mit dedizierter Grafikkarte und die Intels mit integrierter Grafik getestet wurden. Beim Grafikbenchmark Viewperf natürlich ein toller Vergleich, so kann man sich eine CPU auch "Schönbenchen".
 
Laut Systemspecs war angeblich überall die gleiche GTX580 verbaut, zumindest hab ich das dort grad rausgelesen. :p

Ich persönlich halte aber den Benchmark selbst in nem Vergleich von CPUs für etwas unpassend.
 
Also wenn ich Millionär wäre und mir um lapidare Dinge wie Strom keine Sorgen machen müsste, würde ich auch direkt ne ganze Palette von denen ordern. ;)
 
Naja ich denke schon, dass die Welt besser bedient ist wenn dieser Sondermüll erst gar nicht in allzu argen Stückzahlen produziert wird. ;)
 
Ah, entdeckt. Safari auf dem Mac hat mir die Links und das Dropdown Menu komischerweise unterschlagen.
Eines stimmt in jedem Fall, für die Beurteilung der CPU Leistung ist dieser Bench eh denkbar ungeeignet, da es ein Grafikbenchmark ist.
Was ich mich allerdings auch frage ist, was dort schief gelaufen ist. CPU/GPU @Default Clocks, also z.B. mit einer deutlich geringer getakteten Grafikkarte komme ich auf andere Ergebnisse, siehe Anhang. Wenn ich zum Benchen übertakten würde, vor Allem die GPU, würde das Ergebnis der BDs vermutlich pulverisiert werden.
 
Lustig finde ich ja die Abteilung "Overclocking Performance"
http://www.legionhardware.com/articles_pages/amd_fx_8150fx_8120fx_6100_and_fx_4170,8.html

Da wurde nur der BD Übertaktet, um zu versuchen, ihn besser gegen den Core i5 2500K und i7 2600K da stehen zu lassen.

Normalerweise hätte man die Intel CPU's auch Übertakten müssen, aber dann wäre ersichtlich geworden, das der BD weiter Chancenlos hinterher hechelt und intel im moment einfach das bessere P/L Verhältnis hat.

Aber immerhin ist AMD nun auf dem stand des alten P4 Prescott, der war ja auch ein Hitzkopf ohne gleichen, also kann es für AMD nur noch aufwärts gehen und in ca. 7 Jahren (2004 erschien der Prescott) sind sie da, wo intel mit Sandy Bridge heute ist :lol::evillol:
 
Das Problem bei AMD ist wirklich die Entwicklung nachzuvollziehen ... damals mit quasi leeren Finanztaschen brachte man einen Kracher nach dem nächsten raus ..zuerst den Athlon XP, dann den Athlon 64 ..man verdiente also Geld ...

Nachdem man nun Geld erwirtschaftet hatte, und eigentlich noch viel besser hätte agieren können, passierte genau das was im Grunde kein Mensch versteht ..es kam gute 6 Jahre keine mit der Intel Entwicklung gleichwertige, oder gar bessere Innovation.

Man könnte wirklich den Eindruck bekommen man hätte sich bei AMD, mal abgesehen von dem ATI-Kauf, auf den erwirtschafteten Finanzen ausgeruht und der Vorstand wäre 6 Jahre in Urlaub geflogen. ^^
 
T3mp3sT1187 schrieb:
Dabei frag ich mich, wieso man die kaufen sollte?! Bei doppelter Anzahl an Transistoren mit maximalem Stromverbrauch weniger Leistung als Sandy Bridge zu erreichen, warum will man sowas dann?!

Die nimmt man, wenn man noch ein dafür taugliches Mainboard hat. Bei AMD gibts nicht so einen ständigen neuen Sockelzwang.
 
Zurück
Oben