Test AMD Bulldozer im Test: Ein schwarzer Mittwoch

pipip schrieb:
Hm ich mein, dass die Realität den wünschen selten gerecht wird ^^ ist schon klar.
Aber hier wird zu sehr verallgemeinert.
Ich sag nur eines. Um eine Technik zu bewerten, bedarf es mehr als nur Tests von Hardware seiten. Das sieht man meist im Forum, wenn man für verschiedene Leute, mit verschiedenen Bedürfnisse die optimalsten Systeme sucht. Somit wie sich dieser Prozessor sich jz machen wird, wird man erst in Laufe der Zeit sehen. So schlecht wie jz viele tun ist dieser Prozessor nicht. Bsp bei BF BC 2 sieht man dass Bullozer mit einem 2600k konkurrieren kann. Bei BF3 könnte es sogar besser sein.
Im idle hätte ich mir etwas weniger gewünscht. Vom Verbrauch bin ich nicht verwundert.
Würde ich mir jz einen PC kaufen Würde ich mir ein MSI 760 oder ein 970iger Board und einen FX4000 kaufen. (das wären ca 150 euro) Denn könnte ich bei Bedarf noch sehr an seine Grenzen bringen, wäre für mich eine interessantere Version gegenüber dem i3.
Denn ich bin ein sehr großer freund von K10state, und kann mir hier selber alles schön einstellen.
Doch muss sich erst herausstellen wie gut dieser ist. Aber vllt werde ich das bald sehen, denn ein Kumpel liebäugelt schon mit diesen.

Irwie wird aber auch der Schrei nach einen A8 3870 groß, ohne igp. Dieser dürfte auch nicht schwer zu produzieren sein, und man könnte die Spannung von Anfang an etwas niedriger ansetzen
amd kauft in letzter zeit häufig ein.

www.hardocp.com/article/2011/10/03/battlefield_3_open_beta_performance_image_quality/2

battlefield 3, dirt3, formel 12011, deus ex

immer dieses rote logo, evolved amd
Das nvidia logo sehe ich dagegen kaum noch.
 
@pipip:
Ich finde, dass Du z.T. Recht hast... Die neue Architektur wird ihr richtiges Potential erst noch entfalten.
Aber ähnlich argumentiert hatte man schon bei den 6 Core CPUs von AMD.
Leider nehmen Multithread-Anwendungen nicht in dem Maße zu, dass der BD davon profitieren kann.

An Liano bin ich persönlich nicht interessiert.
Eine externe GPU werde ich immer bevorzugen.
AMD hat hier aber, anders als beim FX 8150, aus meiner Sicht gute Arbeit geleistet....
Schade das GF nicht mit der Produktion die aktuelle Nachfrage bedienen kann.

Ich bin immer noch geschockt über den Test des FX 8150.... :(
Der hätte mich schon interessiert...
 
Topas93 schrieb:
Sie haben sich nun mal mit den FX n dicken Patzer erlaubt. und es ist auch gut so dass Pilediver schon im frühjahr kommt(man bedenke wie lange sich der PhenomI durchschlagen musste)

Wer's glaubt.
Wer sich den Bulldozer anschaut,der merkt schnell das größere Performancesteigerungen nur über deutlich mehr Takt gehen.Wenn man jetzt die gezeigte Leistungsaufnahme im Auge behält und bedenkt das es von 32nm auf 28nm ein eher kleinerer Schritt ist,fällt's schwer an größere Sprünge zu glauben.Intel hat diese Sackgasse nicht umsonst wieder verlassen.Auf speziell angepasste Software zu hoffen ist,zumindest "kurzfristig",eher Wunschdenken.




Hawk1980 schrieb:
In BC2 macht der Bully eine recht gute Figur(Siehe Test PCGH) trotz, dass das Game nur eine bis zu maximal 6 Kerne Skalierung mit sich bringt.
Was sich mit Sicherheit in BF3, und zukünfigen Games ändern wird. (Glaskugel aus).

Ich glaub kaum das Konsolen in naher Zukunft mit derartiger Hardware bestückt werden. :D
Außerdem lassen sich Spiele nicht sinnvoll endlos parallelisieren.
 
Wie zu erwarten war wird der "Bulldozer" seinem Namen voll gerecht
und macht jetzt erst einmal die gesamte Intel-Konkurrenz platt.

Falls ich mich irren sollte, kann man das Ding ja immer noch
in "Dreirad" umbennen.
 
Zuletzt bearbeitet:
Traurig ist, dass es AMD seit 2006 (C2D) nicht auf die Reihe bekommt gescheite Prozessoren zu bauen. Davor hatten sie´s nicht nötig gehabt die Architektur zu ändern, da man schneller als Intel war und sich so auf seinen Lorbeeren ausruhen konnte. Aber spätestens mit dem erscheinen des C2D hätte AMD den Knall hören müssen. Doch statt ähnlich stromsparende Modelle zu entwickeln (wovon AMD auch im Laptopbereich profitieren würde) kommt nun so was bei raus. Acht Kerne die von kaum einer Software genutzt wird. Dafür alles andere als stromsparend.
Das Schlimme an der Sache ist nun, dass nicht nur die Prozessorpreise der Intel CPUs steigen werden, sondern das sich Intel auch mit Innovationen zurückhalten wird, um AMD nicht ganz zu ruinieren. Denn dann wäre Intel Monopolist (wie ehemals AT&T) und müsste damit rechnen zerschlagen zu werden.
 
Falsch, AMD braucht Intel und Intel braucht AMD. ;)

Die beiden tauschen doch schon seit Jahrzenten Informationen untereinander aus und teilen sich den Server-/Consumer Markt auf.

zB
AMD testet für Intel den integrierten Speichercontroller und Intel verfeinert ihn Jahre später.

Wenns um solche Milliarden und mögliche Monopolisierung geht, geschieht nichts zufällig.
 
Weia. Die Leistung des realen FX-8150 ist ungefähr da, wo ich eine 4-Kern-Version davon erwartet hätte. Das Ding ist sogar LANGSAMER als Phenom II oder A8-Serie!

Und der Stromverbrauch? Der ist schlicht peinlich. So bei 50W weniger könnte man ihn dann wenigstens als nur noch "leicht rückständig" bezeichnen…
 
Wäre schön gewesen, wenn alle Benches so ausgesehen hätten wie dieser:

17508548.png


Quelle
 
Es ist echt traurig, dass AMD nix aus dem Grafikkartenbereich gelernt hat: Riesige Chips sind teuer und unrentabel. Weil die Yields mies sind. Da kann der Fertiger nix dafür. Aber das ist AMD selbst schuld, denn das Know-How haben sie ja schließlich gehabt, und verkauft.

Die Keule von wegen "mit passender Software wird der Bulli alles niederreißen" kann ich schon nimmer hören. Klar, wenn es um Integer Performance geht hat er doppelt so viele Kerne wie sie Intel hat. Das Problem ist die Inkonsistenz - alles, was nicht mit Integern arbeitet, leidet massiv. So gesagt hat er bei floating point die halbe Leistung. Und leider wird in PC-Spielen eigentlich IMMER mit Floating Point gearbeitet, darum stinkt er dort völlig ab. Klar, für den Server-Bereich mag das toll sein, aber für den Normaluser? Nö.

Außerdem sind die Zahlen zum Thema Mehrverbrauch an Fläche/Transistoren von CMT erstunken und erlogen. Sorry, das Teil ist ein Vierkerner mit 79mm²/ 500Mio. Transistoren pro Kern. Intel braucht dafür 54mm² / 250Mio. Transistoren. AMD spricht von "20% mehr Fläche" für CMT, 5% mehr für SMT. Demnach sollte BD etwa 62mm² haben, die Fläche entspricht aber satten 53% mehr als bei Intel. Und das, obwohl Intels Prozessor weniger dicht gepackt ist als der von AMD. Nur ums nochmals deutlich zu machen: Sie brauchen die doppelte Transistorenzahl, um eine manchmal vergleichbare, oft unterlegene Performance zu schaffen. Ich denke es gibt also nicht viel, was für CMT spricht. Letztgültigkeit hat die Aussage zwar nicht, weil man ja meines Wissens CMT nicht deaktivieren kann, aber ich gehe davon aus dass der Performancevorteil durch CMT im niedrigen zweistelligen Bereich liegt.

Sei es wie es sei, für den Consumermarkt ist der Prozessor unbrauchbar. Ich gehe so weit und sage, es ist vollkommen gewollte Kundenverarsche. Das Ding ist ein Serverprozessor, der als Gamer CPU verkauft wird (Name, Übertaktungsversuche, Benchmarks, Wasserkühlung, Marketing, ...). Er ist teuer, er braucht viel Strom, er ist langsam (im Consumerbereich, und daran wird auch der Scheduler nix ändern).
AMD hätte uns allen und sich selbst den gefallen tun sollen und das Ding dort lassen, wo es hingehört: im Serverbereich. Jetzt ist das Image von Bulldozer schon angekratzt. So eine Taktik - wir verkaufen den Leuten mal eben was, das sie nicht brauchen - gehört boykottiert und nicht unterstützt. Gleich wie nVidia mit Fermi I den Fehler gemacht hat sich zu sehr auf DP auf zu hängen, hat AMD sich auf Integer versteift. Beides nutzt dem Normaluser nix.

mfg
 
@FreeYourMind + Winrar-Charts:

Ein Kind ist völlig unmusikalisch, trifft aber rein zufällig den Kammerton a und kann ihn sogar konstant über 1 Minute halten, ansonsten rennen aber alle weg, wenn mehrere Töne gefordert sind. Ein anderes Kind braucht zwar den Ton als Vorgabe, singt aber danach fehlerfrei in der vorgegebenen Tonlage. Wer darf im Chor in der ersten Reihe stehen und wer putzt in der Zwischenzeit von beiden das Besucherklo?
 
Traurig! Man liegt hier teils hinter den "uralt" Phenom II Produkten aus dem eigenen Hause, noch dazu sinds stromfresser - anders: AMD kann mal wieder nur über den Preis versuchen zu punkten.
 
Sicherlich eine interessante Architektur bei Software, die ich nicht fahre. Also im Grunde nichts für mich. Vor 2013 wird bei mir keine neue CPU geben. Bis dahin will AMD 30-45% Geschwindigkeitszuwachs erzielt haben. Mal schauen.

Als Consumer kann man (leider) wohl getrost sagen Finger weg vom Bulldozer. Schade, AMD, wirklich sehr schade.
 
Ich hab mir vorhin die Benchmarks auf einigen anderen Sites angeschaut und;nunja abgesehen von der hohen Stromaufnahme waren die abschließenden Urteile wesentlich wohlwollender als hier.
Vielleicht kauf ich doch nen 8150(bei unter ~200€) und bau den in den Render-PC ein ;).
Mal sehn ob BD2 als Nachfolger für den Zock-Computer in Frage kommt.
-FormatC Keins davon putzt das Klo;fällt unter Rubrik 'Kinderarbeit' und ist gesetzlich verboten! :P
 
Thane schrieb:
Da versucht es aber jemand schön zu reden. Genauso kann man andere Anwendungen mit dem 2600K testen und es kommt heraus, dass AMD über 30% hinten liegt...
[...]Gegen Sandy-Bridge-E wird AMD FX auch kein Land sehen.
Im Serverbereich sehe ich da für AMD auch schwere Zeiten.
Sockel 2011 hatte ich völlig vergessen... da kam wohl der kleine AMD Fanboy in mir hoch... :freak:
 
KillerGER87 schrieb:
Auch kann ich die ganzen "Mit Software und Update für Windows wird alles besser" Leute nicht verstehen! Warum? Weil wenn man sich mal einen Kopf drüber macht. Für wenn werden wohl Softwarehersteller mehr Optimieren für eine Firma die 80% des Marktes hat oder eine die 20% hat? In dieser Hinsicht kann ich mich buntstift23 Meinung nur Anschließen.

Auch glaube ich das AMD hier ein zu Spezielles Design im Bezug auf die Architektur von BD gebracht hat. Denn eine Optimierung ist hier sehr Unwirtschaftlich für Softwaregersteller da der BD derzeit der einzige Prozessor ist der diese Architektur besitzt. Man wird wirklich erst in 1 bis 2 Jahren sehen können ob ich damit recht habe. Aber ich vermutte es doch sehr stark.

Man darf bei dem Thema der Softwareoptimierung nicht vergessen, das hier ein Großteil dieser eben nicht von jedem Entwickler einzeln für jedes Produkt gemacht wird, sondern das es hier Hauptsächlich um Compiler, Bibliotheken und Scheduler geht.
Auch betrifft das eh nur einen relativ kleinen Bereich der Entwicklung, da für die meisten Algorithmen eh mehr als genug Leistung zur Verfügung steht bzw. es nicht relevant ist.
Außerdem ist es dieses mal so, das AMD nun das erste mal wirklich auf Augenhöhe steht was die zur Verfügung stehenden Befehlssätze angeht und somit bei vielen Optimierungen im Multimediabereich sowohl AMD als auch Intel zulegen können. Hier wird sich dann halt zeigen bei welche Architektur besser mit den neuen Befehlssätzen arbeiten kann.

Ich kann mich im übrigen noch gut dran erinnern, als die ersten Zweikern und Vierkern CPUs auf den Markt kamen und viele schrien "Ach eine Einkern(Zweikern) CPU reicht doch total aus, die Sachen profitieren ja eh nicht von mehr" und ich mir dann überlege, das mein Bruder immer noch mit seinem Q6600 mehr als gut bedient ist. :rolleyes:
Jemandem der der CPU eh nach einem Jahr austauscht, kann natürlich egal sein, aber für den Rest? Wieviele sind heute noch mit einem P4 oder A64 oder sogar Athlon XP unterwegs? In meinem Bekanntenkreis sehr viele.
 
Sei es wie es sei, für den Consumermarkt ist der Prozessor unbrauchbar. Ich gehe so weit und sage, es ist vollkommen gewollte Kundenverarsche. Das Ding ist ein Serverprozessor, der als Gamer CPU verkauft wird (Name, Übertaktungsversuche, Benchmarks, Wasserkühlung, Marketing, ...). Er ist teuer, er braucht viel Strom, er ist langsam (im Consumerbereich, und daran wird auch der Scheduler nix ändern).
AMD hätte uns allen und sich selbst den gefallen tun sollen und das Ding dort lassen, wo es hingehört: im Serverbereich. Jetzt ist das Image von Bulldozer schon angekratzt. So eine Taktik - wir verkaufen den Leuten mal eben was, das sie nicht brauchen - gehört boykottiert und nicht unterstützt.
Ich seh das genau so, 100% Verarsche, 100% Absicht. Das Ausgraben des prestigeträchtigen FX Kürzels ist meiner Meinung nach das deutlichste Zeichen. Es soll suggerieren was gar nicht da ist. Gaming Power satt. Einfach mal probieren und verkaufen, besser als gar nix zu machen. Eben wie bei Fermi, lupen reine Server Hardware im Desktop verkauft, die Fans kaufen schon, wobei Fermi ja Leistung satt hatte. Ich sehe das ganze als Hochverrat an den langjährigen Fans.

Einer meine vor kurzen das die CPUs in letzter Zeit immer zu stark auf die Gamer zugeschnitten werden und Server CPUs immer zu kurz kommen (was nicht stimmt, Nehalem, allgemein 1366er Sockel CPUs), jetzt habt ihr eure Server CPU. Ich hoffe ihr seit nun zufrieden, denn den Umsatz der Gamer könnt ihr nun vergessen.
 
@Kasmop... : Wieso Verarsche ? Die CPUs werden nicht nur zum spielen hergestellt. Das vergessen hier 99% der Kiddies. Wenn ein Spiel flüssig läuft, dann bleibt das auch so.

Leider wie gesagt , gibts keine Tests , die die reine Integerleistung zum Vorgänger gegenüberstellt. Dieser ganze graphische Rotz mit den Auflösungen ist sinnlos.

Und vergesst nicht, es sind erstmals für den normalen User 8-Kerne organisiert worden. Da wird es sicherlich noch Reserven in der Optimierung geben. Intel machts nicht.

Immerhin lassen sich seit Monaten mit AMD-CPUs 48Core PCs bewerkstelligen.

Bei Intel habe ich das noch nicht so mitbekommen.

Ich werde mir das Ding wahrscheinlich für meine Zwecke kaufen und dann werde ich das selbst sehen, was wird. Es kann einfach nicht schlechter ausfallen.

Der Artikel von CB finde ich nicht sachlich. Es kann durchaus für Deutschland einen Absatzeinbruch bedeuten, weil alles dasselbe denken. Das hier 14-20jährige die Kaufkraft steuern könnten auf Grund Ihren begrenzten Nutzung solcher Architekturen ist mehr als bedenklich.
 
Zuletzt bearbeitet:
@Kasmopaya
Richtig Geld verdient wird aber nun mal mit dem Servermarkt bzw. Geschäftsumfeld. Im Servermarkt kann mit deutlich weniger abgesetzten Prozessoren deutlich mehr Gewinn erzielt werden. Hier muss AMD nun endlich mal Fuß fassen. Alle Welt(Besser gesagt der Markt) schreit nach der Cloud und diese muss natürlich angetrieben werden. Sowohl Bulldozer als auch Nehalem bzw. Sandy Bridge sind eben für diesen Bereich entwickelt und werden dann halt als "Abfallprodukt" eben auch auf den Consumermarkt geschmissen.
 
AMD ist KUNDEN also Endverbraucher unfreundlich bis zum GEHTNICHTMEHR!

Der CODENAME: Bulldozer haben sie wohl einen Falschen gewählt, BULLSHIT würde es eher treffen.
Ich selbst hab einen AMD, PII X4 955 BE und das wird auch mein letzter AMD Prozessor gewesen sein.

Denn vorher hatte ich nur einen Intel Pentium E6300 @ 2,8 GHz.
Also bin ich mal so FREI und vergleich die Zwei miteinander.
Virtualisierung rennt auf denn E6300 besser als auf denn 955 BE.(eigene Erfahrung)
Bei Spielen da gewinnt der 955 BE überwiegend, aber bei gewissen Feinheiten ist E6300 effizienter in spielen, z.B. in denn Ladefrequenzen innerhalb des Spiels.
OC Potenzial geht ebenfall an denn INTEL PENTIUM E6300 denn ich mühelos von 2,8 auf 3,5 GHz takten konnte, und sogar 4,2 GHz waren für denn Prozessor kein Problem.
Meinen 955 BE hab ich bisher auf 3,8 GHz geschafft, aber damit läuft der Stromsparer nicht mehr, also betreibe ich ihm mit 3,6 GHz.
Mir ist klar mit viel GLÜCK geht der 955 BE auch auf 4,2 GHz, aber mit viel Glück, beim E6300 hat eher das BORAD nicht mehr zugelassen da wäre sicher noch bisschen mehr drin gewesen.
Somit will ich mal sagen AMD ist höchstens eine mittelmäßige Alternative zu INTEL.

Weiteres zu AMD!
AMD lässt bei neuen Borads SLI zu, funkt auch anstandslos, ist aber eher im vergleich zu INTEL ein billiger Abklatsch.
http://www.tomshardware.de/990fx-sli-am3,testberichte-240797.html
Wo man sieht, SLI auf einen AMD Borad eher zu vergessen ist in vergleich zu INTEL!
Mit einen Bulldozer oder eher bezeichnet mit einen Bullshit, wird es wohl auch nicht besser sein.(also für SLI max gleich wie Intel oder bis zu 30% langsamer)
AMD hält wohl Endverbraucher für Idioten, nur man sollte von sich nicht auf andere schließen.
Das nächste was ich beim Bulldozer mehr als nur Grausam empfinde, ist das sie WERBEN für CF in PCIe 16/16.
https://www.computerbase.de/artikel/grafikkarten/grafikkarten-mit-pcie-test.1570/seite-6#abschnitt_multigpu
Na da schau her, zwischen 16/16 CF zu 8/8 CF ist gleich NULL unterschied, bei SLI verhält sich das auch nicht anders, außer bei einen AMD Borad, da muss man -30% rechnen.

Also wer zu AMD greift stellt sich selbst ein BEIN, denn AMD so scheint es mir glaubt sie sind allein auf der großen weiten WELT!
Haben gegen ihre Konkurrenz nichts entgegen zusetzen, außer das z.B. eine Putze die bei Intel und eine andere die bei Nvidia Arbeitet, sich in denn schlaf lacht, wenn diese an AMD/ATI denkt.
Und die arme Putze die bei AMD/ATI ihren Dienst verrichtet, das sicher in ihren privaten Umfeld sicher abstreiten wird, wenn diese Person sowas wie einen Selbststolz bzw. Selbstachtung besitzt.

Und eins noch zu der Bullshit CPU, AMD sollte eine STRAFZAHLUNG auf erteilt werden, Strafe für UMWELD Verschmutzung durch unnötiges Zeug was keiner will und was keiner braucht.
Im Namen des Computervolkes.
Zu zahlen binnen 14 Tagen, ansonsten TODESSTRAFE!

So das ist meine Meinung zu AMD/ATI und vor allem zu Bulldozer
 
digger66a schrieb:
@ Zock:

bilde dir doch dein eigenes Urteil


Die Windows-Bremse


Und hier sieht man wie sich das auswirken wird

Bench mit manueller kernzuweisung

ich sehe da im schnitt 15% zwischen
4M/4T und 2M/4T

gruss

Damit der Turbo aber funzt müssen 4 Threads auf 2 Module gelagert werden, jetzt sind wir also im Zwiespalt. Genau deswegen ist es auch nicht so easy mal eben dahingehend zu optimieren.

Wie man sieht laufen nämlich einzelne Prozesse die ein ganzes Modul bekommen schneller, vergleiche die 4M/4C Benches gegen die 2M/4C.

Was also nun machen... wie erkenne ich was besser ist? Der Vorsprung ist teilweise massiv (~10-20%) wenn ein Thread ein ganzes Modul für sich beanspruchen kann. Dann funzt aber weder CoreParking noch Turbo.

Genau deswegen gibt es hier noch keine 10-20% Patch Lösung und auch Win 8 wird nur geringfügig generell am Scheduler was verbessern, vermutlich profitieren auch Intel CPU leicht davon.


Dr. MaRV schrieb:
Mir fällt auf, dass Milamber! und deadohiosky verdächtig ruhig sind.

das ist mir auch schon aufgefallen, aber auch verständlich ;)

Geirrödr schrieb:
So? Wieso lief mein Opteron 165 dann mit 3,3GHz? Also ehrlich, es gab nur sehr wenige Toledos, die nicht die 2600MHz @standard-Vcore schafften. Mit 0.2 Volt mehr gingen die meisten schon über 3000MHz. Gute Kühlung vorausgesetzt.

Mal ehrlich, ich schätze deine Meinung, aber heute postest du auch viel Unwahres.

ja die Toledos in 90nm gingen dann mit der Zeit besser, ich habe mich auch nie auf die Toledos bezogen sondern auf die Clawhammer CPU 2004 als auch damals schon die Pentium M rein von der Performance / Takt überlegen waren.

AMD hatte mit den Toledos nur ca 1 Jahr (Mai 2005 - Mitte 2006) ein super Modell das mithalten / gewinnen , Takt/Leistung im Desktop überlegen war. Mehr als 2,4 Ghz default ging da nicht, das änderte sich erst mit Winsor und der kam ca zeitgleich mit dem Core 2 Duo ;)
Mein Clawhammer machte bei 2,6 Ghz die krätsche, war aber noch 130nm.

Ich sage nicht, dass AMD nicht eine zeitlang überlegen war im Desktopsegment, aber das das nicht so bleiben wird war abzusehen allein weil der Pentium M extrem stark war und der Vorsprung bei AMD hielt auch nicht lange, eben nur 2005-Mitte 06.

Januar 2006 gab es dann den CoreDuo im mobileSegment, dass dieser dann auch für Desktop kommt und einschlägt war da schon ewig abzusehen (CB brachte sogar nen Artikel im Januar dazu).

Ich finde nicht, dass die Situation damals viel mit der Situation damals gemein hat. Und darum gings ja. Intels liefen mit über 1 Ghz schneller, die Taktraten waren aber auch nicht für AMD erreichbar. beide Hersteller trieben die CPU sehr dicht ans Taktlimit.

Intel ist seit 5 Jahren massiv vorne und seither bedient AMD von ehemals 0-1050$ nur bis ca 200$, dazu der ATI Kauf der sicher auch massiv auf das EntwicklungsBudget drückte.
Bulldozer ist eigentlich seit diesen 5 Jahren die Hoffnung gewesen ... die 5 Jahre wachsende Blase ist nun zerplatzt.
Ich bin auch sehr enttäuscht, die Eckdaten und die Technik die Bulldozer mitbringt klangen extrem vielversprechend und innovativ, sie sind es auch - irgendwo ist der Wurm drin und AMD versucht diesen nicht erst seit Sommer zu beseitigen, aus geplantem 2009 Release wurde Ende 2011, und ich würde wetten, dass um die Zeit irgendwann AMD mit Problemen konfrontiert wurden die bis heute nicht im Griff sind.

Genau das macht mich etwas pessimistisch dass aus BD2 noch die Über CPU wird, selbst AMD backt mit 10-15% Aussagen eher kleine Brötchen. Von den technischen Daten her müssten es eher 50 % + sein.

Ich wünscht es wäre anders. Ich kenn mich und ein BD wäre schneller im System gelandet als meinem Geldbeutel lieb ist ;)
 
Zuletzt bearbeitet:
Zurück
Oben