Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: AMD „Bulldozer“
- Ersteller Volker
- Erstellt am
- Zum Artikel: Test: AMD „Bulldozer“
A
Amando
Gast
Es ist doch so dass man eine sehr sarke Grafikkarte nimmt (Stromverbrauch von ca.300W spielt natürlich keine Rolle) -die CPU´s sind so stark aber dass die bei Full HD Auflösung in etwa gleiche FPS haben, aber man möchte damit simulieren wie die CPU´s evtl.bei nächsten Grafikkartengenerationen sich verhalten.
-Hat CB bei Ihren Fazit etwas dazu geschrieben wie sich evtl. der Bulldozer in Zukunft verhalten könnte, wenn mehr multithread Programme/Spiele auf dem Markt sind? -NEIN, stattdessen möchte man diese CPU noch direkt als eine reine Server-CPU abstempeln.
http://www.pcgameshardware.de/aid,8...dows-8-Plattformen/Grafikkarten-Treiber/News/
-Hat man erwähnt dass die Stromaufnahme im Verhältnis zur Transistorzahl eigentl. entsprechend ist - diese jedoch z.Z. meist nichts zu tun haben? -Mich würde mal gerne die CPU´s Auslastung interessieren, wahrscheinlich arbeiten dort nicht selten 2-4.
-Und das ganze dann noch als schwarzen Mittwoch auf dem Titel noch zu bezeichnen gibt mir dem Rest.
-Ehrlich gesagt war ich nach lesen dieses tests hier ziemlich enttäuscht von Bulldozer, aber nachdem ich mir mehr oder weniger durch Lesen der anderen Tests ein besseres Bild machen konnte, finde ich dem Bulli echt ok. Nicht schwarzer Mittwoch - aber auch keine Euphorie, einfach nur ok.
-Hätte ich nicht einen x6 1090T gehabt, würde ich heute nicht Nachdenken was ich mir holen würde. Fx 8150, da ich viel x264 encoding betreibe u. zocke. -Für Stromsparen habe ich mein Laptop, da mir sogar ein Sandy Bridge mit ca. 90W im Idle immer noch zuviel frisst, incl. TFT ist man bei ca. 135W - für´s Surfen definitiv zuviel, egal jetzt welcher Desktop von beiden, an mein Lappi was mit monitor ca. 25-35w verbraucht, kommen beide noch lange nicht dran.
-Hat CB bei Ihren Fazit etwas dazu geschrieben wie sich evtl. der Bulldozer in Zukunft verhalten könnte, wenn mehr multithread Programme/Spiele auf dem Markt sind? -NEIN, stattdessen möchte man diese CPU noch direkt als eine reine Server-CPU abstempeln.
http://www.pcgameshardware.de/aid,8...dows-8-Plattformen/Grafikkarten-Treiber/News/
-Hat man erwähnt dass die Stromaufnahme im Verhältnis zur Transistorzahl eigentl. entsprechend ist - diese jedoch z.Z. meist nichts zu tun haben? -Mich würde mal gerne die CPU´s Auslastung interessieren, wahrscheinlich arbeiten dort nicht selten 2-4.
-Und das ganze dann noch als schwarzen Mittwoch auf dem Titel noch zu bezeichnen gibt mir dem Rest.
-Ehrlich gesagt war ich nach lesen dieses tests hier ziemlich enttäuscht von Bulldozer, aber nachdem ich mir mehr oder weniger durch Lesen der anderen Tests ein besseres Bild machen konnte, finde ich dem Bulli echt ok. Nicht schwarzer Mittwoch - aber auch keine Euphorie, einfach nur ok.
-Hätte ich nicht einen x6 1090T gehabt, würde ich heute nicht Nachdenken was ich mir holen würde. Fx 8150, da ich viel x264 encoding betreibe u. zocke. -Für Stromsparen habe ich mein Laptop, da mir sogar ein Sandy Bridge mit ca. 90W im Idle immer noch zuviel frisst, incl. TFT ist man bei ca. 135W - für´s Surfen definitiv zuviel, egal jetzt welcher Desktop von beiden, an mein Lappi was mit monitor ca. 25-35w verbraucht, kommen beide noch lange nicht dran.
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Alle FX-Modelle haben 8M, daher wird's zB den FX-4100 nicht mit weniger L3 geben - ergo auch nicht mit einem Die, welches keine 8M L3 bietet (es sind aber FX ohne L3 geplant, nicht aber mit verringertem L3). Die Segmentierung hat iirc (!) andere Gründe, nämlich die Platzaufteilung im Die.Sunnyvale schrieb:Das ist die derzeitige, unbefriedigende Situation mit begrenzter Produktionskapazität, geringer Ausbeute und vermutlich vielen teildefekten Chips. AMD wird mit am Sicherheit grenzender Wahrscheinlichkeit kleinere Dies für FX-4 und FX-6 angedacht haben - sonst wäre die Segmentation des L3 Cache in Abhängigkeit von der Modulanzahl recht sinnfrei.
nukular8400
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.106
Leistung hin oder her. Ich würde mir den Bulldozer bei der gebotenen Leistung sogar kaufen, wenn er wenigstens sparsam wäre (idle und last) aber dass er da auch versagt, verdirbt die ganze Freude. Die wirklich sparsameren Modelle mit 3 oder nur 2 Modulen und weniger Takt werden dann Leistungstechnisch wiederum zu sehr hinter meiner 4 Jahre alten Intel-CPU zurückbleiben...
Der Cache ist einfach zu riesig, das kann doch nicht vernünftig klappen. Warum nicht gemeinsamen großen L2-Cache? Das stelle ich mir viel besser vor, weil man von dort aus doch effizienter die Module mit FPU-oder Integerlastigen Aufgaben gleichmäßig belasten kann. Bei einer weiteren Zwischenstufe wird das ein uneffizientes hin- und hergefrage oder eine statistisch ungünstige Verteilung der Berechnungen. Zudem sind 8MB auf dem DIE haben oder nicht haben schon ein riesen Unterschied.
Der Cache ist einfach zu riesig, das kann doch nicht vernünftig klappen. Warum nicht gemeinsamen großen L2-Cache? Das stelle ich mir viel besser vor, weil man von dort aus doch effizienter die Module mit FPU-oder Integerlastigen Aufgaben gleichmäßig belasten kann. Bei einer weiteren Zwischenstufe wird das ein uneffizientes hin- und hergefrage oder eine statistisch ungünstige Verteilung der Berechnungen. Zudem sind 8MB auf dem DIE haben oder nicht haben schon ein riesen Unterschied.
-=Azrael=-
Commander
- Registriert
- Jan. 2009
- Beiträge
- 2.291
Ihr tut ja gerade so als ob jeder von euch hier sein System 24/7 unter 100% Last hätte.
So immens wie es dargestellt wird ist die Leistungsaufnahme nicht. Ok mit den i5/i7 kann der Bulldozer nicht mithalten aber zum 1100T sind es gerade mal 8W mehr und beim Gesamtsystem pendelt er sich bei den 1366er ein.
http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index24.php
So immens wie es dargestellt wird ist die Leistungsaufnahme nicht. Ok mit den i5/i7 kann der Bulldozer nicht mithalten aber zum 1100T sind es gerade mal 8W mehr und beim Gesamtsystem pendelt er sich bei den 1366er ein.
http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index24.php
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.409
nukular8400
ich hab mir schon die Frage gestellt, wie würde sich Bulldozer ohne l3 cache geben. Kann man den nicht im Bios sogar deaktivieren xD weiß nicht hab da was im Gedächtnis. Weiters. Idle, 5 watt mehr, und das wahrscheinlich wegen dem Mainboard. Dafür dass aber beim SB zum vergleich einige Bauteile in der CPU sind, und 32 nm ist, verbraucht der BD eigentlich recht wenig. Es gibt genug Boards, die sogar die Phasen im Idle abdrehen, brauchst dir nur die MSI Boards anschauen. Somit kann man gute idle werte erreichen, die mit SB vergleichbar sind.
-=Azrael=-
Wenn du nen Homeserver mit vielen VM betreibst, könnte Bulli interessant sein. Muss nur schauen wieviel man braucht, aber ich vermute dass man ab 3 ghz 8 kerner die Vcore schon sehr senken kann....
Deaktivierst du den turbo und undervoltest, bist sogar nicht mehr weit entfernt vom SB.
Wenn die neue Revision hast, neues besseres Bios, kann es sein, dass der BD dann nicht mehr so unattraktiv ist. Somit alles mit der zeit freunde ^^
Opteron 4256 EE 4/8 2,5 GHz 35 Watt
Opteron 4228 HE 3/6 2,8 GHz 65 Watt
Opteron 4284 4/8 3,0 GHz 95 Watt
Opteron 3280 HE 4/8 2,4 GHz 65 Watt
Das kann man mit k10state alles schön selber einstellen...
jeden p-state, sogar turbo die vcore.
Weiß nicht mehr wie ma das letzens ausgerechnet haben (dafür ist es schon zu spät heute). Aber wenn man 4 std volllast laufen läst pro tag sonst normalen gebrauch, würde man wenn der BD 50 euro günstiger ist als ein gleich schnelles Produkt ca 3-4 Jahre brauchen um den Mehrwert weg zu haben (beim doppelten Verbrauch von SB)
ich hab mir schon die Frage gestellt, wie würde sich Bulldozer ohne l3 cache geben. Kann man den nicht im Bios sogar deaktivieren xD weiß nicht hab da was im Gedächtnis. Weiters. Idle, 5 watt mehr, und das wahrscheinlich wegen dem Mainboard. Dafür dass aber beim SB zum vergleich einige Bauteile in der CPU sind, und 32 nm ist, verbraucht der BD eigentlich recht wenig. Es gibt genug Boards, die sogar die Phasen im Idle abdrehen, brauchst dir nur die MSI Boards anschauen. Somit kann man gute idle werte erreichen, die mit SB vergleichbar sind.
-=Azrael=-
Wenn du nen Homeserver mit vielen VM betreibst, könnte Bulli interessant sein. Muss nur schauen wieviel man braucht, aber ich vermute dass man ab 3 ghz 8 kerner die Vcore schon sehr senken kann....
Deaktivierst du den turbo und undervoltest, bist sogar nicht mehr weit entfernt vom SB.
Wenn die neue Revision hast, neues besseres Bios, kann es sein, dass der BD dann nicht mehr so unattraktiv ist. Somit alles mit der zeit freunde ^^
Opteron 4256 EE 4/8 2,5 GHz 35 Watt
Opteron 4228 HE 3/6 2,8 GHz 65 Watt
Opteron 4284 4/8 3,0 GHz 95 Watt
Opteron 3280 HE 4/8 2,4 GHz 65 Watt
Das kann man mit k10state alles schön selber einstellen...
jeden p-state, sogar turbo die vcore.
Weiß nicht mehr wie ma das letzens ausgerechnet haben (dafür ist es schon zu spät heute). Aber wenn man 4 std volllast laufen läst pro tag sonst normalen gebrauch, würde man wenn der BD 50 euro günstiger ist als ein gleich schnelles Produkt ca 3-4 Jahre brauchen um den Mehrwert weg zu haben (beim doppelten Verbrauch von SB)
Zuletzt bearbeitet:
lynx007
Commodore
- Registriert
- Feb. 2011
- Beiträge
- 4.758
Das stimmt auch wieder. Im Grunde ist es genauso wie beim Phenom, die Intelaner schwingen ihre Verbrauch Keule. Wenn man aber jetzt bedenkt das man den CPU auf fast 5 Ghz takten kann, ein guter Kühler und Netzteil vorausgesetzt relativiert sich das ganze wieder.
Wie schon treffend genannt, man lässt ihn ja nicht ständig auf 100% rumkurfen. Der CPU mag jetzt nicht der Große Wurf sein, aber BD2 steht ja auch schon in den Startlöchern.
Wie schon treffend genannt, man lässt ihn ja nicht ständig auf 100% rumkurfen. Der CPU mag jetzt nicht der Große Wurf sein, aber BD2 steht ja auch schon in den Startlöchern.
-=Azrael=-
Commander
- Registriert
- Jan. 2009
- Beiträge
- 2.291
@pipip
Naja wenn dein System 24/7 unter Last läuft und dir die "Features" von SB reichen, dann würde ich eher zum SB greifen als zum Bulldozer, außer deine Anwendungen profitieren von den "Features" eines Bulldozers oder eines 1366er Systems. Ich brauche für FAH FPU Leistung, da kommt der derzeitige Bulldozer auf 2500 Niveau und dem Verbrauch unter Last nicht in Frage, mal schauen was Piledriver bzw. die anderen Upgrades bringen.
Auf der anderen Seite habe ich darüber nachgedacht den X2 auf der GPU RIG durch einen Bulldozer zu ersetzen, die RIG läuft ey 24/7 und da ist ein MSI 890FX drin.
Da könnte ich direkt 2 oder 3 VMs drauf hauen und mir nen FTP oder Fileserver aufsetzen.
Dumm nur das durch einen Bug der X2 schon so unnötig auf 100% Last läuft, nur weil meine AMD GPUs minen. Ich kann zwar die Last auf 50% reduzieren, indem ich die Anwendung / den Miner auf einen Kern beschränke, dennoch ist das zuviel und unnötig, das ist eine OpenCL Anwendung.
Also bei AMD gibt es immer irgendwie irgendwo ein Haken.
Naja wenn dein System 24/7 unter Last läuft und dir die "Features" von SB reichen, dann würde ich eher zum SB greifen als zum Bulldozer, außer deine Anwendungen profitieren von den "Features" eines Bulldozers oder eines 1366er Systems. Ich brauche für FAH FPU Leistung, da kommt der derzeitige Bulldozer auf 2500 Niveau und dem Verbrauch unter Last nicht in Frage, mal schauen was Piledriver bzw. die anderen Upgrades bringen.
Auf der anderen Seite habe ich darüber nachgedacht den X2 auf der GPU RIG durch einen Bulldozer zu ersetzen, die RIG läuft ey 24/7 und da ist ein MSI 890FX drin.
Da könnte ich direkt 2 oder 3 VMs drauf hauen und mir nen FTP oder Fileserver aufsetzen.
Dumm nur das durch einen Bug der X2 schon so unnötig auf 100% Last läuft, nur weil meine AMD GPUs minen. Ich kann zwar die Last auf 50% reduzieren, indem ich die Anwendung / den Miner auf einen Kern beschränke, dennoch ist das zuviel und unnötig, das ist eine OpenCL Anwendung.
Also bei AMD gibt es immer irgendwie irgendwo ein Haken.
Fischkopp
Commander
- Registriert
- März 2011
- Beiträge
- 2.340
Full HD 30GB AVCHD -> Quicktime
Verwendetes Programm: Cineform Neoscene
Intel i7 2600k: 14min/27sec
AMD FX-8150: 11min/32sec
Ähm du hast aber gelesen das diese Lusche von der Seite erst den Mund ganz schön voll nimmt und dann nebenbei bemerkt das das ganze alles andere als Stabil ist und in der verwendeten Software AMD generell schneller ist als Intel?
Die 40% Performancesprung sind selbst optimisten und AMD Freunden Suspekt, aber der Blogger hat ja erreicht was er wollte: er generiert Klicks bis zum umfallen, weil jeder Fanboy das als Real Life Beispiel anführen wird!
Ich werde den BD, wenn er denn irgendwann mal lieferbar ist, mit meiner Software testen und dann selber sehen was der leisten kann. Bis dahin sind sicherlich auch die Boards entsprechend fit, denn bei der ganzen Diskussion scheint keiner mitzubekommen das wir es hier scheinbar mal wieder mit einem Paper Launch zu tun haben! Jedenfalls scheinen die FX 8150 noch nicht einmal lieferbar zu sein!
Wenn man aber jetzt bedenkt das man den CPU auf fast 5 Ghz takten kann, ein guter Kühler und Netzteil vorausgesetzt relativiert sich das ganze wieder.
Das geht mit einem Sandy Bridge auch, sogar ohne Wasserkühlung und mit weniger Verbrauch...
Zuletzt bearbeitet:
Mazda Speed
Lt. Commander
- Registriert
- Juli 2009
- Beiträge
- 1.128
Liefertermin dürfte 27 oder 28 Okt sein
Aber wie gesagt, das muss sich alles erst mal bisschen einpendeln.
Dann braucht es noch die richtigen Leute (und nicht die die nach OC anleitungen fragen*g*)
Um die 5 Ghz mit Luftkühlung mach ich mir beim Bulldozer auch keine Sorgen.
Habe ich ja mit dem 965 schon fast die 4,8 Ghz Marke geknackt
Aber wie gesagt, das muss sich alles erst mal bisschen einpendeln.
Dann braucht es noch die richtigen Leute (und nicht die die nach OC anleitungen fragen*g*)
Um die 5 Ghz mit Luftkühlung mach ich mir beim Bulldozer auch keine Sorgen.
Habe ich ja mit dem 965 schon fast die 4,8 Ghz Marke geknackt
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.281
pipip schrieb:Wieso wo sind die schlagkräftigen Aussagen. Dass das AM3 board Speicher bis 1333 MHz unterstützt, das AM3+ einen Speicher bis 1866 unterstützt, aber das Asus board mit den Speicher max mal einen Mehrleistung von 1 % hat ????.
Wenn man beim Llano gegenüber dem Athlon II dank dem verbesserten Fronted eine Leistungssteigerung von 7% bekommt und sich Phenom II Niveau begibt. Wieso soll beim Bulldozer keinen Unterschied ausmachen. Einzige was ich mir erklären kann, es wird erst für den Nachfolger relevant sein.
die Durchsatz Leistung ist beim BD durch den Speichercontroller von Anfang an schon weit höher, noch dazu hängt keine GPU dran wie bei der "APU" Llano. Die GPU profitiert massiv von höherem Ramdurchsatz, die CPU hingehen kaum.
Die Core 2 Duo Reihe ist heute noch vorne dabei und kommt auf ca 7000-10000 MB/s,
https://www.computerbase.de/2011-10/test-amd-bulldozer/30/#abschnitt_sisoft_sandra_mem__avx
siehe die ~7K für den Intel Core 2 Quad Q9550
Bei neueren CPU wie Bulldozer, Core i ist die Bandbreite ohnehin schon weit höher und keinesfalls ein Flaschenhals, deswegen bring 1333 -> 1866Mhz vllt 1-2% max beim Bulldozer genau wie beim Core i.
Wichtig ist das BD SI für Trinity. Hier braucht man den Durchsatz für die GPU.
Pelto schrieb:@Krautmaster
Als Besitzer eines 990X bist du schon per se für objektive Aussagen über AMD disqualifiziert
PS.: nur Spaß
ich weiß, meine CPU wird äußerst gern herangezogen um sich selbst über die Schmach die sich AMD mit BD leistet hinwegzutrösten =/
Auf mich machen alle AMD Systeme die ich baue einen leicht trägeren Eindruck gerade wenn es um Booten etc geht. Bezogen auf den Preis kommt man natürlich schon sehr geil weg - so mit Athlon II X4 + 40€ Board + dicke GPU kann man schnell nen ausreichenden günstigen schnellen leisen Gamingrechner bauen.
Das eigentliche Fatale an Bulldozer ist seine Unwirtschaftlichkeit für AMD.
P.S(OT):
Gibst eigentlich ein AM3/AM3+ Board mit so kurzem Bios Post wie die Dell Notebooks mit EFI oder das Zotac Z68 Board aus meinem Youtube Vid paar Comments davor...?
Zuletzt bearbeitet:
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Wenn es wirklich stimmt das du einen 2600K hast, gehe ich mal davon aus das du einfach noch zu jung bist um die Zusammenhänge zu verstehen. Ein AMD Fan fällt ja in dem Fall quasi weg. Die niedrige Auflösung ist nur dazu da den Einfluss der GPU zu minimieren, bin ich auch kein Fan von, aber kann man machen und sich daran grob orientieren, die wirkliche CPU Leistung sieht man an CPU Killer Games wie SCII und Anno. Und da steht der Bulli genau so da wie Phenom I, zu langsam aber trotzdem extrem durstig.Es geht ausschließlich darum, was der Bulldozer gegenüber dem i7-2600k in Spielen
bei hohen Auflösungen leistet,
was er bei 640x 480 leistet, interessiert mich nicht
und ist praxis fern..
Wenn du heute eine so schlechte CPU kaufst wie den FX für Spiele, musste du früher(teils Jahre) aufrüsten als jemand der die beste CPU für den Job kauft. In dem Fall Sandy und bald Ivy. Meist zieht das ein neues Mainboard und Ram hinter sich her. Quasi vergleichbar wie Core 2 duo v. Core 2 Quad. Die Core 2 Quad käufer können gelassen auf Ivy/Haswell warten während die dualcore Käufer schon vor Monaten den Release von Bulldozer erzwingen wollen, weil ihr System komplett am Limit läuft.
http://www.pcgameshardware.de/aid,8...fuer-AMD-Update-mit-Umfragen/CPU/Test/?page=3
Außerdem wurde SC II/Anno mit hoher Auflösung getestet und max. Details, weil das Game ein CPU Killer ist, egal welches Setting. Von wegen niedrige Settings. Das Game zeigt wie es ausschaut wenn ein Game wirklich mal eine gute CPU braucht, es werden noch 2 Teile erscheinen mit der Engine und Bulli hat katastrophale min. FPS. Und die AVG FPS werden in Massenschlachten auch zu niedrig sein. Da man sogar einen Sandy mit SC II in niedrige Regionen drücken kann. Ergo zahlt man extrem viel für schlechte Performance. So sind nun mal die Fakten.
Aber ein körnchen Wahrheitsgehalt steckt in deiner Fantasie. Alle hacken zur Zeit auf Bulli rum, dabei wird völlig die kleine Schwäche von Sandy übersehen. Gut Sandy ist nahezu perfekt viel gibts nicht zu meckern, aber es fällt schon auf das gute Engines wie BF 3 nach mehr Kernen schreien und das beim 2600K recht deutlich zu sehen ist, wenn man HT einschaltet. Ergo hat Sandy zu wenig kerne um perfekt zu sein. Sag ich zwar schon lange, aber erst ein 6-10 Kern Sandy ist perfekt. 4 Kerne sind nicht mehr ganz zeitgemäß, auch wenn die Performance heute und morgen trotzdem top ist. Für übermorgen, also in ein paar Jahren wohl hart an der Grenze und Bulli könnte tatsächlich ein paar % näher ran kommen an Sandy. Nicht überholen, oder gar bei der Effizienz aufschließen, aber ein paar % müsste der Bulli schon zulegen. Ändert aber trotzdem nix am FX Fazit, nur Sandy ist nicht so perfekt wie alle meinen.
Zuletzt bearbeitet:
Mazda Speed, selbst AMD redet von 10% Leistungszuwachs durch den neuen Scheduler. 40-70% sind ein Zuwachs, den nur eingefleischte AMD-Liebhaber glauben, die jetzt einen Bulldozer kaufen müssen, weil sie im Herbst für 150€ ein neues Board gekauft haben.
Und Mazda, 5GHz unter Luft gehen, keine Frage... Mit Druckluft als Kühlmittel. Der Verbrauch des FX-8150 liegt bei 5GHz im bereich 250-300W, und damit fernab von allem bisherigen. Das ist ja das echte Problem: BD ist am Ende der Fahnenstange. Weniger Spannung geht bei solch idiotischen Frequenzen nimmer, und selbst mit hohen Spannungen sind die Teile bei OC nicht stabil. Das ist die Rache der hohfrequenz-Architektur - das OC-Potential geht gegen Null. Einen Q9500 konnte man ohne Probleme um 50% übertakten. Beim BD wären das dann 5,4GHz, und das wird unter Wasser schwierig zu erreichen, geschweige denn "stable".
mfg
lieber PiPaPa, dafür will ich doch mal einen Beweis sehen. Ich kann mich nicht erinnern, dass nVidia jemals die BQ zurückgeschraubt hat in einer neuen Generation. Und was das Stück Holz angeht: haben sie das verkauft? nö, oder? AMD ist in den letzten Jahren zu einem richtig elendigen Drecksladen geworden, der Konsequent seine Kunden direkt betrügt. Ja, Intel hat seine Vormachtsstellung ausgenutzt, die haben dafür auch eins aufn Deckel bekommen, mehrfach, in Milliardenhöhe. Ich finde dass es mal Zeit ist das AMD wegen seines gewerbsmäßigen Betruges belangt wird.Auch hier sei dann bitte so konsequent und boykottiere dann die Firma nvidia die nachweislich auch schon an der BQ (und zwar deutlich schlimmer als ATi/AMD) herumgepfuscht hat
Und Mazda, 5GHz unter Luft gehen, keine Frage... Mit Druckluft als Kühlmittel. Der Verbrauch des FX-8150 liegt bei 5GHz im bereich 250-300W, und damit fernab von allem bisherigen. Das ist ja das echte Problem: BD ist am Ende der Fahnenstange. Weniger Spannung geht bei solch idiotischen Frequenzen nimmer, und selbst mit hohen Spannungen sind die Teile bei OC nicht stabil. Das ist die Rache der hohfrequenz-Architektur - das OC-Potential geht gegen Null. Einen Q9500 konnte man ohne Probleme um 50% übertakten. Beim BD wären das dann 5,4GHz, und das wird unter Wasser schwierig zu erreichen, geschweige denn "stable".
mfg
Tigerkatze
Lt. Junior Grade
- Registriert
- Mai 2011
- Beiträge
- 301
Amando, da liegst du falsch, wenn Du behauptest, ein SB-Desktop saugt zuviel. Kommt ganz auf die Zusammenstellung an. Selbst potente Sandies können Leistung bei wenig Verbrauch bieten, wenn man sie entstsprechend zusammenstellt. Mein 2500K-System nuckelt im Idle rund 22W (wenn die Platte schläft, sogar noch weniger) mit Benchmarkprogs habe ich es zum Testen einmal bis auf knapp 101 Watt gebracht. Höchster Verbrauch unter realen Bedingungen mit Spielen oder Arbeitsprogs war 86W. Schönes Thema ist in dieser Hinsicht auch https://www.computerbase.de/forum/t...e-im-vergleich-nur-konfigs-ergebnisse.857615/-Für Stromsparen habe ich mein Laptop, da mir sogar ein Sandy Bridge mit ca. 90W im Idle immer noch zuviel frisst, incl. TFT ist man bei ca. 135W - für´s Surfen definitiv zuviel, egal jetzt welcher Desktop von beiden, an mein Lappi was mit monitor ca. 25-35w verbraucht, kommen beide noch lange nicht dran.
METTMÄX
Lieutenant
- Registriert
- Apr. 2011
- Beiträge
- 830
da die großen spieleentwickler ihre games meist für intel cpus konzipieren, wird BD/BD2 stark vom sandy bridge E release profitieren, da intel ja vorhat bezahlbare 6kerner rauszubringen. mittel/kurzfristig brauch ein "gamer" volklich keinen BD.
edit: leider habe ich das riesen problem, falls mein Phenom I x4 BF3 nicht schaffen sollte (was real scheint), dass ich nicht weiss welchen cpu mein neuer pc bekommen soll: SCHÖNEN DANK AN AMD; BIS VOR KURZEM WOLLTE ICH NOCH EINEN BULLDOZER CPU!
edit: leider habe ich das riesen problem, falls mein Phenom I x4 BF3 nicht schaffen sollte (was real scheint), dass ich nicht weiss welchen cpu mein neuer pc bekommen soll: SCHÖNEN DANK AN AMD; BIS VOR KURZEM WOLLTE ICH NOCH EINEN BULLDOZER CPU!
Zuletzt bearbeitet:
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Bau dir mal eine Geforce 7 einKainerM schrieb:Ich kann mich nicht erinnern, dass nVidia jemals die BQ zurückgeschraubt hat in einer neuen Generation.
MrFlip0815
Ensign
- Registriert
- Okt. 2011
- Beiträge
- 134
Servus!
Also das hier ist doch schon ein wenig lächerlich. Ich behaupte mal einfach: 95% der Leute kompilieren nichts, bearbeiten nicht ständig Videos oder machen sonst irgendeine semiprofessionelle Bearbeitung die sie gerne vorgeben um solche Monster CPUs zu rechtfertigen - sei es Intel oder AMD. Meistens surfen sie im Web, ziehen sich ein paar Streams rein oder posten irgendeinenSchei** (so wie ich gerade) in diversen Foren. Dafür reicht auch ein kleiner Atom, der nen Haufen Energie spart. Und für die Zocker brauchts sowas auch nicht. Entwicklung ist gut und notwendig, aber jeder muss immerwas neues Kaufen um des Internet-Sch**-Vergleichs wegen. Einfach nur grotesk - aber es zieht sich durch alle Bereiche des Lebens: Keine Ahnung von dem was wirklich drin steckt, aber hauptsache es muss schnell, groß, lange, super teuer und geil sein, damit man dem Typen nebenan zeigen kann was man für ein geiler Player ist
Flip
Also das hier ist doch schon ein wenig lächerlich. Ich behaupte mal einfach: 95% der Leute kompilieren nichts, bearbeiten nicht ständig Videos oder machen sonst irgendeine semiprofessionelle Bearbeitung die sie gerne vorgeben um solche Monster CPUs zu rechtfertigen - sei es Intel oder AMD. Meistens surfen sie im Web, ziehen sich ein paar Streams rein oder posten irgendeinenSchei** (so wie ich gerade) in diversen Foren. Dafür reicht auch ein kleiner Atom, der nen Haufen Energie spart. Und für die Zocker brauchts sowas auch nicht. Entwicklung ist gut und notwendig, aber jeder muss immerwas neues Kaufen um des Internet-Sch**-Vergleichs wegen. Einfach nur grotesk - aber es zieht sich durch alle Bereiche des Lebens: Keine Ahnung von dem was wirklich drin steckt, aber hauptsache es muss schnell, groß, lange, super teuer und geil sein, damit man dem Typen nebenan zeigen kann was man für ein geiler Player ist
Flip
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.281
@MrFlip0815
ATOM spart kein Strom, im Gegenteil, oft sind die Board langsamer, hungriger und teurer als ein günstiges Celeron / Pentium / i3 Setting mit sparsamen Imtel H61 / MSI H6 / H67 Board.
Zacate für sich ist auch sparsamer als ATOM, meistens jedenfalls und was Desktop Boards betrifft. Langamer als ein Celeron Setting, schneller als ein ATOM, für vieles ausreichend.
ATOM spart kein Strom, im Gegenteil, oft sind die Board langsamer, hungriger und teurer als ein günstiges Celeron / Pentium / i3 Setting mit sparsamen Imtel H61 / MSI H6 / H67 Board.
Zacate für sich ist auch sparsamer als ATOM, meistens jedenfalls und was Desktop Boards betrifft. Langamer als ein Celeron Setting, schneller als ein ATOM, für vieles ausreichend.
Zuletzt bearbeitet:
Bitte? Vom perfektem anisotropen Filter bei der Geforce3/4 gibgs doch bis zur GF7 stetig bergab. Erst mit der GF8 hat man mal wieder angefangen eine vernünftige Bildqualität zu liefern.KainerM schrieb:lieber PiPaPa, dafür will ich doch mal einen Beweis sehen. Ich kann mich nicht erinnern, dass nVidia jemals die BQ zurückgeschraubt hat in einer neuen Generation.
Zwischen Geforce 5-7 haben sich ATI und Nvidia mit ihren Quali-Cheatereien doch stetig gegenseitig überboten.