News AMDs „Bulldozer“ knackt angeblich die 9 GHz

Schöner Rekord allerdings wenn er bei 9 ghz genauso lahm ist wie andere Designs bei 5ghz dann reissen es auch solche Rekorde nicht mehr raus imho.
 
Zuletzt bearbeitet:
aylano schrieb:
...Die Rohleistung mag schwach sein, aber auch die Heizleistung, was denn eben diese hohen Takte erst möglich macht.
Effizienz mag für den Desktop-User nicht diese Bedeutung haben, aber im Notebook & Server umsomehr.
...

Hmmm...

Ich hatte eher den Eindruck, dass Bulldozer enttäuscht hat, speziell was seine Effizienz bei hohen Taktraten, angeht. Bei niedrigen Taktraten, wie sie z.B. bei den Server-CPUs (Opteron) üblich sind, sieht es deutlich besser aus, aber um so höher man eine Bulldozer-CPU taktet, um so schlimmer wird es in Sachen Effizienz.

Die Consumer-Bulldozer der FX-Reihe hätten offensichtlich noch deutlich höher getaktet werden müssen, um sich gegenüber Intel zu behaupten, aber vor allem, um sich deutlicher von der Vorgängergeneration abzusetzen. Es kann ja nicht sein, dass ein alter Thuban mit deutlich niedrigerem Takt in vielen Benchmarks sogar die Nase vor den neuen FX hat.

Aber viel mehr Takt geht offensichtlich in der Praxis eben nicht mit Bulldozer, weil sie dann völlig maßlos an der Stromversorgung saugen.
Selbst die dicksten Intel-CPUs aus der SB-E-Reihe sind in vielen Situationen sparsamer als ein hoch getakteter Bulldozer und rennen dabei leistungsmäßig Kreise darum.

Damit Bulldozer-basierte CPUs für Notebooks interessant werden, muss also nicht die Taktrate hochgetrieben werden, sondern die Leistung pro Takt.
Leider scheint das auch bei den optimierten Piledrivern noch nicht wirklich der Fall zu sein, denn gegenüber den Llanos kann der CPU-Teil der Trinity-APUs auch mit deutlich höheren Taktraten nicht wirklich glänzen. Ausgenommen Fälle, wo der erweiterte Befehlssatz greift.
(Immerhin hat sich dabei aber der Verbrauch nicht verschlimmert.)

In der Vergangenheit zeigte sich eben, dass jene Architekturen sich in den Zukunft besser entwickelten, durch ein hohes übertaktungs-Potential ausgezeichnet hat.

Dann hätte die Netburst-Architektur der Pentium 4 ja auch richtig zukunftstauglich sein müssen. Die Dinger haben auch Taktrekorde aufgestellt, die gerade erst von den neusten CPU-Generationen von Intel und AMD wieder kassiert werden konnten. :rolleyes:
 
Bei niedrigen Taktraten, wie sie z.B. bei den Server-CPUs (Opteron) üblich sind, sieht es deutlich besser aus, aber um so höher man eine Bulldozer-CPU taktet, um so schlimmer wird es in Sachen Effizienz.

Es kommt nicht auf den "niedrigeren Takt" an, sondern auf den ACP oder wie der hieß. Der Durchschnittliche Verbrauch. Und wenn man beim gleichen Verbrauch einen hohen Takt oder mehr Performance rausholt dann passt das so. Siehe Llano vs Trintiy, da wird auch immer über den Takt gelästert ect. Einfach nur schwachsinnig, als kenne man nur IPC und Takt getrennt...

Was die Effizienz angeht, sieht man dass Trinity schon weit aus effizienter als Llano ist. Somit kann man auch als logischen Schritt folgern, dass es auch sehr an die Fertigung ankommt.

Es kann ja nicht sein, dass ein alter Thuban mit deutlich niedrigerem Takt in vielen Benchmarks sogar die Nase vor den neuen FX hat.
Überall dort wo der FX seinen Turbo nicht verwenden kann und keine 8 Threads ausgenützt werden kann, dass kann sich trotzdem noch ändern.

Damit Bulldozer-basierte CPUs für Notebooks interessant werden, muss also nicht die Taktrate hochgetrieben werden, sondenr die Leistung pro Takt.
Hier geht es rein ums übertakten, wieso checkt das keiner. Das ist ein Test, was ist möglich, wie schnell kann man Takten, sodass immer noch Befehle geholt werden und verarbeitet werden können.

Leider scheint das auch bei den optimierten Piledrivern noch nicht wirklich der Fall zu sein, denn gegenüber den Llanos kann der CPU-Teil der Trinity-APUs auch mit deutlich höheren Taktraten nicht wirklich glänzen.
Hm dann ließ dir mal die ganzen Test durch, dann wirst du sehen dass eine 35 watt Llano APU deutlich von einer 35 watt Trinty APU geschlagen wird.
Einzig die FPU lastigen Szenarien schlägt sich Pildriver etwas langsamer oder gleich schnell.
Doch der Verbauch ist überall gesunken. Besonders beeindruckend, wenn man bedenkt dass wenn man mit der igp ein Spiel zockt, einiges weniger verbraucht als llano und um Welten weniger verbraucht als SB mit igp....
Aber ja die meisten machen den Fehler und begutachten Trinity als CPU+ igp und nicht als Gesamtstück...
Aber ja da die ja gleich Pildriver heißen (Desktop noch nicht mal getestet worden ist) ist die Architektur-Verbesserung gleich ein Schass...

Den Test auf CB über die HD4000 haben hier ja schon einige vergessen.
Wenn man bedenkt dass scheinbar die i3 anfangs nur mit der HD2500 kommen, und Llano gegen die i5 IB schön behaupten konnten (also igp + dessen Anwendungen) bin ich schon sehr gespannt wie Trinity sich am Desktop schlagen wird.

Dann hätte die Netburst-Architektur der Pentium 4 ja auch richtig zukunftstauglich sein müssen.
Viele vergleichen Bulli auch mit dem, was in meinen Augen ein Fehler ist. Denn beide Architekturen verfolgen ein anderes Ziel.
Der Intel sollte mit einem hohen Takt eine starke Single core Leistung haben.
Der Bulli ist für Parallelisierung und vielen cores + kleinere DIE gedacht, als ein theoretische PII x8.
Der Pentium konnte wenigstens irwie ausgeschöpft werden, da man damals schon 1 thread verarbeiten konnte. Anders beim jzigen FX der oft von seiner Architektur nicht profitieren kann, da die Software fehlt...
 
Zuletzt bearbeitet:
Für AMD sicher eine tolle Werbung.
Aber ich bezweifle das sich der Kunde aufgrund solcher Ergebnisse sich für diese CPU entscheidet.
Naja wem bringt's was ... Dem Rekordhalter ... Wir haben den "längsten"...
sinnfrei
 
Hier geht es rein ums übertakten, wieso checkt das keiner. Das ist ein Test, was ist möglich, wie schnell kann man Takten, sodass immer noch Befehle geholt werden und verarbeitet werden können.

Dann können sie das Spielchen auch gleich mit einem FX-4100 absolvieren ,da brauchen sie wenigstens weniger Kerne abzuschalten :p
 
ich muss sagen, ich bezweifle ebenfalls die echtheit. allein schon dass das ergebnis mit "niedrigen" 1,9 volt erzielt worden sein soll. wenn ich son fettes sample hätte, würde ich doch testen, was bei 2 volt so geht. so weit bekommt man die guten sample unter ln2 fast immer.

Dann können sie das Spielchen auch gleich mit einem FX-4100 absolvieren ,da brauchen sie wenigstens weniger Kerne abzuschalten
stimmt, aber bei 8 kernen ist die auswahl an kernen größer. nicht jeder kern lässt sich gleich gut takten. ;) man kann sagen, ein fx8150-sample entspricht acht pentium 4 samples ;)
 
Zuletzt bearbeitet:
Herdware schrieb:
Hmmm...

Ich hatte eher den Eindruck, dass Bulldozer enttäuscht hat, speziell was seine Effizienz bei hohen Taktraten, angeht. Bei niedrigen Taktraten, wie sie z.B. bei den Server-CPUs (Opteron) üblich sind, sieht es deutlich besser aus, aber um so höher man eine Bulldozer-CPU taktet, um so schlimmer wird es in Sachen Effizienz.
Mit den Eindrücken ist so eine Sache. Fakten sagten mehr aus.

Ich schrieb, dass es ein guter Indikator für zukünftige Entwicklung war und nicht gleich die ganze Architektur beschreiben kann.
Bulldozer ist nunmal die CPU-Basis für AMD der nächsten 5-10 Jahre. Bulldozer steht erst am Anfang seiner Entwicklungen, und wie sich der entwickelt (Lösen von Bremsklötzen) sowie sich die Märkte entwickeln, wissen wird noch nicht.

Bulldozer ist eher am Anfang seiner entwicklung, Netburst war eher am Ende seiner Entwicklungen.
 
stimmt, aber bei 8 kernen ist die auswahl an kernen größer. nicht jeder kern lässt sich gleich gut takten.

Das ist klar ,aber dann nehmen sie halt 2 oder 3 und wenn sie einen über den Jordan jagen hat es wenigstens weniger gekostet ,würde gerne wissen wie viele von den FX-8150 bei dem Test ins Nirvana gewandert sind :p
 
aylano schrieb:
...
Bulldozer ist nunmal die CPU-Basis für AMD der nächsten 5-10 Jahre. Bulldozer steht erst am Anfang seiner Entwicklungen, und wie sich der entwickelt (Lösen von Bremsklötzen) sowie sich die Märkte entwickeln, wissen wird noch nicht.

Bulldozer ist eher am Anfang seiner entwicklung, Netburst war eher am Ende seiner Entwicklungen.

Netburst war von Anfang an schlecht und blieb bis zum Ende schlecht.
Zum Glück hat Intel nicht 10 Jahre abgewartet, bis sie die Reißleine gezogen haben und einen Neuanfang auf P3-Basis machten. ;)

Darüber, ob es machbar ist, die "Bremsklötze" bei der Bulldozer-Architektur zu lösen, kann man doch nur spekulieren. Da hilft einem so ein Extrem-Übertaktungs-Test auch nicht weiter.

Wie gesagt, konnte man, wenn der Verbrauch und die Hitze keine Rolle spielen, auch einen Netburst-P4 wunderbar hoch takten.

Intel hat es aber mit all seinen Möglichkeiten, dem Know How, dem Personal und dem Geld, nicht geschafft, die Mängel der Netburst-Architektur abzustellen, die höhere Taktraten unter realen Bedingungen verhinderten. Bzw. war wohl letztlich doch die ganze Architektur ein Fehlschlag.

Vielleicht macht AMD es jetzt besser, vielleicht sind es bei Bulldozer im Gegensatz zu Netburst nur ein paar abstellbare Probleme, die ihn noch zurückhalten, aber darüber kann man wie gesagt nur blind spekulieren.
 
hat einer eine Ahnung was das Ding mit seinen 1,9V so durchlaufen lässt an Strom?
 
Herdware schrieb:
Netburst war von Anfang an schlecht und blieb bis zum Ende schlecht.
Zum Glück hat Intel nicht 10 Jahre abgewartet, bis sie die Reißleine gezogen haben und einen Neuanfang auf P3-Basis machten. ;)
Netburst konnte bei gleicher Fertigung weder mit dem Vorgäner konkurrieren, noch konnte Pentium 4 sinnvoll im Notebook-Markt verkauft werden. Gut, aber wenn man die Welt mit Desktop-Gamer-Benchmarks pauschlisiert vergleichen will, dann sieht man halt vieles nicht.

Eine Neufang bräuchte AMD nicht wirklich.
Wenn die Probleme an den Shared-Ansatz im 4-Fach-Front-End @ 2x2-ALus liegen sollte, dann müsste ja das Wunder kommen, wenn man mit diesen 4-Fach-Front-End @ 4x1-ALUs (alias K10-Erweiterung von 3-fach @ 3-ALUs) daherkommt. Natürlich hat AMD im Vergleich zu vielen Foren-User die Kompitenz nicht gehabt, dass mit 4-Fach-Front-End @ 4x1-ALU nur so AMD alles richtig gemacht hätte.

Das wird sicher nicht spielen, da in beiden Fällen das Front-End deutlich verbessert werden muss, wie es Intel @ Core2-Duo weitermachte. Daher verstehen viel nicht, dass ein besseres Konzept nicht mehr ausreicht um Intels jahrelange kontenuierliche Architketur-Entwicklung einfach noch zu übertrumpfen. Und nebenbau soll AMD mit der verbesserten Architektur auch noch den Fertigungs-Vorteil kompensieren.

Die Meisten Bulldozer-Kritiker die ich mitbekommen habe, träumen ja noch am K7 & K8 Wunders. Nur wissen diese leider nicht, dass der K7 (55W) gegen Pentium 3 (25W) sogar weniger Effizienz war und das K8-Wunder eben auch in der Netburst-Ära kam.

Darüber, ob es machbar ist, die "Bremsklötze" bei der Bulldozer-Architektur zu lösen, kann man doch nur spekulieren. Da hilft einem so ein Extrem-Übertaktungs-Test auch nicht weiter.
Es ist schon mal mit leuten schwer zu diskutieren, wenn man schon mal sagte, dass dieser Übertaktung nur ein Indix ist und damit man nicht die Architektur pauschal diskutieren kann.
Zweitens, ist das diskutieren über eine Architektur sehr sehr schwierig.
Es sind halt viele gewohnt, viel Sachen zu ignorieren und es als positiv bzw. negativ der Architektur zuzuschreiben.

Es war ja bei K10-B2 auch nicht anders.
Damals lag immerhin mein EInschätzung richtig, dass es an der Nicht-Performance-Optimierung des Design lags, da AMD mal über die vielen Fehlerkorrekturen und non-Optimierungarbeiten berichtete.
Nur zur info. Eine 50% höhere Taktsteigerung schafft man nicht nur mit einer kleineren Fertigung.
 
und wenn der bulli dann die 10ghz-marke knackt, evtl. mit einem halben modul, freut sich der tüftler wie bolle.
super-pi heißt dann sogar peta-pi.

schon toll, was man mit so einer tollen bulli-cpu machen kann.

grüße
 
soweit ich weiß, wurde da Ergebnis schon gestern Abend von CPU-Z abgelehnt
 
aylano schrieb:
Netburst konnte bei gleicher Fertigung weder mit dem Vorgäner konkurrieren, ...

Das könnte man so eigentlich auch über Bulldozer und K10.X schreiben. :D
Ein FX-Prozessor kann, wie damals ein P4, schneller sein, als sein Vorgänger, aber nur durch massiv höheren Takt auf Kosten des Verbrauchs. Ich sehe da keinen wesentlichen Unterschied.

...noch konnte Pentium 4 sinnvoll im Notebook-Markt verkauft werden. Gut, aber wenn man die Welt mit Desktop-Gamer-Benchmarks pauschlisiert vergleichen will, dann sieht man halt vieles nicht.
...

Im Notebooksegment und eingeschränkt auch beim Desktop kommt AMD heute ein Trend der letzten Jahre entgegen: "Gut genug."

Heutzutage ist die CPU-Leistung den Anforderungen der meisten Anwendungen so weit vorrausgeeilt, dass man unter den meisten Umständen kaum noch einen Unterschied spührt, ob man eine hoch getaktete High-End-CPU im System hat, oder ein sparsames Low-End-Modell.

Besonders gilt das wie gesagt für Notebooks, die man primär für typische Office-Arbeiten, Surfen im Internet, hin und wieder mal ein Video usw. benutzt.
Selbst bei Spielen muss schon ein anspruchsvolleres kommen, um eine Mittelklasse-CPU (oder bei intel auch Low-End) ins Schwitzen zu bringen. (GPU-Leistung ist da wichtiger.) Anwendungs-Software, wo wirklich jedes bisschen CPU-Leistung gebraucht wird, (z.B. Videobearbeitung, Rendering usw.) wird eher nur von Profis benutzt.

Das war zu Pentium4-Zeiten noch anders. Da stiegen die Anforderungen an die CPUs noch rasant und wenn man einen alten PentiumIII durch einen P4 mit 2GHz mehr Takt oder einen Athlon64 austauschte, dann hat man das fast immer auch direkt gespührt. Neuere Software machte auf den "alten" CPUs einfach keinen Spaß mehr.
Und bei Notebooks machten sich die deutlich schwächeren Stromsparversionen der CPUs um so schmerzlicher bemerkbar. Das galt übrigens auch für die Mobil-Varianten des Athlon64. Auch das waren eigentlich Desktop-CPUs und die mussten für mobile Anwendungen extrem beschnitten werden. Aber von >4Stunden Akkulaufzeit konnte man damals trotzdem nur träumen.

All diese Probleme hat man heute nicht mehr in dieser Form. Im Prinzip könnte AMD auch weiter 5 Jahre alte Phenoms verkaufen und 90% der Anwender wären mit der Leistung vollauf zufrieden.

Das entschärft das Problem der fehlenden Leistung der Bulldozer-CPUs. Intel hat das Netburst-Debakel damals viel härter getroffen. Aber die konnten das dafür durch gutes Marketing und fiese kriminelle Maschen beim Gängeln von OEM-Kunden recht gut kompensieren.

Aber trotzdem kann AMD mit der Leistung/Effizienz, die Bulldozer bisher gezeigt hat, einfach nicht zufrieden sein. Wie gesagt spricht kaum etwas dafür, statt dessen nicht einfach einen alten Phenom zu kaufen oder zu behalten. Wo ist da der Fortschritt?
Einzige Ausnahme wäre hier wirklich der Notebook-Bereich, wo K8 und K10 einfach niemals so sparsam waren, wie sie hätten sein müssen, um mit Intel zu konkurrieren.
Die ruhmreiche Ausnahme davon sind allerdings schon die Llano-APUs mit ihren alten Star-Cores. Auch die sind ausreichend sparsam, um gute Notebook-CPUs abzugeben.
 
und was soll das bringen für otto normal user ?

ist zwar lustig zu lesen das es geht..aber im produktiven einsatzt ist sowas nur spielerei...

allein schon der preis für das stickstoff..wie gesagt alles nur reine spielerei..und komischerweise sind es immer leute die am arsch der welt wohnen und man es selber nicht überbrüfen kann..ob da alles mit rechten dingen zugeht..denn videos kann man ja auch faken...und bilder erst recht...ich will mal dabei sein wenn jemand den prozessor auf 8Ghz hochtorpetiert..dann würd ichs auch glauben:D
 
Im Prinzip könnte AMD auch weiter 5 Jahre alte Phenoms verkaufen und 90% der Anwender wären mit der Leistung vollauf zufrieden.

Wenn dem so wäre dann würden aber viele Zocker mit dicken Grafikkarten schwer betroffen sein ,wenn man nur die Zockergemeinde betrachte denke ich sind es mehr wie mehr wie 10 % ,die restlichen Anwendungsgebiete lasse ich mal bewußt außen vor.
Der Test müßte eigentlich bekannt oder nicht ?

https://www.computerbase.de/2011-11/bericht-gpu-braucht-cpu-zweiter-teil/3/
 
Zuletzt bearbeitet:
Herdware
Hm wenn du schon vergleichst dann bitte richtig...
Denn ein PII x4 wurde auf 45 nm ULK und das schon quasi mit perfektion gefertigt.
FX kam mit einen unausgereiften 32nm ohne ULK auf den markt. Ohne ULK 45 nm hätte der x4 übrigens mindestens eine TDP von 140 watt gehabt.

Btw, ein Hoher Takt ist nicht schlechtes. Intel hat bei Netburst einfach die pipeline-Stufen erweitert. Beim FX soll das ja nicht der plan sein, auf den Folien ist ja schon zu sehen dass man jz die IPC erhöhen möchte.
Der hohe Takt hat nur einen Nachteil gegenüber einer hohen IPC. Nämlich den, dass man mehr von der Fertigungstechnik abhängig ist, denn man muss eben dagegen arbeiten.

Das war zu Pentium4-Zeiten noch anders. Da stiegen die Anforderungen an die CPUs noch rasant und wenn man einen alten PentiumIII durch einen P4 mit 2GHz mehr Takt oder einen Athlon64 austauschte, dann hat man das fast immer auch direkt gespührt.
Und oft hab ich den Eindruck dass viele noch in dieser Zeit leben...

Leistung/Effizienz, die Bulldozer bisher gezeigt hat, einfach nicht zufrieden sein. Wie gesagt spricht kaum etwas dafür, statt dessen nicht einfach einen alten Phenom zu kaufen oder zu behalten. Wo ist da der Fortschritt

Also wenn ich einen alten Athlon 64 habe, und einen neuen PC kaufe, würde ich eher den FX nehmen als den PII x4 oder x6. Der Grund ist, dass der FX im 0815 Szenarien wesentlich effizienter arbeitet. Das liegt auch am verbesserten C&Q und p-states ect...
Aber ja wer die Effizienz durch Last Situationen beurteilt, kennt sowieso nur prime als Anwendung. Also ja als Benchmark CPU ist der FX 8150 was Effizienz angeht kein Prachtteil.

Außer es geht natürlich um Taktrekorde jagen xD.

und was soll das bringen für otto normal user ?
Nichts, weil der kennt meist nicht mal die Einheit 1/s

Tofu
Der test sagt genau das aus, dass die meisten 0815 menschen sowieso eine Mainstream karte kaufen, und mit einem x4 völlig gut befeuert werden können...
Und bevor ein 0815 mensch sich informiert oder gar was lesen muss bzw lernen, wird er sich einen neuen PC kaufen... Ob das nun 500 oder 1000 euro sind, kommt auf die Person an...
Weiteres, was ist wenn in 2 jahre die games hauptsächlich 8 Threads unterstützen. Ist zwar der i7 2600k schneller, der 2500k steht aber dann wesentlich hinter dem 8150. Und das kann man gut bei manchen Anwendungen sehen.
Somit was die Zukunft bringt weiß keiner, und was mal Leute in der Vergangenheit gesagt haben vergessen sowieso die meisten.
BTW wann wird die Performance einer 6990 Mainstream sein ?? in 2-3 Jahren ?
 
Zuletzt bearbeitet:
@ Tofu

Ich bin ja normalerweise argumentativ tendenziell eher auf der anderen (also deiner) Seite und würde Spielern ohne zu zögern zu Intel raten, aber wenn man sich die absoluten Zahlen der Benchmarks in diesem Artikel (im Anhang) anschaut, dann sind die fast immer deutlich über 30 FPS, auch bei den Phenoms. Wenn nicht, dann ist meist immer die GPU der Flaschenhals und es gibt fast keine Unterschiede zwischen den verschiedenen CPUs.
Ein Phenom ist also messbar deutlich schlechter als eine Intel-CPU, aber reicht fast immer trotzdem noch aus.

Was der Artikel aber vor allem auch zeigt ist, wie gering der Fortschritt zwischen Phenom und FX für einen Spieler ist. Selbst wenn man Intel als "Liga für sich" komplett ausklammert, ist es schwer, eine Daseinsberechtigung für die neueren Bulldozer-CPUs zu finden. Der Fortschritt gegenüber den alten AMD-CPUs ist einfach zu klein, oft genug sind die Phenoms sogar vor den FX und genau das ist das Problem, das ich meine.
 
Zuletzt bearbeitet:
Herdware schrieb:
Das könnte man so eigentlich auch über Bulldozer und K10.X schreiben. :D
Ein FX-Prozessor kann, wie damals ein P4, schneller sein, als sein Vorgänger, aber nur durch massiv höheren Takt auf Kosten des Verbrauchs. Ich sehe da keinen wesentlichen Unterschied.
Höhre IPC geht auch auf Kosten höhren Stromverbrauchs.
Gut konnte man das beim Nehalem siehen, wo die Desktop-Version 0,1 Volt geringere Spannungen bekommen und die Notebook-Verision in 45nm gar übersprungen wurde.
Nehahelm hatte einen höheren IPC aber entsprechend den Stromverbrauch. So brauchten dann eine Strukturverkleinerung (32nm) um die neue Architektur mit gleichen Notebook-Takten am Markt zu bringen.

Übrigends, alle die Bulldozer als schlecht bezeichnen, wissen ja wieder nicht, dass z.B der K10 @ Notebook damals ebenfalls mit 45nm eine Strukturverkleinerung brauchte, um den höhere Stromverbrauch infolge IPC kompensieren zu können und somit mit gleichen/etwas besseren Takten im Vergleich zum Vorgänger einführen zu können.

Wie gesagt spricht kaum etwas dafür, statt dessen nicht einfach einen alten Phenom zu kaufen oder zu behalten. Wo ist da der Fortschritt?
Selten zahlt sich es aus, den Vorgänger durch den Aktutell zu ersetzten.
Zuerst zahlten sich die niedergetakteten Dual-Cores gegenüber Single-Cores nicht aus. Später die niedergetakteten Quad-Cores gegenüber den Dual-Cores.

Und die Core2-Duo Notebooks waren auch nur so schnell weil sie mit 35W-TDP so 50% mehr Strom verbrauchten als die Pentium M. Wer eben nur auf CPU-Performance schaute, hatte eben nicht mitbekommen, wie sich (teils ungeünstig) die CPU-Effizienz (bei Notebook & Co bzw. generell) entwickelte.

Aber trotzdem kann AMD mit der Leistung/Effizienz, die Bulldozer bisher gezeigt hat, einfach nicht zufrieden sein.
Ab wann soll AMD denn zufrienden sein?
Wenn ihre Architektur 50% besser als Intels seine und somit die CPU-Performance auf Intel-Niveau wäre??
Entscheident ist auch nur, wie sich die Architektur in den nächsten Jahren entwickelt und nicht, wie erfreut manche Desktop-Gamer sind. Und wie sich eine CPU-Entwickelt, hängt von ihren Potentialen ab. (Eine davon ist die Taktbarkeit)
Das ist natürlich aus unserer Sicht sehr spekulativ zu diskutieren. Aber wenn einer das nicht kann, sollte er auch nicht die 5-10 jährige Zukunft nur am aktuellen Einführungsprodukt laufend beschreiben.

Es haben sich beim Bulldozer schon jetzt jene Leute sich total verbissen, die Bulldozer als krank & Flop bezeichneten und somit einen Flop bei Trinity vorhersagten. Die hatten eben damals nicht glauben können, dass Bulldozer mit höhren Takt zulegen könnte, weil der Bulldozer angeblich sooooo ineffizient ist und keine höheren Takte bei gleiche TDP wie beim K10 möglich wären.

Der erste Schritt ist getan. Der ist momentan nicht berauschend, aber schlecht noch nicht.
Und so schlecht ist der nicht. Bulldozer ist eine der wenigen AMD-Architekturen, die innerhalb eines Jahres in Server & Notebook & Desktop gut eingeführt werden konnten..

Ich glaube, das schaffte nur der K8. Weder K7 noch K10 schafften das.
Der K10 brauchte mit Tigris fast 2 Jahre + eine Strukturverkleinerung.
Beim K7 weiß ich es nicht genau, aber die Desktop-K7 waren mit 55W schon sehrviel problematischer als die Pentium 3 mit nur 25W.
 
Zurück
Oben