News AMD: „Vishera“-Flaggschiff FX-8350 mit 4 GHz Basistakt

Schaut euch doch mal den neuen Turbo Core 3.0 an. Keiner weiß wie das beim Bulldozer funktioniert.
4,2 GHZ auf 2 Module wird somit der Maximaler Verrbauch sein. Das war schon beim FX 8150 so. Somit wird der Verbrauch vllt gar nicht wieder gehoben. Im Gegenteil steigt aber die Performance dank etwas besseren IPC.
Da man aber vllt dank besseren Fertigung den Basistakt um 400 MHZ anheben konnte, kann es gut sein, dass man bei 4 Threads den größeren i7 sehr gefährlich werden kann, zumindestens wenn es um multi core geht.
Naja ich bin gespannt wie der Turbo läuft. Ob dieser wieder auf 2 Module beschränkt, oder ob er ähnlich wie der FX 4200 1 core per modul deaktiviert.
Es gibt soviele unbekannte Variablen, aber viele reden von Faildozer.
BTW nur weil es eine 125 watt tdp Variante gibt, heißt das nicht gleich dass es keine 95 watt tdp Variante gibt. Kann gut sein, dass die 95 watt tdp beim FX 8150 steht oder drüber.
125 watt tdp klingt viel, wenn die Performance nicht dazu passt...

Weiters kann der 4ghz Basis-Takt auch deshalb zustande kommen, falls der Turbo einfach nichts packt.
Wobei ich hab noch eine andere Frage. ist es sicher dass 4ghz der Basistakt ist ???
Kann es nicht auch sein dass es der max Turbo auf 4 threads ist, würde auch erklären warum der max Turbo nur 4,2 ghz beträgt....
Immerhin hatte der FX 8150 auch einen Turbo auf alle 8 threads auf Richtung 3,9 ghz oder so ?

Das Problem ist, sie können Intel leider nicht schlagen, da Intel mehr Spielraum nach oben hat. Die könnten problemlos mehrere Schritte an der Taktschraube drehen und schnellere Modelle nachschieben, um einen schnelleren Piledriver-AM3+ einfach zu schlagen.
Können sie das ? werden sie wahrscheinlich nicht tuen. Denn der i7 3770k ist schon sehr nahe an SB-Extreme und die werden n Kack machen um ihre extrem-Plattform zu gefährden, eher würden sie diese Plattform pushen.

das kann unmöööhöööglihich dein ernst sein! so ein sandy bridge e ist halt einfach nochmal um ein brutales stück schneller als dieser FX-heizer, denn mit genug leistung ist sowas auch gerechtfertigt.
brutales stück, FX-heizer, Faildozer ect
Wo sind wir eigentlich hier ? ist CB ein populistisches Blatt geworden oder wie kann ich mir das vorstellen ?
BTW und was ist wenn die multicore Performance des FX 8350 einem SB-Extrem Niveau annähert, ist dann der Verbrauch angemessen ???
 
Zuletzt bearbeitet:
Ich finde es auch stark verfrüht, Vishera abzuschreiben.

In Trinity zeigt die Piledriverarchitektur eine recht deutlich bessere IPC, als Bulldozer. Sogar schon ohne L3-Cache.
Wenn dann noch die Taktfrequenzen steigen, ohne dass dabei der Verbrauch in die Höhe schießt, was durchaus möglich ist bei einem gereiften Fertigungsprozess, die Turbofunktion gut greift, um bei Single-Thread-Anwendungen/Spielen zu helfen, usw. könnte Vishera zumindest den Rückstand zu Intel im Consumer-High-End-Bereich wieder deutlich verringern.

Dass Vishera nochmal auf AM3+ setzt, freut natürlich die Leute, die sich für Zambezi so ein Board gekauft haben und aufrüsten wollen. Andererseits ist es schon etwas kurrios, dass AMD die ersten PCIe3.0-Grafikkarten auf den Markt gebracht hat, aber bis auf weiteres keine CPUs und Chipsätze in Sicht sind, die das unterstützen.

AMD braucht möglichst bald eine neue, moderne Plattform für die High-End-CPUs. Hypertransport war seinerzeit eine großartige Sache, aber FMx und natürlich die aktuellen Intel-Sockel/Chipsätze zeigen wo es zukünftig lang geht. Der PCIe-Controller z.B. gehört direkt in die CPU.
 
Herdware
Kann gut sein dass auch DDR4 ein Grund war warum AMD noch nicht den neuen Sockel eingeführt hat.
Eigentlich hätte ja schon mit Piledriver der neue Sockel eingeführt werden.

Nvidia Grafikkarten im Moment zwar die beste Lösung für anspruchsvolle Gamer dar
Da Metro ein Musterbsp für zukünftige Games ist, würde ich diese Aussage überdenken.
Es kommt bei Grafikkarten meiner Meinung nach auf persönliche Vorlieben an, ob AMD oder NV die Richtige karte ist.

Der Grund ist, dass die TDP für 98% der PC-Käufer absolut total vollkommen egal ist und die nicht einmal wissen, was das ist.
Haha viele die hier mit den Kürzel herumjonglieren wissen nicht mal was das ist :O
 
Zuletzt bearbeitet:
Dennis_50300 schrieb:
Ich hab jetz nicht alles gelesen aber von der 1. Seite nichtmal die hälfte, das reicht schon... Intel-Fanboys... :rolleyes:

Nur mal so zur Info, mit meiner Hardware momentan säge ich jeden Intel ab im Cinebench 11.5 :D

So und der Prozessor war mit sicherheit wenigstens zu 50% günstiger :evillol:

Wenn der neue FX, @Stock meinen X6 packt würde ich mir dann einen holen und den dann undervoltet laufen lassen.

Bin mit jetziger Performance aus meinem SysProfile zufrieden, GTA IV läuft butterweich.

3.7GHZ/Turbo 4,1GHZ so im Groben, 2640MHZ NB-Takt, 18xx HT-Link, RAM auf ca. 1400MHZ 9-9-9-24-34 2T @1,5V, die 6870 DirectCU auf 970/1140, Stock wäre hier 910/1050.


Gruss Dennis_50300

Lol, aber nicht @3,7 Ghz. Selbst ein Wald-und-Wiesen Vier-Kerner-Intel aus der vorherigen Generation, wie der 2500k, schafft mit mäßigem OC über 7 Punkte. Und ich schätze du liegst mit deinem max. OC bei 6.5?

Das macht den X6 natürlich nicht schlecht - ich nutze ihn ja auch...

Nach der schwachen Bulldozer Leistung ist Vishera jedenfalls endlich wieder ein Schritt in die richtige Richtung.
 
Zuletzt bearbeitet:
Da hier ja so viele Failintelexperten sind,kann mir sicher jeder davon mal sagen in welche TDP Klasse mein Bulldozer gerad ist und natürlich mit welchem Programm dies gemessen wird.
Ich messe an der Dose zwischen Idle und Last
50Watt im Cinebench
53Watt beim Encodieren
70Watt unter Primelast

Der Nicht messbare Bereich fällt mit 2-3Watt so gering aus,das man dies mit dem Eigenanteil vom NT (9%)locker verrechnen kann und somit die oben gemessenen Werte schon fast wieder zu viel sind.
 
Zuletzt bearbeitet:
Benchmarks werden es zeigen. Vorher ist alles nur Spekulation.
Ich warte immernoch auf optimierte Software für die Bulldozer Kerne. Ich hoffe AMD kommt bald wieder auf Augenhöhe mit Intel. Wäre für uns Alle gut.
 
Auch Benchmarks zeigen ned allzuviel. Das einzig wichtige ist der Speed in der Realitaet. Ob dann fehlende Optimierung usw schuld ist, ist voellig wurst, was zaehlt ist, was da ist, was am Ende rausschaut. Ich ess auch nicht eine Tomate, einen Loeffel Oregano, ein Handvoll rohes Hackfleisch, etwas Hartweizen usw und erzaehle dann, das sei eine super Portion Spaghetti Bolognese gewesen, nur leider noch nicht ganz optimiert.

Aehnlich: Hab grad gestern in der Ct nen vergleich zwischen einer schlechten und der besten SSD gesehen ... macht ein paar Sekunden beim Booten aus und im Hauptbetrieb mit verschiedensten programmen gar nichts mehr.
 
voon schrieb:
Ich ess auch nicht eine Tomate, einen Loeffel Oregano, ein Handvoll rohes Hackfleisch, etwas Hartweizen usw und erzaehle dann, das sei eine super Portion Spaghetti Bolognese gewesen.
Das ist ja wie I3,I5 vs Fx 8150 .Solange ich alles EINZEL esse,ist die Intel Welt noch iO,aber wenn ichs richtig will (Portion),komm ich am günstigen FX 8150 nicht vorbei.:p
 
Zuletzt bearbeitet:
Wir alle können "hoffen", dass der "Bulli2" eine Steigerung zum aktuellen Bulli wird.

Die Vor- und Nachteile wurden schon Millionenmal wiederholt und es dauert keine 10 Posts, bis so ein Schmarn von NIGHTFIL und co...wiedergekaut wird. Fakt ist, dass es Anwendungen gibt, wo SB/IB von der Bullileistung nur träumen können (Und eben umgekehrt).

Evtl. wäre es intelligenter, weniger immer wieder neue Befehlssätze (Beidseitig) zu entwicklen und stattdessen die Optimierung der vorhandenen softwareseitig besser zu unterstützen....da liegt so viel Potential brach...sieht man ja bei den Konsolen bzw. bei Software, wenn sie optimiert ist....da könnte man sich ein Lizenzierungsmodell vorstellen, welches zusätzliche Einnahmen generiert:-)

Wichtig ist auch, dass zumindest im Consumerbereich heutzutage fast egal ist, welche CPU mit wie vielen Kernen verbaut ist...es bieten alle genügend Leistung für die täglichen Aufgaben (Sonst hätten auch Smartphones heute keine Chance)...früher gab es da weit mehr Probleme, wenn man die günstigste CPU gekauft hatte....heute ist diese schon für Office und co. überdimensioniert....

Zumindest Trinity lässt da schonmal positive Spekulationen zu.
 
Zuletzt bearbeitet:
cr4zym4th schrieb:
...Fakt ist, dass es Anwendungen gibt, wo SB/IB von der Bullileistung nur träumen können (Und eben umgekehrt).

Ich nehme an, damit meist du nur preislich vergleichbare SB/IB, denn ein SB-E(P) mit 6-8 Cores + HT dürfte in wirklich jeder Disziplin deutlich vorn jedem FX und Bulldozer-Opteron liegen.

Wobei ich das Preisargument immer etwas kritisch sehe. Nur weil AMD seine absoluten High-End-Modelle zu Preisen von Intels Mittelklasse anbietet, macht das AMDs Situation bzw. das Gesamtbild der CPU-Leistung nicht besser.
Wenn Intel wollte bzw. durch die Konkurrenzsituation dazu gezwungen würde, könnten sie die eigenen 6- oder 8-Core-CPUs auf das Preisniveau von AMDs besten Modellen senken und dabei immer noch mehr Profit machen.

AMD kann nur deshalb beim Preis glänzen, weil Intel es nicht für nötig hält, sich auf einen echten Preiskampf einzulassen.

Evtl. wäre es intelligenter, weniger immer wieder neue Befehlssätze (Beidseitig) zu entwicklen und stattdessen die Optimierung der vorhandenen softwareseitig besser zu unterstützen....da liegt so viel Potential brach...sieht man ja bei den Konsolen bzw. bei Software, wenn sie optimiert ist....

Ich sehe das genau anders herum.

Ganz besonders für AMD.
AMD muss seine CPUs vor allem auf die marktübliche Software optimieren. Als "David" der x86-Hersteller können sie es sich nicht leisten, der Softwareindustrie einfach ganz neue Architekturen und Features vorzuwerfen und dann zu fordern, dass alle Anwendungen und Spiele gefälligst dafür optimiert werden sollen.

Nicht mal der x86-"Goliath" Intel hat so viel Einfluss auf den Softwaremarkt.
Das haben sie oft scherzlich zu spühren bekommen. Z.B. beim seinerzeit schon voll auf 32Bit optimierten Pentium Pro, der aber bei der damals noch üblichen 16Bit-Software nicht an den alten Pentiums vorbei kam und spektakulär floppte. Oder auch die diversen Versuche von Intel, von x86 ganz wegzukommen und neue inkompatible Architekturen zu etablieren. Z.B. i860 und Itanium.

Intel hat diese Lektion gelernt und spätestens seit dem Core 2 liegt das Hauptaugenmerk immer darauf, dass die derzeit aktuelle Software optimal von der CPU unterstützt wird.
Die CPU wird für den üblichen Code optimiert, nicht anders herum.

Das bedeutet nicht, dass es keine Innovationen geben kann. Aber die neuen Features müssen immer als "Bonus" auf die optimale Unterstützung herkömmlicher Software oben drauf kommen.
Die neue CPU muss unter allen Umständen alles besser können als die alten Modelle und dann noch zusätzlich die Option auf weitere Leistungssteigerungen durch speziell optimierte zukünftige Software oben drauf.

So hat es Intel auch bei den Multi-Core-CPUs gehalten. Sie haben dabei nie die Single-Core-Leistung hinten runter fallen lassen, sondern darauf geachtet, dass die Quads- und Hexas auch bei Single-Thread-Software ganz vorne mit dabei sind.

Aber das beste Beispiel, wie man es richtig macht, waren AMDs Athlon64.
Mit dem namensgebenen 64Bit-Support konnte auch Jahre nach der Markteinführung praktisch niemand etwas anfangen. Aber das machte nichts, denn die Athlon64 waren auch mit 32Bit-Software absolute Spitzenklasse!
Als 64Bit dann langsam interessant wurde, waren CPUs mit AMDs 64Bit-Erweiterung schon stark verbreitet. So stark, dass Intel keine andere Chance hatte, als die auch für ihre CPUs zu übernehmen.

Aber eine CPU, die sich von Anfang an nur auf neue Features stützt, wird zwangsweise scheitern, denn selbst wenn es in einigen Jahren dann verbreitet Software geben sollte, die dafür optimiert ist, wäre es schon zu spät. Dann sind die "ihrer Zeit vorrauseilenden" CPUs schon längst wieder museumsreif und sowieso von Anfang an gefloppt.
Womit sich die Katze in den Schwanz beißt, denn je erfolgloser die neue CPU anfangs ist, um so unwahrscheinlicher ist, dass Software überhaupt jemals auf ihre neuen Features angepasst wird.
 
Zuletzt bearbeitet:
Herdware schrieb:
AMD kann nur deshalb beim Preis glänzen, weil Intel es nicht für nötig hält, sich auf einen echten Preiskampf einzulassen.
Die Wirtschaft ist keine Kindergarten, wo man aus Emotionen auf den Gegner einschlägt.
Intel will, wie viele andere, maximale Gewinne. Früher war es billiger mit Mrd. Euro die Konkurrenz zu beschränken, als in einen Preiskrieg zu treten.

Intel hat diese Lektion gelernt und spätestens seit dem Core 2 liegt das Hauptaugenmerk immer darauf, dass die derzeit aktuelle Software optimal von der CPU unterstützt wird.
Die CPU wird für den üblichen Code optimiert, nicht anders herum.
Das hat nichts mit lernen zu tun, sondern Intel hat einfach 3 Architekturen entwickelt und eines aussuchen können. Und wenn man es nicht aussuchen kann (Larrabee), dann entwickelt man weiter bis es vernünftig aussieht.
AMD konnte das eben nicht.
Erstens muss ihre Hauptentwicklung funktionieren und zweitens, muss es dann am Markt.

So hat es Intel auch bei den Multi-Core-CPUs gehalten. Sie haben dabei nie die Single-Core-Leistung hinten runter fallen lassen, sondern darauf geachtet, dass die Quads- und Hexas auch bei Single-Thread-Software ganz vorne mit dabei sind.
Klar können die das, weil der Core immer breiter wurde und der Fertigungs-Vorsprung den erhöhten Stromverbrauch kompensiert. Das verstehen wieder nicht. Dazu war der Ruf besunders gut, weil er gut übertaktbar war. Dass AMD mit Athlon X2 4850e fast die selbe Effizienz hatten wie die Pentium-Cores die damals Rauskamen, wissen natürlich nicht. Die Basis eines Mythos ist ja die Unwissenheit und der Kult der drum aufgebaut wid.
Das war auch jener Zeitraum (2007-2H), wo AMD mit Marktanteile wachsen konnte.

AMD kann das eben nicht und muss über die Architektur versuchen die Effizienz zu steigern. Daher ist AMD eben gewungen, mit Innovationen neue Wege zu gehen.
Nachdem es mit AMD-64 und IMC funktionierte und AMD Intel die Rücklichter zeigen konnte, wird AMD gleich das Versagen zugeschrieben, nur weil Bulldozer gegenüber Core iX-Architektur so viel besser ist, dass sie den Vorsprung der Fertigung auch noch kompensieren können.

AMD kommt mit Bulldozer eben mit einer Neuen Architektur und hat somit das höhere Steigerungs-Potential. Wenn AMD in Zukunft stärker zulegen kann, als Intel mit ihre ausgereitzerten Architektur, dann werden sich in Zukunft noch viele wundern.

Ich kann mich gut an R600-Zeiten erinnern, wo sehr viele dachten, dass ATI/AMD im Grafiksekment nie mehr Zurückkommen werden, da Nvidia mit ihrer G80-Architektur sowieso überlegen sind und mit PhysX & Cuda & Tesla weiter zulegen werden, was AMD noch die Zukunft erschwert. Aufgrund der zukünftigen absolute Überlegenheit von Nvidia waren es vielen Leute nicht einmal wert über ATIs Grafikkarten zu diskutieren. Genauso wie sich Nvidia-CEO sich nur mehr gegen Intel anlegte.

Eben ab RV670 hat AMD eben stückchenweise aufgeholt und es stellte sich diese Architektur als sehr konkurrenzfähig heraus, weil sie nicht für 2006 entwickelt wurde, sondern für 2006 bis 2011. Und wenn Bulldozer genauso stärker zugewinnt als die Konkurrenz, dann könnte es genauso aussehen. Eben, weil Bulldozer nicht für 2011 entwickelt wurde, sondern für 2012-2018?
 
Zuletzt bearbeitet:
Ich meinte halt wegen Optimierung: Man sieht ja, wie Befehlssätze AES und so die Anwendungen beschleunigen können. Jetzt hat man ja diese ganzen SSE-Stufen. Die meisten Anwendungen (Also jene, die man eben täglich braucht) profitieren praktisch kaum von diesen. Vielleicht wird mal SSE1 (Pentium3, bei 2 bin ich nicht sicher) oder SSE2 (Pentium4!) supported. Früher wurde MMX und 3D-Now vorausgesetzt und brachte tatsächlich einen Mehrwert.

Ich meinte bezüglich Bulli vs IB wirklich, dass es Situationen gibt, wo IB/SB keine Chance gegen Bulli (Immer auch bezogen auf den Preis) haben bzw. wo dieser seine Stärken ausspielen kann. Diese Anwendungen sind aber eben nicht die üblichen und da ist das Problem. Die Tests dazu gibt es ja im Netz.

Nicht mal der x86-"Goliath" Intel hat so viel Einfluss auf den Softwaremarkt.
Das haben sie oft scherzlich zu spühren bekommen. Z.B. beim seinerzeit schon voll auf 32Bit optimierten Pentium Pro, der aber bei der damals noch üblichen 16Bit-Software nicht an den alten Pentiums vorbei kam und spektakulär floppte. Oder auch die diversen Versuche von Intel, von x86 ganz wegzukommen und neue inkompatible Architekturen zu etablieren. Z.B. i860 und Itanium.

Ja, das waren noch Zeiten:-) Oder die Rambus-Geschichte, die dann preislich am Ziel vorbei schoss:-)

Die 64-bit Geschichte war dann fast wieder lustig, weil man die Vorteile ja eigentlich nur mit Linux ausspielen konnte. Aber alle (v.a. Mediamarkt und co) prahlten mit 64-bit.

Intel wäre mit seinem Q6600 im Jahr 2006 bzw. Anfang 2007 auch ganz knapp an deinem letzten Absatz vorbei: Richtige Vorteile nur bei optmierten Anwendungen und v.a. nur übertaktet (Ok, das war wohl das Hauptargument für den "Erfolg" zumindest in der Consumer-/Spieleszene), welche aber erst 2 bis 3 Jahre nach der Erscheinung so richtig zur Geltung kamen. Und jetzt reicht die Leistung zum Glück immer noch so knapp. 3DFX ist damit leider untergegangen.

Ganz besonders für AMD.
AMD muss seine CPUs vor allem auf die marktübliche Software optimieren. Als "David" der x86-Hersteller können sie es sich nicht leisten, der Softwareindustrie einfach ganz neue Architekturen und Features vorzuwerfen und dann zu fordern, dass alle Anwendungen und Spiele gefälligst dafür optimiert werden sollen.

Ja genau. Aber eben: Warum bringt man immer wieder neue Dinge, die sowieso nur in Spezialfälle gebraucht werden. Warum wird das optimiert, was schon vorhanden ist (Soft- oder hardwareseitig) und zumindest am Ende nicht langsamer als vorhin lief. Ich weiss es nicht und es ist ja auch nicht meine Aufgabe, aber ich hoffe mal bzw. gehe davon aus, dass die hochbezahlten Leute sich das schon irgendwie überlegt haben.

Und der letzte Faktor ist auf jedenfall wie immer das Geld: Den Jahresumsatz, den AMD macht, nimmt Intel wohl zum Zigarren anzünden...das sind einfach ganz andere Kräfteverhältnisse, die da wirken. Und die GlobalFoundries waren bisher auch mehr Last als Hilfe, da die ihre Fertigung einfach nicht in den Griff bekommen...
 
Zuletzt bearbeitet:
cr4zym4th schrieb:
...
Intel wäre mit seinem Q6600 im Jahr 2006 bzw. Anfang 2007 auch ganz knapp an deinem letzten Absatz vorbei: Richtige Vorteile nur bei optmierten Anwendungen und v.a. nur übertaktet (Ok, das war wohl das Hauptargument für den "Erfolg" zumindest in der Consumer-/Spieleszene), welche aber erst 2 bis 3 Jahre nach der Erscheinung so richtig zur Geltung kamen. ...

Stimmt. Das war kein so gutes Beispiel. (Bei Gulftown und SB-E passts aber.)

Ich habe mir seinerzeit auch lieber einen höher getakteten Coe2Duo geholt, als einen der ersten Quadcores. Es hat eine Weile gedauert, bis die C2Q wirklich eine rund um bessere Wahl waren, als die Daulcores.
Aber andererseits war der Q6600 ja auch nicht der Ersatz für die C2D, sondern eine Ergänzung/Alternative. Mit allen Pentium4 Single- und Dualcores fegte der Q6600 auch mit Standardtakt und Single-Thread-Anwendungen den Boden auf. ;)
 
Ich finde es auch stark verfrüht, Vishera abzuschreiben.
Ich finde es stark verfrüht, Vishera schon hochzuloben.
Wichtig ist auch, dass zumindest im Consumerbereich heutzutage fast egal ist, welche CPU mit wie vielen Kernen verbaut ist...es bieten alle genügend Leistung für die täglichen Aufgaben
Und genau heute werden der Faktor Preis und Stromverbrauch entscheiden, wer was kauft. Zumal man sich dann ja fragen muss, warum AMD eine 4Ghz CPU heraus bringt und nicht statt dessen eine 3,6Ghz mit gescheitem Turbo und weniger Stromverbrauch.
Ich würde mir von AMD ein "back to the roots" wünschen. 4 Kerne CPU´s mit mehr power und weniger Stromverbrauch als die alten Phenom. Quasi Alternativen für den Intel i5 Markt zu bieten und die User mit einem alten AMD 4 Kerner wieder an die Ladentheke holen.

AMD kann nur deshalb beim Preis glänzen, weil Intel es nicht für nötig hält, sich auf einen echten Preiskampf einzulassen.
Genauso sehe ich das auch. Das ist leider ein Nachteil für uns alle.
Ich denke, dass Intel auf jeden Fall ein Monopol vermeiden will. Welchen Vorteil hätte Intel, wenn es kein AMD mehr gäbe. Die paar Prozent Marktanteil?
So kann Intel fröhlich weiter (bessere) CPU´s basteln und besser heißt hier 22nm und Trigate wobei Intel auch dafür die Preise rechtfertigen kann, weil AMD immer noch auf 32nm rumgurkt. Schafft AMD es 22nm zu bauen, ist Intel bei 14nm angelangt.
Somit ist für mich eine 4Ghz CPU mit schwachen Turbo und 125W TDP nicht die richtige Antwort, aber warten wir einfach einmal ab, wann die CPU heraus kommt, weil angekündigt wurde ja schon viel und die Testberichte werden dann interessant sein. Ich habe kein Problem damit, wenn der FX-8350 mit dem 3770K gleich zieht. Wünsche es mir sogar, kann es aber nicht wirklich glauben.
 
Zuletzt bearbeitet:
das problem bei amd ist leider schon die ganze zeit, das deren reine cpuleistung nicht mit intel konkurieren kann. deren cpu`s sind einfach effizienter und schneller.
leider ist das auch bei der bulldozer-architektur so.
da helfen auch die hohen taktraten nichts.
bulldozer kann da punkten, wo etwas auf diese architektur optimiert wurde.
bei allen "normalen" anwendungen/operationen, kommt bulldozer leider nicht die gegen die core i cpu`s an. es ist meiner meinung nach eher nicht damit zurechnen, das jetzt alle erdenkliche software extra für amd/bulldozer angepasst wird.
deshalb bringt bulldozer meiner meinung nach nicht viel.
ich sage das übrigens als amd-fan. hatte die ganze zeit amd und mag amd.
bin erst seit kurzem auf intel umgestiegen, weil ich mehr cpu-power brauchte.
was die in die cpu integrierte gpu angeht, sieht es wieder komplett anderst aus.
da kann amd/ati punkten, da deren gpu`s um längen performanter sind, als alles was intel zur verfügung steht. bei intel war integrierte grafik, was die performance betrifft, schon immer ein trauerspiel. das ist erst mit dem clarkdale etwas besser geworden. dennoch werden sie immernoch gnadenlos von amd/ati und nvidia versägt.
da wo es auf cpu-power ankommt würde ich zu intel raten.
für multmedia wie z.b den bau eines htpc`s würde ich amd/ati vorziehen, da deren produkte gerade in diesem sektor punkten können.


Gruß
gman
 
Zuletzt bearbeitet:
@Herdware

intel könnte und intel macht, ist doch alles gewäsch! der preis ist weit von jeglicher realität bei intel.
und ich vermute mal das du noch keinen einzigen server bulli in aktion gesehen hast. den markt hat intel auch schon etliche male beschissen, so what. ich bleib lieber bei einer kleineren firma die wenigstens anstand hat. oder das mainboard massaka bei intel war auch lustig ( bzw. peinlich ).

was hier teilweise verzapft wird von den intel fanatikern ist echt lächerlich.

geh einfach mal auf schottenland, vergleiche die flagschiffe miteinander und schau dir den preis an, dan schauste dir denn leistungsunterschied an und kommst zu einem entschluß, und der heisst amd!!!! da das gesamte packet deiner hardware im endeffekt zählt. bei einem gescheiten intel system bezahlt man ca 1200 bis 1500 euro. bei amd kommste knapp auf 1000 wenn überhaupt. und bei einem preisunterschied von 200 bis 500 euro steht für mich ein klarer kaufkandidat da und der ist von amd. denn für etwas mehr leistung, bezahl ich nicht bis zu 50% mehr!!!

ist eine einfache rechen aufgabe sonst nichts.

mit intel jünger ist es wie bei denn autofahrern die umbedingt einen mercedes haben müssen, ein schwanzersatz.

mfg bin hier raus kann mir dieses geschwätz nicht mehr geben.
 
Zuletzt bearbeitet:
OldDirtyBastard schrieb:
p.s. für die ganz langsamen hier noch mal; T D P hat absolut null mit verbrauch zu tun.

ich hab ja auch nen bulli, aber bei mir war das eine entscheidung trotz des enormen stromverbrauchs... mein System verbraucht glaub im Idle 80W, das schon viel, weiß nicht wieviel undervolting bringen würde... aber naja bei mir ists auch weitgehend wurscht da ich den bulli nur zum zocken hoch fahre und sonst getrennt mein Linux auf nem zacate benutze für 99% der zeit...

aber wenig stromverbrauch sieht anders aus, wenn undervolting nicht grad den stromverbrauch halbiert, was ich nicht glaube... bin ich daovn nicht begeistert... gut hab die 2/4 core version das macht die sache noch schlimmer, aber auch bei nem 4/8core wäre das nicht so doll...
 
ich hab ja auch nen bulli, aber bei mir war das eine entscheidung trotz des enormen stromverbrauchs... mein System verbraucht glaub im Idle 80W

zum vergleich: das system aus meiner signatur, braucht im idle und für normales arbeiten, also nichts was die die cpu jetzt extrem belastet, ca. 35 watt.

wenn eine lastsituation ansteht, hat der core i aus meiner signatur, auch die entsprechenden muskeln um das zu stemmen.

das war leider bei meinem vorigen amd-system nicht so.
ich hatte einen amd x2 4850e mit 45watt tdp als arbeitsystem.
im idle verbrauchte das system ca. 45 watt, also 10 watt mehr, als mein jetziges intelsystem und muskeln, wenn es mal auf leistung ankam, hatte das system auch nicht.

der nächste htpc wird wohl amd. da wo ich leistung brauche, werde ich aber wohl um intel nicht herumkommen;(

was den preis unterschied betrifft: ja, intel lösungen sind etwas teuerer, das ist fakt.
niemand der bei verstand ist und sein system nur für normales arbeiten braucht und kein absoluter highendfreak ist, würde sich aber die jeweils aktuellen flagschiffe der hersteller kaufen. da zahlt man doch immer drauf!
man kauft in der regel eine performante mid-range-cpu, bei der auch das preis leistungsverhältnis stimmt. nach meinem berechnungen, hätte ich für ein vergleichbares amd system, ca 80e wenige rbezahlt, aber auch ungleich weniger leistung gehabt. das hat mich nicht überzeugt, weshalb ich mich diesmal bei meiner workstation für intel entschieden habe...
ich bin bisher mit dieser entscheidung sehr zufrieden.

Gruß
gman
 
Zuletzt bearbeitet:
Zurück
Oben