News AMD: „Vishera“-Flaggschiff FX-8350 mit 4 GHz Basistakt

@derbiber

'Intellastig' ist in CPU-Kreisen ein Fremdwort. Hier gibt es keine Treiber, die die Recheneinheiten skalieren.
Wozu brauch man bitte extra einen Intel, selbst die SSE-Sätze werden von beiden Seiten unterstützt, auch wenn sie getrennt entwickelt werden.
Du meinst bestimmt, dass viele Programme nur wenig Kerne benutzen. Das hat aber nüschts mit Intel am Hut.
 
@pipip

das mit dem cpuverbrauch wurde ja jetzt mehr oder weniger verständlich geklärt weshalb ich das überspringe.

Die zuschaltbare Grafikkarte hat AMD in meinen Erinnerungen früher am Markt gehabt. Denn das HybridCF kam mit dem 780G chipsatz, der übrigens der erste war der es ermöglicht mit einer schwachen CPU auch HD Filme anzusehen

hybrid crossfire ist etwas anderes als hybrid power! amd hatte da noch nie etwas vergleichbares im portfolio wie nvidia mit hybrid-power (das ein bestandteil des hybrid-sli pakets war),.
bei amd ging es immer nur darum, die onboard graka mit einer dezidierten graka zu beschleunigen.
es ging denen nie darum, die deziderte grafikkarte bei nichtgebrauch komplett abzuschalten und zwar so, das sie auch keinen strom mehr verbraucht, wie nividia das mit hybrid-power gemacht hat und mit optimus bei notebooks immernoch tut.
das sind unterschiedliche dinge von denen wir da sprechen...

amd hat die besseren gpu`s als intel. das sollte unstrittig sein.
ob die jedoch wirklich so ein längst überfälliges konzept, wie das geniale hybrid-power, bei dem eine dezidierte gpu bei nichtgebrauch komplett abgeschaltet wurde, auf dem desktop realisieren (können?), muß sich erst noch zeigen.
ich bin da eher skeptisch.

Gruß
gman
 
Zuletzt bearbeitet:
^^
Brauch man dank Virtu MVP auch nicht mehr, muss nurnoch in die APU Platform.

Und außerdem gibt es sowas in Notebooks mit e-XXX schon. Da kann man manuell zwischen APU und GPU umschlaten, wenn APU dann wird die GPU komplett abgeschaltet, mekrt man daran, dass der Wechsel um die 20 Sekunden dauert. Man kann aber auch einstellen, dass bei Akku die APu und bei Kabel APU und GPU zusammenrechnen.
 
Zuletzt bearbeitet:
ganja_man
AMD Enduro hat schon sehr aufgeholt, und Hybrid-CF, ja sind unterschiedliche Konzepte.
Das eine schaltet eine igp ab und aktiviert eine dgpu, das andere schaltet zur igp die dgpu dazu.
Warum ist es ein Problem, 2 Gpus zusammen zu schalten ? Der einzige Grund wären Microruckler und die 690 gtx hat schon gezeigt dass man stark dagegen kämpfen kann.
Wenn also die igp und die dgpu nahezu die gleiche Performance haben, sind auch die Microruckler weniger.
Aber ja AMD hat eben auch Enduro, nur wurde damals auf CB nie wirklich erwähnt, bzw berichtet.


_____________________________________
vllt offtopic sry
http://wccftech.com/amds-kaveri-bas...s-steamroller-cores-compatibility-fm2-socket/
An ARM Cortex A5 CPU would also be fused on the APU for HSA purposes.
Davon höre ich zum ersten mal, wusste dass man bei APUs "TrustZone technology" verwenden möchte...
http://www.finanzen.net/nachricht/a...curity-Solutions-With-ARM-Partnership-1916841
Weiteres hat scheinbar Steamroller wieder einen 4mb l3 cache
 
Zuletzt bearbeitet:
über sinn oder unsinn dieses features kann man streiten, denn, bis jetzt führt für performante games, noch kein weg an einer leistungsfähigen dezdierten graka vorbei.
eine solche leistungsfähige graka, wird im sli, crossfire oder ähnlichen betriebsarten ausgebremst, wenn man die schwache integrierte gpu dazuschaltet.
das macht wenn überhaupt nur sinn, bei schwachen dezidierten grafikkarten um deren leistung noch etwas steigern zu können.
jetzt könnte man jedoch dagegen halten: wenn man sich schon eine dezidierte gpu kauft, dann auch gleich eine die genug leistung hat, damit mit man diese sli/crossfire/was-weiss-ich-gedöhns, gar nicht mehr braucht.
es ist aber auch gar nicht meine intention über sinn oder unsinn eines solchen features zu streiten, mein punkt war ein komplett anderer.

eine dezidierte, meist performante, verbrauchshunrige grafikkarte, sollte bei nichtgebrauch komplett abgeschaltet werden können, das sie nur unötig strom zieht und für alle altagsaufgaben, selbst für hd video, die integrierten lösungen voll und ganz ausreichen.
selbst auf einem zockersystem, wird ca nur 20% prozent der zeit gespielt in der es eingeschaltet ist. die stromfressende dezidierte graka läuft aber dennoch immer mit.
wenn man bei dem von dir vorgestellten konzept, eine dezidierte graka also nicht komplett bei nichtgebrauch abschalten kann, sehe ich keinen großen sinn darin.

Gruß
gman
 
Zuletzt bearbeitet:
das macht wenn überhaupt nur sinn, bei schwachen dezidierten grafikkarten um deren leistung noch etwas steigern zu können.
Stimmt doch nicht... Vllt ist das momentan so, weil die onboard gpus oder die igp meist schwach waren.
Manche kaufen sich auch zwei 6870 würden ca eine 580 gtx übertrumpfen aber wesentlich billiger wegkommen.
Dafür hat man mit zusätzlichen Probleme zu kämpfen, die momentan vorkommen, wobei man hier auch schon Fortschritte macht.

Wenn also die igp von Kaveri eine 7750 entspricht würde Hybrid CF eine 6870 ergeben.
Der Große unterschied wenn man die dgpu abschaltet ist der, dass das Bauteil dann kein Strom verbraucht, denn Vorteil haben aber beide Konzepte.

Optimus würde nur dann Sinn geben wenn die dgpu wesentlich schneller ist als die igp und Hybrid CF würde nur Sinn machen wenn beide gpus ähnlich schnell ist. Was besser ist, kommt wahrscheinlich auf die Anforderungen und Aufgabe an.
Der Große unterschied in meinem Konzept, die 7750 gibt es als low profile karte, die 6870 nicht.
 
Zuletzt bearbeitet:
Stimmt doch nicht

doch;)

Vllt ist das momentan so

meines wissens ist es das und man kann immernur eine moment aufnahme machen.
was die zukunkt genau bringen wird, besonders in bezug auf neue konzepte und wie gut oder schlecht diese funktionieren werden, muß sich erst noch zeigen.
deshalb bringt es nicht viel, da spekulativ in die glaskugel zu schauen.

Wenn also die igp von Kaveri eine 7750 entspricht würde Hybrid CF eine 6870 ergeben.

ja wenn... du verstehst sicher was ich meine. planen kann zumindest ich so nicht.
das ist mir alles zu spekulativ und zu unwahrscheinlich.
deshalb ist für mich da abwarten angesagt.

Der Große unterschied wenn man die dgpu abschaltet ist der, dass das Bauteil dann kein Strom verbraucht. Und man bsp selber die Entscheidung treffen kann, dass man ein spiel wenn die igp ausreicht auch ohne dgpu spielt ect.

genauso soll es sein und nicht nur für eventuelles spielen, sondern für alles andere auch.
wenn die integrierte gpu da ausreicht, hat eine externe gpu komplett abgeschaltet zu sein und sollte keinen strom mehr verbrauchen.
das versuche ich doch schon die ganze zeit verständlich zu machen...

Das Optimus würde nur dann Sinn geben wenn die dgpu wesentlich schneller ist

korrekt! im moment ist es so und wenn man sich mal die enorme komplexität leistungsfähiger, dezidierter gpu`s anschaut, denke ich, das es auch noch eine ganze zeitlang so bleiben wird.
bis man wirkliche eine derart leistungsfähige gpu in die cpu pressen kann, wird noch viel wasser den rhein hinunter fließen;)

Gruß
gman
 
Zuletzt bearbeitet:
ganja_man
das macht wenn überhaupt nur sinn, bei schwachen dezidierten grafikkarten um deren leistung noch etwas steigern zu können.
Stimmt im dem Sinn nicht, wenn ich eine igp habe die schon die meisten Games auf mittel flüssig darstellen kann, und noch weniger wenn ich im Hybrid Modi alles auf high spielen kann. Und es wird sich zeigen, dass das immer mehr der Fall sein wird. Auf den AMD Folien ist sogar von "extend to dgpu" die Rede

Trinity A10 (DH 7660G) dürfte mit einer 6670 im Hybrid-CF schon eine 6770 bzw 6790 erreichen...
Denn eine 6570 in CF erreicht eine 6790. Selbst die 6790 ist schneller als die 7750 allein wenn man diese mit der CPU allein dazuschalten würde und die igp des Prozessor deaktivieren würde.

das versuche ich doch schon die ganze zeit verständlich zu machen...
Ist das ein Scherz ?
Dann mach ich dir verständlich, dass ich bei einer schwächeren igp bsp HD 4000 wesentlich früher die dgpu dazuschalten müsste als bei einer HD 7660G.

Den springenden Punkt hast du gar nicht angesprochen, nämlich den Platzverbrauch.
Eine APU mit einer Mittelklasse dgpu wird einfacher realisierbar sein, als eine CPU mit schwacher igp mit einer stärkeren dgpu (meist größere gpu, oder abwärmer => größere Kühlung dimensionieren), die die Performance von der hybrid Crossfire Verbund hat.

Also die schnellste low profile Karte ist eine 7750 momentan, Hybrid CF des Trinity mit einer 6670 dürfte die 7750 um Welten schlagen.
Und wie bereits erwähnt die 6870 gibt es nicht als low profile Karte, die 7750 schon, also bekomme ich alles in einem kleinen HTPC-Gehäuse hinein, der maximal pci-low profile Karten aufnimmt.

Aber genug, man entfernt sich vom dem eigentlichen Thema.
Der FX hat nicht mal eine igp , somit alles weitere lieber über pn :D

Aber ja ich für meinen Teil wäre nicht verwundert, wenn es bei AMD bald sowieso nur mehr APUs verkaufen würde, aber nur dann wenn HSA sich durchgesetzt hat. Denn AMD möchte ja APUs auch als OPTERON verkaufen. Im Desktop mit dgpu würde also das nur sinn machen wenn man eben erfolgreich starke GPUs ähnlich wie beim Hydra-Chip verwendet oder die gpu bsp andere Aufgaben wie Physikberechnung übernimmt, ähnlich wie es Sony und Microsoft "angeblich" vorhaben.
Somit ist Piledriver FX für mich momentan sowieso etwas nackt, denn eine kleine igp, für die Bilddarstellung oder ein Dekoder oder VCE wäre sicherlich ein Vorteil, doch dann müsste man wie Intel eine eigene Maske auf den Markt bringen, und die DIE-Fläche würde anwachsen.
 
Zuletzt bearbeitet:
Trinity A10 (DH 7660G) dürfte mit einer 6670 im Hybrid-CF schon eine 6770 bzw 6790 erreichen...

ich müßte mich da mal wieder reinlesen, da ich das thema schnelle dezidierte graka, wegen nichtbedarf, schon eine ganze zeitlang nicht mehr verfolge.

so wie es aussieht, sind die karten der 6700 serie aber eher low end:
https://www.computerbase.de/2011-09/test-amd-radeon-hd-6750-und-hd-6770/5/
selbst wenn man die in die cpu pressen könnte, wird es dennoch nichts mit aufwendigen 3d shootern wie crysis und konsorten denn für alles andere braucht man auch keine performante
graka.
die heutigen leistungsfähigen graka`s sind viel komplexer als cpu`s.
eine solche gpu, die also auch performant genug ist, aktuelle, aufwendige 3d shooter zu spielen, wird man so schnell deshalb nicht in eine cpu bekommen.
dabei bleibe ich.
von anderen problemen wie abwärme mal ganz zu schweigen.

Aber genug, man entfernt sich vom dem eigentlichen Thema.

ja, da hast du recht. ich fand es dennoch interessant.

somit alles weitere über pn lieber

gerne;)

Grüße
gman
 
Zuletzt bearbeitet:
ganja_man
Letzte Nachricht zu diesen Thema xD aber warst du das nicht vorhin der meinte xD er möchte sich von fetten Grafikkarten lösen xD ???
Also mit einer 5770 kann man BF 3 auf mittel spielen, mit einer 6870 auf High xD
Die 6870 verbraucht ca 150 watt, die 7750 ca 55 watt
Also Hybrid CF von Kaveri, falls eben eine 7750 erreicht würde mit einer TDP von 100 watt plus eine 7750 genauso viel verbrauchen wie eine 6870 unter last.
Das bedeutet also Quadcore + Grafikkarte vs Grafikkarte ^^
Man könnte jz spekulieren ob das auch so effizient mit einem verbesserten llano core gegangen wäre, doch Trinity zeigt ja dass es mit piledriver wesentlich effizienter und platzsparender arbeiten kann.
Und Trinity zeigt eigentlich auch mit seinen 17 watt tdp versionen, dass man mit piledriver eine CPU Architektur hat, die fast genauso effizient wie Bobcat arbeiten kann, mit einem hohen Takt aber auch die alten llano Architektur überholen kann (dabei aber gleich viel verbraucht).
Doch muss man auch erwähnen mit den 2 FPUs die zwar stark sind hat man gegenüber 4 FPUs auch seine Nachteile. Doch immerhin spart man 20% eines echten Buldozer Dual Cores ein.

Eine 7850 bsp ist 10% schneller und hat einen Verbrauch von ~175W ca. Ich hab jz absichtlich die 7850 genommen da die auch 28 nm ist. (aber wer will kann sich auch die 6870 denken mit weniger Verbrauch oder eine 7830 die noch nicht am Markt ist) Man müsste also noch die CPU dazu rechnen und man müsste noch den zusätzlichen Platz dazurechnen, da man den Kühler für die große gpu dimensionieren müsste.

Bsp in meinem HTPC könnte ich eine dgpu + CPU oder APU kombi nur machen, wenn die Grafikkarte ein low profile Profil wäre, und die schnellste Karte ist momentan die 7750, und ich glaube nicht dass das sich schnell ändern wird. Vllt ab der HD 9000
 
Zuletzt bearbeitet:
tschuldigung, aber da muß ich ja noch drauf antworten:)

ganja_man
Letzte Nachricht zu diesen Thema xD aber warst du das nicht vorhin der meinte xD er möchte sich von fetten Grafikkarten lösen xD ???

genau! deshalb habe ich auch schon die ganze zeit, keine dezdierte graka in benutzung und es kommt mir erst wieder eine ins system, wenn ich selbige bei nichtgebrauch komplett und zwar auch so, das sie keinen strom mehr verbraucht, abschalten kann.

in der zwischenzeit leistet mir die xbox360 beim spielen gute dienste, so das ich noch nichtmal das gefühl habe, etwas zu vermissen. außer das ich bei 3d shootern lieber mouse und keyboard hätte. man kann aber halt nicht alles haben:)

Also mit einer 5770 kann man BF 3 auf mittel spielen, mit einer 6870 auf High xD

so etwas, mit dem man also auch akteulle shooter spielen kann, würde mir schon ausreichen, wenn bei nichtgebrauch komplett abschaltbar.
danke für deine ausführungen zu grafikkarten. da habe ich wie gesagt im moment selbst verzapfte wissenslücken.

Bsp in meinem HTPC könnte ich eine dgpu + CPU oder APU kombi nur machen

braucht man in einem htpc-only nicht. da reichen die momentan erhältlichen integrierten graka`s vollkommen aus. wobei ich für den nächsten htpc wohl eher zu amd tendiere, da die wie gesagt die besseren gpu`s und auch keinen 24p-bug wie intel haben.
da es jetzt aber ganz off topic wird, mache ich an der stelle schluß und wenn ich mal wieder über eine brauchbare graka nachdenken sollte, kann es gut sein, das ich dich mal per pm fragen werde;)

Gruß
gman

p.s: sorry für o.t
 
Zuletzt bearbeitet:
@ganja_man: Mal ne kleine Auffrischung:http://ht4u.net/reviews/2012/asus_geforce_gtx_670_directcu2_top/index12.php

Dazu kaufst dir ein Platinium Netzteil,stellst die Spannung der Graka selber noch leicht runter und schon gleichst die 5-7Watt die eine 7850/70 verbrauch wieder aus.;)

Zitat:
Die unten ersichtlichen Differenzen der Leistungsaufnahme verschiedener Netzteile sind teils enorm und unterstreichen die Notwendigkeit dieser Kategorie. Nehmen wir einmal an, wir betreiben ein ganzes Jahr lang (8760h) ein Netzteil mit einer durchschnittlichen Leistungsaufnahme von 150W. Dieses wird dann durch ein effizienteres Modell mit einer durchschnittlichen Leistungsaufnahme von 100W ersetzt. Bei einem Strompreis von 0,24 EUR/KWh (Stand: Januar 2011) entspräche dies einer Ersparnis von EUR 105,12/Jahr. In der Praxis dürften so große Differenzen (50W) bei Netzteilen aber kaum auftreten. Realistischer hingegen sind Unterschiede von ca. 25W, wodurch die Ersparnis immer noch EUR 52, 56/Jahr beträgt.....
http://www.dirkvader.de/Enermax_Platimax_500W.html
 
Und der Idle Verbrauch zwischen deinem 2500K und Bulldozer:http://ht4u.net/reviews/2011/amd_fx_6100_4100_review/index7.php

Auch solltest Eine Sachen nicht vergessen bei diesem Prime Verbrauchstest,es ist nur Theorie.
Was glaubst du,was du für einen Verbrauchsunterschied hast zwischen deinem 2500K und dem FX 8150 wenn dein verwendetes Programm nur 4 Kerne Verwendet?
Auch solltest dir darüber im Klaren sein,das der FX 8150 bei voller Ausnutzung der Kerne(wie im Screen z.b.)dem 2500K sicherlich überlegen ist und somit bei höherem Verbrauch aber schneller wieder im Idle ist.
 

Anhänge

  • Kein Problem.jpg
    Kein Problem.jpg
    309,9 KB · Aufrufe: 479
Auch solltest dir darüber im Klaren sein,das der FX 8150 bei voller Ausnutzung der Kerne(wie im Screen z.b.)dem 2500K sicherlich überlegen ist

denke ich nicht. da gab es einen guten schwerpunktartikel zur bulldozer architektur, vielleicht war das sogar hier, keine ahnung, habe leider den link nicht mehr.

mit bulldozer nutzt amd eine neue art von hyperthreading, habe jetzt die bezeichnungen vergessen. ums kurz zu machen:
die buldozer waren den core i`s selbst dann unterlegen, wenn die core i cpu`s weniger kerne hatten. bulldozer konnte nur dort punkten, wo programme für amd`s architektur optimiert wurden und da gab es so gut wie nichts. das dürfte sich wohl auch nicht groß ändern.
gerade nochmal bei einer einigermaßen vertrauenswürdigen quelle nachgeschaut;)
http://www.anandtech.com/bench/Product/434?vs=288
ist eigentlich so wie ich sage.
der core i5 2500k, zieht dem FX 8150 meistens davon.

Gruß
gman

p.s: gerade encoding ist wohl auch eher ein unglückliches beispiel, da intel dort durch quicksync enorm punkten kann. da mich dieser bereich betrifft, war er auch für meine systemwahl entscheidungsrelevant.
 
Zuletzt bearbeitet:
Das Problem bei diesen Test ist nur,wie wurden die CPUs Ausgelastet?Die Intel sind Optimiert auf Software/Windowsseite,Bulldozer ist noch jung und in Arbeit siehe das Neuste Win Rar,dort wurd die Zeit mal eben Halbiert...
Ergänzung ()

Mit quicksync hab ich mich noch nicht befasst,da ich auch ehr wenig Encodiere...zumal die Grakas ja auch ne gewisse Unterstützung bieten.
 
Zuletzt bearbeitet:
kann deine bedenken verstehen.
ich schaue mir deshalb immer mehrere, voneinander hoffentlich unabhängige quellen an.
das ergebnis von anandtech, wiederholt sich so eigentlich bei den meisten anderen, die man ernst nehmen kann.

gehen wir mal von der hypthese aus, das wirklich alles auf intel optimiert wurde und intel nur deshalb besser abschneidet. dann wäre es zwar doof das es so ist, es würde aber auch nichts daran ändern, das man mit intel deshalb einen vorteil hätte.

ich persönlich denke eher nicht das alles explizit auf intel optimiert wurde.
einige fälle wird es da bestimmt geben, sicher.
jedes wald und wiesen programm aber sehr wahrscheinlich nicht.
amd hat im moment wohl eher ein architektur problem.
was heisst im moment?
eigentlich haben sie das schon seit damals, als die alten athlons gegen die core 2 duo`s antreten mußten. den misserablen pentium 4, konnte amd noch erfolgreich versägen.
bei allem was danach kam, sahen die aber leider kein land mehr.

wie gesagt, ich habe viele jahre, sogar bis vor kurzem noch selbst amd benutzt.
ich brauchte nicht mehr leistung und da intel dieses segment nicht zum gleichen, günstigen preis wie amd bedienen konnte und auch weil mir der underdog sympatisch ist, entschied ich mich für amd und war damit auch immer sehr zufrieden.
meine ansprüche haben sich aber geändert. ich encodiere viel, schneide videos usw und brauche da einfach power auf abruf.
deshalb arbeitssystem intel.
beim htpc sieht es dagegen anderst aus. da passt amd/ati prima.
da aber nichts in stein gemeisselt ist und dinge sich ändern können, kann es gut sein, das ich auch mal wieder ein arbeitssystem auf amd-basis baue.
wird sich alles zeigen.


Gruß
gman
 
Zuletzt bearbeitet:
Eben mal getestet:
CineBench:
Ohne Kernzuweisung wurd bis auf 3Kerne verteilt im Singeltest und 1,05 sind dabei rausgekommen.
Mit Kernzuweisung sind es nur 1,02.....
Beim x264 HD Benchmark - 1st pass - v3.03(Ich hab die v4....),dort hab ich ne Kernauslastung von allen 8 bei fast identischen 75%,somit fehlen gut 25% pro Kern an Rechenleistung...
Beim x264 HD Benchmark - 2nd pass - v3.03,dort hab ich 100% Auslastung und dort ist Bulldozer auch um einigs schneller als der 2500K....und selbst der 2600K ist dort noch langsamer.

Wenn nicht nur für Intel,sondern auch für AMD Optimiert wird(wie bei Win Rar)dann wird es über kurz oder lang wesentlich besser um Bullozer und Co stehen.
Wenn dazu noch die PS4 mit AMD APU ein Durchbruch wird,dann werden die Spiel auch um Welten besser mit AMD Laufen,weils Konsolenspiele sind und genau diese wurden ja schon für die Architektur Optimiert.;)

Es wird halt nur noch ein wenig dauern.
 
Zuletzt bearbeitet:
Das ist keine neue Art von HT

Man las diesen Irrglauben nun auch hier schon öfters (eher am Anfang und in Nebenläufigkeit des Fadens), ohne deutliche Korrektur bisher. Also mal grundsätzlich zur Aufklärung das sind vollwertige x86er Kerne!

U.a. eine FPU ist nicht Bestandteil von so etwas, zu früheren Zeiten war es Gang und gebe das FPUs sogar nur Optional und separat erweitert werden konnten und wurden (nur um es nochmal deutlicher zu Umranden den Punkt).

Die prinzipielle Idee dahinter ist das nicht längst alle Szenarios die so gleichzeitig laufen solcherlei gleichermaßen stark nutzen (viele auch überhaupt nicht). Es wäre doch genial wenn Anwendungen die verstärkt es brauchen mehr davon dann bekommen können, wohingegen für andere mehr Ressourcen über von den anderen Teilen. Ins Finale extreme getrieben dann später ein x86er Kern theoretisch falls nötig die gesamte FPU Einheit für sich reserviert bekommen könnte. Und andere Prozesse davon völlig untangiert in voller Leistung weiter laufen, insofern sie diese Einheiten eh nicht brauchen!

Was im völligen Gegensatz zum HT Konzept, dieses geht nur vernünftig auf wenn die Kerne nicht unter Vollast oder nahe dem dran sind oder wenn dies der Fall es zur selben Anwendung zugehörig! Sachen wie Cinebench sind ein gutes Beispiel um die stärken von HT maximal rauszukreiden aber auch genauso um die Prinzip bedingten schwächen komplett unter dem Tisch fallen zu lassen. Gleichsam aber ebenso auch um AMDs CMT dem gegenüber schön zu relativieren (noch), weil hier der Umstand greift das eben jeder Kern die FPU Einheit möchte. ;)
 
Viel Gelaber ohne echte Substanz.
Wer von euch hat einen Bulldozer?
Wer von euch hat, ueber Monate(!) ECHTE Verbrauchsdaten gesammelt? (also kein Idle, Vollast dank Prime oder sonstige synthetische Theorietests)
Wer von euch konnte das 1:1 mit einem Phenom 2 energyefficient vergleichen?

Mein FX8150 (TDP: 125W) verbraucht weniger als ein Phenom 910e (TDP: 65W).
Gemessen mit der angeschlossenen USV, weil diese von einem Monitoring Tool ausgewertet wird und schoene Graphen auswirft.
Drauf laeuft ein Linux Server inkl. virtueller Server, Verschluesselung, GUI, Firefox/Thunderbird, Encoding usw.. Also KEINESWEGS im Idle. Warum verbraucht er weniger? Na da rennen aktuell grad 323 Prozesse drauf, und 8 Kerne tun sich nunmal leichter soviel Prozesse abzuarbeiten als 4. Die sind sogar meistens alle auf 1.4ghz (monitore ich auch mit). Das war beim Quadcore nicht der Fall!

Also statt mit Idle, und Volllast Theorie rumzulabern, lieber mal die Praxis ansehen. Denn wenn Praxis und Theorie sich streiten (und das tun sie in meinem Fall), verliert die Theorie immer.

Achja, meinen Post bitte nicht als Pro-AMD auslegen. Nur als Pro-Bulldozer fuer Linux-Server. Mangels eigener Erfahrung kann ich nichts zum Bulldozer auf Windows bzw in Gaming Systemen sagen, da hab ich selber nur einen SB drin.
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben