News AMD stellt Opteron 3200 offiziell vor

@ flappes

Laut Anandtech sind es beim i7 3770K sogar fast 30W weniger Verbrauch und 5-15% mehr CPU-leistung + über 50% mehr GPU-Leistung.

Für einen "Tick", also ohne größere Veränderungen an der Architektur, ist das schon ein wirklich respektabler Fortschritt.

Hätten z.B. AMDs Bulldozer-CPUs (mit ihrer nagelneuen Architektur) bei 30W weniger Verbrauch durch die Bank 5-15% mehr Leistung gebracht, als ein Phenom II mit der selben Core-Zahl, dann wären wohl alle ausgesprochen zufrieden gewesen. :)
 
An alle, die meinen, dass der Opteron im Serverbereich unterlegen ist: Dank angepaster Compiler und speziell zugeschnittene Programme haben die in einigen Anwendungen mal eben mehr als die doppelte Leistung, wie ohne angepaster Compiler. Die Bulldozer Architektur hat nen großes Potential, das leider bisher nur selten genutzt werden kann. (Quelle)
Auch die c't hat schon mal festgestellt, dass der Bulldozer um den aktuellen Xeon kreise zieht, wenn ihm die Anwendung liegt.

Ich finde den 45W Bulldozer für 99$ schon sehr interessant. Je nachdem, wann der hier raus kommt, leg ich mir den vielleicht mal zu. Könnte, da besser selektiert, sogar noch Undervoltingpotential haben.
 
Zuletzt bearbeitet:
bei nem 100€ Opteron (geh ich mal von aus), der auch in nen AM3+ Board passt, kann man durchaus drüber nachdenken ihn im Consumerbereich einzusetzen. Dann ist auch Undervolting interessant.
 
Herdware schrieb:
Laut Anandtech sind es beim i7 3770K sogar fast 30W weniger Verbrauch und 5-15% mehr CPU-leistung + über 50% mehr GPU-Leistung.

Solange die Grafiktreiber so katastrophal schlecht sind kannst du zumindest den letzten Teil streichen. (Mal abgesehen davon, das die Basis fuer die 50% laecherlich tief ist ....)

Es ist eh absolut unverstaendlich, das ein Unternehmen, welches zig Milliarden Gewinn pro Jahr macht, kein Geld hat, um mal ein paar Programmierer zu bezahlen, einen halbwegs vernuenfitgen Treiber zu schreiben.
 
Ich persönlich hätte gerne einen FX 8100, der sollte günstiger sein und ne tdp von 65 watt sollten mit undervolting auch kein Problem sein.
Wenn man bedenkt ein FX 6200 und FX 8120 kosten jz 150 euro, sollte der FX 8100 doch günstiger sein, aber leider ein Grund warum man denn vllt nicht auf den Markt werfen wird...
Ob das teil dann so stabil läuft wie ein Opteron, ist einer andere Sache xD
 
Gibt's dafür eigentlich schon Mainboards?
Geizhals listet keine...
 
Hallo @ all,

als eigentlicher Intel-Fan (nicht Fanatiker) bin ich von diesen Optrerons durchaus angetan. Für mich entscheidend die TDP von min 45W. Ein Schritt in die richtige Richtung. Gerade die angesprochene Undervolting-Fähigkeit macht so eine CPU für kleine Homeserver interessant. Das Ganze steht und fällt aber natürlich mit der Leistung.

Entäuschend, genauso wie bei Intel, daß man beim Chipsatz weiterhin Legacy-Müll verbaut (SATA-II und USB 2.0).
 
Per/Watt ist bei den Xeons klar besser - Undervolting hin oder her. Zudem brauchst du bei denen keine dedizierte Grafikkarte, da es Modelle mit iGPU gibt.
 
@-y33H@ -die Xeons ohne IGP lassen sich aber noch besser undervolten:cool_alt:
 
Herdware schrieb:
@ flappes

Laut Anandtech sind es beim i7 3770K sogar fast 30W weniger Verbrauch und 5-15% mehr CPU-leistung + über 50% mehr GPU-Leistung.

Für einen "Tick", also ohne größere Veränderungen an der Architektur, ist das schon ein wirklich respektabler Fortschritt.

Hätten z.B. AMDs Bulldozer-CPUs (mit ihrer nagelneuen Architektur) bei 30W weniger Verbrauch durch die Bank 5-15% mehr Leistung gebracht, als ein Phenom II mit der selben Core-Zahl, dann wären wohl alle ausgesprochen zufrieden gewesen. :)

So ist es... Wenn man mal Conroe Penryn vergleicht war der Performanceanstieg dergleiche aber die Stromersparnis bei weiten nicht so drastisch wie der Unterschied Sandy Ivy Bridge.
Ergänzung ()

Ich hatte übrigens mal ein Artikel gefunden der gut erklärt warum der Bulldozer ein Faildozer ist..

Bulldozer-Architektur unter der Lupe: Schwachstellen identifiziert

http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1330775558
 
@über mir
wenn man einer Intel CPU jeden beliebigen Code füttert läuft sie gleich schnell nein sie optimiert ihn sogar selbstständig ;-)
Den Leitfaden gibt es zu fast jeder x86 CPU schau dir einfach mal das Original an wenn es wirklich interessiert.

@Lost Byte
Ja mit Optimierungen ist eine Menge herauszuholen nur wird im dem angestrebten Bereich das Know-How teurer sein als eine bessere CPU.
Das sind so Kisten für SBS oder fertige Linux Distributionen, vermutlich wird da recht wenig optimiert.
Aber wichtig das AMD auch diesen Marktbereich wieder verstärkt angeht weil nur von HPC wird der Serverbereich kaum leben können.
 
Hört sich irgendwie sehr billig an. Kann mir kaum vorstellen das AMD damit wirklich was verdienen kann. Aber AMD muß billig sein, da man gerade mal mit den alten Xeons gleichziehen kann.

Bei knapp 5% Marktanteil wird auch kaum eine Software für AMD optimiert werden
 
Orange8
Stabilität meinte ich eher undervolting, das kann lange dauern bis man die richtige werte für alle p-state findet :P
 
Zuletzt bearbeitet:
Der PReis der Verbrauch perfekt für jeden Desktop PC / Gaming PC
 
~DeD~ schrieb:
schon gesehen, dass trigate nichts bringt? benchmarks von 3700k sind 5% besser als die eines 2700k, dafür, dass man eine kleinere fertigung benutz is es ein witz...

da wäre es mir lieber wenn sie die tdpklasse beibehalten würden und die leistung um ~20% ohne nennenswerte taktsteigerung erhöhen würden.
Das macht Intel im Server-Bereich:
https://www.computerbase.de/2012-02/intels-ivy-bridge-ep-mit-zehn-kernen-gesichtet/

Im Vergleich zu SNB-EP nochmal zwei Kerne und 10 MB Cache mehr, eine (leicht) höhere Taktrate bei gleicher TDP-Klassifizierung. Und das sind noch vergleichsweise frühe Samples...

Tri-Gate ist vielleicht nicht von einem anderen Stern, aber ein wirklich nennenswerter Fortschritt.
 
Zurück
Oben