News AMDs neue FX-CPUs „Vishera“ überraschend günstig?

Matzegr schrieb:
Im Idealfall steigt die reine IPC um 30 Prozent, mehr Takt ist unwahrscheinlich wegen bulk statt SOI. Am Ende wird im Idealfall +15% IPC/Watt übrig bleiben.
Idealfall würde ich >30% sehen. Denn +15% betrifft ja laut den AMD-Folien nur den Core.
IPC-Steigerung kann man auch mit einem verbesserten IMC bekommen. Zwar eher zwischn so (ich sag mal) 1-3%, aber wenn einige solche Non-Core-Verbesserungen stattfinden, könnte da einiges zusammenkommen.

Ich würde die Performance-Steigerung (theoretische Benchmark ala Chinebench Multi) so zusammenfassen
Idealfall = Überrachsung .... > +30%
gesunder Schritt = Erwartung ... +15 - +30%
ungesunder Schritt = etwas unter den Erwartung ... +10% - 15%
Schilmmstfall = Überraschung ... < +10%

AMD hat in den Folien eine Effeiziensteigerung von (10-) 15% angegeben. Da AMD auch in jüngster Vergangenhet nicht ganz genau mit den AMD-Folien war, kann das genauso auch heißten, dass in diesen Core-Verbesserungen schon Fertigungs und non-core-Verbesserungen mitgezählt wurde.

So wie du es erwähnt hast.
28nm-Bulk und somit der Wegfall von SOI ist die ganz große unbekannte, was eher zu einer negativen Überraschung als zu einer positiven Überraschung führen könnte.
Aber soviel ich weiß, wurde der SOI-Vorteil mit immer kleineren Fertigungsstrukturen immer kleiner, sodass Dresden/Globalfoundries keinen Nutzen mehr sah, SOI für 20nm zu entwicklen.

Herdware schrieb:
Du übersiehst z.B. bei dieser Sache, dass der Verbrauch zu Zeiten von 25W- oder 55W-CPUs in Desktop ausgesprochen unkritisch war. Damals hat sich darum kaum jemand Gedanken gemacht. Beides bereitete keine technischen Probleme.
Du musst meine Texte in Kontext verstehen.
AMD hatte in der K7 vs Pentium III einen gewaltigen 35-50% Effizienzs-Rückstand. Diesen Gewaltigen Rückstand musste AMD ausholen, weil Intel die Pentium III Technik zuerst im Pentium M und später Core 2 und Co als Basis verwendete.

Du Sprachst ja, dass AMD seit Core 2 in Rückstand ist. Das ist eben falsch, wenn du nur die Netburst-Desktop-Welt ansiehst und die Notebook-Welt ignorierst.

Bulldozer hat eine viel höhere Herausforderung als K7/K8 vs Pentium III damals.
Der Bulldozer musste nicht nur diesen gewaltigen Effizienz-Rückstand von damals aufholen, sondern er muss momentan auch gegen die Fertigungs-Rückstand aufholen.

Daher steht die eigentliche Bulldozer-Architektur & Nachfolger momentan viel besser gegen K7 & K8 & Phonom da, als viele vermuten.

Große Schwäche des Bulldozer-4-Modul sehe ich in den Interconnects, weil der größte Flächenverbrauch nicht in den Modulen liegt. AMD hat ja schon angekündigt, Fabric nicht nur in den ganzen Platformen zu etablieren, sondern sie auch in Chip-Desgins einzubauen.

Ab Mitte 2013 sollen nächsten Jahr die neuen Server (und Desktop?)-Plattformen rauskommen. Und es wäre möglich, dass AMD es wieder Schafft einen nicht unerheblichen Schritt nach vorne zu schaffen, wie sie es damals mit der Magny Coures Plattform schafften, wo sie trotz CPU-Rückstand & Fertigungs-Rückstand auf temporär zumindstens über einige Quartale mit Intel auf Augenhöhe mithalten konnten .
 
stimmt es das Vishere die letzte Generation für AM3+ ist und die folge Generation auf FM2 läuft ??
 
phoebus schrieb:
stimmt es das Vishere die letzte Generation für AM3+ ist und die folge Generation auf FM2 läuft ??

FM2 ist für die APUs (2012 Trinity, 2013 Kaveri, 2014 evt. Nachfolger). Für 2013 ist es sehr unwahrscheinlich, dass es einen CPU only Steamroller für AM3+ geben wird. Und was 2014 ist .... Time will tell.
 
@phoebus
Ich glaube, die Frage der neuen Plattformen hängen auch/primär mit der DDR4-Einführung zusammen.
Bei den Servern ist die Vermutung groß, dass man auf die Next-Gen-Server-Plattform ausschließlich auf DDR4 setzt, deren Massenproduktion in Frühjahr 2013 starten soll.
Aber wenn die Server-CPU DDR4 besitzen sollen, dann müsste die Desktop-CPU genauso DDR4 unterstützen.
Entweder kann er DDR3/DDR4 oder das erklärt, warum Steamroller @ Desktop-CPU Ende 2013 oder gar 2014 kommen soll. Da müsste Vishera noch einige Zeit durchhalten.
 
Damals. Zu Sockel A Zeiten. Als AMD noch Speerspitze war.
 
AMD ist vollkommen am Ende und bald weg vom Fenster. Gnade uns Gott wenn es nur noch Intel CPU's gibt.
 
Ich lese hier immer von 95w und 125w stromverbrauch wie soll das gemeint sein? Weil ich habe momentan einen Celeron G540 im Einsatz der soll angeblich bis zu 65watt verbrauchen! Das verbraucht der doch im leben net.
Und dann noch einen einen Phenom II X4 945 mit 95 Watt TDP der verbraucht wenn ich Musik und Videos gucke 6,75 Watt und bei Battlefield 3 zb. weil ich extra genommen wegen der Belastung grade mal 44-46 Watt!

Wo soll der also Bitteschön diese 95 Watt jemals erreichen bei übertaktung oder wie? Verstehe ich nicht irgendwie das ganze.
 
Das ist Einfach:
Für die CPU Hersteller ist es eine Bezeichnung,damit die Kühler und Mainbordhersteller wissen wie sie dies mit XY CPU ausstatten müssen.
Für die Meisten....... Testseiten.....ist es die Bezeichnung um zu Zeigen wie Toll Intel CPUs sind und das natürlich mit einem nicht Realen Programm wie Prime und CO.Und dann ist die Frage,wie gut diese Programme die CPUs wirklich belasten,da es ja garkeine Benchmarks sind bei der Strommessung.
 
Zuletzt bearbeitet:
TDP 125 sprich 95 TDP wird sich keiner mehr holen wollen.. wenn schon fast intels ivy 77 TDP bei 3,4 ghz hat !! wo amd bei 95 watt rumdümpelt sehe ich schwarz für AMD zukunft. wenn nicht amd bald was sehr gutes gegen intel zu zeigen hat.. wars das. und jeder der noch was von amd hat,, kann sich das als erinnerung in den schrank stellen.
 
Bloß Mist das Haswell wieder 95W TDP haben soll, was machste da?
Außerdem würde sich ja dann auch niemand die Sandy-Bridge E kaufen, die 130W TDP haben.

TDP ist ne Angabe über die Wärmemenge die abgeführt werden muss, das klappt auch mit jedem Boxed Lüfter.

Was soll AMD denn deiner Meinung nach machen? Genausoviel geld wie Intel in R&D sowie Fertigung stecken? Bloß woher das Geld nehmen.
 
Kdr
haha
Noch lustiger dass die meisten dann fette Kühler wie Mugen oder Macho haben.
Aber am besten ist ja ELMOKO der ja eine Wasserkühlung hat. Sehr trauig wenn deine Wasserkühlung keine TDP von 125 watt kühlen kann :(

TDP ist wichtig wenn man kleine Gehäuse verbauen will. Dann hat Intel oft und klar Vorteile. Die TDP ist aber immer so hoch gesetzt dass auch 99% die CPU nie zu heiß wird. Das verstehen woll die wenigsten hier ^^
Also kleine CPU-Kühler ala Shurican ect schaffen gut 95 watt tdp abzuführen. Somit haben 95 watt tdp Varianten sicher kein wirklichen Nachteil gegenüber eine CPU die eine niedrigere TDP hat.
Besonders wenn die CPU oft sowieso nicht so ausgelastet wird, wie es gern dargestellt wird.
 
Wenn einer stundenlang ein CPU lastiges Spiel zockt, dann ist die CPU stundenlang gut ausgelastet.
Die AMD Kunden, Liebhaber sagen ja seit 2 Jahren, das die CPU eh meist im Idle ist und Strom sowieso nichts kostet.
Ich kann an der TDP schon ableiten, ob eine CPU unter Volllast mehr oder weniger Leistung verbraucht.
Ist das denn schon sicher, dass Haswell wieder TDP 95W hat?
 
MikelMolto schrieb:
Wenn einer stundenlang ein CPU lastiges Spiel zockt, dann ist die CPU stundenlang gut ausgelastet.
Die AMD Kunden, Liebhaber sagen ja seit 2 Jahren, das die CPU eh meist im Idle ist und Strom sowieso nichts kostet.
Ich kann an der TDP schon ableiten, ob eine CPU unter Volllast mehr oder weniger Leistung verbraucht.
Ist das denn schon sicher, dass Haswell wieder TDP 95W hat?

Das müsstest jetzt aber mal genauer Definieren wovon du da jetzt ausgehst?
 
MikelMolto schrieb:
Wenn einer stundenlang ein CPU lastiges Spiel zockt, dann ist die CPU stundenlang gut ausgelastet.

Das wär ja mal eine interessante Sache. Wenn z.B. ein Spiel nur 2 Threads nutzt die CPU aber mehr Kerne hat, ganz egal ob Intel oder AMD, dann verbraucht man nie soviel wie unter Prime95, wo alles komplett ausgelastet wird. Es kann ja nicht so schwer sein bei nem Spielebenchmark nebenbei die Leistungsaufnahme zu protokollieren. Es wäre mal interessant zu wissen, was z.B. eine Stunde Battlefield zocken wirklich an Strom verbraucht. Sowas wird nie getestet, warum?


Ist das denn schon sicher, dass Haswell wieder TDP 95W hat?

Wenn man der Folie glauben schenken darf, dann kommt Desktop-Haswell mit 35W, 45W , 65W und 95W TDP
 
Hi,

kann mir jemand erklären, was genau die Vishera jetzt schneller machen soll?

Ich schaue mir die Daten an und komme zu dem Schluss, dass mein FX-4170 schneller sein müsste, als der kommende FX-4300.

Mehr als Takt und Verbrauch sollte sich doch nicht ändern, Takt hat der neue Prozessor aber weniger, wo kommt denn dann die Leistung her? Sogar der für Spiele wichtige L3-Cache wurde von 8 MB beim FX-4170 auf 4MB beim FX-4300 gesenkt.

Hat AMD etwa doch mehr an den Chips verändert?
 
Vishera hat keine vier DDR3-Channels und das Clock Mesh ... naja.
 
Kdr schrieb:
Bloß Mist das Haswell wieder 95W TDP haben soll, was machste da?
vorraussichtlich weil noch mehr von Board zur CPU wandert, und die GPU deutlich aufgebohrt wird.

Casi030 schrieb:
um zu Zeigen wie Toll Intel CPUs sind
Hört ja so an, als wären Intel CPU´s nicht um welten besser ?


jau TDP ist wegen der Kühlung, aber ob man will oder nicht, man erkennt trotzdem die Tendenz des tatsächlichen Verbrauchs.
Die Hersteller nutzen ihre TDP verallendingen mit den Turbo´s gnadenlos aus.
AMD verbraucht nunmal deutlich mehr als Intel, braucht doch keiner mehr Bulli oder Piledriver schön zu reden, ist scheiße gelaufen, müssen wir mit Leben.
 
vorraussichtlich weil noch mehr von Board zur CPU wandert, und die GPU deutlich aufgebohrt wird.

Und? Ändert doch nix daran das die TDP auf 95W wieder steigen soll. Die Aussage von ELMOKO war: das niemand mehr ne 95W TDP CPU kaufen wird in Zukunft.

Die Aussage ist falsch, eben aus den von dir genannten Gründen. Wenn die Grafikeinheit(egal ob jetzt bei Intel oder ner AMD APU) auf einmal die Leistung von einer ~70€ Graka hat, dann wird sich auch niemand über eine 100/95W TDP aufregen.

Es kommt immer drauf an was enthalten ist, genauso bei den Sandy-Bridge-E, die haben 130W TDP, da regt sich niemand auf und das obwohl der i7-3820 "nur" so viel Leistet wie ein i7-3770(K).


Klar AMD hat noch viel Potenial für Verbesserung (positiv ausgedrückt), aber wenn hier jeder 3. Kommentar ist: "die bringen eh nix", "warum machen die das nicht so oder so", "Intel ist eh viel besser", ...., ist das einfach sinnlos. Solche Kommentar schüren nur den Grabenkrieg. Außerdem meckern kann jeder(wir sind ja schließlich Deutsche), aber Lösungen hat keiner parat(kann ja auch niemand haben).

edit:
Hört ja so an, als wären Intel CPU´s nicht um welten besser ?

Diese pauschale Aussage zeigt eine begrenzte Sichtweise. Ist ja fast so wie die Leute die eine Graka vom Hersteller der schnellsten Graka kaufen, denn alle Grakas von dem Hersteller müssen dann ja besser sein!
Intels Atoms sind schlechter als die Brazos! Und schon ist die Aussage wiederlegt. Es kommt immer auf das Produkt und den Einsatzbereich an. Außerdem sollte mal iwo festgeschrieben werden, was mit "besser" gemeint ist. Besser zum Spielen ohne Graka? Besser zum Rendern? Besser zum Zocken mit Graka? Besser zum Angeben? Besser Videoschnitt?....... Oder besser in der Summe aller Teilgebiete(da hat man aber das Problem des Durchschnitts, der nichts über die Teilgebite aussagt)?
 
Zuletzt bearbeitet:
Zurück
Oben