News Erste Benchmarks zum „Vishera“-Desktop-Prozessor von AMD

y33H@ schrieb:
Intels 45 nm und GFs 32 nm ... letzterer ist besser, der Zambezi dennoch ineffizienter als Lynnfield.
Na ja, wenn man sich in der Fertigung nicht auskennt und Technologien ignoriert, dann verstehe ich diese verzerrte Ansicht.

Dazu ist HKMG ist nicht gleich HKMG.
Es ist auch die Frage, wie gut man das einbaut.
Nicht umsonst sprach Intel letztens von HKMG der 3.Generation.

Ich habe das damals nicht kommentiert, weil offensichtlich war, dass da was nicht passt. Ein Llano ist bei 35W CPU-seitig einem i7 nicht gewachsen.
Wenn etwas soooo offensichtlich ist, kann man sehrwohl sofort kommentieren.
Offensichtlich sind deine 0815-Kommentare.
Nur zu sagen "Llano ist bei 35W CPU seitig einem i7 nicht gewachsen" überzeigt es vielleicht Technik-Noobs, aber mich nicht.

Nicht zu vergessen, dass wir von Performance-pro-Watt sprachen. Also, Effizienz.
Da reicht es nicht die Single-Thread-Performnace zu betrachten, sondern auch die Akku-Zeiten die man @ Akku-Zeiten Teillast sieht und da war Llano auch schon erstaunlich gut.

CPU-seitig ist der i3 in Spielen und Singlethread idR schneller, iGPU der Trinity und Multithreading auf ähnlichem Niveau. Ich tendiere hier im Gesamtpaket zu Trinity.
So wars bei Llano ähnlich.
Nur legte Trinity deutlich in GPU-Performance zu und Akku-Idle-Zeiten zu, sodass man Trinity mittlerweile bei AKku-Zeiten als gleichwertig betracht wird.

Gesamtgesehen war Trinity gar nicht so ein großer Sprung.
In AKku-Zeiten Idle verbesserte diese sich eigentlich nur so um 20%.
Akku-Zeite @ Teillast und Last verbesserte sich kaum.

Aber weil die Idle-Akku-Zeiten wegen der 15% Steigerung eine Psychologische Hürde für Technik-Noobs übersprang "gleichwertige Akkuzeiten statt schlechtere Akkuzeiten" sieht Trinity für die Masse viel besser aus.

PS: Dass Trinity für viele so viel besser dasteht als Llano, zeigt eh wie unwichtig die CPU-Performance im Notebook-Markt ist, weil Trinity in CPU-Performance und CPU-Effizienz am wenigsten zulegte und Idle-Akku-Zeiten (und die GPU-Performence-Steigerung) den großen Unterschied machte.
 
Zuletzt bearbeitet:
pipip schrieb:
Achso willst du eine 2mal 350 mm^2 DIE Chip + eigene Maske herstellen xD ?? Kann mir gut vostellen. Hier wird das aufgrund der Fertigung, weniger des Könnens gemacht ^^
Für den Xeon 7500 gabs auch eine eigene Maske und der ist mit 684 mm² auch nicht gerade klein gewesen. ;-)
 
Simon
Interessant, eventuell der Grund wieso AMD seine MCM wesentlich günstiger anbietet als Intel seine one-Die Wunder :D

Bin gespannt ob Intel mal etwas ähnliches wie AMD Bulldozer Module auf den Markt bringt. Dann kann man eventuell auch mal sagen. Da haben wir alle so herzhaft gelacht darüber :)
 
pipip schrieb:
...
Herdware
Jetzt mal nur kurz noch ein Kommentar zu Netburst. Kann gut sein dass damals die Zeit für Netburst noch nicht gekommen war. Nur es mal anders zu betrachten.
Denn mir fallt auf, es wird was das Thema angeht viel schwarz-weiß-Malerei betrieben.
Nicht alles was damals schlecht war ist heut immer noch schlecht.
Für mich ist das bsp Spinat !

Spinat habe ich schon als Kind immer geliebt. :D

Aber du hast völlig Recht.
Hätte Netburst damals die angepeilten Taktfrequenzen erreicht ohne dabei alle TDP-Grenzen zu sprengen, dann hätten sie niemals so einen schlechten Ruf bekommen. Dann wäre die Core-Architektur, wenn überhaupt, eine Extrawurst für kleine Notebooks geblieben und aktuelle Intel-Desktop- und Server-CPUs würden auf einer weiterentwickelten Netburst-Archtektur basieren mit 10 oder mehr GHz Takt und wir wären glücklich damit.

Tatsächlich hat es ja auch nach und nach vieles von Netburst in die heutigen Intel-CPUs geschafft und die Taktfrequenzen sind gar nicht mehr so weit von den damaligen Zielen entfernt. Nur halt stark verspätet.

Vielleicht schaffen AMD und GF ja, woran Intel mit seiner Fertigung damals gescheitert ist und Bulldozer wird nicht erst mit der Fertigungstechnologie von 2020 wirklich gut.
Aber ich bleibe erstmal skeptisch, denn bisher hat Bulldozer sogar einen schlechteren Start hingelegt, als damals die ersten Netburst-P4.

Ich lasse mich aber gerne positiv überraschen. Deshalb bin ich so gespannt auf Vishera und hoffe das Beste. :)
 
Schon richtig, aber bei Bulldozer krankt es nicht an der Technologie oder am Takt. Da müssen einfach die vielen kleinen Bremsen eliminiert werden, die ein Mehr an Leistung verhindern. Bulldozer müsste nach Design eine höhere IPC haben als der Phenom II. Deshalb hatte AMD damals vermutlich auch immer betont, dass die steigt. Leider klemmt es an einigen Stellen noch ziemlich, weswegen am Ende einfach die nicht Leistung rauskommt, die theoretisch rauskommen müsste oder könnte.
 
pipip schrieb:
y33H@
Wie schon bereits erwähnt, viele im Forum reduzieren ihren PC scheinbar auf die CPU.
Wenn ich ein APU-System habe, habe ich in einem bestimmten Budget, die beste Preis-Leistung, sobald ich alles machen kann was ich will und die Games zocken kann die ich will.

Ich würde die APUs nicht mal auf Preis-Leistung reduzieren.

Wenn die Full-Fusion da ist rechne ich fest mit APUs für High-End Desktopsysteme und Server, die dann auf maximale Rechenleistung optimiert sind und womöglich gar keine Grafik mehr ausgeben können.

Ich denke in Zukunft wird ein Gaming-PC aus genau so einer High-End APU und einer dedizierten Grafikkarte für die Grafikberechnung bestehen.
 
DinciVinci schrieb:
Bulldozer müsste nach Design eine höhere IPC haben als der Phenom II. Deshalb hatte AMD damals vermutlich auch immer betont, dass die steigt.

Is das so? Soweit ich mich erinnere sprach John Fruehe von einem höherem "Throughput".
 
Simon schrieb:
Wenn der Xeon E5 (Jake Town) ein spezieller Server-Ableger von Sandy Bridge ist, was ist dann bitte der "Interlagos"?
Interlagos ist kein spezieller Server-Chip, sondern stamm von einem Chip, der Desktop-Game & Server wirtschaftlich abdecken muss.
Die Schwierigkeit liegt darin, dass Server (Multi-core) und Games (eher "SIngle-Core als Multi-Core") ganz andere Anforderungen haben. Deswegen muss AMD ein mittelding finden. Nicht umsonst hat Vishera jetzt nur 8-Kerne statt 10. Eben weil sie nicht je einen Chip für Server & Game-PC machen können sondern nur einen Kompromiss.
Wer das nicht berücksichtigt, der kann bei CPU-Architekturen ala Bulldozer eben schnell falsch liegen. Und wie falsch viele früher lagen, zeigte Trinity & Geschäftsbericht schon.

8-Kerne miteinander zu verbinden ist nicht so einfach. Nicht umsonst komm der E eben 9-12 Monate später.

[/QUOTE]
Vor ein paar Jahren hat AMD noch über Intel "gelacht", als man zwei Dual-Cores zusammengeklebt hat, um einen vermeintlichen Quad-Core zu erhalten. Heute muss AMD selbst zwei Bulldozer je vier Module zu einem MCM zusammenpanschen und du bezeichnest den E5 als speziellen Server-Prozessor? :lol:
[/QUOTE]
Lach nur weiter, aber andere Aussagen mit zulasten anzuhängen, ist schon eine Fragwürdige Methode.
Im Server geht es um Core und Effzienz und das ist es egal, wie die angehängt sind.
Weniger egal ist es bei Desktop. Als es zu Zeiten keine Multithread-Anwendungen gab, war das Problem @ Multithread nicht so sichtbar.
IMO eine gute Zwischen bzw ÜBergangslösung, aber es ist keine Optimierte Lösung.

Der Interlagos war grob ein halbes Jahr vor den Xeon E5 im Retail-Markt erhältlich. Wenn man bedenkt, dass die Interlagos in Real-World-Apps im Schnitt auch nur etwa auf dem Niveau der alten Xeon 5600er liegen, die deutlich über ein Jahr früher am Markt waren, ist das auch kein Wunder.
Interessant ist immer, wie AMD bzw. Bulldozer bzw. Interlagos schlechtgesehen wird, wenn sie gegen aktuelle Konkurrenz gleichwertig ist.
 
nanoworks
Das ist mir schon klar, aber ich hab hier dieses mal gar nicht gewagt das anzusprechen.
Das meine ich aber auch die APU hoffentlich spätestens nach Kaveri als einheit zu sehen.
AMD erwähnt ja auch das wort "extend to gpu"
3-1080.2263084609.png

Wirklich begrüßend wäre es, wen Physik mit einer APU optimal berechnet werden kann, die dgpu dann nur mehr die Grafik kümmern müsste. Damit wäre AMD für Gamer wieder richtig interessant. Da die Konsolen eine APU und eine dgpu haben, bzw 2 dgpus haben (eine starke und eine Schwache) würde das auch für die Entwicklung sprechen.

Ähnliches hatte ich hier im Thread aber schon mal angesprochen. Momentan sind die Server Abkömmlinge für die Desktop Versionen. Später wenn die APUs die ja momentan sehr auf Notebook-Orientiert, stark genug werden, also das Potential haben (eben fertige APU) werden wir wahrscheinlich nur mehr APUs im Desktop haben. Eventuell wird mann dann wie Intel einen eigenen Sockel mit reinen CPU Cores noch anbieten. Außer AMD wird im Server auch immer verstärkter zu APUs gehen.
 
Es ist unglaublich in welcher Art und Weise hier wieder über ungelegte Eier gegackert wird.


Wer garantiert überhaupt, dass dieses Funktionsmuster wirklich ein "Vishera" ist, und nicht eine überarbeitete Revision (OR-C0) des Bulldozers? Dieser Verdacht wurde bereits im Forum von Coolaler geäußert. CPU-Z zeigt Family 15h, Model 02h. Bulldozer ist Model 00h - 0Fh. Piledriver (Trinity) ist Model 10h - 1Fh. Der Nachfolger des Zambezi sollte eigentlich Model 20h - 2Fh sein.

Laut CPU-Z handelt es sich noch um die "altbekannte" Bulldozer-Mikroarchitektur.
 
Zuletzt bearbeitet:
Y33H@ schrieb:
Intels 45 nm und GFs 32 nm ... letzterer ist besser, der Zambezi dennoch ineffizienter als Lynnfield.

An welchen Aspekten machst du das fest?
Wenn man eines gesehen hat, dann ist der 32nm Prozess sogar eher schlechter als der ausgereifte 45nm Prozess.
Sieht man an einem Vergleich zwischen Llano und dem Phenom II, bleibt da nichts übrig. Weder aus Performance/Watt Sicht, noch aus einer anderen.

Und dass Bulldozer ineffizienter ist als ein i5 750/60 kommt auf den workload an.
Der 95Watt FX-8120 in etwa, sollte da eine bessere Effizienz aufweisen. (Spiele ausgenommen)

Kasmopaya schrieb:
Keine Chance, keine Fertigung der Welt kann eine schlechte Architektur ausgleichen. Erst recht nicht die von AMD.

Sry aber in deinen Kommentaren steht zu 80% nur unfundierter Blödsinn zur Bulldozer/Piledriver Architektur, lass doch mal stecken.

Kasmopaya schrieb:
es gibt schon Spiele die laufen auf 6 Kernen wesentlich schneller als auf 4.

Mhm.. ja aber auch nur dann, wenn alle 6 Kerne möglichst geringen Takt haben, ansonsten (wie bei den i7 Six cores zu sehen, verpufft die Leistung aufgrund einer bescheidenen Multithreadingimplementierung), es gibt einfach bei den aktuellen Intel Prozessoren für die Threads 4 und 5 nicht mehr viel zu tun, die Engines skalieren nicht mehr richtig.
 
Zuletzt bearbeitet:
Anscheinend haben die Jungs von Coolaler inzwischen einen 2nd generation Piledriver in der Hand. Mal schauen, ob es da demnächst ein Update gibt...
 
Sehr fundiert und objektiv. Kanste das auch mal begünden oder ist das nur Modegehate?
Es gibt von mir eben knall hart Fakten auf den Tisch. Bulli und alles was damit zu tun hat: Extrem ineffizient und für uns hier nicht kaufbar. (Server gibts ja Ausnahmen) Wenn dir das nicht passt bin ich eben heute wieder der Intel Fanboy... Morgen dann AMD weil mir die GCN Architektur so gefällt...

. Denkfaule verzweifeln immer wenn sie gefordert werden.
Dann würde zb. Starcraft II 60-70€ kosten anstatt ca. 35€ beim Start(der sich nochmal Jahre verschoben hätte) weil man die komplette Engine umschreiben musste. Hab zb. auch keine Lust Unsummen bei Kickstarter zu investieren nur damit 10 Kerne unterstützt werden. Das Geld will ich in sinnvolleres gesteckt sehen. 4 Kerne sind für ein modernes Game schon drin, aber Spiele die vor Urzeiten angefangen wurden zu programmieren sind halt noch 2 Kern optimiert. Blödheit und Faulheit spielt quasi nie eine Rolle, sondern wie immer Geld und Zeit. Und Spielprogrammierung ist nun mal Geld und Zeit begrenzt, ergo alles was in CPU Optimierung gesteckt werden muss ist Verschwendung, das hätte man besser investieren können. In einer perfekten Welt erledigt die CPU jeden Job(schnell und effizient, egal wie viele Kerne von dem Programm gefordert werden) der ihr vorgesetzt wird und Entwickler können die gewonnene Zeit anderweitig nutzen.

Was haben sie sich denn eingebrockt? Das CPU bauen?
Leistung hauptsächlich über mehr Kerne steigern. Lösung: IPC pushen und den Turbo voll ausfahren. Was Intel auch macht, genau so stelle ich mir die Problemlösung vor.

Spiel wie SC2 oder Skyrim auf 2 Kerne limitiert zu werden und wenns abgeht die FPS abstürzen zu sehen
Solange die FPS nicht ins unspielbare abstürzen(AMD) ist es OK. Intel schafft das. Warum sollte ich mich dann noch beschweren? Einzig das in ein paar Jahren 4 Kerne nicht mehr zeitgemäß sind und 6 oder 8 Kerne besser wären und Intel dafür ordentlich abkassiert dank quasi Monopol.


am Releasetag kaufst und die Schachtel öffnest, ist es schon veraltet.
Bei mir nicht zb. die Legende 8800GTX: https://www.computerbase.de/forum/threads/eure-grafikkarten-historie.235090/page-93
CPU + GPU Architektur Springen...
Oder beim MBPR, bin mal bespannt wie viele Jahre es dauert bis die Konkurrenz nachzieht.

Bulli 2.0 mobil CPU von AMD.

Siehe 1. Punkt

lass doch mal stecken.
Fakt Bulli packt SC II nicht flüssig und ist quasi gleich schnell wie ein extrem alter Core 2 Quad, und das schlimmste dabei, noch viel ineffizienter beim Stromverbrauch: http://www.pcgameshardware.de/aid,8...200-FX-6100-FX-4170-und-FX-4100/FX-4100/Test/
 
Zuletzt bearbeitet:
Kasmopaya
Der FX 6100 hat ein besseres undervolt und OC Potential als der FX 4100.
Interessant ist, dass bei AMD jeweils immer die Schwachstellen bei den einzelnen Modellen gesucht werden und anschließend über alle Modelle geschoben werden. Aber solche Sachen sind wir hier schon gewohnt.
 
aylano schrieb:
Man sollte halt mal das Konzept von Bulldozer verstehen. Und das ist in erster Linie Effizent.

das Konzept mag effizient sein, das Produkt ist es bisher im seltensten Fall. Optimierung, darauf setzen alle, genau das muss Vishera zeigen, denn eigentlich sollte von Gen 1 auf Gen 2 die massivste Optimierung stattfinden können.

Freddy72 schrieb:
Sry aber in deinen Kommentaren steht zu 80% nur unfundierter Blödsinn zur Bulldozer/Piledriver Architektur, lass doch mal stecken.

irgendwas stimmt bei deinen "Quotes" nicht. :o

Du zitierst angeblich immer "Krautmaster" dabei sind es "Kasmopaya" Zitate.

Rufmord :D

Edit:
Freddy72 schrieb:
... scheint als wär ich etwas zu plöt um korrekt zu zitieren... :(

:king:
 
Zuletzt bearbeitet:
Krautmaster schrieb:
[...]das muss Vishera zeigen, denn eigentlich sollte von Gen 1 auf Gen 2 die massivste Optimierung stattfinden können.

Na aber dem widerspricht AMD ja klar. Vishera wird nur ein kleines Update. Steamroller wird es dann (hoffentlich) zeigen. Hier wird von Vishera schon wieder viel zu viel erwartet. :rolleyes:
 
Zuletzt bearbeitet:
@DinciVinci

hoffen wir es, ich meine aber AMD hat von jeweils 5-10% Performance Steigerung geredet für die nächsten 2 Gens.

Eigentlich bietet es sich an wie bei Intel, Architekturänderung innerhalb einer Fertigung, also Vishera ist ja kein Shrink...
Wenn Steamroller sowohl die Architektur wieder weitgehend ändert und dabei auf neue Fertigung setzt wird das wieder sehr komplex für AMD...

Edit: Klar die Hoffnung stirbt zuletzt, vorangehen wird es da auch, sofern Steamroller noch unter den Label AMD erscheint ;)
 
Zuletzt bearbeitet:
Schon klar. Die Angabe zur Performance-Steigerung ist wieder so eine marketing-typische Nebelkerze. Was heißt das schon? Geht es um Single-Thread-Leistung pro GHz, geht es um die IPC für bestimmte Workloads, geht es gar um die Gesamtleistung inkl. Taktsteigerung oder geht es um theoretische architekturelle Leistungssteigerungen, die die eingebauten Bremsen nicht berücksichtigen würden. Ich warte da einfach ab. Die Frage ist halt, wann die Probleme der Cache Misses und der Branch Prediction Penalty behoben werden können, denn das scheinen da die Hauptknackpunkte zu sein. Wenn AMD bsp. einen µOP-Cache wie Intel einführt, wird das sicherlich nicht ohne eine Architekturänderung gehen und somit sicherlich nicht mit Vishera eingeführt werden sondern erst mit Steamroller. Ich erwarte von Vishera eigentlich nur leichte Änderungen, vielleicht größere L1-Caches, eine etwas bessere Branch Prediction (wobei die schon sehr gut geworden ist), etwas mehr Takt. Eben nur Kleinigkeiten, die schnell umsetzbar sind und die großen Performance-Fresser eben nur leicht abdämpfen.
 
Krautmaster schrieb:
hoffen wir es, ich meine aber AMD hat von jeweils 5-10% Performance Steigerung geredet für die nächsten 2 Gens. )

Ich Erinnere mich lediglich an die Aussage, das Piledriver 15% schneller sein soll als Bulldozer.

Dabei wurde aber nicht gesagt ob die Leistungsaufnahme sinkt, bleibt oder steigt.
Oder ob der Takt sinkt,bleibt oder steigt.
Ob das nur auf IPC bezogen war, oder auf das ganze Packet.
Taktbereinigt oder nicht.
 
Zumindest bei Vishera bleibt's bei 125W und 95W TDP.
 
Zurück
Oben