Test Test: AMD FX-8350 „Vishera“

Rome1981 schrieb:
... wird auch der Vorsprung der Intel-Technik kleiner und dann wird auch da (wie immer) eine AMD-Kopie angefertigt...

Nur so mal als Denkanstoß:

Intels Fertigung tritt nicht auf der Stelle und statt auf Pseudokerne wie AMD zu setzen, klatscht Intel dann einfach mehr Kerne (inkl. HT) auf den Chip und zieht wieder an AMDs zukünftigen Prozessor vorbei.

Bei weniger Verbrauch und geringerem Platzbedarf natürlich. :evillol:
 
Mal ne andere Frage, 1. sind die spiele immernoch total auf Singlecore Singlethread optimiert, kurzum der Hauptthread ist immernoch so wenig aufgeteilt, das eine cpu fast ausschließlich über single-core speed skaliert? Das würde ja heißen das primär die Spieleentwickler auf ganzer Linie versagt haben, denn Quadcore ist heute ja standard und morgen steht 8core an, und das sind ja schon so halbe 8core dinger.

Daher könnte man sich den Test dann auch sparen, quasi, da es ja klar war das ein Core in einem Bulli schlechter ist, dafür aber die Anzahl der Cores höher ist, also viele abgespeckte "cores".

Klar tortzdem muss man es an den realitäten testen, nur war dann ja schon vorneherein klar das dieses Ergebnis heraus kommen muss.

Dann wäre es doch interessanter gewesen und jetzt auch noch, wenn man mal versucht wenigstens zusätzlich EIN Teil-test zu machen wo man sehen kann wie die Rohpower ist, z.B. könnt ich mir vorstellen, browser geht auf mit 50 offenen Tabs gleichzeitig öffnet man irgend ne Musiksoftware, startet noch einen Film in 1080p über Flash und kopiert noch 20gb von einer SSD auf die dandere. oder entpackt gar die daten von der einen ssd auf die andere. So und dann schauen bis alles geladen fertig ist.

Sowas in der Art, mag ein bisschen noch vereinfacht werden, aber das würde dann mehr sinn machen, als zu testen wie in einem manycores die logischerweise dann schwachen Cores einzeln schnell sind, was ja quasi hier und auf allen anderen Testseiten getestet wurde. Mag ja sein das der Bulli da dann auch schwach ist, weiß ich nicht, aber das wäre interessanter gewesen.

Das ist wohl jetzt auch ein Grund, warum vielleicht der Vishera immernoch nur 8 "cores" hat, vielleicht hätten sie ihn auch auf 16 Cores hoch blasen können. Und vielleicht bringt jetzt Intel die nächsten 5 Jahre keine Manycore cpus wie sie es ja mal angekündigt haben, weil man damit natürlich solche Tests grandios kläglich verliert zwingend.


UPDATE:
Ich finde das schon ein wenig dramatisch wenn Spiele also nur 1-2 Cores halbwegs gut aus nutzen in der Regel, immernoch wirklich wofür soll man sich so ein Stromverbrauchsmonster kaufen? Intel ist ja bei seinen flotteren Modellen auch nicht viel sparsamer, normal kann man dann noch ne gute grafikkarte rein packen die dann eh extrem viel mehr zieht als ne schnöde cpu, und dann kann man zocken, aber wenn Spiele nicht mal von so vielen kernen profitieren was sonst, privat berechne ich nicht das wetter gut video-encodieren tu ich auch nicht das wäre dann vieleich tnoch so ein task... Ja ich glaub das Hauptproblem ist das grad windows ab stirbt und die meisten Entwickler nur noch für Android entwickeln und Arm grad x86 platt macht (ja dauert noch ne weile, aber für 99% der tasks sind die dinger doch oft schon schnell genug). Die Spieleentwcikler bauen wenn dann noch so 0815 spiele die mit 10 jahre alten pcs noch laufen, denk da den ganzen f2p markt, es ist für die viel attraktiver die ganzen leute anzusprechen mit uralt-pcs oder uralt-konsolen (xbox360+ps3) als high-end pcs. daher kommen halt keine spiele raus die quad oder gar octa-core cpus aus nutzen richtig. offenbar ist selbst bei den highend spielen singlecore speed immernoch das entscheidende, das zeigt das sie halt für xbox360 und co programmiert wurden mistens und eben dann noch paar bessere shader+texturen dran gehängt wurden fertig.
Extremes beispiel von dieser Richtung war dann Rage ... von daher sollte man 50% der schlechten Bulldozerwertung mal der Spieleindustrie weiterreichen.
 
Zuletzt bearbeitet:
Aeromax schrieb:
Auf jeden Fall ist es mal gut, dass AMD endlich wieder etwas halbwegs konkurrenzfähiges gebastelt hat.
Sieht wirklich fast aus wie damals beim Phenom I/II.
Ich unterstütz die dabei auf jeden Fall und ersetz den alten 1090t durch einen FX8350

Ich finde es schade, dass AMD bei der Strukturbreite schon seit einiger Zeit um 12-18 Monate hinterherhängt. Ohne einen gewaltigen Finanzakt ist das auch unaufholbar. Dann wiederum besitze ich keine Spiele, die von einer schnelleren CPU profitieren würden...

Ich denke, ich hätte gerne einen Steamroller, wenn der in weniger als 32nm gefertigt wird und die nächste Generation an Chipsätzen raus ist, die PCIe 3.0 sowie USB 3.0 nativ unterstützt.

Warum alle so tun, als wären die Bedürfnisse eines Hardwarefreaks, der in seiner Freizeit nichts besseres zu tun hat, als Benchmarks durchlaufen zu lassen, das Maß aller Dinge ist für mich nicht nachvollziehbar.
Alle, die sich an Hardwaretests wie diesem hier aufgeilen können, sind bestenfalls 10% der Bevölkerung. Den restlichen 90% geht der Hersteller ihres Prozessors oder ihrer Grafikkarte oder was auch immer in ihrem PC drinsteckt am Arsch vorbei.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Dann wäre es doch interessanter gewesen und jetzt auch noch, wenn man mal versucht wenigstens zusätzlich EIN Teil-test zu machen wo man sehen kann wie die Rohpower ist,
Wenn man ein wenig im Netz sucht, findet man das bestimmt. Auf die Schnelle habe ich eben nur einen (etwas älteren) Test gefunden, der den FX-8150 gegen die Sandy Bridge Generation stellt. Die Kombination aus 7-Zip und mplayer verlangt den Prozessoren so einiges ab und trotz der theoretischen Stärke der AMD-Architektur lässt sich dies nicht in einem besseren Resultat erkennen.

blackiwid schrieb:
Das ist wohl jetzt auch ein Grund, warum vielleicht der Vishera immernoch nur 8 "cores" hat, vielleicht hätten sie ihn auch auf 16 Cores hoch blasen können.
Der Grund ist eigentlich nur der riesige Stromverbrauch. Den Schritt von 4 auf 8 Module müsste man sich mit deutlich gesenkten Taktraten erkaufen. Im Desktop-Betrieb macht das also überhaupt keinen Sinn und im Server-Bereich gibt es Prozessoren mit mehr Kernen ja bereits (zB Opteron 6272)
 
cornix schrieb:
AMD hat den Zug verpasst. Wenn nächstes Jahr Haswell startet....

aylano schrieb:
Sowas ist ein guter Schritt, denn wenn AMD die nächsten Jahren genauso Schritt für Schritt zulegen kann, dann könnten sie vielleichter sogar Intel einholen, wie sie es von R600 bis Thaiti machten.

Hier finde ich eine Interessante Betrachtung von Anandtech zu dem Thema ob AMD 2013 die Lücke schließen kann - sicherlich sehr Spekulativ, doch schon basierend auf bekannte Daten der kommenden Generationen:
Projected Performance: Can AMD Catch up with Intel?

Auch Haswell wird nicht mehr als 15% Performance Anstieg zu Ivy haben. Steamroller sollte allerdings etwas mehr Potential als die anvisierten 10-15% Steigerungen haben.

@CB Test
Ich möchte wirklich nochmal darauf hinweisen, dass die Stromverbrauchtests hier überarbeitet werden sollten. Sowohl die Kennzahlen die zu falschen Schlüßen führen als auch die Testmethodik. Es kommt nicht von ungefähr, dass andere Seiten durchgehend andere Ergebnisse aufweisen.

Ich persönlich finde die bem 8350-Test verwendete Methodik von Anand vorbildlich:
http://www.anandtech.com/show/6396/the-vishera-review-amd-fx8350-fx8320-fx6300-and-fx4300-tested/6
Stromverlaufsdiagramme beim erledigen einer Aufgabe sind zeitgemäß und zeigen auch um wieviel schneller eine Aufgabe beendet wird und dadurch schneller Idle Zustände erreicht werden. Vor allem ist auch der 95W 8320 dort mit von der Partie. (ebenso wie Benches der 6300 und 4300 Modelle)
 
aylano schrieb:
Vishera steht besser gegen die Konkurrenz da, als es Bulldozer damals machte.
Performance-mäßig konnte er stärker zulegen als es Intel 2012 gemacht hat.

gut, aber die Aussage ist ja Milchmädchenrechnung. Hätte Intel 10% an Takt zugelegt + die IPC Steigerung dann hätte man mehr zugelegt. Mehr als nötig.

Intel könnte wenn man müsste ja von heute auf morgen auf 4,5 Ghz gehen innerhalb der 120W TDP, würde dadurch locker 20% zulegen.

Der Vergleich hinkt also.

Man kann sagen, dass die Steigerung bei Vishera für ein C Stepping von Bulldozer recht hoch ausfällt, zum einen durch die bessere Fertigung die etwas mehr Takt erlaubt, zum anderen durch IPC Steigerungen - letztere sind das entscheidende.

Das Stepping kommt aber recht spät, wenn man es als Stepping bezeichnet (viel mehr ist es nicht).

Trinity ist wie ich finde bezüglich Architektur deutlich vor Vishera. Vishera wurde wohl mit so wenig Entwicklungsaufwand wie möglich realisiert um die zeit zu Steamroller etwas zu überbrücken, etwas aufzuschließen.

Ich denke man tut bei AMD gut daran das Maximum aus dessen Nachfolger rauszuholen, auch wenn es meiner Einschätzung nach noch 1 Jahr oder gar bis 2014 dauern wird.

Eine gute Windows 8 3W Tablet CPu wäre wichtiger.
 
sind die spiele immernoch total auf Singlecore Singlethread optimiert, kurzum der Hauptthread ist immernoch so wenig aufgeteilt, das eine cpu fast ausschließlich über single-core speed skaliert?

wie du an den testergebnissen siehst, machen aktuell vier threads tatsächlich schon sinn, mehr hingegen bringen aktuell für otto-normal-user noch keinen vorteil. vergleiche einfach i5 und i7 ergebnisse und du siehst, das meist nur der takt zwischen diesen cpus entscheidend ist. der i3 hingegen verliert schon bei gleichem takt auf den i5.
 
Herdware schrieb:
Das kann nicht die Erklärung sein, denn auch Sandy Bridge ist sparsamer als Zambezi und Vishera und die werden auch nur in 32nm und ohne Tri-Gate-Transistoren gefertigt.

Aber auch hier gibt es immer noch einen deutlichen Unterschied: Intel 32nm-bulk und bei GF sind wir bei 32nm-SOI. Vergleiche zwischen Unterschiedlichen Fertigungstechniken und Architekturen sind immer schwer. Da hat man es bei Grafikkarten einfacher, da läuft für Nvidia und AMD die gleiche Fertigung, wenn ich mich nicht irre.


ChaosCamper schrieb:
Was ist das denn bitte für ein Argument, dann soll AMD halt auch umstellen, um die User zu überzeugen, selber Schuld..

Ist dir schonmal aufgefallen, dass AMD nicht selber fertigt sondern fertigen lässt? Man kann sich schlicht keine eigene Fertigung leisten. Die R&D Kosten für 22nm-Fertigung betragen 2,3-3 Mrd. US-$. Für ein großes Unternehmen wie Intel ist das kein Problem, AMD hat aber nur ein Bruchteil des Intels-Budgets zur Verfügung.


Im Prinzip kann man als Kunde nur hoffen, dass bald EUV-Lithographie kommt und das alle großen Fertiger es gleichzeitig zum laufen bringen. Damit wäre Intels riesen Vorsprung in der Fertigung so gut wie weg.
 
irgendwie find ich's lustig wie hier auf computerbase damit umgegangen wird :D bei den zambezi's hieß es noch "schwarzer mittwoch für AMD" beim test & jetzt "auferstanden aus ruinen". irgendwie wirkt beides für mich absolut überspitzt. die 15% sind jetzt auch nicht soo toll dafür, dass der stromverbrauch gleich geblieben ist/bisschen hoch & immerhin 1 jahr vergangen ist. intel hat nämlich auch weiterentwickelt.

ich fand den zambezi/ 1. Generation Bulldozer nicht soo schlecht. Klar der Piledriver ist jetzt auch im Vergleich (Marktposition & so) etwas besser. Trotzdem wie gesagt ich find das alles etwas übertrieben.

schlussendlich (mein Fazit) : Bulldozer ganz ok -> Piledriver besser -> Intel Leider immernoch am besten -> für den normalen Menschen dem's nicht auf paar Prozent Leistung/Stromverbrauch ankommt alles kaufbar ;)
 
Das war doch genauso zu erwarten gewesen , AMD holt die Leistung aus 400MHZ Mehrtakt raus und verbraucht dabei 3x !!!! soviel Energie wie ein gleichschneller Core i5 .
 
so lange die cpu sich preislich nicht deutlich vom 3570k absetzt ist es doch nur ein weiterer schuss in den ofen.
 
Krautmaster schrieb:
laut eigener Aussage damals sollte SOI aber sparsamer sein da weniger Leakage oder? ;)

Richtig, nur ist die Frage wie sich es mit kleineren Strukturbreiten verhält. Was bei 130nm noch einen Vorteil bringt, kann bei 32nm schon wieder anders aussehen. Wenn ich mir die V-Core anschaue, bekomm ich bei AMD regelmäßig Albträume :evillol:
Mein 65nm Brisbane läuft aktuell mit 0,8V@1,5GHz bzw. mit 1V@Stock, das sind bei Standardtakt mal eben 0,35V weniger als Werksseitig. Potential hatte die SOI-Fertigung, nur irgendwie konnte man es nie wirklich gut umsetzten. Während Intel die V-Core mit kleineren Fertigungen senken konnte (65nm Conroe: 0,8-1,5 V; 32nm SB: 0,6–1,375 V) scheint sich bei AMD nichts zu tun, wobei ich eher noch das Gefühl habe AMD braucht mehr V-Core als früher.

Hoffe doch mal das GF den 28nm-bulk-Prozess anständig zum laufen bringt, damit wir nächstes Jahr Kaveri sehen.


scf-since1904 schrieb:
die 15% sind jetzt auch nicht soo toll dafür, dass der stromverbrauch gleich geblieben ist/bisschen hoch & immerhin 1 jahr vergangen ist. intel hat nämlich auch weiterentwickelt.

Der FX-8350 ist 13% effizienter als ein FX-8150. Sprich er verursacht 13% geringere Stromkosten als sein direkter Vorgänger. Die maximale Leistungsaufnahme, die leicht gestiegen ist, macht keine Aussage über Effizienz/tatsächlichen Stromverbrauch!
 
Zuletzt bearbeitet:
Hm wenn ich meinen i5-750 auf 4ghz bringe dürfte er schneller sein ^^
 
Ja doch nicht ganz so schlecht wie befürchtet mit der Leistung der CPU wäre ich so eigentlich sehr zufrieden, haben sie doch etliches eingeholt.

Dennoch der Wermutstropfen bleibt die Leistungsaufnahme, schade das sich da nicht etwas getan hat mit hätte es ja schon genügt wenn sie unter den ollen 1100T gefallen wären so 10 bis 20w.
Dennoch muss man auch anerkennen das es mehr Leistung gibt, und der Stromverbrauch nicht viel weiter steigt.

Schade dasb bei der Leistungsaufnahme keine DVD oder Videowiedergabe getestet wurde.
 
Lübke schrieb:
@Ameisenmann: dann rate ich dir zu einem trinity. bei ner cpu 30 watt spraren und bei der graka 200 watt verballern passt irgendwie nicht zusammen ;)

aber ernsthaft: ja intel ist sparsamer und zwar unstreitbar, das thema wird nun aber schon seit 12 seiten strapaziert ohne das irgendwas neues dazu gesagt wird. amd-fans finden verbrauch nicht schlimm und kaufen amd, intelfans finden verbrauch das wichtigste von der welt und kaufen intel und ich kaufe alles was mir spass macht, sowohl von intel als auch von amd ;)

Ich meinte wo es nicht weh tut! Natürlich bevorzuge ich eine sparsamere Grafikkarte, die ist ja immerhin auch leiser zu kühlen. Und wenn etwas viel verbraucht und dafür dreckig viel Leitung liefert, dann geht das schon i.O. Man muss aber sehen was es sonst noch am Markt gibt.


pipip schrieb:
Ameisenmann
Der Auto Vergleich ist in meinen Augen nicht gerade der beste.
Besonders da die neuen Prozessoren genug Stromspar-Modi haben.
Also wenn der FX in vielen Anwendungen kaum mehr verbraucht (idle -Werte haben sich zum FX1 sogar verbessert) dann kannst du deine Argumententation nur bringen, wenn du einen gleich schnellen Intel mit AMD unter Last vergleichst. Um da aber wirklich einen großen Unterschied zu haben, der im Geldbörse bemerkbar macht, musst du diesen täglich lange auf 100% auslasten.

Was autofahren angeht. Ich fahre bereits bei 50 km/h mit dem 5 ten gang, suche mir die kürzesten und einfachsten strecken wo ich den Motor weniger beanspruche. Somit kann ich auch gut effizient Sprit sparen.
(mit dem Tacho/km-Stand ca abgeschätzt und verglichen)
Aber ich muss zugeben, ich weiß nicht was für Spritsparfunktionen moderne Motoren besitzen!

mein Rechner muss knechten, mein Laptop darf chillen. Das mit dem Autovergleich passt schon, wenn man den 535er sanft gefahren ist, hat der auch nur zivil gesoffen, bei Vollgas oder flotter Fahrweise war den schon ziemlich durstig, war aber dennoch ein geiles Auto. Heute habe ich nen Volvo mit 200 Turbo PS, geht besser ab und braucht deutlich weniger.
 
Zurück
Oben