News Dokument bestätigt Taktraten von AMDs Vishera-CPUs

LoRDxRaVeN schrieb:
http://www.abload.de/img/unbenannt64u4v.png
Damit kann man vorsichtig (da es Zambezi in 45nm ja nicht gab) Überlegungen anstellen, wo Zambezi hätte hin sollen (32nm SOI ist in meinen Augen ziemlich eindeutig weit weg von 40-50% Vorteil gegenüber 45nm SOI (ULK)). Man MUSS bei der Entwicklung von bestimmten Gegenheiten ausgehen. Wenn dann die zu erwartenden Specs nicht erreicht werden, funktioniert das Design logischerweise nicht so, wie geplant - für die enttäuschenden Specs von 32nm SOI läuft aber mMn selbst Zambezi immer noch ganz gut.
Das Problem, die Bulldozer-Kritiker verstehen die Wichtigkeit der Technologien in den Fertigungen eben nicht. Alle Bulldozer-Vergleiche werden ja gegen Thuban @ 45nm-ULK gemacht. ULK brachte damals so 30-40% mehr Performance bei selben TDP, was 50% mehr Kerne bei etwas geringeren Takt ermöglichte. Und wenn in 32nm-SOI dann doch kein ULK möglich ist, dann schmilzt die angepeilte 40-50% Transistor-Performance-Steigerung entsprechend erheblich ein. Wenn man eben mit 45nm-non-ULK vergleicht, dann sieht die Effizienz-Welt @ AMD eben ganz anders aus.

Der Witz daran, die Weiterentwicklung vom achsoguten K10 wird ja als Heilmittel von Bulldozer gesehen. Koimsch, denn der K10 hatte ja auch mal als ultraschlechte CPU gegolten.

Der K10 wurde dann zur interessanten CPU als er mit zwischen K10-B2 und K10-C3 so ca. mit 5% IPC und 50%-Takt zulegte. Klar, die +5% @ IPC waren entscheind und nicht die +50% @ Takt wie es hier die IPC-Ideologen meinen. Und weil Piledriver nur eine +5% IPC-Steigerung und so eine +12%-Taktsteigerung hat, sind ja viele enttäuscht, weil die IPC des Piledriver vs Bulldozer erheblich kleiner als es damals bei K10-B2 vs K10-C2 der Fall war. Das Problem war für den K10 @ Desktop-Game-PC, als der Nehalem daherkam und die letzten Schwäche alias FSB beseitigte, sowie weitere Verbesserungen mit sich brachte. Und nur weil Bulldozer dieses Problem bisher nicht lösen konnte, ist Bulldozer ja so schlecht.

Aber es gibt eben viele die glauben, dass AMD mit 1/5 bis 1/10 - R&D-Gelder @ Fabrik genauso entwickeln kann, wie Intel. Zusätzlich musste die AMD-Fabrik noch auf Foundry umgestellt werden, was sicher auch seinen negativen Einfluss für 2011 & 2012 und eventuell 2013 hat. Aber da gerade das Own-Fabrik-Sterben begonnen hat, wird die Fertigungs-Problematik der Masse noch nicht so bekannt sein.
 
Simpson474 schrieb:
Aber es geht halt einfach nicht mehr Takt - auch wenn AMD das Teil gerne mit 5+ GHz betreiben möchte so wie Intel damals den NetBurst gerne mit 4+ GHz betrieben hätte, so spielte beiden die Physik in die Karten. Ich gebe dir recht, dass wir beide wohl zu wenig Know-How haben um zu Wissen was das bessere Mittel ist - die Vergangenheit und die aktuelle Situation zeigen jedoch einen gewissen Indikator. Auch ARM hat nach dem ARM11 die Versuche aufgegeben, durch längere Pipelines und dadurch höhere Taktraten mehr Energieeffizienz und Geschwindigkeit zu erreichen - alle nachfolgenden Designs wie gehen über eine deutliche Steigerung der IPC bei moderater Taktsteigerung.

Es ist genauso legitim die Leistung über den Takt zu steigern und es muss keinesfalls ineffizienter sein. Mehr IPC benötigt auch mehr Schaltungen was mehr verbraucht und da kann auch Intel nicht mehr weit gehen. Genauso wie Taktsteigerungen irgendwann eine Schwelle erreichen wo man übermässig Spannung für mehr Takt anlegen muss.
Es kommt auf die Fertigung an und da ist 32NM HKMG SOI keinesfalls mit 22NM Tri Gate zu vergleichen.
Auch P4 ist ein schlechtes Beispiel 90/65NM Fertigung oder 32NM Fertigung die jeweils über 4Ghz erreichen soll sind, neben der grundsätzlich komplett anderen Architektur,
absolut nicht zu vergleichen.

Klar ein Modul beim Bulldozer ist mehr als HyperThreading bei Intel und kann vor allem bei Integerberechnungen nahe an zwei echte Kerne herankommen - aber für vollwertige Kerne fehlen dann doch einige Teile (z.B. die FPU). Daher ist es eigentlich auch nur SMT, da der Zugriff auf die FPU geteilt werden muss: 2 Kerne und 4 Threads dürften es daher besser treffen als 4 Kerne.

Sobald AMD den Durchsatz der Decoder optimiert (was vielleicht schon bei Vishera der Fall sein könnte) dann noch die Cache Latenzen verbessert (bereits Vishera) oder etwas leistungsfähigere FPU verbaut ist Bulldozer sehr, sehr interessant.
Wenn sie dazu noch Zeit dazu haben die Schaltungen per Hand zu optimieren wird
das Ganze äusserst effizient.



Das ProBook ist ein schönes Beispiel - die i3 Variante gibt es für unter 500€, die Trinity Variante kostet ca. 650€. Alle Trinity Notebooks unter 500€ können von der Verarbeitung nicht mit dem ProBook mithalten.


Beide GPUs erfüllen in etwa den gleichen Einsatzzweck - alles außer Gaming. Trinity ist selbst bei Multithreading nicht schneller als ein mobiler i3 - irgendwoher muss der folgende Punkt ja auch kommen:

Und wer sagt dass Trinity im Notebook nicht mehr als 500€ kosten darf?

Natürlich gibt es Multithread Software welche auf Trinity besser läuft als auf einem ähnlich teuren i3.

http://www.tomshardware.de/a10-5800k-a8-5600k-trinity-apu,testberichte-241054-4.html
http://www.tomshardware.de/a10-5800k-a8-5600k-trinity-apu,testberichte-241054-5.html
http://www.tomshardware.de/a10-5800k-a8-5600k-trinity-apu,testberichte-241054-6.html
http://www.tomshardware.de/a10-5800k-a8-5600k-trinity-apu,testberichte-241054-7.html
http://www.tomshardware.de/a10-5800k-a8-5600k-trinity-apu,testberichte-241054-8.html
 
modena.ch schrieb:
Und wer sagt dass Trinity im Notebook nicht mehr als 500€ kosten darf?
Die Kunden - wer zahlt bitte 150€ drauf um ein absolut vergleichbares Notebook zu bekommen, nur weil AMD drauf steht. AMD kann im Moment nur über den Preis verkaufen, daher muss dieser halt passen - und das ist bei Trinity im Moment eher nicht der Fall.

modena.ch schrieb:
Natürlich gibt es Multithread Software welche auf Trinity besser läuft als auf einem ähnlich teuren i3.
Es geht bei Notebooks um mobile CPUs mit 35W TDP und nicht um 100W Ineffizienzmonster. Der erste Schritt um das zu erreichen ist halt das Senken des Taktes und Trinity kann dadurch die Taktraten des i3 nur noch im Turbo übertreffen - bei gleicher Frequenz kann Intel die zwei zusätzlichen Threads jedoch sehr gut kompensieren.
 
modena.ch schrieb:
Mehr IPC benötigt auch mehr Schaltungen was mehr verbraucht und da kann auch Intel nicht mehr weit gehen.
Diese Aussage gab's schon vor Jahren und dennoch legt Intel selbst bei Shrinks ständig und weiterhin an IPC zu.
 
PanzerHase schrieb:
Dann zeig mir mal die Intel Bretter für 80€ mit denen ich mal eine CPU auf 4.5-5GHz takten kann ohne das ich Spannungen jenseits von gut und böse brauche nur weil das Board ne Krücke ist. Zudem hätte ich gerne 2 PCI-E Slots mit vollen 16 lanes damit Crossfire wenn ich es nutzen weil nicht rausfällt. Dann brauch ich auch noch eine gescheite North und Southbridge Kühlung nicht so Schnipsel Krams wie die low kost Dinger ;)

Lol das ja schon mal Schmarn. Die NB und SB (lol) haben rein gar nichts mit OC zu tun da dieser nicht mehr über Referenztakt Stattfindet und das SI selbst auch in der CPU sitzt. Da muss man nix angeben.
Ich sehe 100€ heute für ein Board schon als fast zuviel an.

Zudem gehe ich lieber auf µATX, ATX ist absolut out.

ATX
http://geizhals.de/746834
µATX
http://geizhals.de/746841

selbst unter 80€ reichen für OC absolut aus

http://geizhals.de/802357

Die Intel IB oder SB machen meist weniger wegen Verbrauch dicht sondern schlicht weil einfach nicht mehr Takt bei Temperatur / Spannung drin ist. Einfach gediegen bei ~1,3V 4,5 Ghz mit nehmen und fertig ... am besten mit Aktiven C1E damit man unter 30W idle bleibt und seine CPU mit weniger Spannung füttert.

Was Boards angeht so schenkt es sich bei Intel / AMD heute recht wenig. Unter 100€ bekommt man sehr gute OC Boards. Wenn man zockt kauft man eh lieber ein 50€ Board und haut die gesparten € auf die GPU.

Aber genug OT ;)
 
Also der FX-8300 könnte durchaus ein interessantes Upgrade für meinen Arbeits-PC sein.
Mal sehen, wie sich der Preis entwickelt...
 
Ok, erstmal ein Hallo an alle hier.

Ich geb zu,das ich nicht der Megawissende in Sachen CPU's und deren Aufbau bin. Trotzdem habe ich mich durch verdammt viele Artikel gelesen und kann mir langsam ein eigenes "Theroretisches" Bild machen.

Ich sage hier gleich ganz "deutlich klipp und klar" das dass meine Meinung ist.

1.)Ich hatte bis Anfang März selbst einen Athlon II X4 630 der mir zu langsam war und hab mir dann,nach jeder menge Empfehlungen ein Intelsys mit nem I5-2500K gekauft. Klar der Performancezuwachs war wirklich Spürbar und auch Sichtbar in allen belangen. Trotzdem hätte ich gern den FX8150 damals gekauft.Hiervon wurde mir komplett abgeraten ,denn er wurde als "nicht Spielbar" bezeichnet. Damit kommen wir zu Punkt 2.

2.) Warum wird die FX-Reihe von der wissenden Presse als "nicht Spielbar" bezeichnet?Es wird zwar nicht behauptet,aber man sagt dem Kunden in der Empfehlung,:Man solle doch zum Intel greifen,da dieser Spielbar ist.
Es gibt verdammt viele Test's wo dem Kunden oder gewillten Käufer sugerriert wird,das die FX-Reihe nicht Spieletauglich ist.
Was heisst das genau? Bitte?? Laufen die Spiele nicht? Laggt das Spiel ständig? Startet der PC nichtmal? Genauso gibt es Kommentare von Usern/Testern die behaupten,das ein AMD System langsamer bootet als ein Intelsys.

Sry,aber entspricht das der Wahrheit,wird hier wirklich Neutral getestet und vor allem,
"sind die Bewertungen oder auch das Fazit " "Neutral" ????
Klar sind die Test's wirklich gut für den Konsumenten, um sich ein halbwegs gutes Bild damit machen zu können.
Aber ist es korrekt zu schreiben,das die FX-Reihe nicht Spieletauglich ist?

Ich als Leser der sich durch den Bewertungswald kämpft muss ganz klar sagen,das es hier wirklich sehr Offensichtlich an Neutralität fehlt. Das muss ich hier ganz klar sagen.

Denn es gibt auch Testseiten die das gängige Meinungsbild zu AMD's FX-Reihe wiederlegen.
Damit komme ich zu Punkt 3.

3.) Die FX-Reihe ist doch Spieletauglich?!?!?

Auf der Internetseite von http://www.tweakpc.de findet man einen Test zum AMD FX8150. Dazu gibt es nach dem Test logischer weise ein Fazit das wie folgt lautet:

Dem FX-8150 kommt zu Gute, dass gerade wenn es um Spiele geht, faktisch kein Unterschied zwischen allen getesteten CPUs, und das schließt die Modelle von Intel mit ein, besteht. Zwar ergeben sich durchaus deutliche Unterschiede in den Framezahlen einzelner Benchmarks - mal liegt Intel vorne, mal AMD - aber an der Spielbarkeit ändert das nichts. Wir haben mit einem AMD Radeon HD 6970 CrossFire-Verbund und sogar Eyefinity getestet, wie sich die CPUs leistungsmäßig positionieren und wir können daher mit Sicherheit sagen: Die Unterschiede ändern an der Spielbarkeit (oder auch nicht-Spielbarkeit) am Ende nichts. Das Limit setzt auch bei solchen Konfiguration die Grafiklösung und nicht die CPUs in diesem Preisbereich.

http://www.tweakpc.de/hardware/tests/cpu/amd_fx-8150_bulldozer/s16.php

Das ist doch mal für den Konsumer eine "Neutrale" aussage. Das man nicht in die Gefilde der Intelprozessoren kommt ist klar, "aber" hier wird mir doch klar gesagt,das ich auch mit einem AMD FX ordentlich zocken kann.
Ein AMD FX8150 bspw. bietet mir also so viel Frames/ FPS das ich damit ohne Komplikationen spielen kann.
Also kein gelagge oder ähnliches. Intel bietet mir "nur noch mehr Frames/FPS wo ehh schon meißt mehr als genug vorhanden ist.


Die nächste Seite die sich auf ähnlicher Weise um die Spielbarkeit in Sachen AMD FX8150 gewidmet hat ist
Ocaholic aus der Schweiz.
In diesem Test wurde einfach als Testbasis ein Gameplay mit mehr als 5 Minuten Spielzeit angewandt,natürlich mit mehreren Spielen und festen System,aber das was wichtig ist,soweit dies stimmt,hallt Praxisnah ist.

Auch hier zitiere ich das Fazit,das wie folgt lautet.:

Wie man den Resultaten entnehmen kann, hat die CPU nur in den seltensten Fällen einen massgeblichen Einfluss auf die Gaming-Performance. Wenn dies der Falle ist, dann aber auch nur, wenn bereits mehr als ausreichend Frames vorhanden sind. Dies hängt damit zusammen, dass beispielsweise StarCraft II selbst bei FullHD und maximal AA- sowie AF-Settings die Grafikkarte nicht auszureizen vermag. In diesem Falle kann dann die CPU ihre Muskeln spielen lassen. Das Gegenteil ist zum Beispiel bei 3D Mark 11 der Fall. Hier spielt beinahe ausschliesslich die Leistung der Grafikkarte eine Rolle. Somit sieht man in diesem Falle so gut wie gar keine Unterschiede. Interessant wird es, wenn man sich die Resultate von 3D Mark Vantage zu Gemüte führt. Hier sieht man einen gravierenden Unterschied von der AMD zur Intel CPU zu Gunsten von Intel. Bei 3DMark 11 oder Unigine Heaven liegt die Intel CPU 0.7 Prozent respektive 0.5 Prozent vorne.

Widmen wir uns den Spielen, dann sehen wir hier ein ähnliches Bild wie bei den theoretischen Benchmarks. Games, die in der Lage sind eine akutelle Grafikkarte auszureizen profitieren weniger stark wie solche, die dies nicht können. Im Durchschnitt hinkt der AMD FX-8150 23 Prozent hinter der Core i7-3770K CPU hinter her. Den geringsten Unterschied massen wir bei Alien vs. Predator mit gerade einmal 0.73 Prozent. Bei Crysis 2 massen wir einen Vorsprung der Intel CPU von zwei Prozent. Bei BattleField 3, S.T.A.L.K.E.R. und Dragon Age II liegt AMD zwei mal sechs Prozent und einmal acht Prozent im Hintertreffen. Die grossen Unterschiede findet man schliesslich bei Batman: Arkham City, DIRT 2, Call of Duty Modern Warfare 3, StarCraft II und The Elder Scrolls V: Skyrim. Diese Spiele sind entweder nicht grafiklimitierend aufgrund zu geringer Anforderungen an die GPU oder optimiert auf die Verwendung von mehr als vier CPU-Kernen. Bei Batman liegt die Intel CPU 15 Prozent vorne, bei DIRT 2 beträgt der Unterschied 30 Prozent, bei Call of Dutiy sind es ebenfalls 30 Prozent, bei Skyrim sind es erstaunliche 60 Prozent und bei StarCraft II sind es massive 84 Prozent, die die Intel CPU in Führung liegt.

Bezüglich dem Stromverbrauch gibt es nicht viel zu sagen: Im Leerlauf liegt die Intel Core i7-3770K CPU 15 Watt Differenz vorn und unter Last beträgt der Vorsprung von Intel 30 Watt (ein Kern war konstant bei 100 Prozent Auslastung). Interessant wird es aber dann, wenn man sich die Preise der beiden Prozessoren zu Gemüte führt. Für eine CPU, die um Faktor 1.23 mehr Performance bietet bezahlt man das 1.42-Fache des Preises. Ob sich das wirklich lohnt?

link: http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=784&page=12


Soviel dazu,das allzuoft behauptet wird ,das der FX8150 bspw. nicht "Spieletauglich ist".

Um es hier nochmals zu sagen und auch zu Unterstreichen, ich bin weder Intelfan noch AMDfan.
Mir geht es nur darum,das mir als Konsumer versucht wird klar zu machen,das man möglichst die Finger von AMD lassen sollte. Sorry aber da fehlt mir bei verdammt vielen "Test's" die "Neutralität" .

Neutralität in sachen Spielbarkeit und "Stromverbrauch" .

Moment.... Stromverbrauch,da war doch was ,womit ich zu Punkt 4 komme.

4.) AMD's Bulldozer und der Stromverbrauch.

Hier muss ich auch meinen Senf los werden.
Bei vielen Test's wird gesagt,das der FX-8150 unter Volllast je nach Konfiguration des Systems bis zu 300Watt verbraucht. PUNKT.
Das wird genauso stehen gelassen. Ich als evtl. unwissender Konsumer denke jetzt.: Boahh nee 300 Watt,nee das ist mir zu heftig.den Kauf ich nicht.

Was der Konsumer aber nicht weiß ist,das dieser Wert unter "Volllast" gemessen wurde. Aber was ist bitte Vollast??
Volllast ist doch wenn ich meinen PC mit all seinen Resourcen versuche komplett auszulasten.Das heißt,ich mache,vorrausgesetzt jetzt mal das ich 2 Bildschirme habe,den Browser auf,öffne Skype oder icq oder auch Steam,lasse im hintergrund Musik laufen,lass evtl eine Datei umwandeln und zocke nebenher SC2. Aber bitte,komme ich damit auf Volllast?? Auf vielen Seiten und auch in Foren ist hier nachzulesen,das solche Programme und auch beim Spielen einen PC nie auf Volllast bringen. Was man benötigt um auf Volllast zu kommen ist zum Beispiel Prime95 um die CPU auf Stabilität nach dem Overcklocking zu testen.Hier wird das System möglichst auf Volllast getrieben.

So,nun entschulding,aber, mache ich das jeden Tag? Macht das jeder normale Gamer,der einfach nur zocken will? NEin,ist "meine Antwort".
Klar verbraucht der AMD FX mehr als Intel's Prozessoren,doch hier wird mir seitens der Presse klar gemacht,das der FX-Bulldozer in 24std bei 7 tagen die Woche ständig 300Watt oder noch mehr aus der Dose zieht.

Ist das so korrekt,kann man das so stehen lassen? Wurde es bisher von vielen Usern hinterfragt,ausser denen,die sich damit auseinandersetzen?

Nein ist auch hier meine Antwort.Der Grossteil der User hinterfragt dieses oder jenes nicht,wie gesagt,die meisten!
Womit ich zu Punkt 5 komme.

5.) Der User

Die Presse,die dem User/Forenmitglied/Konsument einen Test vorlegt,will den genannten damit zur hilfe kommen und testen dann hallt Produkte und bewertet diese nach bestmöglichem Wissen und den vorrangegangenen Testergebnissen.

Diese sind in den meisten fällen "Richtig und korrekt" und wichtig für alle,die wissen wollen,was sie sich da Kaufen.
Nur wenn man gewisse Sachen oder Test's so oder so kommentiert und dies so stehen lässt,dann wird damit zumindest den Grossteil der Forenteilnehmer beispielsweise in den Mund gelegt,das AMD's FX nicht Spielbar ist oder ständig 300Watt aus der Steckdose entnimmt.
Die gehen dann in dne Foren damit ab von wegen: Du kauf den AMD nicht ,nimm lieber Intel ,weil..........

Sorry,aber genauso ist es. Eigentlich hinter vorgehalltener Hand,könnte man unter bestimmten Bedingungen von Rufmord sprechen.
Hier wird meines erachtens ein Produkt teils derartig durch den Kakao gezogen,das es wirklich nichts mehr mit "Neutralität und Transparents" zu tun hat und das ist "Fakt".

Ok,wahrscheinlich werde ich nach diesem Thread wohl gebannt oder wie auch immer.
Mein ziel ist es lediglich,den User auf mehr Objektivität hinzuweisen oder auch drauf aufmerksam zu machen,Test's halt genauer zu lesen,wenn diese denn Richtig vom User gelesen werden.

Wichtig ist mir auch,das manche Tester einfach mal mehr Neutralität beweisen,dafür ist die Presse eigentlich da.
Mir geht es darum,das für den Vernraucher/Konsument nicht Fadenscheinige Aussagen getroffen werden,die nicht immer so sind wie sie dargestellt werden.


So und nun zu meinem Vorhaben,wer von den Foristen kann mir sagen,wenn er den einen FX8150 besitzt, wie dieser sich im Gameplay macht? Kann ich mir ein FX8150 System zusammenstellen oder gibt es hier viele die den Kauf berreuhen.

Ansonsten wünsch ich noch einen guten Tag und Mfg RedLava
 
Simpson474 schrieb:
Die Kunden - wer zahlt bitte 150€ drauf um ein absolut vergleichbares Notebook zu bekommen, nur weil AMD drauf steht. AMD kann im Moment nur über den Preis verkaufen, daher muss dieser halt passen - und das ist bei Trinity im Moment eher nicht der Fall.

Ich seh jetzt nicht unbedingt gewaltge Preis oder Leistungvorteile für den Intel.
Hier das günstigste HP Probook 6470b mit i3 und das Vergleichsgerät Probook 6475b mit AMD Trinity.
Ja der i3 ist hier sicher etwas schneller als der kleine Trinity 2-Kerner.
Dafür kriegt man beim AMD das bessere Display und eine grössere Harddisk, zum günstigeren Preis.
http://geizhals.de/799285
http://geizhals.de/798440


Es geht bei Notebooks um mobile CPUs mit 35W TDP und nicht um 100W Ineffizienzmonster. Der erste Schritt um das zu erreichen ist halt das Senken des Taktes und Trinity kann dadurch die Taktraten des i3 nur noch im Turbo übertreffen - bei gleicher Frequenz kann Intel die zwei zusätzlichen Threads jedoch sehr gut kompensieren.

Was macht das für einen riesen Unterschied?
Es gibt genauso relativ hoch getaktete Trinity 4-Kerner mit 35W TDP (2.3Ghz +3.2GHz Turbo) oder eben höher getaktete 2-Kerner.
Wenn die Software gut gemacht ist wird der 4 Kerner immer gegen die 2 Threads +2 Pseudo Threads gewinnen.



100W komplett CPU+GPU+Speichercontr. sind ja sooo inneffizient im Allerschimmsten Fall. :freak: So ein PC braucht nie mehr als 160W komplett, meist dürften es 60W sein. Wenn man noch die übliche AMD Sicherheitsmarge beim VCore abzieht landet man bei knapp 100W komplett im schlimmsten Fall! Was für ein Effizienzverbrechen! :evillol:
 
Zurück
Oben