News Launchpläne und mehr zu AMDs „Trinity“ und „Vishera“

Ja das befürchte ich auch aber, dann kommt alles neu hoffentlich auch mit der 8750 ^^
 
Naja spätestens sept. Aber beim Phenom II x6 war man damals auch ziemlich zuverlässig. Denn man musste sich nicht um eine neue Fertigung, all zu große Architekturänderung und ect kümmern. Dieses mal fallt sogar ein Modul weg (also 4M statt 5) und es wird hauptsächlich Optimierungen und Verbesserungen geben.
Weiters hat man Trinity davor die schon mal etwas an ULK profitieren sollten. Trintiy schätz ich soll weit aus umständlicher zu produzieren sein als der FX oder ??
Zu mindestens bin ich optimistisch und würde da nicht zu sehr auf Linearitäten gehen.
Naja hoffentlich ist der im Sommer da :D
 
Zuletzt bearbeitet:
@Amando , Volker

zunächst müssen beide auf den Markt kommen, da kommt IB aber erstmal vor Trinity, aber das werde ich keine, vor allem nicht Volker, erzählen müssen :P

Ich denke die CPU / APU kann man nur schwer gegeneinander stellen. Pauschal steht doch schlicht GPU lastige gegen CPU Lastige APU, dementsprechend fällt wohl auch das Ergebnis aus.

Trinity rockt auf GPU Seite und schwächelt auf CPU Seite, IB rockt bei CPU Part und schwächelt bei GPU.

In meinen Augen ist diese "GPU" Seite stand heute nahezu nur für Spiele gut, alle anderen Anwendungsgebiete sind eher zu vernachlässigen. Und Spiele selbst sind eher ein kleiner Teil vom gesamten Markt, der wohl in Summe eher CPU lastig ausfällt.

AMD tut es gut sich von Intel abzugrenzen, über GPU, hier hat man den Markt sicher in der Hand. Intel macht das was sie schon seit langem gut können, effiziente CPU bauen, mit ausreichender Grafik um das große Office-Segment abzudecken.

Je nach dem wer zockt oder eher Business braucht werden beide Seiten ihre Käufer finden.

Beide CPU werden spannend, wobei ich bei IB ja praktisch genau weiß was mich erwartet, ich denke Trinity wird spannender....

Mir fehlt der 17W Trinity auf der Roadmap...
 
Krautmaster

Das liegt daran dass der 17 watt trinity unter dem A6-A8 glaub ich falle, und der 25 watt tdp unter A10.
Wobei müsste dann was stehen stimmt.

Und was ist in der Zukunft wichtiger CPU oder GPU
Könnte genauso argumentieren, ARM wird x86 gefährlich. Warum ? wegen den günstigen Preise und Effizienz. Also das gegenteil von viel CPU power.... Eine APU kann auch mit einem ARM Prozessor realisierbar gemacht werden und dabei aber mehr Performance als ein ARM alleine bringen... NV macht es ja schon schön vor...
Das ist genauso eine Glaubensfrage wie Gott /ich und die welt oder Coca Cola /Pepsi

Btw wieviele Akademiker gibt es die auch viel Rechenleistung benötigen für Wirtschaftliches arbeiten ???
Wieso ist die CPU so schnell geworden, wegen der Armee ? Ja Soldaten auf dem virtuellen Schlachtfelder die Gamer usw...
Also so klein ist die Masse der multimedia Leute nicht. Wieviel spielen flashgames, wieviel schauen filme usw. Wenn ich da eine billige APU bekomme wieso dann eine cpu mit einer eingeschränkten Grafikleistung ?
Ich mein ich merk bei günstigen System meist eher die Beschränkung grafisch als zeitlich.
Denn der Mensch sieht eben was er sieht, aber Zeit ist relativ... usw usw
 
Zuletzt bearbeitet:
Vielleicht ist der 17-W-Trinity wieder nur Retail? Ich sag nur "OEM-Roadmap". ;)

Ich finde grad das Production Schedule nicht mehr. Sollte Vishera nicht erst im Sommer in Produktion gehen? Bis zur Auslieferung an den Handel vergehen ja dann nochmal 12 Wochen.
 
Ne das liegt daran das 17 Watt nicht im Desktop kommt sondern im Notebook. dies ist eine Desktop-Roadmap, vermutlich OEM only ;)

Ich bezog mich eigentlich mit meinem vorherigen Statement hier primär auf Bulldozer aka FX-Serie - steht da ja auch drin. Llano war ja keine Enttäuschung im Desktop, da wurde ja der CPU-Teil sogar deutlich schneller als vorher erwartet, denn man hat die alten K10 ja bei gleichem Takt überroffen. Bei Bulldozer dann war alles anders. Trinity wird auch rocken, da hab ich keine Zweifel, bei Vishera hingegen bin ich nach Bulldozer ganz vorsichtig.
 
Wieso bekommen die das nicht hin wenns beim Liano funkoniert sollte dies doch beim Vishera auch gelingen können.
 
Volker schrieb:
Ich bezog mich eigentlich mit meinem vorherigen Statement hier primär auf Bulldozer aka FX-Serie - steht da ja auch drin. Llano war ja keine Enttäuschung im Desktop, da wurde ja der CPU-Teil sogar deutlich schneller als vorher erwartet, denn man hat die alten K10 ja bei gleichem Takt überroffen. Bei Bulldozer dann war alles anders. Trinity wird auch rocken, da hab ich keine Zweifel, bei Vishera hingegen bin ich nach Bulldozer ganz vorsichtig.


Trinity (Piledriver) wird "rocken", bei Vishera (Piledriver, möglicherweise sogar optimierte Piledriver-Cores) kommen Zweifel auf?
Wenn man Trinity als APU sieht, also als "geschlossenes" System, stimme ich noch zu. Aber beim reinen CPU Part sollten die Zweifel dann genauso beim Trinity angebracht sein.
Wobei ich ehrlich gesagt die Zweifel nicht so ganz verstehen kann.
Nach eurem Bericht zu Zambezi, war ich zwar erst einmal geschockt, aber auch nur weil ich das ganze nur oberflächlich angesehen habe.
Da ich mich aber weder auf (von Autoren beeinflusste) Fazit stütze sowie auf Performanceratings, sondern mir, auch die Details ansehe und bei mehreren Redaktionen durchlese, hat sich meine Meinung auf den 2. Blick geändert.
Die Bulldozer Architektur ist keineswegs so schlecht wie dargestellt. Problem war nur, dass die Erwartungen, zum größten Teil geschürt durch Gerüchteküche und Newsmeldungen der Presse auf diser Basis, sehr hoch lagen.
Denn schaut man sich mal die Ergebnisse der Tests an muss man folgendes feststellen, er ist zwar beim Spielen langsamer, aber unbrauchbar? Sicherlich nicht, höchstens für Frameratejäger.
Aber zum Spielen reichen immer noch selbst 4 Jahre alte Quads (Q9550 oder auch X4 940) oder gar ein i3 aus. Man gewinnt zwar keinen Blumentopf, aber die meißten Spiele laufen, entsprechende Grafikkarte natürlich vorrausgesetzt.
Spiele sind um eine CPU zu bewerten, die denkbar unbrauchbarste Methode.
Aber ihr habt glücklicherweise ja auch noch ein paar Benchmarks, die abseits des "Gameboytums" noch ein paar Ergebnisse liefern, und damit hat man die alte Garde "K10" zum Teil deutlich abgesägt (selbst wenn man von TrueCrypt absieht), trotz geringerer theoretischer Rechenleistung, nicht nur pro Kern, sondern auf die ganze CPU bezogen.

Das einzige Problem was ich an der Bulldozer Architektur sehe, ist der hohe Stromverbrauch unter Vollast, was aber zum Teil leider noch durch die 990FX Plattform unnötig verschlimmert wird, während man auf der anderen Seite einen P67/H67/Z68 Chipsatz hat, welcher aber in absolut keiner Beziehung auch nur annähernd mit der AMD Plattform mithalten kann.
Nichtmal mit dem "kleinen" AMD 970+SB950.
Erst die LGA 2011 Plattform kann hier ranreichen. Allerdings reicht 1155 für die meißten Anweder im Heimgebrauch mehr als aus, aber hier sollte der fFairness halber auch bei AMD dann zumindest die 970 (Mainstream) Plattform verwendet werden.
Ein Weiteres Problem ist aber noch, das Marketing als 8 Kerner. nur weil ein Modul über 2 Integer Scheduler verfügt und im Taskmanager 8 Kerne auftauchen ist es noch lange kein 8 Kerner (gut 4 Kerner ist es auch nicht mehr wirklich), wenn man das ganze unter diesem Blickwinkel betrachtet, so ist die Erwartungshaltung schon anders und Zambezi (nein nicht Bulldozer!!!) alles andere als eine Enttäuschung.

Und wenns AMD schafft hier ihr eigenes Ziel von 10-15% Performancezuwachs/W zu erreichen, und das jährlich, siehts gar nicht mal so übel aus. (https://www.computerbase.de/2011-10/amd-gibt-ausblick-auf-schnellere-bulldozer-nachfolger/).
 
@Gabroum

Aber genau hier liegt ja ein großes Problem. Selbst wenn man die CPU als 4 Kerner werten würde, so hatte sie doch Probleme gegen die alten 4 Kerner von AMD zu bestehen bzw. diese deutlich zu übertreffen und das ist eher ein Problem des Bulldozers. Der Sprung zwischen Phenom 2 und den Bullis ist einfach zu gering als das sich ein Aufrüsten dort lohnen würde. Den X4 mag er ja noch oft deutlichst besiegen, aber beim X6 wird es in einigen Anwendungen(keine Spiele) doch seeeeeehr eng. Von Intel mag ich eigentlich gar nicht erst sprechen, da verliert man teilweise gegen 3 Jahre alte Nehalems ein I5 2500k, schlägt nahezu immer, auch wenn es knapp ist, das Topmodell des Bullis. Selbst der I5 2400 sieht oft nicht schlecht aus und diese CPU kostet fast 100€ weniger.

Das mag höchstens in Serveranwendungen oder bei Videobearbeitung etc. von Vorteil sein. Aber wieviel % der Benutzer hier brauchen das wirklich. Ich denke wir liegen hier im kleinen einstelligen Prozentbereich.

Bei einem Privatanwender ist es im Grunde egal ob der 5 oder 10 Minuten länger benötigt um seine Urlaubsvideos umzuwandeln. Erst im Geschäftsbereich macht sich sowas bemerkbar wo so ein Rechner vielleicht Wochenlang nichts anderes macht und dann auf ein halbes Jahr gesehen ne Menge Zeit eingespart hat.

Mit Llano ist AMD ein guter Wurf gelungen aber eben auch weil die CPU Performance gar nicht so schlecht ist. Wenn ich aber bedenke das ein Llano im Verhältnis mehr kann als ein gleich getakteter Athlon 2, sogar in den Tests stellenweise Phenom 2 CPUs übertrifft oder nur 5% bei 300mhz weniger hinter dem FX6100 steht, dann hab ich schon ein wenig Bauchschmerzen wegen trinity. Llano wird bei gleichem Takt in der CPU Leistung es Trinity schwer machen.

Trinity wird wohl eher bei der GPU Leistung ordentlich zulegen, was ja ansich auch nicht schlecht ist.
 
Zuletzt bearbeitet:
Ah verdammt, der A4 kommt erst in Q3? :(
Vermute Retail sieht es nicht anders aus?...

Euathlus schrieb:
Zum Glück, bei meinem PC will ich auf jeden Fall nur eine Grafikkarte drinnen haben.

Warum ist dir das so wichtig?
 
nebulein
Bei einem Privatanwender ist es im Grunde egal ob der 5 oder 10 Minuten länger benötigt um seine Urlaubsvideos umzuwandeln.
Den mainstream gamer ist es egal ob er mit 120 oder 50 frames spielt
 
Dass der i5 2400 ein gutes stück weniger kostet und overall gleichzieht steht außer Frage.

Aber den Sprung zwischen Zambezi und K10.5 findest du zu gering?
nebulein schrieb:
@Gabroum
Aber genau hier liegt ja ein großes Problem. Selbst wenn man die CPU als 4 Kerner werten würde, so hatte sie doch Probleme gegen die alten 4 Kerner von AMD zu bestehen bzw. diese deutlich zu übertreffen und das ist eher ein Problem des Bulldozers. Der Sprung zwischen Phenom 2 und den Bullis ist einfach zu gering als das sich ein Aufrüsten dort lohnen würde.

Von Nehalem nach SandyBridge war der Sprung auch nicht wirklich berauschend, ein großer Teil der Mehrleistung wurde durch den Mehrtakt erreicht.
Klar liegt AMD aktuell hinten, aber bei genauerem Hinsehen ist es wirklich nicht so desaströs wie dargestellt, darauf will ich hinaus, und nicht die übliche leier, von kaum schneller als der Vorgänger.
Denn bei gleichem Takt ist der Sandy auch kaum schneller als der Vorgänger (~15%) und die differenz zwischen Sandy und Ivy wird auch eher marginal sein, da Ivy lediglich ein Sandy-Shrink ist mit kleineren Verbesserungen.
Wer also einen i5/i7 der Nehalem Architektur (z.b. i7 860) hat, kann eigentlich getrost auf Haswell warten sofern man auf AES und AVX verzichten kann.
Genaugenommen machts AMD an der Stelle nicht schlechter als intel. Mit einem 5 Moduler hätte das ganze aber anders ausgesehen, dann hätte man den 1100T immer im Griff, nur leider wird Vishera den wohl auch nicht bringen.

nebulein schrieb:
Das mag höchstens in Serveranwendungen oder bei Videobearbeitung etc. von Vorteil sein. Aber wieviel % der Benutzer hier brauchen das wirklich. Ich denke wir liegen hier im kleinen einstelligen Prozentbereich.
Gegenfrage, wieviele benötigen überhaupt einen Sandy Quad wirklich?
Für die meißten Privatanwender kommt es, wie du schon sagst, auf ein paar Minuten beim Urlaubsvideo nicht an, aber dabei wäre selbst der genannte i5 2400 "oversized".
Diese Aufgabe werden eine CPU aus der 100€ Klasse wie i3 oder ein Llano oder X4 955 ebenfalls meistern, nur halt ein paar Minuten länger brauchen. Genauso sind diese CPU´s auch ausreichend um die meißten Spiele ruckelfrei darstellen zu können. Wenn dies so ist, dann ändert auch eine 500€ CPU nichts mehr daran, "ruckelfreier" gibt es nicht.
Es gibt also eine sehr große differenz zwischen dem was der Anwender wirklich braucht und dem was der Anwender meint, dass er braucht.
 
@Gabroum
Du hast im Prinzip recht. Was Du aber vergisst ist der Stromverbrauch und die Single Core Leistung.
Habe selbst den I7-860 und den I3-2100. Da liegen Welten dazwischen beim Stromverbrauch sowie Idle als auch Last.
Stecke ich meine HD6850 in den I3 Rechner, dann laufen Spiele besser als im I7 und der Stromverbrauch ist auch viel geringer.
Wenn AMD nur etwas hinten liegt, aber dafür viel mehr Strom verbraucht, dann ist das etwas was ein no GO ist. Die Argumente, dass im Idle der Unterschied im Verbrauch nicht so groß oder gar nicht vorhanden ist zieht nicht, weil ich ja mit dem Rechner arbeiten (oder spielen) will. Wenn mein Rechner 95% der Zeit mit 2% Auslastung daher schleicht, dann ist der Rechner eh oversized.
Der I3 mit seiner iGPU und dem boxed Kühler den man wirklich nicht hört, braucht bei Office und surfen 35W.
Mein I7-860 mit Wasserkühlung und der HD6850 braucht für die selben Aktionen 125W.
Einen Unterschied in der Geschwindigkeit merkt man nicht.
 
@MikelMolto, wenn du meinen ersten Beitrag komplett lesen würdes, dann würdest du sehen, dass ich den Stromverbrauch nicht vergessen habe, sondern dies sogar als Kritikpunkt der Bulldozer Architektur aufgeführt habe, und will diesen auch nicht wegdiskutieren, sondern kann diese durch meinen FX6100, den ich mir mal testweise geholt habe, auch nachvollziehen.
Im Praxiseinsatz, merke ich aber kaum einen Unterschied ob nun der AMD oder ein intel im Rechner ist, trotz der niedrigen Single Thread Leistung.
Zum Anderen ich kenne deine Erfahrungen, habe selbst von einem i3 540 auf einen i7 860 umgestellt, rein subjektiv habe ich keinen Unterschied gemerkt (abgesehen von Videobearbeitung, da machen sich die mehreren Kerne doch deutlich bezahlt), jedoch war der Stromverbrauch ein gutes Stückchen höher.
 
Ich habe nichts über das 17Watt Modell von AMD gehört. Wann soll das denn erscheinen und bedeutet der Erscheinungstermin, dass es zu dem Termin Notebooks mit diesem Prozessor gibt?

Ich beziehe mich auf diesen Prozessor:
"In 3DMark Vantage soll die 17-Watt-Variante des „Trinity“ 2.355 Punkte im Rahmen der AMD-Referenzplattform erzielen. "
 
Ich hoffe ja auf einen Samsung 305U1A Nachfolger mit dem 17Watt Modell. Allerdings weiss ich nicht wie lange ich auf so etwas warten muss.
Das Samsung 305U1A-a01 mit dem großen Akku finde ich auch leider in keinem Shop mehr. Es gibt nur noch das a2 modell mit dem kleinen Akku aber dafür 180 sinnlose GB mehr an Festplatte, 320gb reichen mir dicke.
 
Zurück
Oben