News Erste Samples von AMDs „Fusion“ bereits 2010?

In letzter Zeit hört man echt fast nur positive Nachrichten über AMD, dass freut mich. Bin auch schon gespannt auf die Meldung, wenn erste Bulldozer Samples in Umlauf sind und man mehr Informationen darüber hört. Beim Bobcat (Ontario) handelt es sich doch um einen Atom Konkurrenten mit GPU, dann kann AMD in dem Bereich auch mal punkten.
 
also ich bin ja grundsätzlich immer für fortschritt, allerdings sehe ich das zumindest im high end segment kritisch! für OEM PCs durchaus super, aber für einen richtigen high end PC finde ich das schwachsinn! ich mein was is wenn man nur mal mehr grafikpower braucht/möchte? ne neue APU alle 3 jahre kaufen die aufgrund integriertem cpu mehr kostet als ne grafikkarte einzeln? nein danke!

ist nur meine meinung dazu :cool_alt:
 
Ich denke AMD wird das Duell ganz klar, zumindest was den GPU-Part angeht, für sich entscheiden. In jedem Fall bleibt zu hoffen, dass der ITX-Trend nicht verschlafen wird bzw. zum Start des Llano eine vernünftige Auswahl an Boards zur Verfügung steht. Dann ist ein ITX-HTPC auf Basis des Llano so gut wie beschlossene Sache. :)
Generell denke ich, dass AMD mit Llano & Bulldozer beste Chancen hat, nach dem Athlon64, wieder auf Augenhöhe mit Intel zu agieren. Alles was bis jetzt bekannt ist hört sich sehr vielversprechend an.

mathiask89 schrieb:
also ich bin ja grundsätzlich immer für fortschritt, allerdings sehe ich das zumindest im high end segment kritisch!
Der Llano ist auch nicht für das High-End-Segment gedacht, sondern Bulldozer. ;)
 
Zuletzt bearbeitet:
schaun wir mal, was daraus so wird, durch dx11 und hoffentlich bessere treiber sollte der i3/5 gpukern ja mindestens überholt werden.

für mich ist das kaum interressant, wäre halt nur ein indikator, was amd so mit dem 32nm bereich so alles rausholen kann an power und stromverbrauch.
wirklich interresant wirds ja erst mit dem bulldozer, darauf freu ich mich schon seit langen, denn da hoff ich mir mal wirklich mal leistungsansschluss an intel, das täte allen (vorallem den preisen) gut.
 
gtfan67 schrieb:
schaun wir mal, was daraus so wird, durch dx11 und hoffentlich bessere treiber sollte der i3/5 gpukern ja mindestens überholt werden.
Ähm... die GPU in den i3/i5 sind unterste Leistungsskala - da sind 785G IGPs heute schon schneller, ebenso wie die IGPs auf den 890GX Chipsätzen die beide schon DX 10.1 beherrschen. Die Clarkdales können lediglich DX10, was noch nicht mal zum beschleunigen der neuen Browsergenerationen und Flash 10.1 ausreicht und auch nicht für DirectDraw und Direct2D. Intel ist mit den Clarkdale GPUs ca. 2 Jahre hinter den 785G OnBoard-Grafiken aus 2009.
 
man ihr seit ja flott, auszug hardware infos:
Auf der Presse-Konferenz zu den Quartalsergebnissen hatte AMD vorgestern auch bekannt gegeben, dass man inzwischen bereits erste Samples von Ontario und Llano an Kunden ausliefere

die news war vom 19.04 :)

mein tipp an die cb redaktion, weniger alk, mehr kaffee ;)
 
Ich hoffe sie können ihr Grafik Know How bestens einbringen und müssten von der Sache her ein besseres Produkt als Intel bringen. Aber mal abwarten, Intel schläft ja auch nicht.
 
Also ich habe die Originalquelle so verstanden, dass die ersten Serienchips schon Ende 2010 bei den OEMs eintreffen, die Auslieferung an die Endkunden aber erst in 2011 erfolgt.

So in etwa. Es sieht so aus, als würde die Serienproduktion schon dieses Jahr beginnen, richtiges Volumen kommt aber erst nächstes Jahr dahinter. Wer einen ordentlichen Aufpreis zahlt, bekommt vielleicht schon dieses Jahr was...
 
mathiask89 schrieb:
also ich bin ja grundsätzlich immer für fortschritt, allerdings sehe ich das zumindest im high end segment kritisch! für OEM PCs durchaus super, aber für einen richtigen high end PC finde ich das schwachsinn! ich mein was is wenn man nur mal mehr grafikpower braucht/möchte? ne neue APU alle 3 jahre kaufen die aufgrund integriertem cpu mehr kostet als ne grafikkarte einzeln? nein danke!
Wer sagt denn, dass es keine diskreten Grafikkarten mehr geben wird? Schliesslich hat AMD nichts dagegen, wenn Radeons auch in Systemen ohne AMD Sockel Verwendung finden. ;)
 
Alles bekannt eigentlich, eine Anmerkung hier erwähnte jemand das 40nm Teil bei TSMC. Ja eine APU aber es handelt sich wohl um Ontario (Bobcat) den Atomgegner und nicht um ein Llanovariante.
 
AMD wird kaum so blöd sein und die GPU in der CPU so stark gestalten, dass viele Grafikkarten nicht mehr gekauft werden.
AMD wird, denke ich im Mainstream Markt mit APU´s um sich werfen, ansonsten im Desktop/Gamermarkt werden immernoch die Grafikkarten von ATI (AMD) gefragt sein.
 
Zuletzt bearbeitet:
Wird kaum so blöd sein? :D

Eher nicht klug genug :P, das würden sie schlicht nicht schaffen.


Und wenn sie es könnten wäre es auch nicht "blöd", klar dann würden keine Grafikkarten mehr verkauft werden, aber dafür umso mehr APUs, die dann natürlich teurer werden..

Weiß nicht wo dein Problem ist.


OT: Ich kann mir Vorstellen, dass die APUs AMD auf Augenhöhe mit Intel katapultieren, dagegen hat Intel einfach nichts zu bieten... wird sehr spannend :)
 
Solange es noch einen Markt füe separate Grafik-Chips gibt, wird AMD versuchen den zu bedienen. Die integrierte Lösung hat aber preisliche und praktische Vorteile für AMD und Kunde. Direkter Speicherzugriff hohe Taktraten sollten das Ding zur Rakete machen können. Diesen klobigen, teuren platz- und stromfressenden Grafikkarten und deren umzugskartongroßen Verpackungen weine ich keine Träne nach.
Vordergründig sieht das zwar wirklich so aus, als ob AMD seine ATI-Sparte eigenhändig zerstört, aber mittelfristig bleibt ihnen nichts anderes übrig.
Mit Quake-RT steht seit Jahren das Ausrufezeichen im Raum, daß Grafikdarstellung zukünftig per Raytracing abgewickelt wird. Dazu brauch es dann pure Rechenleistung und hier liegt nunmal traditionsgemäß intel mit Abstand vorne. Zudem hat intel die Chance erkannt und das RT-Projekt gefördert und den Student mit seiner Entwicklung gleich weggekauft. Wenn intel will, können die den traditionellen Grafikmarkt einfach abschalten.
Allerdings kann man beim Raytracing massiv parallelisieren, was mit spezialisiertem Befehlssatz ein gefundenes Fressen für die nun integrierten GPUs sein dürfte. Hier liegt AMDs Stärke und Chance. Es bleibt also hoffentlich spannend.
 
@Schaffe89: Wenn AMD es schafft die integrierte Grafik so stark zu kriegen, wie die Mainstreams, dann wird das wunderbar für AMD. Das bedeutet ja noch nicht, dass die nicht auch andere schwächere Grafiken integrieren können.
Wenn dann jemand von einer integrierten HD5200 auf eine stärkere aufrüsten will, dann kann er a) eine stärkere APU kaufen oder eine dedizierte GPU.

@Kowa: Wenn Intel das könnte, dann würden sie es machen. Sie haben aber einfach nicht die Macht dafür, da sie den Spieleherstellern immer noch einen Kundenstamm präsentieren müssten, oder so viel bezahlen, dass sie schon mit einem verkauften Spiel im Gewinnbereich sind.
 
Diesen klobigen, teuren platz- und stromfressenden Grafikkarten und deren umzugskartongroßen Verpackungen weine ich keine Träne nach.
Vordergründig sieht das zwar wirklich so aus, als ob AMD seine ATI-Sparte eigenhändig zerstört, aber mittelfristig bleibt ihnen nichts anderes übrig.
naja, nicht wirklich, fusion wird erstens nicht die dedizierten grafikkarten ersetzen, und zweitens ist fusion erst durch die ati sparte möglich, von daher zerstören die nicht, weil die auch viel zu wichtig ist. amd ist momentan noch einziger hersteller der cpu und gpu know how hat!!!

Dazu brauch es dann pure Rechenleistung und hier liegt nunmal traditionsgemäß intel mit Abstand vorne.
stimmt nicht, die rechenleistung ist bei gpu`s nämlich traditionell höher, raytracing ist nur nen problem für gpu's weil nv und ati auf rasterisierung setzen, und daher momentan die gpu's bei raytracing ziemlich uneffektiv sind!

Wenn intel will, können die den traditionellen Grafikmarkt einfach abschalten.
im entferntesten nicht, die basteln doch momentan erstmal am larrabee 3 rum, und ansonsten können die im spiele markt sogut wie garnichts, die höchste mehrleistung erhält man in spielen durch eine performante gpu!

so, zurück zum thema:
bin mal dann auf die netbooks und so gespannt, dürften dann endlich mal performant genug sein. aber ich frag mich immernoch wie die Llano in 32 nm bringen wollen, kommt weder bei tsmc noch gf, ich denke mal da werden die auch direkt von 40nm auf 28 umsteigen.
 
Wo ist denn das Problem, wenn die Fusion-GPU die Leistung einer HD5670 hat?
Ist doch super für alle, die es klein haben, aber auf Spielchen nicht
verzichten wollen. Bis dahin ist die HD6000-Serie raus und AMD gräbt sich
höchsten ein paar HD64*0' und HD65*0'er das Wasser ab. Wer zocken will,
kauft dann eh Bulldozer und eine Dedizierte Grafikkarte.
 
Zuletzt bearbeitet:
Zurück
Oben