News AMDs neue A-6000-Serie kündigt sich an

Und mit welcher GPU hast du nun die Bildqualität verglichen, und wie definierst du jetzt "besser"?
Mehr Farbraum? Mehr Auflösung? Mehr whatever?

Dir sollte auch klar sein, dass die Nutzung von beiden GPUs gleichzeitig nur mit Treibern von AMD funktionieren kann. Das geht weder mit Nvidia GPUs noch mit Matrox, da die Treiber nicht kompatibel sind.
 
die karte verwirft intern beim berechnen einfach keine farbwerte, das machen andere karten wiel man es eh kaum sieht und es dadurch schneller geht mit der ausage hat das nichts zu tun, bei dvi/hdmi hat man ja keinen verlust.

dem matrox treiber ist egal ob noch andere karten im system sind, mit einer dedizierten nvidia hatte ich jedenfalls nie probleme.

eigentlich geht es den amd treiber ja auch nichts an, dem kann die matrox ja egal sein.
 
Konntest du denn auch die Nvidia und Matrox gleichzeitig nutzen?
Und deine Ausführungen zur Qualität werden nicht gerade fundierter sondern immer diffuser.

Du willst doch das System beide GPU zeitgleich nutzen lassen - das geht schlecht wenn sich die Karten und Treiber nicht koordinieren wer für welche Aufgabe zuständig ist. Naja egal auch, nicht mal dein OS ist ja bekannt. Ich buche das mal unter Wischi-Waschi meckern ohne konkret verwertbares.
 
Daedal schrieb:
Ich buche das mal unter Wischi-Waschi meckern ohne konkret verwertbares.
und ich verbuche das mal als typische dau meldung.

der triber soll ja nichts machen, sinn macht OpenCL,... ja nur wenn sich die software automatisch die karte sucht die OpenCL unterstützt.

die nvidia konnte ich für die bialdausgabe damals nutzen, das geht ja die grafiktreiber nichts an, es ist rein sache des betriebssystemes.

und das matrox ein besseres bild liefert ist jetzt auch kein großes geheimnis, nicht umsonst verwenden viele die bildbearbeitung betreiben solche karten.
 
2L84H8 schrieb:
Auf den davor erschienenen Boards gab es aber auch mit IvyBridge nur PCI-E 2.0. Bei den Boards aus der 7x-Reihe war der PCI-E 3.0 Support natürlich von Anfang an dabei.
Es wurden nachträglich ne menge Boards auch für PCIe 3.0 freigegeben, weil dafür einfach gar keine Änderungen notwendig waren. Wenn die Leitungen auch für den höheren Takt taugen läuft auch PCIe 3.0. Da brauchts ja keine extra Bauteile.
Nur bei Boards die die Lanes auf mehrere Slots verteilen brauchte es eben nen passenden PCIe-Switch.

Daedal schrieb:
Ich glaube kaum dass HT PCIe 3.0 irgendwie ausbremst. Mit 51 GB/s bei HT 3.1 sind selbst 2x16 PCIe 3.0 Lanes nicht in der Lage das auszuschöpfen - es ergibt nur 32 GB/s. Selbst HT 3.0 reicht aus mit ca. 40 GB/s
Also irgendwie vermischt du hier einiges. Entweder schaust du den Durchsatz in eine oder in beide Richtungen an. Aber bitte bei beiden Schnittstellen dann gleich.
In deiner Tabelle sinds in eine Richtung für HT 3.0 20,8 GB/s. Und die werden schon bei den aktuellen Chipsätzen mit PCIe 2.0 komplett ausgenutzt. (16GB/s für 2x x16, 3 GB/s für 6x x1 und 2 GB/s für A-Link.
Wo soll d a Raum für PCIe 3.0 sein?

Elkinator schrieb:
und soll amd nur weil intel da hinten nach ist jetzt solange keine neuen gpus integrieren bis intel aufgeholt hat?
Sagt wer? Es ging darum, dass es wenig Sinn hat die GPU immer schneller zu machen wenn die Speicherbandbreite alles ausbremst. Es bringt ncihts die GPU im größer zu machen. Gegen aktueller spricht rein gar nichts.
es gibt von amd eh apus mit kleineren gpus, wo ist da dein problem?
Warum hat jeder der seine Meinung kund tut automatisch ein Problem?
Selbiges hast du vielleicht eher beim Lesen. Denn den Grund schrieb er gleich mit. Diegröße und Verbrauch.

Wobei ich das Problem nicht ganz sehe. Das was viel kostet ist das Frontend und die ganzen FixedFunction-Units. Nen paar SIMDs mehr oder weniger macht kaum was aus in Sachen Diefläche. Und nen größeren Chip kann man uU langsamer takten, was dem Stromverbrauch entgegen kommt.
Aber für die Zukunft müssen die sich schon was einfallen lassen. Llano wurd schon gebremst und Trinity sehr deutlich.
Das Topmodell ist kaum schneller als das nächst kleinere. Rein von der rechenleistung müsste der Unterschied ziemlich groß sein. Da stellt sich schon die Frage ob man da nicht die GPU hätte kleiner machen können.
Intel ist vom Performanceniveau insgesamt noch etwas drunter, so dass hier die Bandbreite noch nicht so limitiert. Die können Sprünge bei der GPU noch recht einfach realisieren.

pipip schrieb:
Einige vergessen hier scheinbar wieder, dass der igp-Part der APU eigentlich nicht dazu gedacht ist, games auf FULL HD ect abzuspielen. Momentan wildert die APU zwar im Multimedia-Sektor, doch die Idee dahinter ist eigentlich das aufteilen der Aufgaben an CPU und igp.
Doch das ist dafür gemacht. Denn alles andere ist Zukunftsmusik und bringt heute dem Kunden nichts. Der Kunde heute kauft Fusion wegen den Multimediaeigenschaften und sicher nicht wegen irgendwelchen Ideen die in Zukunft realisiert werden.
AMD bewirbt ja auch die Multimediaeigenschaften der APUs.
Hier wurde ja über PCIE 3.0 und dessen Notwendigkeit gesprochen. Theoretisch, hätte ja eine APU verglichen zu einer gleich starken CPU und dgpu einen großen Vorteil, es benötigt keine Schnittstellen.
Ist ja auch soweit richtig. Ist nur die Frage was eher limitiert. Der Durchsatz oder doch die Rechenleistung. Die IGPs sind da ja schon limitiert, wenn auch mittlererweile schon ziemlich stark.
 
und warum sollte amd den gpu-teil trotz der speicherbandbreite nicht regelmässig aktualisieren?
immerhin wird die bei gleicher leistung etwas weniger strom brauchen, das ist auch schon ein vorteil.
eigentlich wäre für richland aber GCN sinnvoller, es ist ja blöd das amd jetzt GCN und VLIW mit dem treiber unterstützen muß:/
 
Ich zitier mich ja ungern aber:
bensen schrieb:
Es ging darum, dass es wenig Sinn hat die GPU immer schneller zu machen wenn die Speicherbandbreite alles ausbremst. Es bringt nichts die GPU im größer zu machen. Gegen aktueller spricht rein gar nichts.

Der Umstieg auf GCN wär wahrscheinlich ziemlich aufwändig geworden. Richland wird vielleicht einfach nen simpler Shrink von Trinity mit nen paar kleinen Änderungen.
 
richland ist ganz sicher nur ein shrink, amd macht sicher nie wieder den fehler einen neuen fertigungsprozess mit neuer cpu zu kombinieren, das ist ja bei bulldozer und 32nm gewaltig in die hose gegangen.
 
Elkinator schrieb:
kann man die gpu überhaupt nutzen wenn man eine andere grafikkarte im rechner eingebaut hat?

die bleibt ja nur aktiviert wenn man crossfire mit einer anderen amd grafikkarte nutzt?

ja
Ergänzung ()

Elkinator schrieb:
bildqualität, man merkt einfach einen unterschied, ist zwar minimal aber vorhanden.
bringt aber auch nur etwas wenn man gute kalibrierte monitore verwendet, bei billigen schrott würde man sicher keinen unterschied sehen.

es wäre halt nett wenn ich die apu dafür verwenden kann, per opencl dateien entpacken bringt ja auch ordentlich speed.
wenn es mal mehr software gibt die davon profitiert muß ich mir halt eine grafikkarte um 20-30€ als beschleuniger einbauen, der nächste rechner steht aber eh erst nach richland an.

billige monitore sind schrott. wow dann zeig mal her deinen tollen moni, ich hab sicher denn besseren

ich mach den anfang hier bitte: NEC SpectraView Reference 301:D
Ergänzung ()

Elkinator schrieb:
und ich verbuche das mal als typische dau meldung.

der triber soll ja nichts machen, sinn macht OpenCL,... ja nur wenn sich die software automatisch die karte sucht die OpenCL unterstützt.

die nvidia konnte ich für die bialdausgabe damals nutzen, das geht ja die grafiktreiber nichts an, es ist rein sache des betriebssystemes.

und das matrox ein besseres bild liefert ist jetzt auch kein großes geheimnis, nicht umsonst verwenden viele die bildbearbeitung betreiben solche karten.

dann hättest du mal das handbuch den mainboards verwenden sollen da steht es ausführlich drin, egal ob fm1 od. fm2
 
was bringt es dir wenn ich dir sage welcher monitor es ist?

es ist nunmal fakt das man für wirklich perfekte bildqualität eine matrox braucht...
 
Elkinator schrieb:
was bringt es dir wenn ich dir sage welcher monitor es ist?

es ist nunmal fakt das man für wirklich perfekte bildqualität eine matrox braucht...

nein stimmt nicht für meinen nec hab ich 1x die apu , wenn das nicht reicht hab ich eine fire pro rumliegen
 
eine fire pro hat aber einen anderen einsatzzweck wie eine matrox.
und bei der bildqualität ist die matrox einfach besser, die karten sind einfach für unterschiedliche anforderungen.
 
bloodfoot
So lange AMD die CPU und iGPU nicht verschmolzen hat ("Vollfusion"), nehme ich sie als das was sie sind. CPUs mit ausreichend Leistung und der stärksten iGPU, die es gibt, die es mir ermöglicht auch kleine Spielsessions ohne separate GPU abzuhalten bei niedriger Stromaufnahme.
Es ging nicht darum, als was die APU momentan wahr genommen wird, sondern darum, wohin die AMD mit der APU hinwill.
Man hat hier ja diskutiert wieso AMD überhaupt die igp verbessert ect. Weiteres kamen ja schon oft genug Vorschläge von Leuten die igp massiv aufzupumpen und ein extra l4 Cache wie Intel einzuführen.

Daraufhin meinte ich, dass Intel eben nicht das gleiche macht, wie AMD es vor hat. Sie greifen zu Lösungen, die nichts mit der Integration zu tun hat, mehr der Performancesteigerung. AMD will auch eine Performancesteigerng, aber das durch eine bessere Verschmelzung in die CPU.
Das heißt, das was Intel vllt mit einem extra l4 cache vor hat, braucht AMD mit einer tieferen Integration vllt gar nicht, da ja die igp und CPU vollwertig und effizient (vllt auch dank GCN) auf gemeinsame Ressourcen zugreifen kann ?

APUs wildern aber genau bei den Feld, den du beschreibst und das ist auch gut so. Aber das ist bei den meisten Produkten so.
Tablets gab es früher auch eher für Geschäftsmänner ect. Genauso wo SSD-Platten für billige Netbooks verwendet wurden ect.
(gibt sicherlich bessere BSP)

bensen
Doch das ist dafür gemacht. Denn alles andere ist Zukunftsmusik und bringt heute dem Kunden nichts. Der Kunde heute kauft Fusion wegen den Multimediaeigenschaften und sicher nicht wegen irgendwelchen Ideen die in Zukunft realisiert werden.
AMD bewirbt ja auch die Multimediaeigenschaften der APUs.

Ja lol. Dir ist klar, dass AMD immer schon alles mit HD ect bewirbt, so wie alle Firmen auch. Aber war es von Anfang an das Ziel, die Grafikkarte durch ein Chip in der CPU zu ersetzen ?
Ist das deine Aussage ?
Btw, seit wann beinhaltet Multimedia gleich FULL-HD games ect ?

Eine APU ist ein Gesamtprodukt das als einzelner CHIP Multimedia Anwendungen abdeckt und ja das betrifft FULL HD Filme, kleinere Games und Photoshop und co.
ABER, die Idee von AMD ist die, dass man eine APU auch mit einer dgpu verwenden kann, und die APU arbeiten abnehmen kann damit sich die dgpu auch hauptsächlich um die Dinge kümmern kann, für die sie gemacht ist, und das ist nicht Physics oder irwelche Berechnungen (wissenschaftlich) sondern für das Bilder machen.
Die APU vereint also die Vorteile der heutigen CPUs mit den neu gefundenen Vorteile der Grafikkarten und versucht eben diese Vorteile zu verschmelzen und das zu einem einzelnen Chip.

Es ist nun mal so, dass Produkte nicht immer von Anfang an, dort zu finden sind, wo man sie haben will. Das heißt ja die APU ist für Multimediaanwendungen optimal, aber das ist in der Zukunft scheinbar nur ein Teil des Konzepts.

sonyfreak1234
Toller Monitor aber schasaugert :D ? kleiner Spaß bei Rande.
 
Zuletzt bearbeitet:
bensen schrieb:
Also irgendwie vermischt du hier einiges. Entweder schaust du den Durchsatz in eine oder in beide Richtungen an. Aber bitte bei beiden Schnittstellen dann gleich.
In deiner Tabelle sinds in eine Richtung für HT 3.0 20,8 GB/s. Und die werden schon bei den aktuellen Chipsätzen mit PCIe 2.0 komplett ausgenutzt. (16GB/s für 2x x16, 3 GB/s für 6x x1 und 2 GB/s für A-Link.
Wo soll d a Raum für PCIe 3.0 sein?
Den Fehler hast du hier gerade gemacht, welchen du mir vorwirfst. Wenn PCIe 2.0 16 GB/s bei 2x x16 Slots pro Richtung senden kann, dann sind auch beide Richtungen des Hypertransport verfügbar. Denn pro Richtung heisst nun mal beide Richtungen. Du kannst nicht die Daten des PCIe für beide Richtungen nehmen und dann nur eine Richtung des Hypertransport Kanals. Pro Richtung kann auch PCIe 2.0 nur 500 MB/s leiten - und diese gebündelten unidirektionalen Datentransfers haben die kompletten 20 GB/s des 3.0 HT zur Verfügung. Kommt die Vollduplexfähigkeit von PCIe zum tragen, sprich werden Daten zurück geschickt, stehen die weiteren 20 GB/s (HT 3.0) des Rückkanals zur Verfügung.

16x PCIe 2.0 kann niemals mehr als 8 GB/s in eine Richtung übertragen. Bei 16x PCIe 3.0 sind es 16 GB/s pro Richtung.
Dafür langen 20 GB/s pro Richtung voll und ganz.
 
Zuletzt bearbeitet:
Peiper schrieb:
Günstiger und schneller als ein AMD Gegenstück. Der A4-5300 ist in dem Fall deutlich schlechter als der Llano Vorgänger.
Darum verbaue ich immer noch mehr A4-3400 als Trinity. Und daß keine Prozessor-Generation nachkommt ist völlig egal.

Peiper schrieb:
Was hat das mit der Aufrüstbarkeit zu tun?
Die werden jahrelang benutzt und dann ersetzt.

Ich kann in deinem Posting nichts bezüglich Aufrüstbarkeit finden, also scheinbar ist das nur eine Ausrede, damit du deine inhaltlichen Fehler kaschieren kannst.

Der Trinity als Ein-Moduler ist ein Rückschritt und langsamer als ein älterer Zwei-Kerner.
Stand auch so im Computerbase Test und kann ich so bestätigen.

Nein, ist er nicht, wie oft soll ich es noch sagen?
Im Computerbase Test wurde ein Athlon II 265 mit 2x3,3ghz ohne IGP gegen den Nachfolger der Llano APU´s gestellt.
Computerbase hat ganz bewusst nicht erwähnt, dass man gegenüber dem Vorgängermodell einen Sprung nach vorne gemacht hat.
Es ist die übliche Intel Affinität, die man hier vor die Füße geworfen bekommt.

Preis, Strombedarf und das gesamte Produkt, sind natürlich irrelevant.

Eigentlich müsste man den Redakteur zusammen mit seiner fehlenden Integrität in den Müll werfen und endlich besseres Personal beschaffen.
Die Llano Apu´s takten nur mit 2,7 respektive 2,5ghz, rechne mal 25% von den Ergebnissen des Athlon II weg, dann kommst du auf die Leistung deiner "viel schnelleren"Llano CPU´s.

Ergo ein Vorsprung von etwa 10 bis 20% in der CPU Performance durch mehr Takt bei gleichbleibendem Strombedarf.

Und wenn sich doch was ändert oder es ruckeln sollte dann kommt halt irgendwann eine 20€ Grafikkarte rein.

Und wieso dann nicht für gleiches Geld eine APU gleich kaufen, anstatt mehr auszugeben?
Der Pentium ist doch CPU Seitig kaum schneller. Dem fehlen sämtliche Instruktionen, sowie Cache, SMT etc..
Ich kenne nur private Werte im 264HD Benchmarks und da nehmen sich die CPU´s kaum etwas.
 
Zuletzt bearbeitet:
@samuel89
Und wieso dann nicht für gleiches Geld eine APU gleich kaufen, anstatt mehr auszugeben?
Der Pentium ist doch CPU Seitig kaum schneller. Dem fehlen sämtliche Instruktionen, sowie Cache, SMT etc..
Ich kenne nur private Werte im 264HD Benchmarks und da nehmen sich die CPU´s kaum etwas.

Laut 3DCenter liegen die 2-Moduler Trinity mit den i3 auf Augenhöhe beim CPU-Teil.
Von der iGPU brauchen wir ja nicht reden :D.

Aber halt, ich vergaß ja den Stromverbrauch. Zum glück gibt es aufmerksame Inteltrolls, die mich immer wieder daran erinnern:
Was mich persönlich bei AMD stört, ist die zu hohe TDP gegenüber Intel, abgesehen von der Leistung. AMD sollte es mal schaffen die Effizienz stark zu verbessern undzwar für jede Modellreihe.
:headshot:


@pipip
Ich hoffe sehr, dass es AMD mit der übernächsten Generation gelingt, ein Vollfusion Produkt hinzukriegen und es dafür endlich die passende Softwareunterstützung gibt.
Ich würde zu gerne sehen, wie ein A8-7500 einen i7-4xxx in Anwendungsorientierten Benchmarks (Komprimieren, Photoshop, ...) in Grund und Boden rechnet :evillol:.
 
Zuletzt bearbeitet:
pipip schrieb:
Daraufhin meinte ich, dass Intel eben nicht das gleiche macht, wie AMD es vor hat. Sie greifen zu Lösungen, die nichts mit der Integration zu tun hat, mehr der Performancesteigerung. AMD will auch eine Performancesteigerng, aber das durch eine bessere Verschmelzung in die CPU.
Naja so wie ich das sehe hat man mit Trinity die Performance durch erheblich mehr Rechenleistung erreicht.

Aber war es von Anfang an das Ziel, die Grafikkarte durch ein Chip in der CPU zu ersetzen ?
Es war deren Ziel ein Produkt zu schaffen was denen von Intel überlegen ist. Und ja mittelfristig war es sicher das Ziel durch eine starke IGP Marktanteile dazu zu gewinnen, ganz ohne Blick auf HSA.
Wie du jetzt drauf kommst dass das Ziel sein soll die Grafikkarte komplett zu ersetzen ist mir schleierhaft. Das sowas auch im oberen Bereich nicht möglich ist, ist dir genau so klar wie mir.
Man hat sicher nicht die APUs gebracht um eventuell nach 5 Jahren damit durch HSA den Markt zu erobern, wenn man kurz bis mittelfristig keine Vorteile gesehen hätte.

Btw, seit wann beinhaltet Multimedia gleich FULL-HD games ect ?
Keine Ahnung, wirst du mir sicherlich noch sagen. :confused_alt:
Weiss nicht ganz was du von mir willst.

Daedal schrieb:
Du kannst nicht die Daten des PCIe für beide Richtungen nehmen und dann nur eine Richtung des Hypertransport Kanals.
Das ist ja blanker Hohn. Du hast den Fehler begangen und willst mir den unterjubeln? Müssen wir das jetzt haargenau durchrechnen?

Pro Richtung kann auch PCIe 2.0 nur 500 MB/s leiten - und diese gebündelten unidirektionalen Datentransfers haben die kompletten 20 GB/s des 3.0 HT zur Verfügung.
Super, die Grundlagen hast du gelegt.

Daedal schrieb:
Wenn PCIe 2.0 16 GB/s bei 2x x16 Slots pro Richtung senden kann, dann sind auch beide Richtungen des Hypertransport verfügbar.
Jetzt die Transferleistung:
16x 500 MB/s= 8GB/s
8GB/s pro Slot x2 Slots = 16 GB/s

Das sind 16 GB/s in eine Richtung dazu die anderen 5 GB/s wie oben erwähnt.
Bei HT sinds 20,8 GB/s in eine Richtung. Also wo ist jetzt der Fehler?

Bei 16x PCIe 3.0 sind es 16 GB/s pro Richtung.
Dafür langen 20 GB/s pro Richtung voll und ganz.
Ja jetzt sind wir bei einem Slot. Darf ich erinnern was du geschrieben hast?

Daedal schrieb:
Ich glaube kaum dass HT PCIe 3.0 irgendwie ausbremst. Mit 51 GB/s bei HT 3.1 sind selbst 2x16 PCIe 3.0 Lanes nicht in der Lage das auszuschöpfen - es ergibt nur 32 GB/s. Selbst HT 3.0 reicht aus mit ca. 40 GB/s
Die 32 GB/s erreichen die 2 x16 Slots in jede Richtung. HT erreicht 20 GB/s in jede Richtung, was zusammen 40 macht.
 
Zuletzt bearbeitet:
ach heult hier mal nicht rum ihr solltet euch mal was fragen .

einige von euch intel trolle sagen ja das intel überall besser ist als jeder andere,

Aber geht mal in euch und fragt euch wiso gibts bei xbox 360,ps3 kein intel?, sonder IBM Power pc/Cell

genau so warum setzt die wii u,ps4,xbox ???, nicht auf intel wenn sie doch das beste überhaupt sind.

na merkt ihr was?


@PIPIP

schasaugert ?
 
bensen schrieb:
Das ist ja blanker Hohn. Du hast den Fehler begangen und willst mir den unterjubeln? Müssen wir das jetzt haargenau durchrechnen?
[...]
Die 32 GB/s erreichen die 2 x16 Slots in jede Richtung. HT erreicht 20 GB/s in jede Richtung, was zusammen 40 macht.
Damit hast du sicherlich recht für PCIe 3.0. Nur lies bitte worauf ich mich bezog in meiner Erwiederung:
bensen schrieb:
Also irgendwie vermischt du hier einiges. Entweder schaust du den Durchsatz in eine oder in beide Richtungen an. Aber bitte bei beiden Schnittstellen dann gleich.
In deiner Tabelle sinds in eine Richtung für HT 3.0 20,8 GB/s. Und die werden schon bei den aktuellen Chipsätzen mit PCIe 2.0 komplett ausgenutzt. (16GB/s für 2x x16, 3 GB/s für 6x x1 und 2 GB/s für A-Link.
Wo soll d a Raum für PCIe 3.0 sein?
Das war auch der Teil den ich zitiert habe und der falsch ist. PCIe 2.0 nutzt HT eben nicht komplett aus. Du hast es ja gerade selber ausgerechnet. Einfach mal weniger aggressiv sein und einen Gang runter schalten beim lesen.
 
Zuletzt bearbeitet:
Wie du jetzt drauf kommst dass das Ziel sein soll die Grafikkarte komplett zu ersetzen ist mir schleierhaft. Das sowas auch im oberen Bereich nicht möglich ist, ist dir genau so klar wie mir.
Ließ mal ordentlich, aber ja es war Sarkasmus, denn meine Meinung war, es ist sicherlich nicht AMD s Ziel die Grafikkarte zu ersetzen sondern einen neuen Hauptprozessor zu integrieren der mit einer Grafikkarte zusammenarbeiten kann, und dieser bei Games viele Aufgaben abnehmen kann.
Bitte ließ meinen Text ordentlicher durch, bevor du Sachen von mir behauptest, die ich nicht geschrieben habe. Gilt übrigens auch noch für ein paar andere Herren hier.

Keine Ahnung, wirst du mir sicherlich noch sagen.
Weiss nicht ganz was du von mir willst.

achso ? schon vergessen oder wie ?

Ich sage :
Einige vergessen hier scheinbar wieder, dass der igp-Part der APU eigentlich nicht dazu gedacht ist, games auf FULL HD ect abzuspielen.
du antwortest
Doch das ist dafür gemacht. Denn alles andere ist Zukunftsmusik und bringt heute dem Kunden nichts. Der Kunde heute kauft Fusion wegen den Multimediaeigenschaften und sicher nicht wegen irgendwelchen Ideen die in Zukunft realisiert werden.
AMD bewirbt ja auch die Multimediaeigenschaften der APUs.

Ich sage dazu, dass Multimedia heute die Hauptanwendung von der APU ist, und in einigen Jahre nur ein kleiner Teil sein wird, von dem was die APU erledigen kann.
Klar viele wollen hier nur dann über Llano, Trinity und max Richland sprechen, aber es ging vorhin ja um das Thema, wieso überhaupt die igp aufpumpen, verbessern, ich hab lediglich gesagt, wieso AMD eventuell weiter an der igp arbeitet.
Falls das nicht ersichtlich ist, macht es so wie ich und ließt euch auch alle Posts durch (oder überfliegt sie wenigstens)

sonyfreak1234
billige monitore sind schrott
War nur ein Spaß, weil ich selber eher 2 günstige Monitore habe, und für mich völlig ausreichend ist ^^
Es gibt auch Leute die viel Geld für Tastaturen und Mäuse ausgeben, weil es ja so einen Unterschied gibt. Ich verwende seit Jahren eine alte HP tastatur und eine MX518 die aber interessanterweise sogar teurer geworden ist xD
Genauso wie man über den Wert solcher Dinge streiten kann, kann man auch darüber streiten ob die igp-Performance eines A10 bsp für einen ausreichend ist.

http://www.ostarrichi.org/wort-254-at-schasaugert.html
 
Zuletzt bearbeitet:
Zurück
Oben