News Spezifikationen erster „Richland“-APUs genannt

du wirst schon sehen das ich recht habe.
ein treiber kann darauf nicht optimiert werden, in den speicher passt einfach nicht die erforderliche texturmenge rein, also ruckelt es trotzdem.

der treiber kann nicht wissen in welche richtung ich in einem spiel laufen werde, aslo kann er nicht immer die richtigen daten cachen, daraus folgt dann ruckeln.

der cache würde vielleicht etwas bringen wenn er so 512mb hätte, aber 128mb bringen garantiert nichts.

eine GPU ist eben dabei nicht mit einer CPU vergleichbar, da geht es um ganz andere datenmengen.

und warum glauben hier immer alle das intel unfehlbar ist?
habt ihr alle schon den P4 vergessen, da dachte intel sicher auch das es eine kluge idee war...
intel hat eben schon oft genug bewiesen das sie von GPUs keine ahnung haben.
 
Zuletzt bearbeitet:
Wer sagt, dass der eVRAM für Texturen genutzt wird? Da lassen sich diverse andere Sachen mit abpuffern.

Elkinator schrieb:
der treiber kann nicht wissen in welche richtung ich in einem spiel laufen werde, aslo kann er nicht immer die richtigen daten cachen, daraus folgt dann ruckeln.
Aber das Spiel kann unter DX11 indem es die vorherigen Frames auswertet (Culling etwa).
 
das kann bei nur 128MB speicher nicht funktionieren, wirst du schon sehen wenn es benchmarks gibt.
 
Elkinator schrieb:
der treiber kann nicht wissen in welche richtung ich in einem spiel laufen werde, aslo kann er nicht immer die richtigen daten cachen, daraus folgt dann ruckeln.
Wie schafft es denn die GPU bei ner externen Karte die richtigen Texturen in den Grafikspeicher zu laden?
der cache würde vielleicht etwas bringen wenn er so 512mb hätte, aber 128mb bringen garantiert nichts.
Dann wäre es kein Cache mehr.
und warum glauben hier immer alle das intel unfehlbar ist?
habt ihr alle schon den P4 vergessen, da dachte intel sicher auch das es eine kluge idee war...
Du widerholst dich. Hier glaubt keiner das Intel unfehlbar ist. Nur deine Argumentation ist einfach völlig ohne Sinn. Bezüglich den abstrusen P4-Vergleich erinnere ich:
bensen schrieb:
Das war ne Architektur die sich nicht entwickelt hat wie erwartet. Sicher nen Fehlgriff, aber nicht von vorneherein so absehbar.
Hier gehts nicht um ne komplexe Architekturentwicklung über Jahre hinweg sondern um ne simple Entscheidung eDRAM zu nutzen oder nicht. Da wird sich wer was dabei gedacht haben und dann prüft man das. Da bauste halt nen Prototypen und weißt was es bringt.

Bei Haswell haben die Chips mit und ohne eDRAM seit Monaten rumfliegen und hatten Zeit genug die zu testen. Meinst du allen ernstes sie würde die Chips mit "teurem" eDRAM produzieren wenn es nichts bringt?

Dazu die ganzen anderen Plattformen die mit eRAM gebaut wurden. Hast immer noch kein Argument zum besten gegeben warum so oft drauf gesetzt wird, wenn es nichts bringt.
 
warte es doch einfach ab, so lange dauert es ja nicht mehr bis haswell verkauft wird...

bei der karte hat man wohl mehr als 128mb speicher?
 
Ist schon lustig du sagst auf jeder Seite 3x das es nichts bringt und wenn man Argumente dagegen bringt oder von dir irgendwelche Gegenargumente hören will, heißt es man solle doch abwarten. Dann lass doch einfach die Widerholung von immer derselben Phrase.

Zu 2. Absatz:
Macht ja nichts. Die GPU weiß ja nicht was rein soll, wie du sagst, und das komplette Spiel passt nicht rein. Wie soll das also funktionieren?
 
bensen schrieb:
Zu 2. Absatz:
Macht ja nichts. Die GPU weiß ja nicht was rein soll, wie du sagst, und das komplette Spiel passt nicht rein. Wie soll das also funktionieren?
mit mehr speicher kann man aber halbwegs sinnvoll daten cachen, mit 128MB geht das einfach nicht.
und wenn der durchsatz bei ddr1600 hinten und vorne nicht reicht bringt der 128MB cache im spiel auch nichts, es kommt zu einbrüchen weil im cache keine daten sind.

du wirst eh bald sehen das ich recht habe...
 
ELMOKO schrieb:
man muss bedenken Amd hat nicht so die mittel wie sie intel hat. das amd nicht aufgibt finde ich schon mal gut...aber bessere wäre es wenn 2, 3 Die Leute von intel cpu Entwicklung mal nach amd verschwinden. ich glaube dann würden sie intel den Hals berechen.:evillol:

Nur werden bei intel kaum einfach mal ein paar Entwickler verschwinden. Und damit wäre das Problem ja nicht behoben. AMD hat einen Rückstand gegenüber intel bei der Fertigungstechnik. Den holt man nicht mit ein paar Entwicklern auf.

AMD hat bereits ein paar Leute zum Zwecke der Überarbeitung der Architektur eingestellt, z.B. Rory Read. Wegen der Architektur mache ich mir nicht mal soviel Sorgen. So schlecht ist die jetzt auch wieder nicht. Aber die beste Architektur ist nicht konkurrenzfähig, wenn man bei der Fertigungstechnik nicht auf Augenhöhe mit der Konkurrenz ist. Wunder werden da halt keine passieren.

LoRDxRaVeN schrieb:
Es ist deshalb nicht falsch - auch nicht teilweise - da eben der Codename "Bulldozer" nicht nur die erste Generation der neuen Architektur bezeichnet, sondern gleichzeitig die ganze Familie.
Du schreibst von "Generation", das habe ich aber nicht getan, sondern ich habe explizit "Architektur" als auch "Architekturfamilie" erwähnt - das hast du aber leider bei deinem Zitat weggelassen...
Aber das weißt du ja, wie man sieht, eigentlich selbst - dann mach' es doch einfach korrekt :) Immerhin sollte man davon ausgehen dürfen, dass in Foren und vorallem Threads wie diesen nur Leser anzutreffen sind, die ein gewisses Interesse für die Materie aufweisen und somit auch gewillt sind, sich mit dem einen oder anderen Codenamen abgeben zu müssen.

Bzgl. "Bulldozer als Synoym für Zambezi verwenden": Erstens einmal ist das eine ganz einfach falsch und das andere richtig (bis hier hin hättest du mit dem Erbsenzähler noch recht :) ), was aber für Zambezi zu großen Teilen stimmt (z.B. die hohe Leistungsaufnahme unter Last), kann eben für eine Architektur, d.h. also Blueprint auf dem Papier, gar nicht zutreffen. Das Ding ist eben noch nicht gefertigt und bekanntermaßen hat diese Fertigungen massiven Einfluss auf die Leistungsaufnahme. Beim Codenamen "Zambezi" ist die Variable "Fertigung" aber schon beinhaltet. Es ist dies also genauso eine dieser falschen Pauschalisierungen, die in diesem Forum nur all zu gerne gemacht werden. Und da erlaube ich z.B. es mir durchaus, diese Un- oder Teilwahrheiten anzuprangern.

LG

Naja. Ich denke wir wissen ja beide, was wir gemeint haben. Und mit "Un- oder Teilwahrheiten" wagst Du Dich schon ein bisschen weit aus dem Fenster. Ich glaube es war doch allen klar, was gemeint war.

Dir zu liebe rede ich aber in Zukunft halt einfach vom Zambezi, wenn ich die peinliche erste Inkarnation der Bulldozer-Architekur mene. :kuss: :love:

Vermutlich versteht dann wieder die andere Hälfte der Leser nicht, was gemeint ist.

Es war schon früher so: Es allen recht getan, ist eine Kunst die niemand kann.
 
red von bulldozer wenn du die erste generation meinst, das sollte jeder verstehen der sich mit AMD beschäftigt;)

seit der rory read am ruder ist bin ich wieder sehr zuversichtlich, was er mit lenovo gemacht hat verdient respekt!
wenn man sich ansieht wo lenovo vor ihm war und wo sie jetzt sind:O
 
Ich halte diese APU als extrem günstige Lösung für kleine stromsparende Büro-PCs. Wir nutzen solche Maschinen als Clients für Terminal-Server Sitzungen. In diesem Szenario sehe ich sie wirtschaftlicher als Intel-Lösungen. Wir nutzen sie erfolgreich und sehe auch nicht, dass sie weniger stabil oder unzuverlässiger sind als Intel Pendants. Von daher ein Segment, das AMD erfolgreich mit Richland besetzen kann, IMO.
 
Welche Vorteile bieten APUs als Clients für Terminal-Server Sitzungen?
 
y33H@ schrieb:
Welche Vorteile bieten APUs als Clients für Terminal-Server Sitzungen?

Und icht dachte schon, dass ich der einzige bin der sich die Frage stellt. Vorteil ist doch das alles auf dem Terminal-Server passiert und ich somit an den Clients sparen kann, sprich die billigste CPU Lösung da reinkloppe die ich finde, wo ich aktuell bei FM1 oder Celeron G lande, aber nicht bei Trinity oder Richland.
 
Bezüglich der 128mb extra, die Grafikeinheit bei den Sandys kann doch schon auf den L3Cache zugreifen.
 
Siehe auch AMD in der letzten Generation.
Es wurden oft Boards mit 780/880G oder 790/890GX Chipsatz mit 128MB auf dem
Board fest verlöteten schnellen DDR3 Sideband-Grafikspeicher angeboten, da eben die Bandbreite/Latenz
des Hauptspeichers für die im Chipsatz integrierte GPU zu knapp war.

Brachte schon was (der iGPU bis zu 15%), wobei man davon ausgehen kann, dass eDRAM noch deutlich bessere Latenzen und Durchsatz bringen wird.

http://www.sharkyextreme.com/hardwa.../10703_3764251_6/AMD-790GX-Chipset-Review.htm

http://www.sharkyextreme.com/hardwa.../10703_3764251_7/AMD-790GX-Chipset-Review.htm
 
Zuletzt bearbeitet:
achtung noobalarm!
(ich mein mich jetzt)
also das ist seit vielen jahren die erste AMD news die ich ueberhaupt oeffne.
ich lese hier was von dem neuen AMD "flagschiff"...
die cpu+gpu zu kombinieren halte ich persoenlich fuer mein einsatz fuer schwachsinnig.
gehts hier jetzt noch um die CPU oder nur um die integrierte grafikeinheit?
also wenn ich den cinebench sehe und mit meinem ergebnis vergleiche liegen da 7 punkte zwischen.
fuer mich in keiner hinsicht ein gewinner...

y33H@ schrieb:
Welche Vorteile bieten APUs als Clients für Terminal-Server Sitzungen?
also alles laeuft ja nicht ueber den server...und so ein windows 7 embedded hat auch die schoene aero oberflaeche :D...
oder wenn man mehr als 2 monitore betreibt vielleicht ? :)
 
Zuletzt bearbeitet von einem Moderator:
Dir ist aber schon klar, dass das bei AMD als auch Intel! schon seit Jahren Gang und Gebe ist?
 
zeig mal nen beweis fuer die behauptung

(also thin client mit 4x dvi*)
*ohne zweites gerät
 
Zuletzt bearbeitet von einem Moderator:
Zurück
Oben