Test Test: „Llano“-CPU-Leistung

Hier noch ein Video wie das Ding aussieht. Man beachte die Katze :D

Link
 
Die Katze kuckt irgendwie apathisch, bei dem Herrchen wäre ich auch verstört.
Man man eun unboxing noch uninteressanter machen?
Ohne Katze wäre das Video nicht sehenswert. :lol:
 
Zuletzt bearbeitet:
Der 32 nm Prozess scheint noch arge Probleme zu bereiten. Hoffentlich wird der Prozess nicht eine ähnliche Pleite wie seinerzeit der 65 nm Prozess (Phenom I). Erst mit 45 nm war und ist dann der Phenom II etwas zu spät ein ordentliches Produkt geworden. Die Bulldozerverschiebung hat wohl ebenfalls seine Ursache in Fertigungsproblemen.

Der CPU-Teil läuft ja quasi schon von Werk aus übertaktet (1,41V).

AMD hat erheblich geringere Resourchen als Intel und muss daher, wie man jetzt wieder sieht, höhere Risiken eingehen (neues Design und neuer Prozess). Intel kann dies trennen.

Optimal für diese Preisklasse wäre doch ein hoch taktbarer Dualcore mit der potentesten Grafik bei geringem Strombedarf. Naja Trinity wird es in einem Jahr hoffentlich richten.
Beim LLiano wird aber bei schwächern Varianten auch der GPU-Teil arg beschnitten. Das sollte AMD in späteren Steppings nachbessern.
 
deadohiosky schrieb:
btw, der A8-3850 hat sich pünktlich zum Start der 110 Euro Marke genähert
*hust* Erwartungsgemäß *hust*

Soviel zum zum Thema "Preisdifferenz i3 <> A8 kann für ne tolle Grafikkarte genutzt werden" :lol:
 
pipip schrieb:
y33H@
wieso gibt es nur PhysikX ?
Es gibt wenn, dann PhysX. Bullet via DX11 oder OCL kann schon jetzt jede aktuelle Radeon und Geforce (dummerweise nutzt das kein Spiel in der GPU-beschleunigten Version, nur der 3DM11 in einem Test für "soft bodies") - also nichts, was Trinity irgendwie besser könnte :rolleyes:
 
y33H@
ups, hab da jz an die HD3000/2000 gedacht xD mein fehler
 
Die können es nicht. Wobei sich Intel bei seinem OCL-SDK arg schwammig ausdrückt, ob CPU oder doch HD Graphics.
 
Laut golem wird das mit der GPGPU-Unterstützung auch in nächster Zeit nichts:

http://www.golem.de/1107/84680.html


Und wenn sie recht behalten, dann wird es auch bis auf weiteres nicht im Consumer-Bereich bereitgestellt und bleibt womöglich auf Knight Corner beschränkt.
 
Das 1.1er habe ich vorhin mal in Bullet angeworfen ... CPU.
 
y33H@ schrieb:
Die können es nicht. Wobei sich Intel bei seinem OCL-SDK arg schwammig ausdrückt, ob CPU oder doch HD Graphics.

Nix schwammig. Intel stellt eindeutig klar, dass es nur für CPUs gilt. OpenCL auf der GPU wird erst mit Ivy Bridge ermöglicht werden.
 
Natürlich unterstützt Intel kein GPGPU, das würde für uns Kunden
und ihren Konkurrenten AMD nur Vorteile bringen und den i7-CPUs
mit großen Margen einen Teil ihrer Daseinsberechnung nehmen.
Dann werden AMD-CPUs auch noch über SSE4.1 ausgeschlossen.
Danke Intel! Es ist schön einen Quasi-Monopolisten zu haben,
der den Fortschritt bremst, um seine Umsätze zu erhöhen und
die Konkurrenz klein zu halten. :)

Ich denke, GPGPU in OpenCL wird es erst geben, wenn Intels
GPUs zu AMDs aufgeschlossen haben, oder sie einen Weg finden,
AMDs APUs auszubremsen. Ich hoffe, GPGPU geht auch über DX11.
Da hat Intel seine Finger nicht so tief drin.
 
Zuletzt bearbeitet:
Ralf, dazu möchte ich dann doch mal eine Quelle haben, denn außer der Zusage dass IB DX 11 fähig sein wird, gibt es (soweit ich weiß) keinerlei Quelle die besagt, dass die "Shader" programmierbar sind.


Fakten, Fakten, Fakten... mein Freund. Und bitte keine Quellen wie digitimes, denn die sind ja laut deiner Aussage auch nur Gerüchteköche.:rolleyes:
 
deadohiosky schrieb:
Ralf, dazu möchte ich dann doch mal eine Quelle haben, denn außer der Zusage dass IB DX 11 fähig sein wird, gibt es (soweit ich weiß) keinerlei Quelle die besagt, dass die "Shader" programmierbar sind.


Fakten, Fakten, Fakten... mein Freund. Und bitte keine Quellen wie digitimes, denn die sind ja laut deiner Aussage auch nur Gerüchteköche.:rolleyes:

http://www.abload.de/img/1g7cj.png
http://www.abload.de/img/227r4.png
http://www.abload.de/img/3k71b.png

The response to eye, but DX11, also supports OpenCL, computational units increased to 16. The GPU is built into the larger. Its centerpiece DirectX 11 (Direct3D 11), but to support, will be addressed in this generation not only OpenCL GPU computing with it.
http://translate.google.de/translat...docs/column/ubiq/20110608_451240.html&act=url


Darf sich Ivy Bridge dann auch APU nennen?
 
Soll das ein Scherz sein?

Auf keiner deiner Folie wird von Compute Shadern gesprochen und die Google Translate Übersetzung des Artikels ist ja wohl ein Witz. Warum überhaupt auf Englisch? Aber egal auf Deutsch wirds leider auch nicht verständlicher. Der Autor geht, meiner Interpretation des Janglischen nach, davon aus, dass auf Grund der DX 11 und Open CL Unterstützung, auch GPGPU-Computing möglich sein wird. Aber ein "opinion piece" ist eben kein Faktum.


Fakt ist: IB wird DirectX 11 unterstützen, als auch Open GL (wie bereits SB) und OpenCL 1.1.
Das heißt aber nicht, dass die Shader (bzw. die GPU) programmierbar sind. Das SDK das gerade veröffentlicht wurde, und Open CL 1.1 unterstützt, gewährt eben keinen "Zugang" zu den Shadern, trotzdem "unterstützt" SB dadurch Open Cl 1.1..



Open CL 1.1 Unterstützung =/= GPGPU-Computing mit Hilfe von Open CL.
 
deadohiosky schrieb:
Fakt ist: IB wird DirectX 11 unterstützen, als auch Open GL (wie bereits SB) und OpenCL 1.1.
Das heißt aber nicht, dass die Shader (bzw. die GPU) programmierbar sind. Das SDK das gerade veröffentlicht wurde, und Open CL 1.1 unterstützt, gewährt eben keinen "Zugang" zu den Shadern, trotzdem "unterstützt" SB dadurch Open Cl 1.1..



Die letzte Folie gibt es klar wieder, eindeutiger geht es gar nicht. OpenCL 1.1 Support der GPU unter 3D-micro architecture enhancements. Das ist eine Folie einzig der GPU betreffend. Nirgends ist da die Rede von der CPU. Du wirst auch keine Sandy Bridge Folie finden, die OpenCL so beworben hat. Es bleibt festzuhalten, dass Intel neben DX11 auch OpenCL Support auf der Folie als Neuerung in fetter Schrift hervorhebt - eben weil die Sandy Bridge GPU dies nicht unterstützt. Daran sollten wir uns halten.
 
Du verstehst es irgendwie nicht, daher wiederhole ich:

Open CL 1.1 Unterstützung =/= GPGPU-Computing mit Hilfe von Open CL.


Zeig mir konkret eine Quelle (am besten von Intel) in der ausgesagt wird, dass IB's GPU "programmierbar" ist (Compute Shader) und daher die Fähigkeit besitzt mit Hilfe von/unter Open CL GPGPU-Computing zu betreiben.
 
deadohiosky schrieb:
Zeig mir konkret eine Quelle (am besten von Intel) in der ausgesagt wird, dass IB's GPU "programmierbar" ist (Compute Shader) und daher die Fähigkeit besitzt mit Hilfe von/unter Open CL GPGPU-Computing zu betreiben.


Alles was du zu wissen brauchst, ist, dass Intel mit ihrer Gen 7 graphics OpenCL 1.1 supported. Die entsprechende Folie wurde hier schon verlinkt.
 
Zurück
Oben