Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Llano im Test: Der Prozessor im Detail
- Ersteller Volker
- Erstellt am
- Zum Test: AMD Llano im Test: Der Prozessor im Detail
BulliSabber
Lieutenant
- Registriert
- Feb. 2011
- Beiträge
- 592
Die Katze kuckt irgendwie apathisch, bei dem Herrchen wäre ich auch verstört.
Man man eun unboxing noch uninteressanter machen?
Ohne Katze wäre das Video nicht sehenswert.
Man man eun unboxing noch uninteressanter machen?
Ohne Katze wäre das Video nicht sehenswert.
Zuletzt bearbeitet:
allel
Lt. Commander
- Registriert
- Okt. 2004
- Beiträge
- 1.357
Der 32 nm Prozess scheint noch arge Probleme zu bereiten. Hoffentlich wird der Prozess nicht eine ähnliche Pleite wie seinerzeit der 65 nm Prozess (Phenom I). Erst mit 45 nm war und ist dann der Phenom II etwas zu spät ein ordentliches Produkt geworden. Die Bulldozerverschiebung hat wohl ebenfalls seine Ursache in Fertigungsproblemen.
Der CPU-Teil läuft ja quasi schon von Werk aus übertaktet (1,41V).
AMD hat erheblich geringere Resourchen als Intel und muss daher, wie man jetzt wieder sieht, höhere Risiken eingehen (neues Design und neuer Prozess). Intel kann dies trennen.
Optimal für diese Preisklasse wäre doch ein hoch taktbarer Dualcore mit der potentesten Grafik bei geringem Strombedarf. Naja Trinity wird es in einem Jahr hoffentlich richten.
Beim LLiano wird aber bei schwächern Varianten auch der GPU-Teil arg beschnitten. Das sollte AMD in späteren Steppings nachbessern.
Der CPU-Teil läuft ja quasi schon von Werk aus übertaktet (1,41V).
AMD hat erheblich geringere Resourchen als Intel und muss daher, wie man jetzt wieder sieht, höhere Risiken eingehen (neues Design und neuer Prozess). Intel kann dies trennen.
Optimal für diese Preisklasse wäre doch ein hoch taktbarer Dualcore mit der potentesten Grafik bei geringem Strombedarf. Naja Trinity wird es in einem Jahr hoffentlich richten.
Beim LLiano wird aber bei schwächern Varianten auch der GPU-Teil arg beschnitten. Das sollte AMD in späteren Steppings nachbessern.
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
btw, der A8-3850 hat sich pünktlich zum Start der 110 Euro Marke genähert(jedoch noch nicht verfügbar):
http://geizhals.eu/a653204.html
Der A8-3650 liegt bei 93 Euro:
http://geizhals.eu/a653205.html
und sogar lagernd.
http://geizhals.eu/a653204.html
Der A8-3650 liegt bei 93 Euro:
http://geizhals.eu/a653205.html
und sogar lagernd.
*hust* Erwartungsgemäß *hust*deadohiosky schrieb:btw, der A8-3850 hat sich pünktlich zum Start der 110 Euro Marke genähert
Soviel zum zum Thema "Preisdifferenz i3 <> A8 kann für ne tolle Grafikkarte genutzt werden"
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.670
Es gibt wenn, dann PhysX. Bullet via DX11 oder OCL kann schon jetzt jede aktuelle Radeon und Geforce (dummerweise nutzt das kein Spiel in der GPU-beschleunigten Version, nur der 3DM11 in einem Test für "soft bodies") - also nichts, was Trinity irgendwie besser könntepipip schrieb:y33H@
wieso gibt es nur PhysikX ?
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
Laut golem wird das mit der GPGPU-Unterstützung auch in nächster Zeit nichts:
http://www.golem.de/1107/84680.html
Und wenn sie recht behalten, dann wird es auch bis auf weiteres nicht im Consumer-Bereich bereitgestellt und bleibt womöglich auf Knight Corner beschränkt.
http://www.golem.de/1107/84680.html
Und wenn sie recht behalten, dann wird es auch bis auf weiteres nicht im Consumer-Bereich bereitgestellt und bleibt womöglich auf Knight Corner beschränkt.
y33H@ schrieb:Die können es nicht. Wobei sich Intel bei seinem OCL-SDK arg schwammig ausdrückt, ob CPU oder doch HD Graphics.
Nix schwammig. Intel stellt eindeutig klar, dass es nur für CPUs gilt. OpenCL auf der GPU wird erst mit Ivy Bridge ermöglicht werden.
Weltenspinner
Inkubus-Support
- Registriert
- März 2009
- Beiträge
- 5.037
Natürlich unterstützt Intel kein GPGPU, das würde für uns Kunden
und ihren Konkurrenten AMD nur Vorteile bringen und den i7-CPUs
mit großen Margen einen Teil ihrer Daseinsberechnung nehmen.
Dann werden AMD-CPUs auch noch über SSE4.1 ausgeschlossen.
Danke Intel! Es ist schön einen Quasi-Monopolisten zu haben,
der den Fortschritt bremst, um seine Umsätze zu erhöhen und
die Konkurrenz klein zu halten.
Ich denke, GPGPU in OpenCL wird es erst geben, wenn Intels
GPUs zu AMDs aufgeschlossen haben, oder sie einen Weg finden,
AMDs APUs auszubremsen. Ich hoffe, GPGPU geht auch über DX11.
Da hat Intel seine Finger nicht so tief drin.
und ihren Konkurrenten AMD nur Vorteile bringen und den i7-CPUs
mit großen Margen einen Teil ihrer Daseinsberechnung nehmen.
Dann werden AMD-CPUs auch noch über SSE4.1 ausgeschlossen.
Danke Intel! Es ist schön einen Quasi-Monopolisten zu haben,
der den Fortschritt bremst, um seine Umsätze zu erhöhen und
die Konkurrenz klein zu halten.
Ich denke, GPGPU in OpenCL wird es erst geben, wenn Intels
GPUs zu AMDs aufgeschlossen haben, oder sie einen Weg finden,
AMDs APUs auszubremsen. Ich hoffe, GPGPU geht auch über DX11.
Da hat Intel seine Finger nicht so tief drin.
Zuletzt bearbeitet:
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
Ralf, dazu möchte ich dann doch mal eine Quelle haben, denn außer der Zusage dass IB DX 11 fähig sein wird, gibt es (soweit ich weiß) keinerlei Quelle die besagt, dass die "Shader" programmierbar sind.
Fakten, Fakten, Fakten... mein Freund. Und bitte keine Quellen wie digitimes, denn die sind ja laut deiner Aussage auch nur Gerüchteköche.
Fakten, Fakten, Fakten... mein Freund. Und bitte keine Quellen wie digitimes, denn die sind ja laut deiner Aussage auch nur Gerüchteköche.
deadohiosky schrieb:Ralf, dazu möchte ich dann doch mal eine Quelle haben, denn außer der Zusage dass IB DX 11 fähig sein wird, gibt es (soweit ich weiß) keinerlei Quelle die besagt, dass die "Shader" programmierbar sind.
Fakten, Fakten, Fakten... mein Freund. Und bitte keine Quellen wie digitimes, denn die sind ja laut deiner Aussage auch nur Gerüchteköche.
http://www.abload.de/img/1g7cj.png
http://www.abload.de/img/227r4.png
http://www.abload.de/img/3k71b.png
http://translate.google.de/translat...docs/column/ubiq/20110608_451240.html&act=urlThe response to eye, but DX11, also supports OpenCL, computational units increased to 16. The GPU is built into the larger. Its centerpiece DirectX 11 (Direct3D 11), but to support, will be addressed in this generation not only OpenCL GPU computing with it.
Darf sich Ivy Bridge dann auch APU nennen?
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
Soll das ein Scherz sein?
Auf keiner deiner Folie wird von Compute Shadern gesprochen und die Google Translate Übersetzung des Artikels ist ja wohl ein Witz. Warum überhaupt auf Englisch? Aber egal auf Deutsch wirds leider auch nicht verständlicher. Der Autor geht, meiner Interpretation des Janglischen nach, davon aus, dass auf Grund der DX 11 und Open CL Unterstützung, auch GPGPU-Computing möglich sein wird. Aber ein "opinion piece" ist eben kein Faktum.
Fakt ist: IB wird DirectX 11 unterstützen, als auch Open GL (wie bereits SB) und OpenCL 1.1.
Das heißt aber nicht, dass die Shader (bzw. die GPU) programmierbar sind. Das SDK das gerade veröffentlicht wurde, und Open CL 1.1 unterstützt, gewährt eben keinen "Zugang" zu den Shadern, trotzdem "unterstützt" SB dadurch Open Cl 1.1..
Open CL 1.1 Unterstützung =/= GPGPU-Computing mit Hilfe von Open CL.
Auf keiner deiner Folie wird von Compute Shadern gesprochen und die Google Translate Übersetzung des Artikels ist ja wohl ein Witz. Warum überhaupt auf Englisch? Aber egal auf Deutsch wirds leider auch nicht verständlicher. Der Autor geht, meiner Interpretation des Janglischen nach, davon aus, dass auf Grund der DX 11 und Open CL Unterstützung, auch GPGPU-Computing möglich sein wird. Aber ein "opinion piece" ist eben kein Faktum.
Fakt ist: IB wird DirectX 11 unterstützen, als auch Open GL (wie bereits SB) und OpenCL 1.1.
Das heißt aber nicht, dass die Shader (bzw. die GPU) programmierbar sind. Das SDK das gerade veröffentlicht wurde, und Open CL 1.1 unterstützt, gewährt eben keinen "Zugang" zu den Shadern, trotzdem "unterstützt" SB dadurch Open Cl 1.1..
Open CL 1.1 Unterstützung =/= GPGPU-Computing mit Hilfe von Open CL.
deadohiosky schrieb:Fakt ist: IB wird DirectX 11 unterstützen, als auch Open GL (wie bereits SB) und OpenCL 1.1.
Das heißt aber nicht, dass die Shader (bzw. die GPU) programmierbar sind. Das SDK das gerade veröffentlicht wurde, und Open CL 1.1 unterstützt, gewährt eben keinen "Zugang" zu den Shadern, trotzdem "unterstützt" SB dadurch Open Cl 1.1..
Die letzte Folie gibt es klar wieder, eindeutiger geht es gar nicht. OpenCL 1.1 Support der GPU unter 3D-micro architecture enhancements. Das ist eine Folie einzig der GPU betreffend. Nirgends ist da die Rede von der CPU. Du wirst auch keine Sandy Bridge Folie finden, die OpenCL so beworben hat. Es bleibt festzuhalten, dass Intel neben DX11 auch OpenCL Support auf der Folie als Neuerung in fetter Schrift hervorhebt - eben weil die Sandy Bridge GPU dies nicht unterstützt. Daran sollten wir uns halten.
deadohiosky
Banned
- Registriert
- Jan. 2011
- Beiträge
- 1.598
Du verstehst es irgendwie nicht, daher wiederhole ich:
Open CL 1.1 Unterstützung =/= GPGPU-Computing mit Hilfe von Open CL.
Zeig mir konkret eine Quelle (am besten von Intel) in der ausgesagt wird, dass IB's GPU "programmierbar" ist (Compute Shader) und daher die Fähigkeit besitzt mit Hilfe von/unter Open CL GPGPU-Computing zu betreiben.
Open CL 1.1 Unterstützung =/= GPGPU-Computing mit Hilfe von Open CL.
Zeig mir konkret eine Quelle (am besten von Intel) in der ausgesagt wird, dass IB's GPU "programmierbar" ist (Compute Shader) und daher die Fähigkeit besitzt mit Hilfe von/unter Open CL GPGPU-Computing zu betreiben.
deadohiosky schrieb:Zeig mir konkret eine Quelle (am besten von Intel) in der ausgesagt wird, dass IB's GPU "programmierbar" ist (Compute Shader) und daher die Fähigkeit besitzt mit Hilfe von/unter Open CL GPGPU-Computing zu betreiben.
Alles was du zu wissen brauchst, ist, dass Intel mit ihrer Gen 7 graphics OpenCL 1.1 supported. Die entsprechende Folie wurde hier schon verlinkt.
Ähnliche Themen
- Antworten
- 34
- Aufrufe
- 12.591
- Antworten
- 69
- Aufrufe
- 10.350
- Antworten
- 39
- Aufrufe
- 4.043
- Antworten
- 50
- Aufrufe
- 4.993
- Antworten
- 0
- Aufrufe
- 1.384