News Ein-Chip-Design von Intels „Haswell“ erst ab Q3/2013?

Cytrox schrieb:
Der Großteil der Software profitiert nicht davon, und es wird sich daran so schnell auch nichts ändern.

Das weiß ich selber. Deswegen habe ich ja weiter oben bereits AMDs Bemühungen hervorgehoben: Die Zusammenarbeit mit Khronos, Microsoft, Sony und Nintendo ist ja kein Geheimnis.

Den Support über Gaming zu erzwingen halte ich für den richtigen Ansatz, denn für alle anderen Dekstopaufgaben braucht man die Rechenleistung eigentlich gar nicht. Sie ist nice to have, aber ganz sicher nicht überlegenswichtig.

ice-breaker schrieb:
Die heutige Softwareentwicklung schafft es im Regelfall nichtmal eine Quadcore auszulasten, von 2stelligen Core-Zahlen mal gar nicht gesprochen. Wie sollte man da erwarten können, dass man GPGPU hinbekommt, welches noch mehr Aufwand ist und viel weniger in das aktuelle Programmiermodell passt.

Das ist eine typische Huhn-Ei-Frage und sehr schwer zu beantworten und ich sehe da eine andere Antwort als deutlich plausibler an.

Warum gibt es so wenig Multicore-Support oberhalb von zwei Kernen? Weil die Entwickler zu blöd dafür sind? Weil sie zu faul sind? Weil es zu aufwendig/kostspielig ist? Weil es keinen spürbaren Performancevorteil bringt?

Nein, ich denke das liegt ganz einfach daran, dass der Großteil aller Rechner mindestens zwei Kerne besitzt. Es ist nüchtern gesehen eine Frage der Wirtschaftlichkeit. Mobile Geräte mit vier x86-Kernen sind teuer, sogar für einen Deutschen und deswegen selten. Zwei Kerne dominieren den Markt, weil sie deutlich günstiger sind. Viele Zweikerner führen also zu vielen Programmen mit Zweikernsupport.

Ist das schlecht für AMDs Pläne? Nein, es ist sogar ein Vorteil! Warum? Weil AMD Fusion sehr günstig zu produzieren ist, deswegen sehr günstig verkauft werden kann und sich schneller verbreiten lässt als ein teurer Sechs-, Acht oder Zwölfkerner. Man hat eine hohe theoretische Rechenleistung, die mit der Full-Fusion dann auch komplett genutzt werden soll, kann die Chips aber trotzdem erheblich billiger verkaufen als einen hochgezüchteten High-End Desktop Chip. Das ist ein weiterer Vorteil des APU-Konzepts: Viel Nutzen für kleines Geld.

Und genau hier sieht man auch den Sinn des modularen Prinzips von Bulldozer und GCN: APU mit 1M/128SP, 2M/256SP, 4M/512SP, es ist komplett egal, AMD kann sich für jedes Preissegment den passenden Chip bauen, ohne etwas an der Architektur verändern zu müssen.

ice-breaker schrieb:
Möglicherweise werden auch Intel und AMD den Markt verschlafen und ARM wird den Markt dominieren.

Nein, das wird nicht passieren, dafür haben die gar nicht die Mittel.

ARM ist mit seinen 770 Millionen Dollar Umsatz ein Zwerg gegen AMD und Intel. Die sind nicht auf Krawall aus und können sich das auch gar nicht leisten. ARM verkauft zwar viele Chips, aber das müssen die auch bei den verschwindend kleinen Margen. Wenn die 50 Chips verkaufen haben sie vielleicht so viel Umsatz gemacht wie AMD mit einem einzigen Chip.

ARM baut Allianzen auf (HSA Foundation mit AMD, Texas Instr. und Co) und verkauft Lizenzen für die Prozessordesigns. Intel besitzt auch eine Lizenz. ARM baut keine x86-Prozessoren und sollte daher vielmehr als Zulieferer für die großen Chiphersteller verstanden werden: Im Trinity Nachfolger Kaveri werden zum ersten mal ARM Kerne in einer APU verbaut werden.

ice-breaker schrieb:
Aktoren und Co. gehören die Zukunft und - oh Wunder - die lassen sich noch schlechter auf GPGPU übertragen, skalieren dafür aber auf tausende Cores. GPGPU ist ein Hype, ein Randbereich aber nicht die Zukunft, wenn sich AMD darauf versteift, dann sehen sie bald sehr alt aus. Die sollen sich lieber wieder ihren Many-Core-Architekturen zuwenden, und da wirklich Many-Core mit zweistelligen Zahlen machen.

Ich bekomme hier das Gefühl, dass einige nicht wollen, dass das APU-Konzept erfolgreich ist, nur weil es von AMD stammt. Würden wir hier über eine Intel Fusion reden, ich wette hier wäre deutlich mehr Begeisterung zu finden. Dann wird doch lieber wieder der Larrabee ausgepackt....

Am Horizont kann man zwar ganz unscharf Intels Many-Core Konzept erspähen, aber ich halte es nur für eine Fatamorgana. Die Many-Cores haben eklatante Schwachstellen: Sie sind schweineteuer und sie verbrauchen extrem viel Strom. Es ist das gleiche Brechstangen-Prinzip, wie wir es derzeit erleben: Mehr Kerne, mehr Takt, mehr IPC. Mehr von allem, ohne zu hinterfragen, ob man auch mit weniger mehr erreichen kann.

Ich sehe die Many Cores als Konkurrenz zu AMD Firepro und Nvidia Quadro. APUs spielen in einer ganz anderen Liga, sie sind günstig und effizient. Many-Cores sind teure Standheizungen. Und bis man so einen Chip in ein Notebook pflanzen kann, werden noch viele Jahre vergehen, wer weiß ob das überhaupt jemals passieren wird. Bis dahin sind schon die Nachfolger der Full-Fusion auf dem Markt.
 
Zuletzt bearbeitet:
@nanoworks

Du bekommst das Gefühl... naja, es wäre wünschenswert, wenn AMD Erfolg damit hat. Aber was du schreibst wirkt doch letztendlich auch etwas einseitig.

Wie kommst du darauf das AMDs Fusion günstiger zu produzieren ist?

Und welche Schwachstellen hat Xeon Phi? Bei der vorraussichtlichen Rechenleistung dieser Chips von teuren Standheizungen zu sprechen finde ich etwas seltsam. Und das eine Teil der Technik davon bereits in derzeitige Desktop CPUs geflossen ist, scheint dir zu entgehen.

Und was ist der Unterschied zwischen einer APU und einer modular aufgebauten Intel CPU wie etwa Ivy Bridge mit dx11 GPU Kernen? Ich sehe keinen.
 
Zuletzt bearbeitet:
calluna schrieb:
Wie kommst du darauf das AMDs Fusion günstiger zu produzieren ist?

Das habe ich vor ein paar Seiten schon erklärt:

AMD verwendet "alte" Architekturen für die APUs. In Llano kommt ein kleiner VLIW5 zum Einsatz, in Trinity ein kleiner VLIW4 und erst in Kaveri wird ein kleiner GCN eingesetzt werden. Heute ist GCN zwar noch relativ teuer, aber 2013 wird es deutlich billiger zu fertigen sein. AMD macht das sehr klug und kann von hohen Yield-Raten profitieren und dementsprechend sind auch die Preise der APUs ziemlich niedrig.

calluna schrieb:
Und welche Schwachstellen hat Xeon Phi? Bei der vorraussichtlichen Rechenleistung dieser Chips von teuren Standheizungen zu sprechen finde ich etwas seltsam.

Wenn ich mich recht erinnere wird Xeon Phi 8GB Speicher verwenden und 300Watt verblasen. Sorry, für mich ist das eine Standheizung. Für den Heimanwender ist Xeon Phi nicht von Bedeutung, es ist ein Konzept für Workstations. APUs werden für den Heimanwender entwickelt. Wir reden hier über zwei paar Schuhe. Das ist genauso als würden wir eine HD 7870 mit einer Nvidia Quadro Karte vergleichen: Es macht keinen Sinn.

calluna schrieb:
Und was ist der Unterschied zwischen einer APU und einer modular aufgebauten Intel CPU wie etwa Ivy Bridge mit dx11 GPU Kernen? Ich sehe keinen.

Derzeit sieht man keinen Unterschied, weil die IGP in der APU nur für Grafikberechnungen herangezogen wird. Interessant wird es erstmals mit Kaveri (Bulldozer 3 + GCN 1) und richtig interessant wird es mit der Full-Fusion (Bulldozer 4 + GCN 2). Dann wird die IGP auch für GPGPU genutzt und dann werden viele, viele Menschen erstmals verstehen, was der Sinn hinter AMD Fusion ist.
 
Zuletzt bearbeitet:
Ich denke dass das zu sehr überschätzt wird.
Naja, theoretisch macht die letzte Ausbaustufe von Fusion dann keinen Unterschied mehr ob eher für CPU oder GPU geeignet und hat einfach einen Batzen Rohleistung zur Verfügung der dann zum Arbeiten beginnt. Wie gesagt am besten auch noch Thread unabhängig egal ob 1 oder 1Million Threads. Je nachdem was vom Programm gefordert wird wird innerhalb von der TDP angepasst und der Job einfach erledigt. Das wäre die perfekte Fusions APU. Sollte das so realisierbar sein ist es ein weiterer Meilenstein... Dauert aber wie gesagt noch min. 5 Jahre bis die fertig ist.
 
nanoworks schrieb:
Wenn ich mich recht erinnere wird Xeon Phi 8GB Speicher verwenden und 300Watt verblasen. Sorry, für mich ist das eine Standheizung.
Was sind an acht GiByte Standheizung? Davon ab gibt's keine Tests einer Phi-Karte, die schnelleren Boards haben schlicht 6+8-Pin, was theoretisch 300W sind. Es könnten aber auch real nur 230 Watt sein und am Ende ist nur wichtig, ob wie Rechenleistung und damit die Effizienz passt.

nanoworks schrieb:
Derzeit sieht man keinen Unterschied, weil die IGP in der APU nur für Grafikberechnungen herangezogen wird. Interessant wird es erstmals mit Kaveri (Bulldozer 3 + GCN 1) und richtig interessant wird es mit der Full-Fusion (Bulldozer 4 + GCN 2). Dann wird die IGP auch für GPGPU genutzt und dann werden viele, viele Menschen erstmals verstehen, was der Sinn hinter AMD Fusion ist.
Die iGPU wird schon jetzt für GP-GPU genutzt. Lustigerweise ist derzeit bei Intel die Verschmelzung aus iGPU und CPU in Hardware enger, da beide am Ringbus und dem LLC hängen - wenngleich bei AMD die Software beide parallel ansprechen kann.
 
@nanoworks

Man kann sich aber auch fragen: wozu GPGPU mit einer iGPU in einer CPU wenn man so etwas wie AVX 1 und 2 hat? Zumal damit nicht die gleichen Nachteile wie mit GPGPU verbunden sind.

Und die IGP im Ivy Bridge kann für GPGPU benutzt werden. Wie gesagt, ich sehe da keinen Unterschied zu einer APU. Für mich ist das nur Marketing. Die Sinnhaftigkeit einer Fusion hängt letztendlich auch davon ab, ob der Anwendungsfall, für den heutige GPUs geschaffen wurden, in der Zukunft noch besteht oder nicht.

PS: Die Preise sind bei AMD wohl kaum nur wegen den hohen Yield-Raten niedrig.
 
Zuletzt bearbeitet:
obi68 schrieb:
10 % Leistungssteigerung von Sandy- auf Ivy Bridge. 10 % Leistungssteigerung von Ivy Bridge auf Haswell. Dazu sage ich nur mickerig. Die Konkurrenz von AMD, bis auf die Grafikeinheit, wird schmerzlich vermisst.

Was heißt mickrig? Sandy->Ivy wurde praktisch nicht an der Architektur geändert...
 
Deswegen sind die 10% von Ivy auf Haswell (mit Architekturänderungen) mickrig. So war's glaube ich gemeint.
 
nanoworks schrieb:
Wenn ich mich recht erinnere wird Xeon Phi 8GB Speicher verwenden und 300Watt verblasen. Sorry, für mich ist das eine Standheizung. Für den Heimanwender ist Xeon Phi nicht von Bedeutung, es ist ein Konzept für Workstations. APUs werden für den Heimanwender entwickelt. Wir reden hier über zwei paar Schuhe. Das ist genauso als würden wir eine HD 7870 mit einer Nvidia Quadro Karte vergleichen: Es macht keinen Sinn.
Der Xeon Phi hat auch in Workstations auch nur in sehr seltenen Fällen etwas zu suchen. Der Gegner heißt nicht Quadro, sondern Tesla.

Der Phi ist für SuperComputing-Anwendungen gedacht, wo der (u.U. schon bestehende) (x86-) Code mit vertretbarem Aufwand auf Many-Core optimiert werden kann, ohne auf zusätzliche Frameworks wie CUDA oder OpenCL zurückgreifen zu müssen.

Immerhin hat der Phi auch ein eigenes LinuxOS on board und lässt sich über IP ansprechen.

Und die 1 TFLOP/s x86-Durchsatz bei <= 300 Watt sind gemessen an dem, was die normalen CPUs leisten, an Effizienz nicht zu überbieten.
 
y33H@
Kaveri hat schon einen "unified Address Space for CPU and GPU"
Haswell wird einen l4 cache für die igp einführen.

So was klingt da mehr nach einer APU ?
Llano hat den ersten schritt gemacht und hier ging es um CPU und igp auf dem gleichen Die mit der gleichen Fertigungsgröße.
Je nachdem was vom Programm gefordert wird wird innerhalb von der TDP angepasst und der Job einfach erledig
Trinity führt mit seinem Turbo erst mal richtig die Technik ein. Auf Tom's Hardware kann man das sehr gut verfolgen, dass scheinbar der single core turbo, der Grafik Turbo ect funktionieren.
Denn das ist ja auch ein Grund wieso Trinity beim Gaming weniger verbraucht als SB bzw IB mit den wesentlich schwächeren igps.
Jetzt 2013 kommt Kaveri, dessen cores mit der igp den Adressraum teilt. Interessant wäre, wenn man schon beide auf die Register zugreifen könnte. Denn dann wäre die Integration da.

wozu GPGPU mit einer iGPU in einer CPU wenn man so etwas wie AVX 1 und 2 hat
Das ist übrigens Intels Gegenstück/Reaktion, ähnliche oder gleiche Aufgaben zu erledigen.
Wenn eine APU ebenfalls kann, wäre es schön, wenn CPU und AMD Steam cores parallel auch noch aufgaben abarbeiten könnte.

Die FPU war übrigens auch, oder ist es immer noch, ein Co-Prozessor, der damals auch vom MB in die CPU gewandert ist.

http://www.extremetech.com/computin...md-cpu-performance-by-20-without-overclocking

@Haswell
Naja ich glaub, Haswell wird ebenfalls nicht als APU gesehen werden. Auch wenn es ein "Marketing Name" ist. Was übrigens Legitim wäre, denn ein ipod ist auch ein MP3_player zeigt aber trotzdem Unterschiede auf.
Ich glaube für Intel wird der igp Ausbau ein großer Schritt sein, doch die Leute werden sich in erster Linie die CPU kaufen.
Das sollte ja bei der APU andersrum sein. Momentan kauft man die APU wegen der igp. Doch sobald die CPU und APU endlich effizient zusammenarbeitet wird man die APU hoffentlich auch als diese sehen.

Wenn man aber bedenkt dass Haswell schon ein SoC ist, wird man besonders bei Notebooks, diese Kombination mehr als Paket entdecken. Denn mit einer Performance einer 7660 würde Haswell eine Performance bieten, mit der man schon relativ gut zocken kann.
Leute die dann eben lieber zu Intel greifen, würden dann auch eher zu der greifen, selbst wenn AMD 25-30% mehr GPU (Gaming)-Performance liefern würde.

NV wird wahrscheinlich nur mehr High-End und höhere Mittelklasse gpus verkaufen. Denn weder Intel noch AMD wären von einer dgpu interessiert die unterhalb deren igp befinden würde. Unterklassen dgpus wären nur für AMD aufgrund von Hybrid CF interessant.
Weiteres glaube ich dass Optimus eventuell immer unwichtiger werden könnte.

Andere Frage, NV hat doch Lizenzen mit Intel oder umgekehrt. Die Laufen glaub ich ja in paar Jahren ab oder ?
Ich bin mir relativ sicher. Die igp bei Intel ist nur eine Lösung für einen bestimmten Zeitraum. Die wollen fix MIC integrieren.

Haswell wird sicherlich ein Burner werden. Sehe aber sein Aufgabengebiet mehr für das Notebook angepasst, als für den Desktop-Rechner.
 
Zuletzt bearbeitet:
y33H@ schrieb:
Was sind an acht GiByte Standheizung? Davon ab gibt's keine Tests einer Phi-Karte, die schnelleren Boards haben schlicht 6+8-Pin, was theoretisch 300W sind. Es könnten aber auch real nur 230 Watt sein und am Ende ist nur wichtig, ob wie Rechenleistung und damit die Effizienz passt.

Mit den 8 GB GDDR5 Speicher wollte ich auf einen hohen Preis hindeuten, die 300W bezogen sich auf die Standheizung.

Ich will die Rechenleistung von Xeon Phi überhaupt nicht anzweifeln und das habe ich auch nie getan. Ich will Xeon Phi auch nicht die Daseinsberechtigung absprechen. Meine Kernaussage ist aber, dass Xeon Phi kein Produkt für den Heimanwender sein wird, ganz im Gegenteil zu den AMD APUs.

y33H@ schrieb:
Die iGPU wird schon jetzt für GP-GPU genutzt. Lustigerweise ist derzeit bei Intel die Verschmelzung aus iGPU und CPU in Hardware enger, da beide am Ringbus und dem LLC hängen - wenngleich bei AMD die Software beide parallel ansprechen kann.

Ich denke das GPGPU auf IGPs derzeit ziemlich vernachlässigbar ist, sowohl auf Intel als auch auf AMD Chips und deswegen wird das Prinzip der APUs auch immer wieder in Frage gestellt. Es funktioniert zwar, aber es ist alles andere als befriedigend, weder für die Entwickler, noch für die User. Es müssen noch ein, zwei Jahre ins Land ziehen bis wir da interessante Ergebnisse sehen werden.

calluna schrieb:
Man kann sich aber auch fragen: wozu GPGPU mit einer iGPU in einer CPU wenn man so etwas wie AVX 1 und 2 hat? Zumal damit nicht die gleichen Nachteile wie mit GPGPU verbunden sind.

GPGPU bietet extreme Rechenleistung, ist derzeit aber schwer zu programmieren, was hauptsächlich an der Kommunikation zwischen CPU und GPU liegt. Da gibt es viele Hürden, die für die Entwickler mit der Konstellation aus diskreter CPU und diskreter GPU unüberwindbar sind.

Die Fusion baut diese Hürden langsam ab, mit der Full-Fusion sollen sie komplett eliminiert werden. Es geht hier also in erster Linie darum, dem Entwickler für jedes Problem das richtige Werkzeug an die Hand zu geben. Im Klartext: Es geht um Effizienz. Stell dir den hochgezüchteten Multicore als eine Brechstange vor, mit der du jede Tür in einem Hochhaus aufbrechen kannst. Es kostet viel Kraft, es macht krach, es geht viel kaputt, aber am Ende sind die Türen auf. Die Full-Fusion ist dagegen ein Schlüsselbund, der für jede Tür den passenden Schlüssel vorweisen kann. Effektiv und schnell.

Das Ziel ist einen Chip zu bauen, der für jede Aufgabe die richtige Lösung parat hat: Sequenzielle Aufgaben? Kein Problem, das erledigt einer der x86-Kerne. Parallelisierbare Aufgaben? Das ist was für die Streamprozessoren.

Und über was für Verbesserungen an der Architektur reden wir da genau? Einheitliche Adressräume, ein kohärenter Speicherpool, Context Switching für die IGP, usw. Es reicht also nicht, möglichst viele Shader und potente x86-Kerne auf ein Die zu quetschen und dann Saft zu geben. Die Kommunikation zwischen den Einheiten muss stimmen und das tut sie derzeit nicht. Deswegen wird GPGPU trotz der extremen Rechenleistung von den Entwicklern nur so stiefmütterlich behandelt.

calluna schrieb:
Die Preise sind bei AMD wohl kaum nur wegen den hohen Yield-Raten niedrig.

Doch, ich denke schon. AMD designed die APUs sehr konservativ. Alte Fertigungsverfahren, alte Architekturen, aber dafür hohe Yields und funktionierende Treiber. Das ist der Hauptgrund warum die so günstig verkauft werden können.
 
Zuletzt bearbeitet:
pipip schrieb:
Kaveri hat schon einen "unified Address Space for CPU and GPU". Haswell wird einen l4 cache für die igp einführen. So was klingt da mehr nach einer APU ?
Llano hat den ersten schritt gemacht und hier ging es um CPU und igp auf dem gleichen Die mit der gleichen Fertigungsgröße.
HSW und Kaveri sind die Zukunft, in beiden Fällen kannst du iGPU und CPU nutzen - in wie fern HSW den Adressraum koppelt, gilt es abzuwarten (ist ja bald IDF). iGPU und CPU auf einem Die gab's übrigens von Intel schon anno 2009, Stichwort Pineview.

nanoworks schrieb:
Mit den 8 GB GDDR5 Speicher wollte ich auf einen hohen Preis hindeuten, die 300W bezogen sich auf die Standheizung. Ich will die Rechenleistung von Xeon Phi überhaupt nicht anzweifeln und das habe ich auch nie getan. Ich will Xeon Phi auch nicht die Daseinsberechtigung absprechen. Meine Kernaussage ist aber, dass Xeon Phi kein Produkt für den Heimanwender sein wird, ganz im Gegenteil zu den AMD APUs.
Die 300W sind wie gesagt erst mal nur graue Theorie und die Effizienz kennen wir auch nicht. Phi ist weiterhin ein reines HPC-Produkt, die APUs freilich nicht (wenngleich sich das ändern wird).
 
nanoworks schrieb:
aber dafür hohe Yields und funktionierende Treiber. Das ist der Hauptgrund warum die so günstig verkauft werden können.

Offensichtlich ist die Produktion so gut, das viel zu viel produziert wird, sodass die Nachfrage viel kleiner als das Angebot ist :freak:
wird wohl etwas komplexer sein.
Eher hat man viel von Produktionsschwierigkeiten gehört(Im zusammenhang mit allem wo CPU drin steckt), zu beginn, das sich das so gewendet hat, ich weiß ja nicht ...
 
Der absolute Oberknaller wäre natürlich, wenn eine der NextGen-Konsolen eine Full-Fusion-Light oder gar eine echte Full-Fusion besitzen würde. Dazu noch eine dedizierte GPU für Grafik. Das würde bei guter Auslastung ganz neue Möglichkeiten für KI, Physik und dergleichen eröffnen und selbst ein heutiger Core i7 würde nicht mehr hinterkommen.

Beim Thema APU muss ich sowieso immer an Konsolen denken, genauer gesagt an den IBM Cell der PS3. Das Prinzip des Cell ist dem Prinzip einer APU gar nicht mal so unähnlich, allerdings hat Sony keine optimale Balance zwischen den rechenstarken SPEs und dem PPE gefunden. Der Cell deutete schon 2006 an, was man mit Parallelisierung erreichen kann, jedoch hat er auch gezeigt, in welche Fallen man tappen kann. AMD wird mit mehreren out-of-order x86 Kernen aber deutlich besser aufgestellt sein als der Cell mit seinem in-order PowerPC Single Core.


@ ExcaliburCasi:

Trinity wurde mal verschoben, dass ist richtig. Aber soweit ich mich erinnern kann wurde als Grund Designprobleme und nicht Fertigungsprobleme angegeben.
 
Wo wir gerade beim <ich denke> bin.
Ich denke, dass Intel mit Haswell bei der iGPU stärker werden musste (man spricht ja von dem Faktor 3), weil die Notebook Hersteller Druck machen. Das hat wirklich nichts mit dem Desktop zu tun, wo ich mir eine Grafikkarte stecke und gut ist.
Auf der anderen Seite mit einer starken und sparsamen CPU bei Haswell und sehr guter iGPU und dem Ein Chip Design ist Intel für mobile Geräte sehr gut aufgestellt.
Die Treiber müssen halt funktionieren.
 
@nanoworks

Das Xeon Phi kein Produkt für den Heimanwender ist, dürfte hier wohl jedem klar sein. Aber bei der Betrachtung der Technik spielt das keine Rolle. Xeon Phi ist ein möglicher Ausblick auf zukünftige Technik im Desktop Bereich von Intel - und das liegt nicht weiter in der Zukunft als eine "Full Fusion" von AMD.

Und so einfach, wie du es darstellst, ist es nicht. Parallelisierbare Probleme sind von unterschiedlicher Komplexität.
 
nanoworks schrieb:
Viel Marketing-Blabla um zu umschreiben, dass man den Weg, den AMD mit Fusion eingeschlagen hat, einfach mal nachgehen wird.

Wie kann man jemandem nachgehen, der um Jahre hinter einem zurückliegt? :evillol:
 
Was die Fusion von CPU und GPU angeht ist Intel mindestens leistungsmäßig im Hintertreffen, da hat nanoworks schon Recht. Wie weit sie von der Architektur noch aufholen müssen, kann vermutlich keiner von uns hier genau sagen.
 
Zuletzt bearbeitet:
Ich finde es erstaunlich, dass die CPU von vielen heute noch so wichtig genommen wird.
Rechenleistung ist allerorts mehr als genug vorhanden, wird vielfach kaum oder nur schlecht genutzt
und x Jahre alte Technik reicht bei weitem.

http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=816

Vor allem bei den Spielern bin ich immer wieder überrascht wie ahnungslos immer um jeden Preis ein
dicker i5 oder i7 verbaut werden muss, wenns selbst eine Steinzeitcpu leicht tut.
Wieso von einem schnellen Core2Quad oder Phenom II aufrüsten?
Völlig sinnfrei für Gamer....
Aber gerade die Gamer, die Ahnungslosen, machen die AMD Technik schlecht, obwohl sie gar nicht
von der Leistung der schnelleren CPU profitieren können.

Aber zum Glück geht es im Desktopmarkt nicht darum wer 10-20% mehr Leistung aus seinen CPU kitzeln kann. Oder wer grad die Schnelleren hat. Sondern eher um ein passendes Paket und Marketing.

Weiterhin geht AMD momentan klar den richtigen Weg. Durch die Integration gewisser APU's oder GPU's in den Next Gen Konsolen (mindestenes mit GCN) werden die Entwickler gezwungen endlich mehr Kerne oder noch besser GPGPU für die Games und für Konsolenports zu verwenden. Ich sag nur Physik oder Partikelberechnungen auf der iGPU. Und da werden viele iGPU (alles uner Ivy bei Intel) gewaltig abstinken.
Ich mein wenn ich mir das hier anschaue, ist es überfällig, dass die brach liegende Leistung endlich genutzt wird.

http://www.tomshardware.de/photosho...pro-opencl-opengl,testberichte-241066-13.html

http://www.tomshardware.de/photosho...pro-opencl-opengl,testberichte-241066-10.html



Da bringt es dann gar nix wenn Intel die IPC zum x ten mal ein paar Prozent anhebt.
Das haben sie inzwischen auch begriffen und konzentrieren sich jetzt arg auf die GPU und ihrer Verwendungsfähigkeit bei GPGPU.
 
Zuletzt bearbeitet:
^ deine Pauschalisierungen sind nicht angebracht und obendrein auch falsch. Spieler können sehr wohl von einer schnellen CPU profitieren. Das wurde hier sicher schon 1000x erklärt, wann und warum.
 
Zurück
Oben