News Ein-Chip-Design von Intels „Haswell“ erst ab Q3/2013?

Die CPU-Preise pro Performance-Klasse sind bei Intel seit vielen Jahren stabil :rolleyes::
 
Kasmopaya schrieb:
Die letzte Fusions Stufe dürfte tatsächlich was reißen.

Ich denke dass das zu sehr überschätzt wird. Deswegen finde ich es auch nach wie vor richtig eine APU als CPU + GPU zu sehen. (Fängt ja teilw. schon damit an dass man getrennte Benchmarks braucht um deren Leistung zu messen.) GPGPU ist für den Durchschnittsentwickler immer noch viel zu umständlich. Ganz abgesehen davon das keine Anwendung von alleine schneller wird durch APUs (ganz im Gegensatz zu einer einer Takt- oder IPC-Steigerung, oder evtl. auch einer Erhöhung der Anzahl der Kerne).

y33H@ schrieb:
AMD könnte den Herstellern ja nahe legen, wie sie ihre Notebooks aufbauen sollen - Intel beschreitet diesen Weg mit den Ultrabooks ja auch.

Ja klar .. und wer befolgt das dann? Selbst bei Intel wollen ja viele nicht mitziehen. Die Notebook Hersteller scheinen, trotz allem, letztendlich mehr darüber zu wissen was der Endkunde will, als die CPU Hersteller - sieht man ja an den Ultrabooks.

Und es sich halt, schon seit ner Weile, in den Köpfen der Leute reingebohrt das AMD und Mobil nicht zusammenpasst. Entsprechend sieht das Angebot dafür aus.
 
Zuletzt bearbeitet:
y33H@ schrieb:
AMD könnte den Herstellern ja nahe legen, wie sie ihre Notebooks aufbauen sollen - Intel beschreitet diesen Weg mit den Ultrabooks ja auch.

Ich denke AMD verfolgt da einen anderen Ansatz als Intel. Sie müssen sich neben Intel auch gegen Nvidia beweisen und das ändert die Situation grundlegend. Ich denke, AMD versucht zwei Fliegen mit einer Klappe zu schlagen:

Wenn man die Situation mal ein wenig genauer betrachtet, dann konzentriert sich AMD derzeit sehr stark auf die Zusammenarbei mit den Softwareentwicklern. AMD arbeitet Hand in Hand mit der Khronos Group zusammen, um GPGPU noch besser in OpenGL zu integrieren. Sie werden von Brancheninsidern als Zulieferer der Grafikhardware aller drei kommenden NextGen-Konsolen genannt, für mindestens eine NextGen-Konsole sollen sie sogar den Prozessor liefern.

Wenn es um Gaming geht, führt in Zukunft also kein Weg an AMD vorbei und die Vergangenheit hat gezeigt, wer Gaming beherrscht, der beherrscht auch den Desktopmarkt. Und wer den Desktopmarkt beherrscht, der wird durch virales Marketing oder durch Freunde an jene empfohlen, die nicht soviel Ahnung von der ganzen Sache haben und sich Mobile kaufen möchten.

Microsoft wird sein Direct-XBox auf AMD Hardware zuschneidern, was direkten Einfluss auf die Weiterentwicklung von Direct-X für Windows haben wird. Sony wird sein PSGL ebenfalls auf AMD Hardware zuschneidern, und die Zusammenarbeit mit Khronos (welche Nvidia aufgrund CUDA und PhysX sowieso hassen wie die Pest) wird AMD zur Nummer 1 in OpenGL Spielen machen. Valve will OpenGL als ernsthafte Konkurrenz zu Direct-X etablieren und unterm Strich bedeutet das: Egal was mit PC-Gaming passiert, AMD wird im Mittelpunkt stehen.

Warum macht AMD das alles?

Das Konzept der Full-Fusion ist extrem abhängig vom Wohlwollen der Entwickler von OS, API und Spielen. Das Prinzip der APU kann nur aufgehen, wenn die hohe Rechenleistung auch abgerufen wird. Kann die Full-Fusion Fuß fassen, dann werden wir den größten Zugewinn an Rechenleistung erleben, den der PC-Markt sein Einführung der Dual-Cores erlebt hat und AMD kann aufgrund des großen Vorsprung in der GPU-Entwicklung seine Muskeln gegenüber Intel spielen lassen und hält dabei gleichzeitig Nvidia in Schach.

Anstatt also ein paar OEMs zu bestechen, wird AMD alles darauf Konzentrieren die Full-Fusion zu unterstützen, damit sich die Dinge von alleine Regeln.
 
Anstatt also ein paar OEMs zu bestechen, wird AMD alles darauf Konzentrieren die Full-Fusion zu unterstützen, damit sich die Dinge von alleine Regeln.
Ja heile AMD Welt und Intel kann nur verkaufen, wenn die bestechen. Ist das was Du sagen wolltest?
Da regelt sich nichts alleine und wenn Du glaubst, das Intel da nur zuschaut, dann lebst Du auf dem falschen Planet.
Pack doch die AMD Kiste ein, weil hier geht es um Intel.
 
Das Prinzip der APU kann nur aufgehen, wenn die hohe Rechenleistung auch abgerufen wird. Kann die Full-Fusion Fuß fassen, dann werden wir den größten Zugewinn an Rechenleistung erleben, den der PC-Markt sein Einführung der Dual-Cores erlebt hat und AMD kann aufgrund des großen Vorsprung in der GPU-Entwicklung seine Muskeln gegenüber Intel spielen lassen und hält dabei gleichzeitig Nvidia in Schach.

Bis dahin , bis nicht nur mehr Codierungsprogramme von der GPU profitieren, bis dahin gibt es aber schon leistungsfähigere GPU Varianten in der Intel CPU , so stark ist der Abstand bei AMD dann auch nicht mehr.
 
MikelMolto schrieb:
Da regelt sich nichts alleine und wenn Du glaubst, das Intel da nur zuschaut, dann lebst Du auf dem falschen Planet.

Ich habe am Anfang meiner Argumentation vor ein paar Seiten behauptet, dass der Schritt von Intel der in der News angesprochen wird, die Reaktion auf AMDs Vorhaben mit Fusion ist. Da wurde ich dann dumm angemacht. Jetzt machst du mich dumm an, weil du denkst, ich würde glauben, Intel würde nicht auf Fusion reagieren.

Entscheidet euch mal bitte... :rolleyes:


MikelMolto schrieb:
Pack doch die AMD Kiste ein, weil hier geht es um Intel.

Warum so aggro?

Er hat mir eine Frage gestellt, ich habe sie ihm beantwortet.

Voyager10 schrieb:
Bis dahin , bis nicht nur mehr Codierungsprogramme von der GPU profitieren, bis dahin gibt es aber schon leistungsfähigere GPU Varianten in der Intel CPU , so stark ist der Abstand bei AMD dann auch nicht mehr.

Es geht hier nicht nur um schiere Rechenleistung. AMD hat seine komplette Architektur der CPU und GPU Sparte für diesen Zweck umgestellt. Bulldozer und GCN sind auf die Full-Fusion optimiert. Wenn man mal sieht welche Opfer AMD dafür bringen musste und wie lange dieser Prozess dauert, dann glaube ich nicht, dass die Intel APU einfach so vom Himmel fällt.
 
Es geht hier nicht nur um schiere Rechenleistung

Genau darum geht es aber hast du selbst gesagt , das diese Rechenleistung in dem CPU+GPU Konzept auch breitflächig genutzt werden kann zb über verschiedene grafische Programmierungsschnittstellen wie DirectX OpenGL und OpenCL . Der große AMD Trumpf schmilzt schon nächstes Jahr dahin mit der stärkeren Haswell GPU .
Antiviren Buden wollten schon vor Jahren das GPU Potential nutzen was sich auf Liano und Trinity marketingtechnisch hätte auswirken können aber das Potential liegt beim Ottonormalverbraucher der nichts codiert immernoch brach , bis es aber soweit ist hat Intel aufgeholt das wirste sehen.
 
Zuletzt bearbeitet:
Voyager10 schrieb:
(...)bis es aber soweit ist hat Intel aufgeholt das wirste sehen.

2006 kam der Intel Core2Duo auf den Markt und AMD, bis dahin Hersteller der schnellsten Desktopprozessoren, hat gemerkt, dass Intel die nächsten Jahre dominieren wird, denn eine CPU Architektur braucht lange Entwicklungszeit. AMD hat das Prinzip kopiert, aber konnte nie an die Leistung der Intels anschließen.

Im selben Jahr hat AMD den Grafikkartenhersteller ATI für 5,4Mrd Dollar gekauft. Als Reaktion? Damit wurde jedenfalls der Grundstein für die Fusion gesetzt. Die Full-Fusion soll frühestens 2014 auf den Markt kommen, was dann acht Jahre Entwicklunszeit beträgt. Wie soll Intel diesen Vorsprung so schnell aufholen? AMD hat es auch nie geschafft, Intels Core Architektur einzuholen.

Die Entwicklung einer Prozessorarchitektur ist ein extrem langwieriger Vorgang über viele Jahre hinweg. Intel hat Vergleich zur Situation mit den Multicores natürlich deutlich bessere Bedingungen um AMD Fusion einzuholen, aber zaubern können die auch nicht.
 
Cytrox schrieb:
Die Notebook Hersteller scheinen, trotz allem, letztendlich mehr darüber zu wissen was der Endkunde will, als die CPU Hersteller - sieht man ja an den Ultrabooks.
Nun, dann entspreche ich wohl in vielerlei Hinsicht nicht DEM Endkunde, ein für mich passendes Gerät haben nur sehr weniger Hersteller im Programm. Schade.

nanoworks schrieb:
[...]

Warum macht AMD das alles?

Das Konzept der Full-Fusion ist extrem abhängig vom Wohlwollen der Entwickler von OS, API und Spielen. Das Prinzip der APU kann nur aufgehen, wenn die hohe Rechenleistung auch abgerufen wird. Kann die Full-Fusion Fuß fassen, dann werden wir den größten Zugewinn an Rechenleistung erleben, den der PC-Markt sein Einführung der Dual-Cores erlebt hat und AMD kann aufgrund des großen Vorsprung in der GPU-Entwicklung seine Muskeln gegenüber Intel spielen lassen und hält dabei gleichzeitig Nvidia in Schach.

Anstatt also ein paar OEMs zu bestechen, wird AMD alles darauf Konzentrieren die Full-Fusion zu unterstützen, damit sich die Dinge von alleine Regeln.
Dann schauen wir doch mal, wie sehr sich die Software am Ende des Tages entwickelt - der Kollege Fischer hat sich darüber ja bereits süffisant ausgelassen.
Kommentar: Fauler Zauber schrieb:
Ich habe noch kein zwingendes Argument für einen APU-Kombiprozessor der Marke Trinity oder Llano gehört, AMD kann also weiterhin nur an der Preisschraube drehen.
Das Prinzip der APU verpufft, wenn man nahezu ausschließlich Notebooks mit zusätzlicher dedizierter GPU verkauft (am besten noch mit "Dual Graphics"-Unfug) und reine APU-Geräte Mangelware sind, zumal echte Ultrathins ebenfalls kaum zu bekommen sind [ein 11,6er Zenbook Prime wie das UX21A-K3005V mit Trinity-17W-ULV würde ich sofort kaufen!]. Da kann AMD noch so oft auf die GPU-Beschleunigung pochen, bisher sieht's schlicht mau aus - gerade für Otto Normal, denn dem bringt die höhere GPU-Leistung in der Praxis aktuell wenig bis nichts.
 
Was heißt hier Dämpfer?

Es ist seine Meinung und die ist nicht mehr wert als meine oder deine Meinung.

Ich denke der Herr Fischer übertreibt es mit seiner Kritik ein wenig und das ist meine Meinung zu seiner Meinung. Was hat er erwartet? Einen funktionierenden Full-Fusion Chip der sämtliche Benchmarks dominiert? Da wird er noch mindestens 24 Monate warten müssen. Vielleicht auch 36 Monate.

Auf dem Treffen wurde die neugegründete Allianz aus AMD, ARM und Co vorgestellt, die HSA Foundation. Das war der Sinn dieser Veranstaltung. Mehr nicht. Er hat aber mehr erwartet und das ist der Punkt wo er selber Schuld ist:

Wenn dieser Redakteur erwartet, dass bei jedem Presseevent jedes x-beliebigen Hardwarestellers, für das er womöglich um die halbe Welt reisen muss, jedes Mal eine neue Rakete gezündet wird, dann wird er in seinem Leben noch so manche Rückschläge erleiden müssen. Deswegen aber direkt die Grundsatzfrage zu stellen halte ich für reichlich überzogen. Nach der selben Logik könnte man auch argumentieren "Keine NextGen-Konsolen auf der E3 2012! Machen NextGen-Konsolen überhaupt noch Sinn?"

Die Fusion wird kommen, das ist unausweichlich. Wenn sie für seinen Geschmack zu langsam kommt, dann kann man das auch diplomatischer ausdrücken, anstatt seine Skepsis mit derart zynischen Frotzeleien abzufeuern. Aber man braucht ja Klicks, nicht wahr?
 
Zuletzt bearbeitet:
könnte man für destop oder gamer pc´s nicht eine cpu bauen die keine grafikeinheit hat? ich meine wenn mans nicht braucht ist es nur platz verschwendung
 
bf3_3amer schrieb:
könnte man für destop oder gamer pc´s nicht eine cpu bauen die keine grafikeinheit hat? ich meine wenn mans nicht braucht ist es nur platz verschwendung

da intel das nicht tut, kann man davon ausgehen, das es teurer ist eine separate produktionslinie ohne iGPU zu fahren, als einfach alle cpus mit selbiger zu bauen ;) bei nichtnutzung entstehen dir ja auch keine nachteile durch die iGPU.
 
nanoworks schrieb:
Es ist seine Meinung und die ist nicht mehr wert als meine oder deine Meinung.

Es bringt aber das Problem auf den Punkt. Der Großteil der Software profitiert nicht davon, und es wird sich daran so schnell auch nichts ändern.
 
obi68 schrieb:

Bei Shrinks ist nie davon die Rede, die Leistung steigern zu lassen. Sondern eher effizienter zu werden.
Erst neue Architekturen wollen auch andere Leistungen versprechen. Und denke von Ivy -> Haswell müsste in dem Fall viel mehr sein als Sandy -> Ivy.

Informier dich erst mal über Tock-Tick von Intel, bevor du so ein Mist verzapfst, danke.
 
Lunerio schrieb:
Bei Shrinks ist nie davon die Rede, die Leistung steigern zu lassen. Sondern eher effizienter zu werden.

mit der gestiegenen effizienz, lässt sich in der regel aber auch die Performance steigern, wenn man im Rahmen der alten Leistungsaufnahmen bleibt.
Bei einem Shrink ist also auch immer ein Performanceschub möglich, jenachdem auch mal ein beachtlicher.
Auch Ivy hätte mehr performanter werden können, abgesehen von dem Kühlungsproblemchen.
Hier ist möglicherweise bei AMD, wenn sie in dieser Region ankommen, weniger hindernis durch dieses problem zu erwarten, da ihr Moduldesign voluminöser ist.

Grundsätzlich ist es also egal ob Shrink oder Architekturwechsel, eine performance verbesserung darf man immer erwarten.
 
Voyager10 schrieb:
Das dürfte den AMD Folienfan Verwöhnten einen kleinen Dämpfer verpasst haben warum die AMD APU immernoch kein wirklicher Vorteil trotz der stärkeren Haswell GPU ist.

Die heutige Softwareentwicklung schafft es im Regelfall nichtmal eine Quadcore auszulasten, von 2stelligen Core-Zahlen mal gar nicht gesprochen. Wie sollte man da erwarten können, dass man GPGPU hinbekommt, welches noch mehr Aufwand ist und viel weniger in das aktuelle Programmiermodell passt.

Es wird sich die nächsten Jahre bzw. Jahrzehnte eines zeigen, die aktuell beliebten Sprachen sind unfähig für die Multicore-Revolution, da manuelles Threading zu viel Aufwand ist. Aktoren und Co. gehören die Zukunft und - oh Wunder - die lassen sich noch schlechter auf GPGPU übertragen, skalieren dafür aber auf tausende Cores. GPGPU ist ein Hype, ein Randbereich aber nicht die Zukunft, wenn sich AMD darauf versteift, dann sehen sie bald sehr alt aus. Die sollen sich lieber wieder ihren Many-Core-Architekturen zuwenden, und da wirklich Many-Core mit zweistelligen Zahlen machen.


Möglicherweise werden auch Intel und AMD den Markt verschlafen und ARM wird den Markt dominieren. ARM Kerne sind zwar vielfach schlechter, aber sehr viel stromsparender. Es gibt bereits von IBM Experimente in Server ganze 48 und mehr ARM-Kerne in mehreren CPUs einzusetzen. Da würde dann bei angepasster Software (Aktoren, Hint Hint!) solch ein Server einem Intel und AMD Server wegrennen. Dutzende langsamere einzelne Kerne schlagen da wenige schnelle Kerne um Längen, das sind dann Welten. Und möglicherweise würde es auch in Einzug in den Desktop-Bereich finden, Windows 8 wird ARM unterstützen, die Weichen wären gestellt.
 
Zuletzt bearbeitet:
ice-breaker schrieb:
Die heutige Softwareentwicklung schafft es im Regelfall nichtmal eine Quadcore auszulasten, von 2stelligen Core-Zahlen mal gar nicht gesprochen. Wie sollte man da erwarten können, dass man GPGPU hinbekommt, welches noch mehr Aufwand ist und viel weniger in das aktuelle Programmiermodell passt.

Du siehst das Problem falsch. Läuft bei dir auf dem PC nur ein Programm zur zeit?

Selbst ein Programm das nicht parallelisiert ist, oder sich gar nicht parallelisieren lässt, oder ein Programm das schon in den 90ern geschrieben und kompiliert wurde, profitiert von Systemen mit mehr Kernen, weil die Prozesse einfach kürzer warten müssen bis sie Rechnen dürfen. (Deswegen ist es auch berechtigt das viele darüber verärgert sind das Intel die 6-Kerner der breiten Masse vorenthält.)

Bei GPGPU Zeug hingegen profitieren nur eine Handvoll explizit darauf ausgelegter Programme .. und bei denen darf man sich sich dann auch noch oft genug mit Treiberdetails rumschlagen.

ice-breaker schrieb:
Es wird sich die nächsten Jahre bzw. Jahrzehnte eines zeigen, die aktuell beliebten Sprachen sind unfähig für die Multicore-Revolution

Programmiersprachen hatten bisher als Hauptaufgabe Entwicklern das Leben einfacher zu machen, in dem sie einerseits effizientes Arbeiten ermöglichen und andererseits möglichst wartbaren Code ermöglichen bzw. erzwingen. Nicht umsonst haben es Sprachen wie Java, C#.Net oder auch PHP zu so einer großen Verbreitung geschafft.

Ich denke nicht dass diese Aspekte in Zukunft wesentlich an Bedeutung verlieren werden .. solange nach wie vor Hardware günstiger wird, während Entwickler teurer werden.

ice-breaker schrieb:
Aktoren und Co. gehören die Zukunft und - oh Wunder - die lassen sich noch schlechter auf GPGPU übertragen, skalieren dafür aber auf tausende Cores.

Bist du da sicher? Wie sollen denn die klassischen Desktop-Anwendungen (Word, Eclipse, Azureus, AV/Firewall, Firefox, etc.) von Aktoren profitieren?

Davon abgesehen dass die einzigen Sprachen die das Aktoren-Prinzip "direkt" eingebaut haben eher skurril sind. Falls das wirklich mal breitere Akzeptanz finden sollte, wäre meine erste sorge dass es kaum Entwickler gibt für diese Sprachen die genug Erfahrung haben um darin ernsthafte Programme erstellen zu können.

ice-breaker schrieb:
Da würde dann bei angepasster Software (Aktoren, Hint Hint!) solch ein Server einem Intel und AMD Server wegrennen. Dutzende langsamere einzelne Kerne schlagen da wenige schnelle Kerne um Längen, das sind dann Welten. Und möglicherweise würde es auch in Einzug in den Desktop-Bereich finden, Windows 8 wird ARM unterstützen, die Weichen wären gestellt.

An "passender" Software fehlts im Serverbereich nicht. Da werden mehrere Systeme auf nur einem Server virtualisiert, und schon hat jeder Kern genug zu tun. Nur dann wird halt die I/O zum Flaschenhals..

Und ob ARM-Kerne das gelbe vom Ei sind wenn es darum geht Java oder PHP darauf auszführen? Out-of-order-execution bei x86 macht man schließlich nicht zum Spaß - und so sonderlich manuell optimiererbar sind die "Aktoren-Sprachen" dann ja schlussendlich auch nicht.
 
Zuletzt bearbeitet:
da reicht meine sandy bis endlich skylake kommt "„"
 
pipip schrieb:
Ich finde es recht interessant, dass man über das MIC-Konzept von Intel gar nicht so richtig reden möchte. Hier spricht man zwar von AVX2 ect. Doch es ist genauso zukunftsmusik wie AMDs Fusion Konzept. Doch wird mit einem eher gerechnet als mit dem anderen, obwohl man bei einem eigentlich schon am Konsumer Markt ist.
Was soll man da auch groß drüber diskutieren?

MIC wird erstmal nur als "Co-Prozessor"-Zusatzkarte in Supercomputern oder einigen wenigen Rechnern mit sehr speziellen Anforderungen zum Einsatz kommen. Möglicherweise gibt es dann schon mit Knights Landing(?) oder spätestens mit Knights Hill(?) die 1024-Bit Vector-Erweiterung.

Das Teile dieser Entwicklung mal mit in die "klassischen" CPU-Designs eingeführt werden liegt zwar nahe, wird aber wohl kaum vor der "Sky Lake"-Generation - sprich 2015/16 - stattfinden. Ansonsten würde Intel schon einen radikalen Schritt wagen, schließlich ist "Broadwell" ja auch nur ein Tick.
 
Zurück
Oben