News Intels hohe Ambitionen mit der „Haswell“-Grafikeinheit

MikelMolto schrieb:
Was mich etwas aufregt:
Wenn es um CPU Leistung geht, dann hört man von der AMD Seite, dass die CPU eh schon schnell genug ist und man die Intel Leistung überhaupt nicht braucht. Sobald aber von APU/iGPU gesprochen wird dann kann es gar nicht genug Leistung geben. Ja was denn nun?

/sign

Sachliche Argumentation kann man nunmal nicht von Fanboys erwarten...
 
Glueckspilz schrieb:
Sachliche Argumentation kann man nunmal nicht von Fanboys erwarten...

...und zwar von beiden Seiten. So dreht man sich im Kreis - für Intel-Fanboys ist die IGP-Leistung völlig ausreichend und man braucht nicht mehr, auf der AMD-Seite ist es umgekehrt. Schlussendlich ändert das alles nichts an folgenden Tatsachen:

1. Intel ist bei der CPU meilenweit voraus.
2. AMD ist bei der GPU meilenweit voraus.
3. Sowohl Intels IGP-Leistung, als auch AMDs CPU-Leistung sind für den normalen Heimanwender völlig ausreichend.

Und jetzt noch eine persönliche Meinung: Ich denke allerdings, dass die AMD-APUs das letztlich interessantere Paket sind - denn mit den größeren Modellen ist Gaming bei etwas reduzierten Details bereits sehr gut möglich. Mit den Intel-IGPs, egal wie groß die CPU-Leistung dabei ist, ist das schon deutlich harziger.
 
MikelMolto
Nur das Haswell was IGP angeht, für Intel ebenso Zukunftsmusik ist und zeigen wird, wie man im mobilien Sektor und Tablets mithalten möchte.
Man kann sooft noch unterstellen (wie Glueckspilz) es ist Fanboy Getue, dann Frage ich mich ob " Intel holt jetzt AMD bei GPUs auch ein" dann für ein Fanboy Getue sein soll.
Weiters, glaube ich nicht mehr das HSA, so weit in der Zukunft liegt. Eventuell wird man bei Sony, das Jahr in der PS4 schon erste HSA Funktionen sehen. Nächstes Jahr sogar in Handys und dann wird es sich zeigen, wann das auf den Notebookmarkt zu finden ist.
Ich spreche hier mal klar von bsp Gestern, Mimiksteuerung über eine Webcam, die eventuell von GPUs profitieren könnten.
Das sind Fortschritte, in Software, von denen Harswell zu mindestens nur etwas profitieren kann. Anders eben alle anderen Hersteller die zum Bsp auf ARM setzen.

Mein erster Desktop nach dem Amiga 500 war ein AMD und der hatte einen Co Prozessor.
Genauso wie die FPU auch mal ein Co-Prozessor war. Aber von dieser Integration profitieren wir ja heute gar nicht, stimmts :)

Welchen durchbrechenden Vorteil HSA bei einem nullachtfünfzehn Desktop Rechner für dem Massenmarkt bringen soll, der Internet, Youtube und Facebook macht verstehe ich noch nicht.
Gestensteuerungen, ähnlich wie bei MS Kinect ist ein Bsp, was die GPU schnell berechnen könnte und sofort an die CPU weiterleiten kann.
Weiteres, seit wann rendert man schon auf einer CPU und seit wann kann man auch eine Grafikkarte verwenden ? GPGPU hat zusätzlich Nachteile, verglichen zu einer APU, das ist nämlich das ganze Copy-Back. Nur weil die Bildqualität noch nicht so optimal ist wie auf einer CPU, bedeutet das nicht, dass das sich nicht in einiger Zeit ändern wird, besonders erst recht dann nicht, wenn die CPU diese Aufgaben sowieso mit einer FPU bewerkstelligt, und das rendern auf der gpu verglichen zur CPU noch nicht so alt ist. Und noch mal für dich:
Außerdem stellt die Bibliothek sicher, dass die Anwendung zumindest auf den CPU-Kernen läuft, wenn das jeweilige System die APIs C++ AMP oder OpenCL nicht unterstützt. Mit der Bereitstellung dieser Bibliothek möchte AMD die Komplexität und Entwicklungszeit reduzieren, sodass nicht länger ausschließlich wenige Experten heterogene Systeme programmieren können. C++-Entwickler sollen mit Hilfe dieser Bibliothek in der Lage sein, ihre datenparallelen Anwendungen zu beschleunigen, ohne genaue Kenntnisse über die Programmierung mit Hilfe von C++ AMP oder OpenCL haben zu müssen.
HSA, schließt Intel nicht unbedingt aus, denn die Intel IGP beherrschen OpenCL ebenso.
Ich hab ja schon ein passendes Bsp gegeben, HSA Integration ist vergleichbar mit TressFX und wie ein AMD sprecher schon gesagt hat, man ist nicht so pupertär wie NV und bringt so etwas wie PhysicX auf den Markt. Von den wissen wir ja, wie sehr sich das verbreitet hat.
Es sollte also klar sein, dass HSA, sowas wie 64 bit ist, aber wer weiß, vllt werden sie dann auch nicht die Bezeichnung HSA nehmen, sondern wie damals bei AMD64 ein Intel internen Namen wählen.
 
Zuletzt bearbeitet:
v_ossi schrieb:
Bevor man Intel unterstellt zu lügen, würde ich unabhängige Test abwarten. Fakt ist aber schon jetzt, dass die GPU in meinem i5 450m für Office und das Surfen ausreicht. Selbst für C&C Generals reichts. Alles andere darf aber auch weiterhin schön meine HD 5650 berechnen.

was heißt hier tests abwarten... intel stellt ihre hd4000 auf eine ebene mit der hd6570 und der gtx630 und das ist ne glatte lüge... den sie schafft gerade mal die hälfte der leistung.
 
~DeD~
Ich bin nicht sicher, ist aber nicht die HD 4600 gemeint, die sich auf einem Niveau einer HD 6570 liegen soll ?
Es steht halt nichts genaues da. Eventuell könnte es sein, dass man von Games spricht, bei denen Intel mit den Entwickler gearbeitet haben. Total War zum Bsp, nützt beim neuen Rome 2 den L3 Cache aus. Somit kann die CPU bsp beim Schatten (glaube ich) unter die Arme greifen. Dann kann es schon sein, dass wenn man bei speziellen Games, die gleichen Details einstellt, ein ähnliches Bild bekommt.
 
Zuletzt bearbeitet:
Bevor man mich da falsch versteht und mir etwas unterstellt. Ich bin kein Fan Boy, sondern kaufe das, was am besten zu meinem Anwendungsprofil passt und dabei ist es vollkommen egal welcher Name da drauf steht. Im Augenblick lege ich Wert auf wenig Strom und viel CPU Leistung. Eine APU wäre in meinem Desktop genauso deaktiviert wie meine iGPU es jetzt ist. Ich bin mir aber auch nicht sicher, ob ich in Zukunft eine iGPU vom schlage HD7750 in meiner CPU haben wollte, solange wie ich daraus keine Vorteile in Form von HSA/OpenCl bedingt durch die Verschmelzung CPU/APU habe. Es wird aber schon so sein, dass wir in 2 Jahren solch eine Kombination wie @Pipip schon sagt haben werden um Aufgaben wie Gestensteuerung effektiv zu nutzen. Das ist aber im mobilen Bereich wichtig und hier zählen eben auch andere Dinge, wie Stromverbrauch wegen dem Akku und der Preis. Sobald man da im Massenmarkt denkt, fallen die Margen und man ist im Preiskampf, wo man schon lange nicht mehr alles das bauen kann was möglich ist sondern man muss das bauen, was man verkaufen kann.

Das Heute auf den mobilen Markt hin entwickelt werden muss ist AMD genauso klar wie Intel. Jede Innovation und Verbesserung ist hier auch notwendig und willkommen.
Wir sprechen hier aber von Haswell und Desktop Rechner, wo die Welt schon wieder anders aussieht.
 
Und alle die nur CPU-Power brauchen gehen leer aus? Im mobilen und Office-Bereich interessant, für Gamer nur Ballast.

wer braucht denn all die CPU Leistung ?
es gibt doch heute kaum was das CPU limitiert, zudem hoffe ich das nun endlich mit den APU´S in der nächsten Konsolengeneration das multithreding weiter ausgebaut wird.
 
pipip schrieb:
Weiters, glaube ich nicht mehr das HSA, so weit in der Zukunft liegt. Eventuell wird man bei Sony, das Jahr in der PS4 schon erste HSA Funktionen sehen. Nächstes Jahr sogar in Handys und dann wird es sich zeigen, wann das auf den Notebookmarkt zu finden ist.

Interessiert für den PC Markt null weil wir hier von PC Software reden und nicht von PS4 Games und Handy-Apps.

Und da stell ich dir zwei ganz einfache Fragen:
Wie viele der Programme die du heute nutzt, können 100% von einem Quadcore profitieren?
Wie viele Jahre haben wir jetzt schon Quadcores?

Und genau das gleiche wird bei HSA auch wieder der Fall sein. Sogar noch extremer weil die Quadcores wenigstens von AMD UND INTEL kamen, aber HSA nur von AMD gepusht wird.

Software auf HSA zu optimieren, wird noch viel komplizierter, als das Optimieren auf Quadcore. Da kann AMD noch so viele schöne Präsentationsfolien liefern und noch so viele Bibliotheken releasen die das erleichtern sollen.

Damit HSA funktioniert, müssen die Programme einen Workload haben, der tatsächlich nahezu grenzenlos parallelisierbar ist. Dann ist der potentielle Speedup tatsächlich irrsinnig groß.

Das Problem ist nur: Der Großteil aller Workloads ist eben nicht endlos parallelisierbar. Vieles muss unbedingt in einer bestimmten Reihenfolge ablaufen, und damit in einem einzelnen Thread nacheinander abgearbeitet werden. Und selbst wenn dann mal Parallelisierung möglich ist, dann müssen die Ergebnisse meistens wieder in die richtige Reihenfolge gebracht werden, oder es muss gewartet werden, bis alle Threads fertig sind und man das Endergebnis weiterreichen kann usw.

All diese Probleme kann AMD nicht "wegzaubern" die von dir immer angeführte Programmbibliothek kann nur ein paar Tools anbieten die den Entwicklern zumindest das Setup solcher Systeme erleichtern.
AMD müsste um diese Probleme zu lösen schon die komplette Informatik auf den Kopf stellen. Aber ich habe bisher von AMD noch keine Folie gesehen in denen sie behaupten, dass die APUs nicht mehr einer von Neumann Architektur entsprechen. Wahrscheinlich weil sie Angst hatten, dass bei so einer Folie einige der Anwesenden von Lachen ersticken ;).
 
Wo wird denn die GT3 nun genau verbaut sein? War das nur im Core i7 und in den mobilen CPU's oder wie?
 
pipip schrieb:
Ist das dein ernst. Das ist ja die IGP von den 17 watt ULV Varianten von AMD...

Die HD 4000 ist aber auch bei z.B. den i5 ULV (i5-3317U) CPUs dabei. Die haben ebenfalls eine TDP von max. 17 Watt. Oder übersehe ich da irgendwas?

Ein allgemeiner Vergleich ist ohnehin schwer. AMD bringt halt recht viele GPUs pro Generation. Mir ging es jetzt nur darum, zu zeigen, dass nicht alle GPUs automatisch besser sind.
 
MikelMolto:
Ein gutes Beispiel ist der E-350. Ohne die GPU ist das Ding selbst zum sterben zu langsam. Aber dank der GPU funktionieren Flash und Browser sehr gut (und selbst Spiele wie WoW leidlich). Dinge, die auf einem preislich damals vergleichbaren Atom bei allem jenseits 1024x600 quasi unmöglich waren. So gesehen funktioniert die GPU bei Flash und Co durchaus als Beschleuniger und damit als "ausgelagertes Computing".
Auch wenn das noch lange nicht bedeutet, dass man bei universellem Computing ist. Aber die Ansätze sind da. Und bei OpenCL ist man ja auch dran. Das braucht immer ein paar Generationen länger, bis es nen effektiven Leistungsschub gibt...

Regards, Bigfoot29
 
~DeD~ schrieb:
was heißt hier tests abwarten... intel stellt ihre hd4000 auf eine ebene mit der hd6570 und der gtx630 und das ist ne glatte lüge... den sie schafft gerade mal die hälfte der leistung.

Hab den Artikel gerade noch mal gelesen und hatte mich auf die folgende Aussage bezogen:

"Auch die GT3-Lösung ohne EDRAM soll noch weit oben mitspielen, erst die GT2-Variante mit 20 Execution Units alias HD4200, HD 4400 und HD 4600, die unter anderem in allen Sockel-LGA-1150-CPUs zum Einsatz kommt, soll in der Performance auf das Niveau einer HD 6570 respektive GT 630 rutschen."

Da es hier um zukünftige iGPUs geht meinte ich Tests abwarten.

Aber was die HD4000 aus der Abbildung angeht, ist das sicherlich sehr "optimistisch" betrachtet.
 
Glueckspilz schrieb:
/sign

Sachliche Argumentation kann man nunmal nicht von Fanboys erwarten...

ja, von intel fanboys echt nicht.
hier verstehen wohl einige nicht was HSA genau ist und wofür man OpenCL nutzen kann.

damit einer GPU geht weit mehr als nur videos...
 
CaptainCrazy schrieb:
Die HD 4000 ist aber auch bei z.B. den i5 ULV (i5-3317U) CPUs dabei. Die haben ebenfalls eine TDP von max. 17 Watt. Oder übersehe ich da irgendwas?

HD 4000 im i5-3317U:
Base Frequency: 350 MHz
Max Dynamic Frequency: 1050 MHz

HD 4000 im i7-3720QM:
Base Frequency: 650 MHz (+ 86%)
Max Dynamic Frequency: 1250 MHz (+19%)

Somit dürfte die Grafikleistung der HD 4000 im i7 min. 19% mehr betragen als die HD 4000 im i5 ULV.


Nachtag:

Von daher wird es auch interessant was die GT3 Version in den 15W TDP Haswell-Modellen gegenüber den 47W TDP Modellen leisten wird. Irgendwie müssen ja 32W eingespart werden.
 
Zuletzt bearbeitet:
Elkinator schrieb:
...zeig mir ein beispiel wo AMD so arg gelogen hat...
Der eine nennt es Marketing, der andere Lüge - je nach Fanboy-Ausrichtung.

Aber offenbar geht es Dir nur um die Anhimmelung und Vergötterung von ausschließlich nur AMD, wenn man all Deine Posts so verfolgt?

Auf so einen pubertären Kram habe ich nun echt keine Lust.
 
woher hast du den blödsinn?
ich argumentiere eben sachlich...

und nochmal, wo hat AMD jemals so arg gelogen?

und mit marketing hat das genau NICHTS zu tun...
 
Besonders toll werden die "CPU internen" GPUs auch in Zukunft nicht sein. Denn dafür gibt es einen einfach Grund: Wärme. Um leistungsfähige Grafik produzieren zu können, müsste die Chip Oberfläche immer weiter wachsen. Man vergleiche die Kühlsystem von aktuellen Mittelklasse Grakas, die sind irrsinnig groß. Vom Highend Segment möchte ich gar nicht anfangen. Also auch in Zukunft werden die internen GPUs nur die einfache Budgetklasse bedienen und bestenfalls für OfficePcs zu gebrauchen sein. Gerade für Spieler sind sie also uninteressant. Daran wird sich auch mit Haswell nichts ändern.
 
Elkinator schrieb:
und nochmal, wo hat AMD jemals so arg gelogen?
Bulldozer sagt dir was, ne? Was da an Ankündigungen gemacht wurden :rolleyes:. Und was kam rum? Heiße Luft und zwar ne Menge.

Ist überall das gleiche, trotzdem kann man sich ja (wie ich) bei allen drüber aufregen, hab ja sonst nix zu tun :D
Bei Intel ist es Tatsache, dass sie nicht der Underdog sind, entsprechend wird schnell AMD der Sympathieträger (bei z.B. mir auch), das sollte aber nicht von einer objektiven Debatte ablenken.

Man vergleiche die Kühlsystem von aktuellen Mittelklasse Grakas, die sind irrsinnig groß.
Ne 7750 ist passiv kühlbar, das ganze mit nem I7 t oder s Modell und das lässt sich sicher mit nem Mugen 3 o.Ä, sehr gut kühlen.
 
Zuletzt bearbeitet:
und wo hat AMD über bulldozer unsinn erzählt?
von AMD gab es fast keine informationen darüber...
Ergänzung ()

Tobi4s schrieb:
Bulldozer sagt dir was, ne? Was da an Ankündigungen gemacht wurden :rolleyes:. Und was kam rum? Heiße Luft und zwar ne Menge.
und das ist eben blödsinn, AMD hat nichts angekündigt...
 
Zurück
Oben