Die CPU Kerne berechnen sequentielle Anteile 3x schneller als die GPU Kerne
https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/3/#abschnitt_architekturaenderungen
Vergiss dabei nicht dass es um die neue Architektur handeln wird. Die nicht wie VLIW besteht sondern seriell berechnet. Das heißt du hast bsp 200 shader die quasi wie 200 CPU cores rechnen könnten... soviel ich zu mindestens verstanden hab, oder täusche ich mich. Es hat ja einen Grund warum man sich von VLIW verabschiedet hat.
Die CPU kann die Daten in den Register oder Speicher hauen, gibt den Befehl rein und entscheidet dann ob er jz die CPU oder die GPU zur Berechnung nimmt.
Wenn man ein Development-Kit hat indem man leicht wie bei herkömmlichen Art und Weiße ohne Umstände Programmieren lässt (C++), das heißt eine art Kopplung entsteht (Schnittstellen) , wird es keine Probleme geben die Hardware schritt für schritt anzupassen.
Grafikkarten verwenden auch die Direct x11 Schnittstelle angesprochen. Wenn es dann eine eigene Schnittstelle im Windows gibt (HSA), und in Programmen integriert ist, hat man einen Performance Vorteil gegen über herkömmliche x86 Cores.
Ich weiß nicht ob eine core 4 mal schneller ist in serielle berechnung wie 200 NGC. Würde dann nicht verstehen wieso man dann überhaupt NV-Karten im Server-Bereich (da sie schon C++ unterstützen) dann überhaupt einsetzt.
Wieso es dann überhaupt GrafikRigs gibt mit 4 Tesla Karten und einer CPU ?
Somit ist es gut dass man beim Mainstream anfängt und das anpasst und dann nach oben arbeitet mit der Einführung.
mav82
http://www.tomshardware.de/amd-athlon-k7,testberichte-60-25.html
http://www.tomshardware.de/amd-athlon-k7,testberichte-60-26.html
mit der überlegenen Parallelstruktur und der besseren Pipeline erklärt werden
soetwas könnte dann wieder Realität werden.
Ich glaub dass die 4 M bsp dann im endefekkt nur koordinieren werden
APU klingt für mich irwie nach Athlon 64...
Ich gebe aber dieses mal den Programmiere die Zeit und besonders Microsoft, eine schnittstelle zu integrieren die mir erlaubt alles was ich mache von Stream-Prozessoren berechen zu lassen.
1.Schritt, Highend-Grafikkarten.
2.Schritt, kleine APUs die wir jz kennen die noch umständlich über Umwege unter die ARME greifen.
3.Schritt, selbständiger co-Prozessor. Quasi die CPU teilt ein oder sagt welche Rohdaten (die wenig Rechenleistung benötigt) von der igp berechen soll (die dann wie ein Berserker die Daten parallel abarbeitet).
Wenn man Integeraufgaben der gpu berechnen lassen kann, (integer Datentyp lasst sich bsp in double konvertieren) hat man mit einer GPU eine bessere integer Leistung oder ???
Im Gegensatz zu den integer cores die zwar auch Fließkommaberechnung machen kann, aber weit aus langsamer sind.
Eventuell ist Intel in manchen Szenarien schneller, aber nicht in VideoGames, Videobearbeitung, CAT, Server wo man viel parallel berechnet, usw.
Wenn aber selbst Microsoft schon GpGPU (also office und co) Unterstütz ist selbst eine APU in Windows Anwendungen schneller.
Falls ich ein Denkfehler habe wünsch ich Aufklärung, denn eigentlich mach ich nur ne Pause, da ich für ein VO lerne.
Aja wenn man so kritisch gegenüber APUs ist. Wieso versucht dann Intel Many Core Prozessoren Marktreif zu bringen (was im gegensatz zu APUs, nur mit kleineren Fertigungsprozess möglich ist)
Intel's Knights Corner: 50+ Core 22nm Co-processor
1 TFLOPs of double precision floating point performance.
Das entspricht ca einer 7970 in 28 nm. Welcher wird wohl den höheren Verbrauch haben ??
Welche Die ist größer GPU oder die DIE von der Intel-CPU ?
oder
365mm, bullie hat mit seinen 8 cores schon 315. Wobei man eine IntelProzessor als vergleich nehmen sollte, btw soll das Teil ein art co-Prozessor sein ähnlich wie die GPU in der APU
Nur mal es zu verbildlichen
Dabei schwebt AMD eine prognostizierte Leistung von über einem TFLOP vor, deutliche Steigerungen gegenüber dem jeweiligen Vorgänger „Llano“ (580 GFLOPS) und „Trinity“ (819 GFLOPS) soll „Kaveri“ (1.050 GFLOPS) erzielen.
Dann sollte die neue APU kommen und das für den Massenmarkt. Bei Intel zahlt man für die gleiche Leistung wahrscheinlich mehr. Aber mal sehen ob ManyCores 2014 dann in den Pcs stecken... ob das vllt eh mit 14 nm möglich ist. AMD braucht selber nur 28 nm wahrscheinlich um die gleiche Effizienz zu erreichen.