News AMD: Alles auf die Verschmelzung von CPU und GPU

Diablokiller999

Ja die neuen Atom mit direct x11, erm meinte direct x10.1 seit neusten
Aber abwarten wie IB nachfolger aussieht. Die GPU soll da ja auch größer werden.
Ob man da auch an APUs denkt ist aber abzuwarten. Doch schaut es aus dass man wie beim Vorgänger trotzdem getrennt ist.
 
Mr.Kaijudo schrieb:
Minimum System Requirements

OS: WINDOWS VISTA (SERVICE PACK 2) 32-BIT
PROCESSOR: 2 GHZ DUAL CORE (CORE 2 DUO 2.4 GHZ OR ALTHON X2 2.7 GHZ)

Natürlich :rolleyes: weil man mit solchen CPU-Krücken ja auch Zocken kann :lol:

wenn man keien ahnung hat, ein mal ...

mit der genannten apu kann man auf low zocken, ohne probleme ...
 
Was das angeht, BF3 kA, aber BCBF2 hab ich auf einem Phenom II x4 und einer HD 4200 auf einer 64 player maps flüssig spielen können. Zwar alles low, aber völlig ausreichend um flüssig zu spielen (auch wenn das Gebäude in den man steht zusammen bricht)

Ein E-350 hat die bessere GPU (80 vs 40) und 1,6 ghz (schlechtere CPU) Dass BFBC2 besser läuft kann ich mir gut vorstellen
 
@DaniVinci,
was du dir da alles so erträumst ist nichts neues, siehe Befehlssatzerweiterungen: MMX, 3DNow!, SSE… SSE5, EM64T, VT-x, AVX, AES usw. Diese sind alle mehr oder weniger in den Schaltkreisen des Prozessors verankert und können je nach Aufgabe die ein oder anderen Berechnung beschleunigen. Wie auch spezielle HD-Videodecoder.
Alles GANZ ALTE HÜTE.

Würde das alltägliche Arbeiten am PC eine besonders schnelle Berechnung von Polygonen erfordern, würden dafür zuständige Einheiten, wie sie in einer GPU stecken, schon längst im der CPU vorhanden sein und niemand würde von einer APU sprechen. Nach wie vor gibt es für Schaltkreise wie sie in Grafikprozessoren vorhanden sind, aber nur wenig Anwendungen/Software welche davon profitiert, als dass dafür millionenfach Transistoren integriert werden müssten, wie sie zur Berechnung von grafikintensiven Spielen benötigt werden. Auch wenn diese von der Stromversorgung getrennt werden können, und damit keinerlei Hitze erzeugen, müssen Sie doch vorhanden sein, und das treibt die Kosten der Herstellung in die Höhe. In absehbarer Zukunft, bringt ein „Mischprozessor“, von welchem du da schreibst, für die breite Masse nur wenig Vorteile, ist kostentechnisch durchaus relevant.
Denk mal daran wie viele wegen der überall integrierten HD2000 oder HD3000 rumheulen.
Und wenn ich zukünftig bei AMD nur noch APUs bekomme, obwohl ich nur was in der Größenordnung kleiner HD2000 benötige, bin ich auch nicht bereit dafür einen Aufpreis zu zahlen!

Darum schrieb ich auch:
Allerdings hoffe ich auch, dass Sie nicht den Fehler begehen, zu jeder CPU auch eine mittelstarke/-potente GPU zu packen.

Und weiter:
Also will AMD, deiner Meinung nach, nicht die breite Masse bedienen?

…also scheinbar nicht!
Desweiteren schläft intel auch nicht, in keinster Weise.
 
Zuletzt bearbeitet:
Klar wollen sie, nur geht es in allerletzter Konsequenz um die Abschaffung des x86-Prozessors, weil er auf Dauer zu langsam ist. That's it. Und doch, es ist etwas vollkommen neues. Das hat mit Befehlssatzerweiterungen nichts zu tun. Du redest immer noch von Polygonen, darum geht's dann gar nicht mehr.
 
Zuletzt bearbeitet:
Dann verabschiede dich mal von allen derzeitigen PC Spielen.

Mir gefällt nicht was AMD Plant, das hieße das AMDk, intel den desktiop diskret CPU markt überlässt.
Was das bedeutet , Intel hatt die besseren Schnelleren CPU`s für Spieler AMD nur einstiegs CPU für HTPC und Büro rechner.
Spiele benötigen aber mindestenz nee mittelklasse CPU.Lösung Intel kaufen
Intel = teuer. Und ach Intel seit sandy bridge nichtmehr übertaktbar (ohne K im Namen). Danke.
 
Ob APUs in Konsolen verbaut werden ??? Naja im Nintendo nein, xbox auch nicht. Sony will bis 2014 warten :O
xD
Danke Pipip war mit den Spezifikationen der Konsolen nicht 100% vertraut wusste nur das AMD reinkommt als Grafik sonst nicht wirklich ob da jetzt eine IBM oder eine AMD CPU reinkommt
(Wii U relativ früh erwähnt jedoch Leistungstechnisch auf warscheinlich auf APU Niveua wär eine günstige APU Version ein 3/4 Jahr vor Releases nicht doch noch möglich baun ja die XBOX und PS3 auch immer um)

bleiben nur noch zwei Fragen
3. Ob der HSA Standard nur von den APUs genutzt werden kann oder z.B. auch von der Grafikkarte
4. Was dieser Standard überhaupt sein wird
 
Die FX-Serie wird ja ausgebaut: Bulldozer, Piledriver, Steamroller, Excavator. Es wäre schon skurril, wenn AMD ständig schnellere Grafikkarten liefern würde, aber keine CPU mehr anbieten könnte, die die hauseigenen Karten schnell genug füttern kann. ^^
 
@DinciVinci,
So wie Du es dir vorstellst, ein völlig neues Hirngespinst. Uhhh, praktisch ne völlig neue Architektur namens APU by AMD, auf welcher Aufgaben, welche jetzt schon im Prozessor spezialisierte Bereiche innehaben, noch schneller und effizienter abgearbeitet werden. Man könnte auch sagen, in 3D(NOW!). Und alle Softwarefirmen ziehen ganz schnell mit...
Den Spruch hab' ich ja noch nie gebracht, aber: You made my day
 
Zuletzt bearbeitet:
Spiele benötigen aber mindestenz nee mittelklasse CPU.Lösung Intel kaufen
Intel = teuer. Und ach Intel seit sandy bridge nichtmehr übertaktbar (ohne K im Namen). Danke.

AMD bietet doch immer noch Mittelklasse CPUs. Mehr Leistung als ein Phenom II hat braucht man zum Spielen nicht. Mit den FX-Modellen kann man auch gut spielen ohne, dass die CPU limitiert (jetzt komm bitte nicht mit nem Test der in 800x600 gemacht wurde)
Vishera wird diese Mittelklasseleistung bieten.
Schon ein i5-2500k ist fürs Spielen völlig überdimensioniert aber es meint ja jeder, dass er das Beste braucht :rolleyes:
Selbst mit meinem Athlon x3 @3,4GHz kann ich meine 6850 bis auf 100% auslasten während die CPU noch Reserven hat.
 
@mav82:

Das Hirngespinst ist schon viele Jahre alt und kommt nicht von mir. Die Verwendung solcher SIMD-Strukturen in der CPU für allgemeine Berechnungen sind schon seit Jahren Thema in der Prozessorentwicklung und ich freue mich jetzt einfach zu sehen, dass das nun wirklich angeht. Du musst da einfach 'ne Menge Wissen aufholen. Der Bulldozer ist mit seiner als Co-Prozessor organisierten FPU der Grundstein für diese Entwicklung gewesen.
AMD will jetzt mehr bei der Software-Entwicklung mitmischen, das haben sie ja gestern deutlich gesagt. Ein Plugin für C++ müsste jetzt auch demnächst erscheinen. Der Hintergrund ist ja gerade, dass Software-Entwickler dann keine Spezial-Software mehr schreiben müssen.Wie erfolgreich sich das alles umsetzen lässt, muss man halt sehen.
 
Zuletzt bearbeitet:
syfsyn schrieb:
Dann verabschiede dich mal von allen derzeitigen PC Spielen.

Mir gefällt nicht was AMD Plant, das hieße das AMDk, intel den desktiop diskret CPU markt überlässt.
Was das bedeutet , Intel hatt die besseren Schnelleren CPU`s für Spieler AMD nur einstiegs CPU für HTPC und Büro rechner.
Spiele benötigen aber mindestenz nee mittelklasse CPU.Lösung Intel kaufen
Intel = teuer.
Das ist natürlich falsch.
Bulldozer wird genauso weiterentwickelt wie dezentierte Grafikkkarte.

Mit der Verschmelzung wird neben der Bobcat-CPU & Bulldozer-CPU & GCN-CPU quasi eine neue & Vierte Architektur entwickelt, indem die vorhandenen weiterentwickelten CPU- & GPU-Architekturen eine spätere modulare Verschmelzung berücksichtigen.

Es lieben hier noch zu viele in der CPU-Performance-Only-Welt. ARM & Nvidia-Denver & Intel-Larrabee rüsten schon längst in die CPU-&-GPU-Verschmelzte Zukunft.
AMD ist halt der erste Hersteller, der in diesen Markt reingeht. Intel soll ja heuer noch kommen und Nvidia 2014.
 
bulldozer1 schrieb:
...oder es liegt schlicht und ergreifend an den Verhältnissmäßigkeiten der Hardware...

< schnipp! >

Und Bingo! Du bist genau ein Beispiel für das was ich meine wenn ich sage das da schon eine ganze Generation herangewachsen ist mit einer asymetrischen Wahrnehmung. Ehrlicherweise glaube ich das du meinen Post entweder nicht richtig gelesen hast oder ihn einfach falsch verstanden hast. Nirgends spreche ich vom Ottonormalverbraucher - im Gegenteil, ich spreche von "anspruchsvollen CGI/Gaming Sachen", also dem High End Bereich. Bei KEINER anderen Komponente am PC würden wir es als normal empfinden wenn ihre Kühlkörper in der Weise anwachsen würden wie es bei Grafikkarten der Fall ist. Würdest du eine Highend CPU akzeptieren die einen so großen Kühler hat das du z.B. Rammbänke oder PCIe Slots nicht nutzen könntest? Wahrscheinlich nicht. Selbst von der Leistungsstärksten CPU erwartet man das ihr Kühlkörper in einem Rahmen bleibt so das dadurch der Einbau anderer Komponenten nicht unmöglich gemacht wird. Bei CPU Kühler würde man doch schon kritisieren wenn sie denn ein /ausbau von Ramm Modulen erschweren. Bei Grafikkarten ist es aber was anderes, und diese Sonderstellung die man dieser Komponente einräumt, genau darin sehe ich die Asymetrische Wahrnehmung. Und dann kommt noch dazu das auf den gleichen Boards auf denen Tripple und Quad Crossfire/SLI als Feature gepriesen wird für wichtige andere Chips das billigste genommen wird was zu haben ist OBWOHL bei dem Verbau von mehreren Grafikkarten dann meist keine Möglichkeit mehr besteht auch für alle anderen Bereiche hochwertige ADD Inn Karten nachzurüsten. Verbau zwei Grafikkarten und lasse noch jeweils einen Slot frei wegen dem Luftzustrom und du hast bereits 6 Slots die du nicht mehr Nutzen kannst.
 
Zuletzt bearbeitet:
Ich bin da immer noch äußerst skeptisch ob dieser Fusion Ansatz tatsächlich die geradezu prophetischen Leistungszuwächse bringen kann, die AMD hier immer verspricht.

Die Idee an sich ist ja ganz einfach: Eine gute alte CPU verschmilzt mit einer GPU und man erhät einen Prozessor der parallele Aufgaben auf den GPU-Teil auslagern kann und diese damit extrem beschleunigt. Das klingt in der Theorie ja ganz ganz toll und würde wenn es perfekt funktioniert auch tatsächlich einen enormen Leistungsschub bringen, aber:

Das beißt sich hinten und vorne mit Amdahl's Law. Mann kann nun einmal nicht jeden Vorgang beliebig parallelisieren und so beschleunigen. Das trifft nur auf einige ganz wenige Bereiche zu, wie eben Grafikberechnung.

Alle anderen Aufgaben haben immer zumindest einen geringen Anteil von Befehlen die ganz einfach sequentiell abgearbeitet werden müssen und sich somit nicht von den GPU-Einheiten beschleunigen lassen. Das Fusion Konzept sieht dann vor, dass diese Befehle eben von den schnelleren CPU-Einheiten übernommen werden. Das macht soweit auch Sinn.

Das Problem an dem Ansatz ist, dass das nur zu exorbitanten Leistungssprüngen führt so lange der Großteil der Instruktionen parallelisierbar ist. Mal ein kleines Rechenbeispiel:

Eine Aufgabe hat 1000 Befehle: Die Apu hat 200 GPU Kerne und 4 CPU Kerne. Die CPU Kerne berechnen sequentielle Anteile 3x schneller als die GPU Kerne. Als Zeiteinheit wählen wir die Zeit, die die GPU Kerne benötigen um einen Befehl abzuarbeiten:

Beispiel 1: 1% der befehle müssen hintereinander abgearbeitet werden, können also nur auf einen Kern gepackt werden:

Zuerst einmal die Zeit die das auf einem klassischen 4-Kerner benötigen würde:

1% von 1000 = 10 Befehle.

1000/4 > 10 -> man kann vernachlässigen dass es nicht parallelisierbare Aufgaben gibt.

also teilen wir die Instruktionen gleichmäßig auf die 4 Kerne auf ergibt: 250 Befehle / Kern.
Das teilen wir durch 3 weil die CPU Kerne ja 3x schneller als die GPU Kerne sind: 83,333 Zeiteinheiten

Nun die APU:

die 10 parallelen Instruktionen lagern wir auf einen CPU Kern aus, der diese in 10/3 Zeiteinheiten also 3,33 Zeiteinheiten abarbeitet.

Die Restlichen 990 Instruktionen kommen auf die GPU. Jeder Kern schafft eine Instruktion pro Zeiteinheit: 990 / 200 -> 4,95 Zeiteinheiten.

Nun nehmen wir den größeren von beiden Werten, weil die Berechnung ja erst dann zu Ende ist, wenn alle Einheiten fertig sind. Das wären die 4,95 Zeiteinheiten bei den GPU Kernen.

Daraus ergibt sich ein Speedup von: 83,33 / 4,95 * 100% = 1683 %

Wow. Ja das entspricht ziemlich genau dem was einem AMD verspricht.


Nur: Das kann sich ganz schnell ins Gegenteil verkehren:

Nehmen wir an, dass 10% der Instruktionen hintereinander ausgeführt werden müssen. Und selbst 10% ist für einen Großteil der Anwendungen immer noch ein absoluter Traumwert den sie nie erreichen:

10% von 1000 Befehlen = 100 Befehle.

Wieder zuerst die reine CPU:

1000/ 4 > 100 -> man kann den sequentiellen Teil wieder vernachlässigen.

1000/ 4 /3 = 83,33 Zeiteinheiten. (Jop das gleiche Ergebnis wie vorhin)

Jetzt die APU:

Wir packen die 100 Instruktionen auf den CPU Kern und erhalten: 100/3 = 33,33 Zeiteinheiten

Die restlichen 900 auf die GPU: 900/200 = 4,5 Zeiteinheiten.

Jetzt nehmen wir wieder den höheren Wert als die Gesamtdauer: 33,33 Zeiteinheiten

Und erhalten jetzt einen Speedup von 83,33 / 33,33 * 100% = 250%

Das ist immer noch ein ordentlicher Speedup, rechnet aber, obwohl wir genau gleich viel Befehle haben ganze 6,7 mal langsamer als unser erstes Beispiel.

Und diese Bilanz wird für den APU-Ansatz nur immer schlimmer, je mehr sequentielle Anteile in den Code hineinkommen. Genau gar keinen Speedup erhält man übrigens ab 25% sequentiellem Anteil. Und der Großteil der Software die heute auf den Endkunden Rechnern steht, dürfte deutlich mehr als 25% haben.

Deshalb verstehe ich nicht, warum AMD unbedingt mit den APUs in den Endkundenmarkt presst wie blöde. Im HPC Bereich sind tatsächlich so gut wie alle Aufgaben endlos parallelisierbar. Dort würde der APU Ansatz den Xeons die Hosen ausziehen, aber dort lässt AMD sich komischerweise Zeit.
 
@DaciVinci
Ok, ich bezweifle ja grundlegend nicht, dass es Möglichkeiten gibt, die Effizienz der bisherigen PC- Architektur, basierend auf x86 zu verbessern.

Ich versuche meine Bedenken noch einmal, so eindeutig wie mir noch zeitlich noch möglich ist, zu konkretisieren:

Dass AMD im Stande ist, CPU und GPU zu verschmelzen und jeder Teil (,welche es ja dann so eigentlich nicht mehr gibt,) seine präferierten Aufgaben übernimmt, vorausgesetzt die Software passt, will ich gar nicht bezweifeln. Habe ich auch nie.
Aber welche Software kann den in absehbarer Zeit oder jemals, von dem „Teil“ der APU, welcher unweigerlich vorhanden sein muss (und riesig ist), um aufwändige 3D-Spiele bei hohen Auflösungen widerzugeben, im alltäglichen Gebrauch, also abseits von 3D-Darstellung, so viel Verwendung finden, als dass es Herstellungstechnisch lohnt, diese zu integrieren.

Das ist es, woran ich zweifle. Die Marge AMDs an den CPUs und APUs ist eh schon deutlich geringer als die von Intel. Wenn also die zukünftige Software aus den zukünftig im Die integrierten Transistoren, im alltäglichen Gebrauch, abseits von 3D-Darstellung (ich weiß, ich wiederhole mich) keinen erheblichen Nutzen zieht, wird die Marge AMDs noch geringer, bzw. AMD (noch) weniger Konkurrenzfähig. Denn wenn die zukünftig integrierten „GPUs“ Intels, für Hinz und Kunz genügen, und diese genügen abseits der 3D-Darstellung vollkommen, bzw. abseits dessen die neuen AMD Transistormonstern den zukünftigen Intel CPUs nicht den Schneid abkaufen, sehe ich schwarz für AMD.

In eine Lücke schlagen die zukünftigen APUs AMDs bestimmt ein. Das tun sie auch heute schon. Nur wie groß ist die Lücke? Oder wird diese Lücke gar der zukünftige Mainstream? Aber das bezweifle ich eben.
 
Zuletzt bearbeitet:
Die CPU Kerne berechnen sequentielle Anteile 3x schneller als die GPU Kerne

https://www.computerbase.de/2011-12/test-amd-radeon-hd-7970/3/#abschnitt_architekturaenderungen

Vergiss dabei nicht dass es um die neue Architektur handeln wird. Die nicht wie VLIW besteht sondern seriell berechnet. Das heißt du hast bsp 200 shader die quasi wie 200 CPU cores rechnen könnten... soviel ich zu mindestens verstanden hab, oder täusche ich mich. Es hat ja einen Grund warum man sich von VLIW verabschiedet hat.

Die CPU kann die Daten in den Register oder Speicher hauen, gibt den Befehl rein und entscheidet dann ob er jz die CPU oder die GPU zur Berechnung nimmt.

Wenn man ein Development-Kit hat indem man leicht wie bei herkömmlichen Art und Weiße ohne Umstände Programmieren lässt (C++), das heißt eine art Kopplung entsteht (Schnittstellen) , wird es keine Probleme geben die Hardware schritt für schritt anzupassen.
Grafikkarten verwenden auch die Direct x11 Schnittstelle angesprochen. Wenn es dann eine eigene Schnittstelle im Windows gibt (HSA), und in Programmen integriert ist, hat man einen Performance Vorteil gegen über herkömmliche x86 Cores.

Ich weiß nicht ob eine core 4 mal schneller ist in serielle berechnung wie 200 NGC. Würde dann nicht verstehen wieso man dann überhaupt NV-Karten im Server-Bereich (da sie schon C++ unterstützen) dann überhaupt einsetzt.
Wieso es dann überhaupt GrafikRigs gibt mit 4 Tesla Karten und einer CPU ?

Somit ist es gut dass man beim Mainstream anfängt und das anpasst und dann nach oben arbeitet mit der Einführung.

mav82
http://www.tomshardware.de/amd-athlon-k7,testberichte-60-25.html
http://www.tomshardware.de/amd-athlon-k7,testberichte-60-26.html
mit der überlegenen Parallelstruktur und der besseren Pipeline erklärt werden
soetwas könnte dann wieder Realität werden.

Ich glaub dass die 4 M bsp dann im endefekkt nur koordinieren werden

APU klingt für mich irwie nach Athlon 64...

Ich gebe aber dieses mal den Programmiere die Zeit und besonders Microsoft, eine schnittstelle zu integrieren die mir erlaubt alles was ich mache von Stream-Prozessoren berechen zu lassen.
1.Schritt, Highend-Grafikkarten.
2.Schritt, kleine APUs die wir jz kennen die noch umständlich über Umwege unter die ARME greifen.
3.Schritt, selbständiger co-Prozessor. Quasi die CPU teilt ein oder sagt welche Rohdaten (die wenig Rechenleistung benötigt) von der igp berechen soll (die dann wie ein Berserker die Daten parallel abarbeitet).
Wenn man Integeraufgaben der gpu berechnen lassen kann, (integer Datentyp lasst sich bsp in double konvertieren) hat man mit einer GPU eine bessere integer Leistung oder ???
Im Gegensatz zu den integer cores die zwar auch Fließkommaberechnung machen kann, aber weit aus langsamer sind.
Eventuell ist Intel in manchen Szenarien schneller, aber nicht in VideoGames, Videobearbeitung, CAT, Server wo man viel parallel berechnet, usw.
Wenn aber selbst Microsoft schon GpGPU (also office und co) Unterstütz ist selbst eine APU in Windows Anwendungen schneller.

Falls ich ein Denkfehler habe wünsch ich Aufklärung, denn eigentlich mach ich nur ne Pause, da ich für ein VO lerne.

Aja wenn man so kritisch gegenüber APUs ist. Wieso versucht dann Intel Many Core Prozessoren Marktreif zu bringen (was im gegensatz zu APUs, nur mit kleineren Fertigungsprozess möglich ist)

Intel's Knights Corner: 50+ Core 22nm Co-processor
1 TFLOPs of double precision floating point performance.

Das entspricht ca einer 7970 in 28 nm. Welcher wird wohl den höheren Verbrauch haben ??
Welche Die ist größer GPU oder die DIE von der Intel-CPU ?
Screen%20Shot%202011-11-15%20at%208.33.38%20PM.png

oder
Radeon%207970%20NAKED.jpg

365mm, bullie hat mit seinen 8 cores schon 315. Wobei man eine IntelProzessor als vergleich nehmen sollte, btw soll das Teil ein art co-Prozessor sein ähnlich wie die GPU in der APU

Nur mal es zu verbildlichen
knights-corner,H-I-315558-13.jpg


Dabei schwebt AMD eine prognostizierte Leistung von über einem TFLOP vor, deutliche Steigerungen gegenüber dem jeweiligen Vorgänger „Llano“ (580 GFLOPS) und „Trinity“ (819 GFLOPS) soll „Kaveri“ (1.050 GFLOPS) erzielen.

Dann sollte die neue APU kommen und das für den Massenmarkt. Bei Intel zahlt man für die gleiche Leistung wahrscheinlich mehr. Aber mal sehen ob ManyCores 2014 dann in den Pcs stecken... ob das vllt eh mit 14 nm möglich ist. AMD braucht selber nur 28 nm wahrscheinlich um die gleiche Effizienz zu erreichen.
 
Zuletzt bearbeitet:
@mav82:

Die Antwort ist: Ich weiß nicht, was die Zukunft (für Rechenaufgaben) bringt. Wir werden in 10 Jahren sehen, wo wir stehen. Ich kann momentan nur ein Beispiel nennen, was ich mir vorstellen könnte:
Ich forsche unter anderem an zukünftigen drahtlosen Kommunikationssystemen, die bei 300 GHz arbeiten und locker 50 GBit/s schaffen könnten. Um die Daten verarbeiten zu können, brauchst Du eine entsprechend hohe Rechenleistung. Bei Mehrträgermodulationsverfahren wie OFDM z.B. sind die Anforderungen an die Demodulationsleistung immens hoch. Um solche Kommunikationssysteme zu etablieren, benötigst Du dann in jedem noch so kleinen Gerät einen Hochleistungsprozessor, der den Datenstrom verarbeiten kann, und diese Leistung könnte evtl. ein solcher TFLOP-Prozessor bereitstellen.

Wer weiß, welche Anwendungen dadurch noch alle möglich werden könnten.
 
Zuletzt bearbeitet:
Alle reden nur von der tollen Fusion von CPU und GPU aber keiner von denen kann auch nur ein Programm nennen was in 2 Jahren davon profitiert und es sollte kein Encoding Programm sein. Wo sind die breiten Anwendungen die von 400 ATI Shadern stark profitieren ?
Ohne die passende Software macht AMDs Fusion genau dasselbe wie Intels HD Grafik , nur das Intels CPUs weitgehend schneller sind bei geringerem Stromverbrauch.
 
pipip schrieb:
Vergiss dabei nicht dass es um die neue Architektur handeln wird. Die nicht wie VLIW besteht sondern seriell berechnet. Das heißt du hast bsp 200 shader die quasi wie 200 CPU cores rechnen könnten... soviel ich zu mindestens verstanden hab, oder täusche ich mich. Es hat ja einen Grund warum man sich von VLIW verabschiedet hat.

Die CPU kann die Daten in den Register oder Speicher hauen, gibt den Befehl rein und entscheidet dann ob er jz die CPU oder die GPU zur Berechnung nimmt.

Wenn man ein Development-Kit hat indem man leicht wie bei herkömmlichen Art und Weiße ohne Umstände Programmieren lässt (C++), das heißt eine art Kopplung entsteht (Schnittstellen) , wird es keine Probleme geben die Hardware schritt für schritt anzupassen.
Grafikkarten verwenden auch die Direct x11 Schnittstelle angesprochen. Wenn es dann eine eigene Schnittstelle im Windows gibt (HSA), und in Programmen integriert ist, hat man einen Performance Vorteil gegen über herkömmliche x86 Cores.

Und genau das geht eben nicht. Ich hatte in meinem Beispiel aus gutem Grund von 1000 Befehlen gesprochen. Also atomaren Operatione die sich nicht weiter aufteilen lassen. Ein Multiply-ADD z.B. .

Ganz egal wie gut die Schnittstelle ist, sie kann nichts dagegen ausrichten, wenn Aufgaben einfach nicht parallelisierbar sind. Und das ist bei jedem Code schon dann der Fall, wenn du irgendwo ein "while" oder ein "for" stehen hast. Alles was in dieser Schleife steht, muss feinsäuberlich in Reihe von einem Kern, sei er nun CPU- oder GPU-Kern abgearbeitet werden.

Da hilft die beste Optimierung der Software nichts. Schleifen sind nunmal ein Grundbestandteil eines jeden Programmes die sich nicht einfach wegrationalisieren lassen.

Der Grund warum eine Grafikkarte mit der DirectX 11 Schnittstelle trotzdem hochparallel arbeiten kann liegt an der Art der Aufgabe. Die Berechnung von Grafiken ist eine der wenigen Anwendungen die "embarassingly parallel" sind, die sich also in nahezu endlos viele Threads aufteilen lassen.


pipip schrieb:
Ich weiß nicht ob eine core 4 mal schneller ist in serielle berechnung wie 200 NGC. Würde dann nicht verstehen wieso man dann überhaupt NV-Karten im Server-Bereich (da sie schon C++ unterstützen) dann überhaupt einsetzt.
Wieso es dann überhaupt GrafikRigs gibt mit 4 Tesla Karten und einer CPU ?

Mein 3x schneller bezog sich rein darauf, weil die Taktraten bei CPU-Kernen idR höher sind als das bei GPU-Einheiten der Fall ist, also auch mehr Instruktionen pro Sekunde abliefern.

Der Grund warum es diese HPC Anwendungen mit den Teslas trotzdem gibt kann zweierlei sein.

Zum Einen kann es wie bei der Grafikberechnung sein, dass es eben "embarassingly parallel" ist und deshalb endlos skaliert.

Das andere Extrem sind solche Probleme wie sie z.B. Folding@Home berechnet. Dort wird das Falten von Proteinketten (Ich glaube zumindest dass es so hieß. Es sei mir verziehen, wenn ich Folding@Home jetzt Unrecht tue.) simuliert.
Wenn jetzt die Simulation zum Falten eines Proteins sagen wir mal auf der CPU 10 sek dauert und in einer GPU 30 sek. Dann ist das relativ egal, weil man ja Millionen von Proteinen faltet. So lange man also genug RAM hat um 2000 Proteine gleichzeitig falten zu können, gewinnt der 4 X Tesla Server spielend gegen jeden Multi-CPU Server.

Aber derart riesige Probleme die mitunter auch mal Jahrelang rechnen können, existieren eben im Heimanwender Bereich nicht, sondern nur im HPC Bereich, wo ich wie gesagt für AMD mit Fusion extrem gute Chancen sehe.
 
dgschrei
Wie sieht es dann deiner Meinung nach im Desktop Sektor aus ?
Was die core Leistung angeht, die soll ja auch verbessert werden, nur unterstreicht man bei einer APU eben eher die FPU Leistung.
Bei Games sollte man aber Performanceschübe bekommen oder täusche ich mich ?...
Genauso Videobearbeitung usw.

Für den Otto, wird wahrscheinlich eine APU alleine schon ausreichen.
Weiters ist die frage wieviele Module wird die APU haben usw usw usw...

Das mit den Schleifen hatte ich eigentlich nie bedacht ^^

Die Hoffnung stirbt zu letzt, aber ich will gern 50% 50% AMD und Intel sehen xD.


Voyager10
ließ bite mal den Bericht gscheit danke.
Anhand einer Feature-Liste hat AMD deshalb bereits die Grundzüge für HSA in den kommenden Jahren spezifiziert, denn bereits heute nutzen laut AMD mehr als 200 Programme die GPU-Beschleunigung; Tendenz steigend.

Es gibt ein eigenes Programm, die quasi an der Software arbeitet und schritt für schritt einfügt.
Informiere dich mal über ATI stream, und was man damit schon alles machen kann.

Übrigens die Intel HD 3000 kann nicht so viel wie die doofen 400shader.
 
Zuletzt bearbeitet:
Zurück
Oben