Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News AMD: Alles auf die Verschmelzung von CPU und GPU
- Ersteller Volker
- Erstellt am
- Zur News: AMD: Alles auf die Verschmelzung von CPU und GPU
Quantität
Lieutenant
- Registriert
- Jan. 2011
- Beiträge
- 991
Ich halte dieses konsequente Vorgehen seitens AMD für sehr zukunftsweisend. Wie Crystal schon sagte war der Kauf von ATI keine Geldverbrennung, eine großer Schritt - notwendig um Ideen umzusetzen und vor allem sich vom großen Konkurenten Intel zu lösen. Den klassischen CPU Krieg AMD vs. Intel konnte AMD nicht gewinnen, und meines Erachtens nach wollten sie das auch gar nicht.
Es spricht doch sehr für dieses Unternehmen, sich die Vorteile Ihrer Power GPUs zu Nutze zu machen um Ihre eher durchschnittlichen CPUs zu pushen. Sobald eine AMD HSA-APU + HD8k (nur mal angenommen) im System stecken, sehe ich für viele Bereiche durchaus Vorteile.
Wenn jetzt aber Intel auf den Trichter kommt sich NVidia einzuverleiben, oder zumindest ähnlich leistungstarke GPUs zu entwickeln und mit deren CPUs zu fusionieren, wäre aller Vorteil AMD´s für die Katz...
Es spricht doch sehr für dieses Unternehmen, sich die Vorteile Ihrer Power GPUs zu Nutze zu machen um Ihre eher durchschnittlichen CPUs zu pushen. Sobald eine AMD HSA-APU + HD8k (nur mal angenommen) im System stecken, sehe ich für viele Bereiche durchaus Vorteile.
Wenn jetzt aber Intel auf den Trichter kommt sich NVidia einzuverleiben, oder zumindest ähnlich leistungstarke GPUs zu entwickeln und mit deren CPUs zu fusionieren, wäre aller Vorteil AMD´s für die Katz...
DinciVinci
Banned
- Registriert
- Sep. 2011
- Beiträge
- 1.076
Naja eigentlich ist es ja kein wirklicher Strategiewandel. Das Konzept der Fusion von Haupt- und Grafikprozessor ist schon sehr alt. AMD kam mit der Idee sehr früh raus, lange bevor Intel die erste GPU auf das CPU-Die packte.
Aber es ist, denke ich, gut, dass sie sich jetzt darauf erstmal konzentrieren.
Aber es ist, denke ich, gut, dass sie sich jetzt darauf erstmal konzentrieren.
Krik
Fleet Admiral
- Registriert
- Juni 2005
- Beiträge
- 14.773
CloudGaming hat mit der APU nichts zu tun. Die GPU ist im Vergleich auch ziemlich schwach. Bis sich da nichts ändert, sind die APUs für Server erst mal uninteressant.
Wichtiger ist hingegen, dass hier eine Art x86-SoC entwickelt wird. Es fehlt im Grund nur noch ein Sound Processor und integrierten RAM und schon hat man einen vollwertigen Rechner mit allem drum und dran - in CPU-Größe.
Interessant ist auch die Idee, das Arbeitsprinzip der GPU und der CPU zu kombinieren. Eine GPU ist eine massiv parallel arbeitende Einheit, um 10er Potenzen paralleler als eine CPU. Würde man jetzt die Vielseitigkeit einer CPU mit der Arbeitsleistung einer GPU kombinieren (können), dann käme eine APU heraus, die alles, was es heute gibt, in den Schatten stellt. Man überlege sich das mal: Tausende Cores, die in der Lage wären, allgemeine Berechnungen durchzuführen. Ein Supercomputer im Miniformat.
Da wäre selbst Intels Many-Core-Architektur (afaik aktuell im Prototyp-Stadium) mit ihren 80 Kernen ein Zwerg dagegen.
Wichtiger ist hingegen, dass hier eine Art x86-SoC entwickelt wird. Es fehlt im Grund nur noch ein Sound Processor und integrierten RAM und schon hat man einen vollwertigen Rechner mit allem drum und dran - in CPU-Größe.
Interessant ist auch die Idee, das Arbeitsprinzip der GPU und der CPU zu kombinieren. Eine GPU ist eine massiv parallel arbeitende Einheit, um 10er Potenzen paralleler als eine CPU. Würde man jetzt die Vielseitigkeit einer CPU mit der Arbeitsleistung einer GPU kombinieren (können), dann käme eine APU heraus, die alles, was es heute gibt, in den Schatten stellt. Man überlege sich das mal: Tausende Cores, die in der Lage wären, allgemeine Berechnungen durchzuführen. Ein Supercomputer im Miniformat.
Da wäre selbst Intels Many-Core-Architektur (afaik aktuell im Prototyp-Stadium) mit ihren 80 Kernen ein Zwerg dagegen.
Zuletzt bearbeitet:
(Typo)
thepusher90
Lt. Commander
- Registriert
- Nov. 2011
- Beiträge
- 1.559
Kann man dann in Zukunft davon ausgehen, dass sowohl Intel als auch AMD Produkte teurer werden? Denn sie werden sich ja nicht mehr nur einen Markt teilen. Dann fehlt doch quasi der Wettbewerb.
AMD macht jetzt ja so stabile opterative Gewinne wegen ihrerer Verschmelzung von CPU & GPU.Adam_S schrieb:Irgendwie hinterlässt die gesamte Präsentation bei mir dne Eindruck, dass AMD nicht so recht weiss, wo es als Gesamtkonzern hin will. Ok, Verschmelzung von CPU und GPU, da werden sie etwas konkreter. Aber da ist Intel schon immer m.E. wesentlich deutlicher in ihrem Ausblick auf die nächsten Jahre und ....
Ich habe halt das Gefühl, AMD weiss nicht wirklich, wo es hin will. Und ohne Ziel ist immer schlecht!
AMD weiß genau wo sich noch zusätzlich hinwollen. Dezentierte CPUs und GPUs wird es weiterhin geben, aber die Zusammenarbeit & Verschmelzung wird von Low-Power bis HPC pro Jahr immer mehr stattfinden.
Was hättest du sehen wollen? Einen 3 Stunden Vortrag, wie sich CPU-Performance in den nächsten 2 Jahren im Destkop-Retail entwickelt?
Lightning58
Lieutenant
- Registriert
- Nov. 2008
- Beiträge
- 990
Endlich hat AMD mal detailliert aufgezeigt wohin sie in Zukunft entwickeln. Man hat zwar schon die ganze Zeit die "Verschmelzung" von CPU + GPU propagiert, aber die meisten Leute konnten (oder wollten) sich da nichts drunter vorstellen und haben gesagt "Intel hat doch auch APU, ist nix neues".
Mit der HSA-Struktur zeigen Sie endlich mal Ihr Ziel offen und erklären auch wie es umgesetzt werden soll. Damit können auch Softwareentwickler etwas anfangen, die ich anstelle von AMD jetzt massiv unterstützen würde, denn wenn der blaue Riese Intel erwacht muss man mit Fakten überzeugen können. Im Marketing alleine kann man Intel nicht schlagen. Die Finanzkraft und dadurch auch die Fertigungstechnologie sind gewaltig.
Intel hat zwar schon erkannt, das CPU Power alleine, in Zukunft, nicht reichen wird und man steckte schon Millionen in "Knights Corner" und seine Vorläufer, aber einen wirklichen Durchbruch gab es da noch nicht. Nvidia übernehmen wird aus kartellrechtlichen Gründen nicht möglich sein, aber eine Zusammenarbeit wäre möglich, denn man braucht dringend eine GPGPU Komponente. Aber im Soc eine Nvidia-Komponente integrieren schaffen die nicht auf die Schnelle. Und ob die Next-Gen-Tesla-Karten + Next-Gen-Intel-CPU es gegen eine Next-Gen-APU-SoC (+zusätzliche GPU Power-Karten) aufnehmen kann?
Richtiger Schritt von AMD und der neuen Führungsmannschaft um Rory Read. Raus aus dem Schatten von Intel und in den Bereichen investieren wo man die größten Kompetenzen und die profitabelsten Märkte hat.
Aber ich sehe auch dunkle Wolken am Himmel aufziehen. Intel wird nicht einfach zuschauen. Intel wird alles machen was Nötig ist (aus Ihrer Sicht): Softwareentwickler "bestechen" oder "Marketingzuschüsse" fließen lassen um AMD und auch ARM zu behindern.
Mit der HSA-Struktur zeigen Sie endlich mal Ihr Ziel offen und erklären auch wie es umgesetzt werden soll. Damit können auch Softwareentwickler etwas anfangen, die ich anstelle von AMD jetzt massiv unterstützen würde, denn wenn der blaue Riese Intel erwacht muss man mit Fakten überzeugen können. Im Marketing alleine kann man Intel nicht schlagen. Die Finanzkraft und dadurch auch die Fertigungstechnologie sind gewaltig.
Intel hat zwar schon erkannt, das CPU Power alleine, in Zukunft, nicht reichen wird und man steckte schon Millionen in "Knights Corner" und seine Vorläufer, aber einen wirklichen Durchbruch gab es da noch nicht. Nvidia übernehmen wird aus kartellrechtlichen Gründen nicht möglich sein, aber eine Zusammenarbeit wäre möglich, denn man braucht dringend eine GPGPU Komponente. Aber im Soc eine Nvidia-Komponente integrieren schaffen die nicht auf die Schnelle. Und ob die Next-Gen-Tesla-Karten + Next-Gen-Intel-CPU es gegen eine Next-Gen-APU-SoC (+zusätzliche GPU Power-Karten) aufnehmen kann?
Richtiger Schritt von AMD und der neuen Führungsmannschaft um Rory Read. Raus aus dem Schatten von Intel und in den Bereichen investieren wo man die größten Kompetenzen und die profitabelsten Märkte hat.
Aber ich sehe auch dunkle Wolken am Himmel aufziehen. Intel wird nicht einfach zuschauen. Intel wird alles machen was Nötig ist (aus Ihrer Sicht): Softwareentwickler "bestechen" oder "Marketingzuschüsse" fließen lassen um AMD und auch ARM zu behindern.
Zuletzt bearbeitet:
(Schlechtschreibung)
Schimmel-Apfel
Banned
- Registriert
- Sep. 2011
- Beiträge
- 225
wie sieht die APU denn im vergleich zu einer CPU bei berechnungen, wenn die Grafikkarte mitrechnet?
Wir wissen ja, dass eine Graka wesentlich mehr berechnungen als eine CPU anstellen kann.
Interessant wirds auf jedenfall!
Wir wissen ja, dass eine Graka wesentlich mehr berechnungen als eine CPU anstellen kann.
Interessant wirds auf jedenfall!
derGrimm
Banned
- Registriert
- Jan. 2011
- Beiträge
- 3.842
RKUnited schrieb:Das heißt doch aber jetzt eigentlich.
Auf langer Sicht gesehen, wird es keine diskreten Grafikkarten mehr in der Form wie sie heute produziert werden mehr geben. Oder?
Nein, da viel Leistung besser von verschiedenen Orten abtransportiert werden kann.
Es wird sich für die Gamer/Cad Grafiker/GPGPU Nutzer nur die CPU ändern.
Die wird ne APU werden.
dMopp schrieb:Na ich bin gespannt Der E-350 zB ist ein wahres LowEnd Prachtstück ! Eine HighEnd APU wäre schon klasse. Könnte ich mir gut vorstellen...
Also AMD ist Intel bezüglich GPU Power um Meilen vorraus...das sieht man hier:
http://www.3dcenter.org/news/erster-test-einer-ivy-bridge-mobile-cpu
Bei der Core i7-3920XM 55 Watt Modell taktet Intel den HD4000 also mit 650-1300 Mhz.
Beim jetzigen Sandy Bridge 17 Watt modell ist der Grundtakt 350 Mhz…das heißt ich denke mal die werden auch mit 17 Watt Ivy ca. 350 Mhz anpeilen. Der Wert im 3D Mark 11 dürfte sich damit halbieren auf ca. 300-350 Punkte.
Und das ist noch positiv für Intel geschätzt denn die rund 600 Punkte im 3dMark 11 wurden sicher nicht bei 650mhz erreicht sondern locker bei 1000+ Intel Turbomode.
Im Vergleich dazu steigt bei AMD aufgrund des schnelleren Bulldozer 2 (piledriver) Prozessors die GPU Leistung des 17 Watt Trinity auf Niveau des 35 Watt Llano A8-3500M mit ca. 700 Punkten.
AMD liegt da klar vor Intel, zudem hat Intel noch viele Treiberprobleme...Manche Spiele wie z.b. The Whitcher startet garnicht mit einer Intel GPU.
Ich pers. Würde daher nachwievor trinity wählen, auch wegen "vermutlicher" weniger DirectX11 Treiberprobleme.
Info´s zu Trinity vom November....da wußte 3dcenter schon mehr als computerbase
http://www.3dcenter.org/news/2011-11-22
Die 17 Watt ist: 2 Trinity-Rechenkerne, DDR3/2133 integrierte Grafik mit 256 VLIW4 Shader-Einheiten
Brazos hatte bei 18 Watt und 40nm nur 80 Shader...also das ist ein riesenunterschied.
Das was jetzt neu als A10 beschrieben wird mit 25 Watt TDP war bisher eigentlich der A6:
2 Trinity-Rechenkerne, DDR3/2133 integrierte Grafik mit 384 VLIW4 Shader-Einheiten
also Intel kann nur eines richtig gut: CPU Rechenpower optimieren...aber das ist halt eben nicht alles. Sobald jemand mal ein bisschen Mulitasking machen will oder gelegentlich spielt kann man schon von Intel abraten.
Da ist AMD einfach meilenweit vorn weil die GPU Technik wesentlich weiter entwickelt ist.
Rechnet mal die Effizienz aus: Eine 25 WATT A10 bzw. A6 APU von AMD leistet im 3dmark 11 das 2 fache einer 55 Watt Intel HD 4000. Muß man sich mal vorstellen !
Daran kann jeder erkennen was ein optimierter gut laufender 32nm Prozeß ausmacht.
Zuletzt bearbeitet:
Fuddelbaer
Ensign
- Registriert
- Nov. 2008
- Beiträge
- 235
Schön dann darf man ja mal wieder träumen. "Crossfire" mit mehreren APUs auf Workstation und Server Motherboards und das am besten gleich konsequent ganz ohne dedizierte Grafikkarten. Vielleicht wird ja dann die Graka mal wirklich unnötig. Wenn ich die mittlerweile schon gerne mal im Trippleslot Design daherkommenden Monster sehe kann ichs nur noch pervers finden. Seit der "guten alten Zeit" ist nun mittlerweile schon eine ganze Generation an Hobbyschraubern und PC-Technik Enthusiasten aufgewachsen die mit dem Eindruck leben als sei es normal das leistungsfähige Grafikkarten eine so über alle Maßen vorrangige Komponente sind das es hinnehmbar ist das zu ihrem Einbau mindestens 1 bis 2 zusätzliche Slots verdeckt werden. Es besteht eine unglaubliche Asymetrie in der Wahrnehmung der Wichtigkeit der verschiedenen PC Komponenten in meinen Augen. Am geilsten finde ich immer die Tests von 4 Way Crossfire/SLI Systemen - Absoluter Overkill zum maximieren der Leistungsfähigkeit im Visuellen Bereich. Alles dedizierte Karte. Dem gegenüber steht dann ein spottbilliges Realtek Chipchen für den Sound und ein auch nicht gerade teurer Marvell Network Chip fürs Netzwerk, beides selbstverständlich "onboard".
Zum Kotzen ... und dieser Beitrag wurde auf einem Dual Xeon System mit einer schon betagten 8800 Ultra geschrieben von der ich hoffe das ich sie nur noch einmal ersetzen muß bis es auch möglich ist anspruchsvolle CGI / Gaming Sachen auf APUs zu machen und auf dedizierte Slotblocker vollkommen zu verzichten. Bevor ich 50 bin hätte ich gerne ein DP System mit zwei Opteron APUs mit je zwei dutzend CMT fähigen Modulen und 4 koppelbare oder unabhängig betreibare Grafikeinheiten pro APU ;-)
Zum Kotzen ... und dieser Beitrag wurde auf einem Dual Xeon System mit einer schon betagten 8800 Ultra geschrieben von der ich hoffe das ich sie nur noch einmal ersetzen muß bis es auch möglich ist anspruchsvolle CGI / Gaming Sachen auf APUs zu machen und auf dedizierte Slotblocker vollkommen zu verzichten. Bevor ich 50 bin hätte ich gerne ein DP System mit zwei Opteron APUs mit je zwei dutzend CMT fähigen Modulen und 4 koppelbare oder unabhängig betreibare Grafikeinheiten pro APU ;-)
Sanchez669
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 364
JackA$$ schrieb:Ich habe selbst den E-350 und damit geht schon BF3, zwar auf lowest settings, aber durchaus schön anzusehen.
Das glaubst du doch selbst nicht. Selbst Flatout 2 oder Trackmania Nations Forever laufen nicht gerade in schön anzusehende Settings. Ebenfalls WoW ist für den E-350 eine Herausforderung. Alles selbst getestet.
Der E-350 ist für Office, Surfen und als Videoabspielgerät brauchbar. Aber als Gamingersatz gänzlich ungeeignet.
M
Mr.Kaijudo
Gast
JackA$$ schrieb:Verschmelzung von CPU und GPU ist in meinen Augen die Zukunft. AMD machts genau richtig.
Ich habe selbst den E-350 und damit geht schon BF3, zwar auf lowest settings, aber durchaus schön anzusehen.
Minimum System Requirements
OS: WINDOWS VISTA (SERVICE PACK 2) 32-BIT
PROCESSOR: 2 GHZ DUAL CORE (CORE 2 DUO 2.4 GHZ OR ALTHON X2 2.7 GHZ)
Natürlich weil man mit solchen CPU-Krücken ja auch Zocken kann
M
mav82
Gast
Ich sehe das genau wie viele andere hier, dass AMD endlich weiß wo sie stehen, wo ihre Stärken und Schwächen liegen, was Sie erreichen können und dass ein zukünftiger Kampf um den Hochleistungsprozessor wie ihn die Core I5 und I7, momentan und zukünftig wohl darstellen, für AMD durch die starke Konkurrenz nicht zu gewinnen ist. Ihre Change ist es, hervorragende Low-End bis Mittelklasse APUs anzubieten.
Allerdings hoffe ich auch, dass Sie nicht den Fehler begehen, zu jeder CPU auch eine mittelstarke/-potente GPU zu packen. Das wäre in meinen Augen verheerend. Nach wie vor benötigt ein Großteil der Nutzer nur eine sehr schwache GPU zum Surfen und für Office arbeiten. Wenn diese verschmilzt und auch bei arbeiten abseits der reinen 3D-Berechnung von nützen ist, ist alles in Ordnung. Sollte diese in Zukunft allerdings brach liegen, treibt dies den Preis bei der Herstellung nur in die Höhe und die Produkte dadurch für die breite Masse uninteressant.
Nachtrag:
Eine Potente 3D-Grafikeinheit wird die breite Masse auch in Zukunft nicht benötigen. Darum will ich auch einigen hier widersprechen, die meinen, Intel wäre hier schlechter aufgestellt. Bspw. eine HD2000 reicht geschätzten 70% der PC- Nutzer weltweit, vollkommen aus.
Allerdings hoffe ich auch, dass Sie nicht den Fehler begehen, zu jeder CPU auch eine mittelstarke/-potente GPU zu packen. Das wäre in meinen Augen verheerend. Nach wie vor benötigt ein Großteil der Nutzer nur eine sehr schwache GPU zum Surfen und für Office arbeiten. Wenn diese verschmilzt und auch bei arbeiten abseits der reinen 3D-Berechnung von nützen ist, ist alles in Ordnung. Sollte diese in Zukunft allerdings brach liegen, treibt dies den Preis bei der Herstellung nur in die Höhe und die Produkte dadurch für die breite Masse uninteressant.
Nachtrag:
Eine Potente 3D-Grafikeinheit wird die breite Masse auch in Zukunft nicht benötigen. Darum will ich auch einigen hier widersprechen, die meinen, Intel wäre hier schlechter aufgestellt. Bspw. eine HD2000 reicht geschätzten 70% der PC- Nutzer weltweit, vollkommen aus.
Zuletzt bearbeitet:
DinciVinci
Banned
- Registriert
- Sep. 2011
- Beiträge
- 1.076
Es geht nicht darum, den Low-End- und Mittelklassemarkt zu bedienen. AMD versucht, den ganzen Prozessormarkt umzukrempeln und Multi-Purpose-Prozessoren mit mehreren TFLOP/s für die Masse zu etablieren!
Quantität
Lieutenant
- Registriert
- Jan. 2011
- Beiträge
- 991
Sicherlich wird es für die breite Masse keinen GPU kern vom Schlage einer 7970 in der APU geben, doch durch die weitere Entwicklung im Bereich des Ultra HD wird es durchaus notwendig sein potentere Lösungen zu integrieren als es heute der Fall ist. Ich denke da nur an 4k - sobald 4k TVs und Screens in Preisbereiche rutschen wie es heute schon der Fall für FullHD Displays ist, braucht es einfach was Stärkeres. Neue "SmartTVs" die 4k Videos auf YT abspielen wollen benötigen da eine starke integrierte GPU/APU/CPU
Der Nostalgiker der jedoch noch ne Standard PAL-Röhre hat den interessiert das auch in 5 Jahren nicht, und der wird sich dann wohl altbacken-Technik in der Bucht kaufen...
Der Nostalgiker der jedoch noch ne Standard PAL-Röhre hat den interessiert das auch in 5 Jahren nicht, und der wird sich dann wohl altbacken-Technik in der Bucht kaufen...
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 1.358
- Antworten
- 15
- Aufrufe
- 905