News AMD: Alles auf die Verschmelzung von CPU und GPU

@DinciVinci,
und wer brauch das? Also will AMD, deiner Meinung nach, nicht die breite Masse bedienen? Hat sich AMD davon als auch verabschiedet?
Für Internet und Office wird keine potente 3D-Beschleunigung benötigt. Möglich, dass zukünftige APUs einen großteil zukünftiger Spiele- Blockbuster mittelprächtig beschleunigen können. Enthusiasten werden weiterhin auf eine Grafikkarte setzen.

Klar, so ne APU kann werbewirksam sein, wenn Balken präsentiert werden…:freak:

Also weder Fisch noch Fleisch.

Aber ich wiederhole mich zum X-ten Male. Du verstehst es nur nicht.
 
Ich möcht zu gern jetzt die Informationen haben:
1. Werden Apus in die Next-Gen Konsolen verbaut
2. Diese den ominösen HSA Standard nützen könnten der dann in Konsolenportierung beibelassen werden könnte (wenns überhaupt funktionieren würde^^)
3. Ob der HSA Standard nur von den APUs genutzt werden kann oder z.B. auch von der Grafikkarte
4. Was dieser Standard überhaupt sein wird:lol:
 
Fuddelbaer schrieb:
Es besteht eine unglaubliche Asymetrie in der Wahrnehmung der Wichtigkeit der verschiedenen PC Komponenten in meinen Augen. Am geilsten finde ich immer die Tests von 4 Way Crossfire/SLI Systemen - Absoluter Overkill zum maximieren der Leistungsfähigkeit im Visuellen Bereich. Alles dedizierte Karte. Dem gegenüber steht dann ein spottbilliges Realtek Chipchen für den Sound und ein auch nicht gerade teurer Marvell Network Chip fürs Netzwerk, beides selbstverständlich "onboard".

...oder es liegt schlicht und ergreifend an den Verhältnissmäßigkeiten der Hardware...

Im Ernst, macht es für den Ottonormalverbraucher mit ein, zwei Rechnern und nem Router Zuhause einen Unterschied ob man eine teure dedizierte Netzwerkkarte nutzt oder einfach auf den Onboard Marvell Chip setzt? Nein.

Ist der Unterschied zwischen einem Realtek Onboardchip und einer über teuren Soundkarte in Spielen wahrzunehmen? Möglicherweise, aber ist dieser wirklich Nennenswert? Ich denke nicht. (Wenn man Musik macht ist das natürlich was anderes)

Ist der Unterschied zwischen einer billigen Onboard GPU und einer dedizierten High-End GPU sichtbar? Natürlich, es liegen Welten zwischen.
Wer es extremer mag und das bestmögliche Feeling erreichen will der wird auch zu SLI/CF greifen.

Es ist ja immer die lachhafte Behauptung zu hören, dass der Mensch nur bis zu 25 oder 30fps wahrnehmen kann; aber das ist totaler Quatsch und wurde auch schon tausende Male widerlegt. Vielleicht sollten die Abergläubigen mal bisschen über dieses Thema recherchieren (lustigerweise kommt dieses Argument meist von SLI/CF Hatern :rolleyes:).
Hinzu kommt, dass die Steuerung des Spiels, d.h. die Aktionen des Spiels durch Input (Tastatur, Maus) ebenfalls FPS-Abhängig sind.
In niedrigen Frames macht sich ein deutlicher Inputlag bemerkbar der bei Shootern am meisten zu erkennen ist.

Wenn jemand mal sehr schnelle Oldschool Games a la Quake, Painkiller, Halflife (AG Mod) etc. gezockt hat, dem wird klar sein, dass zwischen 30-40 fps und konstanten 60+ fps ein RIESEN Unterschied liegt. Selbst das war nicht genügend. Ein Anstieg auf 100fps war immer noch deutlich zu spüren und hat sich in viel flüssigerem Spielverlauf / Mausbewegungen geäußert.

Na gut, bei dem heutigen Müll der zu 99% nur noch aus langsamen Kriegsshootern besteht spielt dieser Aspekt keine so große Rolle mehr, dennoch würde ich mir persönlich im Shooterbereich nichts unter konstanten 60fps mehr antun.
 
HSA ist kein Standard - es ist eine popelige Marketingbezeichnung für etwas, was seit Jahren normal ist: Die Verwendung unterschiedlicher Prozessoren zur Erledigung von Aufgaben.

Oder anders ausgedrückt: Jedes System in den letzten 10 Jahren ist ein HSA. :D
 
Es geht nicht darum, den Low-End- und Mittelklassemarkt zu bedienen. AMD versucht, den ganzen Prozessormarkt umzukrempeln und Multi-Purpose-Prozessoren mit mehreren TFLOP/s für die Masse zu etablieren!

Das ist es und nichts anderes. Scheinbar versteht es noch immer der Großteil hier wohin der Zug fährt! Mit dieser Fusion dürfte heutige High End Hardware nur noch die Rücklichter sehen.
 
Zuletzt bearbeitet:
Man darf doch nicht davon ausgehen, dass die Masse der Kunden am Rechner sitzt und zockt.
Ich für meinen Teil brauche CPU Power am Notebook, weil ich den ganzen Tag damit arbeite und mein Geld verdiene. Als GPU reicht mir die HD2000 voll aus. Warum sollte ich mehr brauchen, was dann wieder mehr kostet und mehr Strom verbraucht.
Um abends im Hotel etwas zu spielen reicht meine GPU auch voll aus. Es müssen ja nicht die neuesten Shooter Games sein.
Bin immer noch der Meinung, dass wenn jemand richtig spielen will, dann kauft der sich auch dementsprechend die notwendige Hardware.
Solange mir eine stärkere GPU nicht bei meiner Software die ich nutze hilft, brauche ich auch keine.
AMD hat uns weiß gemacht, dass wir mehr Kerne brauchen. Bezweifle bis heute, dass die Masse der User mehr als 4 Kerne braucht. Wer denkt, dass man zum zocken und chatten 6 oder mehr Kerne braucht, hat eh den Schuss noch nicht gehört.
 
Lightning58

NV wird Intel nicht brauchen. Die werden 2014 ein 64 Bit ARM mit deren GPU kombinieren, und ein ähnliches Produkt am Server-markt Vorstellen.

Wie bereits schon in einem anderen Thema geschrieben, was macht dann Intel ???

Intel hat Many Cores mit wahrscheinlich höheren Verbrauch. Da man mit der Fertigung momentan besser läuft kann man damit eventuell den Mehrverbrauch kompensieren.

ChilliConCarne
Die GPU in der APU wird nicht mehr als eigenständiges Objekt gesehen.
Die APU arbeitet dann wie eine CPU nur bearbeitet sie Sachen so schnell wie eine GPU darum geht es.
Dieses Kit ist soetwas wie ein direct x Schnittstelle nur halt für eine APU. Das heißt die APU schiebt befehle in den Register und lasst dann sachen bsp von der gpu oder CPU berechnen was halt schneller ist.

Lord Quas
CPU = central processing unit
APU = Accelerated Processing => beschleunigte Verarbeitungseinheit

Ein APU ist quasi eine CPU auf Steroiden oder mit nitro am arsch damit es der Leihe versteht.
Diskrete Highend Grafikkarten wird es weiter geben.
Die GPU berechnet in der APU aber Sachen, was sie in einer normalen Grafikkarte nicht berechnet.
Bsp Videobearbeitung könnte eine APU effizienter und schneller sein als eine ManyCore von Intel.
Die Produktion (DIE größe) wäre ebenfalls weit aus kleiner, schätze ich

mav82
Und wieder jemand der das Konzept einer APU nicht versteht
 
Zuletzt bearbeitet:
@Sontin
Die HSA soll unter anderem dafür ein offener Standard werden, die Details dazu will AMD im Sommer bekannt geben.
HSA oder vorher Fusion aber jetzt möchten die halt nen Standard draus machen deshalb meine Fragen die aus dem obrigen Satz folgen.
 
@Quantität,
eine Grafikeinheit für die Videoausgabe von 4k-„FullHD“ fit zu machen stellt wohl für zukünftige Grafikeinheiten oder APUs kein Problem dar und hat nichts mit der 3D-Leistung zu tun! Schon mal etwas von integrierter HD Hardwarebeschleunigung bei der HD Video-Dekodierung gehört?
 
Ich denke das AMD im Jahr 2015 eine APU = Hybrid = totale Verschmelzung von CPU & GPU.
Was ich sagen will das der CPU anteil nur für kleine Befehle vorhanden ist und der GPU bereich für die Rohe Leistung. Endeffekt macht AMD das richtige, endlich mal einen Konkreten Weg eingeschlagen. Der neue CEO macht es richtig. Jetzt heist es abwarten und sehen was die Zukunft bring.
 
Mein Bruder hat in seinem Subnotebook den E-350. Man kann da schon so einiges mit spielen. Für unterwegs ganz praktisch. Ansonsten hat er nen stationären PC, der eh jedes Spiel dicke packt.

Ich selber habe in meinem Notebook nen Turion mit 2x1,6GHZ und ne 4330 und ich kann auch einiges spielen. Auf Low Details auf jeden Fall.
 
APU heißt aber immer, dass CPU und GPU auf einem DIE sind, richtig?
Nein, irgend wann mal ist es ein und die selbe DIE, ein Superprozessor der die Vorteile von CPU und GPU vereint und mit extremer Rohleistung vielleicht Intel davon rechnet. Das ist das Ziel und davon ist AMD noch sehr sehr weit entfernt. 5 Jahre dauert das noch mindestens, aber wenn es perfekt klappt könnte es AMD wieder zu alter stärke bringen.

Intel müsste bis dahin entweder selber Milliarden in die GPU Entwicklung stecken oder NV kaufen. Beides extrem große Brocken.
 
Warum hat AMD viele Produkte von der Radmap gestrichen ? Nicht zukunfsweisend -oder fehlt
schlichtweg das Geld um sie umzusetzen? Zumindest haben sie erkannt,das sie Intel im x86-Markt nicht mehr angreifen können.Also machen Sie das,was sie können und nutzen ihre GPU-Sparte.Desktop-CPUs dann nur noch als Nebenprodukte der Server -CPU Sparte.Aber soviel anderes machts` ja Intel auch nicht.Nur das die ihre Desktops immer vorschieben,damit die Server-CPUs dann halbwegs BUG-free werden.Jüngstes Beispie:Sandbridge E-Xeons,die ja nach ihren Desktop-Brüdern auf die Welt kommen,die ja nicht fehlerfrei waren.
Wenn AMD es weiter schafft,gute Grafikkarten und Liano-Nachfolger mit weniger TDP herzustellen,
sehe ich Land für sie.
 
Zuletzt bearbeitet:
Klar doch, da hab ich mich nicht gut ausgedrückt... ;)

Was ich eigendlich sagen wollte, war eher das man wohl mit den zukünftigen APUs kein Skyrim oder BF3 in 4k und auf Ultra zocken kann, sondern das solche Videobeschleunigerfunktionen direkt in die APU integriert werden um eben hochauflösenden Material vernünftig wiederzugeben.

Wer das Maximum liebt wird auch weiterhin eine diskrete Grafiklösung der Integrierten vorziehen, doch die wird für den alltäglichen Gebrauch wie Surfen, Office, und Filme lullern eben im Standby schlummern, während die APU den Alltag bei 15W meistert. Wenn dann am Abend ne Runde BF4 und TES6 gezockt wird erwacht die diskrete HD9k aus dem Tagesschlaf und schenkt uns die Leistung die wir wollen.

Ich könnte mir gut vorstellen das man zukünftig nur noch Mid-High und High-End Grafikkarten von AMD sehen wird, da man den Low-Mid Markt lieber mit APUs versorgt die für das Mustermann-Anwendungsschema mehr als ausreichend sind.
 
MikelMolto schrieb:
Man darf doch nicht davon ausgehen, dass die Masse der Kunden am Rechner sitzt und zockt.
Ich für meinen Teil brauche CPU Power am Notebook, weil ich den ganzen Tag damit arbeite und mein Geld verdiene. Als GPU reicht mir die HD2000 voll aus. Warum sollte ich mehr brauchen, was dann wieder mehr kostet und mehr Strom verbraucht.
Um abends im Hotel etwas zu spielen reicht meine GPU auch voll aus. Es müssen ja nicht die neuesten Shooter Games sein.
Bin immer noch der Meinung, dass wenn jemand richtig spielen will, dann kauft der sich auch dementsprechend die notwendige Hardware.
Solange mir eine stärkere GPU nicht bei meiner Software die ich nutze hilft, brauche ich auch keine.
AMD hat uns weiß gemacht, dass wir mehr Kerne brauchen. Bezweifle bis heute, dass die Masse der User mehr als 4 Kerne braucht. Wer denkt, dass man zum zocken und chatten 6 oder mehr Kerne braucht, hat eh den Schuss noch nicht gehört.

Stärkere CPU, das Argument ist ok, wenn dir das folgendes wert ist:

- 200-300 Euro mehr zahlen für die überteuerte Intel Lösung. Und Intel ist einfach wesentlich teurer.
Dafür ca. 20% weniger Prozessorleistung. Das ist ein Argument wenn man eine SSD im Gerät hat und der Prozessor auch permanent durcharbeiten muß. Sobald er nurmal 1 Sekunde auf irgendwelche Daten warten muß ist der vorteil schonmal wieder dahin.

- aufwendigere Kühlung von Nöten da die Intel Chips weitaus höher takten muessen....was das heißt kannst du z.b. an diesem Bericht sehn wo ein Llano verbaut ist:
http://www.notebookcheck.com/Test-Acer-Aspire-7560G-Fusion-Notebook.69146.0.html

Das ganze Gerät wird bei weitem nicht so heiß. Ich pers. hasse es wie die Pest wenn ein Laptop auf meinem Schos so heiß wird dass ich es auf den tisch stellen muß.

Temperatur

Eine der größten Stärken der AMD Komponenten ist die moderate Temperaturentwicklung. Während CPU und GPU bei Intel basierten Notebooks gerne auf über 80 oder sogar 90 °C kommen (vergleiche z. B. das Acer Aspire 5755G-2678G1TMtks), verweilen die Komponenten des Aspire 7560G stets unter 65 °C – Respekt. Entsprechend trat im Stresstest (volle Auslastung durch Prime und den Unigine Heaven Benchmark) kein Throttling auf

- der Stromverbrauch ist NIEDRIGER, nicht höher....kannst du dir alle Testberichte von Notebooks einfach mal anschaun mit APU´s. auch den den ich hier verlinkt habe.
Das ist zwar ein Crossfire Gerät...das ist sicher nicht jedermanns Sache wegen Mikroruckler...aber da kann man schon erkennen wie stromsparend die APU´s sind...und da meine ich nur die mobilen Lösungen.

Akkulaufzeit

Acer hat das Multimedia-Notebook ganz auf Sparsamkeit getrimmt. Rund 10-15 Watt im Idle-Betrieb und 40-50 Watt unter Last sind hervorragend. Damit verbraucht der 17-Zöller nicht mehr Energie als kleinere und mit ULV-Prozessoren bestückte Office-Geräte wie das Acer TravelMate 8481TG (Core i5-2467M & GeForce GT 630M). Der niedrige Strombedarf weist auf ein gutes Energie-Management seitens AMD hin.

Die beiden Grafikkarten kommen aber nur dann richtig zur Entfaltung, wenn sich der Nutzer entsprechend um das Notebook kümmert und den GPU-Treiber auf dem neusten Stand hält. Im Test funktionierte der CrossFire-Modus leider nicht optimal. Positiv ist derweil die geringe Temperatur- und Geräuschentwicklung hervorzuheben. Komponenten und Gehäuseoberflächen werden auch unter Last nicht allzu warm. Zudem arbeitet der Multimedianer selbst im Gaming-Betrieb angenehm ruhig. Der niedrige Energieverbrauch garantiert überdies ordentliche Akkulaufzeiten.

Les dir ruhig weitere Berichte durch

Und der Hauptpunkt: sobald es mal optimierte Software gibt bei der Berechnungen auch in die GPU Einheit verlagert werden, also angepaßte Software..besiegt die AMD APU um Längen die Intel CPU+GPU Ist halt das zukunftssicherere Allround Produkt
 
Zuletzt bearbeitet:
@mav82:

Du verstehst das Ganze nicht. Es geht nicht um irgendwelche (3D-)Beschleunigungen spezieller Fälle. Es geht um einen Mischprozessor, auf dem das gesamte System läuft und der selbst entscheiden kann, wo er was am schnellsten oder am energiesparensten rechnen kann. Das könnte evtl. eine komplette Umwälzung der bisherigen IT-Landschaft bedeuten. Wenn man so will, ist das eine Neudefinition des Marktes.
Alles natürlich langfristig, das braucht Zeit.
 
Letzte Chance für AMD würd ich sagen.
 
Ein_Freund
Ob APUs in Konsolen verbaut werden ??? Naja im Nintendo nein, xbox auch nicht. Sony will bis 2014 warten :O
xD
Erst die Konsolen dannach eventuell.

Kasmopaya
Selbst wenn man NV kauft, gibt es doch einen großen Rückstand. Denn wie man CPU und GPU verschmilzt muss man ja auch mal beherrschen und forschen und das macht ja AMD schon seit Jahren.
Somit sind quasi 2 Technologien zu entwickeln. Wobei Intel mehr Geld und Gruppen hat.

Xedos99
Schätze mal setzt alles auf ein Pferd. Wobei wenn du dir nur die APUs anschaust. siehst du dass man in allen Bereichen bis auf High-End einiges ändert.
Trinity, streamroller usw.
FX-Piledriver wird es 2013 geben. Dann schätz ich der neue Sockel für Server und Destkop => neuen ServerApus.
Fm2-Plattform hätte halt auch für FX geben sollen. Denk mal man möchte das Jahr Geld sparen und die richtigen APUs früher auf den Markt bringen.
Deshalb beibt man bei Server auf 32 nm
ABER irwie ist das CB-nachricht entfallen :
Vishera” will also carry over into 2013 but with some enhancements over the 2012 version.

Weiß jz nimmer auf welcher AMD Folie das stand...
 
Zuletzt bearbeitet:
pipip schrieb:
Die GPU in der APU wird nicht mehr als eigenständiges Objekt gesehen.
Die APU arbeitet dann wie eine CPU nur bearbeitet sie Sachen so schnell wie eine GPU darum geht es.
Nachdem du das erwähnt hast, ist es mir dann beim Blick auf die erste Grafik auch klar geworden. Zumindest soweit mein technisches Verständnis dafür reicht. Das sieht danach aus (korrigier mich wenn ich falsch liege), als ob das Management für die Berechnung grafischer Aufgaben nun in den Chipsatztreiber wandert. Kann eigentlich nur gut sein, da AMD in diesem Bereich mit Sicherheit nicht die gleichen Schikedanzen wie im GPU Bereich anfangen wird. Sonst verabschieden sich die Mainboardhersteller ganz schnell. Und da das über den gleichen Controller laufen wird, werden hier wohl unabhängig vom OS kaum halbe Sachen zu erwarten sein.

Ich hoff nur, dass sich hier nicht irgendein Vollpfosten eines Managers getreu dem Motto "Millionen Fliegen fressen Sch***, also kann nur einzig Windows gut sein" wundert warum auch unter Linux plötzlich mehr funktioniert und sich überlegt ob man da nicht etwas wegrationalisieren könnte. Oder vielleicht gegen ein paar schwarze Köfferchen nicht irgendwie Steine in den Weg legt ... *Halloween Dokumente* *pfeif* ...
 
Bin ja mal auf die Trinity-APUs gespannt, mein HD3200/X2 5050e Rechner braucht n Update, die Onboard-Lösung reißt wahrlich nichts raus und Trine würde ich schon gern flüssig spielen können (in höheren Auflösungen).

Aber hat Intel nicht PowerVR lizensiert? Damit könnten sie den AMD-APUs schon ziemlich einheizen wenn sie die in ihre CPU kriegen, gerade was Leistung pro Watt angeht sind die Dinger ja echt super.
 
Zurück
Oben