• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Warum AMD Chip-Lieferant für PS4 und Xbox One wurde

Ob am Ende auch die Preisfrage eine ausschlaggebende Rolle bei der Auftragsvergabe gespielt hat, bleibt weiterhin unklar.

LOL. Natürlich hat der Preis eine Rolle gespielt. Der Preis spielt immer eine Rolle.
Er hat eine Rolle bei der Forderung nach einem SoC gespielt und er hat ne Rolle bei der Wahl von AMD als Partner gespielt. Schließlich spielt er am Ende auch beim Endkunden eine Rolle, denn sonst hätte Sony nicht die Kamera eingespart um die XBOX um ein paar Euro zu unterbieten.

Man hätte sicherlich auch mit einer Kombination aus Intel und nVidia oder Inteil und ner dedizierten AMD Grafiklösung arbeiten können, aber dann wären die Dinger nochmal teuerer geworden.
So hat man jeweils ein Stück Mittelklassehardware geschaffen, welches einem PC im Wert von ungefähr 550 Euro entspricht (hat Gamestar mal ausgerechnet) und begnügt sich damit. Das schöne dabei ist, dass die Spieleentwicklung nun wieder etwas voranschreiten kann, weil man nicht mehr auf die Uralt-Konsolen schauen muss. Das doofe ist, dass diese Konsolen auch wieder zig Jahre aktuell sein werden und die Spieleentwicklung un 1-2 Jahren auch wieder durch ihre Limitierungen bremsen werden.
 
diese konsolen können etwas früher von einem nachfolger abgelöst werden, man muß ja weniger entwicklungskosten einspielen.
dank x86 und fast standardhardware bleibt eine neue konsole auch zu den alten spielen kompatibel.
 
MichaG schrieb:
Mit über 20 Jahren Erfahrung in der IT- und Halbleiterbranche, wo er vor allem leitende Marketing-Positionen unter anderem bei Compaq, AltaVista und zuletzt AMD inne hatte...
Jetzt weiß ich, wen ich NICHT im Marketing beschäftige, das ist ja peinlich :)

Offenbar ist es AMD gelungen nahezu unbemerkt von der Öffentlichkeit ein brauchbares rundes Produkt abzuliefern. Obwohl Stromverbrauch und Rechenleistung deutlich schlechter als bei der Konkurrenz ausfallen, bin ich beim Bau eines Low-Budget-Office-PCs auf AMD zurückgekommen. Grund war die Grafik, AES und schließlich der Preis.
 
Ich würde mich freuen, wenn CB anstelle der freien Kommentierung hier von zwei drei Redakteuren einen Kommentar posten würde, um selbige Funktion dann für diese News abzuschalten.

Unglaublich was hier von einigen Zeit aufgewendet wird, um den Verlierer Intel sauber zu bürsten. Ich bin kein Fan von irgendeiner Hardware. AMD hatte das bessere Gesamtpaket wie man so schön sagt und Nein, Intel war und ist nicht in der Lage auch nur ansatzweise ähnliches zu liefern.

Würde Intel eine GPU Einheit mit nur 1/2 bis 2/3 der Leistung der AMD Einheit liefern können, wären sie es geworden. Wo doch die Intels mehr Leistung pro Watt haben, war die integrierte und gute GPU von AMD im SoC das Killerargument.

AMD kann höchstens sagen "Glück gehabt!". Der Monopolist Intel könnte - wenn er wollte - locker AMD ausstechen. Wenn sie es dieses Mal gewollt hätten (PS4, XBOX One), hätten sie vor ein paar Jahren mehr Geld und Arbeit in die GPUs gesteckt. Haben sie aber nicht! Vielleicht interessiert Intel die Marge in dem Segment einfach gar nicht?

Um mal weniger objektiv zu sein: ich bin froh, das der Monopolist Intel den Zuschlag NICHT bekommen hat! Wer nur ein klitzekleinesbischen was von Wirtschaft versteht, muß doch erkennen, dass das gut ist!
 
@0815*Sir Tom

Oh man - "hätte der Hund nicht geschissen, hätte er den Hasen erwischt" -
die Argumentation ist doch sinnfrei. Woher wollte Intel vor vielen Jahren wissen, was heute abverlangt wird und wie hoch die Margen sind - gerade bei einem Produkt, welches es so noch nicht gegeben hat (SoC x86). Es gab einfach nicht die Manpower (und das lässt sich auch nicht mit Geld so ohne weiteres lösen) - und jetzt haben sie den Salat. Vielleicht sind die Margen zu gering - kann sein - aber aus solchen Entwicklungen folgen weitere Innovationen - und die will Intel bestimmt nicht verpassen.

Wir werden also sehen, was die nächsten Jahre bringen!
CU
Suessi22
 
Solche Threads finde ich enorm wichtig, um in Zukunft gleich zu wissen, wessen Kommentare ich gar nie lesen muss. Was die Leute persönlich antreibt, hier AMD schlechtzureden oder Intel aufzupolieren werde ich allerdings nie verstehen. Man könnte fast meinen, Intel hält hier so manchem eine Knarre an den Schädel. Anders ist dieses hirnlose Rumgebashe kaum zu erklären.

Den meisten Konsolennutzern wird übrigens scheißegal sein, was im Innern für eine Hardware arbeitet. Frag mal einen Autobesitzer, wieviel Zylinder der Motor seines Wagens hat. Kann einem auch min. die Hälfte nicht beantworten. Ja, ich hab mit voller Absicht noch nen Autovergleich gebracht. Und nein, ich werde mir keine Konsole kaufen, meine letzte war ein SNES.
 
Elkinator schrieb:
nein, kann nvidia eben NICHT, auch mit geld kann man einen entwicklungsrückstand nicht durch zauberei ausgleichen...

kann man sehr wohl, nur wirds eben teuer. und damit unrentabel für nvidia, da sony und ms nicht bereit sind, auch entsprechend zu bezahlen.
 
nein, kann man eben nicht, nicht wenn es für die konsolen einen zeitplan gibt an dem sie fertig sein sollen...

sony und MS haben genau NICHTS davon, wenn intel oder nvidia ein jahr nach AMD einen passenden SoC liefern...
 
dafaithz schrieb:
Hm, ich raffs einfach nicht.
Irgendwie mach ich mir nen bissl sorgen was die Leistung der neuen Konsolen angeht.

Ich meine, wie soll eine X86 Soc genug Leistung bringen ?!

Geht einfach nicht in mein Kopf rein wieso man bei nem PC ne 600€ Karte reinhaut die mehr Strom frisst als mein Herd und dann kommen die mit sonen 60W Pillepalle Socs daher die genau die gleichen Ergebnisse liefern sollen ?
Die Lösung ist wohl die Summe einzelner Maßnahmen. Die CPU-Leistung sollte ausreichen, um gängige Spiele zu bedienen.
Als GPU verbaut AMD schon jetzt exklusiv für die Notbooks bessere Typen als in den Desktop-APUs. Das Customizing verlangt von AMD womöglich noch mal einen Schlag zuzugeben und womöglich gibt es auch tatsächlich eine höhere Anforderung an das Speicherinterface.
Die Testreihen hier bei CB zeigen ja deutlich, dass die integrierte Grafik nahezu direkt mit der Speichergeschwindigkeit skaliert. Das bedeutet, dass die AMD-Grafik weit potenter ist als es scheint und durch die Speicherschnittstelle ausgebremst wird. Mit größerem Cache kann man das ggf. auch abmildern.
Im Grunde kann AMD seine aktuellsten Grafikdesigns integrieren, was aber wg. dieses Speicherengpasses ungenutzt verpuffen wird.
AMD kann hier auch aus wirtschaftlicher Sicht aufdrehen. Während eine Verbesserung in der Desktop-APU einhergehen kann, dass man einen dedizierte Grafikchip weniger verkaufen wird, bedeutet jede zusätzlich verkaufte XBOX ohnehin eine Grafikkarte weniger, aber jede XBOX für den Nich-PC-Spieler eine zusätzlich verkaufte CPU/GPU.

Wäre interessant, ob es diese XBOX-APU auch als Desktop-Chip gibt, glaube ich aber nicht.
 
scully1234 schrieb:
Intel hat die potentere u effizientere x86 Architektur u nvidia das gleiche in grün auf dem GPU Sektor

Nvidia effizienter?

Ne PS4 wird 18CUs haben, also zwischen HD7870 und 7850. Schauen wir uns mal die Effizienz an, stellen wir fest, dass die 650 und 650 Ti die einzigen Karten von Nvidia sind die effizienter sind. Dafür aber deutlich weniger Leistung bieten. GPU seitig wäre Nvidia überhaupt keine bessere Wahl gewesen.

Zu Intel vs. AMD:

Klar Intel CPUs sind potenter, aber wozu braucht man die Leistung in einer Konsole? Es sollen keine Filme gerendert oder Videos transcodiert werden. Es werden auch keine Intel optimierten Benchmarks drauf ausgeführt.

Schauen wir uns mal die Effizienz vom 15W TDP Kabini und nem 17W TDP Ivy i3-3217U beim Gaming, Video Playback und Web Browsing an. Dann stellen wir fest das Kabini wirklich effizient ist.

Das Gesamtpacket was AMD liefern kann (SoC mit hUMA) ist besser als irgendwelche Intel CPU und Nvidia GPU zwei Chip Lösungen oder ein Nvidia SoC aus ARM-Kernen und Kepler.
 
Elkinator schrieb:
diese konsolen können etwas früher von einem nachfolger abgelöst werden, man muß ja weniger entwicklungskosten einspielen.
dank x86 und fast standardhardware bleibt eine neue konsole auch zu den alten spielen kompatibel.

Naja, daran glaub ich nicht, denn:

- Was passiert wenn man die Entwicklungskosten reingespielt hat? -> Man macht Gewinn
- Was ist der Vorteil wenn man die Konsolen danach 5 Jahre statt 3 Jahre am Markt lässt? Statt viel Gewinn macht man sehr viel Gewinn
- Was mögen Konzerne lieber? Viel Gewinn, oder sehr viel Gewinn?

Ich schätze mal auch diese Kosolengeneration wird so lange gemolken bis die Milch sauer wird, d.h. bis es einem selbst peinlich wird sie nicht durch was neues zu ersetzen.
 
AMD hatte hier einfach das passende Produkt zum passenden Zeitpunkt. Das können selbst Intel-Fans nicht bestreiten.

Ein bisschen später hätte vielleicht ein Haswell-SoC den Zuschlag bekommen. Aber hätte, wäre, wenn, das bringt Intel gar nichts.
Wobei ich Zweifel habe, dass MS und Sony mit der GPU-Leistung der Intel-iGPU zufrieden gewesen wären. Selbst wenn man einen Vollausbau genommen hätte. AMD hat da einfach ein paar Jahre Vorsprung. Z.B. auch bei den Treibern. (Auch wenn die bei der PS4 erstmal neu für das BSD-basierte OS portiert werden müssen.)

Wenn ich mir jetzt z.B. einen Entscheidungsprozess bei Apple vorstelle, die eine neue CPU für ihre kleinen MacBooks suchen, würde es AMD aber wahrscheinlich schwerer haben zu überzeugen, weil da der Schwerpunkt mehr auf der CPU und weniger auf der GPU liegen würde.
 
Der Argumentation zu folgen fällt nicht besonders schwer.
Zum einen ist AMD im Moment tatsächlich der EINZIGE Anbieter, dem ein x86-SoC mit ausreichend stabiler Grafikleistung zur Verfügung steht.
Zum anderen ist der einzig interessierte Konkurrent (NVidia) nicht in der Lage eine passend potente Lösung zu präsentieren.

Intel fällt raus, da deren Grafiklösung bis heute unterirdisch ist. Nvidia kann nicht bieten, was gesucht wird.
Jetzt fängt sich der AMD-Schachzug ATI aufzukaufen an auszuzahlen. Die Integration der Systemkomponenten in kleinere, dafür aber komplexere CHips wird Stück für Stück weiter voranschreiten und somit immer mehr Bedeutung gewinnen.
Zurzeit hat Intel dort einen Rückstand von mindestens 2-5 Jahren. Nvidia besitzt zudem keine x86-Lizenz und von VIA mal ganz zu schweigen.
AMD wird daher über Kurz oder Lang eine weit bedeutendere Rolle einnehmen. Speziell Entwicklung und Lizensierung dürften hier interessant werden.
 
dafaithz schrieb:
Die Grafik ist ja auch nicht sonderliche pralle bei den current gens, dafür sind die Spiele auf der PS3 aber trotzdem noch der absolute Hammer, siehe zB the last of us.

Also The last of us mag ja Storymäßig, von den Charakteren her und der Atmosphäre her super sein (ich schaue gerade das Lets Play dazu weil ich keine PS3 habe), aber es hat auch viele erheblich Macken, gerade technische, die den Spielspaß trüben.
Sicherlich holt das Spiel das Maximum aus der Konsole raus, aber das ist heutzutage alles andere als beeindruckend.

Zum Beispiel wird die dümmliche KI von Ellie und den anderen NPCs die Joel über die Zeit begleiten von offensichtlicher Kompromissprogrammierung versucht auszugleichen. Die Gegner-KI sieht sie nämlich nicht wenn sie zwar geduckt, aber ohne jegliches Cover, durch ihr Sichtfeld laufen. Joel erkennt sie sofort, sobald er auch nur kurz aus der Deckung lugt. Dabei ist IMHO die dümmliche Freund-KI gar nicht nötig, weil die Gegner-KI zeigt, dass es auch komplett anders geht.
 
Die Vorgabe SOC lässt ja auch etwas wenig Raum ^^ imho kann Nvidia schlecht nen X86 SOC mit GPU bauen und Intel hat (noch) nicht die GPU Erfahrung (gerade bei Games) wie AMD. Abgesehen davon lohnt sich ein Custom Design für Intel sicher weniger als für AMD.

Die Hauptkosten dürften wohl eher bei der OS Entwicklung anfallen, Treiber etc. Schaffen einer Developer Plattform.

Es war wohl weniger der Preis der APU selbst als eher das drum rum, denn die Vorgabe SOC dürfte die Komplexität restlicher Komponenten deutlich minimieren und auch beim Kühlsystem günstiger kommen.
 
Zuletzt bearbeitet:
Zurzeit hat Intel dort einen Rückstand von mindestens 2-5 Jahren. Nvidia besitzt zudem keine x86-Lizenz und von VIA mal ganz zu schweigen.

MichiSauer
Auch VIA produziert neben ARM und x86 Prozessoren Chipsätze und GPUs.
Mich würde es also nicht wundern wenn VIA auch irewann (at least) MCM Chips als "SoC" auf den Markt werfen.
Für den embedded Markt mehr als sinnvoll für VIA.

Übrigens, was auf CB noch nicht aufgefallen hat, aber mit den Konsolen wahrscheinlich zu tun hat.
http://www.fudzilla.com/home/item/31801-amd-spruces-up-open-source-linux-graphics-driver
AMD spruces up open-source Linux graphics driver

Somit fällt auch hier die Argumentation, NV only für eine Steam-Konsole weg.
The move shows how the adoption of Linux software options by Steam has forced AMD to focus on Linux more enthusiastically

Ich möchte noch auf ein Interview aufmerksam machen, dass einige wohl vergessen haben.
http://www.pcgameshardware.de/AMD-R...97/Specials/Interview-mit-AMD-Teil-1-1064770/
Interview mit Dr. John Gustafson von AMD: "Wer ein größtmögliches Publikum erreichen will, entwickelt für AMD"
Dr. John Gustafson: Für mich war ausschlaggebend, wie schnell sich bei AMD die Roadmap verändern lässt. Intels Roadmap ist sehr starr und langfristig festgelegt - die Leute dort mochten meine Ideen, aber sie meinten vor einem Jahr, dass sie frühestens 2018 auf den Markt kommen könnten. Wer weiß, ob ich lang genug lebe, um die Auswirkungen meiner Ideen mitzubekommen. (lacht) Bei AMD kann selbst ein Chip auf der Roadmap binnen eines Jahres verändert werden und die Firma ist obendrein offen für neue Ideen und Impulse.
Das was AMD auszeichnet, ist die hohe Flexibilität.
Und nochmals, der Kabini wurde sogar mit von AMD entworfenen Automatisierungs Tools entwickelt.
Ohne ATI, wäre AMD wohl nie so eine Software so erfolgreich programmieren können, denn viele Erfahrungen für die Erschaffung eines solchen Tools kommt vom GPU Know-How.
 
Zuletzt bearbeitet:
@DocWindows
Wenn man mal andere Ki Begleiter vergleicht... Ich würde dir raten das Spiel zu spielen.
Ich habe keine Lust zu sterben nur weil eine Freund KI nicht richtig funktioniert... Die Lösung wie in The Last of us ist perfekt und steht dem Spieler nicht im Weg wie in unzähligen Spielen dieser Art.
----------------------------------------------------------------------------------------------------------
Noch mal zu Thema.
Ist doch verdammt interessant wie irgendwelche Fans der Konkurrenz von AMD so ticken.

Weder Nvidia noch Intel könnend das bieten was AMD kann, also bekommt AMD den Deal. Ganz einfach.
 
Zuletzt bearbeitet:
Was hier auch einige gerne vergessen.
Selbst wenn Intel in Hardware eine GPU hätte, die leistungstechnisch Konkurrenzfähig wäre, die Treiber sind es nicht.
Für PC Spieler ist die Lösung eh ideal!
Zum Glück wurde es kein Nvidia ARM. Dann hätten die Spielestudios wieder so viel Energie in die Portierung gesteckt, wie Sie es zur Zeit tun.

Nun können Sie easy switchen und die gewonnene Zeit in Verbesserungen wie bessere Texturen/angepasstere Steuerung etc. stecken.

Ich freu mich auf die PS4.

Update:
Ach ja und das CustomDesign - da ist AMD Intel weit überlegen, da AMD in ihrer CPU bereits die nötigen Schnittstellen schon lange vorbereitet hat.
Burner in meinen Augen wäre ja, wenn Sony seinen Bildverbesserungs Chip integriert hätte, den Sie in den aktuellen Fernsehern verbaut haben. Die bekommen nämlich zur Zeit nur Lob in den entsprechenden Fachzeitschriften. 3D, Upscaleing alles erster Sahne.
Mit dem Upscaling könnte man sich sogar teures AA sparen. Intern wird das Spiel in < FullHD berechnet der Bildprozi rechnet es hoch auf Full HD...
 
Zuletzt bearbeitet:
Ich denke sowohl der Entwickler als auch der Gamer kann froh über diese Entscheidung sein. Zum Glück ist ARM noch nicht so weit.
 
Das konnte sich doch jeder an 3 Fingern zusammenreimen.

Aber wo sind jetzt die "Insider" Informationen oder das spezielle Fachwissen ?

Alles Vermutungen, die 80% der Forenuser auch so hätten aufstellen können (und getan haben).
 
Zurück
Oben