News AMD legt bei x86-Marktanteil deutlich zu

Jongar schrieb:
Freut mich wahnsinnig für AMD!! Seitdem ich erfahren habe, dass Intel massiv in Israel investiert, ist mir Intel total unsympathisch geworden; da freut man sich über jede Erfolgsmeldung für AMD!
Hoffentlich haben die dann so mehr Liquidität, und können mehr in R&D investieren und Intel auch im High-End-Segment endlich mal wieder schlagen! :)

Was meinst Du damit? Intel investiert in Europa -- das ist doch gut?! Bspw. in Irland und Israel (wobei Israel "nur" im "erweiterten" zu Europa Sinne zaehlt). Dabei meint 'investiert' hier nur im Sinne von Produktion. Intel ist nebenbei ueberall in Europa investiert (etwa 50% der Mitarbeiter sind nicht in den USA). Es ist ausserdem eine Firma die sich nocht nicht von den entwickelten Laendern verabschiedet bzgl. Produktion.
 
wenn ein anderer hersteller soetwas abzieht wird es kritisiert, bei intel hat sich das genau KEINE seite getraut!

Ich verstehe das Problem nicht.
Das machen auch andere Unternehmen andauern und es interessiert ebenso keinen. Ich habe mich neulich nur mal aufgeregt, als Intel das Werk in Costa Rica dichtgemacht hat, weil das Land das niemals ausgleichen kann. Für die Fachkräfte bedeutet das jetzt Auswandern und für die, die an diesen Fachkräften hängen, Armut.
Ansonsten - business as usual.

Das einzige Problem ist echt, dass sich hier Leute ernsthaft darüber beschweren, dass es sich ein Konzern erdreistet in Israel zu investieren :rolleyes:
 
dgschrei schrieb:
... Zumal AMD den Konsolenzuschlag deshalb hat, weil Intel und Nvidia bei den Margen nicht mal mitspielen wollten und die Entwickler kein PPC mehr haben wollten.
Krethi & Plethi schrieb:
und wieder dieses märchen, intel und nvidia haben den zuschlag nicht bekommen, weil sie auch wenn sie wollen keine produkte dafür hätten!

dgschrei hat aber recht, war aber die Ansage von Nvidia, selbst wenn Nvidia die wahren Gründe nicht offen legte und nur eine "Scheinaussage" getroffen wurde:
Steht auch was bei CB dazu, find's aber leider nicht.

 
Zuletzt bearbeitet:
wenn nvidia das behauptet muß es natürlich stimmen, der laden hat ja auch noch nie getrollt...

nvidia könnte auch wenn sie wollen keinen geeigneten SoC liefern, also hätten sie den zuschlag auch nie bekommen!
 
hfp schrieb:
(wobei Israel "nur" im "erweiterten" zu Europa Sinne zaehlt).
wie komtm man bitte auf den blödsinn?

0,00% der landes sind in europa, asien gehört für dich zu europa?
 
hoffentlich verramschen die sich nicht zu nem reinen consolero, das ist zwar ne sehr kindliche einstellung, aber dann würde ich definitv ati aus dem weg gehen!
 
0,00% der landes sind in europa, asien gehört für dich zu europa?

Liegt Grönland etwa in Europa?* :freak:
Oder diverse Überseedepartements?

Es geht wohl eher um die Kultur. Israel macht nicht zum Spaß bei diesem grauenvollen Songcontest mit.


*nein
Aber sie gehören sogar zur EU ;)

E:
grönland wird übrigens zu nordamerika gezählt und ist NICHT mitglied der EU, also zuerst mal informieren bevor man auf dicke hose macht...

Du weißt aber schon, dass Grönland ein autonomer Teil Dänemarks ist oder? Und, dass Dänemark nicht in der EU ist, wäre mir neu.
 
Zuletzt bearbeitet:
ok, jetzt kommen wohl eh nur noch dumme kommentare...

grönland wird übrigens zu nordamerika gezählt und ist NICHT mitglied der EU, also zuerst mal informieren bevor man auf dicke hose macht...
 
Zuletzt bearbeitet:
@White_Eagle

dgschrei hat überhaupt kein recht, nur weil er irgendwas nachplappert was ein schlechter verlierer von sich gegeben hat. Dein letzter Link beschreibt es genau wie es ist ( Warum AMD Chip-Lieferant für PS4 und Xbox One wurde ). Es ist genau die Schlussfolgerung die jemand mit gesundem Menschenverstand und mindestens mit Grundwissen über die jeweiligen Unternehmen und ihre Produkte hat.
 
Krethi & Plethi schrieb:
wie komtm man bitte auf den blödsinn?

0,00% der landes sind in europa, asien gehört für dich zu europa?

housefacepalm1.jpg



Btw:
Die kontinuierliche Verwendung von Quartalsangaben würden dem Artikel sicher nicht schaden.
Und dieser Satz:

Volker Rißka schrieb:
"Die Kannibalisierung durch die Tablets sei jedoch weitgehend gestoppt, heißt es weiter.

...ist erstens falsch und zweitens steht davon auch nichts in der angegebenen Quelle.
 
@Whoozy

Wenn man sich den Artikel anschaut... mir ist unklar, warum Intel so einen Chip nicht hätte liefern können? Das einzige, was auf den ersten Blick dagegen spricht, wäre die iGPU - alles andere wird erfüllt.
Aber Intels Prozessoren sind Modular aufgebaut und leicht erweiterbar. Für die iGPU gilt das gleiche... und die Iris Pro 5200 hat genug Rohleistung - die bei einer Konsole auch genutzt werden könnte.

Wie viele Konsolenchips wurden bisher verkauft? Wie viel verkauft Intel normalerweise im Jahr und mit welcher Marge? Von der technischen Seite spricht für mich wenig dagegen. Wirtschaftlich sieht es schon anders aus. Intel hat kein Produkt wie AMD mit ähnlicher (gesamt) Leistung welches sie zu einem passenden Preis verkaufen würden. Die kosten fast schon so viel wie die ganze Konsole.

@Krethi & Plethi

Ja, er hat Unsinn geschrieben. Aber du hast doch dennoch erfasst worauf er hinaus wollte? Darauf, das es dem anderen Kommentator um kulturelle Verbundenheit / Nähe ging? Immerhin hat der vom "im erweiterten Sinne" geschrieben. Deine Reaktion war übertrieben. Aber wenn du einmal in Fahrt bist kannst du offensichtlich nicht mehr zurück.
 
Zuletzt bearbeitet:
Die Gpu Leistung der Konsolenchips ist schon ein gutes Stück höher als die von Iris Pro 5200, desweiteren hatte ich schon vorher erwähnt das GCN effizienter ist als die Intel Gpu.

By the way Nvidia lehnt angeblich ab wegen zu geringer Margen, aber für die Playstation 3 und die erste Xbox war es noch Ok ? Oder für die Ouya Konsole plötzlich auch Ok ? Und dann Pumpt Nvidia noch 15 Millionen Dollar als Investor in die Ouya Konsole ? Dabei ist es ungewiss ob Ouya ein Erfolg wird, aber PS4 und Xbox One sind sicher ein Erfolg. Die können mir erzählen was die wollen, das sind nur Aussagen eines schlechten verlierers.
 
Zuletzt bearbeitet:
Intel hat aber nicht so eine große Gaming Erfahrung was Grafik angeht und auch nicht so gute Beziehungen zu den Entwicklern von Spielen was unterstützung angeht. AMD ist da mit dem Gaming Evolved Programm recht erfolgreich und hat gute Erfahrungen auf dem Gebiet
 
Es ließen sich weitere EU hinzufügen, das wäre also nicht das Problem. Dann eher die vermeintlich geringere Effizienz, da der TDP und Die-Größe Grenzen gesetzt sind. Gibt es zur Effizienz einen Test? Ist auch die Frage, welchen Einfluss der eher schlechte Treiber hat.

@Toms

Und wie wichtig ist das bei einer Konsole?

Davon abgesehen ging es mir nur um den rein technischen Aspekt. Wenn die Effizienz wesentlich schlechter ist, dann ist das für mich ein Argument. Von all den anderen Faktoren, die noch eine Rolle spielen, wie dem wirtschaftlichen Aspekt etc. einmal abgesehen. Denn Intel wird keine Prozessoren, die sie einzeln für z.B. 300 Euro verkaufen, für einen Bruchteil verkaufen, wenn nicht irgendwelche Firmeninternen Analysten einen Markt für sehr wichtig halten, wie z.B. den Markt mobiler Geräte.

Von der PS3 wurden 80 Millionen in 6 Jahren verkauft, das sind "nur" rund 13 Mio. pro Jahr - im Vergleich zu 339 Mio. Prozessoren für Desktops & Notebooks für 2013. Bei willkürlich angenommenen 60 Euro Umsatz pro Chip für eine Konsole wären das rund 1 Mrd. pro Jahr. Bei 100 Euro pro Chip 1,3 Mrd. pro Jahr. Keine Ahnung, wie viel pro Chip gezahlt wird. Das ist nur, um sich eine Vorstellung machen zu können.
Für 2014 ist geplant 40 Mio. Prozessoren für Tablets zu verkaufen. Ob das alles sinnvoll ist, sei mal dahin gestellt. Bei Intel wurden schon genug falsche Entscheidungen getroffen.
 
Zuletzt bearbeitet:
calluna
Klar MS hätte wieder Intel nehmen können, hatten sie ja schon bei der ersten MS XBOX.
Klar Sony hätte wieder NV nehmen können, hatten sie ja schon bei der PS3.
Interessant dabei ist, alle sind zu AMD gegangen und Nintendo setzt seit GameCube auf ATI/AMD.

Klar kann das alles Willkürlich sein. Klar ist, dass AMD im Vergleich zu NV scheinbar mit den Partner offener zu geht. Ich möchte mal etwas über die WiiU posten, einfach weil ich darüber viel lese.
http://www.nintendo.at/Iwata-fragt/Iwata-fragt-Wii-U/Wii-U-Hauptkonsole/3-Magie/3-Magie-653992.html
Ich glaube, darin liegt die Magie von Spielekonsolen. Wir führen die Entwicklung gemeinsam mit anderen Unternehmen durch, aber das sind dann nicht Angestellte von IBM, Angestellte von AMD und Angestellte von Renesas, sondern wir haben uns zu etwas zusammengeschlossen, was man als „Team Nintendo“ bezeichnen könnte. Das kam wohl daher, dass alle mit ihren Familien über das Projekt sprechen konnten. Das ist überhaupt einer der positiven Aspekte von Spielekonsolen: Die Motivation der Teilnehmer wirkt sich auf das gesamte Team aus.


Wie hätte eigentlich so ein Intel SoC ausgesehen ? Wichtiger, wo hätte man den gefertigt ? Bei Intel selber ? Hätte man dann den 22nm Prozess genutzt oder vllt einen älteren Prozess, gar 32nm ?
Wie hätte die CPU ausgesehen ? Was würde sich den ausgehen bei der Die-Size von den 2 Jaguar Modulen ? Ich glaub es waren 25mm^2 pro Modul ?
Intel neue ATOM Architektur, war diese bis dahin schon fertig ? Oder hätte man einen Sandy Bridge genommen, was würde sich da ausgehen 3 Cores mit SMT und dann ebenfalls auf ein Minimum underclocked (PS4 taktet ja mit 1,6 ghz und XOne mit 1,75).

Dann kommen wir noch zur GPU. Was wäre denn das für eine GPU gewesen. Noch mehr EU's mit einem 32, 64, 128 MB Cache und auch mit DDR3 angebunden. Oder hätte Intel auch GDDR5 verwendet so wie bei ihren Server MIC's ?
Oder hätte man gleich ein MIC verbaut ?
Ich weiß nicht, aber wenn ich an die Preise denke, die Intel so verlangt, ich glaube da hätte Sony oder MS bis jetzt bestimmt weniger Konsolen verkauft.
Auch verstehe ich nicht wieso die HD 5200 immer so gelobt wird. Die IGP des A8 7600 ist mit nur DDR3 Anbindung ca so schnell wie die Intel Lösung und das ist auch ein Prozessor mit einer 65 watt TDP. AMD schafft hier die gleiche Performance ohne eDRAM und dann stelle ich die Frage, wie groß sind die 40 EU's im Vergleich zu den 386 Shader des Kaveri, der übrigens noch in 28 nm ist.

Ich glaube kaum dass Sony oder MS den 22nm Prozess genommen hätte, denn es ist nicht unüblich den teuersten Prozess für eine Konsole zu nehmen, sondern man nimmt jenen Prozess der auch die Produktions-Kapazität erlaubt und bei 28nm TSMC sieht man ja bereits dass es zu einen Engpass kommt.

Wem ich noch ein SoC zutraue ist NV und hier sieht man dass man was HSA-Featues angeht, shared Memory ect erst auf den Markt bringt.
Was hätte denn man für einen ARM Architektur nützten sollen. Falls ich mich nicht täusche sind die ersten 64 BIT ARM Prozessoren erst im kommen. Und ist der Tegra k1 mit ARM 64 Bit ist schon verfügbar ?

Tja dann vllt doch einen MCM Chip wie Nintendo basierend aus einer Intel CPU und NV GPU ?
Dazu kann ich nur das hier posten, wieder ein Beispiel Nintendo:
ie LSI-Chips wurden in unterschiedlichen Unternehmen gefertigt; wenn also ein Fehler auftrat, war es sehr schwierig, die Ursache zu erkennen. Bei der Fehleranalyse zeigte sich lediglich, dass das Problem innerhalb des MCM bestand. Es war ein ungeheurer Aufwand, der Ursache auf die Spur zu kommen.
Also vllt ist hier der Fehler. Vllt ist deshalb MS von Intel auf IBM gewechselt, vllt deshalb Sony auf AMD. NV soll ja angeblich Fehler nicht gern geteilt haben, was ja die Entwicklung der Konsole und bei weiteren Revision ja ein großer Vorteil ist. Im Gegensatz hat man bei der XBOX 360 dann einen MCM Chip mit der Zusammenarbeit IBM, AMD und MS gesehen, wieso gab es einen solchen Versuch nicht seitens Sony ?

Bei den Konsolen hatte man schon öfteres verschiedene Ansätze versucht. Einmal war CPU und GPU ca gleich schnell, oder es gab bei der CPU und eine Form von CoProzessor für Grafik. Auch war zum Beispiel beim SNES, die CPU nicht stärker aber dafür die GPU moderner und ausgeprägt zum Vorgänger und hatte auf den Kassetten noch mal ein paar SIMD integriert (hierzu eine Liste). In der Letzten Generation war der Fokus CPU und die GPU war eher im Vergleich eher bescheiden. Was hat sich ausgestellt, da die CPU meistens bei Konsolen nur mit einem Takt laufen (um die Entwicklung zu vereinfachen) hatten wir Systeme die einfach nur heiß wurden und Energie geschluckt haben.
Jetzt haben wir bei den Konsolen moderne AMD GPUs, die bei Nintendo auf ein customized GPU, die über den eDRAM einen direkte Verbindung hat und (CPU ist auf der gemapped) der CPU bei FPU lastigen dingen die CPU völlig entlasten kann, oder bei Sony und MS, die im Endeffekt die komplette KI, Wetterberechnung, Physics ect auf der GPU verteilen kann, besonders Sony, die mit AMD zusammen noch mal die gpgpu Performance gesteigert/optimiert hat.
Was stellt Intel im Vergleich vor, InstantAccess, das am 27 März 2013 und das hat AMD selbst bereits schon 2011 vorgestellt und war schon in Llano vorhanden, bei Intel ist das erst seit Haswell vorhanden. Und im Vergleich gibt es dazu nochErweiterungen durch hUMA.
Spätestens da sollte Intel bei Sony schon keine Chance mehr gehabt haben, weil Sony sich ausführlich einen gemeinsamen Speicherraum für CPU und GPU gewünscht haben soll. Da wäre eventuell noch MS im Spiel gewesen, die ja bekanntlich ein eSRAM verbaut haben, leider aber scheinbar mit der Arbeit mit AMD zufrieden sein müssen und wohl auch deshalb gleich zu einer AMD GCN GPU gegriffen haben und deshalb vermute ich auch, dass der XBOX One Chip älter ist und auf Ideen der XBOX 360 aufbaut und erweitert.

Aber eventuell wäre da Intel eine passende Lösung, fraglich nur ob die EU's von der Effizienz und von der Mächtigkeit mithalten kann, besonders weil MS dann höchstwahrscheinlich nicht zu einen 22nm Prozess gegriffen hätte, die Intel sicherlich nicht billig hergegeben hätte. Auch noch eine weitere Frage, wieviele EU's hätte man dann gebraucht, wenn man bedenkt dass Konsolen immer mit einem niedrigen Takt fahren, weil sie ja auf einen BaseTakt geschaltet sind.
Dann stellt sich die Frage ob man die APUs im Vergleich zu AMDs IPs, die ja sehr flexibel sein sollen, auch die APUs wo anders hätte produzieren hätte lassen können, falls bei Intel zu einem Engpass kommt. Weil Sony und MS können ihre APU wahrscheinlich wahlweise bei TSMC, GF und Samsung produzieren lassen, weil ja deren 28nm Prozess ähnlich sind.

Von der PS3 wurden 80 Millionen in 6 Jahren verkauft, das sind "nur" rund 13 Mio. pro Jahr - im Vergleich zu 339 Mio. Prozessoren für Desktops & Notebooks für 2013
Neben der finanziellen Geschichte hat sich das glaubst du für AMD nicht gelohnt ? Das zusätzliche Marketing, die Unterstützung einiger Studios die seit Jahren geheim mit AMD an Mantle gearbeitet haben und der Markt sich was Gaming angeht mehr und mehr Richtung GPU fokusiert, sodass wir eventuell sogar im Desktop mit einer PS4 ähnlichen APU bald vllt sogar Games zocken können weil MS Direct X12 auch mehr auf Richtung weniger CPU Overhead optimieren möchte.
Intel hat von der PS360 profitiert, weil diese so CPU lastig waren, jetzt fällt das aber wegen der neuen Generation weg und GPU und Architekturen wie GCN und Maxwell und Nachfolger rücken in den Fokus.
 
Zuletzt bearbeitet:
@ calluna

Ich kann deine Argumentation teils nicht nachvollziehen, hat doch Intel die CPU damals für die erste Xbox geliefert und diese Konsole Stand schon damals unter einen schlechten Stern, die abschließenden mittelmäßigen Verkaufszahlen kennen wir ja. Ausserdem geht es hier nicht um 300$ Cpu's von Intel, sondern es geht wenn dann um Atom SoC's denn die PS4 Und Xone Soc's basieren auf der Jaguar Plattform, Low Cost Chips. Zweitens ist mir nicht bekannt das Intel eine spezielle Abteilung hat, die Custom Chip Lösungen so wie AMD sie hat anbietet und von der Sony und MS gebrauch gemacht haben. Drittens, was die Marge angeht, am Ende der News wird folgendes berichtet

Dort versucht der Konzern (Intel) mit aller Kraft mehr Fuß zu fassen. Erst in den vergangen Tagen war des öfteren von 5-US-Dollar-„Bay Trail“-CPUs – wohlgemerkt mit vier Kernen – die Rede, später wurden die Meldungen um zusätzliche Entry-Modelle der „Bay Trail“-Familie ergänzt

Wo ist hier bitteschön die Marge ?

Zu der Effizienz der Gpu: Schau dir Kaveri Test's an oder von mir aus den Kabini Test (beides Graphics Core Next Gpu's) da kann man schön sehen das GCN effizieneter arbeitet als die aktuelle Intel Gpu.
 
@Pipip

Doch, ich denke schon, dass es sich für AMD gelohnt hat. Ich glaube aber nicht, dass es sich für Intel gelohnt hätte. Deinem Beitrag kann ich überwiegend zustimmen.

@Whoozy

Stimmt, nur ein Atom SoC mit einer großen GPU hätte das Gegenstück sein können, mein Denkfehler.

Zu der Marge im mobilen Markt: das ist eine aggressive Strategie um Marktanteile zu gewinnen. Bei Konsolen wäre das nicht sinnvoll, dafür ist dieser Markt zu klein.
 
Zuletzt bearbeitet:
calluna
Meiner Meinung ist, Hardwaretechnisch hätten Intel und NV sicherlich so einen Chip machen können, aber scheinbar hatte AMD zur Richtigen Zeit die passenden Entwicklung durchgemacht.
Hätte NV einen 64Bit ARM Prozessor, wäre es ja für Spiele Entwicklung kein Problem, denn sind sie es ja geübt in RISC Architekturen. Aber hier war NV mit ihren Tegra vllt noch nicht auf dem Level, bzw konnte vllt wegen ARM noch keine 64 Bit liefern.

Zweitens ist mir nicht bekannt das Intel eine spezielle Abteilung hat, die Custom Chip Lösungen so wie AMD sie hat anbietet und von der Sony und MS gebrauch gemacht haben.
jup das ist auch so eine Sache. AMD hat einfach übung CPU und GPU und auch IP andere auf einen Chip zu integrieren.
So hat man bereits bei der Wii einen ARM Chip für die Security integriert und aus diesem Unterfangen haben wir bei neuen AMD APUs wohl auch einen ARM Chip für Security integriert.

offtopic
BTW, was ARM angeht. Ich bin sehr optimistisch, dass Nintedo bei deren nächsten Konsole egal ob Handheld oder stationäre Konsole auf ARM setzten wird. Aber ob das AMD wird, ist die Frage, außer sie schaffen wie NV, ARM und GCN auf eine SoC zu integrieren, deshalb ist wahrscheinlich auch Qualcomm im Gespräch. Naja auf den 3DS Nachfolger wird man nicht mehr so lange warten müssen, gespannt ob es AMD wird. NV ist hier höchst wahrscheinlich nicht im Rennen, dazu hat Nintendo ja beim 3DS zu schlechte Erfahrung gemacht.
Bei Gerüchten war zu mindestens nur ein Vendor die Rede und das Design und der Chip sollten wohl schon feststehen. Mal sehen was sich bewahrheitet.
 
Zuletzt bearbeitet:
Zurück
Oben