News AMDs Marktanteil bei Prozessoren schrumpft unter 17 Prozent

matthias3000 schrieb:
Sony kauft nur das Chip-Design und lässt diesen dann selbst fertigen, daher wird AMD nicht in dem Maße verdienen wie manche hoffen.
Sicher das Sony jetzt auch den Weg gehen wird - ich könnte mir vorstellen, dass dies durch eine x86 CPU nicht ohne weiteres möglich ist.
 
GF darf doch auch für AMD fertigen, obwohl diese nicht mehr zu AMD gehören.
Ich war der Meinung, das die Fertigung nicht das Problem ist, sondern die Entwicklung...
Wobei ich aber sagen muss, das ich mich nicht mit den vertraglichen Dingen zw. AMD und Intel beschäftigt habe!
 
Microsoft hat ja bei der Xbox 360 mit dem Grafikchip exakt das gemacht - entwickelt von ATI, gefertigt jedoch im Auftrag von Microsoft bei TSMC. Das Fertigen dürfte nicht das Problem sein, jedoch ist der eigentliche Auftraggeber für die Fertigung nicht mehr AMD, sondern Microsoft bzw. Sony - und dafür benötigt man normal eine x86 Lizenz. Ich muss zugeben, wirklich Fit im Rechtsbereich bin ich auch nicht, aber es könnte auf jeden Fall problematisch werden. Vielleicht ist das auch noch einer der Gründe, wieso Microsoft noch mit verschiedenen CPU-Cores experimentiert und scheinbar x86 noch nicht so sicher ist wie bei Sony.
 
Zuletzt bearbeitet:
matthias3000 schrieb:
GF darf doch auch für AMD fertigen, obwohl diese nicht mehr zu AMD gehören.

War das nicht eins der Zugeständnisse von Intel an AMD, nachdem die Schmiergeldaffäre publik wurde? Bis dahin hat AMD ja Anteile an GF halten müssen.
 
trane87 schrieb:
AMD Propaganda oder was ist hier los? Kein normaler Mensch, braucht einen 4 oder 8 Kern CPU, um aktuell Sachen zu erledigen. Wer Videobearbeitung betreibt evtl, aber selbst meine Oma die ihre Urlaubs Videos rendert, braucht nur einen 2-Kern Prozi. Alles andere ist nur Quatsch.
AMD hat einfach ein Marketing Problem und die 8 Kerner hängen den Intel 4 Kerner im Spiele Sektor hinterher. Für den normal Verbraucht tut es auch ein X2 255. Wer was anspruchsvolles macht, wird sich auch generell Intel kaufen, denn selbst in der Videobearbeitung sind diese deutlich schneller, weil kein Mensch aktuell für 8 Kerne programmiert ;) und wenn doch ist es ein Nischenprodukt..

Ähmm...sry...aber das ist Unfug³! Nur weil du dir was nicht vorstellen kannst sind andere also unnormal? Gehts noch?
Schonmal normales HD-Material oder 3D-Material nativ geschnitten? Nicht? Wegtreten und schämen!

Nur weil deine liebe Oma in SD filmt und konvertiert und auf max. auflösung von 720x576 besteht, heisst das noch lange nicht das man keine 4, 6 oder 8 Kerner beim Videoediting braucht!!!

Alleine mein oller Q9500irgendwas von Intel hier kotzt sowas von ab beim nativen Schneiden von HD-Material und gleichzeitigen arbeiten mit Files.

Eine Red 4K Aufnahme auf 2k zu rendern erwähne ich erst gar nicht. Es gibt auch jenseits von SD-Aufnahmen von Omi eine Welt mit Anforderungen.

Ok...beispiele?
Sony Vegas nimmt bei mir mit Quadcore unter 64bit OS die vollen 4Kerne zu 100% und ca 3,4 bis 3,6GB Ram. Aber dann ist der PC kaum noch zu nutzen. Da fehlen die Reserven.
Eine FX 8350 mit 8Kernen wäre mein Traum. Der geht dann richtig ab. Sogar Vegas nimmt die 8Kerne als wären es Bonbons.....und nun halt dich fest....Vegas schluckt auch 16Threads. Einzig der H.264 Codec limitiert und geht nur noch mit halber Fahrt unter 16Kernen ab....aber die 8Kerne schafft er zu 100%!
Pinnacle Studio und Magix nehmen beide 4Kerne zu 100% und auch dann steht der PC.
Merkste wat?


gruß
 
Bandit666_3dc schrieb:
Schonmal normales HD-Material oder 3D-Material nativ geschnitten? Nicht? Wegtreten und schämen!

Eine Red 4K Aufnahme auf 2k zu rendern erwähne ich erst gar nicht.

Sony Vegas nimmt bei mir mit Quadcore unter 64bit OS die vollen 4Kerne zu 100% und ca 3,4 bis 3,6GB Ram. ...

Pinnacle Studio und Magix nehmen beide 4Kerne zu 100% und auch dann steht der PC.
Merkste wat?
Er meinte "normal". Ich definiere mich durchaus als einigermaßen normal und sogar technikaffin. Aber nein, ich habe auch noch kein HD oder 3D-Material geschnitten.
Was Du mit dem zweiten Satz sagen willst, versteh ich nicht einmal (Red 4K zu 2K...höh?).
Sony Vegas...hm, mal schauen:
Vegas Pro 12
Professional HD video, audio, and Blu-ray Disc™ creation.
Ab 571,14 € 479,95 € exkl. MwSt.
570 Öcken? Ja stimmt, voll Mainstream und Ottonormalsoftware. :lol:

Pinnacle Studio und Magix sagen mir was, das klingt doch mal wirklich nach Consumersoftware. Und was sagt uns Corel da?
Systemvoraussetzungen: Intel Core Duo 1,8 GHz, Core i3 oder AMD Athlon 64 X2 3800+ 2,0 GHz oder höher
Ja, ich weiß, je schneller der Prozessor, desto mehr Spaß hat man dann damit. Aus gleichem Grund fahren draußen auch nur Ferrari, Lamborghini, Koenigsegg und wie sie nicht alle heißen rum. Ich habe schon seit Ewigkeiten keinen Fiat Panda oder Opel Astra gesehen. Wer sowas nutzt ist ja blöd.

Was spricht denn aktuell das Prospekt von "Verrückte da draußen"? Titelseite ein Notebook mit Pentium Prozessor mit 1,5 Ghz. Idioten. Kauft doch keiner. Und der erste Desktoprechner im Prospekt? Aha, ein AMD E1-1200 mit 1,4 Ghz. Nenene, also so geht das nicht. Der Laden ist ja schon so gut wie Pleite. Und Microsoft bringt ihr Windows für ARM. Pff, Geldverschwendung, viel zu schwach der Mist.

Bei manchen wäre es wirklich schön, wenn Sie mal wieder aus dem Keller gekrochen kämen und in die Realität zurückfinden würden.

Gruß FatFire

PS: Ich will mit diesem Beitrag übrigens nicht ausdrücken, dass High-End-Nutzer bescheuert sind. Natürlich macht es für viele Sinn. Aber es ist einfach nicht die Regel.
 
Das ist dann aber schon sehr subjektives Empfinden. 28 % Prozent mehr bescheinigt der Test dem Vishera gegenüber dem Phenom II X4 965 in Spielen. Immer noch 20% mehr gegenüber dem Phenom II X6. Sogar der kleine FX-4170 ist schneller als die Phenoms. Bitte objektiv bleiben.

Gruß FatFire
 
nebulein schrieb:
@Herdware

Das ist ja genau der Grund den ich hier oft nicht verstehe. Die APU Lösung ist für Laptops und Multimedia Rechner eine ordentliche Lösung. Aber wenn ich von den Brazos etc. lese also ich kann mit meinem Llano auf Youtube HD Videos nicht flüssig schauen, außer ich dreh die Performance hoch.

Ich versteh nicht recht was du da schreibst? Ich kann mit meinem Zacate mindestens 720p Videos auch von Google schauen, weiß nicht genau wie das Flashplayer-plugin so drauf ist und ob es (unter Windows?) die grafikkartenbeschleunigung deines Closedsource treibers nicht nutzt, wenn doch sollte er mit 2-5% cpu last auch 1080p daher zaubern.

Was mich wirklich an stinkt ist das die offenen Treiber unter Linux das nicht auch können. Aber du hast ne cpu mit 2x 1ghz mehr wie ich vermutlich... da sollte zur not auch die cpu alleine 1080p packen, außer der Flashplayer ist noch beschissener als so ein cpu basierter vlc oder irgendwas in der richtung.


http://benchmarkreviews.com/index.p...sk=view&id=419&Itemid=38&limit=1&limitstart=2

sowas sollte dir vileleicht helfen, probiers auch mal glaub bei mir heißt das unter video -> quality "enforce smooth video playback" und vielleicht "apply current video qualtiy settings to internet video

Naja hab hier grad nicht mein zacate sondern mein bulldozer 4core da oder 2core 4modules? naja wurst da hab ich 7-17% cpu last durch den 1080p youtube stream. klar dein liano ist bisschen schwächer aber sollte schon gehen.

Naja weiß nicht sicher obs die einstellung ist, aber prinzipiel sollte selbst mti einem zacate wunderbar 1080p videos mit proprietären(normalen) treibern und halbwegs modernen playern funtzten.

Mich nervt nur das man dafür eben die geschlossenen treiber braucht, was in windows egal ist aber in linux halt nicht.
 
Zuletzt bearbeitet:
@blackiwid

Ich habe mich noch nicht genau damit beschäftigt was der Grund ist, es ist selten das ich auf dem Laptop youtube benutze und HD Videos schaue. Alles andere funktioniert ja wunderbar. Aber da ist es mir halt aufgefallen, dass die Performance in die Knie geht. Kann auch sein das er nur einen Kern anspricht und die Single Core Leistung ist ja nicht so dolle.

Habs grad mal getestet und beide Kerne sind bei 50% Auslastung was eigentlich ok sein sollte aber der Takt ändert sich ständig wodurch die Ruckler anscheinend entstehen.
 
Schu3 schrieb:
...Allerdings muss ich dir bei deiner Definition des A10 als High-End-APU widersprechen. AMD hat die aktuellen APUs mit Sicherheit nie als High-End-Produkt entwickelt, denn sonst hätte man mehr Module / eine bessere Grafikeinheit /L3-Cache etc. verwendet. Der A10 ist die leistungsstärkste APU, ja das ist richtig, aber bei weitem kein High-End. Deshalb denke ich auch, dass AMD den A10 nicht gegen einen i3 platzieren muss, sondern diesen bewusst dort platziert. ...

Das sehe ich anders.

Diese APUs sind nicht als Low-End ausgelegt worden. So wie auch die FX-CPUs sollten zumindest die größeren Modelle garantiert nicht nur mit Intels Low-End-Dualcores konkurrieren.
Die wurden Preislich erst dann so einsortiert, als sich gezeigt hatte, dass die Leistung mehr einfach nicht rechtfertigt.

AMDs kleine Bobcat-APU sind von Anfang an auf Kostensparen designt worden. Aber die Llano, Trinity, Zambezi und Vishera und davor auch die Phenom (II) sind allesamt sehr große und in der Herstellung teure Chips. Größer und teurer als alles was Intel im Program hat, ausgenommen die monströsen SB-E.
Wobei die großen 4-Modul-FX von den technischen Spezifikationen und Abmessungen den SB-E schon ähnlicher sind, als allem anderen.
 
SilentDill schrieb:
die wo ein Phenom II X4 haben, für die lohnt das aufrüsten auf Vishera nicht. von Phenom II X4 auf Ivy Bridge (i5 Quad-Core) sieht es besser aus.

Nicht nur objektiv, sondern bitte auch beim Thema bleiben. Du hast es nicht in Relation mit Intel gestellt. Du sagtest, dass sich bei AMD für Gamer nichts getan hat. Und das ist einfach Blödsinn.

Das für Gamer mit dedizierter Grafik, ohne auf den Beschaffungspreis zu achten, die Intel-Prozessoren schon seit Beginn der Core-Architektur meist eine bessere Wahl darstellen, ist wohl keine bahnbrechend neue Erkenntnis und hat mit Deinem Einstieg in den Thread wenig zu tun.

Gruß FatFire

PS: "die wo ein Phenom II X4 haben" <-- ach, dann bist Du der, wo da so ein lustiges Deutsch spricht?
 
Bandit666_3dc schrieb:
Eine Red 4K Aufnahme auf 2k zu rendern erwähne ich erst gar nicht. Es gibt auch jenseits von SD-Aufnahmen von Omi eine Welt mit Anforderungen.

Ich glaube kaum, dass sich jemand, der eine Red Videokamera für über 10.000 Euro einsetzt, sich einen Bulldozer in den PC schraubt.
 
O._.O schrieb:
Ich glaube kaum, dass sich jemand, der eine Red Videokamera für über 10.000 Euro einsetzt, sich einen Bulldozer in den PC schraubt.

warum? ist die FX-8350 so eine Krücke? :freak:
wird nicht das Gesamtpaket, incl. gpu ergänzt?
 
Der FX-8350 ist meines Wissens kein Bulldozer sondern ein Vishera. Vishera = gut. Bulldozer = Schrott.

Wobei - eine 10.000 Euro Videokamera - und ich glaube, bei dem Preis ist ja noch nicht einmal das Objektiv mit dabei - hmmh, die Leute holen sich dann schon einen PC dazu, der zwei Intel X6 oder so etwas auf dem Board hat. Aber definitv keinen Bulldozer.

Aber ich denke/hoffe, dank Vishera wird AMDs Marktanteil in Zukunft auch wieder etwas steigen.
 
Zuletzt bearbeitet:
O._.O schrieb:
Der FX-8350 ist meines Wissens kein Bulldozer sondern ein Vishera. Vishera = gut. Bulldozer = Schrott.

- hmmh, die Leute holen sich dann schon einen PC dazu, der zwei Intel X6 oder so etwas auf dem Board hat. Aber definitv keinen Bulldozer.

das ist aber sicher nicht die Zielgruppe von AMD? Diese wird sich im amateur-Bereich wohl mit 32-bit-video-Programmen abmühen oder mit so semi-profi-Programmen?

Vishera + eine gescheite Grafikeinheit machen aber laut Testberichte nicht mal so eine schlechte Figur?
Warum dann keinen FX-8350 + eine fette Asus7970? (wahlweise e. gtx 690 :D )
 
Habe mir nun auch einen FX 8350 bestellt da er doch mehr oder weniger dem entspricht was ich eigentlich erwartet habe vom Bulli. In Verbindung mit meiner 7970 sollte das schon ein nettes Gespann sein. Ich denke AMD wird sich mit der aktuellen FX Serie schon etwas vom Bulli Desaster erholen. Trotzdem war der Bulli ein extremer Schlag für das Image von AMD. Warum der kam kann ich nicht verstehen. Da AMD doch gewusst haben muss was das für ein Rohrkrepierer ist.

MfG
 
Opteron185 schrieb:
Trotzdem war der Bulli ein extremer Schlag für das Image von AMD. Warum der kam kann ich nicht verstehen. Da AMD doch gewusst haben muss was das für ein Rohrkrepierer ist.
Ja lustig, was hätten Sie denn tun sollen? Da steckte schon jahrelang F&E sowie Marketing drin. Ob es am Ende taugt sieht man immer erst kurz bevor es fertig ist. In der Theorie klingt sowas immer gut, was in der Praxis bei rumkommt, das ist entscheidend. Und als Sie da merkten, dass Bulli nicht so viel bringt wie erhofft, was hätten Sie Deiner Meinung nach tun sollen? "Ja, wir haben jetzt zwei Jahre lang einen Prozessor angekündigt, aber gemerkt, dass der nicht so der Bringer ist. Deshalb kauft mal schon den alten Kram weiter, wir denken noch mal ein paar Jahre drüber nach!" ?!?

Ich glaube die meisten hier haben keine Ahnung, wie langwierig so ein Entwicklungszyklus ist.

AMD muss da jetzt durch, genauso wie Intel damals mit dem Pentium 4. Ich bin mir ziemlich sicher, das hinter den Kulissen schon an einer komplett anderen Architektur gearbeitet wird. Aber diese wird eben erst in drei bis vier Jahren die aktuelle Architektur ablösen können. Bis dahin wird Bulli so weit optimiert wie eben möglich.

Intel hatte damals eben den Vorteil der zwei unabhängigen Entwicklungslabors. Und die in Israel hatten eben glücklicherweise mit der Core-Architektur ein Ass im Ärmel. So etwas kann sich AMD leider nicht leisten.

Gruß FatFire
 
Zurück
Oben