News Quartalszahlen: AMD mit niedrigstem Quartalsumsatz seit 12 Jahren

Moon_Knight schrieb:
Und wenn du noch 10mal mit den Augen rollst: doch, das geht. Wir sind hier in der IT-Welt und nicht bei General Motors oder ähnlich.
Was solche IT-Monsterkonzerne alles können, wenn sie denn wollen, zeigt wohl ein Primus ganz besonders gut: Google.
Ganz so fix ist Intel sicherlich nicht, aber man kann durchaus, sollte es notwendig sein (was es aber auf absehbarer Zeit als Technologie- und Marktführer nicht sein wird).

Hallo,

von heute auf morgen ist wirklich Unsinn. Das kann auch Intel nicht. Die sind dafür auch viel zu groß um dermaßen flexibel reagieren zu können. Die haben sicherlich mehrere Entwicklungsteams, aber wenn alle falsch liegen nützt das auch nichts. Erinnere dich an den Pentium 4 als der Athlon das Maß der Dinge war. Intel war mit seiner Netburst Technik geschlagen und es hat lange gedauert bis der "Pentium M" oder "Core M" oder wie das damals hieß rauskam vom israelischen Team mit neuen "Rechen-Design". Worauf dann der Rest folgte und was heute noch sicherlich teilweise drin steckt bzw. darauf aufbaute. Was Intel kann ist Fehlschläge verkraften. Das juckt die nicht wirklich, intern schon, aber im großen ganzen hebt die das nicht, denn wenn man mehrere Entwicklungsabteilungen hat ist ja vorgegeben das zum Bsp. 3 von 4 umsonst gearbeitet haben. Nur an den Entwicklungszeiten kann auch Intel nicht zaubern. 3-4 Jahre dauert es eben.
 
Der Pentium 4 launchte wann? Vor 15 Jahren? Du kannst davon ausgehen, dass man dazugelernt hat und sich nicht mehr so leicht in Bredouille bringen lässt.
Intel und AMD haben sich in diesen 15 Jahren massiv verändert. Der Eine weiß kaum wohin mit dem Geld und spielt sein Spiel routiniert runter, der Andere steht nahe der Insolvenz.

Das würde vermutlich ähnlich ablaufen wie MS Reaktion auf Mantle. Pläne liegen schon lange bereit und wenn Druck kommt, geht es relativ schnell zum Angriff und die halbe Entwicklung ist bereits abgeschlossen.
 
Hallo,

Du meinst wenn heute jemand Intel überraschen würde, dann könnte Intel in einem Monat sofort kontern? Aha.
Und warum kommt dann von Intel kein gnadenloser alles hinweg fegender Smartphone Soc raus? Da entwickeln die auch schon seit Jahren dran und kauften Firmen auf mit ihren Entwicklungsabteilungen.

DirectX 12 war ja nun schon lange in der Entwicklung, da überrascht mich überhaupt nichts. Mantel hat da nur die Prioritäten etwas geändert. Vielleicht sitzt aber auch AMD mit im DirectX Gremium und konnte mitwirken. Keine Ahnung. Der Alleingang wäre auf Dauer aber eh nix gewurden. Das weis AMD sicherlich auch.
 
Weil Socs für Intel "Neuland" sind. Die Entwicklung ist eine ganz andere, als bei x86.
Und womit kann AMD denn schon noch groß angreifen? Mehr Kerne? Dürfte gar kein Problem sein. Befehlssätze? Unterstützt doch wieder keiner. Eine durchdachtere Prozessorlogik? Nicht wirklich.

Edit: DirectX Gremium ? :D
 
Zuletzt bearbeitet:
Weil Socs für Intel "Neuland" sind. Die Entwicklung ist eine ganz andere, als bei x86.
Verständlich, so ein Atom Z Smartphone/Tablet SoC ist was gaaaanz anderes als x86:lol:

Wenn man Intel schon bis aufs Blut verteidigt,
sollte man doch wenigstens Ahnung von Intel haben :rolleyes:
 
Zuletzt bearbeitet:
Hallo,

ich meinte nicht unbedingt AMD. Ich meinte eine allgemeine Überraschung für Intel von irgend jemanden. Du bist ja der Überzeugung Intel könnte auf alles und jeden umgehend reagieren. Was stellst Du Dir denn für einen Reaktionszeitraum vor seitens Intel falls sie überrascht würden?

SOC Neuland seit über 5 Jahren? Intel kann auch nicht zaubern, deswegen wird das noch eine ganze Weile dauern ... was uns wieder zur x86 Schiene bringt. Wenn sie die Sandy Bridge ... Skylake Schiene über den Haufen werfen müßten ...
 
@iAtNeH
Waren wir nicht gestern so verblieben, dass du woanders trollst und mich auf /ig setzt? Bist du extra um 7:48 an den PC gegangen, hast es rauseditiert, nur um noch weiter zu trollen? :rolleyes:
Ihr wisst genau, wie es gemeint war. Desktop ≠ tablet/smartphone

@BaserDevil
5 Jahre sind gar nichts, wenn man sich in einen solchen Markt einkämpfen muss.
Außerdem redet hier keiner von "alles und jedem". Werdet mal sachlich und quatscht nicht so daher. Wir reden hier von Anfang an vom Desktop-Prozessormarkt.
Und ja, dort intel anzugreifen, halte ich nach momentaner Sachlage für schlicht nicht machbar. Das schafft AMD gewiss nicht. Zen wird - wie gesagt - hoffentlich irgendwie in die Nähe kommen. Hoffentlich nicht auf Kosten anderer Eigenschaften wie der Effiziens. Aber Intel in die Schranken weisen? Never.
Das hat nichts mit "Fanboy" zu tun. Ich hatte auch einen Athlon XP3000+, eine ATI 9500pro, eine ATI 9800pro...
Ich bin Realist. Wunsch und Realität sollten getrennt bleiben, wenn man in der IT arbeitet.
 
Zuletzt bearbeitet: (Typo)
iAtNeH schrieb:
Spätestens sobald man den "alten" PC mit einem Photovoltaikpanel/Windrad/Wasserkraft versorgt hat sich aus relativiert,
dann ist die Neuproduktion der HW massiv inefizienter (inkl. Produktion und Verwertung des alten)
Netter Joke. Der ökologische Fußabdruck der Produktion von Panel, Regler, Verkabelung und Batterie ist auch nicht ohne. Und alle Firmen, die ihre Büroräume nur angemietet haben, sind ohnehin außen vor. Die müssten schon das ganze Bürohochhaus kaufen, damit sie - wenn es überhaupt genehmigungsfähig wäre - in der Häuserschlucht eine Windkraftanlage bauen dürften.
 
Moon_Knight schrieb:
Der Pentium 4 launchte wann? Vor 15 Jahren? Du kannst davon ausgehen, dass man dazugelernt hat und sich nicht mehr so leicht in Bredouille bringen lässt.....
Das Pentium 4 Beispiel hat genauso wenig mit DSahen, die man hätte dazulernen können, zu tun, wie das AMD Bulldozer Beispiel. Denn beides sind Beispiele, der veranschaulichen, dass man Prozessordesigns eine halbe Dekade vor der Markteinführung entwerfen muss - daran hat sich auch heute immer noch nichts geändert. Man muss beim Entwerfen also fünf bis zehn Jahre in die Zukunft sehen, um zu beurteilen, wie gut das Produkt mit der erst dann, erst in ferner Zukunft üblichen Software umgehen können wird und wie gut das Produkt allgemein in den Markt passen wird.

Der Pentium IV hatte nicht per sé schlechte Leistung, er war nur das Allzeithoch des Stromverbrauchs eines Schreibtischrechnerhauptprozessors und wurde deshalb aus dem Markt gedrängt. Wie schlecht vorhersehbar so eine Marktsituation ist, wird im Beispiel Pentium IV dann deutlich, wenn man sich mal vor Augen führt, dass der AMD AThlon Thunderbird bei Markteinführung der mit Abstand stromfressenste Schreibtischrechnerhauptprozessor war - der wachsende Stromverbrauch von solchen Prozessoren hatte zwanzig Jahre Kontinuität und wurde vom Markt belohnt, erst beim Pentium IV (und zeitgleich dem Apple G5) wurde die Reißleine für das Anwendungsgebiet Schreibtischrechner gerissen.

Beim AMD Bulldozer betrifft die Fehleinschätzung nicht den allgemeinen Stromverbrauch (da machts AMD so gut, wies kann - wenn man in der Fertigung hinterherhinkt, verbraucht man auch mehr pro Leistung, kein Hexenwerk), sondern die Ausrichtung der Software - was ist wie gut parrallelisiert, wenn Bulldozer auf dem Markt ist, welche Anteile an den Rechnungen haben Integer, welche FP-Berechnungen - dabei hat sich AMD verschätzt, aber wieder ist das zugrundeliegende Problem nicht Naivität oder sowas, siondern schlicht der Zwang bei Prozessorplanung die Zukunft vorhersagen zu müssen - die man natürlich nicht sehen kann.
 
Hallo,

genau darauf wollte ich hinaus. Nur bleibt mir Moon Knight die Antworten schuldig.
 
Wat? Wo blieb ich dir eine Antwort schuldig? Ich bin jetzt schon mit Engelsgeduld auf euch eingegangen. Zens Entwicklung begann mit der Rückkehr von Jim Keller vor ~3 Jahren komplett bei 0.
Keine Ahnung, was ihr mit dem Uralt-P4 wollt. Die Programme und Möglichkeiten zum Designen und Planen von Hardware haben in den 20-25 Jahren, die seit dem Planungsbeginn des P4 ins Land gezogen sind, solche extremen Veränderungen erlebt, dass es einfach nur doof ist, von dort auf heute zu schließen.
Ich habe nicht behauptet, dass man eine CPU in einer Woche entwickelt, ich sage, dass Intel genug in petto hat und vorgesorgt haben wird, um auf alle Eventualitäten zu reagieren, die AMD bringen könnte.
Außerdem war meine Aussage, dass Intel besser und schneller reagieren kann als AMD. Dass AMD einmal gemachte Fehler durchziehen muss, zeigt ja ihr Bulldozer.
Intel würde heute sicherlich nicht so lange grundsätzlich auf einer Architektur hocken und sich damit in den (fast) Ruin treiben. Im Gegenteil, denen ist schon so langweilig geworden, dass sie damit um sich werfen.

Also kannst du so lange in deiner Fan-Welt rumhüpfen und hoffen, dass Intel schwächelt und AMD zu alter Größe findet, wie du möchtest. Hoffen und träumen darf man ja. Nur realistisch ist das einfach nicht.
 
Der Umstand, dass man die Zukunft vorhersagen muss, wird in keinster Weise dadurch aufgelöst, dass sich "Programme und Möglichkeiten zum Designen und Planen von Hardware [...] in den 20-25 Jahren, die seit dem Planungsbeginn des P4 ins Land gezogen sind, solche extremen Veränderungen erlebt [haben]." Die Basis für Yonah und Conroe, der Pentium M, war ja auch damals bereits auf dem Markt - nur die Anpassungen an den Desktop mussten noch erfolgen.
 
Zuletzt bearbeitet:
Was muss man denn da vorhersagen? Was hat sich denn so entscheidend in der Programmierung verändert?
Wo haben sich engpässe ergeben, die ein Paradigmenwechsel rechtfertigen?
Warum ist denn Planbarkeit bei Intel für Systemhäuser so wichtig?
Arbeitet ihr überhaupt in der IT? Bekommt ihr gar nichts mit?
 
Du willst aber auch unbedingt bullshitten ey, Gegenfrage: Was hatte sich denn in der Programmierung so entsccheidend geändert, dass der Pentium IV gefloppt ist? Was hatte sich in der Programmierung so entscheidend geändert, dass der Cell keinen Platz am Markt gefunden hat? Oh, kommst du mir jetzt als Gegenbeispiel, dass der extreme Fokus des Cell auf FPU durch GPGPU abgelöst worden sei? Wenn das so ist, wieso spielt dann eine angebliche FPU-Schwäche beim Bulldozer eine Rolle? "Paradigmenwechsel" my arse.
 
Hallo,

naja, Du müßtest nur meine Beiträge nochmal lesen um die Fragen zu sehen. Aber egal. Geschenkt. Und Fanboy bin ich weder von Intel noch von AMD. Ich betrachte das sachlich nüchtern.

Wegen Deiner Nicht Notwendigkeit der Planung. Man kann nicht von heute auf morgen irgendeine neue CPU Architektur entwerfen. Auch Intel muß planen für die nächsten Jahre. Intel bringt aber auch seit Jahren nichts neues. Die bauen nur die bestehende Architecktur immer weiter aus. Mehr ist das im Grunde nicht.

AMD plante damals mit Bulldozer und hoffte das mit Windows 7 und allgemeiner 64 Bit Verbreitung die Parallelisierung der Software weiter zunimmt. Also das Mehrkern CPUs eher einen Vorteil bringen als Single Core Rechenleistung. Das ging leider schief. Die Softwareprogrammierer nutzen heute noch kaum Mehrkern CPUs aus. Siehe Adobe Photoshop und Lightroom. Bekommen die einfach nicht hin. Oder es ist nachwievor zu bequem für Single Core zu programmieren.

Netburst beim P-IV lief auch etwas schief. Nur war das mit dem P-IV nicht ganz so dragisch. Mangels Konkurrenz muß Intel heute keine Fehlplanungen offen legen. Nur eine Fehlplanung gibts dennoch. Nämlich die Verzögerung der 14nm Fertigung. Broadwell hängt ein Jahr der Planung hinterher. Wiederum ist das mangels Konkurenz nicht so dramatisch für Intel. Daran sieht man jedoch wie stark die Planung einer CPU Architektur abhängig ist von der dann zur Verfügung stehenden Fertigungstechnik. Ein P-IV in 14nm macht genauso wenig Sinn wie ein Broadwell in 65nm.

Genauso beim Smartphone SOC. Intel will da was eigenes entwickeln ohne ARM Lizenzen auf Basis ihrer x86 Kenntnissen. Nur liegen im SOC Bereich die Prio's eben anders. Man kann keine x86 CPU von heute auf morgen plötzlich Strom sparend machen in den mW Bereich. Damit wären wir wieder beim Thema Planung. Denn wenn sie könnten wie sie wollten was Du denkst, dann müßte das auch auf den SOC Bereich zutreffen. Hier gewinnen die aber keinen Blumentopf.

Bei den GPUs das gleiche Spiel. Da wird alles noch in 28nm gefertigt, zwangsweise. AMD und nvidia müssen aber ungefähr wissen was in den nächsten Jahren an Fertigungstechnik zur Verfügung steht. Damit sie wiederum planen können wieviele Transistoren sie unterbringen können. Sonst können sie ihre GPU Entwicklung in die Tonne werfen und treten auf der Stelle.

Das ist bei Intel nicht anders nur bleibt das innerhalb der Firma und man bekommt es weniger mit dadurch.

Was sollen wir denn mitbekommen was Du mitbekommst? Ich denke, Du verwechselt IT allgemein mit Halbleiterfertigung.
 
Puh, das ist echt mühsam. In deinem Beitrag hast du jetzt wunderbar absolut alles ignoriert, was auf den letzten 2-3 Seiten an Beiträgen verfasst wurde und alles noch mal aufgekocht, was schon vorher nicht mehr auf diese Situation zutraf.

Und wenn man dann nicht mal weiß, was IT mit Halbleitern zu tun hat, wird es jetzt doch zu ärgerlich.

Mädels? Geschenkt. Ich kann euch nicht erreichen. Zugänglich scheint ihr nur für eure eigenen Gedanken und dagegen anzureden, scheint unmöglich.
Lassen wir uns also "überraschen". :)

Edit: zum Kasperle:

MountWalker schrieb:
Du willst aber auch unbedingt bullshitten ey, Gegenfrage: Was hatte sich denn in der Programmierung so entsccheidend geändert, dass der Pentium IV gefloppt ist?
Eben gar nichts. Er war ineffizient. Der letzte größere Paradigmenwechsel war 64 bit, davor single zu smt.
AMD wollte einfach mit dem Kopf durch die Wand und fand seine eigene Idee so toll, dass sie meinten, sie könnten damit an Intel vorbeiziehen.
Das wiederholen die auch nicht mehr.

Heute sind die Ecksteine gelegt: IPC, SMT, Effizienz.
Genau diesen Weg versucht AMD jetzt (endlich) zu gehen. Ob sie damit Intel aber wirklich noch schaden können...
Ich sage: Nein.
Was nicht heißt, dass die Produkte nicht attraktiv sein können bzw. werden. Sie werden aber eine Reaktion hervorrufen, nach der sich wieder alle - wenn überhaupt - bei AMD bedanken und dann doch den ersehnten 6-8 Mainstream-Kerner von Intel kaufen werden.
Eben weil Intel reagieren kann und wird, so man sich auch nur irgendwie bedroht fühlt.
 
Zuletzt bearbeitet: (Typo)
Hallo,

IT ... ja, weis ich. Das bedeutet aber noch lange nicht das sich ein selbst ernannter IT Auskenner sich in der Halbleiterfertigung auskennt. Wenn Du dich darin auskennen würdest, würdest Du ganz anders argumentieren bzw. nicht immer das gleiche schreiben. Hab ich ja versucht zu widerlegen aber Du reagierst darauf nicht. Im Gegenteil, Du bist völlig resistent für Gegenargumente. Du gehst darauf überhaupt nicht ein. Du schreibst komplett darüber hinweg.
 
Der selbsternannte IT-Kenner ist studierter Informatiker. Das dürfte sich hier langsam rumgesprochen haben. Hardware ist Bestandteil eines jeden Info-Studiums unter Modul-Bezeichnungen wie TGDI oder ähnlich.

Herrschaftszeiten...
 
Hallo,

aha, Du hast Informatik studiert. Sehr schön. Freut mich, ganz ehrlich. Nur leider hat das eine mit dem anderen nichts zu tun, auch wenn es mal ein kurzer Bestandteil während des Studiums war. Du denkst wahrscheinlich Du hast dadurch die Komplexität der Halbleiterindustrie verstanden. Da muß ich Dich aber leider enttäuschen. Ganz sachlich betrachtet.
Ich hoffe Du kennst Dich mehr in Mathematik aus als in der Halbleiterbranche. Ich wünsche Dir noch alles gute, ohne Mist jetzt, aber ich höre an der Stelle im Thread jetzt auf. Alles weitere wird zu nichts führen. Ganz ehrlich.
 
Zurück
Oben