News AMD macht Verluste und entlässt 15 Prozent der Belegschaft

@Pipip: derzeit muß man die Daten eben schon noch verlagern zwischen APU/CPU. das soll erst mit dem Nachfolger kommen, wenn ich die Daten recht im Kopf habe, dann haben CPU und GPU den selben Adressraum. Weiß ich jetzt aber nicht exakt. Von dem her der Vergleich durchaus berechtigt.
Vor allem unter dem Gesichtspunkt, daß es eben darum geht, welche Art von Prozessor was berechnet. Und ob da die paar Daten schnell noch über den PCIe-Bus rauschen müssen bevor sie 100mal so schnell bearbeitet werden... Is doch Egal. Das Prinzip ist jedoch das gleiche!
 
wbjc2007
Deshalb sagte ich ja, dass du recht hast ^^ Wollte nur sagen dass HSA und GPGPU im dem Sinn nicht das selbe ist :D

Naja CPU und eine dgpu hat ja besonders beim Programmieren den Nachteil. Das Programmieren soll ja mit HSA so leicht wie möglich gemacht werden.
bei einer dgpu müssen die Daten erst kopiert werden, dann bearbeitet dann wieder verlagert ect.

http://www.tomshardware.de/fusion-hsa-opencl-Geschichte-APU,testberichte-241088-9.html
Deshalb verlinke ich immer das Bild.
http://media.bestofmicro.com/amd-fusion,5-7-347515-3.jpg
amd-fusion,5-7-347515-3.jpg


Man muss sich bewusst sein, dass OpenCL und HSA unterschiedliche Initiativen bzw. Produkte sind – es ist aber anzunehmen, dass sich OpenCL allmählich in Richtung bestmöglicher Kompatibilität mit HSA weiterentwickeln wird. Sogar ohne HSA ist OpenCL heute viel einfacher zu programmieren als vor zwei Jahren. Beispielsweise hat die OpenCL-Release 1.2 den notwendigen Initialisierungscode und anderen Glue-Code drastisch verringert. Mit HSA wird sich dieser Trend in Richtung Einfachheit und Performance fortsetzen, weil sich die Softwareentwickler nicht mehr länger mit zwei getrennten Adressräumen herumschlagen müssen.
Und jetzt schon
AMP ist eine Abkürzung für Advanced Massively Parallel. In C++ AMP sind nur zwei neue Schlüsselwörter hinzugekommen, restrict und array_view, und durch die Verwendung dieser Schlüsselwörter wird das Unterprogramm als GPU-Unterprogramm markiert und somit zur Laufzeit in der GPU abgearbeitet.
 
Zuletzt bearbeitet:
pipip
da geb ich dir voll und ganz recht. Vor allem CAD-Anwendungen sind diesbezüglich interessant. Wahrscheinlich ist auch Autodesk ein Unterstützer von HSA (siehe gleiche Quelle wie Son)

Was definierst du aber als fertiges APU-Produkt? Meinst du damit die entgültige/abgeschlossene Fusion von CPU und GPU, die dann irgendwann 2013/2014 vollzogen sein soll (schaltungs- und programmiertechnische Implementierung?)?

Ich persönlich werde halt jetzt schon ein "unfertiges" APU-System kaufen, um (klingt zwar jetzt abgetroschen) bei der Entwicklung dabei zu sein. Und ich glaube ganz ehrlich nicht, dass diese Entwicklung nach hinten los geht :D

Wir werden ja sehen wohin der Weg uns führt.
 
Zuletzt bearbeitet:
Schu3
2-1080.2756011569.jpg

3-1080.2263084609.png


Das Fertige Produkt ist für mich, wenn der User eine APU mit einer dgpu Verwenden kann.
Die APU mehr oder weniger die klassische CPU ersetzten kann. Die APU hat nicht die Aufgabe wie bei Intel der einfachen Media-Unterstützung, sondern soll eben gewisse Dinge schneller Ausführen können als eine normale CPU. Das kann bei Games bsp eben Physiks oder KI sein.
Für mich ist die igp der APU in Zukunft für den Grafik-bewussten Gamer kein Ersatz für die dgpu, auch wenn ich persönlich mit einer igp auskommen würde.

Also laut den Bilder 2014. Wenn HSA und dessen APU gut in den x86 Markt integriert, aubaut, quasi erweitert, kann AMD mehr oder weniger wieder voll angreifen.
Wichtig ist, dass sie Intels-Technologien wie AVX2 ect unterstützen um keine Nachteile sondern nur Vorteile zu haben.
Wenn also GNC einige Sachen schneller, effizienter bearbeiten kann, hat man trotz schlechter Fertigungstechnologie vllt eine bessere Effizienz.

Mir kommt es so vor, als würden viele APU deshalb schlecht reden, weil sie sich bis heute nie Gedanken darüber gemacht haben.

Wer dann mein man kann nicht alles Parallelserien verweise ich hier :
https://www.computerbase.de/2012-08/schoepfer-von-gustafsons-gesetz-verlaesst-intel-in-richtung-amd/
Gustafsons Gesetz basiert auf dem Gesetz von Amdahl, das, ausgehend von einer festen Problemgröße, versucht eine zu bewältigende Aufgabe durch Parallelisierung mit Prozessoren in kürzerer Zeit zu lösen. Es geht dabei davon aus, dass das bestmögliche Ergebnis eine lineare Verbesserung der benötigten Zeit (also ) sei. Verwendet man doppelt soviel Prozessoren, benötige man bestenfalls die halbe Zeit.

Ich persönlich werde halt jetzt schon ein "unfertiges" APU-System kaufen, um (klingt zwar jetzt abgetroschen) bei der Entwicklung dabei zu sein.
ich wahrscheinlich auch, nämlich für mein HTPC. FM2 kann ja scheinbar Kaveri + Nachfolger (fertige APU) aufnehmen. Somit gibt es gewisse Sicherheiten.
 
Zuletzt bearbeitet:
AMINDIA schrieb:
Intel Quartalszahlenbericht:
16.10.12 22:51 Uhr - 05:00 Uhr, 20 Beiträge

AMD Quartalszahlenbericht
18.10.12 22:50 Uhr - 05:00 Uhr, 59 Beiträge.

Man muss dabei klar hervorheben. Diejenigen die andere als AMD Fanboys bezeichnen sind genau die User, die sich zu jeder AMD News in Höchstleistung schreiben. Da liegt nach meinem Verständnis das Fanboytum wohl eher bei diesen Menschen :)
So ist es.
Intel & Nvidia-Technik wurde immer schon hochgejubelt.
Der Optimus-Konkurrent Enduro wurde nichteinmal in der CB-News erwähnt.

Faszinierend ist aber, dass AMD mit Ontario & Thaiti-Ghz trotzdem die Performance-Krone in ihren Märkten hat und es doch logisch sehen, dass AMD in diesen Märkten keine Mega-Gewinne macht, und das obwohl die Performance-Krone die entscheidende Erklärung ist, warum Bulldozer ja ein Mega-Flop sein soll.

Mr_Tee schrieb:
We expect to see up to a 15% improvement in performance per W over the "Piledriver" core (those are design-level improvements rather than process level ones).

Wenn AMD nicht allzu sehr an der Taktschraube dreht, ist sogar eine weitere Verbrauchsreduzierung durch die 28nm Fertigung möglich.
Stimmt, das habe ich sogar vergessen.
Die Chance, dass AMD 10-15% mehr Performance über 10-15% Mehr Stromverbrauch erkauft, ist somit geringer geworden.

Interessant, dass Intel bei Haswell hingegen zu Sandy-Bridge & Ive-Bridge keine Chinebench IPC oder Performnace (IPC + Takt) Angaben macht. Aber die diese bei den letzten gering ausgefallen sind, würde ich die Steigung sogar deutlich über diesen beiden für Möglich halten, was dann statt 10-15% eigentlich +20-30% MehrPerformance bedeuten kann.

MrEisbaer schrieb:
AMD sollte das selbe machen, wie Intel bei ihren Core 2 x Modellen.

Dort hat Intel ja die "alte" Pentium-M Technologie (die wiederum auf der stark modifizierten PIII Technologie basiert) genommen und extrem aufgebohrt.
Der Fehler in dieser Denkweise ist, dass der Pentium III damals 50-100% Effizienter war als der K7, weil dieser 35-50% weniger Strom verbrauchte.

Zweiter Denkfehler ist die HSA-Zukunft des Bulldozers.
AMD braucht nicht den K10 mit 3fachfrontend & 3 ALUs wiederbeleben, wenn sie bald schon Steamroller ein 2x4 Fach -Front-End verpassen.
Anstatt einen alten K10 von 3 auf 4-Fach Front-End & ALU upzudaten, kann AMD genauso den Bulldozer von 2x2 Front-End und 2x2 ALUS auf 2x4 Front-End

R600 verdamals in viele Augen auch ein Flop.
Aber damals verstand keiner (ich genauso), dass das R600 Front-End mit nur 4-SIMD viel zu überdimensioniert war und im R600 sehr viel Zukunftstechnik drinnensteckte. Heute ist dieses R600-Architektur viel effizienter, weil in einem Front-End (mit je einem Rasterizer & Gemetrie Unit & Assambler) heute nicht 4 sondern bis zu 16 CUs versorgen können.

Dieses Problem steckt auch in Bulldozer. Wir wissen einfach nicht, wie viele Vorbereitungen heute im Bulldozer drinnstecken und somit wie hoch das heutige Potential ist.

Es kann eben sein, dass in 5-10 Jahren im Bulldozer-Modul 4-Integer-Cores, 2-FPU-Cores und 1 CU (GCN) drinnen steckt (oder 2 CUs und 1 Big-FPU).
Deshalb ist Bulldozer technisch sehr interessant.
 
Rome1981 schrieb:
Und genau das ist der Punkt: Wer vor 6(!) Jahren in ein mittel- bis hochpreisiges Board (AM2) investiert hat, kann damit heute noch die Phenom II (nach Firmwareupdate) betreiben. Ich bin nicht sicher, ob die Bulldozer anspruchsvoller sind, aber zumindest kann man immernoch aufrüsten.

Also mittlerweile ist das in meinen augen extrem unrelevant geworden, man bekommt heute boards für unter 70euro- neu! Wenn man sich dann umschaut was ein gebrauchtes board hier kostet mit ziemlich guter ausstattung für aktuelle sockel, die bekommt man auch schon für 50euro. Also die langlebigkeit der amd sockel war früher ein großes thema, wo ein board zu DM zeiten noch 150-200DM gekostet hat.
 
Hades85
FM1 A75 waren die günstigsten best ausgerüsteten Boards die ich bis jetzt gesehen habe(45-50 euro). Leider sind die FM2 Boards noch nicht richtig verfügbar. Denn dann hätte AMD mit FM2 eine super Plattform am Markt.
Erstens eine APU/Athlon II (FM2) ist günstig und auch für die nächsten Jahre sicherlich ausreichend. Idle Werte und in normalen Anwendungen ist Trinity effizient genug um mit Intel mitzuhalten.
In Programmen wo viel CPU Performance benötigt wird, ist jedoch Intel klar im Vorteil (Verbrauch-Performance)
Wenn der Verbrauch keine Rolle spielt, kann man die CPU aber Overclocken.
Der eigentliche Vorteil, Steamroller in 28 nm, und auch der Nachfolger, eventuell 20nm werden auf FM2 möglich sein (wenn man AMD Glauben schenkt, wobei Änderungen am Sockel dafür sprechen).

Ich für mein Teil gebe sowieso selten noch mehr als 50 euro für ein Board aus. Die Phasen-OC muss stimmen, und eine gewisse Ausstattung muss da sein.
Bis auf eine Grafikkarte, habe ich eigentlich alle Slots momentan frei.

http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-18-oktober-2012
Ein monstös auf 5242 MHz CPU-Takt sowie 1591 MHz iGPU-Takt übertakteter Trinity A10-5800K Prozessor hat bei HWBot die Marke von 10000 Punkten im 3DMark Vantage Performance-Test gebrochen – und liegt damit auf dem Performance-Niveau von Radeon HD 4850, Radeon HD 7770 sowie GeForce GTX 260. Hilfreich bei dieser Performance dürfte natürlich auch noch der Speichertakt von 1331 MHz (DDR3/2662) gewesen sein, denn ansonsten wird sich die hohe Rechenleistung der stark übertakteten Radeon HD 7660D kaum in Mehrperformance umwandeln lassen.

Das lässt auf Kaveri freuen, eventuell nähert man sich (oder kann man sich selbst mit OC nähern) der HD7750


Naja mal abwarten. Es kann gut sein, dass man gewissen Bereiche eventuell die Tools schon gezeigt haben was sie können. Somit ist eventuell einfach der Bedarf mancher Personen nicht mehr gegeben.
Klar finde ich das nicht super. Aber man muss überlegen, dass es nicht so unüblich ist, dass Maschinen Menschen ersetzten. Sonst hätten wir heute bestimmt noch Zwangsarbeit oder ähnliches (wobei wenn man in anderen Ländern schaut, wo die Technologie noch nicht so fortgeschritten ist ja noch real ist)
 
Zuletzt bearbeitet:
Seit Intel die Athlon 64 Architektur mit der Core Architektur gekonntert hat, war klar, dass AMD ebenfalls einen gleichwertigen Leistungssprung vollziehen muss. Dieser ist aber bis heute ausgeblieben. Statt dessen wurden Fehler wie der Phenom I und der Bulldozer begangen.
Der einizge Lichtblick war der Phenom II und der Athlon II wobei die mittlerweile 3 Jahre alte CPU's teilweise noch immer unter den Topmodellen von AMD sind, was relativ traurig angesichts der schnellen Entwicklung ist.

Entweder es kommt bald mal was revolutionäres von AMD oder das wars :(
 
Gaiaforce schrieb:
Hoffentlich gehts AMD schnell wieder besser. Das Unternehmen ist generell für den gesamten Hardwaremarkt wichtig, ob man nun die Produkte kauft oder nicht.
Würde es AMD nicht geben, dann wäre der Konkurrenzkampf am Hardwaremarkt deutlich geringer. Das würden wir Verbraucher dann deutlich zu spüren bekommen.

Naja ich denke mal AMD wird es noch eine ganze Weile geben.. wenn auch vllt. irgendwann mal unter anderem Namen. Falls z.Bsp. IBM in den x86 Markt wollte wäre das für die sicher eine Option... da gäbe es evtl. auch ein paar Synergieeffekte während IBM bereits das Servergeschäft mit eigenen Produkten abgedeckt hat könnte man sich so mit einer AMD Sparte auf den Consumer-Markt und das OEM Geschäft konzentrieren. Die Frage ist ob die das auf sich nehmen wollten. Das Ruder rumzureißen würde ich denen aber zutrauen...
 
aylano schrieb:
R600 verdamals in viele Augen auch ein Flop.
Aber damals verstand keiner (ich genauso), dass das R600 Front-End mit nur 4-SIMD viel zu überdimensioniert war und im R600 sehr viel Zukunftstechnik drinnensteckte. Heute ist dieses R600-Architektur viel effizienter, weil in einem Front-End (mit je einem Rasterizer & Gemetrie Unit & Assambler) heute nicht 4 sondern bis zu 16 CUs versorgen können.

r600? Lol? Zukunftstechnik? Lollol? "Viel effizienter" Megarofllol?

Die erste AMD Grafikkarte, die voll nutzbar für OpenCL war, waren die Evergreen-Karten. Die erste Karte, die von nVidia voll OpenCL kompartibel war, war die 8800GTX mit G80. Die kam 3 Jahre früher auf den Markt und lag auf Niveau der 4850. Wo Tahiti effizienter als GK104 wäre, solltest du hier auch mal darlegen. Vor allem unter der Berücksichtigung, dass man trotz 15 Watt mehr Strom, mehr Rechenleistung und Bandbreite langsamer als eine GTX680 ist...

Du hast echt kein Plan von dem, was du hier schreibst.
 
Sontin schrieb:
r600? Lol? Zukunftstechnik? Lollol? "Viel effizienter" Megarofllol?

Du hast echt kein Plan von dem, was du hier schreibst.
N bisschen sachlicher kann man das Ganze schon rüber bringen, oder?
Verstehe diese emotionale Aufladung aller möglichen Themen im Internet einfach nicht...
 
Sontin schrieb:
Vor allem unter der Berücksichtigung, dass man trotz 15 Watt mehr Strom, mehr Rechenleistung und Bandbreite langsamer als eine GTX680 ist...

Und sowas muss ich in einem Forum lesen, wo die Teilnehmer eigentlich als technisch affine gelten (wollen). ._.° *speechless*
Wenn man sich schon über andere lustig machen will (kann ich jetzt nicht nachvollziehen ob richtig oder falsch), sollte man seine eigenen Aussagen wenigstens so wählen, dass man sich selbst nicht lächerlich macht ;)
 
Zuletzt bearbeitet:
Zumal seine Aussage falsch ist, da die 7970 die höhere Rechenleistung hat und in GPGPU-Anwendung deutlich besser abschneidet als die 680.
 
Zuletzt bearbeitet:
Cr4y schrieb:
N bisschen sachlicher kann man das Ganze schon rüber bringen, oder?
Verstehe diese emotionale Aufladung aller möglichen Themen im Internet einfach nicht...
Kommt wie in der echten Welt vom "wichtig machen" :(

B2T:
Zur Zeit gehts einfach nach unten mit den Desktop PC Verkäufen. Daher müssen solche großen Chipfirmen einfach umdenken. Es werden ja immer mehr "neue" Bereiche in die Unternehmen aufgenommen (z.B. Mobilfunk / Grafik).
 
gibt wahrscheinlich deshalb seit zwei Monaten keinen WHQL Catalyst Treiber mehr. 12.9 kam ja nur in einer Beta und 12.10 schon etwas unterwegs? Der Battlefield Ram-Volllauf-Bug unter Win8 nervt nämlich wenn er ab und zu mal auftritt.
 
Schu3 schrieb:
Und sowas muss ich in einem Forum lesen, wo die Teilnehmer eigentlich als technisch affine gelten (wollen). ._.° *speechless*
Wenn man sich schon über andere lustig machen will (kann ich jetzt nicht nachvollziehen ob richtig oder falsch), sollte man seine eigenen Aussagen wenigstens so wählen, dass man sich selbst nicht lächerlich macht ;)

Was ist jetzt dein Problem? Der Satzbau oder die Bezeichnung Strom? Und spielt das für dich jetzt so eine große Rolle?! Und "Technikbegeisterung" bedeutet nicht, dass ich gleichzeitig Interesse an Physik habe.

Cr4y,
du willst wissen, wieso man heutzutage im Internet eben nicht mehr "höflich" antworten sollte? Gerne, ein Beispiel:

DinciVinci schrieb:
Zumal seine Aussage falsch ist, da die 7970 die höhere Rechenleistung hat und in GPGPU-Anwendung deutlich besser abschneidet als die 680.

Hier bezieht sich jemand nur auf ein Teilaspekt, um eine Aussage zu "korrigieren", die ihm nicht passt. Es stellt sich hier jedoch die Frage, wieso man dann die Vorteile der anderen Architektur bzw. Karte komplett ignoriert? Immerhin ist die GTX680 doppelt so schnell beim Rasterizing und 4x so schnell bei der Erzeugung von neuen Dreiecken auf der GPU.

Man lernt einfach über die Jahre, dass vielzuviele Firmen vielzuviele Leute abstellen, um einfach nur Quatsch zu schreiben. Da hilft nur Sarkasmus und Ironie.
 
pookpook schrieb:
AMD wird NICHT und nie runtergehen.

Wenn AMD geht pleite wird Intel zerschlagen ganz einfach ist es.

Ich zitiere mich einfach mal selber, auch wenn Wiederholungen nerven.

Und wer glaubt das Intel zerschlagen wird nur weil AMD schwimmen geht, der verkalkuliert sich da ziemlich. Auch andere Unternehmen wie M$ werden nicht zerschlagen obwohl sie eine ähnliche Stellung haben. Monopole oder Quasimonopole sind grundsätzlich erstmal kein Problem. Nur der Mißbrauch ist eines. Intel kann sich aber mit der ARM Fraktion mittlerweile rausreden so wie es M$ mit iOS, Android & Co kann.
 
Sontin schrieb:
Hier bezieht sich jemand nur auf ein Teilaspekt, um eine Aussage zu "korrigieren", die ihm nicht passt. Es stellt sich hier jedoch die Frage, wieso man dann die Vorteile der anderen Architektur bzw. Karte komplett ignoriert?

Du hast selektiv einen Teilaspekt rausgegriffen und darauf Dein Argument aufgebaut, dann habe ich selektiv einen anderen Teilaspekt rausgegriffen, um das Gegenteil aufzuzeigen. Somit ist Deine Pauschalaussage widerlegt.
 
Richthofen
Und das ist ein Grund zur Freude ? oder wie darf man dich verstehen ? Am besten schreibst du das noch in Geizhals unter Bewertung hinein!

Ob Intel zerschlagen wird ist mir persönlich nicht wichtig. Wichtiger ist mir, dass es trotzdem eine Alternative gibt. Ich persönlich hab nichts gegen Intel. Aber ich möchte trotzdem eine freie Auswahl haben. Das gilt auch für x86.
Man braucht sich ja nur mal Windows8 anschauen und vergleichen. Da sieht man wieviel bei Windows 8 für ARM-Prozessoren beschnitten wurde.
Also soviel dazu.

Intel kann schon zerschlagen werden, bzw geschwächt werden. Vllt sogar vllt in eine ähnliche Situation wie momentan AMD und GF ?
Aber das ist und bleibt reine Spekulation, weil AMD am Leben bleibt/noch ist.
 
Zuletzt bearbeitet:
Zurück
Oben