News AMD RTG: AMD-Grafik-Chef Raja Koduri baut für Intel High-End-GPUs

psYcho-edgE schrieb:
Ich tippe eher auf Samsung ;)

Gabs da nicht so eine Klausel, dass AMD die x86-Lizenz verliert, wenn sie aufgekauft werden?
Kann natürlich sein, dass die inzwischen nicht mehr gilt.

Falls doch, käme vielleicht der Mutterkonzern von VIA in Frage (zu dem um ein paar Ecken z.B. auch HTC gehört). VIA hat ja noch eine eigene x86-Lizenz, unter der sie AMDs Produkte wahrscheinlich weiter fertigen könnten.
 
Herdware schrieb:
Gabs da nicht so eine Klausel, dass AMD die x86-Lizenz verliert, wenn sie aufgekauft werden?
Kann natürlich sein, dass die inzwischen nicht mehr gilt.

Es wäre zumindest Verhandlungssache denn wenn AMD die x86 Lizenz verliert würde wohl Intel die x86-64 Lizenz verlieren. Mittlerweile sind beide voneinander abhängig.
 
Jesterfox schrieb:
...wenn AMD die x86 Lizenz verliert würde wohl Intel die x86-64 Lizenz verlieren....

Hat AMD dafür seinerzeit nicht im Austausch eine SSE-Lizenz bekommen?

Trotzdem wäre irgendeine Einigung sicher möglich. Wenn ich mich richtig erinnere, gab ursprünglich auch eine Klausel, dass AMD die x86-CPUs nur im eigenen Werk fertigen darf. Was das angeht haben sich AMD und Intel bei der Ausgliederung von GF auch irgendwie geeinigt. (Ich meine es war Teil einer außergerichtlichen Einigung wegen Intels Monopolmissbrauch.)

Letztlich hat Intel ja auch kein Interesse daran, den letzten Konkurrenten im x86-Markt zu verlieren.

Andererseits wäre z.B. Samsung als direkter Konkurrent im x86-Markt eine ganz andere Größenordnung als ein eigenständiges AMD. Die machen mal eben 4-5x so viel Umsatz wie Intel. Da wäre der Spieß plötzlich umgedreht.
 
Teralios schrieb:
Dann solltest du dich mit der Thematik beschäftigen und dir auch mal entsprechende Gesetzte in den USA als auch in Deutschland mal zu Gemüte führen.

Solche Klausen sind nicht grundsätzlich illegal, wie du hier behauptest, sondern sie sind an gewisse recht »strenge« Bedienungen geknüpft. Sollten diese jedoch erfüllt sein, gilt ein entsprechendes Verbot sehr wohl und ist damit auch nicht illegal.

Sorry, aber versuche bitte nicht mich zu belehren, wenn du keine Ahnung hast. In Californien sind non-compete clauses für Angestellte grundsätzlich verboten. Ohne Ausnahmen. Selbst "workarounds" wie zB sehr lange Kündigungsfristen sind vor Gericht als "non-compete" abgeschmettert worden.

Es gibt keine "strengen Bedingungen", wie du es behauptest, sondern sie sind komplett illegal. Punkt, aus.

Für Eigentümer einer Firma gibt es teileweise sehr beschränkte Möglichkeiten, vielleicht hast du das verwechselt. Aber das betrifft auch nur die Eigentümer selber.
 
Herdware schrieb:
Hat AMD dafür seinerzeit nicht im Austausch eine SSE-Lizenz bekommen?

Da läuft wohl insgesamt ein recht großer Austausch an diversen Lizenzen. Hyperthreading soll auch Teil des Deals sein, nur war es damals für AMD noch uninteressant es in die CPUs einzubauen. Deswegen denke ich dass da wenn es mal tatsächlich zu einem Verkauf von AMD kommen sollte einfach nochmal an den Verhandlungstisch gesetzt wird. Bei der Ausgliederung der Fertigung war das ja im Prinzip auch schon der Fall.
 
Interessant.
Wen Intel bei ihren GPUs die bis zu 100 Mio Transistoren pro mm2 DIE Fläche die Intels 10nm Prozess ja bringen soll ausreizt dürfte man Brachiale Transistorcounts bei den großen Modellen haben.
 
Bzgl der x86 Lizenz muss sich scheinbar generell sowieso etwas getan werden.
Man siehe Zhaoxin die mit einer VIA x86 Lizenz eine CPU für den chinesischen Markt entwickelt haben.
 
Na toll, jetzt wird auch Intels (integrierte) Grafiklösung mehr Strom verbrauchen, als die CPU selbst. Intel Poor Vega:evillol:.
 
Neronomicon schrieb:
Interessant wo er hingeht. Aber ich hoffe auch mal das Intel Grakas rausbringt. Auch wenn es zu unwahrscheinlich ist, Konkurrenz kann man immer Gebrauchen.
Und wenn es nur im Einsteiger-Mittelklasse wäre. Mir würde das reichen.:)

Wenn man sieht wo derzeit das große Geld gemacht wird, und was letztendlich aus Larrabee geworden ist, bleibt nur eine Mutmaßung:

Normalgamer wie Du und ich werden diese GPUs nie zu sehen bekommen weil Intel damit nVidia kontern möchte in dem Segment in dem nVidia-GPUs zuletzt enorme Marktmacht gewonnen haben - High Performance Computing und Deep Learning/AI.
Intel hat mäßige Ansätze für AI-Chips und im HPC-Bereich gibt es viele Supercomputer welche nicht mehr auf Xeon-Cluster sondern nVidias Tesla-GPUs setzen.
 
d169 schrieb:
jetzt wird auch Intels (integrierte) Grafiklösung mehr Strom verbrauchen, als die CPU selbst. Intel Poor Vega

Was fürn Quatsch. Hast du das Gefühl bei Intel wird eine 482mm2 GPU ins Notebook verpflantzt?
Wohl eher nicht.
Bisher sprich man von 24CU mit 1536 Shadern, das ist nicht mal die Häfte der grossen Vegas.
Dazu 1000-1200Mhz Takt. Was auch viel weniger ist als bei den Grossen.
Das Ding wird sparsam wie sonstwas....
Was mit 45W TDP auch gar nicht anders geht.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
@Wadenbeisser

Wobei man nicht genau sagen kann wo ne GTX 980 mit 8GB heute stehen würde. Die R9 390er Serie hatte einen massiven VRam Vorteil. Maybe zahlt sich da aber HBCC iwann aus.

Aber Jahre, du sagst es. Jemand der so Enthusiast ist der hält es doch kaum 5 Jahre mit ner Vega aus...

Gut meine GTX 980 TI is 2,5 und ich würde behaupten die is gerade OC heute noch gut vor der Fiji die damals quasi gleich auf der Stock war.

Das "Altern" täuscht auch wenn zb bei Nvidia Referenz Karten verwendet werden. Eine GTX 780 is zb easy 25-30% OC. Auch die 9XX Serie hat da neben den 4 Gb vRam Nachteilen auch noch oft unbeachtetes OC Potential bzw jede Ref Karte gut 10% mehr.
Bei 1080p, also da wo VRam noch weniger ne Rolle spielt, ist ne GTX 970 (stock) im Schnitt unwesentlich hinter ner R9 390.

Ich mein... das AMD Karten langsamer altern streite ich nicht ab. Wäre auch komisch wenn am Releasetag zb 50% mehr Rohleistung da sind und die nie beim Kunde ankommen würde. AMD hat was das angeht einfach mehr Headroom, mit aber oft einhergehenden Nachteilen bei Effizienz / Verbrauch / Lautstärke.

Bei ner Vega 56 / 1070 sind ich die Sache noch recht einfach. Vega sollte da Unmengen mehr an Rechenpower haben, mit Potential entfesselt zu werden. Allerdings kann man da eig nur mit Customs vergleichen. Für ~400€ wäre das ein gutes Angebot.

Ähm...nur mal so am Rande.
Der Konkurrent der HD7970 war die GTX670/680, der Konkurrent für die GTX770 war vielleicht noch die HD7970 GHZ aber eher die R9 280. Das sind zwar alles die gleichen Chips allerdings in unterschiedlichen Taktungen/Ausbaustufen.
Der Konkurrent für die GTX780(Ti) war wohl eher die R9 290(x), die R9 390(X) konkurrierte mit der GTX970/980.
Allein die Tatsache das sie heute gern mal in komplett andere Leistungsklassen gerutscht sind spricht schon Bände und dann noch mit OC zu argumentieren ist doch ziemlich arm. Kaum einer der Langzeitnutzer würde sich mit OC auch nur ansatzweise beschäftigen.

Standeck schrieb:
Das ist aber sehr spekulativ was du da von dir gibst. Regelst Du auch so deine Finanzgeschäfte? ;) Und mir ist auch nicht bekannt das bei Spielen Grafik mit Double Precision berechnet wird. Oder meinst Du einfache Präzision und dann wird das nochmal halbiert oder wie?? Wie soll das funktionieren ohne Qualitätseinbußen? Erklärung bitte, oder Link.

Ob ich bei meinen Finanzgeschäften bei den Langzeitinvestitionen ebenfalls in die Produkte mit den besten Gewinnausichten investiere? Natürlich und ich bin bislang sehr gut damit gefahren. ;)
Zudem empfehle ich dir dich mal mit der Materie der Berechnungsgenauigkeit zu beschäftigen. Es gibt die doppelte, die einfache und die halbe Präzision, je nachdem wie genau das berechnete Ergebnis sein muss. Die einfache Genauigkeit ist wohl die gebräuchlichste Variante, bei der doppelten Genauigkeit ist das Berechnungsverhältnis der GPUs entscheidend für die mögliche Rechenleistung auf diesem Gebiet, bei der halben Genauigkeit haben die heutigen GPUs idR. die gleiche Rechenleistung die bei der einfachen Genauigkeit und bieten so keinen Vorteil, beim Vega verdoppelt sie sich allerdings und dürfte so eher mit nvidias GP100 vergleichbar sein der in einer komplett anderen Klasse anzutreffen ist.
 
d169 schrieb:
dass Sarkasmus trotz evillol-Smiley an dir vorüberzieht?

Es scheint so als ob viele grad ziemlich unter Spannung stehen und sowas wie nen nen Tunnelblick haben.
Sehr leicht zu triggern. Da hat sich der Redakteur vor ein paar Seiten ja auch schon einen kleinen Spaß erlaubt.

Bin auch schon neugierig wie es nun weitergeht. Besonders darauf wie AMD sich in der Zukunft aufstellt. Dass sie sich mit dem Verkauft von Grafikchips an Intel eine eigene Konkurrenz im APU-Bereich heranzüchten versteh ich noch nicht ganz.
Man könnte meinen sie wollten sich aus der aktiven Produktion von Enkundenprodukten zurückziehen und sich nun auf Hardwaredesigns für große Abnehmer beschränken die dann ihrerseits die finalen Produkte fertigen. Kann mir jedenfalls noch nicht so recht vorstellen wie sie sich bei theoretisch gleichwertigen APU-Produkten (Ryzen + Vega vs. Core i + Vega) großartig am Markt gegen Intel behaupten wollen.
 
Zuletzt bearbeitet:
Koduri soll Intel nicht nur bei der integrierten Grafik voran bringen, sondern auch im High-End-Markt für diskrete Lösungen

Sehr cool. Hoffentlich bekommt Nvidia in absehbarer Zeit damit einen echten Konkurrenten. Und wenn AMD mal einen guten Schritt nach vorne vollbringen sollte, dann hätten wir gar 3 (!) große Player im GPU-Markt. Sehr schön!
 
Man lese sich mal den Artikel durch und schaue aufs Datum. Die Gerüchte von damals sind damit wahr, das lässt ein völlig anderes Bild auf Raja erscheinen. Hab den Kerl eh nie gemocht.

Let’s move onto the bigger issue آ– the desire of AMD’s current GPU leadership to spin off from the rest of AMD and become "ATI" again.

Let’s start with the tension. Koduri was able to wrestle control of the graphics division away during AMD’s last leadership transition after threatening to leave the ship and take a role at Intel, something he's not shy about telling his AMD colleagues. Lisa Su caved and Koduri got the job.

Koduri’s ultimate goal is to separate the Radeon Technologies Group from its corporate parent at all costs with the delusion that RTG will be more competitive with NVIDIA and become a possible acquisition target for Koduri and his band of mutineers to cash in when it's sold.
 
Wie schon andere gesagt haben, dürfte eine Gaming GPU von Intel pures Wunschdenken sein. Die werden sich nicht mit AMD und nVidia im Gaming-Segment um die relativ niedrigen Margen prügeln wollen. Preiskriege sind vorprogrammiert, falls Intel in dem Segment mitmischen wollte. Dazu jede Menge Anfangskosten und Investitionen (Boardpartner, Marketing, Infrastruktur usw.) bevor da überhaupt mal der erste $ verdient wird.

Ich glaube nicht, dass Intel sich das antun will oder wird. Warum auch? Der Desktop-PC Markt ist keineswegs im Wachstum begriffen und wenn man dort hätte angreifen wollen, hätte man dies schon längst mit damals Larrabee tun können.
Was aber stark wächst im Moment und wo die Milliardenaufträge winken, sind die Bereiche AI, Deep Learning, Datacenter, Automotive usw.

Es wäre eine Riesenüberraschung, wenn die bei Intel tatsächlich auch Consumer-GPUs entwickeln sollten. Ich halte das im Grunde für ausgeschlossen. Intel geht es mit an Sicherheit grenzender Wahrscheinlichkeit nur ums Profisegment. Dafür sprechen auch alle offiziellen Aussagen zum Koduri-Wechsel sowie auch dessen offizielle Jobbezeichnung.
 
Die werden sich nicht mit AMD und nVidia im Gaming-Segment um die relativ niedrigen Margen prügeln wollen.
??? die Margen sind großartig! In den meisten industriellen Bereichen werden die Margen wohl erheblich kleiner sein. Umso mehr als das die Nachfrage im Augenblick noch nicht mal gestillt werden kann, da so sogar gaming-fremde wie Miner Gaming-Karten kaufen.
Und nachdem nVidia die Mittelklasse preislich in den High-End Status erhoben haben, sind die Gewinne brutal gestiegen - kann man auch gut an den Zahlen erkennen die nVidia veröffentlicht hat.
AMD hat dann ebenfalls die Preise angehoben und nur deshalb haben wir jetzt so ein hohes Preisgefüge - vergleich mal die Leistungsklassen und die Preise mit den ATI Grafikkarten der Serie 5 oder 7..........

Nein, das war schon abzusehen, dass andere auch an die Fleischtöpfe wollen, wie seinerzeit mit den SSDs, wo auch jeder der das Wort "Technik" schreiben konnte, irgendwelche SSDs auf den Markt geworfen hat.
Das Intel jetzt derjenige ist der an diesen Topf will ist eigentlich die logische Schlußfolgerung.......
 
Wie gesagt Wunschdenken und Schönrederei in der Hoffnung auf eine Intel Desktop Gaming dGPU ;) .

Ich sagte ja "relativ" niedrige Margen und dies vorausschauend darauf, was bei einem Markteintritt von Intel passieren würde. Wie gesagt, wären die Investitionen für Intel erst mal erheblich. So ein komplett neues Segment stampft man nicht im Vorbeigehen aus dem Boden.

Und zweitens würden AMD und nVidia nicht tatenlos zusehen, sondern Intel den Markteintritt so schwer wie möglich machen. Preiskriege wären gerade im Mainstream-Segment vorprogrammiert. Preiskrieg = sehr niedrige Margen bis hin zu Verlusten, wenn man so wie Intel zunächst mit hohen Markteintrittskosten zu kämpfen hätte.

Ich habe wirklich keine Ahnung, warum Intel jetzt plötzlich eine Gaming GPU machen oder gar brauchen sollte. Intel sieht DEN Wachstumsmarkt im Bereich Datacenter und da wollen sie sich breiter und stärker aufstellen.

Intel's anhaltende Restrukturierung führt weg vom klassischen PC-Desktop Geschäft (wo eine Gaming GPU hingehören würde) und hin zum Datacenter, IoT usw. - Das ist der Bereich, der stark wächst und wo CEO Krzanich ("Intel is a data company") in den nächsten fünf Jahren richtig angreifen will, wozu das Engagement Koduri's passt.

The growth in the data center and other businesses is driven by the need to move, store and crunch all the data being generated by not only people and their computers, but smart factories, data heavy entertainment, connected retail stores and autonomous driving.

[...]

“Data is going to explode across the network,” Krzanich said. “We are a data company. We are a company that will grow off this data explosion over the next four to five years.”

Krzanich describes the strategy as a virtuous cycle of growth, meaning that any one piece of the circle feeds the rest. Each device generates data and requires strong connectivity and then a cloud system to apply analytics or artificial intelligence to be useful. At each of those levels, Intel wants a piece.

“We are targeting areas that are data-driven and take the technology and the (intellectual property) we generate in the core business and extend it,” Krzanich said.

By doing this, the company is increasing its addressable market beyond the traditional $45 billion PC and data center CPUs space. He outlined a broader $220 billion market that includes adding such data center products as networking with Silicon Photonics, which can move data within a data center much faster.
 
Zurück
Oben