News H-Serie für Notebooks: Mobile Intel-Core-CPUs ab 2018 auch mit GPU von AMD

Zuckerwatte schrieb:
Es ist aber auch ein Zugeständnis von Intel, dass ihre IGPU mit der Konkurrenz einfach nicht mithalten kann :freaky:

Für die 5% an Notebooks, die mit einer"Highend"-Grafik ausgestattet sind lohnt es einfach nicht, etwas eigenes in der Leistungsklasse zu entwickeln. Da ist es günstiger, das extern einzukaufen. Das ist eine rein wirtschaftliche Entscheidung.
 
kisser schrieb:
Für die 5% an Notebooks, die mit einer"Highend"-Grafik ausgestattet sind lohnt es einfach nicht, etwas eigenes in der Leistungsklasse zu entwickeln. [...]

Und trotzdem hat Intel schön viel Geld versenkt beim versuch eine konkurrenzfähige IGPU auf die Beine zu stellen.

Das ist eine rein wirtschaftliche Entscheidung für beide Unternehmen würde ich mal sagen. Intel braucht keine integrierte "Highend" Grafiklösung zu entwickeln und AMD bekommt eventuell etwas den Fuß in die Tür für den OEM Markt. Beide haben hier eigenes Kalkül und erhoffen sich ihre strategischen Vorteile. Für wen es am Ende der bessere Deal ist wird sich zeigen.

(schön aus dem Kontext gerissen, das Zitat ;) )
 
Weyoun schrieb:
Oh nicht nur Notebooks, sondern auch Intel NUCs zukünftig in den Genuss dieses Grafik-Updates kommen dürften?
Für mich hört sich das nach einer teuren Lösung an, weshalb sich diese APU auch gut mit den AMD eigenen APU aus dem Weg gehen. Völlig andere Preis- und Leistungsregionen.

kisser schrieb:
Weil Apple möglichst billig einkaufen (und teuer verkaufen) will und Nv hat gar keinen Anlass, sich die Preise selbst zu versauen. Kannst ja mal deren Quartalsberichte anschauen. Als wären die auf Apple angewiesen. :rolleyes: :lol:

Und aus diesem Grund gibt Nvidia ein Geschäft mit Millionen Umsatz an die Konkurrenz ab? Was soll das denn für eine Begründung sein? Frei nach dem Motto: Mein Umsatz ist hoch genug, ich will keinen noch höheren. Was das alles mit "auf Apple angewiesen" zu tun haben soll und "Preise kaputt machen" erschließt sich mir überhaupt nicht. Ganz im Gegenteil bin ich mir sehr sicher, dass Nvidia überhaupt nicht glücklich ist, dass AMD bei Apple GPU und bei Playstation / Xbox die APU stellt.


Neben der Leistung am Ende interessiert mich aber jetzt tatsächlich noch sehr, wer das am Ende fertigt. Intel die CPU, GloFo die GPU und Micron/Samsung den HBM2? Wer "montiert" das dann am Ende zusammen?
 
Kristatos schrieb:
Na bitte, geht doch :) Jetzt fehlt nur noch die Desktopversion mit passenden Boards und die blöden stromfressenden Grafikkarten haben bald hoffentlich ausgedient.

Wenn man Höchstleistung haben will, dann haben die ganz sicher nicht ausgedient. Die verbrauchen den Strom nicht zum Spaß, vor allem wenn man in Zukunft auch noch 4K Displays befeuern will.
 
kisser schrieb:
Schön ausgedachte Zahlen! Ich wette, du kannst die nicht belegen.
Ist übrigens nicht das einzige Problem mit AMD GPUs:
https://www.mactechnews.de/news/art...karten-werden-von-Apple-repariert-163388.html


Belegen kann ich sie nicht mehr, ich finde die passenden Links nicht mehr, aber ja doch, das waren die Ausfallraten der damaligen NV Mobil GPUs.
Da gibt es viele tausende Belege über jammernde User im Netz.


Und sorry, ein Apple Design Mac Pro, mit einer für Apple designten Billigkarte, unterdimensioniert wos geht, wie üblich bei Apple damit man 2 Cent sparen kann und dann über Ausfälle wundern, wenn das Gehäuse so gemacht ist, dass sich alle Komponenten gegenseitig im Weg sind?

Ich kenne Apple gut, auf die Schei*** man sich da einlassen muss um sie beliefern zu dürfen und sie alles billigst haben wollen damit nur sie auch das Maximum einstreichen können, muss man sich erst mal einlassen wollen.
Da wird natürlich an den Komponenten gespart wos nur geht um die Preise halten zu können.

Davon ab, was erwartest Du bitte von bis zu 800W Verbrauch in einem Gehäuse mit dem Volumen von 2-3 Milchtüten? Die Tahiti GPU darin wird bis zu 97 Grad warm und ist meist bei 90-95 Grad.
Das ist weit weg von gesund.
Alle Komponenten über einen Kühler verbunden, dass man sich gegenseitig aufheizen kann.
Super Idee!
Sorry aber bei Apple geht halt vielfach das Design vor und das ist oft keine gute Entscheidung wenn man die Performance und Lebensdauer der Produkte erhalten will.
Und das Design dieses Macs kannst jetzt nicht AMD in die Schuhe schieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5
Begu schrieb:
Und aus diesem Grund gibt Nvidia ein Geschäft mit Millionen Umsatz an die Konkurrenz ab? Was soll das denn für eine Begründung sein? Frei nach dem Motto: Mein Umsatz ist hoch genug, ich will keinen noch höheren. Was das alles mit "auf Apple angewiesen" zu tun haben soll und "Preise kaputt machen" erschließt sich mir überhaupt nicht. Ganz im Gegenteil bin ich mir sehr sicher, dass Nvidia überhaupt nicht glücklich ist, dass AMD bei Apple GPU und bei Playstation / Xbox die APU stellt.
Ähm doch. Meinste Sony, Intel und Co waren nicht bei Nvidia? Die werden sich dort genau so ein Angebot abgeholt haben. AMD war günstiger und NV wollte nicht mitziehen. AMD verdient nur Peanuts an den APUs für die Konsolen, dass ist für die eher eine Prestigesgeschichte und Umkostenträger. Für den Gewinn den AMD damit erwirtschaft fangen die bei NV nicht mal an zu arbeiten. Sieh dir an was die Switch mit Nvidia Chip kostet. Das NV in diesem Fall nicht zum Zuge kommt dürfte wohl zum einen schlicht an einem fehlenden HBM Design liegen und zum anderen an dem angespannten Verhältnis zwischen der beiden Konzerne. AMD und Intel sind sich gar nicht so feind wie hier immer getan wird. Die sind durch Lizenzabkommen eng aneinander gebunden und auch wenn es viele nicht wahr haben wollen, aber auch Intel profitiert vom Aufschwung bei AMD.
 
SaschaHa schrieb:
Ehrlich gesagt, wenn ich daran denke, dass NVidias GTX 1080 mit im Schnitt 157 Watt die gleiche Leistung erzielt wie die Vega mit knapp über 300 Watt, so bin ich mir nicht sicher, ob das wirklich die richtige Entscheidung war... Eine integrierte 1030 oder ähnliches wäre doch sicherlich effizienter unterwegs, oder irre ich mich?

:rolleyes:
Naja Vega 56 ist deutlich effizienter als 64 weil niedriger getaktet. Es ist wie immer: betreibst du einen Chip weit über dem Sweetspot explodiert der Verbrauch. Die Xbox one X verbraucht insgesamt weniger als 200W mit ihren 2560 GCN Kernen @1170 MHz. Wenn man die ganzen Verlüste (auch vom Netzteil) abzieht und den Rest der Hardware wie die 8 Jaguar Kerne und RAM, dürfte die GPU allein weniger als 140W verbrauchen.
 
Begu schrieb:
Und aus diesem Grund gibt Nvidia ein Geschäft mit Millionen Umsatz an die Konkurrenz ab?

Der Umsatz interessiert nicht, wenn kein Gewinn dabei rumkommt. Schau dir Nvidias Margen an und dann vergleiche die mit AMDs.

Erinnerst du dich noch an die Aussagen, dass AMD im Geld schwimmen würde nach den beiden Konsolen-Deals? War wohl nix.
Ergänzung ()

GrooveXT schrieb:
Ähm doch. Meinste Sony, Intel und Co waren nicht bei Nvidia? Die werden sich dort genau so ein Angebot abgeholt haben. AMD war günstiger und NV wollte nicht mitziehen. AMD verdient nur Peanuts an den APUs für die Konsolen, dass ist für die eher eine Prestigesgeschichte und Umkostenträger. .

:daumen:
 
Die Konsolen Deals haben das Überleben von AMD gesichert und genügend Geld in die Kasse gespült, ZEN und VEGA auf den Markt zu bringen und in eine neue 7nm Fertigung mit zu investieren. Ohne dieses Geld würden wir weder in 3 Monaten Ryzen + (12nm), noch Anfang 2019 Ryzen 2 (7nm), noch VEGA und Navi sehen.

Ich glaube für AMD eine eindeutige Win Situation, trotz aller Hater Kommentare hier.
 
GrooveXT schrieb:
Ähm doch. Meinste Sony, Intel und Co waren nicht bei Nvidia? Die werden sich dort genau so ein Angebot abgeholt haben. AMD war günstiger und NV wollte nicht mitziehen.
Da bin ich anderer Meinung. Ohne AMD müsste Sony und Microsoft auf CPU mit dedezierter GPU setzen, was diverse Nachteile gegenüber einer APU mitbringt. Von daher haben die sich mit Sicherheit bei Intel und Nvidia auch Angebote eingeholt, aber es war nicht nur der Preis wieso AMD den Zuschlag erhalten hat.

GrooveXT schrieb:
Für den Gewinn den AMD damit erwirtschaft fangen die bei NV nicht mal an zu arbeiten.
Mir erschließt sich nach wie vor der wirtschaftliche Sinn nicht, ein Geschäft mit Milllionen Umsatz lieber an die Konkurrenz abzugeben, als es selbst zu machen.

GrooveXT schrieb:
Das NV in diesem Fall nicht zum Zuge kommt dürfte wohl zum einen schlicht an einem fehlenden HBM Design liegen und zum anderen an dem angespannten Verhältnis zwischen der beiden Konzerne.
Nvidia hatte früher HBM2 "am Start" als AMD, die waren bei HBM früher dran. Ein fehlendes HBM Design kann man also Nvidia nicht vorwerfen. Eher die mangelnde bis nicht vorhandene Erfahrung im APU Design.

/edit
kisser schrieb:
Der Umsatz interessiert nicht, wenn kein Gewinn dabei rumkommt. Schau dir Nvidias Margen an und dann vergleiche die mit AMDs.
Dir ist schon klar, dass es bisweilen Preiskämpfe gibt, bei denen Produkte quersubventioniert werden um Mittbewerber mit "schwächerem Budget" aus dem Markt zu drängen? Das mit der Marge ist doch genauso ein Witz, ich habe doch lieber eine geringere Marge SELBST als dass eben diese Marge ein Konkurrent hat.
Und die Konsolendeals führen mittel- bis langfristig dazu, dass diverse Softwarebuden ihre Games auf Vega ausrichten (rapid math, HBCC, TV mit Freesync) und nicht auf Pascal. Das ist doch für Nvidia lose-lose Situation.
 
Zuletzt bearbeitet:
Zuckerwatte schrieb:
Und trotzdem hat Intel schön viel Geld versenkt beim versuch eine konkurrenzfähige IGPU auf die Beine zu stellen.

Würde ich nicht sagen. Intel hat in den letzten Jahren bei der Skalierbarkeit große Fortschritte erzielt. Sowohl nach unten (Low Power & Power Management) sowie nach oben (doppelte Anzahl der EUs, eDRAM um fehlende Bandbreite zu kompensieren).

Das sich Intel in Zukunft wohl auf GT3e als maximale Konfiguration beschränkt und den Bereich darüber mit MCMs abdeckt kann kaum als Fehlschlag bezeichnet werden. Ist vor allen wirtschaftlicher da kein weiterer separater Chip wie 4C+GT4e und größer für ein vergleichsweise kleines Marktsegment notwendig ist. Mittel bis langfristig wird AMD den gleichen Weg gehen und APUs mit dGPU on Package bringen.

APUs deshalb da eine vergleichsweise kleine IGP immer erheblich weniger Energie benötigt als eine ausgewachsene dGPU mit eigenem Speicher und Interfaces. Effektiv damit die dGPU als zuschaltbarer Coprozessor wie auch heute im mobilen Bereich üblich.

Bezogen auf das Power Management würde ich eher darauf tippen das Intels IGP (Gen9+) im typischen Office Betrieb eine etwas geringere Leistungsaufnahme hat als beispielsweise Vega M (Raven Ridge). Im Gegensatz zu AMD hat Intel Power Gating der EUs implementiert und mit Blick auf Smartphone SoCs in diese Richtung (Ultra Low Power) wie auch Nvidia massiv investiert.
 
Zuletzt bearbeitet:
Jaja die Märchen das nvidia ja nur nicht daran interessiert war an einem Konsolendeal. Das nvidia nicht mal ein passendes Produkt für die Anforderungen hatte wird wieder mal unter den Teppich gekehrt.
Sony und Microsoft wollten alles aus einem Guss haben, Kühlung und Aufbau wurden damit vereinfacht und die Kosten fallen dadurch geringer aus.

Ansonsten sieht man ja das nvidia es trotzdem für nötig hielt bei Nintendo mitzumischen.

Bzgl des Themas hoffe ich das damit bald auch endlich das leidige Thema G-Sync/FreeSync vom Tisch ist und sich der VESA Standard endlich durchsetzen könnte.
 
Selbst wenn Intel selbst eine ähnlich leistungsfähige iGPU hinbekommen würde, spricht für AMD in diesem Einsatzfall immer noch, dass die schon jetzt funktionierende HBM-Technik am Start haben. Da müsste Intel mit einer eigenen Lösung erstmal bei Null anfangen.
 
Begu schrieb:
Da bin ich anderer Meinung. Ohne AMD müsste Sony und Microsoft auf CPU mit dedezierter GPU setzen, was diverse Nachteile gegenüber einer APU mitbringt. Von daher haben die sich mit Sicherheit bei Intel und Nvidia auch Angebote eingeholt, aber es war nicht nur der Preis wieso AMD den Zuschlag erhalten hat.
Jein. Eine APU ist deshalb wünschenswert, weil es den Preis drückt. Ein Chip ist günstiger zu produzieren, ein Lizenzgeber für alles. Allerdings hätte Nvidia mit dem Tegra ebenfalls eine Plattform im Angebot gehabt die sich performancemäßig nicht hätte verstecken müssen. Zumindest nicht vor Jaguar Kernen.
Begu schrieb:
Mir erschließt sich nach wie vor der wirtschaftliche Sinn nicht, ein Geschäft mit Milllionen Umsatz lieber an die Konkurrenz abzugeben, als es selbst zu machen.
Umsatz != Gewinn. Die PS3 hat auch Millardenumsätze generiert, dabei aber ordentlich Verlust eingefahren. Ob ein kleines Unternehmen wie Nvidia das Risiko einer Custom Entwicklung in Kauf nimmt um ein minimalen Gewinn abzuschöpfen steht auf einem anderen Blatt. Schließlich werden dafür ja auch Ressourcen gebraucht, die vielleicht an gewinnträchtigeren Projekten besser eingesetzt werden.

Begu schrieb:
Nvidia hatte früher HBM2 "am Start" als AMD, die waren bei HBM früher dran. Ein fehlendes HBM Design kann man also Nvidia nicht vorwerfen. Eher die mangelnde bis nicht vorhandene Erfahrung im APU Design.
AMD hat mit der Fury schon weitaus länger Erfahrung mit HBM. Außerdem ist Vega auf HBM ausgelegt und kann vom Speicher profitieren, die mainstream Pascal-Chips nicht. Und das Intel eine APU auf Titan-Niveau bauen will bezweifel ich einfach mal.

EDIT:
Noch eine Anekdote: Apple wollte für das erste iPhone Intel Atom Chips, aber Intel war die Marge nicht hoch genug...ist also nicht unüblich auch Millardendeals auszuschlagen, wenn die Marge nicht stimmt.
 
Zuletzt bearbeitet:
Herdware schrieb:
Selbst wenn Intel selbst eine ähnlich leistungsfähige iGPU hinbekommen würde, spricht für AMD in diesem Einsatzfall immer noch, dass die schon jetzt funktionierende HBM-Technik am Start haben. Da müsste Intel mit einer eigenen Lösung erstmal bei Null anfangen.

Wird nicht passieren (vergleichbare Fertigung vorausgesetzt). Was HBM, Interconnects, Interfaces und MCMs betrifft ist Intel aber weiter als AMD. Sind nur bis jetzt keine Consumer Produkte.

Stratix 10:
https://www.golem.de/news/stratix-10-intel-liefert-seinen-ersten-fpga-an-kunden-aus-1610-123707.html

KNL:
http://www.tomshardware.com/news/intel-xeon-phi-knights-landing,32121.html

Lake Crest:
https://www.golem.de/news/ai-beschleuniger-intels-spring-crest-erscheint-ende-2018-1707-128801.html
 
Zuletzt bearbeitet:
GrooveXT schrieb:
Noch eine Anekdote: Apple wollte für das erste iPhone Intel Atom Chips, aber Intel war die Marge nicht hoch genug...ist also nicht unüblich auch Millardendeals auszuschlagen, wenn die Marge nicht stimmt.
Dann zeigt es sich aber auch nur das Intel die Zeichen der Zeit nicht erkannt hat, und den Markt für Smartphones nicht entsprechend bewertet hat. Das es ein Milliarden Markt wird war da noch gar nicht abzusehen.
Man sieht es ja das sie es verpennt haben, haben schließlich Unsummen dann in den Markt versenkt ohne groß Fuß zu fassen mit ihren Smartphone/Tablet CPUs...
 
kleine Marge = kleinere Dividende = wütende Investoren/Shareholder = neuer CEO

AMD hatte halt nichts zu verlieren ;)
 
Ja klar, weil der Stuhl von Lisa Su auch so wackelig ist, wie kommt man auf so einen Trip, nach dem fast abgelaufenen Jahr 2017 für AMD?

Umsatz massiv gesteigert, neues Brand am Markt erfolgreich etabliert und man wird wohl mit Gewinn aus dem gesamten Jahr 2017 herausgehen. Dazu hat man den Aktiekurs wohl mehr als verdoppelt!
 
  • Gefällt mir
Reaktionen: Smartcom5 und .fF
Volkimann schrieb:
Dann zeigt es sich aber auch nur das Intel die Zeichen der Zeit nicht erkannt hat, und den Markt für Smartphones nicht entsprechend bewertet hat.
Genau. Allerdings war der Konsolenmarkt damals schon bekannt und wie gesagt verdient AMD so gut wie gar nichts an ihren APUs. Von daher hat NV wohl alles richtig gemacht. Intel sollte hier nur als Beispiel dienen um zu zeigen das es nicht unüblich ist auch mal Millionen-Deals auszuschlagen wenn die Rendite fragwürdig ist.
 
Zurück
Oben