News H-Serie für Notebooks: Mobile Intel-Core-CPUs ab 2018 auch mit GPU von AMD

Volkimann schrieb:
AMD hatte schon entsprechende APUs und nicht nur das Know How. Hier und da minimal angepasst. Stichwort: Jaguar Architektur.

Die Entwicklung von Kabini und den Konsolen SoCs ist sicherlich parallel gelaufen und nicht hintereinander. Die PS4 kam nicht mal 6 Monate später.

Wobei der R&D Aufwand für die Konsolen in jedem Fall wesentlich größer gewesen ist. Dafür reicht schon ein Blick auf die Interfaces. 64 Bit DDR3 zu 256 Bit GDDR5 bzw. 256 Bit DDR3 mit 32MB ESRAM. Ist eine ganz andere Größenordnung und nicht nur eine kleine Anpassung.

Dürfte daher eher so sein das Microsoft und Sony indirekt mehr oder weniger Kabini mit finanziert haben und dieser zur Validierung genutzt wurde. Risikominimierung bevor die großen SoCs in Produktion gingen.
 
Zuletzt bearbeitet:
zeedy schrieb:
Dass Nvidia anders als AMD kein x86 SoC sondern die albernen ARM Kerne in ihrem SoC anbieten konnte, wird gekonnt ignoriert. Der Fakt, dass beide Hersteller sehr ähnliche Hardware eingesetzt haben, zeigt aber deutlich, dass nur AMD die Lösung liefern konnte, die der Preis und Leistungsvorstellung beider Hersteller nah kam.
Na es streitet aber auch keiner ab, dass NV gefragt wurde und warum sollte man sich kein zweites Angebot einholen? Schön blöd wer das nicht macht.
Und bei aller Liebe aber der Cortex A57 hätte sich leistungstechnisch nicht hinter einem Jaguar Kern verstecken müssen. Mag sein das man aus Kompatibilitätsgründen gerne auf x86 gesetzt hat, aber die Leistung war dafür definitiv nicht ausschlaggebend.
Und den Rest bestreite ich auch gar nicht, AMD hat wohl das Beste Angebot abgegeben. Aber das bedeutet auch im Umkehrschluss das Nvidia wohl nicht zu Preis XY produzieren konnte oder wollte. Also bewusst kein besseres Angebot gemacht hat.
 
Wird doch so sein wie schon immer bei den Konsolen:
- nVidia wird gefragt und ist zu teuer
- AMD macht den Deal mit schlechterer Marge als nVidia aktzeptieren würde

Ich hoffe das Intel das ganze nicht absichtlich ruiniert, indem sie Preise auffahren für die man eine "normale" CPU mit stärkerer dedizierter GPU bekommt. Unterm Strich verzichtet der durchschnittsuser dann doch eher auf 30min mehr Akkulaufzeit als auf 30 FPS, wenn das dedizierte Gespann schneller und billiger ist.
 
- AMD macht den Deal mit schlechterer Marge als nVidia aktzeptieren würde

GewinnMarge
2016 | 2015 |2014
27% | 33% | 37%

Ja lieber 33% marge mitnehmen als 0% bei geschätzten 500 Mio Umsatz (Differenz SoC sektor 2015 zu 2016)...selbst 27% sind ja noch OK...
 
GrooveXT schrieb:
Die Entwicklung eines Custom ist ein Risiko. AMD hatte nichts zu verlieren. NV hat das Risiko halt nich getragen. Wäre die PS4 auch so geflopt wie die Xbone hätte das böse ausgehen können für AMD.
Bei solchen Semi-Custom-Design ist es gängige Praxis Mindestabnahmemenge festzulegen. Damit trägt Sony/MS das Risiko, nicht AMD. Der Vorteil von AMD war, dass sie bereits fertige CPU, GPU Designs in der gewünschten Leistungs- und Preisklasse hatten und somit die Kosten und damit das Risiko deutlich überschaubarer gewesen sind als das bei nVidia der Fall gewesen wäre.

GrooveXT schrieb:
Übrigens ist der Tegra ebenfalls eine APU und leistungstechnisch wäre das was in der PS4/Xbone steckt mal ganz locker drin gewesen. Wäre halt nur kein x86 gewesen.
Ach ja? Die damals verfügbaren A57-Kerne liegen bei Desktop-Anwendungen mal gut mehr als 60% hinter Jaguar/Puma-Kernen und selbst mit denen hat man gleich 8C gebraucht.

YforU schrieb:
Die Entwicklung von Kabini und den Konsolen SoCs ist sicherlich parallel gelaufen und nicht hintereinander. Die PS4 kam nicht mal 6 Monate später.
Es gab sicherlich eine Überschneidung, aber der entscheidende Punkt ist der, dass beide auf einem modularen Baukasten aufbauten, der mit der Vorgänger-Generation (Bobcat) zum ersten mal genutzt wurde. Dabei ging es darum, dass man im Prinzip nur die gewünschten Module auswählen musste und die Software einem dann eine fertige APU daraus generierte. Sobald man also die Grundbausteine entwickelt hatte war es einfach verschiedene Varianten daraus zu entwickeln.
 
Zuletzt bearbeitet:
Limit schrieb:
Bei solchen Semi-Custom-Design ist es gängige Praxis Mindestabnahmemenge festzulegen.
Ja das stimmt wohl. Ein Risiko bleibt aber trotzdem beim Hersteller. Chipausbeute, Leistungsprobleme, garantierte Takte und TDP Vorgaben sind schon Sachen die man sicherlich nicht 100% vorhersagen kann. Und was hilft es wenn z.B. das angeschlagene Sony damals solche Zusagen gemacht hätte?! Die waren kurz vor Bankrott, wäre die PS4 nicht gezündet hätte man sich ein Ei auf solche Mindestmengen pellen können.

Limit schrieb:
Ach ja? Die damals verfügbaren A57-Kerne liegen bei Desktop-Anwendungen mal gut mehr als 60% hinter Jaguar/Puma-Kernen und selbst mit denen hat man gleich 8C gebraucht.
Ok dann zeig mal her die Benchmarks.
Laut hier ist der Tegra X1 in vielerlei Hinsicht sogar schneller als ein Athlon 5150 (also ein Jaguar mit 1,6 Ghz), teils hängt der auch den 5350 ab (2,05 GHZ) und kommt sogar an die Leistung eines i3 heran. Und das bei einer TDP von 10 Watt vs 25 Watt für den Athlon (wohl gemerkt hat der Athlon sogar die schlechtere GPU in diesem Vergleich). Ich denke das es wohl kein Problem darstellen würde eine ähnliche Leistung zu erreichen. Auch 8x A57-Cores wären durchaus machbar gewesen genauso wie weitere Optimierung an der Architektur (siehe die Denver Kerne von Nvidia oder die Kryos von Qualcomm).
 
GrooveXT schrieb:
Ok dann zeig mal her die Benchmarks.
Laut hier ist der Tegra X1 in vielerlei Hinsicht sogar schneller als ein Athlon 5150 (also ein Jaguar mit 1,6 Ghz), teils hängt der auch den 5350 ab (2,05 GHZ) und kommt sogar an die Leistung eines i3 heran. Und das bei einer TDP von 10 Watt vs 25 Watt für den Athlon (wohl gemerkt hat der Athlon sogar die schlechtere GPU in diesem Vergleich). Ich denke das es wohl kein Problem darstellen würde eine ähnliche Leistung zu erreichen. Auch 8x A57-Cores wären durchaus machbar gewesen genauso wie weitere Optimierung an der Architektur (siehe die Denver Kerne von Nvidia oder die Kryos von Qualcomm).

8 Kerner Tegra X1 verglichen mit 4 Kern Jaguar CPU...

Nehme den Satz oben zurück. Beim Tegra sind ja auch nie mehr als 4 Kerne aktiv.
 
Zuletzt bearbeitet:
Steini1990 schrieb:
8 Kerner Tegra X1 verglichen mit 4 Kern Jaguar CPU...
...die nicht simultan genutzt werden können, weil der X1 als mobiel SoC kein GTS hat. Dementsprechend wurde nur mit den 4xA57 gebencht. Die Funktion muss explizit implementiert werden.
 
Zuletzt bearbeitet:
GrooveXT schrieb:
Ja das stimmt wohl. Ein Risiko bleibt aber trotzdem beim Hersteller. Chipausbeute, Leistungsprobleme, garantierte Takte und TDP Vorgaben sind schon Sachen die man sicherlich nicht 100% vorhersagen kann.

Natürlich nicht zu 100%, aber da es sich um eine leicht verbesserte Variante einer alte Architektur (Bobcat) handelte und man auch schon Erfahrung mit dem Herstellungsprozess gesammelt hatte (GPUs), waren die Risiken sicherlich überschaubar.

GrooveXT schrieb:
Auch 8x A57-Cores wären durchaus machbar gewesen genauso wie weitere Optimierung an der Architektur (siehe die Denver Kerne von Nvidia oder die Kryos von Qualcomm).
Du meinst wie beim X2? Da gibt es auch einen schönen Test von der gleichen Quelle, nur mit einem etwas breiteren Spektrum an Benchmarks: https://openbenchmarking.org/result/1703204-RI-1703207KH46
Hier werden 2x Denver + 4x A57 gegen 4x Jaguar gebencht. Es gibt zwar ein paar Tests bei denen der X2 vorne liegt, bei vielen anderen liegt er aber auch deutlich zurück (im Schnitt etwa 40% trotz zwei zusätzlicher Kerne).
 
@GrooveXT

Phoronix wird nicht grundlos ganz gern als "Bild der Linuxwelt" tituliert. Das massenhafte Benchmarken dort erfolgt leider ohne jedwede Auswertung / Analyse und nur wegen ein paar besseren Benchmarkbalken lässt sich sehr wenig über die Architekturen aussagen. Wenn sind Aussagen möglich, dass System A in Konfiguartion X einen bestimmten Workload besser bewältigt als System B.

Gerade dort wo beim Tegra X1 die Benchmarkbalken recht groß sind spielt die Speicherbandbreite eine recht große Rolle. Da überrascht es nicht, dass das System mit der deutlich besseren Speicheranbindung dem System mit nur einem DDR3 Speicherkanal davon zieht.
Andersherum gibt genauso Benchmarks, wo Kabini im Vergleich zu Tegra sehr gut dasteht. Ohne Anhaltspunkte zu haben wieso dem so ist.

Ganz abgesehen davon ändert sich das Bild gern auch nochmal, wenn man alles an möglichen Optimierungen anwendet. Also die Compiler direkt auf die spezifische Architektur optimieren lassen und gegebenenfalls bei kritischen Stellen handgeklöppeltes Assembler.
 
Zuletzt bearbeitet:
Atent123 schrieb:
Selbst der A11 Bionic (das Ding ist nur die kleine Ausführung für Smartphones die Tablet Variante kommt noch) ist schneller als das Flagschiff der alten Kabylake Riege und der A11x wird wahrscheinlich auch mit den neuen 4 Kernern gleichziehen.

ehhmmm... nein! spätestens beim video codieren, datein packen etc. wird auch dem dümmsten klar, das sonen smartphone SoC gegen eine desktop CPU nicht anstinken kann.
 
Piktogramm schrieb:
Gerade dort wo beim Tegra X1 die Benchmarkbalken recht groß sind spielt die Speicherbandbreite eine recht große Rolle. Da überrascht es nicht, dass das System mit der deutlich besseren Speicheranbindung dem System mit nur einem DDR3 Speicherkanal davon zieht.
Das stimmt so nicht. "Time to compile" von Apache ist sicherlich alles nur kein Speicher-Bandbreitenfresser. Über FFTE kann man streiten, aber der Tegra X1 im Test arbeitet auch nur SingleChannel (es ist genau die Konstellation aus dem Shield TV). Er hat also höchsten einen minimalen Vorteil was DDR4 über DDR3 angeht.
Aber bitte, kritisieren geht schnell, zeig mir bessere Vergleichbenchmarks. Lasse mich gerne überzeugen.
 
Limit schrieb:
Dabei ging es darum, dass man im Prinzip nur die gewünschten Module auswählen musste und die Software einem dann eine fertige APU daraus generierte.

Nein. Synthesis tools übersetzen die bereits beschriebenen Funktionen des Prozessors in eine Sprache/Form welche die Fab versteht. Je besser die Tools desto weniger manuelle Eingriffe sind in diesem Stadium notwendig. Also beispielsweise von Hand erstellte/optimierte Schaltungsblöcke, Signalwege etc.

Das eigentliche Design (also die Beschreibung der Funktionen) wird dadurch nicht ersetzt. Die eingesetzten IP Blocks müssen also schon entsprechend den Anforderungen skaliert, angepasst und zu einem SoC kombiniert werden.
 
Zuletzt bearbeitet:
Volkimann schrieb:
Jaja die Märchen das nvidia ja nur nicht daran interessiert war an einem Konsolendeal. Das nvidia nicht mal ein passendes Produkt für die Anforderungen hatte wird wieder mal unter den Teppich gekehrt.
Sony und Microsoft wollten alles aus einem Guss haben, Kühlung und Aufbau wurden damit vereinfacht und die Kosten fallen dadurch geringer aus.

Ansonsten sieht man ja das nvidia es trotzdem für nötig hielt bei Nintendo mitzumischen.
Das ist der springende Punkt!
Ja, weil der lächerliche Deal sich als ziemlicher Design-Win herausgestellt hat – und nVidia mit Nintendo wenigsten auch ein Stück vom Konsolen-Kuchen abhaben wollte, wobei die Folgen zumindest für mich von vorn herein absehbar waren. Zum Launch gab es ja Hardware-Bugs en Masse, die praktisch allesamt dem Tegra zuzuschreiben waren, welcher sich einmal mehr nicht an irgendwelche Spezifikationen hielt …

GrooveXT schrieb:
Ähm doch. Meinste Sony, Intel und Co waren nicht bei Nvidia? Die werden sich dort genau so ein Angebot abgeholt haben. AMD war günstiger und NV wollte nicht mitziehen. AMD verdient nur Peanuts an den APUs für die Konsolen, dass ist für die eher eine Prestigesgeschichte und Umkostenträger. Für den Gewinn den AMD damit erwirtschaft fangen die bei NV nicht mal an zu arbeiten. […]

Warte, ich hab‘ da mal was vorbereitet – und lasse das hier einfach mal so stehen … augen15x18.gif
Smartcom5 schrieb:
Simon schrieb:
Genau aus dem Grund werden sowohl Intel, als auch Nvidia froh gewesen sein, dass AMD den Deal bekommen hat. Auf so einen Low-Margin-Deal hatten beide womöglich überhaupt keine Lust.
Ach, die alte Mär, daß man auf den Deal ohne Weiteres hätte verzichten können …
Stimmt, der Stuss war mir tatsächlich entfallen – danke dafür!

Du kannst davon ausgehen, daß der Mitarbeiter, der den Schnitzer damals gebracht hat, als man in der Kaffée-Pause Bullshit-Bingo gespielt hat, die ersten Sekunden danach verstummte Gesichter weil entsetztes Schweigen geerntet hat – bevor die ganze Riege der PR-Abteilung in schallendes Gelächter ausgebrochen ist. Jede Wette ist er dafür »Employee of the Month!« geworden. Dieses dümmlich-schlechte Alibi war dermaßen kackendreist und schwachsinnig, daß es schon wieder gut war – man konnte echt drüber lachen …

Weder Intel noch nVidia hätte ein entsprechend gewünschtes Produkt überhaupt liefern können.
Weder insgesamt noch in jedweder Verbindung mit Attributen wie stromsparend, leistungsstark oder anpassbar – und erst recht nicht in einer Kombination mit dem Terminus technicus »preiswert«. Mag für Freunde von wahlweise Team Blau/Grün durchaus schwer zu ertragen sein, ist aber so. Ob man deswegen „AMD Fanboy!“ schreit und mich verbittert in‘s rote Lager schiebt, ändert an den Gegebenheiten rein gar nichts.

Aber lass mich mal ruhig das Gedanken-Experiment fortspinnen:
Mit was hätte denn Intel – gesetzt den Fall, man hätte gewollt – eine PS⁴/XBox one bestückt? Ein i3 etwa? Dual-core in einer Folge-Konsole, dessen Vorgänger schon ein Drei-Kerner besaß und massivst Rohleistung mitbrachte? Meinst Du, ein i3 wäre an die Leistung des Xenon/Cell rangekommen? Zwei i3? Oder gleich ein i5? Ein Xeon der Sandy-Bridge-Generation? Zu dem Preis? Die Konsole hätte locker $ 1200 USD im Handel kosten müssen, da Intel niemals von ihren utopischen Preisen hätte Abstand genommen.

Und was hätte nVidia in‘s Feld führen können, um AMD auszustechen? Was wäre der Pendant zur R7 370 alias R9 280 alias HD 7870? Eine GTX 660 etwa? Die hat bei vergleichbarer Leistung fast 40 Watt Mehrverbrauch – Hitzeentwicklung außen vor … Oder sollte nVidia alles liefern können? Womit denn? GPU wäre ja machbar gewesen, aber sie haben doch bis heute keine brauchbare CPU. Oder meinst vielleicht die Krücke Tegra? Merkst‘e selber, was?

Man kann davon ausgehen, daß Microsoft wie Sony mit dem Baukasten-Sytem und der Modul-Bauweise von AMD genau ihre Wunsch-SoC zusammenstellen konnten – und damit sehr wahrscheinlich deutlich zufriedener sind, als sie es mit einer Intel/nVidia-Kombination jemals hätten sein können.

AMD ist relativ schnell, aufgrund der Größe notgedrungen flexibel und kann zeitnah gewünschte Produkte liefern. Intel hätte lediglich das abfallen lassen, was man eh gerade auf den Markt schmeißt und der Verein hätte sich eingebildet, sich für eine Konsole nicht krumm machen und Sonderwünsche gewähren zu müssen. Man ist ja schließlich Wer und dieses Konsolen-Zeugs läuft halt nebenher mit … Das selbe Gehaben hätte nVidia an den Tag gelegt und obendrein noch für erfreuliche Überraschungen gesorgt, weil sie es wie so oft nicht für nötig halten, sich an Spezifikationen zu halten.

Simon schrieb:
AMD hatte schlussendlich kaum eine andere Wahl, den Deal einzugehen, sonst hätte es Strafzahlungen wegen Nicht-Erfüllung der vereinbarten Wafer-Mengen bei den Auftragsfertigern gegeben und die Semi-Custom-Sparte wäre de-facto tot gewesen.
Stellt keiner in Abrede. Nur macht das den Fakt nicht unwahrer, daß Keiner sonst diesen Deal hätte eingehen können um Gewünschtes zu liefern.

Abgesehen davon hatte AMD zu diesem Zeitpunkt gerade das Notebook- und Embedded-Segment am anlaufen. Kunden hat es so oder so gegeben, wenngleich nicht in diesem Volumen. Gerade die Custom-APUs fanden und finden sich seitdem sehr viel häufiger in Notebooks. Den Hals gebrochen oder de facto tot wäre der Geschäftsbereich damit ganz sicher nicht gewesen.


In diesem Sinne

Smartcom
 
YforU schrieb:
Nein. Synthesis tools übersetzen die bereits beschriebenen Funktionen des Prozessors in eine Sprache/Form welche die Fab versteht. Je besser die Tools desto weniger manuelle Eingriffe sind in diesem Stadium notwendig. Also beispielsweise von Hand erstellte/optimierte Schaltungsblöcke, Signalwege etc.
Vom Design der eigentlichen IP-Blöcke mal abgesehen ist das der Hauptaufwand beim Chipdesign.

YforU schrieb:
Das eigentliche Design (also die Beschreibung der Funktionen) wird dadurch nicht ersetzt. Die eingesetzten IP Blocks müssen also schon entsprechend den Anforderungen skaliert, angepasst und zu einem SoC kombiniert werden.
Natürlich mussten die einzelnen Blöcke erst einmal entworfen werden. Anpassungen an verschiedene Einsatzbereiche wurden dannach aber in erster Linie durch weglassen oder hinzufügen zusätzlicher Blöcke erreicht und weniger durch Änderungen an den Blöcken selbst. Die einzelnen Kerne sind afaik identisch bei Desktop und Konsolen. Unterschiede gibt es bei Taktfrequenz und Anzahl. Auch das SI ist modular. Die Desktop-Version bekommt ein 64Bit-DDR3-SI Block, die Xbox vier und die PS4 eben 8x 32Bit-GDDR5, wie sie auch schon bei den GPUs genutzt werden. Klar gibt es hier und da ein paar Sachen anzupassen, aber im Vergleich zu früheren monolithischen Designs ist das bei diesem Baukasten-System ein Kinderspiel.

GrooveXT schrieb:
Aber bitte, kritisieren geht schnell, zeig mir bessere Vergleichbenchmarks. Lasse mich gerne überzeugen.
Schau dir mal den Test vom Tegra X2 an, den ich oben verlinkt hat. Was bei den Vergleich der beiden Tests auffällt ist, dass der Athlon 5350 beim zweiten Test deutlich besser abschneidet als noch beim ersten Test. Auf den ersten Blick fallen unterschiedliche Compiler-Versionen (GCC4.9 vs. GCC6.3) und zusätzliche Compilerflags beim zweiten Test auf.
 
Zuletzt bearbeitet:
Smartcom5 schrieb:
Warte, ich hab‘ da mal was vorbereitet – und lasse das hier einfach mal so stehen … Anhang anzeigen 650616
Du hast Recht das AMD schlussendlich den besten Baukasten hatte, der die gewünschte Leistung zum gewünschten Preis bieten konnte. Ansonsten wären die Sachen nicht von AMD gefertigt worden. Stimme ich dir also zu.
Aber von CPUs hast du leider keine Ahnung. Der PowerPC 3-Kern der Xbox360 hat eine Rohleistung auf Atom Z2xxx Niveau. Der Cell ist mehr eine GPU als eine CPU, genau genommen ist die Basis eine SingleCore Power PC auf ähnlichem Niveau wie der CPU der XB360. Darüber hinaus kann er wie eine GPU halt nur sehr spezifische Aufgaben extrem schnell ausführen. Wenn man rein auf die CPU Leistung schaut läuft ein i3 mit seinem DualCore Kreise um das was in PS3 bis XBoxX steckt.
Ein Mulitcore System bietet aber viele andere Vorzüge, weswegen man auf die Leistung verzichtet hat und lieber mehrere langsam Cores implementierte. Was anderes hatte AMD ja auch nicht zu bieten. Singlethreadleistung gabs zu der Zeit bei AMD einfach nicht und wenn nur zum Preis enormen Verbrauchs.
Zufrieden war man damit keinesfalls, ist man auch heute nicht. Schließlich verhindert die magere CPU in vielen Spiele sogar auf der XboxX die 60 FPS (egal in welcher Auflösung). Aber es ist wahrscheinlich das kleinere Übel gewesen.
 
just_fre@kin schrieb:
wobei der Deal für AMD automatisch etwas besser ausfallen dürfte, weil man endlich mal wieder überhaupt nennenswerte Marktanteile im mobilen Sektor gewinnt. .

Der Markt für Highend-Notebooks in der $3000 Klasse ist recht überschaubar - oder anders ausgedrückt: kaum nenneswert. Die Margen sind zweifelsohne sehr hoch - bei eben sehr geringen Stückzahlen.
Ergänzung ()

Matzegr schrieb:
Wenn man von dort die Specs nimmt, also 24CUs bei 1-1,1GHz dann wäre man irgendwo zwischen RX 460 und RX 470 also im Bereich einer GTX 1050 Ti. Was für ne gesamt TDP von 45W großartig wäre.

Auch wenn ich auf solche geleakten Benches nichts gebe und die normalerweise nicht kommentiere: 1050ti-Leistung scheint mir etwas hoch gegriffen.
Meine 1050 ti (Gigabyte OC-Modell) macht P5873 auf meinem uralten Intel Q9400 (Grafik: 9991, Physik:2447, Combined: 2951).
Aber das sagt - wie schon gesagt - nix :D
Ergänzung ()

zeedy schrieb:
Das Märchen, dass Sony und MS eigentlich Nvidia wollten die aber ablehnten weil AMD die Chips fast kostenlos angeboten haben soll, lese ich seit Jahren immer mal wieder in irgendwelchen Foren. Belegen konnten diese Behauptung keiner dieser Forenexerten ;)
.

Das Märchen, dass die unbedingt AMD wollten und bei Nvidia und Intel erst gar nicht nachfragten, liest man auch seit Jahren in irgendwelchen Foren. Belege? Fehlanzeige! :D

Du kannst mit Sicherheit dvaon ausgehen, dass bei Nvidia und Intel nachgefragt wurde, denn weder Sony noch MS sind so blöde, um sich von vornherein allen Verhandlungsspielraum zu nehmen, indem sie alle anderen potentiellen Mitbewerber ausschließen.
 
Zuletzt bearbeitet:
@GrooveXT

Tegra1 im Shield TV hat eine Speicherbandbreite von 25,4GB/s dank DDR43200, zugegeben wirklich als Single Chanel. Damit steht trotzdem die doppelte Speicherbandbreite eines Kabini in AM1 Sockel zur Verfügung.
Beim Apache Compile Test, da ist Speicherbandbreite auch bedeutend. Ebenso wie der Festspeicher, die Zielarchitektur für die kompiliert wird, ...

Genauso kann man bei den OpenSSL Benches dem Nvidia-Sytem vorhalten, dass es eine lahme schnecke ist, oder aber dem AMD Jaguar System dass es vielleicht enorme Vorteile hat, da OpenSSL für X86 allerhand hoch optimierten Assembler bereitstellt.

Insofern bleibe ich dabei. Phoronixbenchmarkbalken lassen keine Aussagen zur Architektur zu. Bestenfalls lassen sie Aussagen zur (teils schlecht dokumentierten) Performance bei bestimmten Benchmarks zu.
 
GrooveXT schrieb:
Und bei aller Liebe aber der Cortex A57 hätte sich leistungstechnisch nicht hinter einem Jaguar Kern verstecken müssen.

Informieren dich mal, wann die Konsolen auf den Markt kamen, wann ARM64 Bit verfügbar und wann NV selbst 64 Bit Tegra eingeführt hat.

Jaguar kam zwar auch nicht wirklich früher, aber war eine Weiterentwicklung, dessen Vorgänger schon x86-64Bit war.

kisser
Genauso das Märchen AMD verschenkt die SoC. Die ersten Gerüchte bezüglich NV gäbe Nintendo sehr gute Preise Greif aber keiner auf. Dabei ist Nintendo dafür bekannt, das zu nehmen, wo sie die niedrigsten Produktionskosten haben. Mehr als Sony und MS.
 
Zuletzt bearbeitet:
Diablokiller999 schrieb:
Kann nicht verstehen, wieso AMD nicht mindestens eine APU mit HBM vorgestellt hat.

Die Frage ist eher "Wer würde es kaufen?"... damit meine ich nicht uns als Konsumenten, sondern große Hersteller.
Wenn intel das bringt, dann haben die alle im Boot, AMD müsste erst noch Überzeugungsarbeit leisten, das kostet Zeit und je länger das dauert desto weniger verdienen die.

AMD kann jetzt mit den kleinen 15W APUs zeigen, was sie können. Intel deckt wohl eher hochpreisigere Segmente mit einer 45W APU ab.

Bei Erfolg könnte AMD das in ~2 Jahren nutzen und bekäme wohl auch einfacherer große Hersteller ins Boot.

intel wird die nächsten 2 - 3 Jahre massiv druck haben.
 
Zurück
Oben