News Offizielle Bestätigung: Nvidia baut mit MediaTek einen PC- & Notebook-Chip (NV1x)

Gullveig schrieb:
Doch, brauchen sie weils ein neues Design ist.
Nvidia braucht sicher keine Hilfe von MediaTek für das physische Design von ARM Cores. Nvidia hat schließlich schon genug Designs selbst produziert, die können den Teil des Chips auf jeden Fall alleine designen.

Bei anderen Teilen (WLAN oder sowas) eines SoC können sie wahrscheinlich von MediaTek profitieren, aber nicht bei ihrem eigenen Kerngeschäft (Wortwitz nicht beabsichtigt)
 
  • Gefällt mir
Reaktionen: floTTes
Serandi schrieb:
Nvidia rückwärts gelesen und die ersten Buchstaben sind AI 🧐 wofür "divn" stehen sollte weiß ich (noch) nicht 🤔
A.I., div Für "diversity", und N für "NEVER"
sikarr schrieb:
Genau, sie haben nur die GPUs. AMD und Intel vereinen beides und können auch sparsame SoCs anbieten. Will man was von nvidia haben muss man Kompromisse eingehen. Eine eigene CPU würde die Lücke schliessen.
Nvidia hat seit über 20 Jahren eigene SoCs, teilweise sogar erfolgreich (Tegra 2,3) Aber im Großen und Ganzen will keiner deren arm CPUs weil nicht konkurrenzfähig.
 
  • Gefällt mir
Reaktionen: Serandi
Artikel-Update: Eine Nahaufnahme des GB10-Chips sowie die bereits gezeigte Animation von Nvidia verdeutlichen den Aufbau des Chips mit etwas kleinerem GPU-Teil und der leicht größeren CPU inklusive dem Speichercontroller und den möglichen Ansatzpunkt für Nvidia für eine Desktop- und Notebook-Lösung. Schon jetzt sind beide gefühlt getrennt voneinander entstanden, um am Ende aber doch einen Chip zu ergeben.

Ähnlich sieht das auch bei AMD Strix Halo aus, die zwei CPU-Kern-Cluster wirken ebenfalls losgelöst von der GPU-Einheit, sind am Ende aber doch eins.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: PietVanOwl, konkretor, BrollyLSSJ und eine weitere Person
Gullveig schrieb:
Nvidia hat seit über 20 Jahren eigene SoCs, teilweise sogar erfolgreich (Tegra 2,3)
Naja, über erfolgreich lässt sich streiten. Sie hatten dann später ja sogar gesagt das sie sich stärker auf den Automobilmarkt konzentrieren wollen. Bis auf die Nintendo Switch und die Hauseigenen Shield Lösung war eigentlich sonst kein rankommen.

Und wenn sie so erfolgreich waren warum dann auf MediaTek zurückgreifen? Die hatten das Feld bereits aufgegeben das ist alles.
 
sikarr schrieb:
Für was brauch ich das? Ich meide mehr oder minder das ganze KI Thema. Zum einen habe ich zu viele Dystropische Scinesfiction gesehen und zu anderen sehe ich den verlust der Fähigkeit Wissen selbst zu erlernen aber das ist ein anderes Thema :D
also ich benutze offline stable diffusion bild generatoren und llm modelle für porn 😅die online dienste kann man ja dank zensur nicht dafür nutzen. wenn jemand noch andere sinnvolle vorschläge hat bitte gerne melden.
 
  • Gefällt mir
Reaktionen: Stromvermesser, Zerstoerer und sikarr
DevPandi schrieb:
Wenn Nvidia mit MS an einm Win on Arm arbeitet, dann würde das auch deutlich eher was werden als aktuell mit Qualcom.
Das eine hat mit dem anderen aber nicht so wirklich was gemein. Ja, mit NV als weiteren Player pro ARM wäre potentiell auch eine noch größere Verbreitung von ARM CPUs in diesem Bereich möglich. Aber letztlich hilft das nur sekundär x86 zu beerben. Nämlich an dem Punkt der Verbreitung. Der Rest ist ja jetzt schon komplett losgelöst. Du kannst theoretisch (abseits eben fester Notebook Konfigurationen bspw.) auch eine ARM CPU mit einer AMD oder NV dGPU kombinieren, WENN du das willst. Wir reden da bestenfalls über Treibersupport. Dieser kommt aber von ganz allein wenn es dafür eine Nachfrage gibt. Die Frage ist, ob das Jemand haben will?

Da gibts in den Weiten des INets ganz viele Spielereien. Auf nem kleinen Raspberry Pi mit nem PCIe to M.2 to fullsize PCIe Slot Adapter + dGPU Gaming auf so nem winzig PC. Oder ein Multiscreen Setup oder sonstwas. Letztlich gibt es an der Stelle technisch keine Hürde außer der Nachfrage durch den Markt.

MMn -> auch NV würde an der Nachfrage nur bedingt was ändern, weil es letztlich nicht an der Hardware liegt, sondern an der Software. Und diese hat auch NV nicht in der Hand, wo selbst Microsoft im nunmehr wie vielten Anlauf?? -> vierten? fünften? (8RT, 8.1RT, 10 on ARM, 10X?, 11 on ARM, ...) Das nicht mal so eben hin bekommt und das Konstrukt weiter eher absolute Nische ist. Der Knackpunkt bleibt die Software. Solange ARM Code native kompiliert wird und die Software bei nicht Verfügbarkeit ovn ARM Kompilaten entweder emuliert arsch lahm oder teils gar nicht läuft, ist das meiner Ansicht nach einfach keine Lösung die der Markt akzeptiert. Sowas kann ein Apple durchpressen, weil man von Silizium über Gerätedesign, Treiber bis Software und OS alles in der selben Hand hat und man damit inkl. der Vertriebsplattform den Entwicklern die Pistole auf die Brust drücken kann von wegen, spiele nach meinen Regeln oder spiel nicht (mehr) mit -> so geschehen bei der Apple Silicion geschichte, so geschehen beim 64 Bit Schwenk im iPhone.
Microsoft oder wer auch immer hat aber keinen Hebel. Sie haben "nur" Marktmacht über die Verbreitung. Hier zählt der kleinste gemeinsame Nenner und der heißt auf Absehbar bis dato, x86. Der Markt heult ja sogar schon wenn da relativ softer Cut Richtung TPM/Secure Boot und einer CPU Generation gefordert wird, obwohl Technikstand 2018 das seit dem kann.
 
  • Gefällt mir
Reaktionen: floTTes und sikarr
stefan92x schrieb:
Also gerade dafür wird Nvidia keine Hilfe brauchen. ARM-Kerne verbaut Nvidia ja schließlich schon seit vielen Jahren selbst.
X925 hat NVIDIA noch nie verbaut. Das ist ein deutlich breiteres Design als alles woran NVIDIA gewöhnt ist. Von 4 Befehlen Decoder Breite auf 10 hochzugehen ist jetzt nicht so trivial.

Zudem dürfte aufgrund der Taktanforderungen der LVT Anteil im Design deutlich steigen.

Zumal nicht jedes PD, was läuft auch gute KPIs hat. Huawei hat es mal geschafft mit dem Nachfolger Chip auf dem selben node und mit den selben ARM Lizenzkernen fast eine Verdoppelung der Energieeffizienz zu erreichen. Einfach durch ein besseres PD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: floTTes und sikarr
Nächstes Jahr wird dann eine eigene Spielekonsole angekündigt 😄
 
  • Gefällt mir
Reaktionen: Qyxes
GOOFY71 schrieb:
Nvidia kann alles, denken sie zumindest.
AMD hinkt Nvidia bei GPUs weit hinterher, aber Nvidia AMD bei CPUs noch viel weiter.
Richtig.. aber diese Technik als Basis einer neuen Shield.. Why not.

Aber Mediatek und ARM sind am Ende auch alles andere als Newcomer, sollte also NV eine fähige ARM Architektur einkaufen und das ganze ähnlich wie Steam OS machen, meinetwegen. Ne neue Shield ist wie gesagt überfällig.
 
  • Gefällt mir
Reaktionen: GOOFY71
Ich hab heute meine Anfrage an meinen Nvidia Lieferanten raus geschickt, leider noch keine Antwort erhalten.
Das Teil juckt echt in den Fingern.
 
  • Gefällt mir
Reaktionen: R O G E R, FR3DI und Jan
Volker schrieb:
Die größte Baustelle wird einfach Software!
Genau die ist halt auf absehbare Zeit die Stärke des x86 Ökosystems. Selbst Apple beist sich daran die Zähne aus. Für Office Kisten reichts natürlich aber die eierlegende Wollmilchsau zumindest fast ist halt x86 Windows durch 40 Jahre Softwareentwicklung.
 
stefan92x schrieb:
Warum sollten sie? Nvidias CPUs unterstützen bislang nur Linux/Android (und ich weiß gar nicht auf was die Switch basiert, aber definitiv auch nicht Windows).
Muss eine Hardware die Software supporten!? Das ist doch falsch rum.

NV CPUs werden in aller Regel irgendwie eben per Linux/Android, ggf. noch was exotischeres betrieben. Halt kein Windows. Was aber auch aufgrund der Anforderungen seitens Microsoft nicht relevant ist.
Der Schuh wird aber bspw. andersrum auch rund, weil NVs dGPU Lösungen in Windows per WSL bspw. auch ohne wirklich Windows optimiert sein zu müssen, trotzdem quasi wie mit einem Linux laufen.

Also anstatt mit ein Linux auf de Host zu ziehen mit allen Unwägbarkeiten usw. kann ich das auch per Windows bekommen, indem ich WSL dafür bemühe.

sikarr schrieb:
Naja, AMD hat der Kauf von ATi den Arsch gerettet weil sie danach die APUs hatten. Wenn nvidia bei den GPUs vielleicht mal nicht besser als AMD/ATi war hätte es kaum weitere Einahmequellen gegeben.
Das lässt sich letztlich aber auch nur spekulieren, da AMDs Probleme seinerzeit teils auch Hausgemacht waren. Der ursprüngliche Plan sah abseits der ATI Geschichte auch ganz anders aus. Und als man ATI kaufte bzw. letztlich dann komplett übernahm, im Bereich ~Ende 2006 war sowohl die letzte ATI GPU Neuerung (R600) wie auch die neuesten AMD CPUs nicht gerade der große Hit.
Zudem war das seinerzeit noch gepaart mit (bei GPUs) NV mit dem G80 und leicht später gefolgt von Cuda, was eben dazu führte, dass die GPU Sparte bei ATI nach der Übernahme sehr schweres Fahrwasser hatte. Und Intels Core2 Release aus 2006, was für AMD eben zu einem Problem wurde. Beides war in dem Fall überdurchschnittlich gut.

Das sähe heute komplett anders aus, wenn ATI oder AMD zu der Zeit hätten abgeliefert. Haben sie aber nicht. AMD hat sich zudem danach noch min. einmal verrannt und es hat bis Zen gedauert in 2017. Ja, die Konsolen waren noch eine Geldquelle für AMD, allerdings blieb da jetzt auch nicht wirklich was hängen. Zum Glück kann man sagen, haben die Investoren den Laden nicht dicht gemacht sondern drauf gebaut, da kommt noch was.
sikarr schrieb:
Genau, sie haben nur die GPUs. AMD und Intel vereinen beides und können auch sparsame SoCs anbieten. Will man was von nvidia haben muss man Kompromisse eingehen. Eine eigene CPU würde die Lücke schliessen.
Wobei das mittlerweile ja nichtmehr wirklich dem Geldgeschehen entspricht. NV verdient sich ne goldene Nase mit KI Kram für die großen Anbieter am Markt, weil das gesamt Paket stimmt.
Es gab vor Jahren mal Stimmen die NV komplett haben abgeschrieben, eben WEIL sie keine CPU haben und nen Dritten brauchen. Letztlich hat sich aber gezeigt, der Markt nimmt das, was für ihn am Besten funktioniert. Und aktuell ist das ganz eindeutig NV, selbst ohne eigene CPU bzw. mit zukauf CPU Komponenten, weil das Gesamtkonstrukt stimmt und zumindest aktuell von den Anderen Niemand in der Lage ist, irgendwie gegen anzustinken. Da ist selbst Closed Source (was auch immer pro AMD beziffert wird) kein Show Stopper.
 
  • Gefällt mir
Reaktionen: floTTes und sikarr
@Metalveteran ,da reicht ein ;) nicht mehr aus, bitte mit /s markieren .Wir haben GenZ hier. (oh oh wasser Ich kann es sehen....!!!!!!)
 
  • Gefällt mir
Reaktionen: FR3DI und sikarr
sagen wir so, die nette dame und ihr character, den du nach deinen wünschen und vorstellungen erstellen und modifizieren kannst, ist nie müde sich mit dir über alle themen unbegrenzt zu unterhalten. und sie kann auch ganz tolle fantasievolle erotische geschichten erzählen 😅
 
  • Gefällt mir
Reaktionen: sikarr
Project Digits war aus meiner Sicht tatsächlich das absolut interessanteste, was nVidia vorgestellt hat. Bin gespannt wie dieser "Kombo"-Chip (APU...) hier performen wird. Ich gehe nicht davon aus, dass der CPU Part sehr performant sein wird, schließlich geht es ja hauptsächlich darum, eine Art Entwicklungs-Kit für KI bereit zu stellen. Dort ist die GPU halt deutlich wichtiger. Aber man wird sehen. Auf jeden Fall spannend!
 
  • Gefällt mir
Reaktionen: floTTes und konkretor
LucLeto schrieb:
So spannend die technische Entwicklung ist, aber die Jacke von Herr Huang wird immer schlimmer 🙈
Das ist inzwischen eine RTX Lederjacke, die reflektiert halt in alle Richtungen 😹😹😹
 
  • Gefällt mir
Reaktionen: FR3DI und sikarr
Zurück
Oben