dernettehans
Lt. Commander
- Registriert
- März 2021
- Beiträge
- 1.542
divine = göttlichSerandi schrieb:wofür "divn" stehen sollte weiß ich (noch) nicht
es läuft also alles auf die Singularität hin wie es die Prophezeiung vorhersagte.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
divine = göttlichSerandi schrieb:wofür "divn" stehen sollte weiß ich (noch) nicht
Nvidia braucht sicher keine Hilfe von MediaTek für das physische Design von ARM Cores. Nvidia hat schließlich schon genug Designs selbst produziert, die können den Teil des Chips auf jeden Fall alleine designen.Gullveig schrieb:Doch, brauchen sie weils ein neues Design ist.
A.I., div Für "diversity", und N für "NEVER"Serandi schrieb:Nvidia rückwärts gelesen und die ersten Buchstaben sind AI 🧐 wofür "divn" stehen sollte weiß ich (noch) nicht 🤔
Nvidia hat seit über 20 Jahren eigene SoCs, teilweise sogar erfolgreich (Tegra 2,3) Aber im Großen und Ganzen will keiner deren arm CPUs weil nicht konkurrenzfähig.sikarr schrieb:Genau, sie haben nur die GPUs. AMD und Intel vereinen beides und können auch sparsame SoCs anbieten. Will man was von nvidia haben muss man Kompromisse eingehen. Eine eigene CPU würde die Lücke schliessen.
Naja, über erfolgreich lässt sich streiten. Sie hatten dann später ja sogar gesagt das sie sich stärker auf den Automobilmarkt konzentrieren wollen. Bis auf die Nintendo Switch und die Hauseigenen Shield Lösung war eigentlich sonst kein rankommen.Gullveig schrieb:Nvidia hat seit über 20 Jahren eigene SoCs, teilweise sogar erfolgreich (Tegra 2,3)
also ich benutze offline stable diffusion bild generatoren und llm modelle für porn 😅die online dienste kann man ja dank zensur nicht dafür nutzen. wenn jemand noch andere sinnvolle vorschläge hat bitte gerne melden.sikarr schrieb:Für was brauch ich das? Ich meide mehr oder minder das ganze KI Thema. Zum einen habe ich zu viele Dystropische Scinesfiction gesehen und zu anderen sehe ich den verlust der Fähigkeit Wissen selbst zu erlernen aber das ist ein anderes Thema
Das eine hat mit dem anderen aber nicht so wirklich was gemein. Ja, mit NV als weiteren Player pro ARM wäre potentiell auch eine noch größere Verbreitung von ARM CPUs in diesem Bereich möglich. Aber letztlich hilft das nur sekundär x86 zu beerben. Nämlich an dem Punkt der Verbreitung. Der Rest ist ja jetzt schon komplett losgelöst. Du kannst theoretisch (abseits eben fester Notebook Konfigurationen bspw.) auch eine ARM CPU mit einer AMD oder NV dGPU kombinieren, WENN du das willst. Wir reden da bestenfalls über Treibersupport. Dieser kommt aber von ganz allein wenn es dafür eine Nachfrage gibt. Die Frage ist, ob das Jemand haben will?DevPandi schrieb:Wenn Nvidia mit MS an einm Win on Arm arbeitet, dann würde das auch deutlich eher was werden als aktuell mit Qualcom.
X925 hat NVIDIA noch nie verbaut. Das ist ein deutlich breiteres Design als alles woran NVIDIA gewöhnt ist. Von 4 Befehlen Decoder Breite auf 10 hochzugehen ist jetzt nicht so trivial.stefan92x schrieb:Also gerade dafür wird Nvidia keine Hilfe brauchen. ARM-Kerne verbaut Nvidia ja schließlich schon seit vielen Jahren selbst.
Richtig.. aber diese Technik als Basis einer neuen Shield.. Why not.GOOFY71 schrieb:Nvidia kann alles, denken sie zumindest.
AMD hinkt Nvidia bei GPUs weit hinterher, aber Nvidia AMD bei CPUs noch viel weiter.
noch gehört taiwan nicht zu chinaHito360 schrieb:
Genau die ist halt auf absehbare Zeit die Stärke des x86 Ökosystems. Selbst Apple beist sich daran die Zähne aus. Für Office Kisten reichts natürlich aber die eierlegende Wollmilchsau zumindest fast ist halt x86 Windows durch 40 Jahre Softwareentwicklung.Volker schrieb:Die größte Baustelle wird einfach Software!
Muss eine Hardware die Software supporten!? Das ist doch falsch rum.stefan92x schrieb:Warum sollten sie? Nvidias CPUs unterstützen bislang nur Linux/Android (und ich weiß gar nicht auf was die Switch basiert, aber definitiv auch nicht Windows).
Das lässt sich letztlich aber auch nur spekulieren, da AMDs Probleme seinerzeit teils auch Hausgemacht waren. Der ursprüngliche Plan sah abseits der ATI Geschichte auch ganz anders aus. Und als man ATI kaufte bzw. letztlich dann komplett übernahm, im Bereich ~Ende 2006 war sowohl die letzte ATI GPU Neuerung (R600) wie auch die neuesten AMD CPUs nicht gerade der große Hit.sikarr schrieb:Naja, AMD hat der Kauf von ATi den Arsch gerettet weil sie danach die APUs hatten. Wenn nvidia bei den GPUs vielleicht mal nicht besser als AMD/ATi war hätte es kaum weitere Einahmequellen gegeben.
Wobei das mittlerweile ja nichtmehr wirklich dem Geldgeschehen entspricht. NV verdient sich ne goldene Nase mit KI Kram für die großen Anbieter am Markt, weil das gesamt Paket stimmt.sikarr schrieb:Genau, sie haben nur die GPUs. AMD und Intel vereinen beides und können auch sparsame SoCs anbieten. Will man was von nvidia haben muss man Kompromisse eingehen. Eine eigene CPU würde die Lücke schliessen.
Wofür braucht man das? Frage für einen Freund, der hat keine Ahnung von LLMxarfei schrieb:also ich llm modelle für porn 😅
Das ist inzwischen eine RTX Lederjacke, die reflektiert halt in alle Richtungen 😹😹😹LucLeto schrieb:So spannend die technische Entwicklung ist, aber die Jacke von Herr Huang wird immer schlimmer 🙈