Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Offizielle Bestätigung: Nvidia baut mit MediaTek einen Desktop- und Notebook-PC-Chip
Ich sehe keinen Grund Nvidia Chips zu kaufen und 10x keine von Mediathek... bei Spielen sind normale heutige CPUs schnell genug, meist auch schon alte CPUs, also um was soll es gehen Akkulaufzeit? Juckt mich auch selten selbst auf meinem LCDDeck oder Steamdeck das schon paar Jahre aufm Buckel hat, reicht die mir noch.
Meistens ist die GPU nun mal der Flaschenhals, also nein danke... Gibt sicher Cornercases wo sowas gut sein kann, aber keine Anwendung kann man mit ner Nvidia CPU dann machen die man mit ner AMD CPU nicht machen kann, daher gibts nicht wie bei Grafikkarten das Problem das wenn man highend will Nvidia kaufen muss. Es gibt auch kein ohh Upscaling sieht mit der CPU besser aus als mit der anderen ich sehe 0 harte sellingpoints, bliebe noch der Preis, aber so tief wird da Nvidia sicher auch nicht gehen.
Bei Grafikkarten ists halt so das selbst wenn AMD ne mehr oder weniger 1:1 Grafikkarte bringt sie die 20-30% billiger machen müssen damit wirklich ne hohe % Zahl es kaufen würde das Problem wird Nvidia jetzt umgekehrt haben man muss mich stark bestechen um Nvidia zu überleben, bei mir so viel das es nie wert ist aber auch bei normalos...
I guess mit Decoder aber das ist ja wieder ein GPU thema, aber Nvidia könnte auch mal Decoder ein bisschen mal updaten alle 20 Jahre dann wäre das Problem auch gelöst.
I guess als NPU vielleicht... kann man das leveragen, aber dafür müsste erstmal killerfeatures für desktop K.I. mal für Consumer interessanter werden... und wieder ist ne vorhandene Grafikkarte da eh besser...
Meistens ist die GPU nun mal der Flaschenhals, also nein danke... Gibt sicher Cornercases wo sowas gut sein kann, aber keine Anwendung kann man mit ner Nvidia CPU dann machen die man mit ner AMD CPU nicht machen kann, daher gibts nicht wie bei Grafikkarten das Problem das wenn man highend will Nvidia kaufen muss. Es gibt auch kein ohh Upscaling sieht mit der CPU besser aus als mit der anderen ich sehe 0 harte sellingpoints, bliebe noch der Preis, aber so tief wird da Nvidia sicher auch nicht gehen.
Bei Grafikkarten ists halt so das selbst wenn AMD ne mehr oder weniger 1:1 Grafikkarte bringt sie die 20-30% billiger machen müssen damit wirklich ne hohe % Zahl es kaufen würde das Problem wird Nvidia jetzt umgekehrt haben man muss mich stark bestechen um Nvidia zu überleben, bei mir so viel das es nie wert ist aber auch bei normalos...
I guess mit Decoder aber das ist ja wieder ein GPU thema, aber Nvidia könnte auch mal Decoder ein bisschen mal updaten alle 20 Jahre dann wäre das Problem auch gelöst.
I guess als NPU vielleicht... kann man das leveragen, aber dafür müsste erstmal killerfeatures für desktop K.I. mal für Consumer interessanter werden... und wieder ist ne vorhandene Grafikkarte da eh besser...
KlaasKersting
Captain
- Registriert
- Okt. 2015
- Beiträge
- 3.113
@blackiwid
Ich glaube, du verstehst Nvidias Zielsetzung falsch.
Da wird ziemlich sicher einige Jahre keine reine CPU angeboten werden, das wird alles in Richtung APU mit unified Memory gehen.
Nvidias Stärken sind AI, GPU und das Software Stack, darüber werden sie die Produkte verkaufen wollen. Die CPU selbst ist bei den bisherigen Produkten fast schon eher eine reine Notwendigkeit. Braucht man halt, um die GPU und Accelerators mit Daten zu füttern.
Dass sich das langfristig etwas ändert und Nvidia auch dort Know-how und Ressourcen investiert, um vernünftige custom Cores zu entwickeln, kann ich mir gut vorstellen, aber ich schätze, da sind wir noch etwas von entfernt.
Erstmal gibt es weiterhin ARM-Standardkost.
Ich glaube, du verstehst Nvidias Zielsetzung falsch.
Da wird ziemlich sicher einige Jahre keine reine CPU angeboten werden, das wird alles in Richtung APU mit unified Memory gehen.
Nvidias Stärken sind AI, GPU und das Software Stack, darüber werden sie die Produkte verkaufen wollen. Die CPU selbst ist bei den bisherigen Produkten fast schon eher eine reine Notwendigkeit. Braucht man halt, um die GPU und Accelerators mit Daten zu füttern.
Dass sich das langfristig etwas ändert und Nvidia auch dort Know-how und Ressourcen investiert, um vernünftige custom Cores zu entwickeln, kann ich mir gut vorstellen, aber ich schätze, da sind wir noch etwas von entfernt.
Erstmal gibt es weiterhin ARM-Standardkost.
eastcoast_pete
Lt. Commander
- Registriert
- Juni 2020
- Beiträge
- 1.698
Nvidia hat es eben jetzt hochoffiziell gemacht, daß Nvidia und Mediatek an solchen SoCs zusammen gearbeitet haben war schon länger bekannt. Und, die SoCs von den beiden scheinen auch viel Geburtshilfe von ARM selber bekommen zu haben. Teils weil Mediatek jetzt ihr größter TLA Kunde ist, teils weil ARM es gerne Qualcomm zeigen will (böses Blut) , und teils weil Microsoft hier wohl auch mehr als einen Anbieter für SoCs mit "KI" für ihre Windows-on-ARM Kampagne hätte. Der Dimensity 9400 für Smartphones hat ja zB schon jetzt ziemlich starke CPU Leistung, in Kombination mit einer iGPU und NPU plus dem deutlich größeren möglichen thermal Headroom in Subnotebooks und 2-in-1s könnte da schon was draus werden. Würde mich nicht wundern, wenn die "kleinen" Snapdragon SoCs für Notebooks, die QC und OEMs jetzt herausbrachten, nicht auch schon eine vorgezogene Antwort auf die kommenden Mediatek/Nvidia Geräte sind. Gut, Konkurrenz belebt das Geschäft!
- Registriert
- Jan. 2007
- Beiträge
- 2.474
Ich erwarte, dass man in den Markt der Handhelds, Gaming Tablets, Midrange Notebooks und SFF PCs einsteigen wird. Hauptkonkurrent werden Chips wie der Z2 Extrem. Nvidia hat dort nun mal das bessere Feature Set und den besseren Software Stack um gerade in dem Bereich deutlich mehr aus den wenigen verfügbaren Ressourcen raus zu holen. Wie oft habe ich mir beim Steam Deck schon ne NV GPU gewünscht. Gerade in den niedrigen Auflösungen würde DLSS bessere Qualität liefern. Dann noch vernünftige Frame Generation oder gar MFG, könnte in dem Bereich Wunder wirken - von der höheren Effizienz reden wir da noch nicht mal. AMD lässt da in den letzten Jahren einfach unendlich viel Potential liegen.blackiwid schrieb:Ich sehe keinen Grund Nvidia Chips zu kaufen und 10x keine von Mediathek... bei Spielen sind normale heutige CPUs schnell genug, meist auch schon alte CPUs, also um was soll es gehen Akkulaufzeit? Juckt mich auch selten selbst auf meinem LCDDeck oder Steamdeck das schon paar Jahre aufm Buckel hat, reicht die mir noch.
Nine-tailed Fox
Lieutenant
- Registriert
- Sep. 2022
- Beiträge
- 779
Shader schrieb:Ich sehe ehrlich gesagt nicht wie das Ding fliegen wird. Vielleicht sieht sich NVIDIA mittlerweile als so übermächtig an, dass man der Meinung ist eine eigene NVIDIA PC Lösung reicht völlig aus, damit die die Dinger wie warme Semmeln gekauft werden.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Ich bin damit einverstanden, dass YouTube-Embeds geladen werden. Dabei können personenbezogene Daten an YouTube übermittelt werden. Mehr dazu in der Datenschutzerklärung.
foofoobar
Captain
- Registriert
- Dez. 2011
- Beiträge
- 3.579
Treiber als Blobs sind halt nur zweite Wahl.GrooveXT schrieb:Ich erwarte, dass man in den Markt der Handhelds, Gaming Tablets, Midrange Notebooks und SFF PCs einsteigen wird. Hauptkonkurrent werden Chips wie der Z2 Extrem. Nvidia hat dort nun mal das bessere Feature Set und den besseren Software Stack um gerade in dem Bereich deutlich mehr aus den wenigen verfügbaren Ressourcen raus zu holen. Wie oft habe ich mir beim Steam Deck schon ne NV GPU gewünscht. Gerade in den niedrigen Auflösungen würde DLSS bessere Qualität liefern. Dann noch vernünftige Frame Generation oder gar MFG, könnte in dem Bereich Wunder wirken - von der höheren Effizienz reden wir da noch nicht mal. AMD lässt da in den letzten Jahren einfach unendlich viel Potential liegen.
- Registriert
- Jan. 2007
- Beiträge
- 2.474
@foofoobar Naja, hätte Valve einen Custom Chip von Nvidia bekommen, wäre das wohl nicht das Problem. Und unter Windows ist das eh kein Thema.
Theoretisch vielleicht aber wenn man bei der Switch FSR implementiert obwohl älteres DLSS durchaus möglich wäre zeigt mal schön wie die proprietäre Technik künstlich features liegen lassen.GrooveXT schrieb:Nvidia hat dort nun mal das bessere Feature Set und den besseren Software Stack um gerade in dem Bereich deutlich mehr aus den wenigen verfügbaren Ressourcen raus zu holen.
In 500 Betriebssystemen eben proprietär alles selbst entwickeln... skaliert halt nicht richtig, selbst mit Linux gibts da ja öfters Probleme wie lange die rum gemacht haben bis man endlich wayland unterstützen kann z.B. aber klar langfristig und wenn man über den Preis geht mag da sicher auch ein Markt sein für sie.
Allerdings wollen sie ja immer höhere Margen als AMD das will ich dann erst mal sehen, die Preisleistung von AMDs APUs sind ja oft besser als alle Grafikkarten selbst wenn sie das auch bieten wildern sie da bei ihren Grafikkarten... naja besser selbst als die Konkurrenz I guess.
SirSilent
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.628
Nur kann man mit CPUs heutzutage nichts mehr reißen, GPUs machen die Musik (siehe Aktienkurse von nvidia und amd).GOOFY71 schrieb:Nvidia kann alles, denken sie zumindest.
AMD hinkt Nvidia bei GPUs weit hinterher, aber Nvidia AMD bei CPUs noch viel weiter.
Mister AMD
Ensign
- Registriert
- Okt. 2010
- Beiträge
- 201
Das rückwärts gelesene "divn" könnte einige Interpretationen zulassen. Hier sind ein paar Ideen:Serandi schrieb:Nvidia rückwärts gelesen und die ersten Buchstaben sind AI 🧐 wofür "divn" stehen soll, weiß ich (noch) nicht 🤔
1. Division (Abkürzung): Im technischen oder mathematischen Kontext könnte es eine Kurzform für "Division" sein, was thematisch zu Nvidia passen könnte, da sie im Bereich der Rechenleistung und Algorithmen tätig sind.
2. Diversität: Es könnte auf Vielfalt (Diversity) hinweisen, was in Bezug auf Nvidias Produktpalette oder Einsatzgebiete wie KI, Gaming und Data Science passen könnte.
3. Divine (englisch für göttlich): Dies wäre eine kreative Interpretation, die Nvidias Technologie oder KI als etwas Herausragendes oder Übernatürliches beschreiben könnte.
SirSilent
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.628
Ich find den Glammer angemessen für unseren König.jauns91 schrieb:Off topic: ich persönlich fand das Leder-Jäckchen bisschen drüber, zu viel Glitzer. Aber wenn es sich wer leisten kann dann er
Ich finde es gibt viel zu wenig Personenkult um Jensen, er sollte sich bisschen was von Musk abschauen.
- Registriert
- Jan. 2007
- Beiträge
- 2.474
Der X1 in der Switch basiert auf Maxwell...welches DLSS sollte denn darauf laufen? Selbst DLSS 1 setzt ja schon auf Turing (und war mit Tricksersei auf Pascal lauffähig, aber nicht auf Maxwell), mal ganz davon abgesehen das DLSS1 wirklich schlechter war als FSR.blackiwid schrieb:Theoretisch vielleicht aber wenn man bei der Switch FSR implementiert obwohl älteres DLSS durchaus möglich wäre zeigt mal schön wie die proprietäre Technik künstlich features liegen lassen.
Es hätte für ein System und eine Hardware passen müssen, nämlich Steam OS und den NV Custom-Chip. Der Rest wäre vollkommen egal gewesen in diesem Kontext. Auf der Switch funktioniert es ja auch. Man muss ja nicht gleich die ganze Linux Welt beglücken, wenn man ein Gerät auf den Markt bringt. Das soll jetzt nicht heißen, dass ich NVs Vorgehen in diesem Bereich gut heisse, aber für das Steam Deck hätte das am Ende keinen Unterschied gemacht.blackiwid schrieb:In 500 Betriebssystemen eben proprietär alles selbst entwickeln... skaliert halt nicht richtig
Das ist eine wilde Theorie. Ich habe in den letzten 2 Jahren kaum ein AMD Produkt gesehen, dass sich nicht in das P/L-Schema der Konkurrenz einreiht. Es gibt Nischen da ist AMD alleine, aber da wo sie Leistungs-Konkurrenz haben, sind sie schon in sehr ähnlichen Preisbereichen.blackiwid schrieb:Allerdings wollen sie ja immer höhere Margen als AMD das will ich dann erst mal sehen, die Preisleistung von AMDs APUs sind ja oft besser als alle Grafikkarten selbst wenn sie das auch bieten wildern sie da bei ihren Grafikkarten...
Mein Steam Deck hat zum Release 650 Euro gekostet, kann mir nicht vorstellen das es wegen einer NV-APU spürbar teurer gewesen wäre. Und das Steam Deck ist wirklich günstig, andere Anbieter haben damals locker das doppelte aufgerufen. Wir sind hier also keines Wegs in einem Preisempfindlichen Bereich unterwegs, wo 20 Euro mehr oder weniger einen echten Unterschied machen würden.
Und welche APU von AMD hat denn ein bessere P/L als Grafikkarten? Auf Computerbase gab es doch einen Test zum 8700G, der ähnlich teuer wie ein 7500F + RX 6400 ist und längst nicht an deren Spieleleistung heranreicht. Da wird nichts gewildert, auch bei NV nicht. Selbst wenn wir nächstes Jahr eine NV-APU mit der Leistung einer 3060 sehen würden, was ich nicht glaube, würde man damit einer potentiellen 5060 nicht das Wasser abgraben. APUs und dedizierte GPUs haben nun mal unterschiedliche Zielgruppen und alleine wegen dem TDP Budget gibt da kaum Überschneidungen.
Ok sorry hab nicht gecheckt das AMD mit Software mit FSR3 komplett Nvidias DLSS 1.0 mit Spezialhardware vernichtet hat... zeigt auch gut wie man alpha software oder gar alpha Hardware auf Kunden los gelassen hat.GrooveXT schrieb:Der X1 in der Switch basiert auf Maxwell...welches DLSS sollte denn darauf laufen? Selbst DLSS 1 setzt ja schon auf Turing (und war mit Tricksersei auf Pascal lauffähig, aber nicht auf Maxwell), mal ganz davon abgesehen das DLSS1 wirklich schlechter war als FSR.
Nur wenn du bei Ram nicht schaust, eine 7800xt ist z.B. konkurenzlos selbe mit der 7700xt. die schlagen teils mittlerweile in Realworld RT im Low/Midrange oft Nvidia karten im gleichen Preisbereich, weil denen der Ram einfach aus gehtGrooveXT schrieb:Das ist eine wilde Theorie. Ich habe in den letzten 2 Jahren kaum ein AMD Produkt gesehen, dass sich nicht in das P/L-Schema der Konkurrenz einreiht.
Naja ein Customchip wovon der Sok wahrscheinlich nicht mal so viel kostet du must hier eh von Oled reden da kostet dann das Display wahrscheinlich schon fast 50%. auch die 16gb LPDDR5 werden kosten nicht umsonst wird die Switch2 wohl noch weniger haben .GrooveXT schrieb:Mein Steam Deck hat zum Release 650 Euro gekostet,
Aber ja selbst wenn er teuer ist ist es eben ein Customchip und damals nicht komplett 10 Generationen hinter der aktuellen wie bei der Switch die um 5 Euro irgendwo zu sparen den aller ältesten Chip den sie finden konnten verbaut haben.
Ich rede nicht von vor anodazumal, ich rede von nun regulären chipreihen mit neuem deutlich schnellerem Speicher der verlötet wird.GrooveXT schrieb:kann mir nicht vorstellen das es wegen einer NV-APU spürbar teurer gewesen wäre. Und das Steam Deck ist wirklich günstig, andere Anbieter haben damals locker das doppelte aufgerufen.
Ist das nicht noch Zen4? Mit was für Speicher Schrottspeicher noch gesockelt? Du gehst von hohen Preisen bei Socs aus ich nicht wenn du nicht mit gebrauchten Grafikkarten argumentierst aus dem Midrange, sind die Preis/Euro kosten teils auch hoch, vorallem wenn noch teure Geäuse Netzteile und kühler usw alles mit ein berechnest von doppelter Hardware Handheld + PC ganz ab gesehen.GrooveXT schrieb:Und welche APU von AMD hat denn ein bessere P/L als Grafikkarten? Auf Computerbase gab es doch einen Test zum 8700G
Und in welcher Welt soll eine 4gb RX 6400 vergleichbar sein mit einer APU die gemeinsam auf 16gb oder mehr schnellem Ram zugreifen kann? Ich interessiere mich was 2025 raus kommt und da gottseidank rx 9070 doch gut aus sieht kann sich da mal was bewegen, im Preisgefüge... aber ja rechne halt immer 2 Geräte oder 1 und da wirds teils schwer noch ein PC zu rechtfertigen bei den GPU Preisen.
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.634
Schau Dir Apple an, das ist ne ARM CPU die ihres gleichen sucht. Ich halte es zwar für unwahrscheinlich aber nvidia könnte es Apple gleichtun. Und es geht nicht darum ob die CPU etwas kann was die andere nicht kann (Anwendungstechnisch) es geht bei den CPUs um Leistung, Effizienz und Energieverbrauch. Man kauft seit jeher neue CPUs weil sie schneller sind als Ihre Vorgänger oder Effizienter. In der Welt die du beschreibst würde es keinen neuen CPUs geben weil die alten ja locker reichen, für alles.blackiwid schrieb:Meistens ist die GPU nun mal der Flaschenhals, also nein danke... Gibt sicher Cornercases wo sowas gut sein kann, aber keine Anwendung kann man mit ner Nvidia CPU dann machen die man mit ner AMD CPU nicht machen kann, daher gibts nicht wie bei Grafikkarten das Problem das wenn man highend will Nvidia kaufen muss. Es gibt auch kein ohh Upscaling sieht mit der CPU besser aus als mit der anderen ich sehe 0 harte sellingpoints, bliebe noch der Preis, aber so tief wird da Nvidia sicher auch nicht gehen.
Das liegt ja wohl eher bei M$ wenn man einem Exklusivdeal mit Qualcomm zustimmt. Ich hätte es von Anfang an offen gemacht um möglichst viel Konkurrenz anzuziehen. Die ganzen ARM Lizenznehmer haben sich bestimmt schon die Finger geleckt um mitspielen zu dürfen.eastcoast_pete schrieb:und teils weil Microsoft hier wohl auch mehr als einen Anbieter für SoCs mit "KI" für ihre Windows-on-ARM Kampagne hätte.
Dein Vergleich hinkt, die langen Entwicklungszyklen sind meist dem Opensourcekonzept geschuldet wenn die Community es entwickelt. Wenn ein kommerzieller Aspekt dahintersteht geht auch die Entwicklung schneller. Es macht schon einen Unterschied wenn man Vollzeit Entwickler mit einem klaren Ziel an ein Projekt setzt oder mehrere Teil- und Freizeitentwickler, am besten noch über den Globus verteilt an einer Vision arbeiten lässt wo man sich jeden Schritt bestätigen lassen muss.blackiwid schrieb:In 500 Betriebssystemen eben proprietär alles selbst entwickeln... skaliert halt nicht richtig, selbst mit Linux gibts da ja öfters Probleme wie lange die rum gemacht haben bis man endlich wayland unterstützen kann z.B. aber klar langfristig und wenn man über den Preis geht mag da sicher auch ein Markt sein für sie.
Die Community besteht bei Linux aber im Kern auch aus genau dafür bezahlten Vollzeitentwicklern. Mit Freizeitprojekt hat das alles nichts mehr zu tun.sikarr schrieb:Dein Vergleich hinkt, die langen Entwicklungszyklen sind meist dem Opensourcekonzept geschuldet wenn die Community es entwickelt. Wenn ein kommerzieller Aspekt dahintersteht geht auch die Entwicklung schneller.
Das Nvidia-Wayland Drama ist dementsprechend auch nicht in einem Mangel an Zeit oder Ressourcen begründet, sondern darin, dass Nvidia auf eine andere API gesetzt hat als alle anderen und man diesen Zahn Nvidia erstmal ziehen musste. Da versucht halt auch jede interessierte Partei ihren Favoriten durchzudrücken, gerade aus kommerziellen Gründen (je näher Nvidia ihren Linux-Treiber am Windows-Treiber halten kann, umso günstiger. Entsprechend haben sie immer wieder versucht,´Konzepte aus ihrem Windows-Treiber in die Linux-Welt zu drücken).
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.634
Dein Ernst, du vergleichst DLSS1 was 2018 erschienen ist mit FSR3 von Ende2023 eher 2024 Welch Wunder das eine aktuellere Lösung eine ältere schlagen kann. Aber wie sah es mit DLSS 1und FSR 1 im direkten Vergleich aus?blackiwid schrieb:Ok sorry hab nicht gecheckt das AMD mit Software mit FSR3 komplett Nvidias DLSS 1.0 mit Spezialhardware vernichtet hat...
Wo zeigt es das, beide Technologien funktionieren und haben hier und da auch Grenzen. FSR hat genauso Probleme wie DLSS.blackiwid schrieb:zeigt auch gut wie man alpha software oder gar alpha Hardware auf Kunden los gelassen hat.
Beispiele?blackiwid schrieb:Nur wenn du bei Ram nicht schaust, eine 7800xt ist z.B. konkurenzlos selbe mit der 7700xt. die schlagen teils mittlerweile in Realworld RT im Low/Midrange oft Nvidia karten im gleichen Preisbereich, weil denen der Ram einfach aus geht
Das war aber eher Nintendos Entscheidung was sie Verbauen, sollte man also Nintendo und nicht Nvidia in die Schuhe schieben.blackiwid schrieb:Aber ja selbst wenn er teuer ist ist es eben ein Customchip und damals nicht komplett 10 Generationen hinter der aktuellen wie bei der Switch die um 5 Euro irgendwo zu sparen den aller ältesten Chip den sie finden konnten verbaut haben.
Ja der Kern, wenn es aber um die Implementierung von neuen Features oder Funktionen geht ist die Entwicklung eher träge. Das ist nicht abwertend gemeint sondern nur eine Feststellung. Schau dir doch an wie lange an WINE entwickelt wird und wie klein die Schritte waren die man gemacht hat. Kaum kommt ein Unternehmen und steckt Geld hinein hat man etwas wie Proton, das war einfach nur Geld.stefan92x schrieb:Die Community besteht bei Linux aber im Kern auch aus genau dafür bezahlten Vollzeitentwicklern. Mit Freizeitprojekt hat das alles nichts mehr zu tun.
Klar, warum nicht, aber wenn man auf alles und jeden Rücksicht nehmen will oder muss verzögert es halt ja nur.stefan92x schrieb:Da versucht halt auch jede interessierte Partei ihren Favoriten durchzudrücken
Da hast du natürlich recht. Aber angesprochen wurde ja nicht Wine, sondern Wayland. Und da war einfach "nur" Nvidia auf Konfrontationskurs zum Rest der Firmen, die Wayland vorantreiben wollten. An Ressourcen wie früher bei Wine hat es in dem Fall eher nicht gemangelt.sikarr schrieb:Schau dir doch an wie lange an WINE entwickelt wird und wie klein die Schritte waren die man gemacht hat. Kaum kommt ein Unternehmen und steckt Geld hinein hat man etwas wie Proton, das war einfach nur Geld.