Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsKI-Assistent mit GPT-4 und Dall-E 3: Microsoft Copilot ist als App für Android verfügbar
Microsoft hat über die Weihnachtstage eine App für den KI-Assistenten Copilot veröffentlicht. Bislang ist diese kostenlos für Android verfügbar, eine iOS-Version soll noch folgen. Neowin entdeckten die App, die ohne großes Aufsehen eingeführt wurde, als eine der ersten.
Wirklich interessant sind solche LargeLanguage-Model-KIs doch nur, wenn man sie selbst hosten kann. Nur dann ist sicher gestellt, was keine Eingaben exposed werden (das Problem hat man ja auch schon bei anderen Internet-Diensten). Außerdem ist man dann unabhängig vom Anbieter der da irgendwelche Restriktionen einbaut. Außerdem ermöglicht es ein gewisses Finetuning oder eigene Daten dem Modell hinzuzufügen.
@tomgit
Keine Ahnung was da, los war, hab Windows nicht oft an, die Karre hat sich beim zocken komplett aufgegangen und beim Neustart wurden halt Updates installiert, danach ging VR nichtmehr, ich bin ewig auf Fehlersuche gegangen und musste am Ende den Grafikkartentreiber neu aufsetzen..
VR auf Linux funktioniert, wenn du glück hast, gibt wirklich endlos viele Leute, bei denen es nicht rund läuft, wie bei mir und ich hab halt keinen bock, mehr Zeit mit Fehlersuche als mit zocken zu verbringen..
Hat jemand schon ermittelt, wieviel Microsoft Copilot mittrackt?
Mit dem Bing-App sind es (nur) 4 bekannte Tracker u.a.
Adjus
OpenTelemetry
Microsoft Videosl App Center Analytic
Micoroft Visual Studio App Center Crasher
Die letzten beiden kann man recht einfach blocken.
Bin gespannt, ob mit dem Copilot-App, Microsoft dessen Anwender mehr oder weniger mittracken wird, als mit dem Bing-App auf dem GPT-4 auch verwendbar ist.
Ist doch letztlich auch Wurscht. Entweder so was interessiert nicht. Dann ists letztlich auch egal ob 2 Tracker oder 200. Oder es interessiert, aber dann scheidet ein Webdienst sowieso aus. Denn da muss man ja immer davon ausgegangen werden, das man "beobachtet" wird. Wenn nicht auf dem Gerät, dann anhand der Abfragen an den Server.
Der muss erstmal die Leistung der Source2-Engine mit Vulkan und Linux richten.
Bitte lieber Gabe
CS2 ist langsam.
Ergänzung ()
andy_m4 schrieb:
Wirklich interessant sind solche LargeLanguage-Model-KIs doch nur, wenn man sie selbst hosten kann. Nur dann ist sicher gestellt, was keine Eingaben exposed werden (das Problem hat man ja auch schon bei anderen Internet-Diensten). Außerdem ist man dann unabhängig vom Anbieter der da irgendwelche Restriktionen einbaut. Außerdem ermöglicht es ein gewisses Finetuning oder eigene Daten dem Modell hinzuzufügen.
<ironie> Aber. Aber. Aber Apple hat uns doch beigebracht das Siri und Konsorten nur mit Supercomputern in der Cloud funktionieren.</ironie>
Bis man dann mal das Internet abschaltet und die Spracheingabe der Tastatur perfekt ohne Internet arbeitet. Das Zeug braucht dank spezieller SoCs so gut wie nichts an Leistung.
Am gefährlichsten sind derzeit AI-Prompts. Die Leute laden ihre Kommandos und Dateisystemverzeichnis damit 1:1 zum Anbieter hoch
Und die Anwender wissen meist nicht, dass es seit Jahren Bash-Completion gibt. Die Bash oder Zsh wissen genau welche Optionen es gibt. Und was leichter verständliches als Man-Pages habe ich selten gelesen. Ich feier die Leute, die das in fleißiger Arbeit verständlich und bequem für alle machen.
Ist mit den AI-Tools wahrscheinlich wie mit den Leute die “BMW” mit Google suchen statt “bmw.de” einzutippen. Warum auch einfach, wenn man es viel komplizierter machen kann?
Und Kommandos per AI auszuführen hat naturgemäß eine Schwankungsbreite. Oder mit anderen Wort, es ist hochgefährlich - besonders wenn es zu oft glimpflich funktioniert hat.
PS: Die lokalen Man-Pages sind nicht nur für den lokalen Mensch die beste Eingabe. Es ist auch die beste Eingabe für eine lokales Programm was diese als Eingabefilter verwenden könnte. Also lokale Programm, welche das Marketing der IT gerne als sogenannte AI bewirbt. Ich nenne so Zeug gerne kontextsensitive Autovervollständigung.
Naja, ist jetzt auch kein großer Unterschied zur Bing App, in der man halt noch einmal zusätzlich auf das Copilot Logo drücken musste um die selbe Funktion zu haben wie nun separat in der App. Und weniger Bing Ballast.
Die ersten beiden Kommentare spiegeln so richtig schön die aktuelle Einstellung zu "KI" wieder. Die einen hypen die anderen haten. Gibts da eigentlich irgendwas dazwischen?
Die sind in der Regel nicht laut genug, um wahrgenommen zu werden .
Da sind noch einige Probleme zu lösen. Geht ein LLM online, sind auch die Trainigsdaten im Netz. Nur eine Frage der Zeit, bis jemand einen Weg findet die zu exfiltrieren. Passiert gerade regelmäßig. Die Systeme sind oft auf Effizienz und Bedienbarkeit getrimmt, Sicherheit kommt erst weiter hinten.
Sorry Leute aber ein "Programm" was programmieren kann und welches fleißig mit der Moral des anonymen Internet gefüttert wird ist wie eine Maschine die Maschinen bauen, reparieren und anpassen kann mit quasi unendlich Ressourcen. Das kann nur richtig gut werden.
Ich hoffe das ist Sarkasmus, gerade in Anbetracht, dass OpenAI für journalistische Infos auf den Springer Verlag zurückgreift - wie wir ja wissen, äußerst unabhängiger und qualitativ hochwertiger neutraler Journalismus ;-)