News ChatGPT unter Linux: Gnome 43 hat seine eigene KI-Erweiterung erhalten

Kazuya91 schrieb:
Ich behaupte mal, dass durch die Zahlung nur die Werbung verschwindet. Das Produkt bist du trotzdem.
Kommt immer drauf an was man googelt. Hab mir auch ein paar Videos dazu angesehen und je nachdem was du fragst, liefert es dir auch schlechte/falsche Antworten. Blind darauf verlassen würde ich mich nicht

Das selbe gilt für Google Ergebnisse. Es ist kein neues Problem, aber viele wollen daraus ein neues machen. Wenn ich Google frage, wie viel Waldmeister darf ich verdrücken, bis es Gefährlich wird und das Ergebnis ist irgend eine Wurst auf Gutefrage.net, die irgendein uninformiertes Zeug schreibt.

Das war jetzt ein sehr plakatives Beispiel, aber bei vielen Informationen hast du ein Dunning-Kruger Problem: Das Wissen was du erfragst, ist genau Wissen was du bräuchtest, um die dir gezeigte Antwort bewerten zu können.

Irgendwann gibt es dafür unsicheitsheuristiken, die die KI nicht mehr so selbstsicher klingen/schreiben lassen, wenn nur ein niedriger Wert erreicht wird.
 
  • Gefällt mir
Reaktionen: Nahkampfschaf
Haldi schrieb:
Falls ihr hier tolle erfolgs Stories habt wie euch ChatGPT bei der Arbeit extrem geholfen hat, bitte nur her damit!
Ich benutze es mittlerweile täglich und möchte es nicht mehr missen.
Beispiele,
Im Studium habe ich einige Fächer in denen zwar Altklausuren vorliegen, aber keine, oder nicht/schlecht erklärte Musterlösungen.
Die Ki spuckt mir in wenigen Sekunden eine Musterlösung aus, die ich mit meiner Lösung abgleichen kann.
Auf Wunsch erklärt sie mir Dinge, nennt mir wichtige Details, passende Formeln, erklärt mir Sachverhalte oder erstellt gleich neue Übungsaufgaben.

Aktuell sind noch einige Fehler im Output und für kritische Bereiche würde ich das Ganze (noch) nicht nutzen, aber die Ki kann einem schon heute viele „Zeitfresseraufgaben“ prima abnehmen und direkte Antwortern für spezielle Fragen liefern, für die ich mich ansonsten umständlich durch mehrere Websiten klicken müsste.
 
  • Gefällt mir
Reaktionen: Haldi und 4nanai
netzgestaltung schrieb:
LUA gibts in verschiedenen Spielen, zb Battle for Wesnoth.
das ist mir klar. Ich sprach aber explizit über die Version für WoW. Z.b. hab ich den Code bekommen wie ich abfragen kann ob ich einen Quest bereits erledigt habe oder nicht. Der dürfte sich zu anderen Spielen schon unterscheiden. Auch erklärte mir ChatGPT wie ich den LUA-Code anzuwenden habe (korrektes Verzeichnis wurde genannt, TOC, LUA-Dateien etc.) ... also schon sehr spezifisch auf WoW. Daher die Aussage mit der Nische und dem kleinen Userkreis. Auch kannte ChatGPT das Addon "WeakAuras" und erklärte mir was es macht usw. Wenn man im "Chat" bleibt und keinen neuen Aufmacht, kann muss man auch nicht immer wieder sagen das man WoW-LUA braucht. Das weiß ChatGPT dann schon selber
 
Hab ChatGPT, und auch Midjourney ausprobiert. Mit Midjourney habe ich mir sogar meinen Avatar erstellt (der nun endlich zu meinem nick passt). Das ist teilweise so erschreckend gut, was da abgeliefert wird, den Hype kann ich teilweise schon verstehen. Wenn das noch ausgebaut und nicht irgendwie im Keim erstickt wird, könnte das in Zukunft einige Bereich umkrempeln.
 
flaphoschi schrieb:
KI ist es, wenn es selbstständig agiert und sich dazu entscheiden kann Dinge nach eigenem Willen zu tun.
Ist es dann wirklich noch künstliche Intelligenz oder tatsächliche Intelligenz^^?
 
  • Gefällt mir
Reaktionen: Kuristina und flaphoschi
Haldi schrieb:
Wer möchte schon monatlich 5€ zahlen damit er chatgpt Zugriff hat? Vermutlich nicht viele.
Möglich,
Aber die Leute geben auch für deutlich sinnlosere Dinge Geld aus. Wer gibt schon Geld dafür aus, sich die Lunge mit giftigen Rauch zu zerstören, oder sich verdünntes Nervengift in den Schlund zu schütten, oder Kaffee zu saufen? Oder oder oder...
Da sind 5 € für so einen recht guten Bot schon vernünftig angelegt.
 
Dem Ding ne offene API zu geben war echt clever, umso mehr solcher Projekte entwickelt werden die mit dieser API interagieren, desto häufiger ist ChatGPT komplett ausgelastet, desto besser lassen sich dann natürlich "premium slots" verkaufen.

Aber gerade bei so einem Produkt, mit solchen sensiblen Inputs, kommt für mich nur Zahlungsmodelle wie sie Posteo z.b. anbieten in Frage, also Zahlungsarten die im Grunde genommen zu 100% anonym sind. Das ist aber bei nem Ami Unternehmen eigentlich komplett ausgeschlossen.
 
Benutzer account benötigt Telefonnummer. Nicht mit mir... aber das passt zu Gnome. :p
 
  • Gefällt mir
Reaktionen: KitKat::new() und xvaranx
Haldi schrieb:
Falls ihr hier tolle erfolgs Stories habt wie euch ChatGPT bei der Arbeit extrem geholfen hat, bitte nur her damit!
Ich sag mal so. Produktiv eingesetzt nicht. Dennoch hab ich das Ding mit ein paar Dingen gequält die ich Gegenlesen kann.
Was soll ich sagen, lose Anforderungen an zu wählende VLANs, hardening des Device, STP-Einstellungen wurden aus einem Text, mit der Bitte das in ein Template für einen Cisco 3850 24G zu packen, zu einer Config.
Der Teil war fehlerfrei.

Ein weiteres lustiges Spielchen war die Bitte, mir einen Charakter für DSA, dem Regelwerk entsprechend zu generieren mit X AP und einer Fähigkeit. Der Skilltree war plausibel. Die Bitte, das in ein Importfähiges Skript für Optolith zu wandeln… gelang (allerdings habe ich den Import nicht versucht!)

Kann das Ding nen Switch konfigurieren, wenn man die Anforderung nicht präzise ausformuliert? Denke nicht. In meinem Fall ging es aber VIEL besser als erwartet.
 
  • Gefällt mir
Reaktionen: Haldi
Zur eindeutigen Nutzeridentifizierung, damit sie zumindest hypothetisch prüfen können, ob du zum erlaubten Nutznießerkreis gehörst. Die könnten in Deutschland auch eine Identifizierung über AusweisApp2 verlangen, aber weil sie nicht aus Deutschland sind, reicht ihnen die Telefonnummer.
 
ghecko schrieb:
Nein.
Glaubst du allen ernstes, dieses Petabyte große ML-Modell läuft auf deinem Rechner? Das ist, als würde man versuchen die Bilderkennungssoftware eines Teslas auf einem Intel 4004 zu betreiben.
Vielleicht nicht soooo abwegig.

Bei stable Diffusion soll es gehen. Und das Text zu Bild. Wenn in den nächsten Jahren immer mehr neurale Coprozessoren Einzug halten, sehe ich da keine Probleme.

"Der Code und die Modellgewichte von Stable Diffusion wurden veröffentlicht[5] und können auf den meisten Consumer-Hardware-Systemen ausgeführt werden, die mit einer durchschnittlichen GPU mit mindestens 8 GB Grafikspeicher, ausgestattet sind. Dies stellt eine Abkehr von früheren proprietären Text-zu-Bild-Modellen wie DALL-E und Midjourney dar, die nur über Cloud-Dienste zugänglich waren.[6][7]"



Würdest du auch auf consumer Hardware funktionieren?

Es ist möglich, dass ChatGPT auf consumer Hardware funktioniert, solange die Hardware über ausreichende Rechenleistung und Speicherplatz verfügt. Es ist jedoch wichtig zu beachten, dass ChatGPT ein sehr großes Modell ist und daher möglicherweise erhebliche Anforderungen an die Hardware stellt. Es wäre empfehlenswert, die Anforderungen des Modells zu überprüfen, bevor es auf consumer Hardware ausgeführt wird.
 
Zuletzt bearbeitet:

Ähnliche Themen

Zurück
Oben