Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsChatGPT unter Linux: Gnome 43 hat seine eigene KI-Erweiterung erhalten
Jede Firma, deren Mitarbeiter aus diesem Dienst Vorteile ziehen würde, und es trotzdem nicht kauft wird in ein paar Jahren weg vom Fenster sein.
Jede Firma die das HEUTE ganz schnell begreift wird am Ende überleben.
Die Masse hat selbst 2 Monate nach Release noch keine Ahnung was sich in den nächsten 2 Jahren verändert wird. Viele halten es für ein Spielzeug.
Nein.
Glaubst du allen ernstes, dieses Petabyte große ML-Modell läuft auf deinem Rechner? Das ist, als würde man versuchen die Bilderkennungssoftware eines Teslas auf einem Intel 4004 zu betreiben.
Ich habe es selbst gefragt und das aktuelle Sprachmodell müsste so ca. 1,5Terabyte groß sein. Also nichts was man nicht mit einer 100€ SSD in den Griff bekommt.
Rechenlastig ist im übrigen hauptsächlich das Training. Die Abfrage des Modells ist irrwitzig effizient, wie man auch an anderen Modellen sieht, wo z.B. eine KI so tut als sei sie eine Physik-Engine.
Haldi schrieb:
Die letzten beides male als ich auf openAI chatgpt was fragen wollte kam jedes mal "currently not available"
Hab irgendwie, glaube NYT oder so mal gelesen das die Finanzierung der Tod von Ai sein wird. Kann ich gut verstehen.
Wer möchte schon monatlich 5€ zahlen damit er chatgpt Zugriff hat? Vermutlich nicht viele.
Ich würde tatsächlich 5€ dafür Zahlen. Es hat sich tatsächlich als Mehrwert in meinen Tag eingeschlichen, und viele Dinge die ich vorher gegoogelt habe, Frage ich einfach ChatGPT.
Für eine performante, werbefreie Version würde ich definitiv Geld da lassen. Zumal ich dann der Kunde bin und nicht das Produkt.
Das ist ein heute weitverbreitetes Misverständnis, aber schon zu seinen Lebzeiten wurde Joseph Weizenbaum nicht müde, uns zu erklären, dass Skynet und 2501 usw. "Quatsch" (sic!) oder zumindest nicht KI seien, weil KI eben sowas wie Machine Learning ist und bisher niemand daran arbeitet, irgendwie sowas wie Bewusstsein, Selbstbewusstsein oder so zu kreiren. Andererseits ist der Punkt an 2501 auch, dass da niemand versucht hat, die "living thinking entity" zu erschaffen, da weiß keiner, wie das passiert ist. Aber auch vor ein paar Wochen war wieder eine echte KI oder "A.I." Expertin im Deutschlandfunk die uns Zuhörende darüber aufklärte, dass "A.I." in der Informatik eben sowas wie Machine Learning und selbstlernende Algorithmen bezeichnet, die von künstlichem Selbstbewusstsein so weit entfernt sind, wie ein Plüschteddy von einer Hauskatze (nicht ihr Vergleich, mein Vergleich).
Wir haben hier ein Sprachschisma zwischen Fachwelt und Kulturlandschaft, wo der gleiche Begriff KI/A.I. zwei völlig unterschiedliche Dinge bezeichnet. Aber in der englischen Synchro von Mamoru Oshii's 1995er Ghost in the Shell sagt Projekt 2501 diesbezüglich noch knalldeutlich: "Incorrect, I am not an A.I.! I am a living thinking entity ...", in dem langen Dia- oder Monolog, der Klein-MountWalker von der Philosophie des Geistes begeisterte.
Für mich es eine KI wenn es aus zwei komplett unterschiedlichen Dingen, die noch nie vorher kombiniert wurden, etwas neues kreiert. Alles andere ist Wissen abrufen. Und genau ersteres kann ChatGPT und Version 4 im Sommer wird um dem Faktor 1000 "schlauer".
Spätestens wenn ML Modelle Lösungen für bisher uns Menschen nicht lösbare Probleme finden ist es für mich eine KI - ML Modell hin oder her. Und bis dahin dauert es meiner Meinung nach nicht mal ein Jahr - wenn es nicht schon sogar Lösungen gibt, die für uns nicht erkennbar aus solchen Algorithmen entstanden sind.
Ich finde das letztlich auch nicht so unabwegig, wenn ich überlege was ich suchen musste um mein Midikeyboard in EndeavourOS mit Ardour zu verbinden...
Super, dass die KI alle Fragen besser als Google beantwortet. Nur wo ist die Grenze gesetzt? Wenn man auf eine Frage "wie wird eine Bombe gebaut" eine detaillierte Antwort bekommt, kann es nicht Sinn der Sache sein. Das sehe ich moralisch bedenklich.
Jede Firma, deren Mitarbeiter aus diesem Dienst Vorteile ziehen würde, und es trotzdem nicht kauft wird in ein paar Jahren weg vom Fenster sein.
Jede Firma die das HEUTE ganz schnell begreift wird am Ende überleben.
Die Masse hat selbst 2 Monate nach Release noch keine Ahnung was sich in den nächsten 2 Jahren verändert wird. Viele halten es für ein Spielzeug.
Bin auch gespannt was daraus noch wird. Wenn man überlegt was zum Beispiel Vodafone, nach der Einführung von TOBi (im Vergleich zu GPT wahrscheinlich eher technisch beschränkter "Bot") mit einigen Mitarbeitern gemacht hat.
Ist es auch! Solange das ding nicht 3x3 zusammen rechnen kann sondern nur weiß das 90% der Leute 3x3 als 9 bezeichnen bringt das noch nicht ganz so viel
Es ist zwar auf dem richtigen Weg, hat aber noch gewaltige Stolpersteine bis es mehr als nur "ein kleiner vorteil" bringt. https://writings.stephenwolfram.com...mputational-knowledge-superpowers-to-chatgpt/
Ohne echte Kreativität oder Wertesystem sehe ich diese Systeme "nur" als gutes Informations-Interface.
Und genau da liegst du falsch! Ich rate dir an den Link da oben von Stephen Wolfeam zu lesen.
Das Hauptproblem an ChatGpt I'm Moment ist das er NICHT weiss wenn er falsch liegt.
Gut, könnte man jetzt sagen das weiss Wikipedia auch nicht.... und es wird ja korrigiert mit der Zeit....
Aber was nütz dir eine Hilfe die eine ungewisse Wahrheitsgetreue besitzt?
Das dient höchstens als Ansporn zur ideensammlung. So wie eine Fachperson die neben einem sitzt und fragen beantwortet. Manchmal hilft, manchmal liegt er aber halt auch einfach falsch.
Beim Programmieren wo man das Resultat direkt ausprobieren kann sicher noch nützlich, weil man direkt merkt das es nicht stimmt. Aber für vieles andere zu riskant.
Falls ihr hier tolle erfolgs Stories habt wie euch ChatGPT bei der Arbeit extrem geholfen hat, bitte nur her damit!
Nein, da missverstehst du die heutige Verwendung von KI in der Informatik… was du meinst war der Traum von 1970-1990 … und der ist gescheitert. So eine „KI“ bräuchte einen Körper und müsste durch soziale Interaktionen erzogen werden - am Ende wäre das „nur“ die Rekonstruktion eines Lebewesens… genau das war damals der Irrtum, weil man glaubte Sprache und Denken basiere auf syntaktischer Symbolmanipulation.
Man sollte beachten, dass die meisten Menschen das Vokabular der Alltagspsychologie unreflektiert verwenden, wenn sie z.B. davon sprechen das ChatGPT etwas „versteht“.
Ergänzung ()
Piranha771 schrieb:
Viele Sachen Google ich nicht mehr, weil es präziser und schneller auf das Antwortet, was ich wirklich wissen will.
Da wäre ich aber vorsichtig… das ist keine Suchmaschine, das ist ein Generator. Bei Themen, die überwiegend korrekt und konsistent mit geringer Variation im Ausgangsmaterial waren, wird es wahrscheinlich funktionieren.
In der News steht es… Transformer. Google mal danach, der Wiki-Eintrag liefert einen ersten Überblick.
Da gibt es mittlerweile auch viele gute Fachbücher drüber, wie man das mit Python und PyTorch (im kleineren Maßstab… wegen der Rechenleistung) realisiert.
Warum nicht €5 im Monat zahlen wenn unzählige Netflix und Co nutzen?
Ein ChatGPT Transformer in der Alexa, Siri, Cortane, im Auto und jederzeit kann Wissen und Hilfe abgerufen werden. Inklusive natürlicher Kommunikation und persönliche Sekretärin. (Bald)
Immer wieder habe ich das Gefühl das wir Menschen ähnlich funktionieren, wir verknüpfen auch Informationen und rufen bzw. Schlussfolgerung basierend darauf.
Ich kenne genügend Menschen die überzeugt von ihrern falschen/halbwissen sind. Genau wie ChatGPT.
Warten wir bis das ganze gereift ist, und dedizierte Hardware könnte in jedem privaten Gerät laufen.