Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSprach- und Bildfunktionen: Nutzer können bald mit ChatGPT sprechen
Ach ich sage das dauert noch min. 50 Jahre. Ja ChatGPT ist ein gutes Modell aber wirklich "KI" ist das nicht. Vor allem kann man mittels Tools ja sofort erkennen ob etwas GTP, Bard und co. ist. Ich bin erst richtig beeindruckt wenn man das nicht mehr feststellen kann.
Klar, wenn du die Ergebnisse mit Copy-Paste irgendwo einfügst dann kann man es erkennen. Wenn du es aber als Tool für deine Arbeit und Hilfestellung betrachtest und in deine Worte fasst, dann ist es schwierig zu erkennen was aus einer KI stimmt und was nicht.
Es ist sehr gestelzt geschrieben, was ja oftmals so gewollt ist...
Im ersten Abschnitt ist ein Fehler drin, der sowohl menschlich als auch maschinell gut möglich wäre, aber ich würde vermuten es ist entweder alles oder alles bis auf den 3. Absatz maschinell erstellt.
Beim dritten Absatz macht mich das nicht erläuterte qmh stutzig. Daher erscheint es mir menschlich
Tatsächlich ist der dritte und vierte Absatz KI erstellt, da ich GPT mit dem Prompt "QMH...." anwies, der Rest wurde mal von einer Person im Jahr ~2001/2002 erstellt und hat sich als Folgefehler (an die unseres) bis vor 2 Jahren bei dem betreffenden Lehrgangsanbieter fortgesetzt.
Die unfassbar Geil GmbH kam natürlich von mir - das ist auch was ich meinte, gerade normierte Texte (Wissenschaft, Normen, Prüfungen etc.) sind gar nicht mehr zu unterscheiden, es reicht wenn ich da nur wenig eingreife und es einmal paraphrasieren lasse. Bei sprachlich komplexer Literatur mag das aktuell noch anders aussehen.
Wenn du es aber als Tool für deine Arbeit und Hilfestellung betrachtest und in deine Worte fasst, dann ist es schwierig zu erkennen was aus einer KI stimmt und was nicht.
Ich nicht aber ich bin auch kein Linguist. Laut ZeroGPT ist es KI:
Ob das nun stimmt? Keine Ahnung. Das größte Problem ist die Analyse-Tools sind in der Regel für englisch ausgelegt und teilweise kommen die mit deutsch (noch) nicht zurecht. Die Plagiatstools der Hochschulen werden aber auch immer besser und da kann ich dir sagen, dass die auch sehr präzise arbeiten da ich im Hochschulumfeld bin.
Ob nun menschlich oder maschinell ist ja egal in meinen Augen , ich hab da kein Auge oder Gefühl dafür sowas unterscheiden zu können da gibt es andere Personen die sind Profis in dieser Art
Aber ob man sowas nun feiern oder hypen muss ich weiss ja nicht , das gibt es immer noch Menschen dahinter die das Programm mit Input , Software und Algorithmen füttern und weiter anpassen natürlich schaut das ab einen gewissen Punkt nach Menschen aus ist für mich dann aber nichts mit ki zu tun sondern gute Arbeit hinter den Programmierern die sowas programmieren
Diese Software mit siri oder Alexa zu kombinieren ist doch einfach der nächst Schritt damit diese besser auf unsere Eingaben reagieren und antworten so überrascht bin ich da nicht zumal ich das vor Monaten ansich schon erwartet hatte
Spiele im Moment ein Text-Adventure über ChatGPT, durch das Einfügen einer Stimme bzw. benutzen der sprachlichen Eingabe, gibt das gleich ganz neue Möglichkeiten.
Auch ein Pen n Paper mit mehreren Leuten, wäre echt angenehm dadurch.
Das größte Problem ist die Analyse-Tools sind in der Regel für englisch ausgelegt und teilweise kommen die mit deutsch (noch) nicht zurecht. Die Plagiatstools der Hochschulen werden aber auch immer besser und da kann ich dir sagen, dass die auch sehr präzise arbeiten da ich im Hochschulumfeld bin.
Es ist ebenfalls unmöglich englische mit GPT-4 verfasste Texte zuverlässig zu erkennen. Ich bin auch "im Hochschulumfeld" tätig und bei einer britischen Hochschule unter Vertrag. Es existiert kein(!) Analysetool, dass hochwertige und eventuell sogar leicht angepasste KI verfasste Texte erkennen kann. Es ist auch kein "Katz und Maus Spiel", da schon aus logischen Erwägungen eine zuverlässige Erkennung von mit hochwertigen Sprachmodellen erstellen Texten unmöglich ist.
Plagiate sind etwas vollkommen anderes und werden auch auf völlig andere Weise erkannt.
Bei unwichtigen Sachen denke ich, könnte es so sein, aber stell dir mal vor es gibt einen Atomstreit.....da willste nicht das die Ki einen nicht mehr zu kontrollierenden "Bock" baut.......
Wenn man nicht macht- und geldgeile Idioten an die Programmierung und "learning" oder Ausführung lässt, sondern logische, vernünftige, gerechte und rationale Menschen... ok, dann sind wir bei Terminator & Co, denn das groß an Menschheit ist eben nicht so wie ich es schrieb 😂
Wenn ihr so vom Terminator überzeugt seid, dann baut doch bitte schonmal vorsorglich die Strahlenwaffen=).
Wenn die bei der Übernahme der Macht durch die Maschinen bereits erhälltlich sein sollten, könnte sich wenigstens jeder wehren........
Spannend wird's, wenn ChatGPT mir auf einem Bild basierend UIs implementieren kann. Ich hasse UI-Programmierung... Wäre ein Grund, mir wieder Plus zu gönnen.
Bei der Spracheingabe bin ich mir noch nicht sicher, ob ich damit etwas anfangen kann.
Wo ich aber hochgradig neugierig bin ist die Verbindung von GPT4V und Dall-e 3. Ob man dann - wie in einem Chat - tatsächlich seine Bilder iterativ genau erstellen kann? Bisher läuft die Bilderstellung in den ganzen Generatoren ja nach dem Motto: Gib der KI ein paar Schlagworte und die macht dann was draus. Vieleicht ist ja was dabei, was dir zusagt und dann variiere dich zu deinem Wunschziel hin - also vieleicht.
.... jaein.
Was Stable Diffusion in Zusammenhang mit ControlNet und Inpainting alles liefern kann ist beeindruckend!
Aber dazu ist halt immer noch extrem viel Wissen zur Bedienung notwendig.
Technisch machbar ist inzwischen fast alles.
Aber das ganze via bequeme und präzise ChatGPT Steuerung zu erledigen wird IMHO noch ein Weilchen dauern.
Zumindest bei der Arbeit merke ich immer noch: "A fool with a tool is still a fool."
Die größter Schwätzer und Nichtskönner sind allesamt die KI-Fanatiker (das Umgekehrte will ich damit nicht sagen!) Weil es endlich ein Tool ist, das ihre Inkompetenz verschleiern kann, wenn man keinen direkten Kontakt zu den Personen hat. Wenn man dann aber im Gespräch ist oder es geht darum wirklich etwas zu leisten, kommt nur noch heiße Luft.
Ist gut und schön, dass du für dein Python Skript den Codeschnipsel von 100 Zeilen hast generieren lassen. Dass die Lösung aber im Kontext der Applikation und verwendeten Architektur ein falscher Ansatz ist, kann die Person nicht einmal mehr argumentieren.
Wie gesagt:
"A fool with a tool is still a fool."
Nur erkennt man sie nun später als zuvor.
@Augen1337 Zum Glück ist das so! Das ist mit ein Grund, weswegen ich mir trotz KI keine Sorgen um meinen Job mache und ganz entspannt KI da einsetzen kann, wo es sinnvoll ist.
Ja. Soll aber nicht heißen, dass ChatGPT oder eines besseren opensource Modelle nicht gut ist. Habe wirklich schöne Antworten teilweise bekommen, bei denen ich mich bisher für ein kleines Problemchen etwas durch eine API hätte kämpfen müssen.
Gerade wenn bei Stackoverflow das Problemchen noch nicht bzw. nur unzureichend behandelt wurde.
Umso geiler fand ich natürlich das Beispiel für GPT4, als man dem Model einfach die API Doku reinpastete und sich sofort die Ausgabe ändert entsprechend der neuen Schnittstelle. Schon richtig gut.
Das habe ich so auch nicht verstanden, bisher habe ich auch äußert positive Erlebnisse damit gehabt. Man muss nur, wie du im Prinzip gesagt hast, wissen, was genau man wie braucht und wie man das den KIs als Anforderung mitgeben kann.
Die Plagiatstools der Hochschulen werden aber auch immer besser und da kann ich dir sagen, dass die auch sehr präzise arbeiten da ich im Hochschulumfeld bin.
Immer mehr Zusammenfassungen, Berichte, Artikel, etc. im Internet werden mit KI optimiert.
Wenn man seine Hausaufgaben / Doctor Arbeit auf Grundlager der frei verfügbaren Artikel erstellt, werden diese Tools vermutlich immer häufiger ausschlagen und behaupten, man hätte es mit GPT erstellt, selbst wenn man niemals GPT für die eigene Arbeit verwendet hat.
Ich habe gerade vier Tests gemacht.
Zwei Texte habe ich von Bing ChatGPT eingefügt und laut ZeroGPT war es mal zu über 70% und mal über 75% "menschlich formuliert".
Zwei Texte habe ich aus meinen privaten und vollständig selbst formulierten Notizen eingefügt.
Ein mal war es fast zu 50% und beim anderen Mal zu 75% menschlich...