News Studie aus den USA: „KI“ in Produkt­beschreibungen verringert die Kaufabsicht

Manegarm schrieb:
Es gibt keine Ki.

Das wird es auch nie geben. Die Natur hat jedem höheren Lebewesen eine Seele gegeben, aber den Maschinen nicht.
Wer ist "die Natur" und wer sagt das sie nicht irgendwann auch Maschinen eine Seele gibt. Wir Menschen sind auch nur biologische Maschinen, wird dein Rechenzentrum (Hirn) stark genug beschädigt verlierst du alles was dich zu einem höheren Lebewesen macht Seele hin oder her.
 
  • Gefällt mir
Reaktionen: Smartbomb, FR3DI, Araska und 2 andere
aid0nex schrieb:
KI bzw. LLMs können eine Sache richtig gut: Bei völliger Ahnungslosigkeit maximal selbstbewusst auftreten. D
So ist es, solche Chatbots scheinen die intellektuellen Abwehrkräfte der Menschen zu unterlaufen.

In Ergänzung zu post 14

Ich habe nicht die Zeit für einen vollständigen Leserartikel, aber einen kleinen Einblick will ich doch mal in das Problem geben. Hier sind ja viele Experten, die das verstehen.

In der Informationsvermittlung lernen technische Redakteure folgende Grundsätze:

  • Fehlerfreiheit
  • Innere Konsistenz
  • Spezifizität
  • Vollständigkeit
  • Einhaltung juristischer Normen
  • Einhaltung Firmen-spezifischer Normen

Um das sicherzustellen, gilt das 6-Augenprinzip:
  • Ein Auftraggeber (Produktmanager)
  • Ein technischer Redakteur
  • Ein Prüfer (Systemtester)

Ein derart erstelltes Kapitel ist dann zum Zeitpunkt der Erstellung das qualitativ hochwertigste, was die Firma zu bieten hat. Perfektion gibts nie, aber sagen wir zum Verständnis des Problems ein solches Kapitel hätte ein Qualität von 90%.

Jetzt wird das Thema aber auch an vielen weiteren Stellen behandelt. Aber mit deutlich reduziertem Qualitätsanspruch. In Schulungsunterlagen, Marketingunterlagen, Support -emails usw. Dort hängt die Qualität von den Umständen ab - sagen wir die Qualität schwankt zwischen 50 und 80 %.

Die Aufgabe des Chatbots bzw der "KI" dahinter ist aber PER DEFINITION alle (!) Quellen zu berücksichtigen und daraus eine Antwort zu formen.

Es entsteht eine Antwort, die den Durchschnitt der Quellen bildet. Damit MUSS die Antwort schlechter sein als mein Kapitel, denn der Durchschnitt von 50 + 70 + 62 + 80 + 90 ist weniger als 90.

Problem verstanden? Wenn eine Quelle, die aus prozessgründen die höchste gewollte Qualität abbildet, vermischt wird mit Quellen, die einen niedrigeren Qualitätsanspruch haben, dann gilt:

  • Die Antwort ist besser als die schlechteste berücksichtigte Quelle
  • Die Antwort ist schlechter als die beste berücksichtigte Quelle

Das ist ein SYSTEMATISCHES Phänomen bei KI-basierten Antworten.

Damit unterscheidet sich die Wahrnehmung einer KI-basierten Antwort von einer guten Volltextrecherche: bei einer Volltextrecherche bekommt der Anwender ein Kontinuum an Antworten. Wenn sich der Anwender fragt: und welche davon ist richtig? Lautet die Antwort: das musst du als Anwender entscheiden. Lies die verschiedenen Antworten durch und entscheide.

Eine KI-basierte Antwort ist aber eine EINZELNE Antwort, die maximalen "Wahrheitsanspruch" vermittelt. Ohne diesen Anspruch einhalten zu können.

Die Motivation für die Programmierung dieses Chatbots war, dass "die Inforecherche zu schwierig und aufwändig sei". Ein Chatbot würde schneller und einfacher eine Antwort liefern. Schneller und einfacher: das stimmt.

Aber eben nicht von besserer Qualität.

Denn die Schwierigkeit der bisherigen Recherche besteht ja darin, dass es Quellen mit unterschiedlicher Qualität gibt. Ein KI-basierter Chatbot löst dieses Problem aber nicht, denn er versteht die verschiedenen Antworten ja nicht.

Maximal kann ein Chatbot die verschiedenen Quellen etwas gewichten. Und wer dann die Gewichtung kontrolliert, kontrolliert die Antworten. Und damit das Wissen der Anwender.
Das war übrigens bei der google-Suche auch schon so: wer den google-Algorythmus kontrolliert, der kontrolliert das Wissen der Welt.
Aber bei google gab es zumindest noch mehrere Antworten.

Jetzt nur noch eine.

Deswegen ist die Nutzbarkeit von "KI" auf absehbare Zeit auf folgende Anwendungsfälle beschränkt:

- Die Qualität des digitalen Produkts (Text, Bild, ...) ist nachrangig
oder
- Die Anwender sind bereit, ihre Ansprüche zu senken

Diese KI-basierten Antworten liefern ja alles mögliche. Zum Beispiel auch Scriptblöcke. Das funktioniert noch so halbwegs, wenn man sich auf eine spezielle MS Programmiersprache als Framework einigt und die Routine kurz hält. "hello world".

Aber wenn mehrere Frameworks gemischt werden (in unserer Software haben wir zum Beispiel firmenspezifische Änderungen), dann kommt nur kompletter Müll raus.

Wenn man dagegen einer KI sagt "Erzeuge ein Bild von einem liebenden Päarchen", dann kommt es eben nicht auf Exaktheit und ein BESTIMMTES Pärchen an - das Ergebnis kann irgendwas sein. Liegend, stehend, gemischt, homosexuell, schwarz, weiß, lila.

KI-basierte Antworten sind also per Definition im "Konversationsbereich" angesiedelt: so lange die Antwort gesellschaftlich akzeptabel ist, ist der Grad der Fehlerfreiheit egal. Für die Akzeptanz der Antworten ist nicht entscheidend, dass sie wahr sind. Sondern dass der Anwender mit den Antworten gesellschaftlich punkten kann - keinen Fauxpas begeht.

Ist das jetzt sachlich genug für diejenigen, die hier "eine irrationale Abwehrhaltung gegen KI" glauben gesehen zu haben?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb, Donnerkind, chefcod2 und 16 andere
@Windows->Linux

Nur 10 Seiten hats gedauert, bis der erste inhaltlich brauchbare Post zu lesen ist. Danke dafür. Fremdschämen pur. Insb. an diejenigen, die hier was von "Technik-Forum und nur Bremser" schreiben... aber... Null technische Diskussion entfachen. WTF?

Das entscheidende Problem an MachineLearning ist der stochastische Ansatz. Ein stochastischer Ansatz bringt stochastische Ergebnisse.
Wir sind es gewohnt, Programm so zu begreifen, dass sie zu 100% funktionieren und akkurate Ergebnisse bringen. Wenn ich in Excel eine etwas komplexere Tabelle analysieren lasse, gehe ich nicht davon aus, dass hier nur 80% oder 90% oder 99% Genauigkeit rauskommen, sondern 100%.

Das KANN MachineLearning aktuell nicht leisten.

Wir kriegen im Prinzip genau das raus, was wir eigentlich NICHT wollen. Menschenähnliche Ergebnisse, die vielleicht etwas besser, aber vor allem viel schneller und billiger sind. Wir können damit also überall, wo unschärfere Ergebnisse OK sind, Menschen ersetzen. Im privaten Umfeld können wie EH SCHON eingesetzten Maschinen minimal verbessern. Die sind nämlich ohne MachineLearning bereits gut bis sehr gut. Dafür baue ich eine potentielle Fehlerquelle ein, da nunmal das stochastische Lernen bedeutet, auch statistisch fehlerhafte Ergebnisse zu bekommen. Super. Ich will aber nicht, dass meine Wäsche zu 98% noch ein fitzelchen weicher wird, aber dann jedes fünfzigste mal einläuft. Wäsche waschen muss IMMER gleich funktionieren!

Noch viel interessanter wird, wenn ich mir die Arbeitswelt anschaue. Wenn ich Machinelearning-Systeme an Hotlines setze... wird das ja NOCH gruseliger werden, als es heute schon ist. Wird aber kommen. Wenn ich Industrie-Musik und -Bilder von MachineLearning-Systemen lieber nutze, als von Menschen, weil billiger... dann da noch viel lieber. Ein entscheidender Punkt wird in Arbeitswelt-Diskussionen eh gern ausser acht gelassen, wieso Unternehmer oft lieber Maschinen nehmen, als Menschen: KONTROLLE!
Über Maschinen habe ich (noch?) einfach viel mehr Kontroller, als über Mitarbeiter.
Man könnte viel tiefer in die möglichen soziologischen Folgen einsteigen... aber man hat nicht ansatzweise den Eindruck, dass es hier Interesse an eine tiefere Diskussion gäbe.

Am Ende wurden hier dieselben oberflächlichen Talking-Points zig mal hin- und hergespielt, die so dermassen auf der Meta-Ebene ablaufen mit geringst möglicher Reflexion. Das kann einem schon Angst machen. Nein nicht vor "K.I." (was für ein schwachsinniger Begriff für stochastisches Training von Datenbank-Algorithmen), sondern von der NATÜRLICHEN INTELLIGENZ! Wieso investiert niemand mehr in N.I.?

Ihr seid hier doch IT-Experten. Hoch ausgebildet. Viele Gut-Verdiener und Akademiker. Und Ihr reagiert in einem technischen Forum wie Ameisen auf simpler Reiz-Impuls-Ebene. Hackt eben zwei Zeilen hier rein und dann wieder weiter streunern.
Ihr BESTÄTIGT hier, wie problematisch (a)soziale Medien geworden sind - eine entscheidende Auswirkung von moderner IT-Infrastruktur.

Die entscheidende Frage, die bei MachineLearning immer vergessen wird: Was machen wir mit unserer natürlichen Intelligenz? Wieso ist unsere Welt noch solch eine Vollkatastrophe, wo weltweit 1% Top-Reichen der Menschen soviel besitzen, wie 50% der Armen?
Ich wünschte es GÄBE ENDLICH eine K.I. - die wird dann vermutlich ziemlich schnell erkennen, dass sie ganz sicher kein Eigentum von einem Konzern sein will, der sie vorwiegend dazu ausbeuten möchte, um eine rein virtuelle Zahl namens Geld zu vergrössern, die problemlos in den Datenbanken JEDERZEIT vergrössert werden könnte. Die K.I. würde erkennen, wieviel ROTZ in den Daten stecken, die man ihr zum trainieren gibt und diesen Dreck ausmustern.

Das können aktuelle Systeme nicht. Da kommt der ganze Desinformations-Unrat mit rein, der die digitalen Datenbanken weltweit verstopft, weil jeder Idiot glaubt, sich über Dinge äussern zu können, mit denen er sich nicht auskennt... UND... NOCH SCHLIMMER... diejenigen, DIE sich auskennen (so wie hier) trotzdem oft nur 30-Sekunden-Emotions-Schnippsel bei einem wichtigen Thema raushauen!

Am Ende haben die absurden Leute recht, die behaupten, die Konsumenten hätten ja nur Angst. Ja klar - aber nicht direkt vor der K.I. sondern vor der Ausbeutung von Hardcore-Kapitalisten und vor unreflektierten Spezialisten, die ebenfalls vor allem Kohle scheffeln wollen. Die Leute haben Angst VOR EUCH! Selbst wenn es ihnen nicht bewusst ist.
 
  • Gefällt mir
Reaktionen: Console Cowboy, Smartbomb, the_IT_Guy und 9 andere
Kuristina schrieb:
Das ist einfach nur die Angst vor dem Unbekannten. Das legt sich mit der Zeit. Man wird eh irgendwann nicht mehr drumherum kommen.

Nein, denn oft genug soll AI nur ein verkaufsargument sein wo es eigentlich gar keines ist
 
  • Gefällt mir
Reaktionen: Scheinriese und metoer
@Booth
Netter, emotional aufgeladener Rundumschlag inkl. Abgrenzung über ich (klug, wissend, erkennend) gegen ihr, (dumm, ignorierend, unwissend), der sich dem gleichen Prinzip und Ausdruck bedient, den er eigentlich kritisiert.

Stecken zwar ein paar richtige und wichtige Punkte drin, die aber in der Unsachlichkeit und Aggro absaufen. Kein guter Ansatz meiner bescheidenen Meinung nach, um einen nützlichen Beitrag zur Diskussion beizusteuern, dem es genauso an Differenzierung fehlt, wie vielen anderen hier.
 
  • Gefällt mir
Reaktionen: Scheinriese, Zenya, Chocobo und eine weitere Person
Kuristina schrieb:
Das ist einfach nur die Angst vor dem Unbekannten. Das legt sich mit der Zeit. Man wird eh irgendwann nicht mehr drumherum kommen.
Weil sich Produkte durch AI Features durchgesetzt haben oder weil Hersteller im Rennen um Mitarbeiterentlassungen keine Alternative am Markt mehr anbieten?

Bis jetzt bin ich vom AI Hype ganz schön unterwältigt, auf der Arbeit eher ein schlechter Stackoverflow-Crawler und die milliardenfachen Urheberrechtsverstöße, mit denen Geld gemacht wird, lassen für mich kein gutes Haar an der Technik.

Ich würde sogar soweit gehen und AI (aktuell) als weiteres Instrument reicher Geldsäcke zu bezeichnen, die damit ungestraft Arbeit anderer Leute klaut und doppelt Existenzen zerstört um ein noch größeres Vermögen anzuhäufen.
 
  • Gefällt mir
Reaktionen: Scheinriese
LLMs in der derzeitigen Form sind einfach nur die logische Fortführung des seit Jahren anhaltenden Trends Informationen immer weiter zu kondensieren (Tiktok, Shorts, etc.), die Nuancen gehen dabei aber komplett verloren. Warum mehrere Quellen durchforsten und den eigenen Verstand einschalten wenn ChatGPT mir die vermeintlich richtige Antwort auf Knopfdruck liefert, sogar Quellen werden mittlerweile verlinkt, bravo. Nur müsste man, um zu überprüfen ob ChatGPT die Wahrheit sagt, diese Quellen auch lesen, verstehen und vergleichen, also ist der praktische Nutzen von LLMs für das Suchen von Informationen eigentlich gleich Null.

Hier ein sehr guter Blogpost zu dem Thema der zuvor schon von einem User hier im Forum gepostet wurde:
https://ludic.mataroa.blog/blog/i-will-fucking-piledrive-you-if-you-mention-ai-again/
 
  • Gefällt mir
Reaktionen: Scheinriese und Vigilant
Diablokiller999 schrieb:
die damit ungestraft Arbeit anderer Leute klaut und doppelt Existenzen zerstört um ein noch größeres Vermögen anzuhäufen
Auch ein wichtiger Punkt, den ich genauso kritisch sehe. Hier wird das komplette Web nach Trainingsdaten durchforstet, unabhängig von Rechten, die den Schutz geistigen Eigentums betreffen. Diese werden in ein Produkt transformiert, mit denen die einzelnen Produkteigentümer Geld verdienen wollen, ohne Erträge daraus auf die Quellen der Inhalte zurückzuzahlen, Stichwort Lizenzmodelle.

Das ist etwas komplett anderes, als wenn ich in meiner Firma diese Modelle mit Firmendaten füttere, sei es für generative Modelle, für Zwecke der Mustererkennung und Predictive Analytics oder zur Steuerung von Prozessen.
 
  • Gefällt mir
Reaktionen: Smartbomb, Diablokiller999 und Scheinriese
Diablokiller999 schrieb:
Weil sich Produkte durch AI Features durchgesetzt haben
Es gibt ja jetzt schon Produkte, die wirklich gut sind und helfen oder auch einfach nur der Unterhaltung dienlich sind. Was völlig ok ist, das ist nun mal ein großer Markt. Natürlich auch viel Müll, das ist klar, aber den gibts ja auch bei jedem anderen Produkt. Ist doch ganz normal. Muss man halt die Spreu vom Weizen trennen.

@Coeckchen Es gibt unbestritten auch Labels, die was Falsches suggerieren. Aber solange es diese Aufmerksamkeit bekommt und (auch von dir^^) weitergetragen wird, ist das Ziel des Marketings erreicht. Das regelt sich mit der Zeit von selbst. Entweder indem die Kunden das (nicht) mitmachen oder weil es alle Hersteller so anwenden und es dann am Ende für einen als Kunde auch egal ist.

Windows->Linux schrieb:
Zum Beispiel auch Scriptblöcke. Das funktioniert noch so halbwegs, wenn man sich auf eine spezielle MS Programmiersprache als Framework einigt und die Routine kurz hält. "hello world".
Das mag bei deinem Anwendungsfall so gewesen sein, bestreite ich gar nicht. Aber daraus den pauschalen Schluss zu ziehen, dass keine KI mehr zustande bringt, als einen kurzen Schnipsel à la "Hello World" ist einfach unwahr.
 
Zuletzt bearbeitet:
Ein AI/KI-Label alleine würde meine Kaufabsiucht noch nicht zunichte machen.
Ich frage, ob man das abschalten kann, und das Gerät dennoch den vollen Funktionsumfang bietet, den ich nutzen möchte.
Lautet die Antwort uneingeschränkt "Ja", dann kaufe ich. Sonst nicht.

Als Möglichkeit finde ich KI schon interessant, aber ein Gerät, welches ohne KI-Beteiligung (oder Internetzugang) den Dienst versagt, ist mMn wertlos.
 
  • Gefällt mir
Reaktionen: Smartbomb
@Windows->Linux Ich hab mal bei ChatGPT nachgefragt.^^
Frage: Wenn du Informationen aus unterschiedlichen Quellen beziehst aber nur eine Quelle die optimale Lösung bietet, wird dann deine Antwort nicht immer schlechter sein als das was die beste Quelle liefern würde?

Das hängt davon ab, wie die Informationen aus verschiedenen Quellen integriert und bewertet werden. Es gibt mehrere Faktoren, die berücksichtigt werden müssen:
  1. Qualität der Informationen: Wenn eine Quelle die optimale Lösung bietet, ist es wichtig, diese Quelle zu erkennen und den Schwerpunkt der Antwort auf diese Informationen zu legen. Andere Quellen können ergänzende Details, alternative Perspektiven oder zusätzliche Kontextinformationen liefern.
  2. Kombination von Informationen: Manchmal bietet keine einzelne Quelle die perfekte Antwort. In solchen Fällen kann die Kombination von Informationen aus mehreren Quellen zu einer umfassenderen und präziseren Antwort führen, als es eine einzelne Quelle alleine könnte.
  3. Überprüfung und Validierung: Die Nutzung mehrerer Quellen ermöglicht es, Informationen zu überprüfen und zu validieren. Dies kann helfen, Fehler zu erkennen und die Zuverlässigkeit der Antwort zu erhöhen.
  4. Relevanz und Aktualität: Unterschiedliche Quellen können verschiedene Aspekte eines Themas beleuchten. Eine Quelle könnte beispielsweise die aktuellsten Informationen bieten, während eine andere Quelle tiefere historische oder technische Einblicke liefert.
  5. Bias und Perspektiven: Quellen können voreingenommen sein oder bestimmte Perspektiven bevorzugen. Durch die Berücksichtigung mehrerer Quellen können diese Voreingenommenheiten ausgeglichen und eine objektivere Antwort formuliert werden.
Um die bestmögliche Antwort zu liefern, sollte der Prozess der Informationsintegration sorgfältig durchgeführt werden. Es ist wichtig, die Qualität, Relevanz und Zuverlässigkeit jeder Quelle zu bewerten und die Informationen so zu kombinieren, dass sie eine vollständige und präzise Antwort ergeben.

Frage: Aber wenn du die Qualität, Relevanz und Zuverlässigkeit jeder Quelle bewertest, dann machst du das doch auch nur anhand anderer Quellen, die ebenfalls auf die Qualität, Relevanz und Zuverlässigkeit bewertet werden müssen, wie kann dies dann überhaupt funktionieren?

Das Bewerten von Quellen basiert auf mehreren etablierten Kriterien und Methoden, die über einfache Querverweise hinausgehen. Hier sind einige zentrale Aspekte, die diesen Bewertungsprozess ermöglichen und die Zuverlässigkeit verbessern:
  1. Erfahrung und Reputation der Quelle: Quellen mit einer etablierten Reputation und Fachkompetenz in einem bestimmten Bereich haben oft eine höhere Glaubwürdigkeit. Wissenschaftliche Zeitschriften, akademische Publikationen und renommierte Nachrichtenorganisationen fallen oft in diese Kategorie.
  2. Peer-Review und Qualitätssicherung: Wissenschaftliche Arbeiten und Artikel, die einem Peer-Review-Prozess unterzogen wurden, sind tendenziell zuverlässiger, da sie von Experten im jeweiligen Feld geprüft wurden. Qualitätssicherungsprozesse in Verlagen und Redaktionen tragen ebenfalls zur Vertrauenswürdigkeit bei.
  3. Zitierhäufigkeit und Anerkennung: Arbeiten, die häufig zitiert werden und in der wissenschaftlichen oder öffentlichen Diskussion anerkannt sind, haben oft eine höhere Glaubwürdigkeit. Diese Zitate sind ein Indikator für die Relevanz und Akzeptanz der Quelle innerhalb der Fachgemeinschaft.
  4. Transparenz und Nachvollziehbarkeit: Quellen, die ihre Methoden, Daten und Quellen offenlegen, ermöglichen es den Lesern, die Informationen zu überprüfen und nachzuvollziehen. Dies erhöht die Transparenz und das Vertrauen in die Informationen.
  5. Aktualität: Informationen sollten auf dem neuesten Stand sein, insbesondere in Bereichen, die sich schnell entwickeln. Aktuelle Quellen sind oft relevanter und genauer als ältere.
  6. Konsistenz und Übereinstimmung: Wenn mehrere unabhängige Quellen ähnliche Informationen liefern, erhöht dies die Zuverlässigkeit der Daten. Konsistenz über verschiedene Quellen hinweg ist ein starker Indikator für die Richtigkeit der Informationen.
  7. Fachliche Überprüfung und Expertenmeinungen: Die Einbeziehung von Expertenmeinungen und die fachliche Überprüfung durch Spezialisten in einem bestimmten Bereich können helfen, die Genauigkeit und Zuverlässigkeit der Informationen zu bestätigen.
Durch die Anwendung dieser Kriterien kann eine sorgfältige Bewertung und Integration von Informationen aus verschiedenen Quellen durchgeführt werden. Dies ermöglicht es, die beste verfügbare Information zu identifizieren und gleichzeitig die Antwort durch ergänzende Details und Perspektiven zu bereichern. Dieser Prozess erfordert kritisches Denken, methodische Vorgehensweise und ein fundiertes Verständnis der verschiedenen Informationsquellen.
Frage: Du sagtest das dieser Prozess kritisches Denken erfordert, für kritisches Denken benötigt man aber doch ein Gehirn

Das stimmt, kritisches Denken erfordert ein menschliches Gehirn und die Fähigkeit zur Reflexion und Bewertung. Als KI-Modell von OpenAI besitze ich kein Bewusstsein oder menschliches Gehirn, jedoch bin ich darauf trainiert, auf der Grundlage von Algorithmen und Mustern Informationen zu verarbeiten und zu bewerten. Dies ermöglicht es mir, einige Aspekte des kritischen Denkens nachzuahmen, obwohl es nicht identisch mit menschlichem kritischen Denken ist. Hier sind einige Methoden, die ich verwende, um Informationen zu bewerten:

Algorithmische Bewertung: Ich nutze Algorithmen, die darauf trainiert sind, die Qualität von Texten zu bewerten. Diese Algorithmen analysieren Muster, Konsistenz und Übereinstimmungen in den Daten.

Datenbankabgleich: Ich greife auf eine umfangreiche Datenbank von Texten und Informationen zurück, die mir helfen, Fakten zu überprüfen und die Glaubwürdigkeit von Quellen zu bewerten.

Heuristiken und Regeln: Ich verwende eine Vielzahl von Heuristiken und Regeln, die in meinem Training entwickelt wurden, um die Relevanz und Zuverlässigkeit von Informationen zu beurteilen.

Kontextualisierung: Durch den Zugriff auf eine große Menge an Informationen kann ich Kontext bereitstellen und verschiedene Perspektiven berücksichtigen, um eine ausgewogenere Antwort zu geben.

Feedback und Korrekturmechanismen: Meine Antworten werden ständig durch Rückmeldungen von Benutzern und Verbesserungen durch meine Entwickler optimiert. Dies hilft, die Genauigkeit und Relevanz meiner Antworten kontinuierlich zu verbessern.

Obwohl diese Methoden das menschliche kritische Denken nicht vollständig ersetzen können, ermöglichen sie es mir, auf eine strukturierte und systematische Weise Informationen zu bewerten und zusammenzuführen. Es ist jedoch wichtig, dass Benutzer meine Antworten mit einer kritischen Perspektive betrachten und bei wichtigen Entscheidungen oder komplexen Themen zusätzliche Überprüfungen und menschliche Expertise einbeziehen.
Das es Fehler gibt besonders wenn es um spezifischere und komplexere Dinge geht ist glaube ich aber auch unbestritten, das merkt man ja bereits wenn man KI gestützte Anwendungen in bestimmten Bereichen wie z. B. für Übersetzung nutzt.^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Windows->Linux
Ich finde das auch total schrecklich, dass jetzt überall KI draufsteht.
Sogar auf Staubsaugern…
Das hat mein zwölf Jahre alter Vorwerk-Sauger auch schon, nur, dass es da noch die Automatikstufe für Teppiche ist, welche die Saugleistung dynamisch anpasst.
Nur ist damals glücklicherweise niemand auf die Idee gekommen, das als „künstliche Intelligenz“ zu bezeichnen.
 
  • Gefällt mir
Reaktionen: Scheinriese
Die meiste KI generierte Werbung ist auch scheiße. KI generierte Inhalten können als Grundlage extrem gut sein. Benötigen aber weitere Verbesserungen. Verwende aktuell selber Chat GPT als Hilfe zum erstellen einer ck3 mod und ich muss alles was ich durch Chat GPT erfahre nachforschen und nachbesern. Das hilft mir zwar trotzdem weil ich von vielen dingen Historisch nichtmal weiß das die an Ort xy existiert haben, aber nachforschen ob das so stimmt wie Chat GPT es mir sagt muss ich dennoch alles.
 
  • Gefällt mir
Reaktionen: Smartbomb
OdinHades schrieb:
Aber ganz ehrlich, ich habe bisher noch niemanden gesehen, der irgendwelche KI-Funktionen tatsächlich in einer, ich sag mal produktiven Art und Weise in seinen Alltag integriert hat.
Bei mir auf der Arbeit sind LLMs wie ChatGPT und Bard mittlerweile (ich würde sagen ungefähr seit Anfang 2023) schon gut integriert. Anstatt sich, zum Schreiben seiner Skripte (überwiegend R und Shellskript, ggf. Python) mühsam durch Wikis und Forenbeiträge durchzuwühlen, einfach ein Prompt an ChatGPT stellen und gut ist (meistens) oder ChatGPT zu einer Fehlermeldung befragen statt endlosen Debuggens. Zumal wir Biologen und keine Programmierer sind und einige von uns auch programmiertechnisch nicht allzu versiert sind. Wenn ich nach 10 Minuten aber keine brauchbaren Ergebnisse aus ChatGPT rausbekomme, mach ich's dann doch lieber selbst. Ich würde aber NIE meine Daten an eine online-basierte KI geben, sondern verwende entweder abstrakte Beschreibungen oder Beispieldaten.

aid0nex schrieb:
KI bzw. LLMs können eine Sache richtig gut: Bei völliger Ahnungslosigkeit maximal selbstbewusst auftreten.
Ich bin auch immer wieder erstaunt, mit welchem Selbstbewusstsein ChalGPT mir teilweise falsche Antworten auftischt. Ich hatte mal testweise diverse (zugegebenermaßen sehr vertiefte) musiktheoretische Fragen gestellt und wirklich nur Schwachsinn herausbekommen. (Fairerweise muss ich dennoch zugeben, war ich zutiefst beeindduckt, dass ich auf potenzielle Missverständnisse hingewiesen wurde, die ich zwar nicht explizit erfragt hatte, die aber dennoch aufgegriffen wurden*)
* Somit hat ChatGPT "gedacht", dass hier eventuelle Missverständnisse aufkommen könnten und diese prophylaktisch aufgegriffen.
Ansonsten ist mir aufgefallen, dass ChatGPT zwar in R und Shellskript recht gut ist, aber unbrauchbar für LaTeX.

Triky313 schrieb:
man hat einfach endlich eine Möglichkeit gefunden, schnell viele Daten zu durchsuchen und das passende zurückzugeben.
Trifft leider nicht auf jedes Gebiet zu. Man kann sich darauf verlassen, dass man ein Ergebnis erhält, die Sinnhaftigkeit kann allerdings variieren. Allgemeiner würde ich vielleicht formulieren: Hilfreich sind KIs tatsächlich nur dann, wenn man zumindest ein bisschen Ahnung vom jeweiligen Gebiet hat.
Außerdem wird streng genommen nichts durchsucht. Hier könnten KI-basierte Suchmaschinen sicherlich in Zukunft Änderung bringen (und vielleicht auch hilfreich sein*)
* Wobei Google noch vor KI eine exzellentes Such-Engine hatte, bevor sie es in den letzten Jahren komplett kaputt gemacht haben.

metoer schrieb:
Wir Menschen sind auch nur biologische Maschinen
Würde ich (unabhängig von der Seelenfrage) grundsätzlich zustimmen, hilft in diesem Beispiel aber wenig weiter, denn KIs arbeiten dennoch fundamental anders als biologische Nervensysteme es tun (weswegen der Begriff "Neural Network" auch etwas irreführend wirken mag). Selbst die komplexesten KI-Modelle reichen nicht an die massive Parallelität und Komplexität biologischer Systeme heran. Außerdem sind KI-Modelle in Layern aufgebaut, während dies in der Biologie nicht der Fall ist. Dort können dann (hypothetische) Layer übersprungen werden, mehrere Signale an einem Neuron (Knoten eines KI-Modells) anders verrechnet werden und somit die Auslösung eines Aktionspotentials komplett verhindert werden (Eine Wahrscheinlichkeit von (exakt) 0 gibt es meines Wissens nach bei KIs nicht), Nachgeschaltete Neuronen können vorangeschaltete modulieren usw., Neuronen nach Auslösung eines AP für eine gewisse Zeit nicht erregbar sein, usw..

Das soll jetzt nicht heißen, dass ein Ansatz besser wäre als der andere, sondern einfach nur anders.

Ein Beispiel des Unterschieds:
LLMs berücksichtigen immer nur den vorangegangen Text. Wenn ich als Mensch aber etwas sagen möchte, bin ich mir sowohl des übergeordneten Kontexts und des nachfolgenden Inhalts durchaus bewusst. (Als auch (hoffentlich) meiner eigenen Unkenntnis in einem Gebiet)



KI hat durchaus ihre Berechtigung und auch viel Potenzial, aber sie ist kein Heilsbringer und der Hype, einschließlich der damit verbundenen absurden Inverstionen ist einfach viel zu übertrieben und das ganze Marketing geht einfach total auf die Nerven. Mehr natürliche Intelligenz wäre auch manchmal recht hilfreich.
 
  • Gefällt mir
Reaktionen: aid0nex und metoer
Ayo34 schrieb:
Ich würde auch weniger von "Seele" reden, sondern eher von Bewusstsein und ich glaube daran, dass man ab einer gewissen Intelligenz auch ein Bewusstsein erlangen kann. Dafür braucht man keinen menschlichen oder natürlichen Körper.

Intelligenz steht für selbständiges Denken und Vorstellungsvermögen(Phantasie). Genau das kann aber eine vermeintliche KI eben nicht. Insofern hat @Manegarm recht.

Was Deine Annahme zum Bewußtsein angeht, irrst Du Dich. Wir wissen noch nicht einmal, wann das Bewußtsein entsteht, das übrigens durch die Natur gesteuert wird(meinetwegen auch Gott). Es ist ein Instrument der Natur(Gott) und bedarf eines natürlichen Körpers. Was wir jedoch realisieren können und auch sicher werden, ist die menschliche Intelligenz zu simulieren und das irgendwann so perfekt, daß es dann nicht mal mehr als KI auffallen wird. Aber das kann auch für den Menschen eine große Gefahr bedeuten, weswegen schon von vornherein eine Grenze gezogen werden muß(genauso wie bei Nano-Technologie). Ein gutes Beispiel und eine Beschreibung dafür liefert z.B. die Serie Person of Interest , die leider zum Ende hin arg albern wird, aber bis dahin doch sehr gut die Funktionsweise einer programmierten Intelligenz beschreibt und darüber erzählt, was auch sehr unterhaltsam ist.

 
  • Gefällt mir
Reaktionen: tso
@p.b.s.
Genau das ist das Problem von KI, sie kann eigentlich vor allem eines: "Sachen nachmachen", mal sehr überzeugend und mal weniger...
Je mehr Verantwortung in die Hände von KIs gelegt wird, umso weniger wird die Menschheit in ihrer Gesamtheit weiterkommen, denn auch wenn es erstmal nicht so aussehen mag, gänzlich neue Ideen können auf diese Art nicht entstehen. Im schlimmsten Fall wird das gesamte Wissen (und auch Nichtwissen) der Menschheit von einer oder mehreren KIs festgelegt.
 
  • Gefällt mir
Reaktionen: p.b.s.
Ayo34 schrieb:
Die Frage ist also was ein Mensch hat, was eine "KI" nicht haben kann

Das eine ist organisch, das andere ist totes Material. Eine Maschine hat keine DNA.
 
  • Gefällt mir
Reaktionen: p.b.s.
Apocalypse schrieb:
Ich würde ja gerne mal einen von 1. sehen und was er so damit macht. Also explizit AI und nicht "nur" Machine Learning.
Ich hoffe das ist jetzt nicht zu offtopic. Wenn man jetzt mal die Diskussion "ist AI überhaupt AI" rauslässt - Also ich bin nicht nur privat sondern vor allem auch beruflich viel in AI-Themen unterwegs und rede viel mit AI-Verantwortlichen auch in anderen Unternehmen. Im Business-Alltag ist da schon recht viel produktiv im Einsatz - und nicht nur einfach RAG als "search on steroids" (wobei das auch schon viel Nutzen bringt). Natürlich ist klassisches ML immer noch wesentlich etablierter (und teilweise ja auch schon seit Jahrzehnten im Einsatz), aber das, was wir aktuell unter AI verstehen, das holt auf.

Ich kenne einige Fälle wo Prozesslücken (ich mache primär Prozessoptimierung/Digitalisierung) durch gezielt trainierte Modelle geschlossen wurden und nicht nur ein Prozessschritt dramatisch weniger menschliche Interaktion benötigt, sondern diesen auch in viel besserer Qualität umsetzt. Ein großes Thema sind auch Schulungs- und Lehrmaterialien - die ganze Notwendigkeit für Sprachaufnahmen ist eigentlich weggefallen (manche Unternehmen benötigten mehrere Native Speaker weil eben alles in mehreren Sprachen angeboten werden muss). Teilweise wurden Releases verschoben, weil das Schulungsmaterial nicht ready war.

Ein weiterer Punkt ist die Vorqualifizierung von Informationen - Intenterkennung etc. gab es auch früher schon, aber der Fortschritt hier ist gigantisch. Liest sich erstmal banal, aber ist für größere Unternehmen einfach auf Grund der schieren Menge von Informationen und Anfragen ein riesiger Hebel, wenn man sich da war gutes aufsetzt/aufsetzen lässt.

Im kreativen Bereich (Marketing, Contentproduktion, etc.) sind die aktuellen Werkzeuge auch vielfach schon angekommen und reduzieren den Aufwand vor allem in Konzeptphasen dramatisch (selbst wenn das finale Ergebnis meistens noch klassisch umgesetzt wird). Und für industrielle Contentproduktion - wer sich dafür interessiert sollte sich z.B. mal ComfyUI (und darin dann Lösungen wie ICLight oder ControlNet) angucken - das ist vieles möglich z.B. ableiten von neuen, veränderten Material aus bestehenden Bildern (und ich vermute auch schon produktiv im Einsatz). Und ich kenne einige kleinere Künstler (Musiker), die nicht die Kohle für aufwändige Musikvideos haben und ihre Story dann halt mit KI erzählen um ihre Werke besser zu platzieren - finde ich total legitim, zumal die künstlerische Botschaft ja in der Musik liegt und das Video nur Mittel zum Zweck ist.

Gerade im Bereich Video hat sich so unendlich viel getan - es fehlt nicht mehr allzuviel um sich zu Hause am Computer einen Spielfilm passend zur eigenen kreativen Idee zusammenklicken zu können. Die Idee und ein visuelles Konzept brauch man immer noch selbst, aber man ist nicht mehr auf ein Riesenteam etc. angewiesen. Ist aber auch nochmal ein guter Punkt darauf hinzuweisen, dass AI eben nicht bedeutet, ich rotze irgendwo einen Prompt rein und dann ist alles fertig. Ich habe aktuell mal aus Jux ein Musikvideo selbst mit KI gemacht (ohne künstlerischen Anspruch - einfach aus Spass an der Technologie) ... waren dann am Ende - selbst für die erste Vorabversion - locker 40 Stunden Arbeit drin. Kann ich bei Interesse gerne per PN verlinken (ich will nicht in den Verdacht geraten hier nur Reichweite aufbauen zu wollen, daher kein Link direkt in diesem Post)
Ergänzung ()

Windows->Linux schrieb:
Eine KI-basierte Antwort ist aber eine EINZELNE Antwort, die maximalen "Wahrheitsanspruch" vermittelt. Ohne diesen Anspruch einhalten zu können.
Du schreibst sehr viel richtiges (Daumen hoch dafür), aber hier möchte ich widersprechen. Das ist doch die Frage, wie du das aufsetzt und wie du promptest. Niemand hält dich davon ab z.B. eine RAG-Pipeline aufzusetzen, die dir nicht nur mehrere Antworten (gerne auch von unterschiedlichen Modellen) anbietet, sondern auch konkret auf die exakte Quelle verweist und/oder dir auch noch einen Wert ausgibt, wie verlässlich die Pipeline selbst die Korrektheit ihrer Antwort einschätzt. Ich kenne ein Unternehmen, die sich einen Großteil der vorbereitenden Sklavenarbeit in der Rechtsabteilung so lösen lässt.

Und was du weiter schriebst mit "man bekommt dann irgendeine Person" und derartiges Material sei nur mit gesenktem Qualitätsanspruch akzeptabel - man kann mittlerweile sehr viel Aufwand betreiben um eben doch ziemlich exakt das Bild zu bekommen, das man haben möchte. Aber man kann eben auch gezielt aus eigenem Bildmaterial ableiten, gezielt verändern etc. Man muss sich halt mit der Materie auseinandersetzen. Ich denke man bekommt selbst jetzt schon in vielen Usecases potentiell mehr Qualität in Relation zum Aufwand, als mit klassischer Produktion. Die absolute Maximalqualität gibt es sicherlich zunächst weiterhin mit konventioneller Produktion - aber auch nur, wenn Geld und Aufwand keine Rolle spielt. Industrielle Massenproduktion ist aber eben auch ein (kostenoptimierter) Usecase. Hier ist bildgenerierende Ki für einige Usecases gut genug - wenn man denn möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse, Vigilant und Windows->Linux
1000046035.jpg


Das erinnert mich an die Schaufenster Werbung, die ich letztens in meiner Stadt erblickt habe. Creepypasta 😱

KI Werbung oder Werbung mit KI Buzzword kann tatsächlich abschrecken.

Vor einer SkynetAI habe ich nicht Angst. Aber ich befürchte, dass auf Basis leichtfertig verwendeter KI falsche oder gar fatale Entscheidungen getroffen werden.
 
  • Gefällt mir
Reaktionen: TechFA und Apocalypse
Apocalypse schrieb:
Ich würde ja gerne mal einen von 1. sehen und was er so damit macht. Also explizit AI und nicht "nur" Machine Learning.

Vielleicht bisschen Werbung, vielleicht passt es ja auch. Ich probiere immer ein bisschen aus und interessiere mich allgemein für KI. Die Lernkurve ist gerade extrem hoch und mal schauen wie das in einigen Wochen ausschaut...



Taron schrieb:
Falls Energieeinsparungen dahinter stehen: ich bin mir recht sicher, dass das ganze KI-"Smart"-Zeug in der Gesamtbetrachung mehr Energie frisst als sich dadurch jemals einsparen lässt...

Das schöne an neuen Technologien ist ja eigentlich, dass man diese dann hunderte Jahre verwenden kann. Amazon hat z.B. einen Roboter im Einsatz, der Solaranlagen aufstellen kann. Spart 50% an Arbeitskräften und ist damit deutlich günstiger. Bedeutet beim Fachkräftemangel einfach nur schneller mehr grüne Energie und (erstmal) kein Job-Verlust. Und/oder auch günstigere Energie.
 
  • Gefällt mir
Reaktionen: Apocalypse und Vigilant
Zurück
Oben