Test Neues AI-Tool: Was mit der Video-KI in Adobe Firefly möglich ist

DeusExMachina schrieb:
Mit ki vielleicht aber nicht mit Transformator Modellen
Genau das! Manche tun so, als wäre KI eine .exe, der man nur das richtige Problem zum Lösen geben müsste.
Aber gerade wenn es um Forschung geht, muss die Fragestellung vorher geklärt werden, denn das Endprodukt ist kein buntes Video. Und aktuell unterminiert KI massiv den Universitätsbetrieb, weil alle Studenten ihre Arbeiten mit ChatGPT schreiben lassen, was die Qualität senkt. Da fehlt dann später jede Grundlage für wissenschaftliches Arbeiten, weil die einfach nicht schreiben können. Und ich befürchte, im Design-Bereich gibt es ähnliche Entwicklungen, wenn Video- oder Bild-KI eingesetzt werden.
 
  • Gefällt mir
Reaktionen: RushSyks
Ich hab ja nix gegen die LLMs.
Auch wenn sie für mich mehr Nachteile als Vorteile haben.
Dennoch sind die Transformatoren am Ende des Tages Müll

Das was du bei den Studenten beobachtest ist ja ein Systemischer Fehler. Es wird den Studenten einfach nicht klar genug vermittelt warum sie ihre Hausaufgaben selber machen sollen. Für sie ist es eine leidige Pflicht die sie hinter sich bringen müssen.

Dann lernen sie leider auch nicht gute von schlechten Quellen zu unterscheiden.

Und wenn man sowas ließt:
+++ Studie: Russland manipuliert Chatbots wie ChatGPT, Grok und Gemini +++
Russland manipuliert nach den Erkenntnissen von Wissenschaftlern Chatbots. Mehr als ein Drittel der Antworten von KI-Dialog-Assistenten wie ChatGPT enthielten pro-russische Fake News, wie eine Studie der Organisation NewsGuard ergab. Dahinter steckt den Forschern zufolge das Prawda-Netzwerk in Moskau, das weltweit kremlfreundliche Propaganda verbreitet. "Eine riesige Menge russischer Propaganda - 3.600.000 Artikel im Jahr 2024 - sind nun in den Ergebnissen westlicher KI-Systeme enthalten und infizieren deren Antworten mit falschen Behauptungen und Propaganda", heißt es von NewsGuard. Für die Studie wurden zehn der wichtigsten Anwendungen für Künstliche Intelligenz untersucht, darunter ChatGPT-4, Smart Assistant, Grok, Copilot, Meta AI und Google Gemini. Sie alle gaben die von Prawda verbreiteten Falschinformationen wider. Sieben Chatbots zitierten sogar bestimmte Artikel von Prawda als Quellen.

Dann muss man sich nicht nur noch fragen vergiften sich die "KI" mit KI generierten Inhalten selbst sondern wie zuverlässig sind die Ergebnisse wenn sie so leicht zu manipulieren sind.

Und ist der Werlust an Fähigkeiten den Aufwand den wir für diese Schlangenöl Technologie fahren überhaupt wert
 
  • Gefällt mir
Reaktionen: Vigilant und Boimler
Tja, ohne "Quality-Filter" und Fakten-Check für die Eingangsquellen wird das schwierig. Nur ist der Aufwand dafür groß, bzw. das Problem aktuell nicht gelöst.

Der Fakten- und Qualitätscheck liegt weiterhin beim User. Vielleicht liegt hier zumindest ein Problem: Die aktuellen Modelle "auch nur" als eine Quelle von vielen zu betrachten, deren Inhalt und Output durch den Nutzer ebenfalls noch zu verifizieren ist.

Das heißt ohne eigene Kompetenz hinsichtlich Fakten- und Wahrheitsgehalt bleibt der Nutzen in bestimmten Szenarien limitiert.
 
Zuletzt bearbeitet:
Natürlich.
Aber wie soll ein normaler Mensch das unterscheiden können?


Ich denke immer noch das LLMs eine Suchmaschine deutlich aufwerten können wenn sie einem Helfen das Gesuchte zu finden in dem man mit der Suchmaschine Natürlichsprachlich kommunizieren kann.

Aber der Schritt wurde übersprungen es werden Ergebnisse erraten
was leider den Schritt Quellenüberprüfung sehr schwer macht.
 
Und wenn es um Quellen geht, geht es auch immer um Urheberrecht. Auch in den Videos, die hier gezeigt wurden, stecken Inhalte von natürlichen Personen, die die KI während ihres Trainings erlernt hat. Das sollte man nicht vergessen.
 
DeusExMachina schrieb:
Aber wie soll ein normaler Mensch das unterscheiden können?
Absolut, das ist eine Herausforderung und u.a. auch an die Bildung der Menschen gekoppelt.

In Finnland beispielsweise ist Medienkompetenz ein eigenes Schulfach, das u.a. auch Fähigkeiten für Meta-Kognition stärkt, also die Kunst und Bereitschaft, das eigene Denken und Wissen zu hinterfragen, zu überwachen und daraus entsprechende Schlüsse zu ziehen.

Theoretisch wäre so ein Ansatz auch bei LMMs denkbar, der teilweise mit den sogenannten Reasoning-Verfahren verfolgt wird. Das ist schon mal eine Verbesserung, aber fehlender Echtzeit-Zugriff auf Informationen und fehlendes Weltverständnis der Modelle, die aktuell nur nach statistischen Mustern in Text, Bild und Ton arbeiten, limitieren Faktentreue und Wahrheitsgehalt weiterhin.

Das wird kurzfristig oder mittelfristig vermutlich nicht zu lösen sein und in Abhängigkeit, wer ein KI-Modell mit welchen Absichten erstellt, auch immer ein Problem bleiben.
 
Wo bleibt die EU? So etwas muss man einfach kennzeichnen, dass es KI und kein echtes Bild/Video ist.
 
Nervt nur noch alles. Alles Fake fantasie Welt.
Bald generiert jeder irgendwelche Filme und Serie. Dann gibt es ein haufen Zeug und alles wird Wertlos, weil es zu viel gibt. Irgendwann kracht alles zusammen, weil die Menschen in der realen echten Welt sich nur noch Fremd fühlen. Und unsere Zivilisation zerbricht an diesem Scheiß.
Die wollen heute alle schon aussehen wie irgendwelche Animes, oder haben ein Fitness ideal der gar nicht mehr da draußen in real existiert.

Worin genau soll diese Fantasie Generierte Welt unsere Zivilisation nach vorne bringen?
 
Zurück
Oben