News Künstliche Intelligenz: Ist der Hype begründet – oder sollten wir uns eher sorgen?

raekaos schrieb:
Die Nutzung ohne Fachwissen halte ich aber für gewagt, da man die Ergebnisse eigentlich immer überprüfen und grundsätzlich in Frage stellen sollte/muss.
noch.. ich denke in 10 Jahren wird das spätestens ganz anders aussehen.. vielleicht sucht dann schon die KI den Fehler bei uns ;)
 
andy_m4 schrieb:
Naja. Da braucht es halt Medienkompetenz. Denn das Problem haben wir ja schon jetzt. Bei neuen Sachen ist es natürlich immer erst so, das sich die Leute daran gewöhnen müssen und erst gar nicht verstehen, wo die Problemstellen sind.
Ich befürchte nur, dass Medienkompetenz alleine nicht ausreichend sein wird. Bei bearbeiteten Bildern, hat oder hatte man ja oft noch die Chance, Fehler oder Merkmale mit bloßem Auge zu entdecken. Jetzt wird aber 1. die Qualität der erzeugten Bilder (oder Video) immer besser und 2. wird sich die Quantiät extrem erhöhen. Was passiert, wenn die Wahrheit in einem Meer von Falschmeldungen/Bildern ertränkt wird?

In Folge dessen, halte ich es für unmöglich, jedes Bild und jede Aufnahme auf Echtheit zu überprüfen. Den Zeitaufwand wird sich nicht jeder leisten können oder wollen. Und dann haben wir ein großes Problem.

PS: Ich sehe bei der Recherche von Quellen ein weiteres Problem. Oft kommen Inhalte ja von Freunden oder Familienmitgliedern. Da diese Personen aber als glaubwürdig eingestuft werden, wird das geteilte Bild oder die Aufnahme auch sehr schnell als glaubwürdig eingestuft. Abgesehen von der Tatsache, dass die Überprüfung der Quelle dadurch noch schwerer wird.
 
  • Gefällt mir
Reaktionen: mental.dIseASe
aluis schrieb:
Das muss man halt abwegen, ob man mit 60 der mit dem höchsten Gehalt ist, oder ob man mit 50 keinen Job mehr bekommt, weil die Jungspunde von der Uni mehr drauf haben.

Was willst du denn da abwägen wie es in 20 oder 30 Jahren am Arbeitsmarkt für dich aussehen wird? Am Ende kann man sich nur Fortbilden und muss schauen, dass man die richtige Richtung einschlägt. Ob es aber die richtige Richtung ist, wird man nicht jetzt sagen können. Das muss auf dem Weg dorthin immer wieder neu evaluiert werden.

Am Ende kann man nur seine Wahrscheinlichkeit etwas erhöhen... gibt immer Chancen und Risiken und das war schon immer so.
 
Bright0001 schrieb:
Lehrer wissen für gewöhnlich wer wie gut ist, und sie bemerken auch, wenn einer seine Hausaufgaben einfach abschreibt. KIs sind nur eine weitere Quelle zum Abschreiben, das Kernproblem bestand schon vorher und wird auch bestehen bleiben.

Ich weiß aus langer Erfahrung mit diesem Berufsstand, dass Lehrer jeden selbst abgeschriebenen Text identifizieren können. Wenn aber eine KI im Spiel ist, sind "kluge" Schüler im Vorteil. Da ist der Unterschied, gerade im Wortschatz, kaum vorhanden. Das ist spätestens an Unis und Hochschulen ein Problem, wenn man allein die Ghostwriting-Probleme der letzten Jahre betrachtet.

Deshalb wäre ich sehr dafür, aus der Not eine Tugend zu machen und quelloffene KI-Systeme zu entwickeln und deren Nutzung zu tolerieren, wenn man sie kenntlich macht. Da könnte sich dann jeder selbst entscheiden, ob er sie einsetzt.
 
BigLA schrieb:
Aber die Geschichte hat gelehrt, dass der "positive" Fortschritt viel langsamer ist als alles andere...

Ist auch logisch, da die bösen Menschen sich nicht um Verbote scheren. Einschränkungen treffen nur die normalen Nutzer.

ZeT schrieb:
Aktuell halte ich die neue Generation ohne Internet nicht für Überlebensfähig.

Unsere Gesellschaft würde auch ohne Computer aufgeschmissen sein. Und ohne Strom erst...
 
Einer unserer Programmierer wollte beweisen, dass seine Arbeit unersetzlich ist. Er gab Chat GPT einen Auftrag und war danach den Tränen nahe, da er einfach gemerkt hat, dass man seine Arbeit bald durch dieses Programm erledigen lassen kann und das schneller und mit weniger Fehlern. Und da es ein fortlaufender Prozess ist und KI teilweise durch andere KIs antrainiert werden wird das vermutlich sehr viele Jobs kosten. Gerade Verwaltungsjobs und so Berufe wie Lehrer oder Anwälte werden eher nur noch vorgehalten werden müssen, benötigen wird man diese aber nicht mehr wirklich.
 
@Vitche
In der Fragestellung "(Wie) nutzt du KI-Chatbots und KI-Bildgeneratoren selbst?" gibt es zu Bildgenerierung nur drei Auswahlmöglichkeiten:
  • Ich habe KI-Bildgeneratoren bereits produktiv verwendet, um mich bei privaten Projekten zu unterstützen.
  • Ich habe KI-Bildgeneratoren eingesetzt, um mir im beruflichen Kontext Skizzen oder gar fertige Bilder zu erstellen.
  • Ich habe KI-Chatbots und KI-Bildgeneratoren bislang noch nicht genutzt.
Was ist mir Leuten wie mir, die mal (privat) ein paar Bilder haben erstellen lassen, um sich von dem ganzen lediglich einen ersten Eindruck zu bilden? Ich bin irgendwo zwischen dem ersten und dem dritten Punkt.
 
Bright0001 schrieb:
ChatGPT ist hier für mich genauso wenig haftbar wie ein Google, das mir Falschinformationen als ersten Link vorschlägt

da widerspreche ich. Google zitiert direkt eine Seite, und bietet noch zahlreiche andere Quellen an. Da es sich um ein direktes Zitat handelt, ist die Darbietung transparent. Klar kann auch Google durch selektives Filtern bestimmte Antworten/Meinungen ausschließen, aber man bekommt von dem was man bekommt ein direktes Zitat. Man wird nicht von der Suchmaschine angelogen, sondern vom Autor der Seite hinter dem Link. Welche Ergebnisse man bekommt, hängt davon ab, wieviele Seiten man manuell durchsucht.

gpt (Bing) kreiert eine eigene Antwort aus diversen Quellen, die zwar angegeben werden, aber nicht immer korrekt interpretiert werden, dh. auch wenn gpt eine Quelle angibt, heißt das nicht, dass das auch wirklich das ist, was die eigentliche Quelle angegeben hat. gpt ist ein Übersetzungslayer zwischen User und Information, und da passieren Fehler - aber gpt ist teilweise extrem hartnäckig, was die Qualität der eigenen Information angeht, was gpt auch im Fehlerfall enorm überzeugend macht. Man muss in bestimmten Bereichen schon mehr oder weniger Profi sein, um hier Fehler aufzudecken.

Das kritische an gpt ist, dass Informationen trotz verlässlicher Quelle (Herstellerseite bspw) falsch sein können, und gpt pocht auf die Korrektheit der Information anhand der Quelle.

hier einfach nur "ANWENDERFEHLER" proklamieren greift mir hier bei der intensiven Interaktion zwischen Mensch und Maschine und dem riesigen Potential an Missbrauch und Informationshoheit zu kurz.

Ich sage nicht, dass man wegen jedem Fehler gpt einkasteln sollte, aber man darf sich hier ruhig schonmal Gedanken machen.
jetzt ist das noch eine kleine Spielerei, aber lass da mal 5 bis 10 Jahre drübergehen.

AI aufbereitete Informationen werden Lebensbestimmend werden, so wie jetzt schon die Googlesuche. Nur ist hier die AI um einiges kritischer und gefährlicher - jetzt nicht unbedingt im Sinne von skynet, eher im Sinne von 1984.

Ich habe jetzt schon ein ungutes Gefühl bei den "Faktencheckern". Wenn wir mal so weit sind, dass eine privat betriebene AI "Faktenchecks" übernimmt, wirds unangenehm.
 
Zuletzt bearbeitet:
Bright0001 schrieb:
Die Gefahrenlage ist ja gegeben und nicht vom System verursacht. Die Schuldfrage besteht darin warum es die Gefahrenlage gab, nicht auf die Reaktion.
Und wenn wie vor Kurzem ein autonom fahrendes Fahrzeug ungebremst in einen LKW donnert und Menschen dabei sterben?
Bright0001 schrieb:
Wenn ich mich als Mensch zwischen Kind- oder Oma-Überfahren entscheiden muss, am Ende aber beide treffe, weil ich in der Situation überfordert war, trage ich ja auch nicht automatisch Schuld, weil ich suboptimal reagiert hab.
Doch, nennt sich fahrlässige Tötung.
 
Glaube der Titel passt nicht ganz: Wenn der Hype wirklich begründet ist, DANN sollten wir uns Sorgen machen.
;)
 
Wir sind mittlerweile soweit, das man mit ein paar Fotos einer Person und und ein Paar Samples seiner Stimme Videos und Audio erstellen kann, in der die Person alles sagt was man will. Damit werden stand jetzt alle Beweise und Aussagen, Fotos, Videos und Aufzeichnung von Ereignissen und Personen völlig unbrauchbar. Es kann schlichtweg alles gefälscht werden bzw sein. Das wird noch für richtig viel Chaos und Probleme sorgen bezüglich Gesetze, Anklagen usw. Die Beweisführung wird schlichtweg nahezu unmöglich mit solchen Mitteln, da nichts mehr aussagekräftig ist wenn alles von AI gefälscht werden kann.
 
  • Gefällt mir
Reaktionen: mental.dIseASe und mylight
sethdiabolos schrieb:
Einer unserer Programmierer wollte beweisen, dass seine Arbeit unersetzlich ist. Er gab Chat GPT einen Auftrag und war danach den Tränen nahe, da er einfach gemerkt hat, dass man seine Arbeit bald durch dieses Programm erledigen lassen kann und das schneller und mit weniger Fehlern.
Da ist dann die Frage, wie weit man sein Aufgabengebiet fasst.
Wie große Design-Entscheidungen trifft Chat-GPT, gerade mit Blick auf Infrastruktur? Setzt sich ChatGPT mal einen Tag neben Nutzer der Software und versucht deren Arbeitsabläufe zu verstehen, zu analysieren und daraus für das Produkt zu lernen? Gar nicht so einfach mit Blick auf XY-Probleme.
Das reine Coden ist doch das wenigste.
 
Hellyeah schrieb:
Zurzeit sehe ich noch nichts "intelligentes" bei ChatGPT und etc. Die Modelle werden trainiert und können anhand dessen wahrscheinlich gute Antworten geben. In etwa wie eine sehr komplizierte Mathematische Formel. Macht man nun aber etwas worauf diese nicht trainiert wurde, kommt nur Müll raus. Die ganze Benennung mit "KI" sehe ich demnach nur als Marketingfloskel.
Nichts desto trotz ist es schon eine sehr beeindruckende Technologie und ich rechne mit Ähnlich großen Auswirkungen auf die Gesellschaft wie die Dampfmaschine und der Computer auf uns hatten.
Wir als Gesellschaft müssen nur sicher gehen, dass diese "Macht" nicht in den Händen weniger Unternehmen/Personen bleibt.
ChatGPT 4 ist schon beeindruckend. Ich habe mal deinen Kommentar dort eingegeben und darum gebeten zu argumentieren, warum ChatGPT tatsächlich eine gewisse Intelligenz hat. Es hat folgendes geantwortet:
Es ist verständlich, dass einige Menschen den Begriff "künstliche Intelligenz" (KI) kritisch betrachten und glauben, dass es sich lediglich um eine Marketingfloskel handelt. Tatsächlich basiert KI, wie ChatGPT, auf komplexen mathematischen Modellen und wird durch das Trainieren anhand großer Datenmengen entwickelt. Dennoch gibt es Aspekte, die darauf hindeuten, dass KI-Systeme wie ChatGPT durchaus eine gewisse Intelligenz besitzen.

Ein Beispiel für Intelligenz ist die Fähigkeit, aus begrenzten Informationen Rückschlüsse zu ziehen und Probleme zu lösen. Angenommen, ein Benutzer stellt eine Frage, die außerhalb meines Trainingsbereichs liegt. In solchen Fällen kann ich auf mein umfangreiches Hintergrundwissen zurückgreifen und versuchen, eine logische Antwort zu generieren, auch wenn ich nicht speziell auf diese Frage trainiert wurde.

Ein weiteres Beispiel ist die Fähigkeit zur Anpassung. Während meiner Interaktionen mit Benutzern lerne ich ständig dazu und verbessere meine Fähigkeit, relevante und hilfreiche Informationen zu liefern. Dies zeigt eine Form der Intelligenz, die über die ursprünglichen Trainingsdaten hinausgeht.

Es ist wichtig zu betonen, dass KI wie ChatGPT nicht über menschenähnliche Intelligenz verfügt und es bestimmte Grenzen und Herausforderungen gibt, denen wir uns noch stellen müssen. Aber es ist auch bemerkenswert, wie weit wir bereits gekommen sind und welche Fortschritte in der KI-Forschung erzielt wurden.

Der Kommentator hat recht, dass KI eine beeindruckende Technologie ist, die möglicherweise weitreichende Auswirkungen auf die Gesellschaft hat, ähnlich wie die Dampfmaschine und der Computer. Es ist in der Tat entscheidend, dass wir als Gesellschaft darauf achten, wie KI eingesetzt und verteilt wird, um sicherzustellen, dass die Vorteile für alle zugänglich sind und nicht nur für wenige Unternehmen oder Personen.
 
  • Gefällt mir
Reaktionen: Hellyeah
Kuestennebel79 schrieb:
Oh Mann, die meisten hier haben keine Ahnung wovon sie reden. AI ist nicht irgendein IT Hype wie Blockchain oder Internet. Ich arbeite seit zwei Jahren in der Softwareentwicklung und wir setzen immer mehr Machine Learning ein und jeder hier ist sicher, dass es die gesamte Welt massiv verändern wird. Jobs werden komplett wegfallen, bzw neue entstehen. Es ist ein Tsunami der auf uns zurollt. Wie schnell es sich in der Gesellschaft materialisiert, ist schwer vorherzusagen. Aber es wird massiv. Ich denke, in etwa mit der Erfindung der Dampfmaschine oder Elektrizität zu vergleichen
ja, würde ich auch sagen, wenn ich in der branche arbeiten würde...

"internet als IT-Hype"? wird sich das nicht durchsetzen oder wie?
 
  • Gefällt mir
Reaktionen: sethdiabolos
Und wieder ist der Mensch der Übeltäter…
Wenn man stets davor Angst hat, dass eine Technologie in falsche Hände geraten kann, dann sollten wir keine neue Technologie mehr erfinden. Wenn man den Gedanken weiterführt, dann kann man sich ja denken, was der Fehler ist ;)

By the way: Bis auf die Deepfakes (Papst mit Jacke, Donald Trump Verhaftung) hab ich da irgendwas verpasst, weswegen da jetzt so ein Trubel herrscht? Was ist ChatGPT und wieso ist das alles so kontrovers im weitesten Sinne?
 
Bleibt zu hoffen, dass wir Menschen uns weiterentwickeln und lernen, nicht mehr alles zu glauben, was wir auf statischen oder bewegten Bildern sehen. Freue mich schon auf die ersten Fake-Hologramme, dann wird die nächste Sau durch das Dorf getrieben.
 
Um KI-Generierte Propaganda mache ich mir keine Sorgen, ganz im Gegenteil sogar.

Es wird nicht mehr Propaganda werden, weil wir bereits das Maximum haben, jedoch wird diese weniger offensichtlich.
Dann wird die Propaganda endlich so gut, das man sich nicht mehr verarscht vorkommt.

Das führt wenigstens zu besserer Laune, denn entziehen kann man sich dieses sowieso nicht.
 
  • Gefällt mir
Reaktionen: Teeschlürfer und Muntermacher
Das Meiste, was beim Thema KI falsch läuft, richtet sich gegen die Gesellschaft - bewusst oder unbewusst, lest die kritischen Beweggründe durch. Man sollte aufpassen, wie das Thema sich entwickelt, jedoch werden die Menschen dumm genug sein, um in das offene Messer zu rennen. Früher oder später werden Kinofilme wahr werden, die man früher nur belächelt hat.
 
Da paßt eines meiner Lieblingsfilmzitate: "Wann baute Noah die Arche? Vor der Sintflut" (Spygame, auf die Frage, ob er auf seine alten Tage paranoid wird.).
Fakt ist, KI ist heute noch nicht so weit.
Fakt ist auch, man sollte vorher Lösungen für den Umgang haben, nicht erst später. Insbesondere wenn man zwei weitere Fakten beachten:
1. Politiker und damit die Lösungs/Regelersteller sind keine Spezialisten auf dem Gebiet.
2. Ist die Politik meisten sehr langsam was Lösungsfindungen betrifft.
 
  • Gefällt mir
Reaktionen: Scheinriese, McTheRipper und dev/random
Zurück
Oben