News Künstliche Intelligenz: Ist der Hype begründet – oder sollten wir uns eher sorgen?

Piranha771 schrieb:
Zum Thema Propaganda: ich begrüße KIs in dieser Hinsicht sehr. Je mehr den Menschen klar wird, dass Informationen ohne Quellennachweise keinen Wert haben um beachtet zu werden um so schwieriger wird es tatsächlich Falschinformationen zu verbreiten.

Und wer bestimmt, was Falschinformationen sind? Die Ergebnisse beim Bing-Chat waren ernüchternd, was anderes als die "korrekte" Sichtweise bekommst du da nicht. Also eher ein weiteres Instrument für Propaganda...
 
  • Gefällt mir
Reaktionen: gesperrter_User
Ich nutze GitHub Copilot AddIn in VisualStudio regelmäßig für die Arbeit. Wenn man seinen Code gut dokumentiert und strukturiert vorgeht nimmt einem das System viel lästige Schreibarbeit ab und hilft dabei Fehler zu minimieren. Mein Hirn ausschalten darf ich aber noch nicht.
Trotzdem ist die Unterstützung jetzt schon locker 200-500 EUR im Monat wert. Kostet aber nur einen Bruchteil davon.
 
  • Gefällt mir
Reaktionen: Solavidos und Wintermute
Ich lasse mir von ChatGPT den Rahmen von Videos und Blogs schreiben. Dann fülle ich alles mit eigens recherchierter Qualität. Taugt ganz gut, allerdings muss man wissen, von was man spricht, weil die KIs auch noch ganz schön viel Falsches erzählen, vor allem wenn es spezifisch wird. Aber für Inspiration und einen groben Rahmen taugt das schon ganz gut.
 
  • Gefällt mir
Reaktionen: Solavidos und Bright0001
FOSS-Fox schrieb:
da die AI in keiner beratenden Funktion ist, natürlich der Nutzer selbst.
Für jede Behauptung gibt es eine gegensätzliche Behauptung im Internet.

sehe ich anders.

Ich habe die Bing Chat gpt Variante nach einem kompatiblen Griff für die canon c70 Videokamera gefragt und immer wieder hat gpt mir eine falsche Geschichte aufgetischt und mir einen völlig inkompatiblen Griff angeboten.

gpt hat sogar Texte "zitiert", die so nirgends existieren, also von gpt selbst generiert wurden. Wenn man gpt damit konfrontiert, dass die Antworten so nicht korrekt sind, erwidert gpt, dass die Antwort sehr wohl korrekt sei und man sich die Quellen ansehen solle, die allerdings nicht das enthalten, was gpt behauptet.

laut gpt ist der Griff für die canon c200 und c300 mit der c70 kompatibel. Das ist aber definitiv nicht so. gpt behauptet auch, die c70 hätte einen Rosettenanschluss für den griff, was auch schon definitiv falsch ist. Als Quelle gibt gpt einen fliestext auf der canon Homepage an, der so nicht existiert.

und auf Nachfrage bekräftigt gpt noch einmal die völlig falsche Antwort.

Für mich ist hier die haftungsfrage nicht so eindeutig. Man kann nicht Informationsaufbereitung als Service verkaufen und dann hinterher für sämtliche Folgen durch die Informationsaufbereitung aus der Haftung genommen werden, vorallem dann nicht, wenn mit so viel Nachdruck eine falsche narrative vertreten wird.
 
  • Gefällt mir
Reaktionen: mental.dIseASe und scryed
Zur Frage
"Sollte das Feld der Künstlichen Intelligenz stärker reguliert werden?"
die Antwort der Mehrheit ist typisch deutsch. Erstmal alles zu tode regulieren, obwohl Deutschland schon wieder komplett abgehängt wird und die Politik nicht mal Ahnung hat wovon Sie eigentlich spricht. Was wir hier in der EU uns kaputt regeln mit einem sinnlosen KI-Act, interessiert kein anderes Land Welches bei dieser Technik vorne dabei sein will.
 
  • Gefällt mir
Reaktionen: trialgod
Gravlens schrieb:
Meiner Meinung nach ist die KI alleine für sich keine Gefahr, es braucht immer noch Menschen um die (gekonnt) einsetzen zu können.

Schusswaffen alleine sind auch keine Gefahr. Ich denke, die wenigsten Pessimisten gehen davon aus, dass sich die K.I. irgendwann selbstständig macht und die Menschheit versklavt. Trotzdem, oder gerade weil sie von Menschen gelenkt wird, birgt sie erhebliche Gefahren.



xpgx1 schrieb:
Ganz ehrlich? Deepfakes und "neue formen der Propaganda und Desinformation" sind eines der Problembereiche, die mMn ganz weit unten auf der Liste stehen. Auch wenn visuelles erkennen dem ein oder anderen Schwerfällt, es ist nach wie vor Möglich das Ding zwischen den Ohren zu aktivieren und den Kontext zu beachten - das reicht in derzeit über 95% der Fälle schon aus um derartige Fälschungen als solche zu erkennen. Gut, ich verstehe das dies Ansichtssache ist, ich finde den Fokus auf diese Bereiche absolut falsch.

Ich glaube, du überschätzt dich da maßlos.

Wenn z.B. ein Oppositioneller verhaftet wird, weil man auf einem Video sieht, wie er irgendeine Straftat begeht, kannst du nicht einfach damit kommen: Aber der war doch immer so ein netter Typ, das muss ein Fake sein. Serienmörder waren nach außen hin auch oft nette Typen.

Es wird in Zukunft einfach immer schwieriger werden, wahr und falsch zu unterscheiden, wenn man noch nicht mal seinen Augen und Ohren trauen kann, wenn man nicht live dabei war. Hier tun sich einfach ganz neue Möglichkeiten der Meinungsmanipulation auf.

Und schon heute kann man den ÖR z.B. nicht wirklich als neutral ansehen. Ich erinnere nur daran, als die dunkle Wolken über einem Atomkraftwerk in einer Grafik platziert haben... Und wir leben hier noch in einem relativ freien Land (mit relativ hoher Pressefreiheit). Was wird erst in Gegenden der Welt abgehen, wo die Bevölkerung viel weniger Möglichkeiten hat, sich alternativ zu informieren? Deep Fakes (und die werden in Zukunft nicht mehr optisch als solche zu identifizieren sein) sind einfach ein sehr mächtiges Werkzeug für totalitäre Regime (und nicht nur für die).
 
  • Gefällt mir
Reaktionen: mental.dIseASe, Bright0001, Wintermute und eine weitere Person
Das Problem ist, das MENSCH immer versucht ist, etwas "besseres" zu machen. Am ende ist die KI tatsächlich besser als der Mensch. Schneller, fehlerfreier und im Wissensumfang um den xxxxxxxxxxxFaktor überlegen. Am gleichem Ende steht dann aber auch, das eben jene KI den Mensch überholt, und damit zum Alteisen macht.
Dem kommt noch hinzu, das Mensch, wie bei der Robotik eben auch, diesen zB militärisch einsetzt, und es längst Tötungsmachinen gibt, wie Drohnen oder bewaffnete Roboter die längst mit übermenschlicher Präzision zum Töten und Vernichten abgerichtet sind. Wenn eine KI zukünftig in Nanosekunden über Dein Leben entscheidet, ob militärisch, sozial oder wirtschaftlich, ist die Menschlichkeit in Zukunft Geschichte. Und genau davor sollte jeder Angst haben. Schon längst wird, ob man es Wahr haben will oder nicht, unser Leben von Ki und Algorithmen beeinflusst, und das bisher ausschließlich im Interesse anderer, Werbung, Filter, Geologs usw.

Und das meiste Interesse daran, haben eben wie immer Konzerne, Militär und Politik, und das überwiegend um Macht und Kontrolle auszubauen. Risiko - Nutzen Verhältnis sowie ethische Aspekte werden eben durch diese Institutionen gerne ignoriert.
Dazu gehört auch das "Human Ressources" mehr und mehr gegen "KI Ressources" ausgetauscht wird, was ebenfalls nicht gut für den Menschen ist.
 
  • Gefällt mir
Reaktionen: Trent
Mir machen eigentlich alle Punkt Sorgen, nicht nur 3. Aber ich habe jetzt nur 3 gewählt.

Von der Regierung erwarte/denke ich nur, dass sie sich die eigenen Taschen weiter voll macht und sonst von nichts eine Ahnung hat.
Von AFD bis Linke, egal wer.
 
Cool Master schrieb:
Nicht nur bei KI sondern vor allem in der Medizin. Lasst Wissenschaftler machen was sie wollen. Moral, Ethik und vor allem Religion hält den Fortschritt auf.

Sehr fragwürdig. Grünes Licht für Tierversuche bekommen Forscher nicht automatisch - die Versuche sind vor einer Ethikkommission zu rechtfertigen, und es muss fachlich begründet werden, warum weniger invasive Eingriffe nicht ausreichen. Nach einer Prüfung kommt dann die Genehmigung oder Ablehnung.

In der Ethikkommission sitzt auch nicht irgendjemand, sondern Menschen mit wissenschaftlicher Ausbildung, die auch vom Fachlichen her beurteilen, ob es hier nicht gelindere Mittel gäbe.


Moral und Ethik hindern uns auch daran, so etwas in Deutschland zu bauen:

1680437647349.png
 
  • Gefällt mir
Reaktionen: mental.dIseASe, edenjung, Wintermute und eine weitere Person
Ich mache mir schon sorgen.
Eins ist mal klar am ende kann jeder alles auf die KI schieben was auf der welt schiefgeht und das wird 100% noch kommen.Egal was.
 
Cr4y schrieb:
Diese Aussage passt auch zu natürlicher Intelligenz.
Ja. Aber das wissen wir und kennen wir und haben Mechanismen dafür etabliert.
Beim Computer ist die Sachlage eher anders. Siehe Beitrag #39
Zusätzlich sorgt ja Automatisierung dafür, das menschliche Arbeit wegrationalisiert wird. Wo Du vorher noch ein Kollegen hattest, der Dich auf Fehler aufmerksam gemacht hat ist Dein Kollege dann der Computer mit dem Du interagierst und wo es gleichzeitig Deine Aufgabe ist das Ergebnis zu verifizieren.
Dazu hatte ich mich ja hinreichend geäußert.
 
  • Gefällt mir
Reaktionen: warhog
Im künstlerischen und Bildungsumfeld macht man damit gerade gemischte Erfahrungen. Man kann durchaus in 10 Minuten einen Akt in einem Theaterstück schreiben lassen und mit etwas Nachbesserung als sein eigenes ausgeben. Das hat durchaus gute Aspekte.
Leider geben immer mehr Leute die KI-Texte als ihre eigenen aus, was bei Klausuren echt ein Problem ist. Bei den Fremdsprachen fällt es (noch) sofort auf, weil die Fehlercharakteristik eine andere ist. Aber bei deutschen Texten hängt es schlicht vom Bildungshintergrund ab. Je schlechter ein Schüler desto besser erkennt man seinen KI-Text. Das ist obendrein noch eine soziale Benachteiligung, wenn auch eine unter falschen Vorzeichen.

Für mich wäre wichtig, dass es dezentrale und quelloffene Programme dieser Art gibt, die man für seine privaten Zwecke einsetzen kann. Solange MS oder andere Konzerne ihre Hand drauf haben, wird man um Kontrolle nicht herumkommen.
 
  • Gefällt mir
Reaktionen: mental.dIseASe und Vindoriel
  • Gefällt mir
Reaktionen: simonvselton
Banned schrieb:
Ich denke, die wenigsten Pessimisten gehen davon aus, dass sich die K.I. irgendwann selbstständig macht und die Menschheit versklavt. Trotzdem, oder gerade weil sie von Menschen gelenkt wird, birgt sie erhebliche Gefahren.
Ja, das sehe ich genau so, das war eine indirekte Reaktion auf eine Antwortmöglichkeit in der Umfrage hier, ich wollte das nur noch mal betonen.^^
Entwicklung fortschrittlicher KIs, die sich gegen die Menschheit richten können
Und immerhin sind es hier 25% die aktuell dafür gestimmt, wobei man fairerweise sagen muss das bei der Antwort Interpretationsspielraum bleibt, wie gesagt, ich wollte das nur noch mal klarstellen.^^
 
  • Gefällt mir
Reaktionen: Banned
hamju63 schrieb:
Wenn sich tatsächlich eine KI bildet, dann ist man nämlich sofort beim Thema Menschenrechte.
Das!

Aber die Frage ist auch ab wann genau zieht man die Linie ab der man KI definiert?
Womit muss sich die KI messen können? Mit dem Ameisenhaufen? Süßwasserkrebs? Wüstenspringmaus? Bonobo? Mensch?

Wenn jemand versehentlich einen Frosch überfährt der zu seinem Laichplatz kommen wollte ist das zwar tragisch aber nicht weiter "schlimm". Ab wann beginnt es bei einer KI aber schlimm zu werden den Stecker zu ziehen?
Ergänzung ()

HansDetflefAndi schrieb:
Nach Freiheit rufen aber Verbote fordern. Für 43% kein Widerspruch...
Wie kommt man darauf das Regulierung gleichbedeutend mit Verbot ist?
Regulierung bedeutet vorallem einen Kompromiss zu finden, ein Verbot ist kein Kompromis.
 
  • Gefällt mir
Reaktionen: DannyA4, mental.dIseASe, Dama und 3 andere
Es gibt selten schwarz und weiß. Am meisten Sorgen machen mir Menschen - vor allem solche, die an solchen Entwicklungen direkt beteiligt sind - die überhaupt gar keine Bedenken haben. Weil dann anscheinend jegliche Folgenabschätzung außen vor bleibt.

Und Regulierung ist nicht gleich "Verbot". Sondern es geht eben um Folgenabschätzung, Grenzen setzen, Leitplanken ziehen. Und auch hier gibt es nicht allein schwarz und weiß. Mit geht dieses Verbotsframing aus der politischen Landschaft mittlerweile gehörig auf den Zeiger.
 
  • Gefällt mir
Reaktionen: mental.dIseASe
Hellyeah schrieb:
Zurzeit sehe ich noch nichts "intelligentes" bei ChatGPT und etc. Die Modelle werden trainiert und können anhand dessen wahrscheinlich gute Antworten geben. In etwa wie eine sehr komplizierte Mathematische Formel. Macht man nun aber etwas worauf diese nicht trainiert wurde, kommt nur Müll raus. Die ganze Benennung mit "KI" sehe ich demnach nur als Marketingfloskel.
Das ist eher Wortklauberei um die Definition des Begriffs "KI", da es kein wirkliche Definition von Intelligenz gibt. Würde man an Menschen so harte Bedingungen bezüglich Intelligenz wie an ChatGPT anlegen, wären auch sehr viele Menschen nicht intelligent.:)
Hellyeah schrieb:
Wir als Gesellschaft müssen nur sicher gehen, dass diese "Macht" nicht in den Händen weniger Unternehmen/Personen bleibt.
In der Tat ist hier die Gefahr, dass eine einzige Firma ChatGPT programmiert/trainiert, und alle anderen sind zu dummen Nutzern ohne Einflussmöglichkeiten degradiert. Erst recht, wenn man jetzt auf die Idee kommt, in Deutschland KI-Entwicklung einzuschränken.
andy_m4 schrieb:
Das Grundproblem bei sogenannter KI ist nach wie vor, das die Aussagen nicht verlässlich sind. Sie können stimmen und tun das auch häufig. Aber sie können auch falsch sein. Man ist also quasi gezwungen jedesmal zu verifizieren, ob die Aussagen stimmen.
Dass man Menschen auch nicht einfach glauben sollte, wird hingegen manchmal vergessen. Als ob das bei KIs jetzt ein neues Problem wäre.
Averomoe schrieb:
Ich hab bei der Arbeit eine kurzen Beitrag gehört über KI im Bereich von Verbraucherprozessen und wie künftig Verbraucher ihre Ansprüche gegen unternehmen ohne Risiko durchsetzen könnten. Heutzutage scheut man sich ja wegen den Kosten oft und das ist eine Form von Ungerechtigkeit, dass Leute mit weniger Geld eher weniger Zugang zum Recht haben. Kündigt braucht man aber keinen Anwalt mehr im normalen Prozess sondern eine KI entwirft Schriftsätze und Anträge und könnte sogar im Prozess live dabei sein und den Verbraucher sagen, was zu tun ist.
Oder auch Verträge entwerfen machen heute schon KIs und Vertragsgestaltung beschränkt sich irgendwann vlt auf Ausnahmesituationen, in denen noch ein Mensch gebraucht wird.
Sehe ich auch so. Überall wo Texte nur auf bestehendem Wissen erstellt werden, kann eine KI gut sein. Und das trifft so gut wie auf alle Texte aus Verwaltung, Recht, Behördenkram zu.
Averomoe schrieb:
Der Mensch vor 20 oder 30 Jahren hat sich also derbe verkalkuliert als er sich für seine Kinder die Zukunft in Mathematik, Kunst, Literatur, Medien, Recht, Programmierung, BWL oder Ingenieurswesen vorgestellt hat.
Sehe ich nicht ganz so. Weil vor allem in Programmierung und Ingenieurswesen sind meistens tiefe Kenntnisse von firmenspezifischen Systemen notwendig. Da bringt z.B. ChatGPT im Moment einfach gar nichts, weil es nichts davon kennt. Wenn es in Zukunft möglich wird, eine KI mit firmenspezifischen Daten zu trainieren, wird das vermutlich etwas anders aussehen.
Bright0001 schrieb:
Ich verstehe dieses häufig gebrachte Argument bis heute nicht: Warum geht man axiomatisch davon aus, dass ein Mensch die richtige bzw. eine gute Entscheidung treffen würde, wenn es ums Sterben geht? Wie sich ein durchschnittlicher Mensch in einer Gefahrensituation verhält ist völlig gewürfelt, während ein Computer zumindest die Zeit (und Ruhe) hat, Möglichkeiten durchzuspielen und Schaden zu minimieren.
Man hat an Computer/KIs/Geräte einfach viel höhere Anforderungen als an Menschen. Wenn ein Mensch einen Unfall baut, dann heißts auch nur "hat halt nicht aufgepasst, ist menschlich" oder "ist ein Idiot". So einfach kommt ein Computer sicher nicht davon. Das Gleiche bei ChatGPT. Wenn es Blödsinn redet, dann ists gleich unnütz. Wenn Menschen Unsinn reden, nimmt man es eben hin, man ist es ja so gewohnt.
 
  • Gefällt mir
Reaktionen: DannyA4, Bright0001 und Averomoe
Ich sehe diese Entwicklung mit gemischten Gefühlen. Ich denke bspw manchmal an Westworld und erkenne, dass Menschen sich für komplex und einzigartig halten, aber insgesamt einfach, dümmlich und affektgesteuert sind. Menschen sind ganz einfach gestrickte "dünne" Bücher. Dieses Verhalten wird bereits seit Jahrzehnten immer genauer analysiert, so dass Manipulationen leichter werden. Lange Zeit wurden Menschen von Menschen manipuliert. Dafür brauchen wir jetzt keine Menschen mehr, weil Maschinen sich von Emotionen nicht beeindrucken lassen. Menschen sollten aber nicht Angst vor den Maschinen haben sondern überlegen, was Unterschiede sind und was sie besser können.
 
  • Gefällt mir
Reaktionen: FLCL
Wir brauchen definitiv keinen Regulierungswahn von Leuten die KI nicht verstehen oder gleich an irgendwelche Filme denken.

Sollten wir das tun hängen und andere Länder ab, die technischen Fortschritt offen gegenüber stehen.
 
  • Gefällt mir
Reaktionen: 0ssi
Zurück
Oben