News Künstliche Intelligenz: Ist der Hype begründet – oder sollten wir uns eher sorgen?

hamju63 schrieb:
Als Informatiker mit 32 Jahren beruflicher Erfahrung bin ich der Meinung, dass hier zwar ständig von KI gefaselt wird, man aber noch meilenweit von tatsächlichen KIs entfernt ist.
Hellyeah schrieb:
Die ganze Benennung mit "KI" sehe ich demnach nur als Marketingfloskel.
Die Nomenklatur ist da doch irrelevant; Am Ende ist es ausreichend, wenn eine nicht-KI eine "echte" KI genügend gut simulieren kann. Über einen Turing-Test können die Bots die wir jetzt schon haben ja nur lachen.

hamju63 schrieb:
Ein Stichwort: Autonome Assistenzsysteme bei Autos - da entscheiden Programme und nicht mehr der oder die Fahrerin, wer bei einem Unfall stirbt.
Ich verstehe dieses häufig gebrachte Argument bis heute nicht: Warum geht man axiomatisch davon aus, dass ein Mensch die richtige bzw. eine gute Entscheidung treffen würde, wenn es ums Sterben geht? Wie sich ein durchschnittlicher Mensch in einer Gefahrensituation verhält ist völlig gewürfelt, während ein Computer zumindest die Zeit (und Ruhe) hat, Möglichkeiten durchzuspielen und Schaden zu minimieren.

andy_m4 schrieb:
Das Grundproblem bei sogenannter KI ist nach wie vor, das die Aussagen nicht verlässlich sind. Sie können stimmen und tun das auch häufig. Aber sie können auch falsch sein. Man ist also quasi gezwungen jedesmal zu verifizieren, ob die Aussagen stimmen.
Das gilt für Aussagen von Menschen aber genauso. Ob man nun stumpf Code von SO kopiert oder blind einer KI vertraut ändert nichts daran, dass das eigentliche Problem in dem Fall vor dem Bildschirm sitzt.

Piranha771 schrieb:
Interessant finde ich, dass hier in der Community erstmal die Gesetzeskeule geschwungen werden soll, noch bevor man überhaupt die Ramen kennt in denen die KI später eingesetzt werden.
HansDetflefAndi schrieb:
Nach Freiheit rufen aber Verbote fordern.
Es geht nicht um Verbote, sondern um Rahmenbedingungen. Wenn wir die nicht selbst schaffen, dann kommen die "ganz automatisch" aus Übersee. Und deren Regeln sind meist nicht gerade menschenfreundlich, zumindest aus europäischer Perspektive.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ZeusTheGod, robia100, Fipsi16 und 10 andere
Ich bin für die Deregulierung. Nicht nur bei KI sondern vor allem in der Medizin. Lasst Wissenschaftler machen was sie wollen. Moral, Ethik und vor allem Religion hält den Fortschritt auf. Gerade KI kann in der Medizin extrem hilfreich sein.
 
  • Gefällt mir
Reaktionen: robia100, Issou, Phoenix_29021 und 5 andere
Bright0001 schrieb:
Wie sich ein durchschnittlicher Mensch in einer Gefahrensituation verhält ist völlig gewürfelt, während ein Computer zumindest die Zeit (und Ruhe) hat, Möglichkeiten durchzuspielen und Schaden zu minimieren.

Ja, aber dann darf auf keinen Fall die Person, welche das Fahrzeug gelenkt hat, bei einem Unfall mit Todesfolge verantwortlich gemacht werden, wenn das Assistenzsystem die Entscheidung getroffen hat.
Das ist es, was ich meine.
 
  • Gefällt mir
Reaktionen: Aljonator, NMA, Pisaro und 4 andere
andy_m4 schrieb:
Man ist also quasi gezwungen jedesmal zu verifizieren, ob die Aussagen stimmen.
Das schränkt die Nützlichkeit dann doch ziemlich ein.
Dann sind meine Kollegen und ich alle auch sehr eingeschränkt in unserer Nützlichkeit. Ohne ein Review mindetens eines anderen geht nichts auf Main.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, Maviapril2, Solavidos und eine weitere Person
"Wer nicht mit der Zeit geht, geht mit der Zeit."

"Stillstand ist Rückschritt."

Ich glaube bei ChatGPT nicht an einen Hype.
Zum einen nutze ich es bereits produktiv und es erspart mir eine Menge Arbeit und zum anderen sieht man in den Medien, wie viel Angst sich von bestimmten Berufsgruppen um ihre Kompetenz entwickelt.
Einige Berufe und Dienstleistungen werden durch diese Entwicklung in einigen Jahren obsolet, wenn man die Zeit mit Furcht und Forderungen von Verboten verschwendet, anstatt die Berufe weiterzuentwickeln und mit der Zeit zu gehen.

Auch wird die Überlegenheit von ChatGPT oder "KI" durch Unternehmen, Fachleuten und Regierungen nur bestätigt, wenn man es regulieren oder verbieten möchte.
Dies bekräftigt umso mehr, dass es sich hier um eine revolutionäre Entwicklung handelt.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Teeschlürfer, HansDetflefAndi und dualcore_nooby
hamju63 schrieb:
Ja, aber dann darf auf keinen Fall die Person, welche das Fahrzeug gelenkt hat, bei einem Unfall mit Todesfolge verantwortlich gemacht werden, wenn das Assistenzsystem die Entscheidung getroffen hat.

Wenn die Person zu langsam war und das Assistenzsystem überhaupt nur assistiert weil keine Eingabe auf die Gefahrenlage erfolgte?
Natürlich ist er dann mit schuld, wenn nicht gar allein. :freak:
Klar, im autonomen Modus, wo das Fahrzeug wirklich selbsttätig fährt muss da die Rechtslage entsprechend klarer sein, wenn du das ausdrücken wolltest bin ich bei dir.

KI hin oder her, allein was bisher passiert ist hat die Welt schon extrem verändert. Man schaue nur mal grob über Tradingbots, Creative-Engineering oder Arts, die so mit gewissen, präzisen Eingaben bereits mehrere 1000 Menschen quasi über Nacht aus dem Versuch zu einem Millionär machten. Für den Angestellten der keinen python code mehr suchen muss, sondern einfach das Problem hinschmeißt taugt das sicherlich auch.

Eines darf man nie vergessen: KI ist nicht für sich da, sondern für uns. Es ist dann wie mit allem: Man muss es eben mit Vernunft nutzen. Ich behaupte gar man darf ab nun anfangen Lehrer zu entlassen [oder umzuschulen], Präsenzunterricht war mal.

Wozu? ... Das kann KI hundertmal besser als irgendwelche emotional überlasteten Angestellten mit Lehraufträgen, die Ihnen selbst widerstreben und dann sogar falsch bewerten, weil Sie selbst die Vokabel oder Rechenwege nicht raffen.
 
Zuletzt bearbeitet:
Die Entwicklung ist äußerst besorgniserregend. Was passiert, wenn fragwürdie Personen ihre eigenen Modelle erstellen und diese dann trainieren um Geld zu verdienen, Schadprogramme zu erstellen oder Schwachstellen (wo auch immer) zu finden? Desinformation, Betrug, Irreführung und Manipulation leicht gemacht.

Wir sind ja gerade erst am Anfang der Geschichte. Damit kann jeder Mensch, auch ohne besonderes Vorwissen, sehr schnell zur Gefahr werden und ungeahnten Schaden anrichten.

Was passiert, wenn eine KI-Modell mit Unfällen und Katastrophen gefüttert wird und jemand fragt: Wo kann der größte Schaden erzeugt werden?

Die Menschheit war schon immer gut darin, neue Technologien in Waffen zu verwandeln.
 
  • Gefällt mir
Reaktionen: DJServs, mental.dIseASe, fipsi1 und 5 andere
pseudopseudonym schrieb:
Dann sind meine Kollegen und ich alle auch sehr eingeschränkt in unserer Nützlichkeit. Ohne ein Review mindetens eines anderen geht nichts auf Main.
Ja. Im Prinzip schon. :-)

Das Problem ist ein anderes.
Wegen dem "ob die Aussagen stimmen" könnte man einwenden, das auch herkömmliche Programme Bugs haben. Ja. Haben sie.
Bei KI kommt aber noch ne zusätzliche Ebene rein. Vorher konnte nur die Software/Hardware Bugs haben. Jetzt kann auch noch das Modell Bugs haben. Ein zusätzliches Problem. Wenn Du den Bug gefunden hast, kannst Du ihn fixen und dann ist er weg. Eine Modell/neuroanles Netz kannst Du nur nachtrainieren. Ob der Bug weg ist, weißt Du dann aber immer noch nicht (außer für die dokumentierten Fälle, wo Du es exakt nachprüfen kannst). Außerdem kannst Du Dir mit jedem Training neue (unbekannte) Fehler mit reinziehen.

Der zweite Punkt ist: Nicht nur das man die Ausgaben verifizieren muss. Umso häufiger man die Werkzeuge verwendet, umso mehr verlernt man ja die Fähigkeit überhaupt Fehler zu erkennen. Das ist so ein bisschen wie mit dem Rechnen. Das übernimmt der Computer und daher haben die Menschen zunehmend die Fähigkeit verloren überhaupt zu blicken, ob ein Ergebnis plausibel ist oder nicht (lässt sich immer wieder schön im Alltag beobachten).
 
  • Gefällt mir
Reaktionen: mental.dIseASe und Cruentatus
@Averomoe Naja, wahrscheinlich wären wir ohne die Forcierung auf geistige Tätigkeiten aber technisch einfach lange nicht soweit. Insofern erstmal gucken, was diese KI denn wirklich kann. Was ich bisher gesehen habe lässt Gutes hoffen und zugleich Schlechtes fürchten.
 
Ich sehe im wesentlichen 2 große Konfliktfelder.
Arbeit
In vielen Arbeitsbereichen schafft man nichts neues. Oft muss man auch nicht kreativ sein. Ich denk, zur Jobbeschreibung bei der Bewilligung von z.B.: Kindergeld ist kreativität gerade nicht gefragt. Von dieser "interlektuellen" arbeit kann ein Großteil ergänzt und manches vielleicht auch ersetzt werden. Unser aktuelles Wirtschaftssystem basiert aber darauf, zum Arbeiten "gezwungen" zu sein, um Geld zum Leben zu haben. Dinge, die mir Spaß machen, kann ich ja auch ohne Geld und ohne KI machen, selbst wenn sie eine KI besser könnte. Aber wo und wie kann ich mein Leben finanzieren? Einen schnellen gesteuerten Umbau der Gesellschaft halte ich für unrealistisch. Einen schnellen ungesteuerten für unkalkulierbar und mit viel menschlichem Leid verbunden.

Selbstbild Mensch
Wir sind dabei, die "Menschmaschiene" zu bauen. Die KIs übernehmen (oder imitieren) Eigenschaften, die wir für originär menschlich hielten. Dies wird in meiner Sicht eine neue große Kränkung der Menschheit werden. Und mit Känkungen kommen Menschen meist nicht wirklich gut klar....
 
  • Gefällt mir
Reaktionen: DJServs, mental.dIseASe, trialgod und 4 andere
"Politische Rahmenbedingungen und Gesetze passen sich nicht schnell genug an"

Bitte nicht jedes Tech Thema wo die Regierung bisher Hand anlegt ist danach völlig verkrüppelt.
Siehe Italien mit AI VERBOTEN.
 
  • Gefällt mir
Reaktionen: Grinder
Scheinriese schrieb:
Desinformation, Betrug, Irreführung und Manipulation leicht gemacht.
Naja. Da braucht es halt Medienkompetenz. Denn das Problem haben wir ja schon jetzt. Bei neuen Sachen ist es natürlich immer erst so, das sich die Leute daran gewöhnen müssen und erst gar nicht verstehen, wo die Problemstellen sind.
 
  • Gefällt mir
Reaktionen: MalWiederIch
Cool Master schrieb:
Lasst Wissenschaftler machen was sie wollen. Moral, Ethik und vor allem Religion hält den Fortschritt auf.
"Heute untersuchen wir, wie viel Folter ein Mensch aushalten kann, bevor er psychischen Schaden nimmt. Dafür haben wir einen frischen Satz Waisenkinder bekommen, nächste Woche kommt das nächste Dutzend."

Aber hey, vielleicht führt das zu 🎀 𝐹☯𝑅𝒯𝒮𝒞𝐻𝑅𝐼𝒯𝒯 🎀.

hamju63 schrieb:
Ja, aber dann darf auf keinen Fall die Person, welche das Fahrzeug gelenkt hat, bei einem Unfall mit Todesfolge verantwortlich gemacht werden, wenn das Assistenzsystem die Entscheidung getroffen hat.
Das ist es, was ich meine.
Die Gefahrenlage ist ja gegeben und nicht vom System verursacht. Die Schuldfrage besteht darin warum es die Gefahrenlage gab, nicht auf die Reaktion. Wenn ich mich als Mensch zwischen Kind- oder Oma-Überfahren entscheiden muss, am Ende aber beide treffe, weil ich in der Situation überfordert war, trage ich ja auch nicht automatisch Schuld, weil ich suboptimal reagiert hab.
 
  • Gefällt mir
Reaktionen: Fipsi16, CMDCake, Maviapril2 und 3 andere
Mir macht Angst, dass man irgendwann nicht mehr selbst beurteilen können wird, ob z.B. der Präsident etc. von Land XY das wirklich gesagt hat oder ob es ein sehr gutes Deep Fake ist (mittlerweile ist die Technologie noch nicht so weit, dass man es nicht mehr feststellen könnte, aber das wird kommen).
Das ist dann einerseits fatal im Hinblick auf Propaganda und Falschinformation und andererseits im Hinblick auf die Persönlichkeitsrechte (Hey, hast du nicht in dem Video ... gemacht/gesagt? Nein, das war ich nicht! Glaube ich nicht!).

Letztendlich wird es darauf hinauslaufen müssen, dass einem eine bestimmte Stelle sagt, was stimmt oder nicht bzw. ein Label für die Echtheit von audio-visuellen Medien verteilt. Alleine das ist absolut gruselig.


PS: Wenn's hart auf hart kommt, ziehe ich in den Wald und leben von der Beute aus abgeschossenen Amazon-Dronen. :utrocket: Das ist meine Vorstellung eines modernen Robin Hood.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: chabba, DJServs, Najasumi und 4 andere
Ich finde den Hype tatsächlich wenig verständlich, da es ja nicht so ist als hätten wir Algorithmen in dieser Form bisher für unmöglich gehalten und dann ist mal irgendwer auf seiner Tastatur eingeschlafen und tada, war ChatGPT da.

Seit Jahrzehnten werden wir in den Medien mit KIs konfrontiert und genau so lange arbeitet die Industrie darauf hin. Zugänglichkeit und Funktionsumfang machen aktuell zwar große Fortschritte, aber von einer echten KI sind wir noch Welten entfernt. Und mittelfristig sehe ich da trotz des aktuellen Fortschritts auch nur sehr beschränkte Einsatzmöglichkeiten, mehr als stupide Klickarbeiten wegautomatisieren ist da nicht, alles andere erfordert dann doch wieder die Kontrolle durch Menschen und u.U. auch individuell angepasste Modelle.
 
Ich habe neulich mal die Bing chatgpt Variante getestet und da haben sich bei mir gemischte Gefühlen eingestellt.

Das Microsoft Ding ist so zensiert und eingeschränkt, dass man da wirklich nur ne erweiterte Suchmaschine und einen Textgenerator vor sich hat.

was mir hier enorm negativ aufgefallen ist, dass es sehr verlockend ist, sich auf die Informationen zu verlassen, aber man bekommt Infos schon vorgefiltert - bspw north stream 2 Sprengung. Da bekommt man zuerst die "westliche Variante" aufgetischt, in der die USA fein raus ist. Auf Nachfrage bekommt man noch andere Varianten, aber sowas ist natürlich Gift.

schlimmer wurde es dann bei einer technisch sehr speziellen Frage, die gpt mit enormem Selbstvertrauen immer wieder falsch beantwortet hat und auch die zitierten Quellen nicht das enthalten haben, was gpt behauptet hat, obwohl es hier nur um eine technische Kompatibilität ging. Wer haftet für sowas, wenn durch so eine fehlerhafte AI Beratung Schäden entstehen?

noch schlimmer ist aber die Meinungsführung und Informations/interpretationshoheit durch private Unternehmen. Das kann sich zu einer absoluten Informationskatastrophe weiterentwickeln.

auf der anderen Seite ist die Google Suche mittlerweile so unbrauchbar und mit Werbung durchsetzt, dass Chat gpt hier schneller bessere Ergebnisse liefert, sofern überhaupt korrekt.

eigentlich ein faszinierendes Thema, aber wir steuern hier durch den aktuellen turbokapitalismus direkt die übelste dystopie an.

solange die Gesellschaft so primitiv ist, kann sich die KI Geschichte langfristig nur enorm negativ entwickeln.
 
  • Gefällt mir
Reaktionen: DJServs, der|pate, phillow und 5 andere
Das ganze Thema ist sehr faszinierend und ich habe ChatGPT auch schon Mal bei beruflichen Sachen befragt (IT-Themen) und die Antworten waren leicht verständlich und haben mich auf Anhieb weitergebracht.

Dennoch bin ich hier ein wenig skeptisch, weil ich denke zum einen sind wir von tatsächlicher Intelligenz noch ein gutes Stück weg. Die Modelle werden trainiert, sind aber, wen überhaupt, nur begrenzt in der Lage autodidaktisch zu agieren.

Aber auch große Gefahren sehe ich hier. Wir verlassen uns immer mehr darauf, die Macht der Techkonzerne wird dadurch nur noch größer. Inwiefern hier auch moralisch vertretbar gehandelt wird, wissen wir als Außenstehende nicht. Hier bestehen unbegrenzte Möglichkeiten zum Missbrauch.
Politische Regulierungen halte ich gleichzeitig aber für nicht zielführend, weil ich einfach denke hier fehlt komplett die Kompetenz und die Agilität um auf so eine komplexe und schnelle Entwicklung adäquat zu reagieren. Außerdem enden wir dann wieder mit nationalen Regelungen, was im WORLD(!) Wide Web einfach Blödsinn ist.
Hier müssten sich die Konzerne selbst regulieren, was nicht passieren wird. Auch eine Art Ethikrat o.Ä. würde doch nur ausgehöhlt, weil das gegen finanzielle Interessen der Firmen verstoßen könnte.

Und so sehr sich das nach Aluhut anhört, aber ich denke auch, dass wir uns Sorgen darum machen müssen, wenn KIs irgendwann selbstständig werden und selbstständig lernen, etc.. In dem Fall würde es zwangsläufig zu Konflikten kommen und eine KI wird irgendwann einfach der Menschheit überlegen sein, sei es intellektuell oder auch einfach, was Reaktionszeiten etc. angeht. Und eine richtige KI, die entsprechende Fähigkeiten besitzt wird schnell merken wie einfach Menschen zu manipulieren sind etc.. Sobald die sog. Singularität erreicht ist, sehe ich tatsächlich große Gefahren für die Freiheit oder gar den Fortbestand der Menschheit.
 
  • Gefällt mir
Reaktionen: CMDCake, Xedos99 und Vindoriel
ChatGPT ist für mich als kleines Helferlein bei der Arbeit noch ein zweischneidiges Schwert.

Auf der einen Seite bekommt man hin und wieder echt großartige Antworten und Lösungen, aber in 95% der Fälle merkt man dann doch, dass das noch ganz schön in den Kinderschuhen steckt.
In jedem Fall heißt das: Jede Antwort muss mehrfach gelesen, analysiert und ausprobiert werden, weil sich fast immer Fehler einschleichen, und manchmal gibt's auch schon Totalausfälle bei den einfachsten Anfragen.

Ich kann ChatGPT produktiv benutzen, und bekomme ab und zu extrem gute Ergebnisse - manchmal sogar in kurzer Zeit. Allerdings geht in der Regel das 10-fache dieser Zeit dann auch gleich wieder drauf, weil man sich überhaupt nicht auf die Qualität der Antworten verlassen kann. Die kognitive Anstrengung wird also auch nicht weniger, evtl. sogar mehr.

Zeit spare ich damit definitiv nicht, aber ChatGPT hat auf jeden Fall Dinge gefunden, um die Qualität meines Arbeitsoutputs zu verbessern. Steht aber natürlich aktuell in keinem Verhältnis zur dafür aufgewendeten Zeit.

Mein Fazit bisher: Das Potenzial ist da, aber nutzen kann man es (noch) nicht zufriedenstellend.
 
H3llF15H schrieb:
Nachdem ich gesehen habe, dass die KI ganze Mailverläufe analysieren und nach diversen Wünschen zusammenfassen, Infos selektieren und weiß der Geier alles kann ist der Spaß für mich vorbei.

Ein Arbeitskollege nutzt die Technologie bereits um ausführliche Antworten in Mails zu verfassen.

Ist aber aufgefallen, weil seine ganzen Rechtschreibfehler fehlten…

Hört sich so an, als hätte er das nicht sollen?! Sofern der Datenschutz gewahrt bleibt, sprich die Inhaltsanalyse lokal läuft, würde ich mich über Mitarbeiter und Kollegen mit solchem Effizienzdrang nur freuen.

Das ganze Thema wird unsere Produktivität und damit unseren Wohlstand massiv ankurbeln. Bleibt nur dafür zu sorgen, dass dies bei allen und nicht nur wenigen ankommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CMDCake und fullnewb
Zurück
Oben