News GPT-4o-Nachfolger: Bis zu OpenAIs nächster KI-Generation kann es noch 1,5 Jahre dauern

@eazen
Aha... und wer ist der "Kollege" und was zum Geier schreibt er? Und warum?

1719234332982.png
 
eazen schrieb:
Für alle die noch glauben AI in der aktuellen Form ist gut, das hier mal in Ruhe lesen: https://x.com/chrisalvino/status/1804823161076080887?s=46&t=pt3wvEkoiu-gWzcFEfOvqg

Leider viel Bullshit und er widerspricht sich auch in einigen Punkten. Am liebsten hätte er wohl die aktuelle Welt mit massenhafter Ausbeutung weiterhin. Angst vor Fortschritt und Veränderung ist ja nichts Neues. Am Ende muss man mit machen oder fällt zurück.

Als erstes kritisiert er, dass viele Dinge "geklaut" sind. Ja und das ist gut so! Man sollte sogar noch weiter gehen und öffentlich verfügbaren Text allgemein für AI-Training erlauben. Sein Ansatz sind Verbote und das würde nur bedeuten, dass sich der Reichtum bei den Big Playern wie Microsoft, Google, Apple und Co weiterhin manifestiert. Diese können sich das nämlich leisten. Oder noch schlimmer, man fällt hinter Staaten wie China zurück wo das alles überhaupt kein Problem ist.

Dann sagt er in Punkt 4) dass AI einfach schlecht ist und häufig nicht gut genug für einen Release ist, aber in Punkt 5) prangert er an, dass AI bereits viele Jobs ersetzt hat und noch sehr viele Folgen werden. Was denn nun? Ist AI schlecht oder kann AI bereits Jobs ersetzen? Und warum haben die Leute immer Angst davor, wenn Jobs wegfallen? Wenn eine AI das besser und effizienter macht, dann ist die Wertschöpfung höher und damit der Reichtum der Menschheit.

In Punkt 8) sagt er das User kein AI wollen und natürlich wollen viele kein AI, weil sie Angst haben und es nicht verstehen. Generell haben Leute Angst vor neuen Dingen. Am Anfang wollten viele keinen PC am Arbeitsplatz. Ich kann sagen das AI z.B. Adobe Programme besser gemacht hat. So viele geile nützliche Funktionen, die es ohne AI nicht gäbe. Vielleicht versteht er sie einfach nur nicht.

Am Ende wird Entscheidend sein wie wir AI einsetzen. Nehmen wir an, AI kann alles besser und es gäbe noch 0 Jobs für Menschen, dann ist das grundsätzlich GUT und nicht schlecht. Keiner braucht unsinnige Jobs als Beschäftigungstherapie. Wenn AI für die Wertschöpfung da ist, dann muss daraus einfach eine Umverteilung stattfinden. Das ist der Knackpunkt. Danach werden sich die Menschen anpassen und sich Aufgaben suchen, die sie erfüllen. Sei es Sport, Familie, Party, Meditation oder sonst was. Es gibt einfach tausende von Sachen die mehr Spaß machen als stupide Arbeit wie sie heute ist.

Das muss man als Chance betrachten!
 
  • Gefällt mir
Reaktionen: Jlagreen und Cool Master
Vorne weg: Ich zähle mich weder zur "es wird uns alle umbringen"-Fraktion noch zur" Taugt nix, ist nur ein Hype"-Fraktion (wenngleich ich am Schluss noch mal kurz was dazu sagen werde), aber erlaube mir dennoch differenziert/kritisch darauf zu gucken.

Ayo34 schrieb:
Am Ende muss man mit machen oder fällt zurück.
Sowas sehe ich generell kritisch. Weil das hat was von alternativlos. Und spätestens dann sollten wir uns Sorgen machen: Wenn wir in einer Welt sind, wo der Weg vorgezeichnet ist und ohne Handlungsoptionen.

Ayo34 schrieb:
dass sich der Reichtum bei den Big Playern wie Microsoft, Google, Apple und Co weiterhin manifestiert.
Das Problem hast Du ja auch jetzt schon. Und das Problem das Wissen nicht so ohne Weiteres teilbar ist, ist auch kein Technisches, sondern das wir sowas wie Intellectual Property haben. Da hilft Dir auch keine KI. Da hilft nur das Konzept des Intellectual Property zu verändern/abzuschaffen.

Außerdem zeichnet sich ab, das sich die Abhängigkeit von solchen großen Playern ohnehin eher vergrößert. Wir haben das ja schon mal durch. Nämlich bei Open-Source. Damals war die Utopie: Wir befreien uns von den fiesen Softwareherstellern und können mit Software machen, was wir wollen und sind nicht abhängig.
Das Ergebnis ist Cloud-Computing einhergehend mit größerer Abhängigkeit, wo wir weder die Kontrolle über die Software noch über unsere eigenen Daten haben.

Das wird durch KI noch weiter voran getrieben. Das würdest Du nur dann wegkriegen, wenn jeder seine private KI hätte. Und ja. Das gibt es ja auch mit Tools wie GPT4all etc. Aber die Möglichkeiten sind doch begrenzt und letztlich hängen doch alle an den entsprechenden Internetdiensten.

Ayo34 schrieb:
Danach werden sich die Menschen anpassen und sich Aufgaben suchen, die sie erfüllen.
Da stecken gleich mehrere Sachen drin.
Also zu nächst mal, ja die Utopie klingt nett: Die Automatisierung befreit uns von der Arbeit und wir können den ganzen Tag in der Sonne liegen.
Wie sich das psychisch alles auswirkt, wissen wir nicht. Arbeit kann ja auch sinnstiftend sein (nicht jede Arbeit wird als stupide empfunden) und wenn das wegfällt, ist halt die Frage, ob jeder damit umgehen kann.

Außerdem ist sowas wie Arbeit oder Schule auch eine Form sozialer Kontakte. Wenn die Schüler aber nur noch mit ihrem KI-Privatlehrer abhängen und sonst ihre sozialen Kontakte über "Soziale Netzwerke" pflegen, dann weiß ich nicht, wohin das führt. Möglicherweise ist das alles in Ordnung. Aber wir wissen es nicht. Es ist ein groß angelegtes soziales Experiment.

Mal davon abgesehen ist in der Sonne liegen vielleicht die ersten Wochen ganz nett, aber irgendwann verliert sich auch die Bedeutung. Die Leute haben heute Spaß an Urlaub, weil es ein echtes Highlight gegenüber dem normalen Alltag darstellt. Wenn Urlaub immer ist, dann geht die Bedeutung dessen verloren, sondern ist Normalität. Man weiß es nicht mehr zu schätzen. Ein Effekt, den wir ja auch bei Konsumgüter beobachten. Was früher mal was besonderes war gibt uns heute in Zeiten ständiger Verfügbarkeit nix mehr.

Der nächste Punkt ist unser Wirtschaftssystem. Das ist darauf angelegt, das Menschen arbeiten gehen. Fällt das weg, so wird dies umgestaltet werden müssen. Das wird ein tiefgreifender Einschnitt. Und wir sehen ja jetzt schon, wie viel Probleme/Widerstände es bei relativ kleinen Reformschritten gibt. Bei einem Umbruch, was quasi alles auf den Kopf stellt, da möchte ich nicht wissen was dann los ist.

Dann haben wir noch so etwas wie direkte Nebeneffekte. Der Umweltaspekt. Wir beanspruchen jetzt schon viel zu viele Ressourcen. Der weitere technische Ausbau wird das eher noch beschleunigen als abmildern. Auch für solche Fragen müssen Antworten gefunden werden. Und zwar jenseits von "Wir hoffen, das uns die KI hilft".

Wie gesagt: Ich will das gar nicht alles negativ sehen. Aber ich sehe jetzt auch kein Zwangläufiges smooth sliding to great future
Insofern sollte man da vielleicht zusehen, das man ein gesundes Mittelmaß findet zwischen Euphorie und Pessimismus findet.

Noch ein paar Sätze zu den Dingen die ich eingangs erwähnte.

Zu dem "es wird uns alle umbringen":

Also generell kann man ja eine positive Haltung haben a-la "jegliche technologische Weiterentwicklung gereicht uns im Großen und Ganzen zum Vorteil".
Das haut sicherlich auch für die meisten Dinge hin. Das ist aber nicht notwendigerweise so. Man denke nur mal an die Entdeckung der Kernspaltung und der daraus folgenden Atombombe. Das hat uns mehrmals an den Rand des Untergangs gebracht und wir sind nur mit Glück irgendwie da durch gekommen (und die Gefahr besteht ja sogar noch fort).

Ich will das an der Stelle für KI gar nicht bewerten. Wollte nur darauf hinweisen, das technologische Entwicklung nicht immer gut gehen muss.

Was das Hype-Thema angeht: Gerade KI hat da gewisse Erfahrungen, was Hypes angeht. Wenn man in die Historie guckt, dann gabs da öfter mal eine Diskrepanz zwischen Erwartung und Realität. Ich wäre also vorsichtig damit davon auszugehen, das die Entwicklung einfach linear fortschreibt und das wir in ein paar Jahren so weit sind.
Das kann im Zweifel auch deutlich länger dauern. Stell Dich vorsichtshalber darauf ein, bevor Du voreilig Deinen Arbeitsplatz kündigst. ;-)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vigilant
@andy_m4
Viele gute Punkte.

Allgemein zeigt das alles erst mal, dass ganz viele Fragen noch offen sind und man sich unbedingt damit beschäftigen muss.

Das ist aber nicht notwendigerweise so. Man denke nur mal an die Entdeckung der Kernspaltung und der daraus folgenden Atombombe. Das hat uns mehrmals an den Rand des Untergangs gebracht...

Gleichzeitig hat die Atombombe aber auch viele Kriege zwischen großen Staaten verhindert, einfach weil man nicht mehr gewinnen kann. Und ja, es wäre positiv, wenn es gar keine Atombombe gäbe. Noch gefährlicher wäre es aber, wenn nur ein Staat die Atombombe hätte und damit quasi Weltherrscher wäre. Nazi-Deutschland mit der Atombombe oder jetzt Russland, alleine? KI muss man ebenso entwickeln. China wird es garantiert tun!


Sowas sehe ich generell kritisch. Weil das hat was von alternativlos.

Genau das ist es eben nicht, wenn man sich jetzt damit beschäftigt. KI wird kommen und das ist in der Tat alternativlos. Umso wichtiger den richtigen Umgang mit KI zu finden, der ist eben nicht alternativlos.


Also zu nächst mal, ja die Utopie klingt nett: Die Automatisierung befreit uns von der Arbeit und wir können den ganzen Tag in der Sonne liegen. Wie sich das psychisch alles auswirkt, wissen wir nicht. Arbeit kann ja auch sinnstiftend sein (nicht jede Arbeit wird als stupide empfunden) und wenn das wegfällt, ist halt die Frage, ob jeder damit umgehen kann.

Arbeit kann sinnstiftend sein, aber auch hier ist die Umsetzung doch wieder wichtig. Wenn heute ein Altenpfleger 5min Bürokratie machen muss, 4min hart arbeitet und 1min Zeit hat für ein Gespräch pro Bewohner in einem Altenheim, dann ist das zwar sinnstiftend und wichtig, aber doch lange nicht das Optimum für Arbeiter und Bewohner. Was wäre wenn die Bürokratie automatisiert abläuft und ein KI-Roboter die "Scheiß-Arbeit" erledigt, welche verdammt anstrengend sein kann und ein Grund ist, warum so viele früher mit der Arbeit aufhören oder den Job wechseln. Im Gegensatz könnte der Altenpfleger sich dann 10min mit dem Patient beschäftigen, reden, spazieren gehen usw. Wäre das nicht sinnstiftender und gleichzeitig viel würdevoller für den Bewohner?


Außerdem ist sowas wie Arbeit oder Schule auch eine Form sozialer Kontakte. Wenn die Schüler aber nur noch mit ihrem KI-Privatlehrer abhängen und sonst ihre sozialen Kontakte über "Soziale Netzwerke" pflegen, dann weiß ich nicht, wohin das führt. Möglicherweise ist das alles in Ordnung. Aber wir wissen es nicht. Es ist ein groß angelegtes soziales Experiment.

Soziale Kontakte sind super wichtig und für ein langes Leben notwendig. Ich möchte auch nicht die Klassen auflösen. Aber vielleicht halbiert man die Zeit und arbeitet dann z.B. in 4er Gruppen zusammen mit einem KI-Privatlehrer weiter. Und wenn man irgendwo nicht mitgekommen ist, dann kann man nach der Schule eben gezielt Lücken schließen. Völlig egal ob die Eltern reich sind, intelligent genug oder Zeit haben. Wir reden ja immer von Chancengleichheit, nur passieren tut nichts. Auch lernt der eine vielleicht viel besser interaktiv durch ein PC-Game mit Belohnungen. Ein anderer braucht wieder etwas anderes. Das ist heute eben so nicht möglich.


Mal davon abgesehen ist in der Sonne liegen vielleicht die ersten Wochen ganz nett, aber irgendwann verliert sich auch die Bedeutung.

Natürlich wird das eine Herausforderung. Vor ein paar hundert Jahren hat man noch durchgängig für den König usw. gearbeitet und ist dann früh gestorben. Heute arbeiten wir noch 30-40Std pro Woche und können unsere Freizeit sehr gut füllen. Wäre das bei 20Std pro Woche anders oder wenn wir 60 Tage anstelle von 30 Tagen Urlaub hätten?

Und wir müssen uns ja auch die Realität anschauen wie Jobs heute aussehen. Gibt es jemanden der 8Std gerne putzt? Das Job ist heute wichtig. Aber sinnstiftend? Bürojobs wo viele Sachen monoton wiederholt werden und in einer Depression enden? Lästige Programmierarbeit über Jahre wo eher der kreative Aspekt vielleicht Spaß macht?

Ganz ehrlich? Mehr Zeit für und mit der Familie. Mehr Zeit für den Verein. Mehr Zeit für Sport. Mehr Zeit für PC Games... sich zusätzlich in Vereinen einbringen. Im Altenheim einfach wöchentlich Gesellschaftsspiele mit älteren Leuten spielen und sich dabei ihre Geschichten anhören? Ich glaube es gibt viel mehr Sinnvolles als die heutige Arbeit. Arbeit macht eben nicht Frei.


Der nächste Punkt ist unser Wirtschaftssystem. Das ist darauf angelegt, das Menschen arbeiten gehen.

Du musst eben Alternativen aufzeigen. Einmal wie die Leute besser leben als Heute und dazu abgesichert sind und dann Dinge aufzeigen, was man mit seinem Leben anfangen kann. Und ja, es ist eine sehr tiefgreifende Änderung.


Dann haben wir noch so etwas wie direkte Nebeneffekte. Der Umweltaspekt. Wir beanspruchen jetzt schon viel zu viele Ressourcen. Der weitere technische Ausbau wird das eher noch beschleunigen als abmildern.

Flying to the moon. Die ganze Umweltthematik ist noch mal ein ganz anderes Thema, aber meiner Meinung nach nicht speziell ein Problem von KI. 10 Milliarden Menschen. Sinnlose Kriege. Leute die den Klimawandel leugnen. Ich glaube der Verzicht auf KI-Rechenzentren ist dafür nicht die Lösung.
 
  • Gefällt mir
Reaktionen: Cool Master
andy_m4 schrieb:
Der nächste Punkt ist unser Wirtschaftssystem. Das ist darauf angelegt, das Menschen arbeiten gehen. Fällt das weg, so wird dies umgestaltet werden müssen. Das wird ein tiefgreifender Einschnitt. Und wir sehen ja jetzt schon, wie viel Probleme/Widerstände es bei relativ kleinen Reformschritten gibt. Bei einem Umbruch, was quasi alles auf den Kopf stellt, da möchte ich nicht wissen was dann los ist.
Schöner Beitrag. Den Punkt zum Wirtschaftssystem möchte ich noch kurz vertiefen. Dazu habe ich mir einmal das 4-Sektoren-Modell gegriffen. Es gibt noch andere, die Komponenten sind in der Regel aber ähnlich. Diese vier sind beinahe überall enthalten. Ein paar Finanzströme habe ich hervorgehoben:

1719246866816.png


Legen wir eine Prämisse an, die besagt, dass Automation (KI, Robotics etc.) uns, den Arbeitnehmern, viel Arbeit abnimmt, in der Folge auch die damit verbundenen Arbeitsplätze wegfallen und wir unsere mehr oder wenigen breiten Hintern in der Sonne grillen lassen können.

Fragt sich, von welchem Geld? Und wo, ohne bei 50 Grad gebacken zu werden. Aber das ist eine andere Ebene. Ebenso die Frage, weshalb Umweltkosten in diesem und vielen anderen Modellen keine Berücksichtigung finden.

Unser Arbeitseinkommen bedient sowohl den Staat über Steuern als auch Unternehmen über Konsum. Die Unternehmen führen darauf wiederum Steuern, Gebühren etc. an den Staat ab, die aus den Gewinnen über Konsum finanziert werden. Man ahnt es vielleicht, was passiert, wenn wir das Arbeitseinkommen signifikant reduzieren, wenn die Arbeit durch Automation erledigt wird.

Dabei mag es den einen oder anderen dämmern, warum selbst bekannte US-Ökonomen aus dem Land des reinen Kapitalismus plötzlich ein Grundeinkommen ins Spiel bringen. Richtig. Ohne Arbeitseinkommen keine Steuern und kein Konsum. Ohne Steuereinnahmen keine Transferleistungen, Investitionen und Unterhalt öffentlicher Infrastruktur durch den Staat.

Stellt sich allerdings die Frage, wie das Grundeinkommen finanzieren, wenn keine Steuern aus Arbeitseinkommen und Konsum gezahlt werden. Idee: Besteuerung der Automation im gleichen Verhältnis wie Steuern aus zuvor geflossenen Arbeitseinkommen. Nächste Frage: Wie ist das zu berechnen?

Es gibt sicherlich Lösungen dafür. Ich befürchte allerdings, wenn es so kommt, dass der Weg dahin in der Übergangsphase für viele ein sehr steiniger werden und Demokratien noch anfälliger für Populismus und autoritäre Ideen machen wird.

Das ist alles sehr verkürzt und soll auch nur einen kleinen Anstoß geben, was auf uns zukommen könnte. Fridays for Future sollte unbedingt das Programm erweitern, wenn es um Future geht.
 
Ich träume von einem "intelligenten" humanoiden Roboter der alle gebräuchlichen Aufgaben übernehmen kann. Aber das scheint eine ganz andere Liga als ein reiner Chatbot ala ChatGPT zu sein und es wird wohl noch Jahrzehnte bis dahin dauern. In der Robotik seh ich zwar häufig neue Modelle in youtube, doch wirklich mehr als ältere können sie auch nicht.

Im Gegenteil, Boston Dynamics steigt jetzt um von seinen sportlichen Atlas-Robotern mit Hydraulik, die wirklich beeindruckend waren auf die lahmen Elektromotorenmodelle, wo fast alle Roboter der Art in Zeitlupe laufen. Ich hab die Videos gesehen wie die Hydraulik-Modelle die Hydraulikflüssigkeit nach einem Sturz verloren/verspritzten und kann den Schritt deswegen nachvollziehen, schade ist es trotzdem.

Auch die KI-"Bildsynthese" hängt an Dingen fest die anscheinend nicht lösbar sind. Egal ob KI-Videos oder -Bilder, bei menschlichen und tierischen Körpern sind IMMER die Gliedmaßen/Finger/Hände "verwurstelt". Da das tief in den "Trainingsdaten" steckt kann man das nicht einfach mit Programmierarbeit korrigieren. Ich frage mich, wie sie das lösen wollen.
 
Taigabaer schrieb:
Ich träume von einem "intelligenten" humanoiden Roboter der alle gebräuchlichen Aufgaben übernehmen kann.

Genau das wäre auch mein Wunschszenario. Jeder Mensch bekommt mit der Geburt einen Roboter und dieser ist so wert schöpfend, dass er für Nahrung, Wohnen usw. ausreicht. Quasi eine Form des bedingungslosen Grundeinkommen wo man tatsächlich dann auf niemanden mehr angewiesen wäre.

Und in Star Trek spielt Geld ja auch quasi keine Rolle mehr und trotzdem haben die Menschen Aufgaben und Ziele...
Ergänzung ()

Taigabaer schrieb:
Auch die KI-"Bildsynthese" hängt an Dingen fest die anscheinend nicht lösbar sind. Egal ob KI-Videos oder -Bilder, bei menschlichen und tierischen Körpern sind IMMER die Gliedmaßen/Finger/Hände "verwurstelt".

Bei den neusten Modellen ist das Problem der Hände signifikant besser geworden. Auch Texte in Bildern kann man nun ordentlich darstellen. Das war ein großes Problem vor einem halben Jahr. Heute ist absehbar, dass es überhaupt kein Problem mehr sein wird.

In ComfyUI hast du auch schon vorher Möglichkeiten gehabt. Du konntest z.B. mit einfachen Strichen der 5 Finger zeigen wo die einzelnen Finger genau liegen sollen oder du kannst ein Random-Bild dir bei Google suchen und das neue Bild übernimmt die Handposition incl. der 5 Finger des Google-Bildes. Das geht auch für Kopfpositionen, Armpositionen, Beinposition usw. Dabei wird nur ein Skelett Model aus dem Bild extrahiert und diese Skelett Model wird dann über das neu zu erstellende Bild gelegt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taigabaer
Brrr schrieb:
Aber auch wenn letzteres zutreffen sollte schliesst das noch nicht aus, dass Intelligente Maschinen möglich werden.
Intelligenz ist eben auch eine Sache der Definition. Was ich meinte, war eher die Intuition. Es ist unmöglich eine Maschine zu bauen, die intuitiv handelt. Das ist erwiesenermaßen so, weil das Halteproblem nicht lösbar ist. Es gibt also Fragen, die ein Mensch intuitiv beantworten kann, die eine Maschine aber niemals lösen können wird. Ironie ist bspw so eine Fähigkeit, die eine Maschine nicht lernen kann. Sie kann sie höchstens imitieren. Wenn man sich dann anschaut, welche Unmengen an Energie und Rechenleistung gerade für KI draufgehen, merkt man schnell, dass das auch ein begrenztes Wachstum hat.
 
Apple steht schon in den Startlöchern!
Die kommen spät, dafür aber gnadenlos!
 
Du meinst sie kommen spät und fügen dann mit OpenAI etwas ein, was Microsoft schon lange hat und Google mit Gemini ebenso?
 
Vorneweg:
Du hättest die KI mal fragen sollen, wie man bei Computerbase die Zitatfunktion benutzt. ;-)

Ayo34 schrieb:
Gleichzeitig hat die Atombombe aber auch viele Kriege zwischen großen Staaten verhindert, einfach weil man nicht mehr gewinnen kann.
Es gibt, wie üblich, natürlich keine einfachen Antworten und die Themen sind häufig komplex.
Und zu dem Thema ließe sich jetzt viel sagen. Will ich aber an der Stelle nicht machen, weils dann zu weit ausufert. Ich wollte mit dem Beispiel auch nur darauf hinweisen, das Technologie gefärhlich sein kann. Also nur nur ein bissl, sondern im globalen Maßstab.

Übrigens. Wegen alternativlos und so: Auch die USA hielt es damals für alternativlos die Atombombe zu bauen, weil man Angst hatte die Deutschen könnten einem zuvor kommen. Die Folge war, das sich aufgrund dessen (wegen Spionage und so) das Know-How das man für den Bau einer solchen Bombe überhaupt erst in der Welt verbreitet.
Man kann in dem Fall sagen, das es vermutlich so oder so zur Verbreitung von Kernwaffen gekommen wäre. Aber sicher erst sehr viel später.

Aber wie gesagt. Zu dem Thema will ich eigentlich gar nicht so ausschweifend werden. Sonst entfernen wir uns zu sehr von der eigentlichen KI-Diskussion. Und das Posting wird vermutlich so schon viel zu lang.

Ayo34 schrieb:
wenn man sich jetzt damit beschäftigt. KI wird kommen und das ist in der Tat alternativlos. Umso wichtiger den richtigen Umgang mit KI zu finden, der ist eben nicht alternativlos.
Ja. Ich denke, da sind wir im Großen und Ganzen einer Meinung.

Ayo34 schrieb:
Wäre das nicht sinnstiftender und gleichzeitig viel würdevoller für den Bewohner?
Auch hier will ich mich gar nicht so sehr in Details verlieren. Denn es steht ja außer Frage, das Technologie eine Unterstützung sein kann oder das es dazu führt, das ungeliebte Arbeiten wegfallen.

Der Punkt ist folgender: Was wir im Leben machen lässt sich in zwei Kategorien unterteilen. Einmal sind das Dinge die wir gerne/freiwillig machen (uns mit Freunden treffen etc.). Zum anderen gibts Dinge, die wir machen müssen, wie zum Beispiel unseren Lebensunhalt verdienen.
Was passiert, wenn dieser Muss-Anteil wegfällt. Es gibt Menschen, die können damit total gut umgehen. Die suchen sich dann halt etwas gehen darin total auf. Gibt aber genauso gut Menschen, die können damit gar nicht gut umgehen. Die finden es zwar einerseits blöde arbeiten gehen zu müssen aber andererseits wäre das auch blöde für die, wenn das wegfallen würde.

Nicht falsch verstehen: Ich will hier nicht gegen Automatisierung reden oder so. Es geht nur darum zu gucken, was verändert sich und welche Folgen hat das und - im Idealfall - wie geht man damit um.

Ayo34 schrieb:
Ich möchte auch nicht die Klassen auflösen.
Ok. Dann hatte ich das falsch verstanden.

Ayo34 schrieb:
Auch lernt der eine vielleicht viel besser interaktiv durch ein PC-Game mit Belohnungen. Ein anderer braucht wieder etwas anderes. Das ist heute eben so nicht möglich.
Ja. Wobei ich Gamification durchaus kritisch sehe. Denn gerade Kinder haben häufig schon intrinsisch die Motivation bestimmte Dinge zu tun oder zu lernen. Genau das macht man kaputt, wenn man ein Bewertungs- oder Belohnungssystem einführt.

Das jetzige Schulsystem scheitert ja genau daran. Das es viel zu wenig das kaum bis gar nicht berücksichtigt. Und das kriegst Du halt nicht weg, wenn Du mehr Digitalisierung machst (weshalb mich auch das ganze digitale Schule Gequatsche so nervt, weils an dem eigentlichen Problem völlig vorbei geht). Das hilft zwar, ist aber letztlich mehr ein herumdoktern an den Symptomen. Was wir bräuchten wäre eine Schulreform, die den Namen verdient.

Noch ein Nachtrag zu der Gamification-Geschichte: Dinge die das Belohnungszentrum im Gehirn stimulieren haben Suchtpotential. Schon das ist ein Grund, diese Mittel mit Bedacht einzusetzen.

Ayo34 schrieb:
Wäre das bei 20Std pro Woche anders oder wenn wir 60 Tage anstelle von 30 Tagen Urlaub hätten?
Vermutlich gar nichts. Ich meinte damit auch nicht einfach nur ne Verschiebung, sondern jetzt mal weiter in die Zukunft geschaut.

Ayo34 schrieb:
Ganz ehrlich? Mehr Zeit für und mit der Familie. Mehr Zeit für den Verein. Mehr Zeit für Sport. Mehr Zeit für PC Games sich zusätzlich in Vereinen einbringen. Im Altenheim einfach wöchentlich Gesellschaftsspiele mit älteren Leuten spielen und sich dabei ihre Geschichten anhören? Ich glaube es gibt viel mehr Sinnvolles als die heutige Arbeit.
Ja. Ich hab den Punkt schon weiter oben aufgegriffen.
An der Stelle will ich auch noch mal sagen: Ich möchte keinesfalls sagen, das alles schlechter wird. Ich möchte mich auch nicht so verstanden wissen, das ich den Jetzt-Zustand gutheiße.
Ich möchte nur darauf hinweisen, das es dramatische Veränderungen geben wird und das es da durchaus Stolpersteine geben kann (nicht muss).

Man darf bei all dem auch nicht vergessen, wo wir evolutionsbiologisch herkommen. Das Leben was wir heute führen ist ja nicht natürlich und bei der vergleichsweise kurzen Zeitspanne wird sich die moderne Lebensweise auch nur sehr begrenzt in unseren Genen und Neurophysiologie etc. niederschlagen.
Sprich: Die Lebensweise, für die wir gebaut sind findet man heute noch allenfalls bei Naturvölkern. Und das Naturvolk ist weit weg von unserem materiellen Stand usw. und trotzdem sind die ja nicht unglücklich. Im Gegenteil. Vermutlich nehmen sie ihr Leben sogar als erfüllender war, als wir das tun. Aber da will ich jetzt gar nicht so viel spekulieren.

Jedenfalls sind wir ja sehr flexibel und haben uns weit von unserem Naturzustand entfernt und das klappt ja auch im Großen und Ganzen gut. Trotzdem hat diese Flexibilität ja sicher ihre Grenzen. Und auch das ist ein Aspekt, den man im Auge behalten sollte.

Um das noch zu ergänzen: Wir beobachten ja jetzt schon, das sich die Entwicklungsgeschwindigkeit erhöht. Das was heute in 10 Jahren an Veränderungen kommt hat früher 100 Jahre gedauert. Das überfordert natürlich auch viele Menschen. Das sehe ich als Problem. Denn die Entwicklungsgeschwindigkeit wird ja eher zunehmen als abnehmen.

Ayo34 schrieb:
Du musst eben Alternativen aufzeigen. Einmal wie die Leute besser leben als Heute und dazu abgesichert sind und dann Dinge aufzeigen, was man mit seinem Leben anfangen kann. Und ja, es ist eine sehr tiefgreifende Änderung.
Ich bewzeifle, das ich das muss bzw. selbst wenn ich das tue, jemand auf mich hört. :-)

Ayo34 schrieb:
Die ganze Umweltthematik ist noch mal ein ganz anderes Thema, aber meiner Meinung nach nicht speziell ein Problem von KI.
Es ist richtig, das es kein spezielles KI-Problem ist. KI ist aber ein Teil der sogenannten Digitalisierung und diese verschlingt sehr viele Ressourcen. Die Einstellung a-la Ist nicht meine Baustelle. Soll sich jemand anders drum kümmern hat ja genau zu der jetzigen Situation geführt.

Und über einen Aspekt haben wir noch gar nicht gesprochen: Die Abhängigkeit von der Technik. Die ist sehr groß. Dramatisch groß. Selbst ein banaler Stromausfall kostet schon Menschenleben. Von Fehlern im System die wegen ihrer Komplexität kaum noch beherrschbar sind, will ich da gar nicht erst anfangen.

Ayo34 schrieb:
Beim Ressourcenverbrauch sind aber weniger die Mrd. Menschen das Problem, die in bescheidenen Verhältnissen leben, sondern die vergleichsweise wenigen Mio Menschen die nach westlichen Standard leben.

Ayo34 schrieb:
Ich glaube der Verzicht auf KI-Rechenzentren ist dafür nicht die Lösung.
Das hab ich ja auch nirgends gefordert?!

Vigilant schrieb:
Stellt sich allerdings die Frage, wie das Grundeinkommen finanzieren, wenn keine Steuern aus Arbeitseinkommen und Konsum gezahlt werden. Idee: Besteuerung der Automation im gleichen Verhältnis wie Steuern aus zuvor geflossenen Arbeitseinkommen. Nächste Frage: Wie ist das zu berechnen?
Ja. Für all diese Fragestellung lässt sich ja durchaus ne Lösung finden. Aber wie Du schon sagst:
Wie dahin kommen?
Zumal es ja auch ein großes Interesse dafür gibt, die Transformation zu verhindern. Vor allem durch die Leute, die vom jetzigen System profitieren und natürlich auch die Macht haben, das widerständig zu sein.
Das wird die Transformation nicht langfristig aufhalten, es aber schmerzhaft machen.

Und ja. Vermutlich werden wir dann am Ende besser da stehen. Nur ist halt dieser Transformationsprozess nicht ohne. Das zeigt sich ja auch durch einen Blick in die Geschichte. Auch da gabs ja Umwälzungen, an dem die Menschen am Ende besser da standen aber es halt auch teilweise ziemlich blutig zur Sache gingen.

Und ich hab manchmal den Eindruck, das haben die "goldene Zukunft"-Evangelisten gar nicht so auf den Schirm. Da klingt das eher so wie ein Easy ride into the sunset.

Genauso wie der Umweltaspekt. Das sind Dinge, die man mit beachten muss oder die einem zumindest im Nacken sitzen. Die Protagonisten der französischen Revolution konnten sich im wesentlichen auf Enthauptungen konzentrieren und mussten nicht noch globale Probleme wie die Erderwärmung im Blick behalten.

Das ist in der jetzigen Situation anders. Und man muss sich jetzt drum kümmern. Da kann man nicht sagen "Machen wir später". Und Digitalisierung ist da selbst eher ein Teil des (Umwelt-)Problems.

Boimler schrieb:
Es gibt also Fragen, die ein Mensch intuitiv beantworten kann, die eine Maschine aber niemals lösen können wird. Ironie ist bspw so eine Fähigkeit, die eine Maschine nicht lernen kann.
Kommt drauf an, wie man Maschine sieht.
Was den jetzigen Stand angeht, hast Du sicher recht. Aber wer sagt denn, das man nicht einen Computer bauen kann der genauso arbeitet wie das menschliche Gehirn? Ich meine, das Gehirn gibts ja. Es ist also prinzipiell möglich. Es scheitet also im Augenblick nur am Stand der Technik und unserem Verständnis.

Auszuschließen, das wir eine Maschine zu weit bringen können, hieße ja, das es jenseits der materiellen Welt noch etwas gibt (sowas wie z.B. eine "geistige Welt" aus der sich auch u.a. unser Ich speist), die wir prinzipiell nicht implementieren können.

Ich will hier nix ausschließen oder so. Ich sag nur, das es keinesfalls auf der Hand liegt, das es prinzipiell nicht lösbar ist.
 
andy_m4 schrieb:
Vorneweg:
Du hättest die KI mal fragen sollen, wie man bei Computerbase die Zitatfunktion benutzt. ;-)

Ist das nicht perfekt zitiert, wenn ich dich erwähne und nur auf dich antworte? Warum sollte jedes mal dann noch dein Name erscheinen?
 
andy_m4 schrieb:
Was den jetzigen Stand angeht, hast Du sicher recht. Aber wer sagt denn, das man nicht einen Computer bauen kann der genauso arbeitet wie das menschliche Gehirn?
Der Punkt ist halt, dass das menschliche Gehirn kein Computer ist. Ein heutiger Computer ist vollkommen deterministisch. Es ist also immer vorhersagbar, was ein Input für einen Output erzeugt. Das ist beim Gehirn anders.

andy_m4 schrieb:
Auszuschließen, das wir eine Maschine zu weit bringen können, hieße ja, das es jenseits der materiellen Welt noch etwas gibt (sowas wie z.B. eine "geistige Welt" aus der sich auch u.a. unser Ich speist), die wir prinzipiell nicht implementieren können.
Guter Punkt, aber versuch mal einem anderen Menschen zu erklären, wie eine Erdbeere schmeckt. Ich meine wirklich den Geschmackseindruck, den man hat. Es ist unmöglich, genauso wie jemandem die Farbe "Rot" zu erklären. Klar kann man da auf ein Beispiel zeigen, aber das ist keine Erklärung. Das ist kein Problem der Sprache, sondern einfach ein Bereich, der bisher wissenschaftlich nicht zugänglich ist. Trotzdem würde wohl jeder behaupten, dass alle diese Sinneseindrücke im Gehirn entstehen. Ich denke deshalb, dass einer KI ganz natürliche Grenzen gesetzt sind, die sie nie wird überschreiten können.
 
Besser als 3.5 meinst du? Meiner Erfahrung nach ja. Schneller, besser strukturiert, flexibler. Aber immer noch nicht perfekt, was auch wahrscheinlich nie sein kann, aufgrund der technischen Funktionsweise. Erwarte daher keine Wunder.
 
Ayo34 schrieb:
Ist das nicht perfekt zitiert
Das habe ich so nicht gesagt. Ich habe nur gesagt, das es eine automatische Zitatfunktion gibt.
Die macht die Sache einfacher.
Eigentlich war aber diese Bemerkung von mir nicht wirklich ernst gemeint. Ich fand es nur ganz witzig.

Boimler schrieb:
Der Punkt ist halt, dass das menschliche Gehirn kein Computer ist. Ein heutiger Computer ist vollkommen deterministisch. Es ist also immer vorhersagbar, was ein Input für einen Output erzeugt.
Prinzipiell hast Du recht.
Allerdings haben Zufallszahlen auch inzwischen eine relativ große Bedeutung erlangt. Zum Beispiel bei Kryptographie. Dementsprechend gibt es Mechanismen und qualitativ hochwertige Zufallszahlen zu erzeugen.
Jetzt kann man von mir aus noch darüber streiten, wie gut die Zufallszahlen sind. Die Frage ist ja, sind sie gut genug.

Und auch beim menschlichen Gehirn kannst Du ja nicht davon ausgehen, das es zufällig arbeitet. Das gleicher Input hier nicht identischen Output erzeugt, liegt ja vor allem daran, das sich das Gehirn durch den Input und die Verarbeitung verändert. Auch das kann man mit dem Computer ja machen. Bzw. wenn Du z.B. "neuronale Netze" trainierst, wird ja genau das gemacht.

Mal davon ab: Du sprichst von heutigen Computern. Ich spreche davon, das es prinzipiell möglich sein sollte, das menschliche Gehirn nachzubauen. Das hat ja dann ohnehin nicht viel miteinander zu tun.

Boimler schrieb:
Guter Punkt, aber versuch mal einem anderen Menschen zu erklären, wie eine Erdbeere schmeckt. Ich meine wirklich den Geschmackseindruck, den man hat. Es ist unmöglich, genauso wie jemandem die Farbe "Rot" zu erklären.
Ja. Erklären in dem Sinne nicht.
Eher so wie: Der Mensch sieht die Farbe und merkt sich das und verbindet dann damit was und jemand anderes sagt ihm ihm das das die Farbe Rot ist.
Das ist aber so ziemlich das, was wir auch beim maschine-learning machen. Wir zeigen dem System Dinge bezeichnen die entsprechend und erzeugen damit eine Assoziation.
Ich weiß also nicht ganz, worauf Du hinaus willst.

Boimler schrieb:
Ich denke deshalb, dass einer KI ganz natürliche Grenzen gesetzt sind, die sie nie wird überschreiten können.
Also noch mal ganz konkret:
Was, außer den jetzigen technischen Fertigkeiten und Know-How, sollte verhindern das wir künftig mal ein menschliches Gehirn nachbauen?
 
Boimler schrieb:
Ironie ist bspw so eine Fähigkeit, die eine Maschine nicht lernen kann.
Ist ja auch eine Frage, ob wir das überhaupt wollen/brauchen.
KI ist ja heutzutage vor allem ein Werkzeug. Wie ein Kühlschrank. Der soll halt meine Lebensmittel kühlen. Der muss dafür nicht ironisch sein oder so. Im Gegenteil.
Und nehmen wir mal an, wir würden den so "intelligent" machen wie einen Menschen, dann stellen sich ja auch gleich wieder ethische Fragen. Nämlich ob es ok ist einem Kühlschrank dazu zu verdammen, in meiner Küche zu stehen und meine Getränke zu kühlen, obwohl er sich dabei nicht wohl fühlt und es gegen seinen Willen ist.

Außerdem reicht es ja oft genug menschliche Fähigkeiten zu simulieren. Wenn ich zum Beispiel eine KI habe, die mir Witze erzählt. Da kommt es darauf an, das sie mich unterhält und gute Witze dabei rauskommen und nicht, das die die KI selbst versteht und darüber lachen kann.
 
  • Gefällt mir
Reaktionen: Jlagreen
Boimler schrieb:
Ironie ist bspw so eine Fähigkeit, die eine Maschine nicht lernen kann. Sie kann sie höchstens imitieren.

Gerade mal Gemini gefragt:

ICH: Kannst du Ironie erkennen?

GEMINI: Ja, ich kann Ironie erkennen. Ironie ist eine sprachliche Figur, bei der das Gegenteil von dem gemeint ist, was gesagt wird. Oft wird Ironie durch Tonfall, Kontext oder Übertreibung vermittelt.
Möchtest du ein Beispiel für Ironie sehen oder möchtest du, dass ich versuche, Ironie in deinen Aussagen zu erkennen?

Übrigens muss man auch erwähnen, dass wir Menschen z.B. im Internet über Text auch häufig Ironie nicht erkennen. Häufig kennen wir die Person genauer oder haben einen Gesichtsausdruck dabei den wir erfassen. Eine Kamera kann man einer KI aber auch geben. Sonst ist es auch so, dass wir mit der Zeit Ironie zu erkennen lernen. Ein Baby kann das auch nicht.

Boimler schrieb:
Wenn man sich dann anschaut, welche Unmengen an Energie und Rechenleistung gerade für KI draufgehen, merkt man schnell, dass das auch ein begrenztes Wachstum hat.

Wie viel Energie braucht eigentlich ein Mensch täglich? Gehen wir mal von 2000kcal aus und wir haben keinerlei Möglichkeit zu skalieren oder besser und effizienter zu werden. Wie viel Energie muss dann aufgebracht werden um diese 2000kcal zu produzieren? Wie viel Energie muss aufgewendet werden für Heizung, Wohnung usw.? Wie viel Energie braucht eigentlich so eine KI pro Gesprächspartner? Wir haben natürlich gigantische Zahlen bei so einem Rechenzentrum, aber da ist ja auch nicht nur eine KI, sondern da werden Millionen bedient.

Ich glaube nicht daran, dass wir Menschen irgendwas "Besonderes" haben. Am Ende ist das ein Gehirn und dank Arme, Beine und 1-2 glücklichen Zufällen ist dann unser Gehirn etwas größer geworden. Da ist nichts magisches dabei.

Oder anders gesagt, wenn eine KI ein Äquivalent von 100kcal am Tag braucht und ein Mensch die gleiche Arbeit dadurch machen kann, die normal 2 Menschen gemacht haben, dann hat man ja sogar Energie gespart durch die KI.
 
Ayo34 schrieb:
Oder anders gesagt, wenn eine KI ein Äquivalent von 100kcal am Tag braucht und ein Mensch die gleiche Arbeit dadurch machen kann, die normal 2 Menschen gemacht haben, dann hat man ja sogar Energie gespart durch die KI.
Durch KI wird nirgendwo Energie eingespart.

Ayo34 schrieb:
Da ist nichts magisches dabei.
Es geht auch nicht um Magie, sondern um ein komplexes System, in dem auf Quantenebene chaotische Abläufe existieren, die dennoch ein zielgerichtetes und bewusstes Handeln ermöglichen. Menschliches Handeln ist im Groben vorhersehbar, im Einzelnen aber komplett unvorhersagbar.

andy_m4 schrieb:
Außerdem reicht es ja oft genug menschliche Fähigkeiten zu simulieren. Wenn ich zum Beispiel eine KI habe, die mir Witze erzählt. Da kommt es darauf an, das sie mich unterhält und gute Witze dabei rauskommen und nicht, das die die KI selbst versteht und darüber lachen kann.
Genau und darauf wollte ich hinaus. Menschliches Handeln und Sprache sind sehr gut simulierbar. Das ist aber immer auf einen Kontext angewiesen, also hier z.B. Witze und Humor. Wenn ich die gleiche KI ein Flugzeug steuern lasse, wird sie scheitern. Ein Mensch hätte auf jeden Fall bessere Chancen, das Flugzeug gerade zu halten. Ich wollte darauf hinaus, dass ich nicht an eine "universelle" KI glaube, die situationsunabhängig agieren kann. KI-Modelle müssen erst aufwendig trainiert werden und sind dann ziemlich nützlich. Es sind aber immer auch "Fachidioten". ChatGPT kann man bspw. sehr gut mit offenen Fragen aufs Glatteis führen, ist mir dazu mal aufgefallen.
 
Zurück
Oben