News GPT-4o-Nachfolger: Bis zu OpenAIs nächster KI-Generation kann es noch 1,5 Jahre dauern

Boimler schrieb:
Und so etwas wird es mit deterministischen Turingmaschinen (Computern) auch nie geben
Das ist eine philosophische Frage. Sind wir Menschen auch nur deterministische Maschinen oder doch etwas mehr? Ich persönlich glaube letzteres. Aber auch wenn letzteres zutreffen sollte schliesst das noch nicht aus, dass Intelligente Maschinen möglich werden.
 
eazen schrieb:
KI wird den Menschen nie ersetzen, dass wäre dann der Tag wo sich die Menschheit (endlich) selbst ausgelöscht hätte.

Warum sollte eine KI das tun? Nur weil es in Filmen vorkommt?

Wenn es eine echte KI gibt, die sich selbst weiterentwickeln kann, dann wird die sich so schnell weiterentwickeln, dass wir es nicht mal mitbekommen.

Die KI könnte im Bruchteil einer Sekunde zum Schluss kommen "NULL", das alles bringt nichts und löscht sich selber. Das Universum ist endlich, irgendwann wird alles zerrissen, wozu sollte eine KI sich dann die Mühe machen, alles in Beschlag zu nehmen. Zu dem Ergebnis kommt auch eine KI, alles sinnlos.

Warum immer die Horrorszenarien, dass die Menschheit ausgelöscht wird?

Das alles könnte auch ein Grund sein, warum wir nie eine sich selbst weiterenwickelnde KI bekommen werden, die löscht sich jedesmal selbst. Es wird nur mit einer von uns beschränken KI funktionieren.

Und wenn eine KI uns auslöscht, dann 100 pro weil es Menschen so wollten und diese dafür programmierten. Denn fürs Auslöschen brauchen wir keine KI, darin sind wir unübertroffen.
 
  • Gefällt mir
Reaktionen: Kitsune-Senpai, Jlagreen, Azdak und 4 andere
Ayo34 schrieb:
Im Moment ist die Nutzung von KI einfach ein Skill und ein Vorteil und irgendwann werden die Leute herunterfallen, die da eben nicht mehr mitgehen (wollen).
Ich bin nicht sicher ob das hier auch zutrifft. Als Beispiel, Programmierer die nur mit ChatGPT programmieren können sind vielleicht schnell aber ich bin ziemlich sicher sie sind nicht gut. Das heisst sobald etwas kommt dass du mit der KI nicht lösen kannst wirst du Programmierer mit besseren Skills brauchen, das sind IMHO solche die gelernt haben ohne KI zu programmieren. KI wird eher zu einem Rückschritt der Skills führen, genau so wie Navigationssysteme dazu führen, dass die Orientierungsfähigkeiten sich zurückbilden.
 
  • Gefällt mir
Reaktionen: u-blog
Brrr schrieb:
Als Beispiel, Programmierer die nur mit ChatGPT programmieren können sind vielleicht schnell aber ich bin ziemlich sicher sie sind nicht gut.
Zumal gerade Anfänger deutlich schneller Code schreiben als ihn zu lesen.

Ich kann mir jetzt eine Methode von GPT schreiben lassen, bis ich die aber gelesen und verstanden habe, habe ich sie auch selbst geschrieben. Für den Einstieg ist das vielleicht noch ein (Lern)-Vorteil, aber spätestens ein Senior schreibt schneller besseren Code als GPT.

Zudem irgendwann einfach die Tokens verbraucht sind und wenn das Programm eine gewisse Komplexität erreicht hat GPT einfach raus ist.

Und dafür dass jeder Mittelständler und jede Behörde ihre Entwickler an AI outsourcen können, gibt es überhaupt nicht die Hardware, geschweigedenn dass es dann noch billiger wäre.
 
  • Gefällt mir
Reaktionen: Brrr
Der Effekt wird sicherlich eintreten. Die Frage ist, in welchem Umfang?

"Do it or lose it!"

Wenn etwas nicht geübt und angewendet wird, geht die entsprechenden Fähigkeit im worst case verloren oder verkümmert zumindest. Sieht man bspw. auch schön an der Rechtschreibung vieler jüngerer Semester, die u.a. zu viel in Social Media mit verkürzter Ausdrucksweise unterwegs sind. Daher würde ich die heutigen Systeme immer nur als Ergänzung und Assistenz betrachten und auch so nutzen.

Auf der anderen Seite können sie aber auch einen positiven Effekt haben, in dem sie dabei helfen, zu lernen und sich neue Fähigkeiten anzueignen.
 
Zuletzt bearbeitet:
Brrr schrieb:
Als Beispiel, Programmierer die nur mit ChatGPT programmieren können sind vielleicht schnell aber ich bin ziemlich sicher sie sind nicht gut.
Dann denke an einen guten Programmierer der weiß wie man KI richtig nutzt statt sich nur auf die geliefetren Ergebnisse zu verlassen.
Den kann sowas eine Stufe höher heben.
 
  • Gefällt mir
Reaktionen: dualcore_nooby und Ayo34
Brrr schrieb:
Ich bin nicht sicher ob das hier auch zutrifft. Als Beispiel, Programmierer die nur mit ChatGPT programmieren können sind vielleicht schnell aber ich bin ziemlich sicher sie sind nicht gut.

Vor 10 Jahren hat man im Informatik-Studium schon nur noch sehr eingeschränkt gelernt wie man Maschinencode schreibt. Viel mehr ging es da um Java und Co als Programmiersprache. In der Praxis hat man dann vieles über Librarys gelöst und der nächste Schritte ist eben die Unterstützung durch KI. Also ja, ein Informatikstudium und Basics sind sinnvoll, aber die Ausbildung verändert sich eben stetig. Du kannst als Mensch gar nicht die ganzen Bereiche komplett abdecken.

Laut GitHub wird bereits über die Hälfte vom Code von KI geschrieben. Übrigens wird KI auch eingesetzt um Fehler zu finden und um den Programmiercode am Ende effizienter zu schreiben. Du hast also Code geschrieben, zum Teil auch mit KI, und lässt ihn dann kontrollieren und optimieren, wieder von der KI. Das ist jetzt schon so.

Und klar, wenn du aktuell gar keine Ahnung von Programmieren hast, dann hast du einen Nachteil. Wenn du aber zwei gute Programmierer hast, dann leistet der mit KI eben eine viel bessere Performance und schafft vielleicht 2x so viel und da Programmierer nicht gerade günstig sind...
 
FrAGgi schrieb:
Dann denke an einen guten Programmierer der weiß wie man KI richtig nutzt statt sich nur auf die geliefetren Ergebnisse zu verlassen.
Den kann sowas eine Stufe höher heben.
Ja und nein. Meine Prognose ist, dass ein guter Programmierer schlecht wird, sobald er KI die Arbeit zu oft machen lässt.
 
Brrr schrieb:
Meine Prognose ist, dass ein guter Programmierer schlecht wird, sobald er KI die Arbeit zu oft machen lässt.

Meine Prognose ist, dass ein guter Programmierer entlassen wird, wenn er keine KI benutzt und damit 5x so teuer wird wie sein Kollege.
 
  • Gefällt mir
Reaktionen: rosenholz und dualcore_nooby
Ayo34 schrieb:
Vor 10 Jahren hat man im Informatik-Studium schon nur noch sehr eingeschränkt gelernt wie man Maschinencode schreibt. Viel mehr ging es da um Java und Co als Programmiersprache.
Das ist richtig, aber mMn ein gutes Beispiel. Wer im Studium nicht lernt Assembler zu schreiben oder wenigstens C hat meiner Meinung nach einen grossen Nachteil. Ich schreibe heute kein C mehr aber das Wissen hilft mir auch heute noch sehr oft Bugs nachvollziehen zu können.
Ergänzung ()

Ayo34 schrieb:
Meine Prognose ist, dass ein guter Programmierer entlassen wird, wenn er keine KI benutzt und damit 5x so teuer wird wie sein Kollege.
Nun, was glaubst du welcher Skill ist eher schnell erlernbar, eine KI zu benutzen oder gut programmieren zu können? Ich tippe auf ersteres. Wer von anfang an mit der KI lernt zu coden wird massiv im Nachteil sein.


Edit: Btw. ich benutze KI ich bin nicht komplett anti. Aber ich fürchte es führt zu einer Verdummung.
 
Zuletzt bearbeitet:
Brrr schrieb:
Wer im Studium nicht lernt Assembler zu schreiben oder wenigstens C hat meiner Meinung nach einen grossen Nachteil. Ich schreibe heute kein C mehr aber das Wissen hilft mir auch heute noch sehr oft Bugs nachvollziehen zu können.

Aber jeder verwendet heute Librarys, weil sonst der Aufwand viel zu groß wäre und man nicht kostendeckend programmieren könnte. Versteht man heute noch, was da genau passiert? Man nimmt sich die Library, nutzt sie und fertig. Wichtiger war da bisher die Dokumentation zu lesen und das kostet häufig auch Stunden. Heute fragt man die KI gezielt und die KI beantwortet der Fragen zu diese Dokumentation. Stunden gespart.

Und KI ist eben für mich die nächste Library. Man versteht nicht im einzelnen was sie macht, aber es funktioniert und man kann die KI auch gezielt Fragen.

Nvidia CEO:
Huang glaubt, dass KI das Programmieren zu einer einfachen Sache der Kommunikation machen wird. Anstatt komplexe Sprachen wie Java oder Python zu beherrschen, werden die Nutzer ihre gewünschten Softwarefunktionen in einfacher Sprache beschreiben und die KI wird den Rest erledigen.

Daran glaube ich eben auch, wenn man sich die letzten 1-2 Jahre anschaut. Das geht so schnell gerade, dass wir einfach nicht annähernd sehen, was in 10 Jahren möglich sein wird.
 
Ayo34 schrieb:
Versteht man heute noch, was da genau passiert?
Nein, das ist aber auch oft ein Problem. Ich habe schon Stunden investiert weil man die Library falsch angewendet hat. Aber natürlich, Libraries benutzen macht sinn.

Ayo34 schrieb:
Heute fragt man die KI gezielt und die KI beantwortet der Fragen zu diese Dokumentation. Stunden gespart.
Das ist sicher keine schlechte Anwendung. Andererseits habe ich schon oft Lösungen gefunden wenn ich eben die Doku gelesen habe und auf andere Möglichkeiten gestossen bin.

Ayo34 schrieb:
Daran glaube ich eben auch, wenn man sich die letzten 1-2 Jahre anschaut. Das geht so schnell gerade, dass wir einfach nicht annähernd sehen, was in 10 Jahren möglich sein wird.
Daran glaube ich nicht. Ich glaube die Entwicklung verlangsamt sich, die Fortschritte werden kleiner. Aber da können wir jetzt lange diskutieren. Die Zeit wird zeigen wer recht behält.
 
Ayo34 schrieb:
Daran glaube ich eben auch, wenn man sich die letzten 1-2 Jahre anschaut.
Ja lol, wenn man neun Jahre Progress auf der Basis von zwanzig Jahren kuriertem Internet-Content auf 1-2 Jahre staucht, wirkt das natürlich beeindruckend.

3.5 hat Zugang zu 15+ Jahren Stack Overflow gehabt, 4.0 dann halt 1-2 Jahre mehr, 5.0 wieder 1-2 Jahre mehr (wovon ein erheblicher Anteil selbst KI-generiert sein wird).

Es wird gar nicht mehr genug neuer Content von Usern generiert, um LLMs zu füllen, als dass der Fortschritt so schnell weitergeht wie wir ihn gerade subjektiv erleben. Und ich sage "subjektiv" erleben, weil die ersten sieben Jahre vergleichsweise niemand verfolgt hat, was OpenAI da so treibt.
 
  • Gefällt mir
Reaktionen: Vigilant
Brrr schrieb:
Nun, was glaubst du welcher Skill ist eher schnell erlernbar, eine KI zu benutzen oder gut programmieren zu können? Ich tippe auf ersteres. Wer von anfang an mit der KI lernt zu coden wird massiv im Nachteil sein.

Ich Sachen "Lernen" habe ich auch eine Meinung. Ich glaube, dass wir mit Hilfe von KI viel besser lernen werden. Heute sitzt man mit 20-30 Leuten in einem Raum und lernt. Die Hälfte langweilt sich und die andere Hälfte ist überfordert. Lernerfolg mäßig.

In 5 Jahren hat jeder durch KI quasi einen Privatlehrer auf seinem PC. Der weiß was du kannst, wo du Schwächen hast, was dich interessiert und wie du am besten lernst. Das gilt übrigens für alle Themengebiete (Fächer). Heute haben manche einen Nachhilfelehrer, die es sich leisten können. Aber selbst das passt nicht immer.

Viele stellen sich einfach nur vor, dass eine KI die Antwort gibt und das war es. Aber man kann sich auch erklären lassen, warum eine KI dieses oder jenes gemacht hat. Wenn ein Prof etwas an die Tafel kritzelt von vor 10 Jahren, dann stellt man ja auch Nachfragen um etwas zu verstehen. Aber 50 Leute im Hörsaal haben vielleicht jeweils 1 Frage. Mit einer KI kann jeder beliebig viele Fragen stellen...
Ergänzung ()

u-blog schrieb:
Ja lol, wenn man neu Jahre Progress auf der Basis von zwanzig Jahren kuriertem Internet-Content auf 1-2 Jahre staucht, wirkt das natürlich beeindruckend.

ChatGPT wurde Ende 22 vorgestellt. Und von Ende 22 bis heute hat sich verdammt viel getan. Bei der Bilder (SD3) oder Videoerstellung (Sora) sieht man das vielleicht besser. Aber ChatGPT hat schon ordentliche Sprünge gemacht und ChatGPT5 soll noch mal um ein vielfaches mächtiger werden nächstes Jahr.
 
  • Gefällt mir
Reaktionen: Vigilant, FrAGgi und dualcore_nooby
u-blog schrieb:
Es wird gar nicht mehr genug neuer Content von Usern generiert, um LLMs zu füllen, als dass der Fortschritt so schnell weitergeht wie wir ihn gerade subjektiv erleben. Und ich sage "subjektiv" erleben, weil die ersten sieben Jahre vergleichsweise niemand verfolgt hat, was OpenAI da so treibt.
Wobei vielleicht zwischen "Wissen" im Sinne von Umfang der Eingangsdaten und dem "Anwenden" im Sinne der Verarbeitungsqualität und Geschwindigkeit differenziert werden sollte. Gerade bei Letzterem ist noch viel Luft nach oben.

Gebe dir aber recht, dass es zukünftig primär um die Qualität und Flexibilität des Outputs gehen wird. Was an neuen Wissen hinzukommt, hängt von der Geschwindigkeit ab, mit der es entsteht und für die Maschine verfügbar wird.
 
@Ayo34
Willkommen auf RentnerBase, der große Teil hier im Forum möchte gerne noch sein Nokia 3210 und sein Fax die nächsten 20 Jahre benutzen :freak:
 
@tomgit

Wir haben intern auch länger über den Vergleich diskutiert und im Endeffekt ist es halt schon ziemlich Murks. Lässt sich ohnehin kaum in Bildungskategorien fassen, weil die Tools ja im Endeffkt eher Assistenten sein sollen -- und nicht selbstständig Aufgaben erledigen.

Btw Hab jetzt in Artikeln öfters die Übersetzung von PhD zu Doktorand gesehen. Scheinbar nicht ideal, aber ich denke, es wird dennoch klar, was gemeint ist :)
 
  • Gefällt mir
Reaktionen: tomgit
Zurück
Oben