News OpenAI-CEO: Darüber hat Sam Altman an der TU Berlin gesprochen

Ich benutze den ganzen KI Kram momentan hauptsächlich als "Pre-Suchmaschine" um einen groben Überblick über Dinge zu bekommen. Dafür finde ich es tatsächlich ganz gut. Aber im Detail wird es dann dünn und oft falsch. Man merkt recht schnell, wie begrenzt die Modelle sind. Der Hype ist aus meiner Sicht nicht gerechtfertigt. Aber ein nützliches Werkzeug ab und zu ist es.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen und Marflowah
Naja es kommt halt auf den Nutzungsbereich an.

Natürlich sind "allwissende" AIs nur bis zu einem gewissen Grad aktuell gut - aber die Spezial AIs die sind doch schon richtig gut.

Ein AI die man z.B. fürs Programmieren nutzt muss ja keine Infomationen darüber haben welches Hausmittel man gegen kaffeeflecken nutzt ooder wie schnell ein Elefant rennen kann - und die "unnützen" Daten die erzeugen diese Halluzinationen bzw macht sie halt wahrscheinlicher.

Auch die zuvor angesprochene AI zur Plasmafeldkontrolle in Fusionsreaktoren muss halt das alles nicht wissen., auch die muss nur einen extrem winzigen Bereich abdecken. Da gibt es halt dann nicht 1 Trillion mögliche Outputs auf einen Input sondern vielleicht nur 100 oder 10.

Erst mal ist halt die Zeit der Spezial und Sparten AIs - und deren Qualität ist halt schon echt gut geworden.
 
Zuletzt bearbeitet:
=dantE= schrieb:
Mal abgesehen davon das der Herr an der TU Berlin aus meiner Sicht einiges mehr zum Thema zu sagen hat. Der ließe sich nicht dabei erwischen einen CB Foristen haltlos Kompetenzen abzusprechen ohne jemals mit ihm persönlich gesprochen zu haben.
natürlich hat herr altman als eine person der öffentlichkeit eine breitere bühne als irgendein nobody in einem forum. aber wenn man auf so einer öffentlichen bühne eine starke meinung vertritt, muss man auch mit kritik umgehen oder diese zumindest erdulden.
das ist ein himmelweiter unterschied dazu ihm kompetenzen abzusprechen, aber ich glaube jeder hat das recht eine andere meinung zu einem sachverhalt zu vertreten - egal wie unwichtig sie erscheinen mag.

und wenn ich in den aussagen eines bekanten ceo's zuviel "bullshit bingo" erkenne, sage ich das auch wenn ich kann. die argumentation dazu habe ich, so glaube ich es, ausreichend dargelegt.
 
Sron schrieb:
Warum sollte man sich dazu äußern? Man hat den Kulturwandel im Silicon Valley verstanden. OpenAI ist da ja mitnichten der einzige große Player.

Schön für Studenten! Solche Einblicke sind immer spannend und in der Regel deutlich interessanter als irgendwelche aufgezeichneten oder schon 20mal gehaltenen Vorlesungen.

Man wird sich nicht dazu äußern, aber die Fragen sollten gestellt werden, gerade weil dieser Kulturwandel stattfindet.

Der Opportunismus und dieses Umdenken gegenüber solchen Machtstrukturen muss meiner Meinung nach kritisch betrachtet und hinterfragt werden. Denn das hat auch große Auswirkungen auf die Gesellschaft. Es ist naiv, das so einfach hinzunehmen.
Grundsätzlich sind solche Einblicke immer interessant, aber man sollte gerade im wissenschaftlichen Rahmen den Hintergrund nicht ausblenden.
 
Softbank hat jetzt heute OpenAI 40 Mrd USD gegeben.

Mal im Verhältnis der gesamte BMW Konzern hat ~ 48 Mrd Börsenwert und das kommt da einfach (fast) mal so bei OpenAI dazu :D ... Softbank selber ist nur 90 mrd wert, das schon ein krasser Move auch wenn ein Grossteil nur vermittelt wurde.

Es gibt halt keine Weltregierung die durch Regulierung AI wesentlich verhindern oder einschränken kann - weil immer jemand irgendwo die Grenzen austesten wird und die Möglichkeiten gibt es halt einfach prinzipiell für jeden - es isdt halt keine Raketenwissenschaft sondern hat vergleichsweise einfache mathematische Grundmodelle.

Es ist doch cool dass man so einen vielleicht extremen Umbruch von Beginn an mitverfolgen kann - egal ob was draus wird oder am Ende auch viel heisse Luft dabei ist und man an (absolute) Grenzen stösst.

Ich denke schon auf Basis biologischer Grundprinzipien und Experimente dass man echte Intelligenz prinzipiell erschaffen kann - nur ob die technische Umsetzung für die "Superintelligenz" reicht das ist doch spannend.

Wieviel "elektronische Neuronen" braucht es in einer Welt die lediglich aus Zahlen(reihen) besteht um mit der extrem komplexen real analogen Welt in der Naturgesetze etc existieren gleichzuziehen. Vermutlich doch (sehr) viel weniger.

Hihi und wenn ja und die umgesetzt ist sagt man halt evtl ach du scheisse hoffentlich hat Musk noch einen Platz frei um von der Erde auf den Mars zu fliehen :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
"I don't think I will be smarter than GPT 5." Sam Altman 2025

Starker Auftritt, so langsam versteh ich Musk's Kritik. Reiner PR Stunt.
 
@Snakeeater Der Hype schwindet langsam, Deep Seek r1 hat allen gezeigt das OpenAIs Vorsprung nicht so groß ist wie gedacht. Da werden die Ankündigungen immer gewagter, das ist aber nix OpenAI spezifisches, das gleiche lässt sich bei vielen Firmen mit Hype beobachten, bei Teranos ist man den Vorwürfen mit mehr Versprechen begegnet, (wir machen schon tests an Patienten usw) Bei SpaceX und Tesla wird es schon als Musk Time bezeichnet das die Zeitspannen und Vorhersagen meist sehr Optimistisch sind. Wenn man hunderte Mrd USD einsammelt bleibt einem wenn die Investoren ROI sehen wollen halt nur Liefern oder noch größere Versprechen für die Zukunft. Wenn sie dann liefern interessieren die Übertreibungen nicht mehr, wenn nicht entscheidet ein Gericht ob es noch im Rahmen war oder schon Täuschung der Investoren.
 
Zuletzt bearbeitet:
und man muss halt sehen das was die Öffentlichkeit bei OpenA(I sieht ist immer deren alter Kram von gestern - intern sind die ja immer eine Gen weiter - mindestens

Bevor ein LLM released wird durchläuft das sicher Millionen von Tests. (z.b. damit es nicht extrem rassistisch etc ist)
 
Ist einfach traurig das sich die deutsche Forschung so einwickeln lässt von diesem Mumpitz.
 
Jo Deutschland braucht keine AI - Deutschland braucht bessere Faxgeräte. :D vielleicht 1,2x so schnelle Hui das geht dann ab.
 
Zurück
Oben