Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsSam Altman zu GPT-5: OpenAI trainiert derzeit keinen GPT-4-Nachfolger
Mit dem Start von GPT-4 im März hat OpenAI ein Sprachmodell veröffentlicht, das mit den neuen Fähigkeiten beeindruckte, aber auch die Debatte über potenzielle KI-Risiken befeuerte. Ein Nachfolger ist aber noch nicht in Sicht. Derzeit plane OpenAI nicht, ein GPT-5-Sprachmodell zu trainieren, erklärt OpenAI-Chef Sam Altman.
Musk's Unterzeichnung in dem Brief kam mir eher so vor wie "Scheiße ich bin ausgestiegen als es gerade richtig los ging, könnt ihr Mal 6 Monate warten, damit ich Zeit hab wieder mit zu spielen?"
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
Ich bin gespannt, wie das weiter geht. Vor allem bei uns an der Schule. Die Smartwatch ist ja schon fast alltäglich. Schülern ist nicht immer bewusst, dass diese einen Täuschungsversuch darstellt, sofern man sie am Handgelenkt trägt.
Würde ich als Schüler, der beim Schummeln ertappt wurde, auch behaupten.
Natürlich wissen die das. Eher würde ich glauben, dass einige von denen schlicht vergessen haben, dass sie die Smartwatch tragen, weil das Teil am Handgelenk so alltäglich ist und genau wie die Unterwäsche zum morgendlichen Ankleiden dazu gehört.
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
Garbage in, garbage out. Das gilt auch für ChatGPT. Mal abgesehen davon, das ich es komisch finde, dass Leute irgendwie meinen einen Anspruch darauf zu haben das die KI nur korrekte Daten liefert.
@Piranha771 das ding kann gerne sachen erfinden, wenn es dazu aufgefordert wird. standardmässig muss es aber korrekte daten liefern, sonst darf man es nicht auf die allgemeinheit loslassen. in der realität habe ich auch keine lust darauf, jemanden um hilfe zu fragen und dreist angelogen zu werden
Das erste was praktisch schon zu spät ist, dass Gesetze erst gemacht werden, wenn das Kind schon im Brunnen liegt.
Weiter wird es ja nicht nur eine ChatGPT Plattform geben, sondern nicht nur je nach Unternehmen, sondern auch je nach Nation. Was natürlich auch noch beinhaltet, dass je nach politischen System, Kulturkreis und Traditionen diese Geräte programmiert sind.
Er werden also dann Menschengruppen über den Weg einer Maschine benachteiligt werden. Dann werden Glaubensrichtungen, sexuelle Neigungen, Erscheinungsbild von der Maschine bewertet, die ja nach Nation und Kultur programmiert wurde. Gefühle, Menschlichkeit und Ausstrahlung werden weniger in einer Bewertung fließen.
apropos nation: vielleicht mal dieses video anschauen. baidu hat nach dem erfolg von chatgpt quasi aus dem nichts ihre ki "ernie" vorgestellt. das ding verhält sich sehr eigenartig, was sich damit erklären lässt, dass die anfragen intern aus dem chinesischen wörtlich ins englische übersetzt werden und dann der ki zugeführt werden. ist wohl doch nur eine kopie eines vorhandenen models gewesen...
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
selbst wenn wir diese theorie annehmen, so darf es nicht sein, dass es fehlinformationen verbreitet. es gab ja selbst schon beispiele, in denen chatgpt seine unwahrheiten mit erfundenen quellen belegt hat, die es gar nicht gibt. auf eine fake-news verbreitende ki kann ich gut verzichten.
Musk's Unterzeichnung in dem Brief kam mir eher so vor wie "Scheiße ich bin ausgestiegen als es gerade richtig los ging, könnt ihr Mal 6 Monate warten, damit ich Zeit hab wieder mit zu spielen?"
Ich kann auch eine Seite ins Netz stellen auf der steht "Fakten über die Welt" und darunter zufällig erzeugte Sätze mit schwachsinnigen Aussagen. Sowas nennt sich Freiheit und es obliegt ganz allein dir was du aus diesen Daten interpretierst.
Die Leute probieren (mal wieder) ihre Verantwortung bei irgendjemand Anderem abzugeben.
dann bist du aber von vornherein keine besondere vertrauenswürdige quelle. wenn microsoft & co. das in ihre suchmaschinen einbauen und falschinformationen auf seite 1 der suchergebnisse auftauchen, dann hat das eine andere dimension. und ja, dafür haben dann die betreiber die verantwortung.
dem würde ich widersprechen. wikipedia ist keine unumstössliche institution, aber vertrauenswürdiger als irgendwelche esoterikseiten wenn es z.b. um technische sachverhalte geht. und es ist ja gut, wenn wir hier den wahrheitsgehalt von webseiten und tools hinterfragen - millionen und wahrscheinlich milliarden anderer menschen tun es nicht und nehmen eben einfach die infos von seite 1, die dann aber richtig sein sollen und nicht von einer halluzinierenden ki kommen dürfen.
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
die sollen erstmal die problematik lösen, dass chatgpt sachverhalte erfindet, obwohl es nach fakten gefragt wird. das ding ist es gut darin, fehlinformationen selbstsicher zu präsentieren, aber das ist wohl hoffentlich nicht das ziel gewesen.
Die Falschinformationen durch die KI haben aber nichts damit zu tun, dass es von Menschen lernt. Das ist ein technisches Problem, welches eine der größten Hürden bei der zukünftigen Entwicklung sein dürfte.