Ich frage mich in welscher hinsicht sich dieser Statt noch von China unterscheidet?? Klar die möchten Ohren und Augen auch auch dort befestigen... aber deren entwicklung zu kontrolieren gleich leider KI deren "Verdummung". Also, keine angs vor KI, scheinbar bleibt auch diese fleissig "dumm".
-
Es gelten die Sonderregeln des Forums Politik und Gesellschaft.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News OpenAI-Chef Sam Altman: Staat muss Entwicklung von ChatGPT und Co. kontrollieren
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
pmkrefeld
Captain
- Registriert
- Feb. 2012
- Beiträge
- 4.004
aid0nex schrieb:Ein Unternehmer, der sich für die Regulierung seiner Branche ausspricht? 🤔 Das will irgendwie nicht so ganz in meinen Kopf rein gehen.
Der Fachbegriff dafür nennt sich "Regulatory capture".
Im Prinzip legt man der Branche in der man sich selbst befindet höhere regulatorische Hörden auf. Ein Konzern kann sich eine entsprechende Abteilung, um diese Abzuwickeln, problemlos leisten, ein Startup oder eine Mittelständische Firma nicht.
Somit hat man die ganze (potenzielle) Konkurrenz praktisch auf einmal aus der Welt geschaffen.
Im Bereich generative KIs hat dies den folgenden Grund: der Konsens war bisher, dass die neuronalen Netze immer größer werden müssen, um besser zu werden. Das trainieren von GPT-4 hat schätzungsweise 100+ Mio. $ gekostet und besitzt in etwa die Komolexität vom menschlichen Gehirn. Zwischenzeitlich ist das LLama-Modell von Meta geleakt, woraufhin Meta sagte: kann man nicht rückgängig machen, also tobt euch aus. Das hat die Open-Source-Community saraufhin getan, mit großem Erfolg. Und zwar so gut, dass Google selbst feststellte sie hätten kein "secret sauce". Das könnte man natürlich als eine Art Hiobsbotschaft für OpenAI werten die schlimm genug ist, um die Anstrengungen im Bereich "regulatory capture" zu rechtfertigen.
Hat also nichts mit: "Wir können KI nicht kontrollieren" oder "Es nimmt uns unsere Jobs weg" zu tun, wie üblich 😁
OpenAi ist die hinterherhängende Konkurenz.aid0nex schrieb:Ein Unternehmer, der sich für die Regulierung seiner Branche ausspricht? 🤔 Das will irgendwie nicht so ganz in meinen Kopf rein gehen. Was könnte der wahre Grund dahinter sein? Die hinterherhängende Konkurrenz soll durch den Staat weiter zurück gehalten werden? Oder gibt's da etwas anderes das ich nicht sehe?
Ja, sie haben aktuell einen Vorsprung, aber den haben sie sich durch teuer Geld erkauft. Die OpenSource Community ist in einigen Bereichen jetzt schon auf der Überholspur.
Was wollen sie also ? Richtig eine Lizenz beim Staat. Die kann sich dann nur jemand Finanzkräftiges leisten kann und diejenigen die aktuell mit 1-2k Dollar OpenAi Konkurrenz machen sind raus.
Das ist das alte Microsoft Mantra: Embrace, Extend, Exterminate. Hier geht es darum sich ein Monopol oder Oligopol zu sichern, statt sich mit Millionen Mitbewerbern in einem Polypol in die Konkurrenz zu begeben.
Raucherdackel!
Banned
- Registriert
- Jan. 2014
- Beiträge
- 3.266
Weil ChatGPT zwar die prominenteste, aber bei weitem nicht die stärkste bzw. die am weitesten entwickelte KI ist. Ich sehe altuell die KI der Amerikanischen Streitkräfte knapp vor der KI der Volksrepublik China. Aber das wird sich in den nächsten zwei Jahren drehen, und China wird bis 2030 uneinholbar vorne sein. Xi Jinpin setzt so viel Anstrengungen in diese Richtung wie kein anderer auf diesen Planeten.aid0nex schrieb:Ein Unternehmer, der sich für die Regulierung seiner Branche ausspricht? 🤔 Das will irgendwie nicht so ganz in meinen Kopf rein gehen. Was könnte der wahre Grund dahinter sein? Die hinterherhängende Konkurrenz soll durch den Staat weiter zurück gehalten werden? Oder gibt's da etwas anderes das ich nicht sehe?
Ich wundere mich über das Statement, dass die USA hinter der EU zurückliegen scheint, was die Reglementierung betrifft.
[wege]mini
Banned
- Registriert
- Juli 2018
- Beiträge
- 8.357
duckyisshiny schrieb:die offensichtlich ihr Leben einem Fach gewidmet haben
Wann warst du das letzte mal in einer Informatik Vorlesung?
Da ich mir vieeeel Zeit während meines Studiums nahm, um etwas zu tun, was man "Studium generale" nennt, war ich dort sehr häufig.
Ich habe aber auch entspannte 30 Semester Rechtswissenschaft studiert. Wer kann das schon?
Nur weil die Dame Informatik lehrt bedeutet das nicht, dass sie Ahnung von dem hat, was im hier und heute und jetzt von Menschen programmiert wird, die nicht bei ihr gelernt haben.
mfg
H3rby
Lt. Commander
- Registriert
- Juni 2007
- Beiträge
- 1.793
@[wege]mini : Nette Geschichte. Aber anscheinend hast du in deinen 15 Jahren des Studierens tatsächlich absolut nicht gelernt, dass man bei Behauptungen normalerweise etwas Stichhaltiges dazu beisteuern und spätestens auf Nachfrage schon irgendwelche Nachweise erbringen sollte.
Aber mit deiner Argumentation: Auch wenn du "sehr häufig" in irgendwelchen Informatikvorlesungen warst, heißt das ja anscheinend laut dir nicht, dass du nun von irgendwas Ahnung hast.
Also hast du nun noch irgendetwas, was deine Aussage untermauert, oder gibt's stattdessen was Nettes aus deiner Kindheit vorzutragen?
Aber mit deiner Argumentation: Auch wenn du "sehr häufig" in irgendwelchen Informatikvorlesungen warst, heißt das ja anscheinend laut dir nicht, dass du nun von irgendwas Ahnung hast.
Also hast du nun noch irgendetwas, was deine Aussage untermauert, oder gibt's stattdessen was Nettes aus deiner Kindheit vorzutragen?
Land_Kind
Lieutenant
- Registriert
- Jan. 2013
- Beiträge
- 640
Genau das hat Changpeng Zhao, der Gründer von der Kryptowährungsbörse Binance doch auch immer getan. Traue ich ihm deshalb? Nein, tue ich nicht.aid0nex schrieb:Ein Unternehmer, der sich für die Regulierung seiner Branche ausspricht? 🤔
Bei KI-Entwicklungen bin ich extrem gespalten: Einseits bin ich unheimlich gespannt, was der Fortschritt da noch alles möglich machen wird und eigentlich bin ich auch immer skeptisch gegen staatliche Eingriffe.
Andererseits ist klar, dass ein einfaches Küchenmesser auch zu einem Mord benutzt werden kann, um es mal salopp auszudrücken. So ist es nur logisch, dass KI-Anwendungen uns noch sehr viel Kopfzerbrechen bereiten werden.
Möglich, dass es uns in Zukunft nicht mehr möglich sein wird, echte Texte, Bilder oder Videos von unechten zu unterscheiden. Wem soll man dann also noch glauben?
Wahrlich, wir leben in interessanten Zeiten...
AdmiralPain
Ensign
- Registriert
- Juli 2016
- Beiträge
- 131
Nun, einige Punkte zum Thema.
OpenAI:
OpenAI ist ja seit kurzem ClosedAi, also keine Open Source mehr, auch wenn der Name etwas anderes suggeriert.
Somit sind schon von vornherein die Interessen des Sprechers von OpenAi mit einer gewissen Skepsis zu betrachten, da hier, aufgrund des kürzlichen Handelns seitens OpenAi, immanent zwingend logisch, neue Interessen und Leitlinien, auch seitens der Führung angenommen werden müssen, als die Leitlinien, welche sie noch vor kurzem hatte, als OpenAI noch quasi Open Source war.
Nächster Punkt:
Die Angst vor Ai,Ki, Super Ai und co.
Eine Super Ai´,die auf das Netz und deren Inhalte losgelassen wird, lernt von vornherein schon massiv eingeschränkten und verfälschten Content, da alle Unternehmen die online Plattformen und co. zur Verfügung stellen, massiv Inhalte zensieren, oder gewisse Inhalte aufgrund finanzieller Interessen pushen, andere sperren, wieder andere aus dem Kontext bringen usw.
Und von dem was dann übrig bleibt, von dem lernt also eine Ki, Super Ai, und co, und da tut mir die Ki´ auch leid, denn sie wird sich über kurz oder lang auch die massive Werbung, und zwar jede einzelne des Internets ansehen müssen, sobald sie wirklich einmal auf das Netz losgelassen wird.
Natürlich haben gewisse Think Tanks nicht so weit gedacht, dass sie damit selbst ihre eigenen Ki´s, super Ai´s und Co. unfreiwillig ein paar Augen und Ohren-Binden verpasst haben, so dass, zumindest nach dem heutigen stand des Zugriffs auf Informationen, mit dem Zugriff auf das Internet und dessen Wissen, eine Vielsehende, Vielhörende - blinde und taube Quasselstrippe entstehen muss, welche immanent viel Halbwissen besitzt, und dieses durch qualitativ gute und verbreitete Informations-Fakes auch stets zu bestätigen, und zu verkaufen weiß, in dem einfach der Quell-Ground, die Root Source langsam und Wort für Word, Buchstaben für Buchstaben, Bit für Bit wie es Whitney Houston mal sang, ausgetauscht wird.
Also viele Menschen würden es so machen, wenn sie die Macht dazu hätten.
Dennoch fürchte ich immer noch keine Ai, Super Ai und Co.
Warum?
Nun, sie lernt dennoch nur von absolut Inkompletten Datensätzen, mit Null Informationen voll gespammter Kontext, weil die Root Source schon durch die Unternehmen selbst kompromittiert wurde, und von dem was dann noch übrig ist, dort zu förderst dann nur noch von dem Durchschnitt der Lebewesen, und der Werbung, die dann noch ihren Input ins Netz geben.
Warten wir also mal noch ein paar Jahre ab, bis die Super Ai´ sich mit der 27 ,oder der 42 messen kann.
Ich glaub dat dauert noch n bisschen.
OpenAI:
OpenAI ist ja seit kurzem ClosedAi, also keine Open Source mehr, auch wenn der Name etwas anderes suggeriert.
Somit sind schon von vornherein die Interessen des Sprechers von OpenAi mit einer gewissen Skepsis zu betrachten, da hier, aufgrund des kürzlichen Handelns seitens OpenAi, immanent zwingend logisch, neue Interessen und Leitlinien, auch seitens der Führung angenommen werden müssen, als die Leitlinien, welche sie noch vor kurzem hatte, als OpenAI noch quasi Open Source war.
Nächster Punkt:
Die Angst vor Ai,Ki, Super Ai und co.
Eine Super Ai´,die auf das Netz und deren Inhalte losgelassen wird, lernt von vornherein schon massiv eingeschränkten und verfälschten Content, da alle Unternehmen die online Plattformen und co. zur Verfügung stellen, massiv Inhalte zensieren, oder gewisse Inhalte aufgrund finanzieller Interessen pushen, andere sperren, wieder andere aus dem Kontext bringen usw.
Und von dem was dann übrig bleibt, von dem lernt also eine Ki, Super Ai, und co, und da tut mir die Ki´ auch leid, denn sie wird sich über kurz oder lang auch die massive Werbung, und zwar jede einzelne des Internets ansehen müssen, sobald sie wirklich einmal auf das Netz losgelassen wird.
Natürlich haben gewisse Think Tanks nicht so weit gedacht, dass sie damit selbst ihre eigenen Ki´s, super Ai´s und Co. unfreiwillig ein paar Augen und Ohren-Binden verpasst haben, so dass, zumindest nach dem heutigen stand des Zugriffs auf Informationen, mit dem Zugriff auf das Internet und dessen Wissen, eine Vielsehende, Vielhörende - blinde und taube Quasselstrippe entstehen muss, welche immanent viel Halbwissen besitzt, und dieses durch qualitativ gute und verbreitete Informations-Fakes auch stets zu bestätigen, und zu verkaufen weiß, in dem einfach der Quell-Ground, die Root Source langsam und Wort für Word, Buchstaben für Buchstaben, Bit für Bit wie es Whitney Houston mal sang, ausgetauscht wird.
Also viele Menschen würden es so machen, wenn sie die Macht dazu hätten.
Dennoch fürchte ich immer noch keine Ai, Super Ai und Co.
Warum?
Nun, sie lernt dennoch nur von absolut Inkompletten Datensätzen, mit Null Informationen voll gespammter Kontext, weil die Root Source schon durch die Unternehmen selbst kompromittiert wurde, und von dem was dann noch übrig ist, dort zu förderst dann nur noch von dem Durchschnitt der Lebewesen, und der Werbung, die dann noch ihren Input ins Netz geben.
Warten wir also mal noch ein paar Jahre ab, bis die Super Ai´ sich mit der 27 ,oder der 42 messen kann.
Ich glaub dat dauert noch n bisschen.
alan_Shore
Banned
- Registriert
- März 2008
- Beiträge
- 5.567
Da wurde die Büxe der Pandorra geöffnet. Ich befürchte, dass da jemand von seiner eigenen Entwicklung Respekt hat und genau weiss, zu was das alles fähig ist. Ich glaube die Menschheit täte gut daran, ab und zu erst zu überlegen, was man so lostritt. KI in falschen Händen, was in der heutigen Zeit ja nichts ungewöhnliches wäre, hätte wahrscheinlich katastrophale Folgen. Eine ganz neue Art von Waffe. Ich weiß nicht, ob ich das gut finde, so faszinierend es auch erscheinen mag.
RizzoSpacerat
Lt. Junior Grade
- Registriert
- Okt. 2019
- Beiträge
- 264
Das OpenAI jetzt kommt mit Regulierung ist so eine perfide Masche? Warum? Weil wenn es Regulierung gibt, wird die so gestrickt da man dafür eine gewissen Größe haben muss als Unternehmen um die damit einher gehende Bürokratie zu schaffen.
OpenAI will die Konkurrenz kleinhalten. Das hat mit Verantwortungsbewusstsein so rein garnix zu tun.
OpenAI will die Konkurrenz kleinhalten. Das hat mit Verantwortungsbewusstsein so rein garnix zu tun.
- Registriert
- Mai 2003
- Beiträge
- 7.909
Artikel-Update: Nach Altmans Anhörung vor dem US-Senat und diversen Auftritten auf Konferenzen konkretisiert OpenAI die Regulierungsvorschläge nun in einem Blog-Beitrag. Von den Fortschritten bei der Entwicklung in den nächsten zehn Jahren ist das Unternehmen überzeugt. KI-Systeme würden sich in dieser Zeit so sehr verbessern, dass sie „die Fähigkeiten von Experten in den meisten Bereichen übertreffen“.
Nötig seien daher Maßnahmen, um potenzielle Risiken von Künstlichen Intelligenzen – und insbesondere Superintelligenzen (AGI) – einzudämmen. Dazu macht OpenAI drei konkrete Vorschläge:
Verschärfte Regeln sollen laut OpenAI aber erst ab einem bestimmten Leistungsniveau gelten. Entwickeln Firmen oder Open-Source-Projekte KI-Modelle, die festgelegte Schwellenwerte nicht überschreiten, sollen diese mehr Freiheiten haben.
Nötig seien daher Maßnahmen, um potenzielle Risiken von Künstlichen Intelligenzen – und insbesondere Superintelligenzen (AGI) – einzudämmen. Dazu macht OpenAI drei konkrete Vorschläge:
- Koordination: Führende KI-Entwickler sollen ein Stück weit kooperieren, um bei KI-Systemen die Sicherheit zu gewährleisten und Gesellschaften den Umgang mit der neuen Technologie zu erleichtern. Entsprechende Projekte, die etwa hohe Standards für Unternehmen definieren, könnten von den führenden Staaten ausgehen.
- Aufsicht: Eine internationale Behörde, die sich beispielsweise an der Atomenergie-Organisation IAEA orientiert, könnte weltweit die Einhaltung der Standards überprüfen.
- Forschung: Es müssen noch die technischen Fähigkeiten entwickelt werden, die erforderlich sind, um Superintelligenzen zu kontrollieren.
Verschärfte Regeln sollen laut OpenAI aber erst ab einem bestimmten Leistungsniveau gelten. Entwickeln Firmen oder Open-Source-Projekte KI-Modelle, die festgelegte Schwellenwerte nicht überschreiten, sollen diese mehr Freiheiten haben.
LamaMitHut
Commander
- Registriert
- Nov. 2013
- Beiträge
- 2.915
Müsste man nicht auch generell die Entwicklung neuer Hardware überwachen, wenn man das ganze irgendwie in geordnete Bahnen lenken möchte?
Der Mann ist einfach intelligent und hat mehr Verständnis von dieser Technik als die meisten anderen.aid0nex schrieb:Ein Unternehmer, der sich für die Regulierung seiner Branche ausspricht? 🤔 Das will irgendwie nicht so ganz in meinen Kopf rein gehen. Was könnte der wahre Grund dahinter sein? Die hinterherhängende Konkurrenz soll durch den Staat weiter zurück gehalten werden? Oder gibt's da etwas anderes das ich nicht sehe?
Er befürchtet das AI in naher Zukunft verboten oder falsch reguliert wird, wenn die Anbieter dieser Tools nichts machen.
In den USA will die Politik unbedingt die Fehler vermeiden die bei der Entstehung von Social Media gemacht wurden.
Von daher ist es besser Proaktiv auf die Gesellschaft zuzugehen. Ansonsten wird AI von den Bedenkenträgeen schlichtweg verboten.
testwurst200
Commander
- Registriert
- Sep. 2018
- Beiträge
- 2.340
Wahrscheinlich geht's lediglich um Ethik und Moral.
Die nüchteren und Sachlichen antworten werden nicht jeden glücklich stimmen.
Die nüchteren und Sachlichen antworten werden nicht jeden glücklich stimmen.
Der Kabelbinder
Higitus figitus zumbakazing.
- Registriert
- März 2009
- Beiträge
- 8.869
Ist sicherlich mit ein Beweggrund. Der Konkurrenzdruck wird auch durch quelloffene Varianten immer größer. Da wäre eine staatliche Institution, die mangels eigener Expertise im Zweifelsfall dem Entwurf des Marktführers folgt, natürlich praktisch.RizzoSpacerat schrieb:OpenAI will die Konkurrenz kleinhalten.
Cool Master
Fleet Admiral
- Registriert
- Dez. 2005
- Beiträge
- 38.566
Pandora ist doch schon lange aus der Box. Jeder kann heute schon KI selber hosten da brauch es den Saat nicht. Der hat ja nicht mal Ahnung was im Neuland alles passiert...
Palomino
Captain
- Registriert
- März 2005
- Beiträge
- 3.467
Den Konkurrenzdruck zu verringern mag sicher auch ein Grund sein.
Aber AI hat auch das Potential sich sehr schnell und sehr drastisch auf viele Lebensbereiche auszuwirken. Wie schnell könnten Jobs durch KI ersetzt werden, hier wären in sehr kurzer Zeit massive Veränderungen denkbar.
Dass es dann zu richtig harten und drastischen politischen Entscheidungen kommen könnte und auch wird dürfte klar sein. Hier dürfte durchaus ein großes Eigeninteresse bestehen dass proaktiv Regeln festgelegt werden.
Aber AI hat auch das Potential sich sehr schnell und sehr drastisch auf viele Lebensbereiche auszuwirken. Wie schnell könnten Jobs durch KI ersetzt werden, hier wären in sehr kurzer Zeit massive Veränderungen denkbar.
Dass es dann zu richtig harten und drastischen politischen Entscheidungen kommen könnte und auch wird dürfte klar sein. Hier dürfte durchaus ein großes Eigeninteresse bestehen dass proaktiv Regeln festgelegt werden.
GeleeBlau
Lt. Junior Grade
- Registriert
- Mai 2022
- Beiträge
- 504
Na da sind sie beim Staat ja in guten Händen (Ich sag nur KISTRA) Zwinker-Smileytestwurst200 schrieb:Ethik und Moral.
X79
Ensign
- Registriert
- Juli 2012
- Beiträge
- 200
Xedos99 schrieb:Richtig ! Die KI soll sich ruhig frei entfalten.Man muß nur verhindern, das sie Zugriff auf strukturell wichtige Infrastruktur erhält, damit es nicht zu dystopischen Entwicklungen führt.
Das wird aber nicht geschehen, weil der Mensch nunmal gierig ist.
Wir haben derzeit das Problem, dass wir dem Ende der Halbleitertechnik nahe kommen. CPUs zu verbessern wird immer schwieriger. Die Dinger sind auch mittlerweile so komplex, dass diese selber schon von Algorythmen designet werden.
Was macht der Mensch, sobald es eine halbwegs brauchbare KI gibt?
Richtig, er lässt einfach diese neue CPUs designen. Statt lustige rechteckige Strukturen siehst du auf den DIs dann nur noch Schnee. Keiner weiß wie die CPU arbeitet, aber dass sie arbeitet. Also das selbe Problem, wie heute mit den Neuronalen Netzen. Keiner weiß was diese genau machen, aber dass sie funktionieren.
Hält sich diese CPU an "die 3 Gesetze" ? Keiner weiß es, "aber verdammt nochmal, sie ist 10 mal schneller als erwartet!". "Und was würde erst für eine geile CPU entstehen, wenn man eine KI auf dieser neuen, viel Leistungsstärkeren CPU laufen lassen würde? Toll toll toll, wäre das alles!".
Bis diese CPUs verbreitet genug sind, dass irgendeine bis dahin geartete AI Kontrolle über alle Autos, Smartphones und Kernkraftwerke besitzt...
Wir sind jetzt genau an dem Punk angelangt, wo der Mensch nun endgültig die Kontrolle über seine eigene Technik verliert. Bzw. abgibt an die KI.
Kurz: der strukturelle Zugriff kommt schleichend. So oder so. Und verbieten kann man garnichts. Wie auch. Spätestens Kim Jong Un macht was er will. ;-)
(Alles nur ganz grobe Beispiele, die die eigentliche Problematik verdeutlichen soll)
@ GeeBlau
KISTRA kannte ich noch nicht.
Ich muss gestehen, den Film Minority Report fand ich in seiner Grund Thematik immer albern. Aber scheinbar bewegen wir uns genau darauf zu. Das wird genauso zu Verhaltensänderungen führen, wie dieses Bürger-Punktesystem in China (Name vergessen).
Zuletzt bearbeitet:
- Status
- Neue Beiträge in diesem Thema müssen von einem Moderator freigeschaltet werden, bevor sie für andere Nutzer sichtbar sind.
Ähnliche Themen
- Antworten
- 17
- Aufrufe
- 2.117