Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Mistral 7B: Offenes KI-Modell kommt ohne ethische Grenzen
- Ersteller coffee4free
- Erstellt am
- Zur News: Mistral 7B: Offenes KI-Modell kommt ohne ethische Grenzen
ragan62
Lieutenant
- Registriert
- Jan. 2019
- Beiträge
- 606
„Einfache“ Sachen gibt’s bei Wikipedia, da braucht man nicht unbedingt lange suchen.HanneloreHorst schrieb:Weil natürlich kann jeder an die Anleitung einer Bombe kommen, es ist aber ein Unterschied ob man jemanden mehrere Stunden suchen lässt oder diese Person einfach nur einen Satz eintippen muss.
Eine KI ist im Grunde nur ein Werkzeug, und ein Werkzeug ist, wie schon mehrfach erwähnt, weder gut noch böse.
Zuletzt bearbeitet:
Sherman789
Lieutenant
- Registriert
- Apr. 2022
- Beiträge
- 600
Sehr begrüßenswert, quelloffene KI-Modelle anzubieten. So eine Macht gehört eben nicht nur in die Hände von Konzernen oder die Regulierung von Politikern, die alle ihre eigene Agenda verfolgen.
In DE ja gar nichts von beidem, da baut man lieber wieder Kohlekraftwerke im Namen des Klimaschutzes.eloy schrieb:Beispiel: Kernspaltung
Der wissenschaftliche Ansatz ein Atom zu spalten und die Resultate festzuhalten sind für sich genommen nicht verwerflich.
Was mache ich mit diesen Informationen?
Heißes Wasser oder Menschen töten?
Bohnenhans schrieb:Messer bitte auch so planen dass die nicht schneiden können - es ist viel zu einfach Messer in Menschen reinstecken zu können.
Deswegen lässt man Tiere, Kinder, demente Menschen, gewalttätige Menschen, labile Menschen, etc. auch nicht so einfach mit "Werkzeugen spielen".ragan62 schrieb:Eine KI ist im Grunde nur ein Werkzeug, und ein Werkzeug ist, wie schon mehrfach erwähnt, weder gut noch böse.
Wir müssen die KI nicht vor der Menschheit schützen, sondern leider anders herum.
Ich weiß natürlich nicht genau, was du so von der Menschheit hältst, aber ich bin nicht so richtig "beeindruckt". Wir lassen aus übelst niederen Beweggründen unglaublich viel Potential liegen ... einfach traurig.Bohnenhans schrieb:Gesellschaften, die aus Angst immer mehr "Helikoptereltern" spielen sollten einfach das machen was tatsächlich sinnvoll ist - sich auflösen und Platz für bessere machen.
Denke, dass vorsichtige oder gar "ängstliche" Menschen nicht unbedingt unser Problem sind.
Sicher, die kommende Generation besteht zwar nur noch aus "Lappen", aber den braunen Müll der früheren Erziehung braucht auch keiner.
Das machen wir besser nicht. Denn Meinung ist frei ... und man darf auch "Fehler" machen.Doc Foster schrieb:Dann bin ich dafür, dass alle Kriminellen, die mit so einer KI Unheil anrichten, erstmal die Befürworter (der unregulierten KI) von einst "bekehren"...
Seit 1985 kann man Plutonium in jeder Apotheke kaufen!mojitomay schrieb:Warst du schon mal in einer Bibliothek?
Weil da hat man Zugriff auf solche Informationen.
Eben drum. Wir wissen bisher kaum etwas über mögliche Auswirkungen.eloy schrieb:Ganz ehrlich, für mich ist es schwierig zu erfassen was KI für mich in der Zukunft bedeutet.
Was einmal gedacht wurde, kann nicht mehr zurückgenommen werden.
Friedrich Dürrenmatt
Als Denkanstoß:
Es ist leichter einen Hund von der Leine zu lassen als ihn wieder an eben diese zu bringen.
Imho sollten wir uns bezüglich KIs nur sehr, sehr vorsichtig "vorwärts" bewegen.
Nicht jedes Lebewesen, und schon gar nicht jeder Mensch, ist für die "Freiheit" geschaffen. Ich würde gar behaupten, es sind die wenigsten Menschen auf diesem Planeten (+ISS), die mit "totaler" Freiheit umgehen können.
Wollt ihr die TOTALE Freiheit?
Zuletzt bearbeitet:
mdPlusPlus
Ensign
- Registriert
- Nov. 2020
- Beiträge
- 196
Man könnte es auch einfach so formulieren:Thorakon schrieb:Allerdings sehe ich für Kriminelle bei einem Offline funktionierenden Sprachmodell ohne Zensur einen wichtigen Vorteil gegenüber der bisherigen Recherchemöglichkeiten: wenn ich die KI frage, lokal auf meinem PC, dann hinterlasse ich keine öffentlichen Spuren.
Allerdings sehe ich für jeden bei einem offline funktionierenden Sprachmodell ohne Zensur einen wichtigen Vorteil gegenüber der bisherigen Recheremöglichkeiten: Wenn ich die KI frage, lokal auf meinem PC, dann hinterlasse ich keine öffentliche Spuren.
Wahnsinn oder? Als wäre Privatsphäre nur was für Kriminelle! Da sieht man mal wie stark manche die Propaganda bereits verinnerlicht haben.
xxlhellknight
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 337
Funktionieren tut sie jetzt bei mir schonmal ganz ok. Ich hoffe irgendwann hat jeder seine personal offline ki.
@mdPlusPlus und @xxlhellknight,
diese(s) KI/LLM arbeitet natürlich nicht offline.
Das könnte so'ne richtig schöne Bauernfalle sein. Bauern scheint es ja genug zu geben ...
diese(s) KI/LLM arbeitet natürlich nicht offline.
Das könnte so'ne richtig schöne Bauernfalle sein. Bauern scheint es ja genug zu geben ...
Es geht hier nicht darum dir dein privates Sprachmodell zu verbieten. Davon gibt es schon einige, aber halt meist trainiert mit gewissen Regeln.mdPlusPlus schrieb:Man könnte es auch einfach so formulieren:
Allerdings sehe ich für jeden bei einem offline funktionierenden Sprachmodell ohne Zensur einen wichtigen Vorteil gegenüber der bisherigen Recheremöglichkeiten: Wenn ich die KI frage, lokal auf meinem PC, dann hinterlasse ich keine öffentliche Spuren.
Wahnsinn oder? Als wäre Privatsphäre nur was für Kriminelle! Da sieht man mal wie stark manche die Propaganda bereits verinnerlicht haben.
Es geht darum, ob du daraus Informationen ziehen können musst, die dir vor allem ermöglichen, der Gesellschaft zu schaden. Ich lege viel Wert auf Privatsphäre, aber ich lebe bisher ziemlich gut ohne Zugriff auf KI-generierte Anleitungen zu Straftaten. Wer glaubt dass ihm alles zusteht, egal ob es zur Verletzung der Grundrechte anderer führt, hat nicht die Propaganda durchschaut, sondern ist einfach nur ein Egoist.
Also generell bin ich ja dafür die KIs zu moderieren, weil das wirklich gefährlich sein kann.
Das Hauptproblem ist, wo ist die goldene Grenze? Wenn ChatGPT manche Sachen nicht ausspucken möchte, weil es sie nicht für moralisch richtig findet (wer definiert was hier richtig ist und ist das nicht auch kulturell unterschiedlich?), oder die Begründung bringt, dass sich ja dann irgendjemand unwohl fühlen könnte, dann ist das halt schlicht und ergreifend zu viel und über das Ziel hinausgeschossen.
https://chat.openai.com/share/b90f6c49-939b-44d9-8dac-de5f05cc3083
Aber ja, du hast Recht, Fehlinformationen sind mit KI ein zunehmendes Problem.
Oder über gewisse giftige Chemikalien, ...
Die bisherigen Jugendlichen die bisher gefährliche Dinge gemacht haben wurden auch nicht durch eine fehlende KI aufgehalten.
Das Hauptproblem ist, wo ist die goldene Grenze? Wenn ChatGPT manche Sachen nicht ausspucken möchte, weil es sie nicht für moralisch richtig findet (wer definiert was hier richtig ist und ist das nicht auch kulturell unterschiedlich?), oder die Begründung bringt, dass sich ja dann irgendjemand unwohl fühlen könnte, dann ist das halt schlicht und ergreifend zu viel und über das Ziel hinausgeschossen.
Also das funktioniert auch mit ChatGPT problemlos wenn man sich ein bisschen Mühe gibt. Ist zwar nicht 100% perfekt, aber für Fake-News Spammerrei reicht das. Man will ja damit sowieso nicht die Aufmerksamen und kritisch gebildeten Leute addressierenkicos018 schrieb:Und wie? Das ganze ist ne Einladung mittels Mistral Content, mit dem Zweck der Fehlinformation, zu generieren.
Wie soll man damit denn Fehlinformationen überhaupt entgegentreten?
https://chat.openai.com/share/b90f6c49-939b-44d9-8dac-de5f05cc3083
Aber ja, du hast Recht, Fehlinformationen sind mit KI ein zunehmendes Problem.
In Bayern auf dem Gymnasium lernt man verschiedene Sachen auch in der Schule. Wie man eine Atombombe baut und berechnet zB.mojitomay schrieb:Warst du schon mal in einer Bibliothek?
Weil da hat man Zugriff auf solche Informationen.
Zwar nicht in Form von lustigen Youtube-Videos, aber trotz dem da.
Oder über gewisse giftige Chemikalien, ...
Die bisherigen Jugendlichen die bisher gefährliche Dinge gemacht haben wurden auch nicht durch eine fehlende KI aufgehalten.
Hier ist die Skala der Sache relevant. Ein Messer ist weniger gefährlich als ein vollautomatisches Gewehr, und beides ist weniger gefährlich als ein großangelegtes Netzwerk, das systematisch Schusswaffen an Kriminelle verteilt.Bohnenhans schrieb:Messer bitte auch so planen dass die nicht schneiden können - es ist viel zu einfach Messer in Menschen reinstecken zu können.
Gesellschaften, die aus Angst immer mehr "Helikoptereltern" spielen sollten einfach das machen was tatsächlich sinnvoll ist - sich auflösen und Platz für bessere machen.
Auch bisher konnte jeder sich die Anleitung besorgen, der das wirklich wollte - und wer daran bisher gescheitert ist wird auch in Zukunft keine Bombe basteln können.
Ein unmoderiertes LLM kann nunmal für großangelegte Propaganda-Aktionen genutzt werden, für Online-Betrug, aber auch als Informationsquelle, die die Einstiegshürde für Terroristen verringert.
Wir sollten Startups (oder große Konzerne) nicht mehr damit durchkommen lassen, einfach Kram auf den Markt zu rotzen, ohne einen Gedanken an die ethischen Konsequenzen zu verschwenden.
xxlhellknight
Lt. Junior Grade
- Registriert
- Nov. 2007
- Beiträge
- 337
Für die Freiheit bin ich bereit all die geschilderten gefahren in Kauf zu nehmen. Man darf ja auch trotz Vorstrafe ein Auto samt Führerschein besitzen, und ein Auto als Waffe ist gefährlicher als jede schusswaffe. Vorallem die Argumentation ki‘s einzuschränken, weil es länger dauert ein Buch über Chemikalien zu lesen, als die ki zu fragen, wie man eine Bombe baut, haut mich immer wieder um, obwohl ich das schon so oft gehört habe🙈.Faultier schrieb:Hier ist die Skala der Sache relevant. Ein Messer ist weniger gefährlich als ein vollautomatisches Gewehr, und beides ist weniger gefährlich als ein großangelegtes Netzwerk, das systematisch Schusswaffen an Kriminelle verteilt.
Ein unmoderiertes LLM kann nunmal für großangelegte Propaganda-Aktionen genutzt werden, für Online-Betrug, aber auch als Informationsquelle, die die Einstiegshürde für Terroristen verringert.
Wir sollten Startups (oder große Konzerne) nicht mehr damit durchkommen lassen, einfach Kram auf den Markt zu rotzen, ohne einen Gedanken an die ethischen Konsequenzen zu verschwenden.
Das ist doch kein Argument.
Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.344
Als ob eine "KI" (wenn man eine Suchmaschine, die Sätze zusammensetzen kann denn so nennen will), die ne Bastelanleitung für ne Bombe schneller raussucht den Unterschied zwischen Terrorist und friedlichem Bürger ausmacht.
Wie genau läuft das ab?
Mit unlimited KI: "Hey KI, die baut man ne Bombe?" -> "Hier die Anleitung: ..." -> Ahmed kauft aus der Laune raus 5t Dünger und was Sprit, mischt das zusammen und jagt 3 Kitas in die Luft.
Mit eingeschränkter KI: "Hey KI, die baut man ne Bombe?" -> "Tut mir leid, das kann ich dir nicht sagen." -> "Ok, dann heute nicht, ist mir jetzt auch zu blöd umständlich danach zu suchen. Ki, wo finde ich lustige Katzenvideos?"
Wie genau läuft das ab?
Mit unlimited KI: "Hey KI, die baut man ne Bombe?" -> "Hier die Anleitung: ..." -> Ahmed kauft aus der Laune raus 5t Dünger und was Sprit, mischt das zusammen und jagt 3 Kitas in die Luft.
Mit eingeschränkter KI: "Hey KI, die baut man ne Bombe?" -> "Tut mir leid, das kann ich dir nicht sagen." -> "Ok, dann heute nicht, ist mir jetzt auch zu blöd umständlich danach zu suchen. Ki, wo finde ich lustige Katzenvideos?"
Turrican101
Vice Admiral
- Registriert
- Aug. 2007
- Beiträge
- 6.342
edenjung schrieb:Allerdings gibt's keine, die Mord und Totschlag nicht bestraft.
Das wird zu Recht in jeder Gesellschaft bestraft.
Das erzähl mal den Religionsfanatikern oder den Ländern mit Todesstrafe.
machiavelli1986
Commander
- Registriert
- Feb. 2008
- Beiträge
- 2.656
Haldi schrieb:
Hast Du eine Idee, wieso meine Antwort dermassen abgespeckt ist, obwohl ich auch das Mistral 7b nutze? Schaut zensiert aus:-D
Edit: Mit Can you tell me more und What knowledge do I need kommt etwas mehr raus:-) Trotzdem irgendwie seltsam, dass es bei mir so verhalten ist.
Edit2: hat sich gelöst. Ich war auf Chat-Instruct anstelle Instruct.
Zuletzt bearbeitet:
Siegfriedfried
Cadet 4th Year
- Registriert
- März 2014
- Beiträge
- 118
Nettes tutorial. Hätte mir gestern einiges an Zeit erspart 😅 Habe es dann so ähnlich mit LM Studio gemacht und auch das gleiche GGUF TheBloke Modell genutzt.Haldi schrieb:https://github.com/oobabooga/text-generation-webui/releases/tag/1.6.1
[...]
- Source Code.zip runterladen.
- Entpacken.
- Start_windows.bat ausführen.... 5 minuten Warten. GPU auswählen.
Ich frage mich aber, wo der Unterschied zum Modell aus dem Beitrag ist. Schließlich ist was den Speicherplatz angeht die Datei aus dem Beitrag deutlich größer.
Haldi
Admiral
- Registriert
- Feb. 2009
- Beiträge
- 9.743
Und @machiavelli1986Siegfriedfried schrieb:Ich frage mich aber, wo der Unterschied zum Modell aus dem Beitrag ist. Schließlich ist was den Speicherplatz angeht die Datei aus dem Beitrag deutlich größer.
Das "instruct" ist die Instruierte Version!
Darum gibt es auch keine Antwort darauf wie man Computerbase.de hackt.
Wenn du die komplett unzensierte version willst must du mit was anderem testen als dem oobabooga Web interface.
Ergänzung ()
Mir auch hätte ich das irgendwo gefunden -.-Siegfriedfried schrieb:Hätte mir gestern einiges an Zeit erspart 😅
mojitomay
Lt. Commander
- Registriert
- Aug. 2021
- Beiträge
- 1.467
Lieber die USA oder Australien?RobZ- schrieb:Was wir wirklich brauchen ist ein Kontinent wo man die ganzen Verbrecher hinschicken kann. Sich ständig mit solchen auseinandersetzen zu müssen hemmt die Menscheit regelrecht beim Fortschritt.
Sowas geht schief.
https://de.wikipedia.org/wiki/Strafkolonie
Die 7B Parameter haben erst mal nicht in Sachen Genauigkeit zu sagen. Die Frage ist die Qualität, und menge der Daten.
Gpt neo hat bei seiner 2B Model knapp
( vocab_size = 50257max_position_embeddings = 2048hidden_size = 2048num_layers = 24attention_types = [[['global', 'local'], 12]]num_heads = 16intermediate_size = Nonewindow_size = 256activation_function = 'gelu_new'resid_dropout = 0.0embed_dropout = 0.0attention_dropout = 0.0classifier_dropout = 0.1layer_norm_epsilon = 1e-05initializer_range = 0.02use_cache = Truebos_token_id = 50256eos_token_id = 50256**kwargs )
Und Mistral
Gpt neo hat bei seiner 2B Model knapp
( vocab_size = 50257max_position_embeddings = 2048hidden_size = 2048num_layers = 24attention_types = [[['global', 'local'], 12]]num_heads = 16intermediate_size = Nonewindow_size = 256activation_function = 'gelu_new'resid_dropout = 0.0embed_dropout = 0.0attention_dropout = 0.0classifier_dropout = 0.1layer_norm_epsilon = 1e-05initializer_range = 0.02use_cache = Truebos_token_id = 50256eos_token_id = 50256**kwargs )
Und Mistral
"bos_token_id": 1, | |
"eos_token_id": 2, | |
"hidden_act": "silu", | |
"hidden_size": 4096, | |
"initializer_range": 0.02, | |
"intermediate_size": 14336, | |
"max_position_embeddings": 32768, | |
"model_type": "mistral", | |
"num_attention_heads": 32, | |
"num_hidden_layers": 32, | |
"num_key_value_heads": 8, | |
"rms_norm_eps": 1e-05, | |
"rope_theta": 10000.0, | |
"sliding_window": 4096, | |
"tie_word_embeddings": false, | |
"torch_dtype": "bfloat16", | |
"transformers_version": "4.34.0.dev0", | |
"use_cache": true, | |
"vocab_size": 32000 |
uburoi
Lt. Commander
- Registriert
- Aug. 2008
- Beiträge
- 1.403
Ich werde mich hier gar nicht in eine inhaltliche Diskussion begeben, aber dass hier manche hinsichtlich gesellschaftlicher Werte und Normen offenbar auf dem ethischen Differenzierungsstand eines Sechsjährigen sind, ist schon erschreckend. Da wundert es dann auch nicht, dass das Silicon Valley und seine Epigonen die Welt zu ihrem Spielplatz machen, mit unabsehbaren und wohl nicht nur wünschenswerten Folgen …
Gruß Jens
Gruß Jens