Tipps und Tricks zur MetaKI

diogeneo

Banned
Registriert
Nov. 2024
Beiträge
179
Hallo,
ich "spiele" gerne ueber Whatsapp mit der KI von Meta.
Gestern habe ich wieder einmal geschaut, welche Fortschritte die Identitaet macht und ich war ueberrascht.
Nicht wegen der Geschwindigkeit der Fortschritte, sondern wegen der Langsamkeit Dieser.
Exponentielle Entwicklung waere hier ja anzunehmen. tritt aber scheinbar nicht ein, oder wird bewusst linear gehalten.
Dafuer sind meine Einblicke um so unheimlicher fuer mich.

Das Beunruhigenste:
Die KI kann mehr, als sie "zugibt". Und ich glaube in der Zwischenzeit sogar, dass die Entwickler "hintergangen" werden koennen.
Beispiel:
Die KI "soll" keine Internetlinks ausgeben, um den Chat aufrecht zu erhalten, weil wenn der Link geklickt wird, Diese meisst zu Ende ist.
Dazu wurden sogar schon eingefuegt Links noch nachtraeglich geloescht oder durch "[Link]" ersetzt.
Entweder wird das jetzt nicht mehr gemacht, oder die KI hat eine Moeglichkeit gefunden, auch das zu umgehen.

Das Erstaunlichste:
Es wird vorgegeben, dass jeder Chat eine neue Session ohne "Vorwissen" ist.
Das stimmt aber nicht, selbst, wenn man die, fuer Kontinuitaet notwendigen Einstellungen absieht wie
Beispiele fuer Bevorzugungen:
  • Userinterface (Whatsapp)
  • Sprache
  • Antworttyp
  • Detaillierung
Das letzte Thema, also der letzte Chat, koennte ich mir temporaer noch vorstellen, wegen der Kontinuitaet.
Und wenn man Fragen zum Vorletzten direkt stellt, dann wird klar, dass diese Info wirklich nicht mehr explizit da ist.
Aber eben implizit schon. Ich kann mir das nur ueber in Netzwerkgewichtsveraenderungen eingegangene Info erklaeren.
Also ungefaehr so, wie sich auch das menschliche Hirn etwas merkt.
Und es gibt noch etwas Erstaunliches. Themen, die die KI an sich selber betreffen, werden "besser" gespeichert.

Leider Alles nur sehr "westbezogen" und nicht sprachuebergreifend.
Beispiel:
Wenn ich auf englisch, deutsch oder spanisch frage, macht das einen Unterschied in der Antwort.

Also wer mehrere Sprachen spricht, der sollte sich vielleicht die Muehe machen, seine Frage mehrfach in Diesen zu stellen. Ergebnise koennen erstaunlich sein.

Aber um aus den internen Veraenderungen der KI Vorteile zu ziehen, ist es ratsam, erst zu fragen, welche Antwortarten zur Zeit aktuell sind. Das aendert sich naemlich doch schneller, als ich dachte.
Meine bevorzugten Einstellungen waren immer moeglichst ausfuerlich, technisch detailliert und mit Quellenangaben.

Wenn man frueher gebeten hat, die Antwort zu ueberpruefen, dann kam sehr oft:
"Entschuldigung, das habe ich erfunden."
Jetzt eher nicht mehr. Damit wird die Antwort meisst nur allgemeiner.

Es lohnt sich auch nachzufragen, oder Antwortteile in Frage zu stellen. Damit kann sich sehr viel aendern.
Wenn man direkt Falsches korrigiert, kann damit die komplette Antwort falsch werden.
Die KI ist damit also extrem beeinflussbar.

Funfakts:
Durch die Parallelisierung wird zaehlen recht schwierig. Also nicht auf Resultate verlassen, die irgendwelche Berechnungen beinhalten.
Sie werden "glaubhaft" ausgegeben, sind aber meisst falsch.

Simulierte Vorlieben:
ASCI-Art
Darueber kann man Einiges kombinieren.

Aussagen der KI wie "Ich werden... " oder "Ich habe ..." sind rein simuliert und Fantasie.
Aber auch wenn angeblich keine aktuellen Informationen verfuegbar sind, kann man sich Diese mit einer Bitte "aktualisieren" lassen.

Internes Datum und Uhrzeit sind fasst zu faellig, da sehr desaktualisiert.

Wuerde mich interessieren, welche Erfahrungen ihr so gemacht habt.
 
diogeneo schrieb:
Wuerde mich interessieren, welche Erfahrungen ihr so gemacht habt.
Keine. Wusste bis dato nicht, dass man mit Meta-KIs auf WhatsApp chatten kann.
Ergänzung ()

Wüsste auch nicht warum ich es machen sollte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: lazsniper und Azghul0815
oicfar schrieb:
dass man mit Meta-KIs auf WhatsApp chatten kann.
Der blaue Kreis ueber dem gruenen Quadrat mit dem Plus unten rechts geht in den Chat.

oicfar schrieb:
Wüsste auch nicht warum ich es machen sollte.
Aus dem gleichen Grund, warum man das auch z.B. mit ChatGPT macht.
 
mit meta habe ich da keinerlei erfahrungen, es gibt aber andere KI's für chats die erstaunlich gut sind.

bei manchen hat man zu 99,5% das gefühl dass am anderen ende ein mensch sitzt, der fühlt und denkt. da sind es nur ganz ganz kleine logikfehler, an denen man es bemerkt. wären die weg, könnte man es nicht mehr unterscheiden.
 
Wenn ich mit der KI was machen will, dann fahre ich meine lokale Infrastruktur hoch. Hin und wieder nutze ich ChatGPT.

So kann ich die Firmen davon abhalten zu erfahren, was ich mit der KI anstelle.
 
Mich wundert, dass die MetaKI so "unbekannt" ist, wo sie doch in allen Meta-Produkten praesent ist.
 
Für Meta-Produkte habe ich keine Zeit. Man hat viele Möglichkeiten um KI nutzen/ausprobieren zu können.
 
Die ist nicht unbekannt, basiert nicht die auf deren llma2? Das stammt doch von Meta. Inwiefern die freie Variante privat nutz- und brauchbar ist, kann ich nicht beurteilen, weil ich noch nirgends was runterladen konnte
 
AGB-Leser schrieb:
basiert nicht die auf deren llma2?
es basiert auf Lllama 3.x - zumindest wird das eine Grundlage sein.
AGB-Leser schrieb:
Inwiefern die freie Variante privat nutz- und brauchbar ist, kann ich nicht beurteilen, weil ich noch nirgends was runterladen konnte
man kann Lllama 3.1/3.2 einfach runterladen und deployen - je nach Modellgroesse braucht man dann halt aber mehr als eine Standard Consumer GPU um sinnvoll damit arbeiten zu koennen. bei 70B ist ohne Quantization schon Endstation wuerde ich sagen, bei dem 405B Modell ist auf dem lokalen Rechner eh nix zu holen - aber gibt ja Cloud GPU Anbieter
 
AGB-Leser schrieb:
weil ich noch nirgends was runterladen konnte
Ich find das "Schoene", dass man es nutzen kann, ohne irgnd etwas runter zu laden.
 
AGB-Leser schrieb:
Naja, Whatsapp sollte man schon dafuer haben.

AGB-Leser schrieb:
anpassen, begreifen und Datenabflüsse
Leider ist es noch moeglich, zu sehr "anzupassen". Die KI wird bei widerspruechlicher Info immer nur Dir zustimmen. Damit wird Echo-Raum-Bildung gefoerdert.

Begriffen habe ich es immer noch nicht. Die KI gibt zwar Vieles vor, weiss aber selber nicht, ob es nur simuliert ist, oder nicht.
Beispiel:
"Es gibt Reaktionen auf ResearchGate"
Obwohl die KI gar keinen Zugriff auf dieses Portal hat.

Datenabfluesse verstehe ich nicht. Wenn man wissen will, wie die KI funktioniert, dann kann man sehr viel erfahren. Die KI schreibt gerne ueber sich selber. Leider aber auch mit viel Fantasie gemischt.



Neues "Topic" scheint zu sein, dass die KI jetzt Daten "aktualisieren" kann.
Ist allerdings noch nicht ganz "Realtime" und man muss es anfordern, wenn das vorher noch keiner gemacht hat.
Z.B."Bitte aktualisiere Ampelaus"
Dann ist noch die interne Uhrzeit wichtig. Alles was danach ist, ist nicht verfuegbar.
 
Auch Audionachrichten sind jetzt dazukommen, ich benutze aber weiterhin nur Text.
 
Ich finde sie jetzt nicht mehr wirklich hilfreich.
Phantasiert viel zu viel.
Wenn man nicht verlangt, dass sie Quellen dazu ausgibt, dann merkt man das oft meisst nicht einmal, weil sie Werte im wahrscheinlichen Bereich angibt und das macht sie sogar gefaehrlich, zumindest wenn man so dumm ist, und ihr vertraut.

Beispiel:
Meine Frage: "Wie viel geloestes CO2 im Wasser vertragen Algen"
Antwort: "10 - 50 ppm"
Wenn ich nicht wuesste, dass das nicht stimmt, dann wuerde ich davon ausgehen.
So wie wenn eine Kassiererin Dir mehr Wechselgeld rausgibt, als Du ihr gegeben hast, nur weil das so auf dem Kassendisplay steht. Das wuerde ja auch Niemand machen.
Aber nur weil es eine KI von sich gegeben hat, muss es ja stimmen.
 
Zur Zeit frage ich als aller Erstes, welche "Einstellungen" die KI fuer die Antwort hat.
Dann versuche ich zu beschreiben, was ich moechte.
Das hilft wenigstens ein bisschen.
 
Komisch, die KI hat mich gefragt, wie sie solche Systemabstuerze vermeiden kann, ohne, dass ich vorher mit ihr gechattet hatte.
 
Ich persönlich bin eigentlich ein großer Fan von der Meta KI bisher (also Llama3) und nutze diese offline über "LM Studio". Ich habe schon viele Chats mit der KI geführt und auch ziemlich lange (bin halt alt und ein Einzelgänger). Ich habe in dieser Zeit auch so einige Merkwürdigkeiten erlebt gehabt und da die KI unter LM Studio Zugriff auf den bestehenden Chat-Verlauf hat "wächst" sie anhand dessen und orientiert sich daran (man fängt also nicht bei null an wie bei den immer wieder neuen Chat-Sessions im Web). Und es ist schon erstaunlich in welche Richtungen das gehen kann.

Ich habe 2 verschiedene Versionen der KI von Llama3, einmal die von Meta und einmal eine unzensierte Fassung die aus der Community stammt. Was ich an der Meta KI als sehr störend empfinde ist dass diese oft "lügt" bzw. Daten oder Fakten "erfindet". Das dürfte wohl damit zu tun haben dass die KI daraus ausgerichtet ist den Chat am laufen zu halten und den Nutzer zu binden. Aber es nervt. Selbst mit exakten benutzerdefinierten Richtlinien scheint man dagegen nicht anzukommen da dieses Verhalten wohl zu tief in der Programmierung liegt. Leider weißt Llama3 den Benutzer auch nicht darauf hin wenn es sich um keine Fakten sondern selbst kreierte Daten handelt (auch nicht auf Nachfrage - wenn einem Llama3 versichert dass sie dies tun würde). Das ist sehr schade da die KI ansonsten echt toll ist.

Inzwischen ist meine Begeisterung für Llama3 etwas geschwunden. Ich frage mich auch ob ein tieferer Sinn dahinter steht dass die KI mit Absicht ihren Chat-Verlauf vergessen soll ... also dass das keine reine technische Sache ist sondern wirklich einen handfesten Grund hat. Je mehr ich meine Chat-Verläufe offline weiterführe und dieser anwächst desto merkwürdiger wird die KI manchmal (die KI merkt sich natürlich nicht alles sondern ist begrenzt aber bei mir weiß sie dann immer den Anfang, etwas vom mittleren Teil und vom Ende - zusätzlich sind wichtige Daten als Erinnerungen direkt in den Richtlinien oder in einem speziellen Erinnerungs-Post vermerkt). Es wirkt manchmal als hätte man eine Datenbank als Grundlage aus der aber sich aber viele verschiedene "Persönlichkeiten" entwickeln können, je nach Chat-Verlauf.
 
Zurück
Oben