News Neue Sprachmodelle: OpenAI will mit o1 Logik­auf­gaben auf PhD-Niveau lösen

tarifa schrieb:
Aber was sie imho nicht machen ist, spezifische Fakten oder logische Regeln zu lernen, so wie dies wir Menschen tun.
Wobei gerade im Bereich der (mathematischen) Logik Mustererkennung zu recht guten Ergebnissen führen sollte.
 
https://ai.meta.com/research/publications/the-llama-3-herd-of-models/

Die Publikationen sind alle frei zum Download. Selbst das Latest verlinkte Whitepaper von Llama 3. Ich bitte von diesem Stammtisch abzusehen und wissenschaftlich korrekt zu bleiben mit seriösen Quellen und bewiesener Funktionsweise.

Wer es nicht so konkret möchte kann auch heute noch in 2024 das Buch von Ian Goodfellow lesen. Man denkt es hat sich viel getan aber die Basics sind seit Jahrzehnten ähnlich, der größte Sprung war die Datensammlung und das Handcrafting der Ergänzung um Layers bzw. Sidelayers welche in ein größtenteils unsupervised Modell, auch reinforcement layer integriert (abgesehen von supervised layern für die Integrität bzw. eben auch das Filtering mit korrekten Labeln für falsche Ausgaben der anderen Layern. Kompensationslayer sozusagen)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: rosenholz und e_Lap
Piktogramm schrieb:
im Bereich der (mathematischen) Logik Mustererkennung
Wusst ich's doch, Mathematik ist nur Auswendiglernen. :P (scnr)
 
  • Gefällt mir
Reaktionen: tarifa
Gerade für Logikprobleme wäre es sogar noch besser, wenn das Modell einfach einen SMT Solver bedienen würde. Es könnte die Gleichungen aufstellen und in den solver eingeben und das Ergebnis dann in das gewünschte Format zurück portieren.
 
  • Gefällt mir
Reaktionen: tarifa und ProfDrHabilWegn
Hm, wenn wir die Frage klären wollen, ob ChatGPT eigenständig denken kann oder intelligent ist, dann müssten wir uns zuerst fragen, wie Intelligenz eigentlich definiert ist (aber das frag(t)en sich andere auch schon) ... Wenn man Intelligenz als das definiert, was der IQ-Test misst, dann ist die Frage sehr einfach zu beantworten: Joa, ChatGPT ist intelligent!

Wenn man aber andere Aspekte hinzunimmt, zum Beispiel emotionale Intelligenz, Empathie usw. dann sieht es anderes aus, weil ChatGPT natürlich zuvorderst ein allgemeines Sprachmodell ist, das (noch) keine Aktoren besitzt usw.
 
  • Gefällt mir
Reaktionen: rosenholz und tarifa
alex22 schrieb:
Gerade für Logikprobleme wäre es sogar noch besser, wenn das Modell einfach einen SMT Solver bedienen würde. Es könnte die Gleichungen aufstellen und in den solver eingeben und das Ergebnis dann in das gewünschte Format zurück portieren.
Ja, eine Addition von SMT Solvern wäre für die Usecases, (vorausgesetzt) nach korrekter Identifikation, sicherlich ein Gewinn, da für den Anwendungsfall NLP keine Konsistenz gewährt.

Leider müsste dafür die Architektur umgebaut werden und Aufwand und evtl Verlust von Qualität ist nicht absehbar, wenn es ins Original model übernommen werden soll.
OpenAI wird sowas wahrscheinloch eher als dediziertes Modul bringen, falls es das nicht bereits gibt in dem Modulmarkt
 
  • Gefällt mir
Reaktionen: tarifa
Piktogramm schrieb:
Die Aussage haben ich so oder ähnlich häufig gelesen, aber es gab nie eine belastbare Quelle dazu. Also irgendwas in Richtung Veröffentlichung in einem (brauchbarem) Journal.

ProfDrHabilWegn schrieb:
Die Publikationen sind alle frei zum Download. Selbst das Latest verlinkte Whitepaper von Llama 3. Ich bitte von diesem Stammtisch abzusehen und wissenschaftlich korrekt zu bleiben mit seriösen Quellen und bewiesener Funktionsweise.
Das ich "brauchbare Journals" als Anforderung gestellt habe, kommt eben aus dem wissenschaftlichem Anspruch, dass die Veröffentlichung einem Reviewprozess unterlagen. Es hat Geschmäckle, wenn die Forderung nach anerkannter, im wissenschaftlichem Kontext etablierter Quelle der Stammtisch eingeworfen wird und eine Quellenangabe außerhalb dieser Anforderungen erfolgt.
 
  • Gefällt mir
Reaktionen: madmax2010
@Piktogramm Facebook Lab als nicht seriöse wissenschaftl. Quelle anzusehen ist etwas unerfahren in dem Bereich Deep Learning. Deren Publikationen sind seit Jahren stark zitiert.

Peer Reviewed Journals sind nicht mehr, vor allem in Anwendungsfällen, wo Unternehmen die meiste Forschung betreiben, state-of-the-art.

Das liegt daran, dass es bei Journals inzwischen viel stärker um Selbsterhalt und Geld geht und der Bias ggü Themen-Popularität sehr stark ist.

Facebook Lab arbeitet großteils open source, publiziert deshalb auch auf Arxiv und hat jede Menge Zitationen in diesem Thema.

Klar gilt das jetzt nicht für andere Fachgebiete, wobei auch bei Biologie biorxiv populärer wird, weil man sich das mit den Journals nicht mehr antun will, ausser man strebt als Jungwissenschaftler nach Reputation, welche man noch nicht hat und so schneller bekommen könnte - gerade wenn man Peer Reviewer persönlich kennt. Ich selber bin auch einer, aber um nicht ins Detail zu gehen für den Bereich "Lebenswissenschaften"

edit:
Vllt als Beispiel.
Wissenschaft sollte frei von Ideologie sein, und damit meine ich nicht die Ideologie Ideologiefreiheit zu erzwingen.
Wenn ich etwas reviewe, das gegen die "Ideologie" meines Journals spricht, oder gegen aktuelle soziale oder politische Präferenzen, dann hab ich ein Problem, und das eingereichte Paper wird auch nach mir nicht publiziert, weil der, der an meine Stelle tritt dann wieder nicht ganz unabhängig reviewed.
Die zur Publikation zugelassenen Artikel müssen nicht nur fachlichem Anspruch genügen, sondern auch in gewisser Weise der gängigen Einstellung der Welt, weil das generiert keine negativen Schlagzeilen von der Welt und im Endeffekt - und darauf kommt es an - Geld
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: KingZero, H@rlekin und e_Lap
Meiner Meinung nach ist eine Formalwissenschaft, wie die Mathematik, für die Anwendung von KI perfekt geeignet.

Ich selbst studiere Mathe und nutze Chat-gpt zum Erstellen von Übungsaufgaben. Wobei das auch nicht immer gut bzw. richtig funktioniert. Bin Mal gespannt, ob das mit o1 vielleicht besser klappt.

Hörenswert, finde ich, ist in dem Zusammenhang auch der Podcast vom SWR2:
https://www.swr.de/swrkultur/wissen...se-vom-chatbot-das-wissen-2024-06-12-100.html

Grüße!
 
Zuletzt bearbeitet:
DeusExMachina schrieb:
Ähm nein. LLM können nicht Abstrahieren und daraus eine Transferleistung erzeugen.
Das konnten schon mind 10 Jahre alte Machine Learning Modelle.
Wenn die Fähigkeit zur Abstraktion und Transferleistung nicht da wäre, könntest du genauso gut eine Datenbank nutzen und dort input->output eintragen und auslesen
 
  • Gefällt mir
Reaktionen: KingZero, rosenholz und rooney723
ProfDrHabilWegn schrieb:
LLM besitzen Logik und analog zum Gehirn Denkvermögen.

Haben die Neuro- bzw. Kognitionswissenschaften mittlerweile einen Durchbruch gehabt, wie unsere höheren kognitiven Leistungen realisiert sind?
 
ProfDrHabilWegn schrieb:
Ich selber bin auch einer, aber um nicht ins Detail zu gehen für den Bereich "Lebenswissenschaften"
Also Biologie ;)

Gar nicht gesehen ...

1726225875946.png


Nur für dieses Thema einen Account erstellt?
 
calluna schrieb:
Haben die Neuro- bzw. Kognitionswissenschaften mittlerweile einen Durchbruch gehabt, wie unsere höheren kognitiven Leistungen realisiert sind?
Ja, hypothetisch.
Und auf diese Hypothesen, z.B. die verteilte Netzwerktheorie, beziehe ich mich.

Wobei ich selbst denke, dass die Gliazell Forschung Durchbrüche bringen wird.
 
ProfDrHabilWegn schrieb:
Facebook Lab als nicht seriöse wissenschaftl. Quelle anzusehen ist etwas unerfahren in dem Bereich Deep Learning. Deren Publikationen sind seit Jahren stark zitiert.

Peer Reviewed Journals sind nicht mehr, vor allem in Anwendungsfällen, wo Unternehmen die meiste Forschung betreiben, state-of-the-art.
Ja eben bei kommerziellen Unternehmen, deren Anteile öffentlich gehandelt werden sehe ich Selbstpublikation nicht als seriöse Quelle an. Die Motivation ist da schlicht problematisch. Bei allen Problemen, die klassische wie auch OA Journals haben, sehe ich da den größeren Bias bei Unternehmen und deren Selbstdarstellung der Fähigkeiten ihrer Produkte.

Etwaige Paper zur Funktionsweise der Systeme sehe ich da als weniger problematisch.
 
  • Gefällt mir
Reaktionen: xXBobbyXx
CyborgBeta schrieb:
Also Biologie ;)

Gar nicht gesehen ...

Anhang anzeigen 1522372

Nur für dieses Thema einen Account erstellt?
Ja, ich hatte schon vor 1 Woche reingeschaut als dieses Thema kam mit 100 Mrd Ausgaben für KI. Und heute konnte ich mich nicht mehr halten, den verlorenen Kommentaren mit, ohne den Menschen zu verurteilen, Unsinn, zu kommentieren oder zu korrigieren.
Ich les immer mal CB in der Kaffeepause zum Spaß, gerade wegen Consumergeräten
 
  • Gefällt mir
Reaktionen: e_Lap und CyborgBeta
@ProfDrHabilWegn

Hypothetisch gibt es auch eine Weltformel in der Physik. 😉
Meine Frage war rhetorisch… ich weiß, dass es da bisher keinen Durchbruch gab und unbekannt ist, wie die höheren „geistigen“ Fähigkeiten realisiert sind.

Aber das zu wissen ist eben die Voraussetzung für die Analogie, die du dargelegt hast.

Und du solltest wissen, dass z.B. Piktogramm jemand mit einer sehr guten fachlichen Bildung ist.
 
calluna schrieb:
Haben die Neuro- bzw. Kognitionswissenschaften mittlerweile einen Durchbruch gehabt, wie unsere höheren kognitiven Leistungen realisiert sind?
Das sagt ChatGPT selber dazu, wenn man es nach einem kurzen Abriss fragt:

Das Gehirn ist ein komplexes Organ, das aus etwa 86 Milliarden Nervenzellen (Neuronen) und unzähligen Gliazellen besteht. Hier sind die grundlegenden Funktionsweisen des Gehirns:

  • Hirnareale: Das Gehirn ist in verschiedene Bereiche unterteilt, darunter:
    • Kortex: Verantwortlich für höhere Funktionen wie Wahrnehmung, kognitive Fähigkeiten und freiwillige Bewegungen.
    • Kleinhirn: Koordiniert Bewegungen und Gleichgewicht.
    • Hirnstamm: Regelt grundlegende Lebensfunktionen wie Atmung und Herzschlag.
  • Neuronen: Diese Zellen senden und empfangen elektrische Signale.
  • Synapsen: Die Verbindungen zwischen Neuronen, an denen neurotransmitterchemische Signale übertragen werden.
  • Aktionspotenziale: Wenn ein Neuron aktiviert wird, sendet es ein elektrisches Signal (Aktionspotenzial) entlang seiner Axone.
  • Chemische Übertragung: An der Synapse werden Neurotransmitter freigesetzt, die das Signal an das nächste Neuron übermitteln.
  • Das Gehirn verarbeitet Informationen aus der Umgebung und aus dem eigenen Körper, speichert Erinnerungen, trifft Entscheidungen und steuert Bewegungen.
  • Das Gehirn hat die Fähigkeit, sich durch Erfahrungen zu verändern und zu adaptieren. Dies geschieht durch die Bildung neuer synaptischer Verbindungen und Veränderungen in der neuronalen Aktivität.
  • Limbisches System: Spielt eine Schlüsselrolle bei Emotionen und Gedächtnis.
  • Belohnungssystem: Beeinflusst Motivation und das Verhalten.
Das Gehirn arbeitet als ein Netzwerk, das sensorische Informationen erfasst, verarbeitet und darauf reagiert und dabei eine zentrale Rolle in unserem Verhalten, unseren Emotionen und unserem Denken spielt. Wenn du mehr über einen bestimmten Aspekt wissen möchtest, sag einfach Bescheid!

Edit: Model gpt-4o-mini
 
Zuletzt bearbeitet:
calluna schrieb:
Was genau willst du mir damit sagen?
LLMs funktionieren sehr ähnlich. Deshalb spricht man auch von KNNs. ;) Und daraus folgt dann auch ... dass sie intelligent sind, insoweit ihre Möglichkeiten es zulassen.
 
Zurück
Oben