News Neue Sprachmodelle: OpenAI will mit o1 Logik­auf­gaben auf PhD-Niveau lösen

Sambow schrieb:

Ja. Bei dir auch? Sicher das du dir bei heise keine trolloristis eingefangen hast?

Mimir schrieb:
Hmm, das Video hat mir Youtube gerade vorgeschlagen. Sieht für mich schon nach Fortschritt aus.


Ja das ist ein Fortschritt aber keiner in richtung gAI nur bei den LLMs


GPT sagt doch schon alles über diese Modelle
 
Michael-Menten schrieb:
Damit können die per Definition niemals das Niveau erreichen.
Niveau ist nicht die genaue Definition.
Frag Wissenschaftler die gleiche Frage wie LLM, beide antworten korrekt. Das ist das gleiche Niveau, egal ob eines ne Maschine ist.
 
Ich muss sagen, o1 könnte die Software-Entwicklung tatsächlich ändern.
Ich war lange skeptisch gegenüber AI als Unterstützung für die Software Entwicklung. Ich hatte CoPilot abgeschaltet und das Abo beendet, weil ich es für unnütz empfunden habe.

Habe gestern kurz o1 getestet und es ist echt ziemlich gut. Ich bin noch zu keiner abschliessenden Meinung gekommen, werde in den nächsten Tagen mehr testen. Aber es ist ein krasser Fortschritt, mit dem ich nicht gerechnet hätte.
 
Hatte letztens ChatGPT ne unlogisch abgewandelte Variante von ner Scherzfrage gestellt und der hat nichtmal gerafft, dass das keinen Sinn ergibt, sondern ist im Prinzip auf die eigentliche Scherzfrage hereingefallen. KI versteht halt einfach nicht, sondern lernt nur auswendig.
 
@Turrican101

Der bot hat die ursprüngliche Frage erkannt, was bedeutet das er deinen Fehler bei der Fragestellung ignoriert/ausgeglichen hat.


"Warum hat die 6 Angst vor der 7?

->

Weil 7 8 (ate) 9!

Das ist ein klassischer Wortwitz, der im Englischen funktioniert, weil „ate“ („aß“) und „eight“ („acht“) gleich klingen." Die Antwort kommt von GPT 4o
 
Es wäre nice gewesen, wenn die vorher mal den vollen Funktionsumfang von 4o verfügbar (Dialogführung inkl. Video) ausgerollt hätten, statt derweil ein neues Modell zu erstellen.
Bei mir ist 4o immer noch nicht vollständig vorhanden.
 
ProfDrHabilWegn schrieb:
Man denkt es hat sich viel getan aber die Basics sind seit Jahrzehnten ähnlich, der größte Sprung war die Datensammlung und das Handcrafting der Ergänzung um Layers bzw. Sidelayers welche in ein größtenteils unsupervised Modell, auch reinforcement layer integriert (abgesehen von supervised layern für die Integrität bzw. eben auch das Filtering mit korrekten Labeln für falsche Ausgaben der anderen Layern. Kompensationslayer sozusagen)
Wenn man mehrfach von Stammtischniveau bei anderen fabuliert, sollte man zumindest die Basics dann aber auch selbst korrekt darlegen. "Handcrafting" ist am Ende jeder Hyperparameter sowie das gesamte KNN-Design, sofern dies nicht gelernt oder anderweitig automatisch berechnet wird.
Auch gibt es kein unsupervised, reinforcement, ... layer. (Weakly-)Supervised-, Unsupervised- und Reinforcement-Learning beschreiben schlicht und ergreifend unterschiedliche Trainingsstrategien, nämlich annotierte oder unannotierte Daten für ein Training zu nutzen oder im Falle von RL ein Feedback, welches vom KNN-"Verhalten" abhängt. Freilich kann man Strategien mischen, parallel für ein ganzes KNN oder arbiträr zwischen einzelnen Layern, aber das macht ein Layer noch lange nicht zu einem "Supervised-Layer". Mal ganz davon abgesehen, dass das bei LLMs meist sowieso in unterschiedlichen Stufen mit mehreren Strategien trainiert wird, etwa wenn man auf einem großen Datensatz vortrainiert und dann auf einem fachspezifischen Datensatz optimiert.

ProfDrHabilWegn schrieb:
Ja, eine Addition von SMT Solvern wäre für die Usecases, (vorausgesetzt) nach korrekter Identifikation, sicherlich ein Gewinn, da für den Anwendungsfall NLP keine Konsistenz gewährt.

Leider müsste dafür die Architektur umgebaut werden und Aufwand und evtl Verlust von Qualität ist nicht absehbar, wenn es ins Original model übernommen werden soll.
Solver jeglicher Art sind ein grundverschiedener Ansatz zu KNNs. In ein KNN kann man die ebenso wenig einbetten, wie eine Websuche. Ich schiebe dir ja auch keinen Taschenrechner oder Tablet in deinen Kopf, wenn du damit verbundene Aktionen nutzen möchtest. Genauso wie bei einer Websuche bei ChatGPT, würde man schlichtweg ein weiteres Tool als Plugin zur Verfügung stellen, um die Antworten (oder Berechnungen) eines LLMs damit anzureichern. Das hat rein gar nichts mit der Architektur des LLMs selbst zu tun, sondern vielmehr damit, was man als Plattform drumherum entwickelt und welche Möglichkeiten in wie vielen Schleifen man dem LLM damit zur Verfügung stellt.

ProfDrHabilWegn schrieb:
Die Publikationen sind alle frei zum Download. Selbst das Latest verlinkte Whitepaper von Llama 3. Ich bitte von diesem Stammtisch abzusehen und wissenschaftlich korrekt zu bleiben mit seriösen Quellen und bewiesener Funktionsweise.
Selbst als jemand, der aktiv damit arbeitet, würde ich hier bei @Piktogramm sein:
Piktogramm schrieb:
Das ich "brauchbare Journals" als Anforderung gestellt habe, kommt eben aus dem wissenschaftlichem Anspruch, dass die Veröffentlichung einem Reviewprozess unterlagen.
Meta/Facebook, genauso wie Google, NVIDIA und viele Andere, veröffentlichen häufig in der Tat die größten und fortgeschrittensten Modelle, ja, aber gerade da davon Aktienwert & Co. abhängen, bedeutet das trotzdem nicht, dass man alles ohne weitere Prüfung von denen glauben sollte.

Unabhängig davon kochen die auch nur mit Wasser und Forschung findet dort nicht mehr oder auf einem höheren Niveau statt, eher im Gegenteil. Die großen Konzerne haben schlichtweg mehr Rechenressourcen, die sie auf ein Problem werfen können. Sehr häufig werden dadurch inkonsistentes KNN-Design, qualitativ schlechtere Architekturen oder überhaupt wenig "intelligente Ansätze" ausgeglichen, einfach durch ein größeres Netz, also mehr Parameter, und mehr Daten, die man auf ein Problem wirft, weil man viel mehr Rechenressourcen als Forscher XY von Uni ABC hat.

ProfDrHabilWegn schrieb:
Wobei ich selbst denke, dass die Gliazell Forschung Durchbrüche bringen wird.
Ich bin ja wirklich der Letzte, der sich über Fachtermini beschwert, aber bei dir ergibt es wirklich den Eindruck, dass du die Einwürfe nur machst, um irgendeinen Fachterminus, notfalls auch ohne Bezug, in einem Satz unterzubringen.

Selbst wenn sich am Ende herausstellt, dass Gliazellen weitere Funktionen (oder gar irgendwas zur "Intelligenz") zu biologischen Gehirnen beitragen als "nur" "Stützzellen" zu sein und Dinge wie die elektrische Isolation von Neuronen zu bewerkstelligen, so hat das doch immer noch rein Null Bezug zu KNN oder LLMs im Speziellen. Bei KNN ist der Unterbau immer ein Computer, dementsprechend ist ausschließlich die Informationsverarbeitung (und damit die Mathematik dahinter) ausschlaggebend. Wie etwa ein Transistor durch Leckströme geschützt wird, hat keinen Bezug zu einem KNN, welches darauf ausgeführt werden soll.

Piktogramm schrieb:
Der Ideologiebegriff ist mindestens schwierig.
Das wäre wirklich das letzte Statement von @ProfDrHabilWegn, an dem ich mich gestört hätte. Der Absatz war zumindest verständlich. Ferner (wie @calluna auch erwähnt hat), kann man dort ja auch einen Bezug zum Inhalt und Kontext sehen. Insbesondere wenn man das nüchtern als Alltagssprache liest, würde ich dem Absatz sogar breitflächig zustimmen: Wissenschaft sollte stets so frei wie möglich von äußeren, ideologischen Einflüssen sein. Alles andere ist Einschränkung von Fortschritt und politisch motiviertes Ergebnisfischen (oder -verschweigen).

DeusExMachina schrieb:
Ähm nein. LLM können nicht Abstrahieren und daraus eine Transferleistung erzeugen.
KitKat::new() schrieb:
Wenn die Fähigkeit zur Abstraktion und Transferleistung nicht da wäre, könntest du genauso gut eine Datenbank nutzen und dort input->output eintragen und auslesen
@DeusExMachina Meiner Meinung nach ist die Problematik bei dem Thema (und ich selbst bin da definitiv näher an @KitKat::new() als an "ähm nein [können die gar nicht]"), dass man das nicht Schwarz-Weiß oder mit festgelegten Grenzen betrachten darf. Wenn man streng nach der Definition "neues Wissen" geht, welches so in sämtlichen Trainingsdaten nicht auftaucht, dann stimmt deine Aussage und ist sogar von Forschung zu dem Thema gestützt.
Allerdings ist die Crux hier ja aber: wie häufig trifft das schon in der Realität zu? Vor allem, wenn man immer mehr dazu übergeht, quasi das gesamte niedergeschriebene Wissen der Menschheit in die Trainingsdaten zu packen?

Ich würde behaupten, abgesehen von Grundlagenforschung gibt es nur sehr wenige Ausnahmefälle, wo man von "komplett neu" reden kann.

Innerhalb einer gegebenen Distribution hingegen können LLMs durchaus interpolieren und, mit rasch abnehmender Korrektheit (in Abhängigkeit zur Entfernung der gelernten Distribution) auch extrapolieren.

Man sieht das z.B. sehr gut bei Text => Bild Generatoren. Wenn ein Modell noch nie Zebras gesehen hat, dafür aber Pferde und Kühe, kann man quasi perfekte Zebras generieren, indem man schlichtweg in die Richtung "Pferd aber schwarz-weiß wie Kühe nur mit Streifen anstatt von Flecken" promptet. War mal ein praktisches Beispiel aus meiner Vorlesungszeit. Und Menschen machen das auch nicht anders: die breite Masse löst keine neuen Probleme oder malt Dinge, die sie noch nie gesehen haben. Die breite Masse wendet gelernte Konzepte an auf bekannte Probleme und Situationen. Das reicht für sehr viele Dinge in der Realität ja auch vollkommen aus und solange der Datensatz groß genug und die Fähigkeit zur Interpolation und zumindest eingeschränkter Extrapolation gut genug ist, werden LLMs damit in Zukunft auch einiges an Aufgaben bearbeiten können.
 
  • Gefällt mir
Reaktionen: KingZero
ascer schrieb:
Insbesondere wenn man das nüchtern als Alltagssprache liest, würde ich dem Absatz sogar breitflächig zustimmen: Wissenschaft sollte stets so frei wie möglich von äußeren, ideologischen Einflüssen sein. Alles andere ist Einschränkung von Fortschritt und politisch motiviertes Ergebnisfischen (oder -verschweigen).
Die Alltagsverwendung wurde zuletzt (imho gezielt) von der etablierten Wortdefinition entfremdet und ist mittlerweile stark unspezifisch, weil eben keine Definition geliefert wird. Das lässt sich schwer neutral lesen.
Auch dein " frei [...] von äußeren, ideologischen Einflüssen" zeigt da meiner Meinung nach nur, dass da die eigentliche Wortbedeutung nicht bekannt ist und/oder aber eine massive Lücke um das Wissen von Grundgesetz sowie deutscher Geschichte besteht. Auch für Wissenschaft haben ethische Normen bestand, wobei diese Normen (lies: Ideologien) gesellschaftlich bestimmt gehören und nicht durch individuelle Wissenschaftler·innen. Das hatten wir historisch bereits und es sollte nicht wieder angestrebt werden,
 
  • Gefällt mir
Reaktionen: KitKat::new()
Piktogramm schrieb:
Auch dein " frei [...] von äußeren, ideologischen Einflüssen" zeigt da meiner Meinung nach nur, dass da die eigentliche Wortbedeutung nicht bekannt ist und/oder aber eine massive Lücke um das Wissen von Grundgesetz sowie deutscher Geschichte besteht.
Massiv ist doch in diesem Fall eher das Auslassen von der weiteren Formulierung "politisch motiviertes Ergebnisfischen (oder -verschweigen)".

Ich denke, jedem ist dort klar (wie @calluna ja auch schon dargelegt hat), dass explizit von politischer Ideologie die Rede ist - sprich politischem Ideologismus. Konkret war also die Rede von politischen Wertevorstellungen, die häufig subjektive Wahrheiten enthalten und vor allem nicht nur - etwa wie die Ethik - Grundprinzipien aufstellen und zur Erklärung beitragen wollen, sondern sich ganz explizit dadurch auszeichnen, dass sie beeinflussen und aktiv steuern möchten, einen normativen Geltungsanspruch haben. Nicht selten ja auch, indem man überhaupt erst Anhänger motiviert und anstößt.

Deshalb auch - extra mit highlight - "politisch motiviertes Ergebnisfischen (oder -verschweigen)", denn bei der politischen Variante geht es allzu häufig nur darum, zu präsentieren, was das eigene Weltbild rechtfertigt, es bei den Anhängern verfestigt und v.a. antreibt sowie zu verschweigen (oder gar zu verbieten, Förderungen zu streichen, ...), was der eigenen politischen Strömung nicht dienlich ist.

Das haben meiner Auffassung nach alle hier so gemeint & interpretiert. Ansonsten mag man mich gerne korrigieren. Deshalb würde ich auch, in diesem einen Punkt, @ProfDrHabilWegn eher verteidigen.

Warum du dich so sehr an diesem Punkt aufreibst und minutiös auf soziologisch & philosophisch korrekte Definitionen pochst, ist mir da ehrlich gesagt schleierhaft.

Piktogramm schrieb:
Auch für Wissenschaft haben ethische Normen bestand, wobei diese Normen (lies: Ideologien) gesellschaftlich bestimmt gehören und nicht durch individuelle Wissenschaftler·innen. Das hatten wir historisch bereits und es sollte nicht wieder angestrebt werden,
Das stützt dein Argument nicht, sondern meins. Die Wissenschaftler etwa im dritten Reich sind ja nicht einfach so auf die Idee gekommen, dass durch fehlende Ethik nun auf einmal überall Menschenexperimente an der Tagesordnung stehen sollten. Diese Entwicklung war stark durch die politische Ideologie der Nazis getrieben: "die Herrenrasse stärken" und Experimente an "niederen Rassen" durchführen war politischer Wille - politische Ideologie - und wurde durch NSDAP-Funktionäre getrieben sowie in gesellschaftliche und wissenschaftliche Normen forciert.

Die Tatsache der Existenz von vereinzelten "verrückten Wissenschaftlern", die auch von ganz allein auf die Idee kommen und tatsächlich eine komplett ideologiefreie => normfreie Wissenschaft fordern (fernab jedweder Ethik), bestätigt ja nicht die Regel, dass das breitflächig immer nur durch politische Ideologie getrieben ist.
 
  • Gefällt mir
Reaktionen: calluna
ascer schrieb:
@DeusExMachina Meiner Meinung nach ist die Problematik bei dem Thema (und ich selbst bin da definitiv näher an @KitKat::new() als an "ähm nein [können die gar nicht]"), dass man das nicht Schwarz-Weiß oder mit festgelegten Grenzen betrachten darf. Wenn man streng nach der Definition "neues Wissen" geht, welches so in sämtlichen Trainingsdaten nicht auftaucht, dann stimmt deine Aussage und ist sogar von Forschung zu dem Thema gestützt.
Allerdings ist die Crux hier ja aber: wie häufig trifft das schon in der Realität zu? Vor allem, wenn man immer mehr dazu übergeht, quasi das gesamte niedergeschriebene Wissen der Menschheit in die Trainingsdaten zu packen?

Ich würde behaupten, abgesehen von Grundlagenforschung gibt es nur sehr wenige Ausnahmefälle, wo man von "komplett neu" reden kann.

Das ist natürlich richtig. Aber das ändert doch gar nix an meiner aussage das GPT nicht in der Lage sind Abstraktionen für eine Transferleistung herzustellen wenn der Zusammenhang nicht vorher schon irgendwo statistisch relevant irgendwo in den Trainingsdaten auftaucht.

Und dann weiß man halt immer noch nicht ob das echte Ergebnisse sind oder zufällig echt klingende Ergebnisse.
 
LamaMitHut schrieb:
Der bot hat die ursprüngliche Frage erkannt, was bedeutet das er deinen Fehler bei der Fragestellung ignoriert/ausgeglichen hat.

Ne, der Bot hat sogar die originale Frage falsch beantwortet. Dass meine Frage keinen Sinn ergibt und er das nicht gemerkt hat kam ja noch dazu.

Frage: Peters Mutter hat zwei Töchter, Tick, Trick und?

ChatGPT: Peters Mutter hat zwei Töchter, Tick, Trick und Track!
:freak:
 
@Turrican101 das sagt ChatGPT aber nur, wenn du als Modell auf 4o gesetzt hast. Das neue o1, um das es hier ja geht, antwortet korrekt (wobei man sich - je nach lesart - darüber streiten kann, ob man Töchter nur auf Tick & Trick bezieht und deshalb eigentlich "nichts und - gibt keine dritte Tochter" antworten sollte oder, wie o1, eben sagt es gibt 3 Kinder, Tick, Trick & Peter):

=> Peters Mutter hat zwei Töchter, Tick, Trick und?

Der fehlende Name ist Peter.
Erklärung:
Die Frage ist ein Rätsel, das auf Wortspiel und Aufmerksamkeit basiert. Es heißt:
"Peters Mutter hat zwei Töchter, Tick, Trick und?"
Auf den ersten Blick scheint es verwirrend, da zwei Töchter genannt werden sollen, aber drei Namen folgen. Die Namen "Tick" und "Trick" sind die beiden Töchter. Das "und?" am Ende deutet darauf hin, dass ein dritter Name fehlt. Da es um "Peters Mutter" geht und bereits zwei Töchter genannt wurden, ist der dritte Name Peter selbst, der der Sohn ist.
Zusammenfassung: Die Mutter von Peter hat zwei Töchter (Tick und Trick) und einen Sohn (Peter). Daher lautet die Antwort Peter.
 
ascer schrieb:
Und Menschen machen das auch nicht anders: die breite Masse löst keine neuen Probleme oder malt Dinge, die sie noch nie gesehen haben. Die breite Masse wendet gelernte Konzepte an auf bekannte Probleme und Situationen.

Ja und Nein. Auch bezogen auf bereits bekannte Alltagsprobleme lösen viele diese Probleme als für sie neue Probleme - zumindest beim ersten Auftreten, weil nicht jeder alles gelehrt bekommt.
Und selbst beim belehrt werden / Lernen ist eine eigene aktive Leistung notwendig.

Aber ja, ein Mensch, der sehr viel gesehen hat im Leben, der viel gelernt hat, kann auf immer mehr Erfahrung / Gewohnheiten zurückgreifen.

Und im allgemeinen geht das auch mit abnehmender Flexibilität einher.

Deswegen werden die meisten wirklich originären geistigen Leistungen von jüngeren Menschen erbracht.

Der Einwand von Chollet ist auch passend… unsere Umwelt hat mehr Freiheitsgrade, als sich auswendig lernen lässt.
 
  • Gefällt mir
Reaktionen: ascer
ascer schrieb:
Das stützt dein Argument nicht, sondern meins. Die Wissenschaftler etwa im dritten Reich sind ja nicht einfach so auf die Idee gekommen, dass durch fehlende Ethik nun auf einmal überall Menschenexperimente an der Tagesordnung stehen sollten. Diese Entwicklung war stark durch die politische Ideologie der Nazis getrieben: "die Herrenrasse stärken" und Experimente an "niederen Rassen" durchführen war politischer Wille - politische Ideologie - und wurde durch NSDAP-Funktionäre getrieben sowie in gesellschaftliche und wissenschaftliche Normen forciert.

Die Tatsache der Existenz von vereinzelten "verrückten Wissenschaftlern", die auch von ganz allein auf die Idee kommen und tatsächlich eine komplett ideologiefreie => normfreie Wissenschaft fordern (fernab jedweder Ethik), bestätigt ja nicht die Regel, dass das breitflächig immer nur durch politische Ideologie getrieben ist.
Das ist Geschichtsrevisionismus vom Feinsten, als wären historisch Wissenschaftler nur Opfer von Obrigkeit gewesen. Dabei gab es grundlegend rassistische, menschenverachtende Forschung deutlich vor der NSDAP, zur Zeit Nazideutschland gab es zuhauf überzeugte Rassisten in der Forschung und weil ich das zweifelhafte Vergnügen hatte in einem entsprechendem Prozess eingebunden gewesen zu sein gibt es an Lehrstühlen Ähnliches auch Heute immer wieder.
 
@Piktogramm

Begriffe in der Alltagssprache haben selten eine Definition. Die Bedeutung von Wörtern lernen wir oft dadurch, wie sie verwendet werden, durch Beispiele und konkrete Situationen.

Und das passt jetzt zum Thema… genau aus diesem Grund funktioniert ein LLM basierend auf KNN besser als die Versuche mit der Symbolverarbeitenden KI in den 70er bis 90er Jahren.

Und es gibt keine eigentliche Bedeutung von Wörtern. Es gibt verschiedene Begriffe, die mit demselben Wort (Lautmuster) gemeint sein können.

Für mich hat das heutige Wort Ideologie eine negative Bedeutung, damit ist die Unterstellung verbunden, das jemand Fakten verdreht, damit sie das bestätigen, was sein soll. Es ist also das Gegenteil von Ergebnisoffen.
Und ich habe den Eindruck, dass es meistens in diesem Sinne verwendet wird.

Dass das Wort in anderen Kontexten, Diskursen anders verwendet wird oder wurde, ist etwas ganz normales.

Man muss sich eben immer fragen: was will mir dieser Mensch sagen? Was ist die kommunikative Absicht? Wie könnte ein bestimmtes Wort in diesem Kontext gemeint sein? (Wollte ascer Geschichtsrevisionismus betreiben oder war die Antwort nur ungeschickt?)

Mache ich auch nicht immer.

Es hat schon seinen Grund, warum es z.B. in der Philosophie keinen Konsens gibt, wie es ihn teils in den Struktur- bzw. Naturwissenschaften gibt.
 
Zuletzt bearbeitet:
@Piktogramm also da gebe ich dir nun gerne mal...
Piktogramm schrieb:
eine massive Lücke um das Wissen
...mit auf den Weg. Vielleicht eruierst du dann mal etwas deine Diskurskultur. Mal abgesehen davon, dass du hier (erneut) Rosinen pickst, dich weiter vom ursprünglichen Argument entfernst und auch in keinster Weise auf den Rest (oder überhaupt das Topic) eingehst: wo habe ich denn geschrieben, dass die Wissenschaftler Opfer seien? Liest du das bewusst hinein, um einen Punkt zu machen?

Die Aussage, dass die allermeisten Wissenschaftler z.B. in Nazi-Deutschland nicht aus intrinsischer Motivation verknüpft mit genereller Ablehnung jedweder Ethik gehandelt haben und vor allem nicht einfach Menschenexperimente auf die Tagesordnung setzten, weil sie es auf einmal durften, sondern aufgrund von politischer Ideologie, bedeutet doch mitnichten, dass die Wissenschaftler unschuldig oder gar Opfer waren. Die meisten waren selbst NSDAP-Mitglieder (oder Sympathisanten). Gerade unter den Medizinern, wo die schlimmsten Experimente stattfanden, waren (je nach Quelle) bis zu 50% aller Wissenschaftler NSDAP-Mitglieder. Das ist also eines der besten Beispiele gegen politische Ideologie in der Wissenschaft. Das Gros der verwerflichen Experimente und Einstellungen kam von der Partei, aus der politischen Ideologie begründet und beflügelt, gerade weil die meisten Mitglieder der NSDAP waren.

Die Aussage, dass das aus der politischen Ideologie begründet ist, ist in keinster Weise gleichbedeutend damit (und kann auch nicht daraus gefolgert werden), dass die Wissenschaftler Opfer seien und nicht auch einfach selbst der politischen Ideologie gefolgt sind bzw. selbst NSDAP Mitglieder waren.

Eine Norm (oder daraus abgeleitete Gesetze) machen keinen Heiligen. Die Abwesenheit einer Norm macht keinen Verbrecher. Es ist die Kombination aus der Möglichkeit, Böses zu wirken, und einer Motivation, dies auch in die Tat umzusetzen. In den allermeisten Fällen, insbesondere wenn es gesellschaftsübergreifende Züge angenommen hat, war die Motivation politische oder religiöse Ideologie. Die Restmenge, etwa Soziopathen, sind Einzelfälle und widerlegen die Regel nicht. Die Masse der Gräueltaten aber entsteht aus Suprematie, aus hegemonialen Vorstellungen zu den eigenen sowie Geringschätzung und Abwertung von anderen. Und in den meisten Fällen erwächst und nährt sich das politischer oder religiöser Ideologie ("wir sind besser, wir sind die Auserwählten, uns steht dieses Land/Gut/... zu, usw.").
Ergänzung ()

calluna schrieb:
Für mich hat das heutige Wort Ideologie eine negative Bedeutung, damit ist die Unterstellung verbunden, das jemand Fakten verdreht, damit sie das bestätigen, was sein soll. Es ist also das Gegenteil von Ergebnisoffen.
Und ich habe den Eindruck, dass es meistens in diesem Sinne verwendet wird.
Exakt so habe ich dies auch bei allen Anderen hier im Thread verstanden und auch selbst so dargelegt.
 
Zuletzt bearbeitet:
Zurück
Oben