Ein paar Gedanken, vielleicht, oder hoffentlich , bin ich ja
alleine damit.
Gedanke 1:
Das kommt mir genau richtig. Ich benötige für mein aktuelles Projekt ganz spezielles Fachwissen aus einem Nischenbereich, dass noch in der Forschungsphase ist und wofür es noch keine leicht abrufbare Datenbasis dazu gibt.
Gedanke 2:....
Sobald dieser Agent flächendeckend verfügbar ist wird kein Student, und damit zukünftiger Forscher, mehr selbst nach Quellen suchen (Pubmed, researchgate usw) und sich völlig auf vorverdaute informationen verlassen. Hauptargument: weils eben jeder so macht und einfacher ist (siehe ChatGPT und Hausarbeiten).
mich zu meiner Faulheit bekennend und rein aus Vergleichsgründen

habe ich mir heute von o3-mini ein Abstract einer Studie erstellen lassen, das dermaßen sauber, korrekt, und überpoliert rüberkam, dass ich bereits spüre wie es mich für andere Fragen zu KI-generierten Antworten hinzieht. (Das Abstract war inhaltlich zudem noch fehlerhaft).
Ich frage mich jedoch ab wann man keine andere Wahl mehr hat als solche Agenten für inhaltliche kritische Bereiche zu nutzen. Zeit ist Erkenntis ist Geld.
Auch dass man die Ergebnisse eigentlich händisch nachprüfen sollte, was fast soviel Zeit in Anspruch nehmen könnte wie die Suche selbst, wird dann nur noch optional. Schliesslich hat man so das Ergebnis schon vor dem Rechenweg erhalten.
Aber wozu die Aufregung? Nunja, sofern der Agent diese Ergebnisse nicht selbst stets an Realdaten ausrichtet, würde eine massiv beschleunigte Fehlerkumulierung entstehen, die nicht mehr rückwirkend korrigiert werden kann und auch nicht durch neue Forschungsarbeiten aufgefangen wird, da diese Fehler in die Forschung mit einfliessen.
Was die Interpretation und Differenzierung der Ergebnisse betrifft, müsste diese auch zu allererst in unserem Verständnis stattfinden, da dies etwas völlig anderes ist als wenn ein Bot empfiehlt: Dieses Thema sollte differenziert betrachtet werden weil: ...
(banal gesagt: stell dir vor du möchtest den Unterschied von Birnen und Äpfeln am Geschmack erkennen und die KI differenziert für dich den Geschmack anhand der unterschiedlichen chemische Zusammensetzung)
Gedanke 3:
Gesellschaftlich scheint es nicht genug Zeit zu geben um sich darauf einzustellen. Wer nicht mitziehen will, oder kann, wird gemäß den Gesetzen der Spieltheorie zurückgelassen.
Das war vorher nicht anders, es gab aber immer einen gewissen Zeitpuffer um langsamere oder ausgelastete Mitglieder der Gesellschaft/Wirtschaft/Forschung nachkommen zu lassen oder aufzufangen.
Jetzt aber nimmt das exponentielle Wachstum des KI-Potentials massiv an Fahrt auf und Unterschiede in finanziellen Ressourcen, Wissen und Macht werden immer größer.
Der davon abgehängte Anteil der Gesellschaft, fürchte ich, findet sich bald in einem sozialdarwinistischen Kolosseum im Kampf um Wohlfahrtsreste wieder und wird somit leichte Beute für populistische Rattenfänger mit ihren Wunderflöten.
Diese haben dann auch keinerlei Scheu davor halluzinierte Information (ob menschlich oder technisch) zu verwenden, solange dies deren Zwecken dient.
Ich befürchte wir schaufeln unserer Wissenschaft, also unserem Wissenskonsens, gerade das eigene Grab und überspringen die Vorteile einer zuverlässigen, kontrollierbaren KI komplett, oder? Mir kommt mein eigener Text selbst schon zu schwarz vor aber der Trend zeigt doch schon sehr in diese Richtung.
Und viel öfter als mir lieb ist muss ich an die Zeitgeschichte von Star Trek TNG denken.
Verbot von genetisch modifizierten Menschen, Verbot von synthetischen Lebewesen
und davor immer mal ein Krieg.
Mensch ist der Post jetzt eskaliert.
ok...Zeit für etwas Youtube Brain-numbing