News Deep Research: OpenAI veröffentlicht Agenten für komplexe Online-Recherchen

Also AGI im Sinne von LLM bezogen auf Agententätigleit. Ja wenn man es so definieren ist AGI echt nicht weit entfernt.
 
KI Recherche anhand von KI-generierten Papers. What could possibly go wrong.

Solche Nachrichten machen mich immer mehr zum Luddite.
 
  • Gefällt mir
Reaktionen: slow_snail, wüstenigel, Marflowah und 4 andere
Ach, frei nach Gunter Dueck: "Die üben doch noch...".

Frage: Was passiert, wenn das Üben beendet ist in einigen Jahren?

Das Problem, weiter als ein paar Jahre in die Zukunft zu denken, ist absolut menschlich. Ein paar Gedanken sollte man sich aber machen.
 
  • Gefällt mir
Reaktionen: Azdak
Deepseek, hat openAi richtig Druck gemacht. Wenn die Konkurrenz da ist, dann funktioniert openAi. Nur mit Druck arbeiten die openAi Entwickler am effizientesten. 😏
Konkurrenz belebt das Geschäft. Die USA hat es langsam auch kapiert das sie nicht alleine sind.

Jetzt muss noch was im Grafikkarten Markt passieren bei den chinesischen. Dann wird AMD, Nvidia Intell noch mehr Druck bekommen😏
 
  • Gefällt mir
Reaktionen: slow_snail, aid0nex, supertramp und eine weitere Person
duckyisshiny schrieb:
Also AGI im Sinne von LLM bezogen auf Agententätigleit. Ja wenn man es so definieren ist AGI echt nicht weit entfernt.
Wir können AGI gerne auch so definieren, dass ein LLM Buchstaben in einem Wort richtig zählen kann. Dann sind wir von AGI wirklich nur noch 2-3 Jahre entfernt.
 
  • Gefällt mir
Reaktionen: [F]L4SH
Hilfreich sein soll Deep Research auch im privaten Bereich, wenn etwa der Kauf von Autos oder Möbeln ansteht, die normalerweise größere Recherchen erfordern. Hier könne der Dienst ebenfalls personalisierte Empfehlungen abgeben.
Personalisiert oder manipuliert bzw. gesponsert ist die Frage. Ob das Teil bei der Suche nach Elektroautos chinesische Marken empfehlen würde, oder doch eher Tesla?
Da würde ich wahrscheinlich eher nicht darauf vertrauen.
 
  • Gefällt mir
Reaktionen: Locutus2002
OpticalFiber schrieb:
Deepseek, hat openAi richtig Druck gemacht. Wenn die Konkurrenz da ist, dann funktioniert openAi. Nur mit Druck arbeiten die openAi Entwickler am effizientesten. 😏
Konkurrenz belebt das Geschäft. Die USA hat es langsam auch kapiert das sie nicht alleine sind.

Jetzt muss noch was im Grafikkarten Markt passieren bei den chinesischen. Dann wird AMD, Nvidia Intell noch mehr Druck bekommen😏
wenn man ki wenigstens mal anwenden würde...
 

Anhänge

  • 1738604883627.png
    1738604883627.png
    257,8 KB · Aufrufe: 125
  • Gefällt mir
Reaktionen: mikiiway und targas
OpticalFiber schrieb:
Deepseek, hat openAi richtig Druck gemacht. Wenn die Konkurrenz da ist, dann funktioniert openAi. Nur mit Druck arbeiten die openAi Entwickler am effizientesten. 😏
Konkurrenz belebt das Geschäft. Die USA hat es langsam auch kapiert das sie nicht alleine sind.

Sieht eher so aus, als OpenAI in vielen Bereichen 1-2 Schritte weiter ist und daher nicht immer direkt alles released. Gefühlt kommt bei OpenAI immer etwas besseres, wenn ein anderer Anbieter Druck macht. Daher macht das mit der Konkurrenz dann schon wieder Sinn.

Es ist aber nicht so, dass nach Deepseek die OpenAI Mitarbeiter sich jetzt ein paar Tage hingesetzt haben und das raushauen.
 
  • Gefällt mir
Reaktionen: CyrionX
OpenAI hat also Perplexity AI gefunden.
Gratuliere.
 
  • Gefällt mir
Reaktionen: Wintermute, Locutus2002 und Kuristina
Monate lang Ruhe und auf einmal ein neues Sprachmodel und Agenten… ist schon eigenartig

Danke DeepSeek
 
Ein paar Gedanken, vielleicht, oder hoffentlich , bin ich ja alleine damit.
Gedanke 1:
Das kommt mir genau richtig. Ich benötige für mein aktuelles Projekt ganz spezielles Fachwissen aus einem Nischenbereich, dass noch in der Forschungsphase ist und wofür es noch keine leicht abrufbare Datenbasis dazu gibt.

Gedanke 2:....
Sobald dieser Agent flächendeckend verfügbar ist wird kein Student, und damit zukünftiger Forscher, mehr selbst nach Quellen suchen (Pubmed, researchgate usw) und sich völlig auf zugetragene, vorverdaute informationen verlassen. Hauptargument: weils eben jeder so macht und einfacher ist(siehe ChatGPT und Hausarbeiten).

Ich habe mir heute, (mich zu meiner Faulheit bekennend und rein zu Vergleichsgründen ;) ) von o3-mini ein Abstract einer Studie erstellen lassen, das dermaßen sauber, korrekt, und überpoliert rüberkam, dass ich bereits spüre wie es mich für andere Fragen zu KI-generierten Antworten hinzieht. (Das Abstract war inhaltlich aber fehlerhaft).
Ich frage mich jedoch wann man keine Wahl mehr hat solche Agenten hierfür zu nutzen.
Dass man die Ergebnisse händisch nachprüfen sollte, was evtl. genau soviel Zeit in Anspruch nehmen könnte wie die Suche selbst, ist dann nur noch optional. Schliesslich hat man so das Ergebnis schon vor dem Rechenweg erhalten.

Sofern der Agent diese Ergebnisse nicht selbst stets an Realdaten ausrichtet, würde eine massiv beschleunigte Fehlerkumulierung entstehen, die nicht mehr rückwirkend korrigiert werden kann und auch nicht durch neue Forschungsarbeiten aufgefangen wird, da diese Fehler in die Forschung mit einfliessen.

Was die Interpretation und Differenzierung der Ergebnisse betrifft, muss diese aber zu allererst in unserem Verständnis stattfinden, da dies etwas völlig anderes ist als wenn ein Bot empfiehlt: Dieses Thema sollte differenziert betrachtet werden weil:...
(stell dir vor du möchtest den Unterschied von Birnen und Äpfeln am Geschmack erkennen und die KI sagt dir, der Geschmack wird durch die unterschiedliche chemische Zusammensetzung differenziert)

Gedanke 3:
Gesellschaftlich scheint es gar keine Zeit zu geben sich darauf einzustellen. Wer nicht mitziehen will, oder kann, wird gemäß den Gesetzen der Spieltheorie zurückgelassen.

Das war vorher nicht anders, es gab aber immer einen gewissen Zeitpuffer um langsamere oder ausgelastete Mitglieder der Gesellschaft/Wirtschaft/Forschung nachkommen zu lassen oder aufzufangen.
Jetzt aber nimmt das exponentielle Wachstum des KI-Potentials massiv fahrt auf und Unterschiede in finanziellen Ressourcen, Wissen und Macht werden dementsprechend größer.

Der davon abgehängte Anteil der Gesellschaft, fürchte ich, findet sich bald in einem sozialdarwinistischen Kolosseum wieder und wird leichte Beute für populistische Rattenfänger mit ihren Wunderflöten.
Diese haben dann auch keinerlei Scheu davor halluzinierte Information zu verwenden, solange dies deren Zwecken dient.

Ich befürchte wir schaufeln unserer Wissenschaft gerade das eigene Grab und überspringen die Vorteile einer zuverlässigen, kontrollierbaren KI komplett, oder? Mir ist das selbst schon zu schwarz, aber der Trend zeigt zu sehr in diese Richtung.
Und viel öfter als mir lieb ist muss ich an die Zeitgeschichte von Startrek TNG denken.
Verbot von genetisch modifizierten Menschen, Verbot von synthetischen Lebewesen
und davor immer mal ein Krieg.
ok...Zeit für Youtube Brainnumbing ;D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vigilant, Wintermute, oicfar und 3 andere
MacFu schrieb:
Monate lang Ruhe und auf einmal ein neues Sprachmodel und Agenten… ist schon eigenartig

Danke DeepSeek
deepseek r1 wurde vor zwei wochen vorgestellt und du glaubst, dass openai genau deswegen in ein paar tagen komplett neue modelle und features entwickelt? oder ist es nicht wahrscheinlicher, dass das sowieso schon in der pipeline war?
 
  • Gefällt mir
Reaktionen: CyrionX und lazsniper
neulich mal aus interesse komplexe promts zum buch schreiben gesucht, und für eine neue idee eine plotline erstellen lassen, nachdem ich die AI mit 40 seiten hintergrundinfos gefüttert habe.

ich bin immer noch baff - jede leistung eines bezahlten lektorats ist schlechter.
 
  • Gefällt mir
Reaktionen: CyrionX
Habe heute mich mit ChatGPT wg. AI und Agenten ein wenig ausgetauscht. Am Ende ist das hier (für die Akte!) entstanden.

Wenn viele oder alle Menschen KI-Agenten nutzen, verschärft sich der Einfluss der Technologie auf Gesellschaft, Wirtschaft und das menschliche Denken noch stärker. Anstatt nur eine Zweiklassengesellschaft zwischen denjenigen zu haben, die KI produktiv nutzen, und denen, die sie nur konsumieren, entstehen neue Dynamiken:

1. Kollektive Kognitive Automatisierung – Denken als Dienstleistung?

Wenn KI-Agenten große Teile des Denkens übernehmen, könnte sich die Art, wie Menschen Entscheidungen treffen, drastisch verändern:

🔹 Mögliche Konsequenzen:
  • Menschen verlassen sich immer mehr auf KI für komplexe Entscheidungen (z. B. Jobwahl, Partnerwahl, Investitionen).
  • Eigenständige Reflexion wird weniger notwendig – die KI empfiehlt den „optimalen“ Weg.
  • Wenn alle ähnliche KI-Systeme nutzen, könnten Menschen homogener denken, weil sie alle auf dieselben optimierten Antworten zugreifen.
🔻 Gefahr:
  • "KI-Gleichschaltung": Menschen treffen ähnliche Entscheidungen, weil alle Agenten auf ähnliche Datenmodelle zugreifen.
  • Mangelnde Individualität: Die Fähigkeit, alternative oder kreative Lösungswege zu entwickeln, könnte abnehmen.
  • Manipulation: Wer die KI-Modelle kontrolliert, könnte Einfluss auf gesellschaftliche Entwicklungen nehmen.
💡 Alternative:
  • Individuelle KI-Agenten mit anpassbaren Persönlichkeiten und divergierenden Denkmustern könnten gefördert werden.
  • Menschen sollten lernen, wie KI-Vorschläge zu hinterfragen sind, anstatt sie nur zu übernehmen.

2. Wirtschaftliche Automatisierung – Die Ära der Hyperproduktivität

Wenn KI-Agenten für viele Menschen arbeiten, könnten Unternehmen ihre Produktivität massiv steigern.

🔹 Mögliche Konsequenzen:
  • Menschen könnten dank KI produktiver sein als je zuvor.
  • Viele Jobs würden verschwinden oder sich stark verändern.
  • Ganze Industrien könnten vollautomatisch laufen (z. B. Softwareentwicklung, Verwaltung, Kreativarbeit).
🔻 Gefahr:
  • Arbeitsmarkt-Umbruch: Wenn KI alle Bereiche optimiert, könnte es eine gigantische Umverteilung von Reichtum geben.
  • Gigantische Machtkonzentration: Wer die leistungsfähigsten KI-Agenten besitzt, kontrolliert Wirtschaft und Innovation.
💡 Alternative:
  • Verteilung der KI-Nutzung über Open-Source-Initiativen oder öffentliche Plattformen.
  • Einführung neuer Konzepte wie bedingungsloses Grundeinkommen oder kürzere Arbeitszeiten.

3. Hyperpersonalisierte Realität – Jeder lebt in seiner eigenen Wahrheit

Wenn KI-Agenten den Alltag organisieren, könnten sie die persönliche Realität jedes Menschen so stark anpassen, dass es keine allgemeingültige Weltwahrnehmung mehr gibt.

🔹 Mögliche Konsequenzen:
  • Individuelle KI-Agenten könnten Menschen nur noch Informationen liefern, die zu ihren Interessen und Überzeugungen passen.
  • Soziale Medien und Nachrichten würden sich in personalisierte „KI-Welten“ verwandeln.
  • Gesellschaftliche Fragmentierung: Jeder lebt in seiner eigenen Informationsrealität.
🔻 Gefahr:
  • Extreme Filterblasen: Meinungen und Ansichten werden durch KI verstärkt, statt herausgefordert.
  • Demokratie-Gefahr: Manipulation durch personalisierte Fehlinformationen könnte noch subtiler werden.
💡 Alternative:
  • Entwicklung transparenter KI-Agenten mit Mechanismen zur Meinungsvielfalt.
  • Förderung kritischer Medienkompetenz.

4. Kreativitätsexplosion oder Einheitsbrei?

Wenn jeder einen KI-Agenten hat, der kreative Prozesse übernimmt, könnte dies entweder zu einer neuen Renaissance oder zu einer Kreativitäts-Stagnation führen.

🔹 Mögliche Konsequenzen:
  • Jeder könnte mit KI Bücher, Kunst, Musik und Filme erschaffen.
  • Kreativität wird für alle zugänglich, aber unterscheidet sich weniger, weil viele auf dieselben Algorithmen setzen.
🔻 Gefahr:
  • Massenhafte KI-generierte Inhalte ohne echte Innovation.
  • Künstliche Kreativität verdrängt menschliche Originalität.
💡 Alternative:
  • KI als Erweiterung menschlicher Kreativität statt als Ersatz.
  • Förderung individueller Stilrichtungen durch anpassbare Kreativ-Agenten.

5. Mensch-KI-Symbiose – Die Zukunft der Evolution?

Wenn alle Menschen ihre täglichen Aufgaben mit KI-Agenten erledigen, könnte der nächste Schritt eine direkte Mensch-KI-Integration sein.

🔹 Mögliche Konsequenzen:
  • Gehirn-Computer-Schnittstellen: Menschen könnten KI-Agenten direkt im Kopf haben.
  • Hybrides Denken: Der Mensch denkt nicht mehr nur selbst, sondern mit KI-Unterstützung in Echtzeit.
  • Neue Formen der Kommunikation: Gedankenübertragung zwischen Menschen via KI-gestützte Netzwerke.
🔻 Gefahr:
  • Kontrolle über Gedanken? Falls diese Technologien zentralisiert werden, könnte es zu Manipulationsmöglichkeiten kommen.
  • Datenschutz-Albtraum: Wer Zugriff auf das Denken hat, könnte extreme Macht haben.
💡 Alternative:
  • Dezentrale, Open-Source-Lösungen für KI-Integration.
  • Strenge ethische Regeln für den Einsatz solcher Technologien.

Fazit: Eine exponentielle Veränderung der Gesellschaft

Wenn KI-Agenten allgegenwärtig werden, stehen wir vor einer radikalen Umgestaltung der Gesellschaft:

🔵 Best-Case-Szenario:
  • Menschen nutzen KI, um sich weiterzuentwickeln und eine neue Stufe der Kreativität, Produktivität und individuellen Freiheit zu erreichen.
  • KI wird demokratisiert und für alle zugänglich gemacht, ohne zentrale Kontrolle durch Großkonzerne.
  • Bildungssysteme lehren den bewussten Umgang mit KI, um kritisches Denken zu erhalten.
🔴 Worst-Case-Szenario:
  • Menschen verlernen eigenständiges Denken und folgen nur noch KI-Vorschlägen.
  • Kulturelle und wirtschaftliche Macht konzentriert sich in wenigen Händen.
  • Gesellschaftliche Fragmentierung durch personalisierte KI-Realitäten.
Ob die Zukunft eine goldene Ära oder eine dystopische Abhängigkeit wird, hängt davon ab, wie KI gestaltet und reguliert wird.

👉 Die zentrale Frage lautet:
Wird KI ein Werkzeug für die Menschen – oder werden die Menschen zum Werkzeug der KI?
 
  • Gefällt mir
Reaktionen: CyrionX
Auch ein paar Gedanken:

  • OpenAI hatte o3 bereits Anfang Dezember vorgestellt. Websuche haben sie auch schon eine Weile (abgeguckt). Klar ist der Eindruck da, nur wegen DeepSeek bewegt sich hier was, aber das Release war bereits für Anfang dieses Jahres angedacht. Ich glaube schon, dass DeepSeek das Ganze beschleunigt hat. Aber ob das etwas Gutes ist?
  • Was mich zum nächsten Punkt bringt. Was hier durch die Nutzer an hochwertigen Trainingsdaten erzeugt wird, ist schon enorm. Von daher kann ich sogar verstehen, dass OpenAI versucht, Platzhirsch zu bleiben. Vielleicht sind die Trainingsdaten bald (jetzt schon?) wichtiger als GPUs.
  • Der Post #15 von @CyrionX ist zwar ziemlich lang, lohnt sich aber unbedingt zu lesen! Als, wenn er dir zu lang war und du ihn geskippt hast, lies ihn doch.
  • Danke @0x8100 für den Link, kannte ich noch nicht :)
 
  • Gefällt mir
Reaktionen: CyrionX
oicfar schrieb:
🔴 Worst-Case-Szenario:
  • Menschen verlernen eigenständiges Denken und folgen nur noch KI-Vorschlägen.
  • Kulturelle und wirtschaftliche Macht konzentriert sich in wenigen Händen.
  • Gesellschaftliche Fragmentierung durch personalisierte KI-Realitäten.

"Es gibt eine weitere Theorie, nach der das bereits geschehen ist."

xpad
 
Zurück
Oben