Mal davon abgesehen, dass die jeweilige Website zwar von der Google-Suche profitiert aber nicht unbedingt davon, dass ihre Daten für ne generative KI genutzt werden (erst Recht nicht, wenn dann damit ein Konkurrenzangebot entsteht) kann man ja auch der Indizierung durch den Google-Such-Bot wiedersprechen.Marius schrieb:2. warum sollte die KI weniger Information haben als die bisherige Google Suche?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Datenschutzbedingungen: Google nutzt sämtliche verfügbaren Informationen für KI-Training
FGA
Banned
- Registriert
- Feb. 2010
- Beiträge
- 1.281
Du selber, Hirn einschaltenKrausetablette schrieb:Im Internet wird ja auch viel Unsinn verbreitet. Wie will die KI denn feststellen was richtig oder falsch ist? Wer legt fest was stimmt und nicht stimmt?
- Registriert
- Dez. 2004
- Beiträge
- 3.464
Roze schrieb:Es sollen die Benutzer selbst entscheiden, ob ihre Daten verwendet werden dürfen - sei es für KI, oder nicht.
Nutzer können bereits von der Opt-out Klausel in § 44b Text und Data Mining (Absatz 3) Gebrauch machen. Ansonsten ist der Zeitpunkt dieser Novelle sehr ungünstig gewesen: Anfang 2022, also quasi ein halbes Jahr bevor die ganzen KI-Geschichten (inklusive Text-2-Image) in dem Maße verfügbar waren. Die Novelle erlaubt quasi das uneingeschränkte Nutzen von nicht-personenbezogenen Daten zum Zwecke des Trainings von KI-Modellen.
Gesetz über Urheberrecht und verwandte Schutzrechte (Urheberrechtsgesetz)
(1) Text und Data Mining ist die automatisierte Analyse von einzelnen oder mehreren digitalen oder digitalisierten Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen.
§ 44b Text und Data Mining
(2) Zulässig sind Vervielfältigungen von rechtmäßig zugänglichen Werken für das Text und Data Mining. Die Vervielfältigungen sind zu löschen, wenn sie für das Text und Data Mining nicht mehr erforderlich sind.
(3) Nutzungen nach Absatz 2 Satz 1 sind nur zulässig, wenn der Rechtsinhaber sich diese nicht vorbehalten hat. Ein Nutzungsvorbehalt bei online zugänglichen Werken ist nur dann wirksam, wenn er in maschinenlesbarer Form erfolgt.
Ansonsten greift der Datenschutz nach GDPR immer noch, sofern Personenbezogene Daten betroffen sind.
Inwiefern das dann aber im Praktischen strafrechtlich verfolg- und nachvollziehbar sein wird, ist noch mal eine ganz andere Frage.
engineer123
Banned
- Registriert
- Jan. 2009
- Beiträge
- 3.783
Finds richtig geil, wie Google, OpenAI und Musk sich nun gegenseitig in die Buffe powern 🤣 😮💨
Tja, selbst die modernsten der Modernen verfolgen halt nicht immer die gleichen Ziele,
jetzt sitzt Musk da also im Bremserhäuschen 🤣
Tja, selbst die modernsten der Modernen verfolgen halt nicht immer die gleichen Ziele,
jetzt sitzt Musk da also im Bremserhäuschen 🤣
D
DieRenteEnte
Gast
Krausetablette schrieb:Wer legt fest was stimmt und nicht stimmt?
Eine KI kann es genauso wie der Mensch.
Woher weißt du, dass die Erde rund ist?
1. Du hast "Die Erde ist rund" öfter als "Die Erde ist flach" gehört.
2. Du hast für dich seriöse Quellen befragt
3. Du hast Beweisbilder gesehen
In Kombination weißt du, dass die Erde rund ist.
In der KI wird es natürlich auch Anomalien geben, so wie es in der Menschheit Anomalien gibt, welche an eine flache Erde glauben.
Das Problem ist nicht die KI, sondern wieder mal der Mensch, der die KI absichtlich schlechter macht.
Einige Menschen verbieten der KI einfach, die Wahrheit auszusprechen:
- Fakten über Kriminalitätsstatistiken
- Fakten über Religionen
- Fakten über Terroranschläge
- Fakten über Geschlechter
- Fakten über einzelne Verbrechen
- Fakten über Unfallstatistiken
- Fakten über Urteile, die zu Haft führen
- Fakten über Gesetzesverstöße von gewissen Unternehmen
- Fakten über Politiker
- Fakten über Geldverschwendung vom Staat
- sogar Witze wurden verboten, weil es immer jemanden gibt, der sich angegriffen fühlt
Was bleibt am Ende übrig? Eine völlig unrealistische Darstellung der Welt, bei der "Probleme" zensiert werden.
Und wenn Probleme nicht von allen als Probleme erkannt werden können, entsteht kein Handlungsbedarf.
Oder viel schlimmer. Da wo es kein Problem gibt, wird der KI beigebracht zu sagen, dass es ein Problem gibt.
Der Mensch ist nicht vernünftig und glaubt natürlich erstmal fast alles, was im Internet steht.
Und die Information im Internet mit dem persönlichen Glauben übereinstimmt - völlig egal ob es Fakten sind oder nicht - glaubt man erst recht daran.
Man landet in der typischen "Google Bubble".
Wer hunderte Male nach "Katzen sind toll und Hunde schlecht" sucht, wird von Google mehr "Katzen sind toll" Ergebnisse präsentiert bekommen, weil Google versteht, dass man nichts anderes hören möchte.
Katzen und Hunde kann man gegen jedes Thema austauschen. (Politiker, Religion, usw.)
@DieRenteEnte
Tolle Beiträge und Verlinkungen. Danke!
Tolle Beiträge und Verlinkungen. Danke!
tomgit
Commodore
- Registriert
- Nov. 2015
- Beiträge
- 4.538
Deutlich. Das Crawlen ist ja per se erstmal nur eine Indexierung des Internets. Du hast eine zentrale Stelle, wo du Verweise zu öffentlich verfügbaren Ressourcen bekommst - praktisch wie ein Telefonbuch.pmkrefeld schrieb:Oder steckt mehr dahinter?
Die Generative AI indexiert das jedoch nicht, sondern nimmt dies als Datensatz, um "eigene" Artefakte zu generieren.
Der Unterschied ist, dass ein Mensch durch wasauchimmer welche äußeren und inneren Einflüsse die Inhalte sortiert, interpretiert, und (im besten Falle) gewandelt wiedergibt. Darum ist wissenschaftliches Arbeiten nicht nur das Wiedergeben von bisher bekannten, sondern auch die Interpretation und Transformation dessen auf andere Blickwinkel.Stanzlinger schrieb:was ist daran der Unterschied, wenn es ein Mensch liest oder eine KI?
Eine KI macht halt nicht viel mehr als den Inhalt 1:1 wiederzugeben - praktisch zu plagiieren/kopieren. Vielleicht auf eine recht Fancy Art und Weise, aber im Kern können wir von Plagiaten dabei sprechen.
Weil frei verfügbar nicht frei verfügbar bedeutet. Ein Problem sind alleine schon mal Lizenzmodelle. Werden Inhalte verarbeitet, die unter einem CC-ShareAlike veröffentlicht werden, dürfte Google/Microsoft/OpenAI diese nur verwenden, wenn das Resultat unter selbem Lizenzmodell veröffentlicht wird. Da aber etwa OpenAI seit ChatGPT 4 recht zögerlich ist, den Inhalt des Trainingsdatensatzes zu benennen, wird das weder bei Google der Fall sein, noch werden Lizenzen berücksichtigt werden.Stanzlinger schrieb:Wenn es frei verfügbar ist, warum soll dann unterschieden werden?
Ein viel größeres Problem ist es jedoch für digitale Kunst.
Das ist faktisch Falsch. Eine KI kann (nach aktuellem Stand der Dinge) keine Wahrheiten evaluieren, sie ist nur fancy Statistik.DieRenteEnte schrieb:Eine KI kann es genauso wie der Mensch.
DFFVB
Rear Admiral
- Registriert
- Dez. 2015
- Beiträge
- 5.265
Super spannend, und auch irgendwo cool, dass Google, mit offenen Karten spielt, denn so kann schneller eine Lösung / Entscheidung herbeigeführt werden. Letzten Endes ist halt die Frage, wem was gehört, ich räume Dir auf meiner Homepage eine einfaches Nutzungsrecht ein (Du darfst lesen), ich räume aber keine Verwertungsrechte ein (du darfst damit Geld verdienen). Ist ein himmelweiter Unterschied. Frage mich Google damit bezwecken will: Schnell bard trainieren? Dann würde ich es nicht sagen. Ich vermute eher sie wollen aggressiv die öffentliche Meinung beeinflussen, dass alles allen gehört, was natürlich Quatsch ist, weil nur wenige die Möglichkeit haben es so zu nutzen. Die normative Kraft des Faktischen - interesting times we live in
D
DieRenteEnte
Gast
@tomgit
Dann stimmt es ja, was ich geschrieben habe.
Der Mensch kann faktisch auch keine Wahrheiten evaluieren.
Die Meinung eines Menschen ist im Prinzip auch nur eine persönliche Statistik, basierend auf eigenen Erfahrungen, Gefühlen und Glaubensrichtungen.
Beispiel - Was ist die Wahrheit?
a) Religionen sind überwiegend für Kriege, Hass und Spaltung von Menschen verantwortlich
b) Religionen sind überwiegend für Frieden, Liebe und gegenseitige Hilfe von Menschen verantwortlich
c) Religionen haben keinen Einfluss auf a) oder b)
Manchmal gibt es nicht DIE Wahrheit! Die Wahrheit kann zwei völlig gegensätzliche Dinge sein.
Eine ganz simple, grafische Darstellung meines Beispiels wäre:
https://randysrandom.com/6-vs-9-eternal-struggle/
2 Sichtweisen, 3+ Wahrheiten:
Sehr aktuelle Themen über "Wahrheiten" sind ja die Anzahl der Geschlechter, Bezahlung von Frauen, Kriminalitätsstatistiken von Schwarzen und Weißen in den USA, Fachkräftemangel, Gründe für die Inflation, gesundheitliche Folgen der Covid-Impfung, usw.
Die Antwort zu diesen Wahrheiten kann eine KI genauso gut wie ein Mensch wiedergeben.
Sowohl der Mensch als auch die KI muss alle Fakten kennen, um die Wahrheit auszusprechen.
In der Realität basiert die Antwort von Mensch und KI nur auf einem Bruchteil der Fakten und daher wird so heiß darüber diskutiert... jeder kennt einen anderen Bruchteil. Einige kennen die Wahrheit, andere wollen die Wahrheit nicht akzeptieren und wieder andere zensieren die Wahrheit.
Die KIs von heute sind noch lange nicht ausgereift, daher sollte man sie nicht nur verurteilen! Man sollte dieses Werkzeug optimieren. Und wenn man gewillt ist es richtig zu machen, optimiert man sie näher an die Wahrheit. Aktuell wird sie durch politische Agenden verfälscht.
Fazit:
Eine KI ist ein extrem gutes Werkzeug, um den Menschen zu unterstützen!
Eine KI kann Wahrheiten aufdecken, die der Mensch nicht kennt.
Natürlich muss der Mensch der KI die notwendigen Daten geben und beibringen, die Wahrheit besser zu erkennen.
Deshalb sehe ich sowohl Vor- als auch Nachteile, wenn Google seiner KI sämtliche Daten zuführt.
Je mehr, desto besser! Für die KI...
Dann stimmt es ja, was ich geschrieben habe.
Der Mensch kann faktisch auch keine Wahrheiten evaluieren.
Die Meinung eines Menschen ist im Prinzip auch nur eine persönliche Statistik, basierend auf eigenen Erfahrungen, Gefühlen und Glaubensrichtungen.
Beispiel - Was ist die Wahrheit?
a) Religionen sind überwiegend für Kriege, Hass und Spaltung von Menschen verantwortlich
b) Religionen sind überwiegend für Frieden, Liebe und gegenseitige Hilfe von Menschen verantwortlich
c) Religionen haben keinen Einfluss auf a) oder b)
Manchmal gibt es nicht DIE Wahrheit! Die Wahrheit kann zwei völlig gegensätzliche Dinge sein.
Eine ganz simple, grafische Darstellung meines Beispiels wäre:
https://randysrandom.com/6-vs-9-eternal-struggle/
2 Sichtweisen, 3+ Wahrheiten:
- Wahrheit von links
- Wahrheit von rechts
- Wahrheit von demjenigen, der die Zahl auf den Boden geschrieben hat
- usw.
Sehr aktuelle Themen über "Wahrheiten" sind ja die Anzahl der Geschlechter, Bezahlung von Frauen, Kriminalitätsstatistiken von Schwarzen und Weißen in den USA, Fachkräftemangel, Gründe für die Inflation, gesundheitliche Folgen der Covid-Impfung, usw.
Die Antwort zu diesen Wahrheiten kann eine KI genauso gut wie ein Mensch wiedergeben.
Sowohl der Mensch als auch die KI muss alle Fakten kennen, um die Wahrheit auszusprechen.
In der Realität basiert die Antwort von Mensch und KI nur auf einem Bruchteil der Fakten und daher wird so heiß darüber diskutiert... jeder kennt einen anderen Bruchteil. Einige kennen die Wahrheit, andere wollen die Wahrheit nicht akzeptieren und wieder andere zensieren die Wahrheit.
Die KIs von heute sind noch lange nicht ausgereift, daher sollte man sie nicht nur verurteilen! Man sollte dieses Werkzeug optimieren. Und wenn man gewillt ist es richtig zu machen, optimiert man sie näher an die Wahrheit. Aktuell wird sie durch politische Agenden verfälscht.
Fazit:
Eine KI ist ein extrem gutes Werkzeug, um den Menschen zu unterstützen!
Eine KI kann Wahrheiten aufdecken, die der Mensch nicht kennt.
Natürlich muss der Mensch der KI die notwendigen Daten geben und beibringen, die Wahrheit besser zu erkennen.
Deshalb sehe ich sowohl Vor- als auch Nachteile, wenn Google seiner KI sämtliche Daten zuführt.
Je mehr, desto besser! Für die KI...
Zuletzt bearbeitet von einem Moderator:
Ich hoffe, dass bei den meisten Menschen auch noch Logik dazu kommt.DieRenteEnte schrieb:Die Meinung eines Menschen ist im Prinzip auch nur eine persönliche Statistik, basierend auf eigenen Erfahrungen, Gefühlen und Glaubensrichtungen.
tomgit
Commodore
- Registriert
- Nov. 2015
- Beiträge
- 4.538
Doch, kann er eben. Ein Mensch kann Wahrheit evaluieren, in dem er sie selbst erforscht. Wenn du einen Menschen, der in einer Flatearther-Bewegung aufgewachsen ist, und niemals etwas anderes als Wahrheit vernommen hat, als dass die Erde flach wäre, nimmst und in ein Raumschiff steckst, ihn ins Weltall schießt, und die Erde umrunden lässt, wirst du mit hoher Wahrscheinlichkeit seine Meinung ändern.DieRenteEnte schrieb:Dann stimmt es ja, was ich geschrieben habe.
Der Mensch kann faktisch auch keine Wahrheiten evaluieren
Wenn du das mit einem LLM machst, wird dir das Ding mit hoher Wahrscheinlichkeit noch immer entgegenschmettern, dass die Erde eine Scheibe sei (mal davon ausgegangen, dass es überhaupt Bilder evaluieren kann).
Das Beispiel führt die Diskussion ad absurdum, weil es eben nicht die Intention der Erstellung des Artefaktes berücksichtigt - wie es bei so vielen scheinbaren Paradoxa da draußen der Fall ist. Es wird nur aufgegriffen, weil der Ersteller eben möchte, dass es keine einheitliche Antwort darauf gibt.DieRenteEnte schrieb:2 Sichtweisen, 3+ Wahrheiten:
D
DieRenteEnte
Gast
@tomgit
Ich könnte die Beispiele vom 5. Absatz aufgreifen und mehrere Beispiele zeigen, bei denen die Menschen die Wahrheit eben nicht selbst erforschen können, wollen oder absichtlich falsch darstellen.
Dann würde ich aber mit Sicherheit im Aquarium landen, weil es einigen Mitlesern oder Moderatoren nicht gefallen würde. Auch wenn das die Punkte um die Wahrheit nur bestätigen würde.
Wie ich nachträglich geschrieben habe, was du wahrscheinlich nicht lesen konntest, braucht die KI quasi auch das beispielhafte Raumschiff, um sie durch das Weltall zu schießen.
Aktuell ist die KI als Werkzeug noch fehleranfällig. Aber mit der Zeit wird sie genauer und kann immer mehr Wahrheiten als Wahrheiten erkennen und aussprechen.
Eine KI muss wie der Mensch erst lernen, die Wahrheit bewerten zu können.
Ich habe mal irgendwo gelesen, dass die aktuelle KI mit der Intelligenz eines menschlichen Kindes verglichen wurde. Warten wir mal ab, bis die KI ein Erwachsener wird.
Ich könnte die Beispiele vom 5. Absatz aufgreifen und mehrere Beispiele zeigen, bei denen die Menschen die Wahrheit eben nicht selbst erforschen können, wollen oder absichtlich falsch darstellen.
Dann würde ich aber mit Sicherheit im Aquarium landen, weil es einigen Mitlesern oder Moderatoren nicht gefallen würde. Auch wenn das die Punkte um die Wahrheit nur bestätigen würde.
Wie ich nachträglich geschrieben habe, was du wahrscheinlich nicht lesen konntest, braucht die KI quasi auch das beispielhafte Raumschiff, um sie durch das Weltall zu schießen.
Aktuell ist die KI als Werkzeug noch fehleranfällig. Aber mit der Zeit wird sie genauer und kann immer mehr Wahrheiten als Wahrheiten erkennen und aussprechen.
Eine KI muss wie der Mensch erst lernen, die Wahrheit bewerten zu können.
Ich habe mal irgendwo gelesen, dass die aktuelle KI mit der Intelligenz eines menschlichen Kindes verglichen wurde. Warten wir mal ab, bis die KI ein Erwachsener wird.
Beim aktuellen Stand der Forschung würde ich dahinter ein Großes Fragezeichen setzen. In ein paar Jahren mag das anders sein.DieRenteEnte schrieb:Die Antwort zu diesen Wahrheiten kann eine KI genauso gut wie ein Mensch wiedergeben.
Marius
Admiral
- Registriert
- Nov. 2008
- Beiträge
- 7.588
@tomgit
Du liegst da nicht ganz richtig.
Und ChatGPT kann mittlerweile Bilder interpretieren.
Der Mensch ist kein Wunderding und Logik kann eine KI woh unzweifelhaft besser.
Was sagt ChatGPT dazu, ob die Erde rund sein KÖNNTE.
So 100% sicher ist das ja nicht, da das ja nur unsere interpretation unserer Realität ist:
Die Tatsache, dass die Erde rund ist, wurde durch eine Vielzahl von wissenschaftlichen Beobachtungen und Experimenten bestätigt. Hier sind einige der wichtigsten Hinweise, die darauf hindeuten, dass die Erde eine annähernd kugelförmige Gestalt hat:
Du liegst da nicht ganz richtig.
Und ChatGPT kann mittlerweile Bilder interpretieren.
Der Mensch ist kein Wunderding und Logik kann eine KI woh unzweifelhaft besser.
Was sagt ChatGPT dazu, ob die Erde rund sein KÖNNTE.
So 100% sicher ist das ja nicht, da das ja nur unsere interpretation unserer Realität ist:
Die Tatsache, dass die Erde rund ist, wurde durch eine Vielzahl von wissenschaftlichen Beobachtungen und Experimenten bestätigt. Hier sind einige der wichtigsten Hinweise, die darauf hindeuten, dass die Erde eine annähernd kugelförmige Gestalt hat:
- Satellitenaufnahmen: Bilder der Erde aus dem Weltraum zeigen eine deutlich abgerundete Form. Beispielsweise haben Satelliten wie die NASA-Missionen Apollo und die modernen Erdbeobachtungssatelliten wie der Landsat-Satellit Bilder der Erde aufgenommen, die ihre kugelförmige Gestalt zeigen.
- Erdumrundung: Zahlreiche Expeditionen und Raumfahrten haben die Erde umrundet und dabei keine Hinweise auf eine flache Erde gefunden. Zum Beispiel haben Astronauten während ihrer Weltraummissionen die Erde aus verschiedenen Blickwinkeln beobachtet und bestätigt, dass sie eine runde Form hat.
- Schwerkraft: Die Art und Weise, wie die Schwerkraft auf der Erde wirkt, unterstützt die Vorstellung einer kugelförmigen Gestalt. Die Anziehungskraft der Erde zieht Objekte in Richtung ihres Schwerpunkts, der im Mittelpunkt einer Kugel liegen würde.
- Erdkrümmung: Wenn man über das offene Meer oder in flachen Landschaften über große Entfernungen schaut, kann man beobachten, dass sich entfernte Objekte allmählich am Horizont zu senken scheinen. Dies ist ein Hinweis auf die Krümmung der Erdoberfläche und wäre nicht möglich, wenn die Erde flach wäre.
- Zeitverschiebungen: Aufgrund der gekrümmten Form der Erde gibt es Zeitverschiebungen, wenn man sich von einem Längengrad zum anderen bewegt. Diese Verschiebungen sind ein Ergebnis der Tatsache, dass die Erde eine Kugel ist und helfen, die Rundheit der Erde zu bestätigen.
iNFECTED_pHILZ
Commodore
- Registriert
- Dez. 2008
- Beiträge
- 4.273
Frei nach „If google would be a guy“? Oh man was manche Leute googeln..oder vielmehr wie sie es tun 😅AncapDude schrieb:Die KI tut mir jetzt schon leid bei dem ganzen Müll ^^
tomgit
Commodore
- Registriert
- Nov. 2015
- Beiträge
- 4.538
Da stimme ich dir absolut zu. Es ist möglich, dass das irgendwann von KIs vollbracht werden kann. Nur würde ich das noch nicht in Stein meißelnDieRenteEnte schrieb:Aktuell ist die KI als Werkzeug noch fehleranfällig. Aber mit der Zeit wird sie genauer und kann immer mehr Wahrheiten als Wahrheiten erkennen und aussprechen.
Eine KI muss wie der Mensch erst lernen, die Wahrheit bewerten zu können.
Ergänzung ()
ChatGPT kann dir sagen, was auf dem Bild zu sehen ist, oder warum es kein "normales" Bild ist. Aber es kann damit noch keine zuverlässigen Emotionen (und damit Interpretationen) verbinden, weil Computational Emotion Analysis ein äußerst schwieriges Forschungsfeld ist und ein Recall von 0.6 da schon ein sehr gutes Modell darstellt.Marius schrieb:Und ChatGPT kann mittlerweile Bilder interpretieren.
W
washieiko
Gast
daten im Internetz, die ich dort hinstelle/anbietge, sind ja auch erstmal öffentlich einsehbar. ich erwarte doch auch von einer suchanfrage bei google, dass sie alles mit einbeziehen und mir irgendwie, nach den 20 werbeanzeigen, die nackte "wahrheit" präsentieren.
wenn sie also mit dieser datenlawine sowieso jederzeit und seit anbeginn ihres erfolges hantieren, googles erfolgslaufbahn beruht ja auf einem seiner zeit funktionalem und brauchbarem suchalgo, dann doch nutzen?!
es darf sich doch auch jedes individuum an den daten bereichern und bilden, bzw macht es ja peripher bereits.
wenn sie also mit dieser datenlawine sowieso jederzeit und seit anbeginn ihres erfolges hantieren, googles erfolgslaufbahn beruht ja auf einem seiner zeit funktionalem und brauchbarem suchalgo, dann doch nutzen?!
es darf sich doch auch jedes individuum an den daten bereichern und bilden, bzw macht es ja peripher bereits.
Wieso lässt du eigentlich den wichtigsten Teil beim Wissenschaftlichen arbeiten aus? Den Erkenntnisgewinn bzw. das Bestätigen oder Wiederlegen von Theorien durch Experimente und Sammeln von Daten?tomgit schrieb:Der Unterschied ist, dass ein Mensch durch wasauchimmer welche äußeren und inneren Einflüsse die Inhalte sortiert, interpretiert, und (im besten Falle) gewandelt wiedergibt. Darum ist wissenschaftliches Arbeiten nicht nur das Wiedergeben von bisher bekannten, sondern auch die Interpretation und Transformation dessen auf andere Blickwinkel.
"Ich weiß es nicht, aber man könnte XYZ tun um es herauszufinden" hört man von den aktuell gehalten A.I.s halt nicht, ist aber genau das was den Kern wissenschaftlichen Arbeitens ausmacht.
Marius
Admiral
- Registriert
- Nov. 2008
- Beiträge
- 7.588
@tomgit
Auch Menschen können Emotionen auf Bildern oft erstaunlich schlecht interpretieren.
Stichwort Empathie und Momentaufnahme ohne erkennbaren Kontext.
Du solltest den Menschen nicht auf einen allzu hohen Sockel stellen.
Und wie wir muss sich auch eine KI darauf verlassen was andere erforscht haben.
Frage:
Aber wenn wir die Realität falsch erkennen?
Es ist richtig, dass unsere Wahrnehmung der Realität nicht immer perfekt ist und wir manchmal zu falschen Schlussfolgerungen kommen können. Unsere Sinne und unser Gehirn können uns in gewissen Situationen täuschen oder begrenzt sein. Das ist ein Teil der menschlichen Erfahrung.
Jedoch basieren die wissenschaftlichen Erkenntnisse über die Form der Erde nicht nur auf individuellen Wahrnehmungen, sondern auf einem umfangreichen Netzwerk von Beobachtungen, Experimenten und Beweisen, die von vielen unabhängigen Forschern und Fachleuten weltweit gesammelt wurden.
Die Erde als eine nahezu kugelförmige Gestalt ist nicht nur das Ergebnis von Einzelwahrnehmungen, sondern von einem breiten Spektrum an Disziplinen wie Astronomie, Geodäsie, Satellitentechnik, Kartografie und vielen anderen. Diese unterschiedlichen Fachbereiche liefern konsistente und unabhängige Beweise für die Rundheit der Erde.
Wissenschaftliche Erkenntnisse beruhen auf kritischer Untersuchung, Überprüfung und Wiederholbarkeit. Wenn es solide und überzeugende Beweise gibt, die gegen die Vorstellung einer flachen Erde sprechen, dann wird diese Vorstellung von der wissenschaftlichen Gemeinschaft nicht unterstützt.
Es ist zwar wichtig, offen für alternative Perspektiven zu sein und unsere Erkenntnisse ständig zu hinterfragen, aber solange es keine überzeugenden wissenschaftlichen Beweise gibt, die die Rundheit der Erde widerlegen, bleibt die Annahme einer flachen Erde im Widerspruch zu den aktuellen wissenschaftlichen Erkenntnissen.
Auch Menschen können Emotionen auf Bildern oft erstaunlich schlecht interpretieren.
Stichwort Empathie und Momentaufnahme ohne erkennbaren Kontext.
Du solltest den Menschen nicht auf einen allzu hohen Sockel stellen.
Und wie wir muss sich auch eine KI darauf verlassen was andere erforscht haben.
Frage:
Aber wenn wir die Realität falsch erkennen?
Es ist richtig, dass unsere Wahrnehmung der Realität nicht immer perfekt ist und wir manchmal zu falschen Schlussfolgerungen kommen können. Unsere Sinne und unser Gehirn können uns in gewissen Situationen täuschen oder begrenzt sein. Das ist ein Teil der menschlichen Erfahrung.
Jedoch basieren die wissenschaftlichen Erkenntnisse über die Form der Erde nicht nur auf individuellen Wahrnehmungen, sondern auf einem umfangreichen Netzwerk von Beobachtungen, Experimenten und Beweisen, die von vielen unabhängigen Forschern und Fachleuten weltweit gesammelt wurden.
Die Erde als eine nahezu kugelförmige Gestalt ist nicht nur das Ergebnis von Einzelwahrnehmungen, sondern von einem breiten Spektrum an Disziplinen wie Astronomie, Geodäsie, Satellitentechnik, Kartografie und vielen anderen. Diese unterschiedlichen Fachbereiche liefern konsistente und unabhängige Beweise für die Rundheit der Erde.
Wissenschaftliche Erkenntnisse beruhen auf kritischer Untersuchung, Überprüfung und Wiederholbarkeit. Wenn es solide und überzeugende Beweise gibt, die gegen die Vorstellung einer flachen Erde sprechen, dann wird diese Vorstellung von der wissenschaftlichen Gemeinschaft nicht unterstützt.
Es ist zwar wichtig, offen für alternative Perspektiven zu sein und unsere Erkenntnisse ständig zu hinterfragen, aber solange es keine überzeugenden wissenschaftlichen Beweise gibt, die die Rundheit der Erde widerlegen, bleibt die Annahme einer flachen Erde im Widerspruch zu den aktuellen wissenschaftlichen Erkenntnissen.
Kommt auf die konkrete KI an. ChatGPT kann Logik überhaupt nicht.Marius schrieb:Der Mensch ist kein Wunderding und Logik kann eine KI woh unzweifelhaft besser.
Ähnliche Themen
- Antworten
- 61
- Aufrufe
- 2.434
- Antworten
- 27
- Aufrufe
- 2.575
M