News GPT-4o-Nachfolger: Bis zu OpenAIs nächster KI-Generation kann es noch 1,5 Jahre dauern

Boimler schrieb:

Natürlich wird durch KI Energie auch eingespart. Durch KI entsteht Fortschritt und entsprechenden werden Dinge auch effizienter. Wenn eine KI einen Menschen ersetzt, dann ist eben Energie eingespart. Heißt nicht, dass KI keine Energie verbraucht. Man stelle sich nur mal vor, dass durch KI wir eher z.B. die Kernfusion bekommen oder auch einfach nur etwas effizientere Solarmodule.

Es gibt übrigens auch schon ganz lange Supercomputer in der Wissenschaft. Da würde auch keiner auf die Idee kommen diese als negativ zu betrachten, weil wir dadurch enorme Fortschritte gemacht haben.


Boimler schrieb:
Es geht auch nicht um Magie, sondern um ein komplexes System, in dem auf Quantenebene chaotische Abläufe existieren, die dennoch ein zielgerichtetes und bewusstes Handeln ermöglichen. Menschliches Handeln ist im Groben vorhersehbar, im Einzelnen aber komplett unvorhersagbar.

Quantencomputer machen auch Fehler und es kommt nicht immer das selbe Ergebnis heraus. Was passiert wenn wir unser Gehirn 1:1 nachbauen? Warum sollte dieser "Computer" schlechter sein als ein Mensch?


Boimler schrieb:
Wenn ich die gleiche KI ein Flugzeug steuern lasse, wird sie scheitern. Ein Mensch hätte auf jeden Fall bessere Chancen, das Flugzeug gerade zu halten. Ich wollte darauf hinaus, dass ich nicht an eine "universelle" KI glaube, die situationsunabhängig agieren kann.

Es gibt bei Menschen auch viele Fachidioten, die nur in einer Sache gut sind. Ein Flugzeug kann schon jetzt ein Computer viel besser selbst fliegen als 99,9% der Bevölkerung. Menschen sind doch massiv begrenzt. Er lernt, er hat nur ~80 Jahre Zeit und er vergisst auch viele Dinge wieder. Dazu versteht er auch einfach viele Dinge nicht.


Boimler schrieb:
ChatGPT kann man bspw. sehr gut mit offenen Fragen aufs Glatteis führen, ist mir dazu mal aufgefallen.

Gut das wir Menschen überhaupt nicht manipulierbar sind und wir deswegen auch keine Angst vor AfD, Diktaturen usw. haben müssen. Der Mensch ist so eine labile Lebensform in jeder Hinsicht...
 
Ayo34 schrieb:
Natürlich wird durch KI Energie auch eingespart.
Dann bring dafür bitte mal ein Beispiel. Bisher frisst KI Milliarden an kWh, deren Einsparung an anderer Stelle nicht zu ersehen ist. Vielleicht ändert sich das, vielleicht auch nicht.

Ayo34 schrieb:
Quantencomputer machen auch Fehler und es kommt nicht immer das selbe Ergebnis heraus. Was passiert wenn wir unser Gehirn 1:1 nachbauen?
Für Quantencomputer gelten die gleichen Gesetze wie für reguläre Computer. Mit ihnen kann man kein Gehirn "nachbauen". Es ist ein weit verbreitetes Missverständnis, dass Quantencomputer andere informatische Grundlagen hätten als reguläre Rechenmaschinen. Wenn du die Fähigkeiten eines menschlichen Gehirns brauchst, musst du einen Menschen heranziehen und keinen Computer. Nimm allein mal deinen PC zu Hause. Der macht nichts, solange du keine Eingabe vorgibst. Und wenn er fertig ist, ist er fertig. Das ist das Prinzip von Computern. Ein menschliches Gehirn funktioniert vollkommen anders. Es ist nie "fertig". Das ist ja auch der Grund, warum unser Hirn so schlecht im Rechnen aber gut im Fühlen, Denken, Erfinden ist.
 
Boimler schrieb:
Für Quantencomputer gelten die gleichen Gesetze wie für reguläre Computer. Mit ihnen kann man kein Gehirn "nachbauen". Es ist ein weit verbreitetes Missverständnis, dass Quantencomputer andere informatische Grundlagen hätten als reguläre Rechenmaschinen.

Sagt dir das Human Brain Project etwas?
https://www.humanbrainproject.eu/en/

Besonders beeindruckend ist dabei eine Arbeit der Forschungsgruppe um den Neuroinformatiker Wolfgang Maass von der Technischen Universität Graz: Ihr ist es im Rahmen des Human Brain Projects gelungen, einen Teil des Mäusehirns zu simulieren. Das Team schuf ein Computermodell des knapp 52 000 Neuronen umfassenden visuellen Kortex einer Maus, des bisher am genauesten untersuchten Teils eines Säugerhirns. Das auf diese Art simulierte neuronale Netzwerk war in der Lage, ähnliche visuelle Aufgaben zu erfüllen wie eine lebende Maus. Die Fachleute konnten also erstmals den Sehsinn eines Tiers nachbauen.

Und was später auch sehr sehr interessant werden könnte, wenn man die Leistung von einem menschlichen Gehirn mit der Leistung von "Computern" koppeln könnte. Dadurch würde man nicht mehr die Energielimitierung bei einem menschlichen Gehirn haben und könnte so insgesamt deutlich wachsen. Der Mensch ist ja auch nur intelligenter als ein Tier, weil z.B. das Gehirn etwas größer/komplexer ist.

Elon Musk versucht das ja genau anders herum. Er nimmt das Gehirn und wertet es mit Computerchips auf.

Und zum Quantencomputer:
Unser Gehirn nutzt Effekte des Quantencomputings – ergibt ein Experiment

https://www.heise.de/hintergrund/Un...computings-ergibt-ein-Experiment-7327065.html


-> Kurz: Das Gehirn ist nicht magisch. Da passieren auch nur ein paar Dinge in immer gleicher Form...
 
Ayo34 schrieb:
-> Kurz: Das Gehirn ist nicht magisch. Da passieren auch nur ein paar Dinge in immer gleicher Form...
Ich glaube, wir reden aneinander vorbei. Ich habe nie von Magie gesprochen und bin auch nicht der Meinung, dass Abläufe im Gehirn nicht nachvollziehbar wären. Es ist aber etwas anderes, ob ich die Abläufe der Signalverarbeitung im menschlichen Gehirn nachvollziehen kann oder ob eine Maschine eine ähnliche Bewusstseinsinstanz, Kreativität oder Anpassungsfähigkeit auf dieser Grundlage entwickeln kann. Letzteres ist eindeutig nicht die Absicht des Human Brain Projects, das ich sehr gut kenne, weil ich einen Mitarbeiter kenne.

Deshalb kann ich mich nur wiederholen: Die Simulation von Gehirnen ist nicht identisch mit der Simulation menschlichen Wesens. Und das wissen alle, die in diesem Bereich medizinisch oder physikalisch forschen. Das Gehirn ist kein Computer, auch wenn diese romantische Vorstellung andauernd skizziert wird. Ich empfehle dir darüber hinaus auch mal Paper zu dem Thema zu lesen und nicht nur die populärwissenschaftlichen Abhandlungen auf Technik- und Informatikwebseiten. Da wird das ganze oft sehr verkürzt dargestellt.
 
Ayo34 schrieb:
GEMINI: Ja, ich kann Ironie erkennen. Ironie ist eine sprachliche Figur, bei der das Gegenteil von dem gemeint ist, was gesagt wird. Oft wird Ironie durch Tonfall, Kontext oder Übertreibung vermittelt.
Etwas erklären zu können heißt noch lange nicht es auch zu verstehen.
Insofern ist das kein Beweis für irgendwas.

Und selbst wenn Ironie erkannt und entsprechend darauf reagiert wird beweist das alleine noch nicht das Verständnis für Ironie.
Heutige KIs tun lediglich so als ob.

Ayo34 schrieb:
Wie viel Energie muss aufgewendet werden für Heizung, Wohnung usw.? Wie viel Energie braucht eigentlich so eine KI pro Gesprächspartner? Wir haben natürlich gigantische Zahlen bei so einem Rechenzentrum, aber da ist ja auch nicht nur eine KI, sondern da werden Millionen bedient.
Das ist aber letztlich eine Milchmädchenrechnung.
Da spielen viele Faktoren rein. Die musst du alle (zum Großteil) berücksichtigen. Dann musst Du noch gucken, worauf Du Dich genau beziehst.
Ohne das alles zu definieren, sind solche Vergleiche eher sinnlos.


Boimler schrieb:
Ich wollte darauf hinaus, dass ich nicht an eine "universelle" KI glaube, die situationsunabhängig agieren kann
Wie gesagt. Das wir die jetzt schon auch nur annähernd haben bzw. nicht haben, da würde ich Dir ja sogar zustimmen.
Der eigentliche Punkt ist, das es da eine prinzipielle Grenze gibt. Und das sehe ich nicht.
Und als Beleg für Deine These taugt es natürlich auch nicht, wenn Du da jetzige KI-Modelle als Anhaltspunkt nimmst.

Ayo34 schrieb:
Natürlich wird durch KI Energie auch eingespart. Durch KI entsteht Fortschritt und entsprechenden werden Dinge auch effizienter.
Du gehst ja leider überhaupt nicht auf das ein, was ich schrieb. Aber ich hatte ja als Beispiel das Naturvolk gebracht.
Denn "produktiver sein" oder "mehr können" ist ja kein Wert ansich. Was am Ende zählt ist die Zufriedenheit damit Lebensqualität.

Und ob dieses mehr an Technik auch eine Steigerung der Lebensqualität zur Folge hat, darüber kann man streiten. Aber weißt Du was: Ich gebe Dir sogar den Punkt. Ich gehe damit und sage "das Mehr an Technik bringt auch ein Mehr an Lebensqualität".
Guckt man aber auf den Aufwand/Ressourcenverbrauch den wir dafür betreiben und auf der anderen Seite den Zugewinn an Lebensqualität, dann ist es doch mehr als fragwürdig ob da das Verhältnis im Vergleich zum Naturvolk wirklich gut aussieht.

Wie gesagt. Ich will hier gar kein Fortschrittsverweigerer sein oder so. Ich finde es auch, das wir es trotzdem machen sollten. Was mich bei Dir stört ist dieses Fanboy-Gehabe. Nämlich alles zu überhöhen und Kritik unter den Teppich zu kehren und nicht mal differenziert drauf zu gucken.
Alles hat seine Vor- und Nachteile. Und wer immer nur über Vorteile redet und alles zu seinen Gunsten verdreht ist mir genauso suspekt wie Leute, die alles nur schwarz sehen oder eine "brauchen wir nicht"-Mentalität an den Tag legen.

Boimler schrieb:
und bin auch nicht der Meinung, dass Abläufe im Gehirn nicht nachvollziehbar wären.
Du könntest es ja mit folgender Argumentation probieren:
Um ein Gehirn zu bauen, müssten wir Gehirne vollständig verstehen.
Allerdings: Unser Gehirn ist nicht intelligent genug, um Gehirne zu verstehen.

Damit hättest Du eine natürliche Grenze geschaffen, womit Du begründen kannst, warum es uns nicht möglich ist den menschlichen Geist zu implementieren. :-)
 
  • Gefällt mir
Reaktionen: Boimler
andy_m4 schrieb:
Der eigentliche Punkt ist, das es da eine prinzipielle Grenze gibt. Und das sehe ich nicht.
Ich komme aus der Physik, deshalb kann ich sagen, dass es diese Grenzen gibt. Sie sind auch keine jetzigen Grenzen irgendwelcher Modelle sondern feste Schranken. Das genannte Brain Projekt ist Grundlagenforschung und möchte die Abläufe im Gehirn verstehen. Das ist ein bisschen so, als würdest du aus den Konstruktionsplänen einen Prozessor rekonstruieren, nur sehr viel komplizierter. Und da hören die Parallelen zum Computer auch schon auf. Denn es gibt viele Dinge im Hirn, die man so verstehen kann. Aber solche Instanzen wie Bewusstsein sind damit nicht zugänglich. Es reicht eben nicht, neuronale Signalwege zu kartieren, wenn auf Quantenebene noch viel mehr passiert. Und diese Ebene ist nur in Einzelexperimenten unter Laborbedingungen zugänglich. Es ist schlicht unmöglich, das auch nur im Maßstab einer einzelnen Zelle zu reproduzieren, Stichwort Wellenfunktion und Unbestimmtheitsrelation. Das sind keine technischen Grenzen.

Vielleicht waren wir aber auch in den Formulierungen ungenau. Natürlich kann eine KI hinreichend gut sein, um "ununterscheidbar" von menschlichem Verhalten zu sein. Jedenfalls könnte das mit Sprache bei ChatGPT gelingen. Das wäre ein Schritt bevor man über "Simulation" spricht. Auch dann gäbe es Fragen und Situationen, die diese KI nicht klären könnte, aber die würde man ohne Kenntnis der Programmierung nur schwer finden. Und das wird am Ende auch der Weg sein, denn der Aufwand, um ein künstliches Bewusstsein zu erschaffen, steht in keinem Verhältnis zu seinem Nutzen.

andy_m4 schrieb:
Alles hat seine Vor- und Nachteile. Und wer immer nur über Vorteile redet und alles zu seinen Gunsten verdreht ist mir genauso suspekt wie Leute, die alles nur schwarz sehen oder eine "brauchen wir nicht"-Mentalität an den Tag legen.
Also auf der praktischen Ebene muss sich das bei KI noch zeigen. Bisher ist ChatGPT ein nettes Werkzeug, aber ob man damit wirklich massenhaft Arbeitskräfte ersetzen oder ergänzen kann, muss sich erst noch zeigen. Ich glaube kein Mensch würde sich dabei wohlfühlen, wenn kritische Infrastruktur von einer KI gelenkt wird, die keine menschliche Aufsicht mehr hat. Diese Diskussion wird es sicher noch geben.
 
Boimler schrieb:
Ich komme aus der Physik, deshalb kann ich sagen, dass es diese Grenzen gibt.
Dann wundert mich es ehrlich gesagt umso mehr.

Boimler schrieb:
Stichwort Wellenfunktion und Unbestimmtheitsrelation. Das sind keine technischen Grenzen.
Das Problem bei Deiner Argumentation ist:
Es gibt ein Gehirn. Das ist kein rein hypothetisches Konstrukt, sondern existiert real.
Damit gibts aus meiner Sicht nur zwei Möglichkeiten die verhindern kann, das wir es nachbauen können.
Entweder die Verständnisgrenze: Wir sind also zu doof, um eine synthetisches Gehirn bauen zu können.
Oder Geist/Bewusstsein/wie_auch_immer_Du_es_nennen_willst schlägt sich nicht alleine im materiellen Aufbau nieder.

Aber gut. Ich komme Dir mal entgegen. Nehmen wir das mal so hin, das wir wissen, das es Quanteneffekte gibt die sich auch nicht so ohne weiteres von außen nachvollziehen lassen und von mir aus auch nicht nachbauen lassen. Stand heute wissen wir noch nicht, wie das Gehirn genau funktioniert. Und klar kann es da Effekte geben, die wir vielleicht nicht nachbauen können. Da wir es aber nicht genau wissen, kann es genauso gut sein, das wir solche Sachen gar nicht zu Implementierung brauchen. Vielleicht stellt sich ja heraus, das Gehirn lässt sich einfacher nachbauen als wir dachten.
Das "nicht wissen" lässt halt die Optionen in zwei Richtung zu.
Dadurch bleibt unterm Strich: Selbst wenn ich Dir da folge, kann man allein damit (Stand jetzt) noch nicht ausschließen, das man das Gehirn nachbauen kann.

Und wer weiß. Vielleicht überschätzen wir ja auch unsere Intelligenz. Denn das was wir im Alltag so brauchen ist zu 90% irgendein gelerntes Verhalten was wir einfach nur (von mir aus mit leichter Varianz) replizieren. Der geniale und neuartige Gedanke oder die originelle Reaktion auf eine unbekannte Situation sind eher die Ausnahme.
Und möglicherweise sind geniale Gedanken auch auch Ergebnis einer gewissen Zufallskomponente. Denn üblicherweise können wir ja nicht auf Knopfdruck genial sein. Außerdem haben wir nicht nur gute Ideen, sondern wir haben auch manchmal doofe Ideen und doofe Gedanken, wo wir uns hinterher dann auch selbst sagen: "Wie konnt' ich nur so doof sein".
So ähnlich wie bei der Evolution. Die ja auch keine willentliche Richtung hat, sondern auf Zufall basiert und entweder die Idee passt (dann bleibt sie bestehen) oder nicht (dann verschwindet sie wieder).

Boimler schrieb:
um ein künstliches Bewusstsein zu erschaffen, steht in keinem Verhältnis zu seinem Nutzen.
Möglicherweise ist Bewusstsein gar nicht so kompliziert, wie man glaubt.
Bewusstsein heißt ja im Prinzip, das man Supervision hat. Man kann also nicht nur seine Umgebung wahrnehmen und denken, sondern sich dabei auch quasi selbst beobachten.
Und das sprechen wir ja durchaus auch Tieren zu. Wie zum Beispiel gewissen Affenarten oder auch den heimischen Vierbeiner. Da gehen wir aber nicht davon aus, das der auch Quantenmechanik verstehen kann. :-)
Insofern ist Bewusstsein möglicherweise auch deutlich einfacher zu implementieren als Intelligenz.

Boimler schrieb:
Bisher ist ChatGPT ein nettes Werkzeug, aber ob man damit wirklich massenhaft Arbeitskräfte ersetzen oder ergänzen kann, muss sich erst noch zeigen.
Naja. Das zeigt sich ja schon jetzt. Gerade so für Boilerplate-Arbeiten a-la "Hab hier ein paar Fakten; schreib mir mal ein Zeitungsartikel daraus" leisten diese Tools schon gute Arbeit und das in einem Bruchteil der Zeit.
Und klar. Du brauchst immer noch Leute für investigative Recherche. Und Du wirst damit auch nicht nen stilistisch hochwertig geschriebenen Artikel hinkriegen. Aber die Masse(!) an irgendwelchen Artikeln abseits von Leitartikeln in der NY-Times etc. wird halt durch so was ersetzt.
Ähnlich sieht es bei Grafiken aus. Auch hier wieder: Ja. Die kunstvolle Grafik und die ausgefallene Idee, dafür wirst du immer noch ein Mensch brauchen. Aber die massenhaft benötigte Gebrauchsgrafik, Symbolbilder etc. wirst Du Dir einfach generieren und fertig.

Boimler schrieb:
Ich glaube kein Mensch würde sich dabei wohlfühlen, wenn kritische Infrastruktur von einer KI gelenkt wird
Ja. Wobei das Problem hast Du ja teilweise schon jetzt ohne KI. Weil die Systeme einfach so komplex geworden sind. Und KI-Jünger sagen einem dann immer: "Ist doch alles kein Problem. Jetzt haben wir KI und mit Hilfe derer wird die Komplexität beherrschbar." Was dabei immer unterschlagen oder vergessen wird ist, das jede Technik die uns geholfen hat Komplexität zu beherrschen immer letztendlich zu mehr Komplexität (die die hinzugewonnenen Beherrschbarkeit wieder zum Großteil aufgefressen hat) geführt hat.

Boimler schrieb:
die keine menschliche Aufsicht mehr hat. Diese Diskussion wird es sicher noch geben.
Ja. Wobei das ja durchaus auch zu Paradoxien führt.
Das haben wir ja bei der Diskussion rund um selbstfahrende Autos schön beobachten können.
Da ist ja immer die Forderung das das System zu 100% sicher sein muss und kein Menschenleben gefährden darf. Auf der anderen Seite haben wir tagtäglich aber Gefährdung durch Fehler menschliche Fahrer ohne eine Diskussion darüber zu führen, den motorisierten Verkehr abzuschaffen.
Und mehr noch: Selbst wenn das autonome, computergesteuerte Auto weniger Tote/Verletzte hinterlassen würde als menschliche Fahrer, würde es immer noch keine Akzeptanz haben solange die Sicherheit nicht bei 100% (oder zumindest nahezu bei 100%) ist.

Und dann hast Du natürlich noch das Problem, das Du auch leicht mal in ein Dilemma laufen kannst. Schön illustrieren kann man das, wenn man mal als Beispiel dem militärischen Einsatz von Computer/KI nimmt.
Eine KI kann ja besser/schneller die anfallenden Daten(mengen) verarbeiten und dann auch entsprechend reagieren. Und nun sagst Du Dir:
Das ist alles komplex und möglicherweise macht das System Fehler, also lässt Du Dir Entscheidungen von Menschen abnicken. Damit, wenn die KI entscheidet 'ne Stinger loszuschicken, Du sicher bist, das die in den feindlichen Truppen einschlägt und nicht etwa im heimischen Kindergarten.
Das Problem/Dilemma dabei ist, wenn Du einen Menschen dazwischen schaltest, hast Du natürlich eine Zeitverzögerung. Dein Feind der das nicht macht, wird einen Vorteil haben weil der viel schneller reagieren kann.

Und ja. Das sind Fragen (und da gibts ja noch jede Menge mehr) mit denen wir uns auseinander setzen werden müssen/sollten.
 
Zuletzt bearbeitet:
andy_m4 schrieb:
Es gibt ein Gehirn. Das ist kein rein hypothetisches Konstrukt, sondern existiert real.

Das ist der Punkt. Warum sollten wir nicht etwas "bauen" können, was es schon gibt? Künstliche Herzen gibt es mittlerweile auch und das war ebenso vor 100 Jahren noch völlig unrealistisch. Das einzige was vor großen Erfindungen immer wieder da war, war fehlende Fantasie oder Vorstellungskraft.

andy_m4 schrieb:
Möglicherweise ist Bewusstsein gar nicht so kompliziert, wie man glaubt.

Manche gehen ja auch davon aus, dass Bewusstsein automatisch kommt, wenn man eine gewisse "Intelligenz" überschreitet.

Allgemein habe ich immer wieder das Gefühl, dass der Mensch sich gerne als etwas Besonderes sehen möchte und daher auch z.B. gegenüber Tieren so herablassend ist bzw. sie einfach isst. Aber wie wahrscheinlich ist es, dass es nicht etwas viel intelligenteres in unserem Universum gibt? Daraus ergibt sich dann auch die Frage, ob wir überhaupt einen Menschen (Gehirn) nachbauen müssen. Vielleicht können wir etwas viel besseres bauen als uns selbst. Mit weniger Schwächen, mit einer stärkeren Hülle, ohne Begrenzung auf 100 Jahre, weniger Machtbesessen usw...

Und wie besonders kann man sein, wenn es über 8 Milliarden von uns gibt? Und die wenigsten davon hält man in Erinnerung.
 
Ayo34 schrieb:
Manche gehen ja auch davon aus, dass Bewusstsein automatisch kommt, wenn man eine gewisse "Intelligenz" überschreitet.
Wie so viele deiner Aussagen bleibt auch das im Nebel. Wer sind "manche" und was soll das bedeuten? Die Beobachtung an uns selbst, dass wir uns für intelligent halten und ein Bewusstsein besitzen, ist kein Beweis für die These, dass beides miteinander zusammenhängen müsste. Es ist gut möglich, dass eine Fruchtfliege sich ihrer selbst bewusster ist als wir. Das ist aber keine Kategorie, die man messen könnte, weil wir ja nur uns selbst als Maßstab haben.
 
@Boimler
Ganz ehrlich, du behauptest ständig hier irgendwas aus deiner Physik-Sichtweise und hast bisher nichts mit Quellen hinterlegt. Forderst von anderen aber bei Themen wie "Bewusstsein" nun Beweise. Das zieht sich auch durch deine ganzen Beiträge durch, dass du andere Sichtweisen nicht akzeptierst und wenig Vorstellungskraft besitzt.

Frage mal einen Neurowissenschaftler, ein Philosoph und ein Informatiker was "Bewusstsein" ist und du wirst 3 andere Antworten bekommen... und je nach Antwort ist es auch mehr oder weniger wahrscheinlich, ob wir in absehbarer Zeit KI mit einem Bewusstsein haben.

Aber extra für dich:
Bewusstsein in der künstlichen Intelligenz: Einblicke aus der Wissenschaft des Bewusstseins

Die Frage, ob heutige oder in naher Zukunft entstehende KI-Systeme ein Bewusstsein haben könnten, ist ein Thema von wissenschaftlichem Interesse und wachsender öffentlicher Besorgnis. Dieser Bericht plädiert für einen rigorosen und empirisch fundierten Ansatz in Bezug auf KI-Bewusstsein: Er bewertet bestehende KI-Systeme im Detail im Lichte unserer am besten unterstützten neurowissenschaftlichen Theorien über Bewusstsein. Wir geben einen Überblick über mehrere prominente wissenschaftliche Theorien des Bewusstseins, darunter die Theorie der rekurrenten Verarbeitung, die Theorie des globalen Arbeitsraums, Theorien höherer Ordnung, prädiktive Verarbeitung und die Theorie des Aufmerksamkeitsschemas. Aus diesen Theorien leiten wir "Indikatoreigenschaften" des Bewusstseins ab, die uns ermöglichen, KI-Systeme nach diesen Eigenschaften zu bewerten. Wir verwenden diese Indikatoreigenschaften, um mehrere aktuelle KI-Systeme zu bewerten, und wir diskutieren, wie zukünftige Systeme sie umsetzen könnten. Unsere Analyse deutet darauf hin, dass kein aktuelles KI-System über Bewusstsein verfügt, aber auch, dass es keine offensichtlichen technischen Hindernisse gibt, um KI-Systeme zu entwickeln, die diese Indikatoren erfüllen.
https://arxiv.org/abs/2308.08708

Studie durchlesen und deinen Horizont erweitern, wenn du Probleme hast, dass ich lapidar in einem Forum "manche" geschrieben habe.
 
Ich habe halt meine Meinung und habe darum gebeten, dass du deine mal belegst. Danke dafür. Warum man deshalb ausfallend werden muss, verstehe ich nicht.

Ich halte halt nicht viel von Wetten auf die Zukunft. Je nachdem welche Definition von Bewusstsein du anlegst, kommen da unterschiedliche Vorhersagen raus.

Mein Standpunkt kommt halt eher daher. Einer der Autoren war auch mal hier zu hören:

„Das Problem ist nämlich, dass diese Netzwerke sich ständig verändern. Die Art und Weise wie Nervenzellen miteinander kommunizieren ist nicht fest, sondern sie hängt davon ab, welche Erfahrungen dieses Gehirn gemacht hat. All diese Veränderungen führen dazu, dass das Gehirn seine Funktion ständig anpasst.“
 
eazen schrieb:
Bisheriger „Nutzen“ von KI:
...
- sinnlose Fakes und Propaganda Maschinen überall im Internet, vorallem Social Media
...

Die Fakes müssen auch nicht gut, um sinnvoll für die Propaganda zu sein.
Es reicht schon völlig aus, wenn sie einfach nur für Diskussionsstoff und Unruhe in der Gesellschaft sorgt.

Propaganda heißt nicht, die Menschen zu informieren oder von einer "Wahrheit" zu überzeugen
Der Sinn der Propaganda (im Ausland) besteht zum einen darin, ein Feindbild zu erschaffen, und gleichzeitig ein Gemeinschaftsgefühl innerhalb der Bubble aufzubauen.
Nach dem Motto: wir gegen sie anderen.

Und sowas kannst du mit den armseligsten Fakes erreichen, solange es nur kontrovers genug ist, um für Diskussionsstoff zu sorgen.
AI-Nadja schrieb:
Auf die derzeitigen "Fakes" fallen meist nur die Menschen rein, die auch auf viele andere Tricks hereinfallen. Daran ist nicht die KI, sondern die Bildung und der Komfort schuld.
Auch hochintelligente Menschen fallen auf Propaganda rein, ohne es zu merken.
Siehe Coronapandemie.

wie erwähnt: Sinn der Propaganda ist es, die (feindliche) Gesellschaft zu spalten.
Und selbst Irrlichter wie der Hildmann haben das geschafft, indem sie gleich so dämliche Behauptungen in die Welt gesetzt haben, das sich vermeintlich intelligente Menschen genötigt sahen, seiner Bubble zu erklären, wie schwachsinnig seine Behauptungen sind.

Regen sich stundenlang auf, wie dumm die anderen doch sind, und dabei sind es selbsr, die der Propaganda in der Falle getappt sind.
Weil was folgt, sind meist endlose, äußerst provokative und nervenaufreibende Debatten auf Social Media, in denen es nur noch darum geht , wer den längeren Atem hat.
Und das sind in der Regel die Trolle, weil die für sowas geschult werden.

Irgendwann werden die "intelligenten" entweder zermürbt aufgeben, oder lassen sich so provozieren, daß sie verwarnt oder gar gesperrt werden.
Und schon wurde wieder ein Gegner zum Schweigen gebracht.
mae1cum77 schrieb:
Nur Regulierung sorgt dafür, dass derartiges noch nicht aktiv genutzt wird (soweit bekannt, wohlbemerkt) ;).
Wie willst Du AI denn regulieren, und das auch noch durchsetzen?

Glaubst Du allen ernstes, daß Staaten wie die USA, Russland oder China sich vorschreiben lassen, wie sie KI zu nutzen haben?
Dafür ist die Technologie (schon jetzt) viel zu mächtig, als das man sich da reinreden lässt.

Was solche Staaten von Verträgen halten, sobald sie eigenen Interessen entgegenlaufen, sieht man sehr gut am Beispiel internationaler Gerichtsthof (USA), an "Ein Land, zwei Systeme " (China), oder am Ukrainisch- Russischen Grenzvertrag von 2003 (Russland).

Papier ist geduldig, und der naive Gedanke, das man alles regulieren könnte, ist typisch deutsch / europäisch.

Die Realität ist meist eine andere.
 
Zuletzt bearbeitet:
Ayo34 schrieb:
Manche gehen ja auch davon aus, dass Bewusstsein automatisch kommt, wenn man eine gewisse "Intelligenz" überschreitet.
Müsste man gucken, was Intelligenz überhaupt bedeutet. Sofern man sich da nicht auf eine Definition festlegt, sind solche Diskussionen oder Überlegungen nicht wirklich zielführend.

Und um uns der Frage zu nähern muss man ja nicht unbedingt auf andere Spezies (Tiere) gucken oder Maschinen, sondern bei uns selbst. Wie ist das da überhaupt im Verlaufe unseres Lebens.
Ist ein Baby intelligent oder hat ein Bewusstsein oder sind das eher Dinge die im laufe der Zeit hin zu kommen. Als Teil des Entwicklungs- und Lernprozesses.

Ayo34 schrieb:
Daraus ergibt sich dann auch die Frage, ob wir überhaupt einen Menschen (Gehirn) nachbauen müssen. Vielleicht können wir etwas viel besseres bauen als uns selbst.
Es geht ja auch nicht primär ums nachbauen, sondern um das verstehen. Ob man das dann nachbaut oder mit dem Wissen was anderes anfängt, ist ja dann erst der zweite Schritt.
Zumal das ja dann auch ne ethische Dimension bekommt. Sobald wir etwas haben, was auch nur in die Nähe eines menschlichen Gehirns kommt, stellt sich ja die Frage, wieviel Rechte wir dann daran noch haben.

Ayo34 schrieb:
Mit weniger Schwächen, mit einer stärkeren Hülle, ohne Begrenzung auf 100 Jahre, weniger Machtbesessen usw...
Auch das ist mit vielen ethischen Fragen behaftet die ja auch schon breit diskutiert wurden. Solche Ideen a-la "wir wollen einen besseren Menschen schaffen" lösen bei mir ein eher ungutes Gefühl aus.
Und dann stellt sich ja immer noch die Frage: Wie gehen wir mit den Menschen um, die das nicht wollen?
Wir haben ja jetzt schon das Problem, das wir darüber diskutieren ob Menschen die sich ungesund ernähren oder unfallträchtigen Sport treiben nicht einen höheren Krankenversicherungsbetrag bezahlen sollten, weil sie das Gesundheitssystem ja auch stärker belasten.
Dann wirds auch mit Sicherheit darüber Diskussionen geben, wie wir mit Menschen umgehen, die ein besseren Körper etc. ablehnen.

Möglicherweise aber auch nicht. Weil wir uns als Gesellschaft weiter entwickelt haben. Und weil wir alle Energie- und Ressourcenprobleme gelöst haben und es daher egal ist, ob wir zusätzliche Aufwendungen durch solche Menschen haben oder nicht.

Maviba schrieb:
Auch hochintelligente Menschen fallen auf Propaganda rein, ohne es zu merken.
Ja. Intelligenz wird überschätzt. :-)

Maviba schrieb:
Glaubst Du allen ernstes, daß Staaten wie die USA, Russland oder China sich vorschreiben lassen, wie sie KI zu nutzen haben?
Naja. Es gibt ja schon Regularien was zum Beispiel Waffen angeht. Klar sind die jetzt nicht besonders weitgehend und auch gerne mal brüchig und zahnlos. Aber es ist nicht so, das es überhaupt keine Regeln gibt.

Wobei wir ja auch unabhängig davon ob es weltweite Regelungen gibt wir uns selbst Regeln auferlegen können und das ja auch jetzt schon tun.

Boimler schrieb:
Einer der Autoren war auch mal hier zu hören:
Ohne das jetzt alles bis ins letzte Detail durchdrungen zu haben, klingt das alles eher nach "Super komplex" und "Wir verstehen vieles noch nicht" und "Bedarf noch Froschungsarbeit" etc. aber nicht nach prinzipieller Grenze im Sinne der Heisenbergschen Unschärferelation oder auch die Vakuumlichtgeschwindigkeit als maximale, prinzipiell nicht überschreitbare Geschwindigkeit (um jetzt mal ein paar prinzipielle Grenzen nennen).

Möglicherweise hab ich aber auch nur nicht ganz verstanden, aber: Wie kommst Du zu der Überzeugung, das ein Gehirn nicht irgendwann mal durch uns selbst implementierbar wäre. Ich hab ja schon zwei mögliche Ansätze genannt mit der sich eine Grenze begründen lässt..
Doch weder gehst Du wirklich darauf ein noch zeigst Du andere Grenzmöglichkeiten auf.
 
andy_m4 schrieb:
Naja. Es gibt ja schon Regularien was zum Beispiel Waffen angeht. Klar sind die jetzt nicht besonders weitgehend und auch gerne mal brüchig und zahnlos. Aber es ist nicht so, das es überhaupt keine Regeln gibt.

Es ist ja schon schwierig Atomwaffen zu kontrollieren und das sind riesengroße Anlagen und mit super viel Aufwand über zum Teil Jahrzehnte verbunden. KI kann quasi in jedem Keller programmiert werden und auch staatlich braucht man da nur ein normales Büro mit ein paar Leuten und irgendwo einem Rechenzentrum. Im Krieg passieren auch überall Kriegsverbrechen.

Ich glaube daher für KI weltweit Regeln zu finden wird nicht funktionieren. Da wird sich keiner dran halten, alleine schon weil man sich gegenseitig nicht traut und davon ausgeht, dass der Andere es eben auch macht. Auch ist die Abtrennung sehr schwierig, was okay ist und was nicht.
 
Ayo34 schrieb:
Es ist ja schon schwierig Atomwaffen zu kontrollieren und das sind riesengroße Anlagen und mit super viel Aufwand über zum Teil Jahrzehnte verbunden. KI kann quasi in jedem Keller programmiert werden und auch staatlich braucht man da nur ein normales Büro mit ein paar Leuten und irgendwo einem Rechenzentrum. Im Krieg passieren auch überall Kriegsverbrechen.
Naja. Wie gesagt: Es gibt ja bestehende Regeln. Und das bezieht sich nicht nur auf Atomwaffen oder so. Sondern auch andere Waffengattungen wie Chemiewaffen oder Streumunition
Oder auch so Regeln wie, das man keine Zivilisten angreift oder wie man mit Kriegsgefangen umgeht.
etc.
Und da kannst Du genauso sagen: Der fiese Diktator hält sich nicht dran. Wir schaffen es ja teilweise nicht mal selbst dran zu halten, obwohl wir uns sogenannte "westliche Werte" auf die Fahnen schreiben.
Das funktioniert also ganz sicher nicht perfekt.

Übrigens kannst Du das letztlich überall sagen. Diebstahl ist hierzulande verboten. Aber natürlich kommen trotzdem Diebstähle vor und wir erwischen nicht mal alle Diebe. Trotzdem käme ja niemand auf die Idee zu sagen, das aufgrund der Tatsache das sie trotzdem passieren wir das Verbot abschaffen.

Ayo34 schrieb:
dass der Andere es eben auch macht. Auch ist die Abtrennung sehr schwierig, was okay ist und was nicht.
Mal davon abgesehen, das ich das Dilemma hier im Thread schon thematisiert habe:
Was sagt uns das denn? Das wir gar nicht drüber diskutieren sollten und uns gar nicht um Regeln bemühen sollten? Oder was soll jetzt die Folgerung daraus sein?
 
andy_m4 schrieb:
Naja. Es gibt ja schon Regularien was zum Beispiel Waffen angeht. Klar sind die jetzt nicht besonders weitgehend und auch gerne mal brüchig und zahnlos. Aber es ist nicht so, das es überhaupt keine Regeln gibt.
Hmja, aber wie Du selbst bemerkt hast: zahnlos. Ich würde es eher als eine vorübergehende Absichtserklärung bezeichnen. Gerade solche über waffen, und als solche zähle ich KI mal mit hinzu, sind oft das Papier nicht wert, auf dem sie stehen.
Siehe die ganzen Nuklearvereinbarungen wie zwischen USA und Russland, das ständig unterlaufen und letztendlich gegenseitig gekündingt wurde. Oder das Atomabkommen mit dem Iran...

andy_m4 schrieb:
Wobei wir ja auch unabhängig davon ob es weltweite Regelungen gibt wir uns selbst Regeln auferlegen können und das ja auch jetzt schon tun.

Das Problem ist, das Regulierungen auch einschränken, und so diejenigen benachteiligen, die sich daran halten.
In einer globalisierten Welt ist das ein Todesurteil für die wirtschaft.
Das gilt besonders für KI, da ihre Entwicklung derzeit unglaublich schnell voranschreitet.

Erstens wird das dazu führen, das dies die Forschung auf dem Gebiet massiv ausbremst, während andere Wettbewerber freie Hand haben.
Das wird nur dazu führen, das lokale Unternehmen deswegen schlicht in die in die Regionen ziehen, die weniger reguliert sind.

Alleine Deutschland, Weltmeister der Bürokratie und Regularien. Und was hat es uns gebracht, ausser einem vermeindlich guten Gewissen?
Wo ist den unsere gamze Industrie mittlerweile hin, das Rückgrat unserer Wirtschaft und der Grund für unseren Wohlstand?

Wir waren führend in der Entwicklung regenerativer Energien, das was wir jetzt so dringend brauchen. Mittlerweile können wir nichteinmal mehr unsere eignen Solarzellen und Windkrafträder bauen.
Aber hauptsache keine Kernkraftwerke mehr, während unsere unmittelbaren Nachbarn lauter neue bauen, von denen wir zeitweise auch Strom brauchen.

Das selbe gilt für die Pharma- und Chemieindustrie. warum sind die wohl aus Deutschland abgewandert? Und warum können wir nichteinmal mehr unsere eigenen Medikamente herstellen, obwohl D auch da führend war.

Stahlindustrie, das gleiche. Autoindustrie kommt als nächstes. Die Liste lässt sich unendlich fortsetzen, und das sind die besten Beispiele, um zu zeigen, was passiert, wenn man sich selbst regeln aufstellt, sich aber in einem Wettbewerb mit denjenigen befindet, die weniger regeln haben
 
Zuletzt bearbeitet:
Maviba schrieb:
Hmja, aber wie Du selbst bemerkt hast: zahnlos.
Naja. Völlig zahnlos ist es nicht. Es wird sich ja schon grob dran gehalten.
Ich denk mal, wenns rein nach militärischen Gesichtspunkten gegangen wäre, hätten wir schon den ein oder anderen Bio-, Chemie- oder Atomwaffeneinsatz mehr gehabt.

Maviba schrieb:
Das Problem ist, das Regulierungen auch einschränken, und diejenigen benachteiligen, die sich daran halten.
Ja. Das ist ein Problem. Trotzdem machen wir es ja.
Zum Beispiel bei der Strafverfolgung. Den Strafverfolgern sind gewisse Grenzen auferlegt. Den Kriminellen aber nicht. Du müsstest Du ja dann konsequenterweise genauso argumentieren.

Wie schon angedeutet ist es ja bei solchen Regelungen nicht allein ausschlaggebend, das sich alle dran halten.

Nehmen wir an, wir übergeben jetzt einer KI die Führung eines Krieges. Weil wir wissen, das die KI das schneller und effizienter macht als wenn wir da manuell reagieren würden und weil wir ja davon ausgehen müssen, das der fiese Diktator XYZ das ja auch machen wird und wenn wir mit dem mithalten wollen, müssen wir das auch machen. Der kennt keine Regeln.
Also halten wir uns auch an keine Regeln, um nicht im Nachteil zu sein (Deine Argumentation!). Das heißt, wenn jetzt die KI anfängt Schulen und Krankenhäusern zu bombardieren weil sie es für taktisch sinnvoll hält, dann würdest Du das also inkauf nehmen, nur damit Du bessere Chancen gegen den Diktator hast?

Maviba schrieb:
In einer globalisierten Welt ist das ein Todesurteil für die wirtschaft.
Ähm. Die Wirtschaft profitiert im ganz erheblichen Maße von Regulation.
Das kannst Du sehr schön beobachten in Ländern, wo es keine Regulation gibt weil es keinen richtigen Staat gibt der sich um gewisse Rechtssicherheit kümmert.
Wie zum Beispiel Lybien. Da gibts kaum Regularien. Da gibts nicht mal ne einigermaßen stabile Regierung die Gesetze durchsetzen könnte. Da kann man also weitestgehend unbehelligt schalten und walten. Das müsste ja Deiner These nach ein regelrechtes Wirtschaftsboomland, wo es alle Unternehmen hinzieht. Seltsamerweise hört man aber nichts davon.
Aber pssssssssssssssst. Das ist ein Geheimtipp. Deswegen hört man nix davon!

Regulation ist aber nicht nur dafür da, um ein wirtschaften überhaupt erst zu ermöglichen, sondern auch Menschen zu schützen. So kannst Du Dir hierzulande relativ sicher sein, das wenn Du irgendwo ein Lebensmittel kaufst, das Du Dir da keine Lebensmittelvergiftung einfängst. Oder das bei Deinem Auto die Bremsen nicht versagen. Oder oder oder.

Und klar gibts da auch Lücken und klar gibts auch Bereiche wo es doofe Regularien gibt oder wo auch überreguliert ist. Aber gar keine Regularien zu haben (weils ja irgendwie die Wirtschaft gefährden könnte) wäre wohl auch nicht das gelbe vom Ei, oder?

Regularien hast Du überall. Warum sollte da ausgerechnet KI eine Ausnahme sein?

Maviba schrieb:
Erstens wird das dazu führen, das dies die Forschung auf dem Gebiet massiv ausbremst
Ich hab ja gar keine Regeln vorgeschlagen, sondern erst mal nur gesagt, das wir darüber reden sollten.
Und obwohl ich nix vorgeschlagen hab, weißt Du jetzt schon ganz genau, dass es die Forschung auf jeden Fall massiv ausbremsen wird. :-)

Maviba schrieb:
Wir waren führend in der Entwicklung regenerativer Energien
Ja. Unter anderem wegen entsprechender Gesetze und Subventionen. Kurzum: Regularien.
Ähm ... moment mal? Waren Regularien nicht das, was Du weg haben wolltest, weil es Technologie und Wirtschaft massiv behindert und Firmen scharenweise ins Ausland treibt???
Merkst selbst, oder? ;-)

Maviba schrieb:
Aber hauptsache keine Kernkraftwerke mehr, während unsere unmittelbaren Nachbarn lauter neue bauen, von denen wir zeitweise auch Strom brauchen.
Kernkaftwerke wären ohne massive Subventionen niemals konkurrenzfähig gewesen.
Ich finde es ja hoch spannend, das Du als Freier-Markt-Apologet lauter beeindruckende Beispiele bringst, wo staatliche Regularien massiv geholfen haben. :-)

Maviba schrieb:
Autoindustrie kommt als nächstes.
Na das die Automobilindustrie und der Staat eng verbandelt waren ist ja nun kein Geheimnis. Die haben massiv von staatlichen Support profitiert.
Und wohin wandern die ab? Na zum Beispiel nach China. Ein Land, das ich jetzt nicht unbedingt mit "keine Regulation" in Verbindung bringe. Aber hey, das sind bestimmt nur doofe Vorurteile.
Was sagt denn zum Beispiel der Index of Economic Freedom ?
Overall-Score bei China liegt bei 48,5
Für Deutschland bei 72,1
Wie jetzt? Das totregulierte Deutschland aus dem die Unternehmen fliehen ist deutlich freier als China wo die hinwandern? Na das ist ja ein dicker Hund.

Aber wenigstens stopfen sie Unternehmen keine Subventionen vorne und hinten rein, oder?
Ähm. Doch. Sogar so viel, das sich die EU genötigt sah mal was zu sagen.

Maviba schrieb:
Das selbe gilt für die Pharma- und Chemieindustrie. warum sind die wohl aus Deutschland abgewandert?
Ja. Ja. Irgendwo im Ausland, Hinterindien oder so, haben die weniger Regularien. Zum Beispiel Umwelt. Die müssen sich nicht um Abwässer großartig kümmern, sondern können die einfach ungefiltert in den örtlichen Fluss leiten. Gut. Weiter Fluss abwärts gibts ein Dorf und die Kinder da spielen gern am Fluss. Und unglücklicherweise werden die davon krank und krepieren sogar daran. Aber wenigstens haben deren Väter Arbeitsplätze.
Und Dein Take ist jetzt, das wir das hier genauso machen sollten? Really???

Wie gesagt, es gibt viele Regularien etc. wo ich denke, die sind auch nicht gut und stellenweise auch zu großen Teilen reformbedürftig. Aber Dein Ansatz a-la "Regularien sind doof und wenn die alle weg sind, wird alles besser" teile ich nicht.
 
Zuletzt bearbeitet:
andy_m4 schrieb:
Doch weder gehst Du wirklich darauf ein noch zeigst Du andere Grenzmöglichkeiten auf.
Dein Argument in Beitrag 107 war doch, weil etwas existiere, müsste es prinzipiell auch auf künstlichem Wege herstellbar sein. Aber so ist die Welt nicht aufgebaut. Es reicht ja schon, das Dreikörperproblem oder ein chaotisches Pendel zu betrachten. Ganz oft geht es um nichtlineare Dynamiken, die man zwar mathematisch beschreiben, aber nie vollständig lösen kann. Trotzdem funktionieren diese Dinge, obwohl sie bewiesenermaßen niemals vollständig beschrieben werden können.

Übertragen aufs Gehirn bedeutet das, dass es immer von einem Ausgangszustand divergiert und keinen Endzustand anstrebt. Du kannst also im Nachhinein jede Entscheidung eines Menschen irgendwie zurückführen, du kannst aber nie die nächste Entscheidung vorhersagen oder nur mit einer begrenzten Genauigkeit. Das ist bei deterministischen Turing-Maschinen (Computern) anders. Dort ist jede Entscheidung im Vorhinein festgelegt. Die Antwort einer heutigen KI auf eine gestellte Frage ist also prinzipiell vorher berechenbar, auch jede Variation dieser Antwort. Es gibt nicht einmal die Möglichkeit, dass sie jede beliebige Antwort geben könnte. Bei einem Menschen ist das nicht so. Wenn du einen Menschen fragst: "Was ist dein Lieblingstier?" kann durchaus die Antwort "Nudelsuppe" herauskommen.

Was du für dein Vorhaben bräuchtest, wären nichtdeterministische Turingmaschinen, bei denen die Eingabe keine exakte Ausgabe vorbestimmt. Es ist heutzutage aber keine Möglichkeit bekannt, eine solche Maschine zu konstruieren. Wenn es diese Möglichkeit gäbe, wäre nicht klar, was diese Maschine praktisch überhaupt leistet. Und selbst wenn du das geklärt hast, bist du im Hinblick auf die Frage, ob man damit ein Gehirn künstlich herstellen kann, nur theoretisch weitergekommen. Du müsstest diese Maschine dann ja auch programmieren und bist dann wieder beim Problem, das du nichtlineare Dynamiken lösen musst.

Also abschließend: Ich will dir das ganz und gar nicht schlecht machen und finde die Idee faszinierend. Aber wir sind nicht einmal annähernd auf dem Weg dahin. Das ist ein bisschen so, als würdest du auf den Heisenberg-Kompensator aus Star Trek hoffen, damit Beamen möglich wird. Vorstellen kannst du dir so etwas, praktisch gibt es das aber nicht.
 
Boimler schrieb:
. Aber so ist die Welt nicht aufgebaut. Es reicht ja schon, das Dreikörperproblem oder ein chaotisches Pendel zu betrachten.
Du verwechselst da was.
Du hast natürlich recht, das die Bewegung dreier durch Gravitation verbundener Körper nicht vorausberechenbar genauso wenig wie ein chaotisches Pendel ist. Das hindert uns aber nicht daran, ein solches System zu bauen.
That's the point.

Boimler schrieb:
Trotzdem funktionieren diese Dinge, obwohl sie bewiesenermaßen niemals vollständig beschrieben werden können.
Und genau das ist der Punkt. Dein Quantenmechanik-Beispiel passt da auch sehr gut zu. Da verstehen wir auch viele Aspekte nicht und sind nicht mal in der Lage für einzelne Teilchen vorhersagen zu machen, die zu beobachten oder auch nur zu messen. Trotzdem können wir sie nutzen und daraus was bauen.
Allein die Tatsache, das Du vor einem Computer sitzt, zeigt ja, das obwohl wir die Quantenmechanische Effekte nicht in aller Gänze durchdrungen haben, wir sie doch für uns nutzen können.

Boimler schrieb:
Das ist bei deterministischen Turing-Maschinen (Computern) anders. Dort ist jede Entscheidung im Vorhinein festgelegt.
Wir könnten schon nicht-deterministische Computer bauen. Wir tun es nur i.d.R. nicht, weil wir Determinismus haben wollen. Weil wir halt wollen, das bei der Lohnabrechnung der vereinbarte Lohn auf unserem Konto landet und nicht irgendein Betrag, den der Algorithmus zufällig ausspuckt.

Wir könnten aber auch wirklichen Zufall haben. Ich hatte das ja bereits anhand der Kryptographie erläutert. Und die Zufallszahlen die wir da haben sind schon ziemlich gut. Du könntest immer noch einwenden, das dies aber kein echter Zufall ist. Und weißt Du was: Das gebe Dich Dir sogar.
Aber wir könnten ja auch als Entropiequelle etwas nehmen, was wirklich zufällig ist. Was ist für Dich als Physiker richtig zufällig? Hm. Vielleicht so was wie der radioaktive Zerfall? Der gilt ja als zufällig, da Du für ein Atom nicht vorhersagen oder ansehen kannst, ob es gleich zerfällt oder nicht.
Was hindert mich jetzt konkret daran, das als Entropiequelle für den Zufallsgenerator eines Computers zu nutzen?

Boimler schrieb:
Was du für dein Vorhaben bräuchtest, wären nichtdeterministische Turingmaschinen
Wer sagt denn, das Gehirne nicht-deterministisch sind?
Möglicherweise sind sie auch nur so komplex, das wir sie (zumindest bisher) nicht verstehen. Das Problem haben wir ja heute schon bei den vergleichsweise primitiven neuronalen Netzen. Das wir da nicht in Gänze verstehen, wie sie funktionieren. Trotzdem bauen wir sie und sie produzieren sie ein Ergebnis. Und sie laufen auf deterministischen Maschinen.
Aber wie gesagt: Selbst wenn wir ein nicht-deterministischen Computer bräuchten, wäre das ja kein Hinderungsgrund.

Und wenn wir von Computern sprechen, sprechen wir ja im Prinzip wieder von heute üblicher Hardware.
Wie bereits gesagt: Das Gehirn gibt es. Was hindert uns prinzipiell daran, es so nachzubauen, wie es ist. Also nicht irgendwie Silizium-Chips, sondern halt organische Moleküle wie das Gehirn auch.
Stand heute wäre das noch nicht zu machen. Aber was jetzt prinzipiell dagegen sprechen soll, das sehe ich immer noch nicht.

Und jetzt gehen wir mal über in ein Gedankenexperiment.
Mein naiver Ansatz darin wäre einfach ein vorhandenes Gehirn zu nehmen und zu scannen und dann die Bestandteile genauso zusammen zu bauen.
Da wirst Du natürlich (und völlig zu Recht) reingrätschen und sagen: Wir können ja nicht einmal exakt scannen. Spätestens auf der sehr kleinen mikroskopischen Ebene, wo es um einzelne Elektronen geht, schlägt Heisenberg zu. Und da kommen wir nicht mit technischer Entwicklung weiter, weil die Unschärferelation kein Mess-Problem ist, sondern eine prinzipielle Grenze.
Und mit all dem hättest Du ja auch recht.
Nur wer sagt denn, das wir überhaupt so hoch auflösen müssen, das solche Effekte eine Rolle spielen? Vielleicht reicht ja auch eine deutlich gröbere Auflösung.

Boimler schrieb:
Ich will dir das ganz und gar nicht schlecht machen
Du musst auf meine etwaigen Befindlichkeiten keine Rücksicht nehmen. :-)
Ich hänge nicht irgendwelchen Träumen nach die ich mir nicht kaputt machen lassen will oder so.
Mir gehts primär ums verstehen völlig egal wie die Wahrheit aussieht, die dann dabei heraus kommt.
Ich kann mit der Vorstellung das es einmal ein künstliches Gehirn gibt genauso gut leben, wie mit der Vorstellung das es das niemals geben wird.

Ich gehe hier in die Diskussion ja auch nicht mit einer vorgefestigten Meinung rein so nach dem Motto "es geht" oder "es geht nicht". Mein Tenor ist: Wir wissen es (jetzt noch) nicht genau
Du scheinst da aber eine vorgefestigte Meinung zu haben. Und mich interessiert lediglich, woraus Du diese Sicherheit beziehst.

Übrigens: Selbst der größte Vollblut-Physiker würde nicht davon reden, das er im Besitz der absoluten Wahrheit und Weisheit ist.
Der würde eher so was sagen wie:
Wir haben Theorien, die die Welt um uns herum ziemlich gut beschreiben. Ob die wirklich wahr sind, wissen wir nicht. Denn wir falsifizieren. Wir stellen Theorien auf und gucken, wie gut die sich mit der Realität vertragen (sprich: gute Vorhersagen machen). Und hin und wieder gibts Theorien die die Welt besser beschreiben und die lösen dann alte Theorien ab (Einstein vs. Newton und was es sonst noch so gibt). Und so nähern wir uns sukzessive der Wahrheit, aber stets mit dem Wissen, das wir sie niemals vollständig erreichen können.

Aber so weit würde ich nicht mal gehen wollen. Also das wir eine "bessere Physik" brauchen. Auch wenn wir den heutigen Stand nehmen, sehe ich da nichts was definitiv ein künstliches Gehirn ausschließt. Sondern maximal nur ein "Wir wissen es noch nicht".

Boimler schrieb:
Das ist ein bisschen so, als würdest du auf den Heisenberg-Kompensator aus Star Trek hoffen, damit Beamen möglich wird. Vorstellen kannst du dir so etwas, praktisch gibt es das aber nicht.
Auch das ist eine Analogie, die nicht gut passt. Weil es ein rein theoretisches Konstrukt ist.
Es gibt ja da kein natürlich vorkommendes Vorbild. Wenn es z.B. ein Tier geben würde, welches Teleportation beherrscht, würde ich natürlich davon ausgehen, das wir es prinzipiell nachbauen können.

Das ist ein bisschen so wie mit dem fliegen. Da dachten Viele ja auch lange Zeit, das dies unmöglich wäre. Bis auf die, die eben nicht daran geglaubt haben und allein die Tatsache des es Vögel gibt, wies ja auch schon darauf hin.
 
Es gab immer Zeiten, Phasen und Zeitpunkte, an denen aktuelles "Wissen" überholt war, gerade weil zufällige Entdeckungen und gezielte Forschung oder eine Kombination aus beiden, zu neuen Erkenntnissen führten und zuvor gängige und akzeptierte Theorien ablösten oder zumindest bedeutend erweiterten.

Und das ist etwas, was wir für die Zukunft auch nicht ausschließen können.
 
Zurück
Oben