News Künstliche Intelligenz: Google löst Ethikrat nach nur einer Woche auf

ghecko schrieb:
Einen Menschen gegen diesen M.L Computer antreten zu lassen ist ein sinnloses Unterfangen. Wir haben verloren. Für immer.
Nö ... die Kiste kannste lahm legen ... und zwar mit einem unglaublich simplen Spiel.
Tic Tac Toe.
Das muss er dann gegen sich selbst spielen, bis er gewinnt ... ("Wargames" lässt grüßen)
Die Krux ist bei diesem Spiel, dass es bei gleichstarken Gegnern keinen Gewinner geben KANN, solange keiner einen (Denk-)Fehler macht.
Erst wenn AlphaZero OHNE menschliche Hilfe erkennt, dass es bei diesem Spiel keinen Sieger geben KANN (und dann SOFORT aufhört, zu spielen), halte ich das für ein intelligentes Stück Software.
Ein Mirror-Match Tic Tac Toe ist die Kapitänsaufgabe* ... ein Programm, was sich auf sowas einlässt, ist dumm wie Brot.
* Das Schiff ist 50m lang, 7,5m breit und hat 2,5m Tiefgang.
Wie alt ist der Kapitän?


AlphaGo ist nebenbei kein Wunder ... brauchbare Go-Programme gab es schon vor 20 Jahren ... nur waren die eben nicht perfekt, weil sie für die Berechnung der paar Fantastillionen Möglichkeiten (zur Auswahl der besten Option) bei Go einfach Tage gebraucht hätten.
Das kleine Proggi, gegen das ich manchmal spiele, braucht auf der höchsten Schwierigkeitsstufe ab den 10 Zug schon knapp 15 min. Bedenkzeit (und macht dann einen Zug, den ich schon nach 20 Sek. als Möglichkeit erkannt habe) ... ich habe keine Ahnung, wie lange das dauert, wenn 50 Züge gespielt sind (ich habe nie so lange warten wollen). Wahrscheinlich geht es irgendwann wieder schneller, wenn es aufs Endspiel zugeht (weniger Möglichkeiten).

Ich fänds aber mal interessant, gegen AlphaGo ne Partie zu spielen ... ich wette, dass man auch AlphaGo aus dem Konzept bringen kann ... und dann zumindest ein Unentschieden erreicht.
 
Zuletzt bearbeitet:
Googles KI spielt doch schon starcraft, eine beeindruckende Leistung. Aber ebenso leicht für Kriegsplanung nutzbar in ferner Zukunft. Die Technik ist da frage mich was ein Rat bringt. Mal 1 und 1 zusammen gezählt mit Boston Robotics das ist schon gruselig
 
DerOlf schrieb:
AlphaGo ist nebenbei kein Wunder ... brauchbare Go-Programme gab es schon vor 20 Jahren ... nur waren die eben nicht perfekt, weil sie für die Berechnung der paar Fantastillionen Möglichkeiten (zur Auswahl der besten Option) bei Go einfach Tage gebraucht hätten.

Deswegen funktioniert AlphaGo auch anders. Es berechnet nicht immer alle möglichen Züge, das ist immer noch zu aufwendig. Es wird durch Spielerfahrung gelernt, was gut ist. Im Grunde ähnlich, nur das die möglichen Züge im Vorhinein "berechnet" wurden und effizient gespeichert und abgerufen werden.
 
Fand die Google-KI wohl doof ... und hat den Rat mit ihrem Wissen über die Mitglieder aufgelöst ... lol
 
  • Gefällt mir
Reaktionen: Dr. Chandra
DerOlf schrieb:
Nö ... die Kiste kannste lahm legen ... und zwar mit einem unglaublich simplen Spiel.
Tic Tac Toe.
Lahm legen ist hier der falsche Begriff. Das Spiel ist nur primitiv genug dass ein Mensch es bis zur Perfektion schafft und die Maschine keinen Raum für kreativere Züge hat. Und ich habe das Wort kreativ ganz bewusst gewählt. Denn genau das haben alle Spieler gesagt nachdem sie gegen AlphaGo gespielt haben, es hat ihnen einen völlig neuen Horizont darüber gegeben, wie man Go spielen kann. Strategien zu entwickeln auf die nie ein Mensch gekommen ist, das ist Kreativität.
I thougt that AlphaGO was based on probability calculation and that it was merely a machine. But when i saw this move I changed my mind. Surely, AlphaGo is creative. This move was really creative and beautiful.


DerOlf schrieb:
Ich fänds aber mal interessant, gegen AlphaGo ne Partie zu spielen ... ich wette, dass man auch AlphaGo aus dem Konzept bringen kann ... und dann zumindest ein Unentschieden erreicht.
Lee hat es in einem von 5 Spielen geschafft AlphaGo zu besiegen, durch einen Zug den AlphaGo selbst evaluiert und als "Für Menschen höchst unwahrscheinlich" klassifiziert und verworfen hat.

Mittlerweile sind wir aber nicht mehr bei AlphaGo V.2016 sondern bei AlphaZero, dass nicht mehr auf herkömmlicher Hardware läuft sondern auf neuronale Netze zurückgreift.
Da kann der Mensch sich noch so über seine Siege in Tic Tac Toe und seine Paradoxerkennung freuen, sobald das Problem komplex genug ist um die Kapazität des Menschen zu erschöpfen, wird man von diesem dummen Stück Brot besiegt.
 
Zuletzt bearbeitet:
ghecko schrieb:
Strategien zu entwickeln auf die nie ein Mensch gekommen ist, das ist Kreativität.
Für mich ist die Frage ob man das schon Kreativität nennen kann... vermutlich schon. Aber sie hat trotzdem ihre Grenzen und zwar in dem Regelwerk das der KI zur Verfügung gestellt wurde. Und das ist auch das was DerOlf wohl meinte: die KI wird nicht erkennen das man Tic Tac Toe nicht gewinnen kann und von vorne herein ein Unentschieden anbieten ohne es zu Spielen.

Das ist auch ein wichtiger Punkt den man beim Einsatz einer KI nie vergessen sollte. Sie ist nur so gut wie das Regelwerk das man ihr an die Hand gibt. Ein Strategiespiel mit klarem Regelwerk ist da noch einfach... sobald es darüber hinausgeht wird das aber schwierig. Vor allem ist auch nicht wirklich verifizierbar ob das Regelwerk korrekt das Abbildet was man erreichen will...
 
ghecko schrieb:
Seit wir das Faustkeil benutzen erschaffen wir Dinge die besser sind als wir selbst. Der Grundgedanke einer jeden Maschine ist etwas besser zu können als der Mensch der sie erschaffen hat. Der Computer war nur eine weitere dieser Stufen, die übrigens schon 100 BC mit mechanischen Rechenapparaten überwunden wurde (oder bereits früher).

Du redest hier über Werkzeug, und Werkzeug funktioniert mit geliehener Intelligenz, nämlich mit unserer.

Selbst auf das ausgefeilteste Werkzeug der Gegenwart, den Computer, trifft das zu.

Er ist eine Art "idiot savant", der eine Sache gut beherrscht - Zählen.

Wären Faustkeile oder Computer besser als wir, könnten sie auch Erbsensuppe kochen und Gedichte schreiben, zum Beispiel.

Das, was ein Computer herausgibt, steht und fällt mit der Intelligenz des Menschen, der es ihm eintrichtert.
 
Ihr sprecht vom Unterschied zwischen schwacher und starker KI.

Schwache KI löst komplexeste Aufgaben auf einem Niveau, dass man sie in diesem Kontext mit einem Menschen verwechseln könnte, sie ist aber ein one trick pony und denkt natürlich nicht wirklich.

Starke KI hingegen ist ein echtes, künstliches Bewusstsein, es weiß, dass es existiert und kann tatsächlich denken.

Jetzt kann man natürlich sagen, dass nur starke KI die "echte" KI ist, schwache KI ist aber eben trotzdem eine Form von künstlicher Intelligenz, etwas völlig anderes als hart codierte Logik...
 
Conroy schrieb:
Das, was ein Computer herausgibt, steht und fällt mit der Intelligenz des Menschen, der es ihm eintrichtert.
Und noch einer der Machine Learning nicht verstanden hat.
Google mal Deepfake. Das ist keine starre Programmroutine die ein Programm verfolgt um eine Person ohne menschliche Hilfe in ein Video zu projizieren, das ist Bilderkennung per excellence. So täuschend echt ist das Ergebnis, dass es Menschen nicht von der Wirklichkeit unterscheiden können.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dr. Chandra
ghecko schrieb:
Und noch einer der Machine Learning nicht verstanden hat.

In der Tat, ja. Wer hat denn der Maschine das "Lernen" beigebracht?

Man sollte Ursache und Wirkung nicht durcheinanderwerfen.
 
Conroy schrieb:
In der Tat, ja. Wer hat denn der Maschine das "Lernen" beigebracht?
Wer hat uns das Lernen beigebracht? Nun kann man argumentieren, das Lernen ist uns einprogrammiert, wir tun es automatisch. Und was daraus wird, entscheiden die Informationen, mit denen wir unseren Lernprozess füttern. Erkennst du parallelen?
So ein Thermomix macht übrigens eine tolle Erbsensuppe. Das Rezept hat er zwar nicht von seiner Oma, aber wärst du alleine auf Erbsensuppe gekommen?
ML Programme zeichnen übrigens mittlerweile auch Bilder, nachdem sie ein Kunststudium mit Bilderreihen absolviert haben.

Wir sollten unseren Intellekt als nicht so einzigartig und unantastbar betrachten, wie es viele hier tun.
 
Zuletzt bearbeitet:
ghecko schrieb:
Lee hat es in einem von 5 Spielen geschafft AlphaGo zu besiegen, durch einen Zug den AlphaGo selbst evaluiert und als "Für Menschen höchst unwahrscheinlich" klassifiziert und verworfen hat.
Genau an sowas hatte ich dabei gedacht ... einfach regelmäßig einen augenscheinlich "unsinnigen" Zug einbauen und wenn die Maschine drauf einsteigt, hat man zumindest schonmal die Vorhand ;)

Die längsten Partien gegen mein kleines altes Go-Programm hatte ich mit einer "copy"-strategie.
Erster Stein auf Tengen (Mitte), und ab da werden nur noch die Züge vom Gegner spiegelverkehrt kopiert.
Damit gewinnt man zwar wahrscheinlich nicht ... der Gegner aber eben auch nicht ... denn den einzigen "unkopierbaren" Zug, hat man am Anfang schon gemacht (klappt natürlich nur mit Schwarz).
Das gibt am Ende ein sehr symetrisches "Bild" ... und jedes mal, wenn der Gegner in ein Gebiet eindringen will, passiert das gleiche bei ihm ... und stoppt er den "Angriff" so wird auch seiner auf die gleiche Weise gestoppt.
Für einen Menschen ist es nur schwer, diese Strategie konsequent durchzuziehen, denn die Verlockung ist recht groß, irgendwann dann doch selbst zu spielen - zumindest geht mir das meist so.
Den "Drang zum Sieg" muss man dafür ignorieren können ... und das ist stellenweise hart.
 
Zuletzt bearbeitet:
ghecko schrieb:
So täuschend echt ist das Ergebnis, dass es Menschen nicht von der Wirklichkeit unterscheiden können.
Zumindest das gezeigte Beispiel ist mal mieserabel ;).
Hautfarbe/Teint stimmen nicht ganz, Lichteinfall bzw. der davon erzeugte Kontrast am Kopf/Schultern kann so nicht sein und dann erst der furchtbare "hell/dunkel" Übergang knapp über der Halskette. Ob das nun ein Mensch oder eine "KI" erzeugt hat kann ich nicht beurteilen, nur dass reichlich Luft nach oben ist.

So lange KI noch Derartiges produziert ist klar dass sie nicht im Ansatz "verstanden" hat was sie da eigentlich macht und auf einer sehr niedrigen Entwicklungsstufe steht.

Sollten wir hingegen je eine echte, starke, KI hinbekommen ist praktisch jeder obsolet und wir haben als Menschheit komplett fertig.
 
DerOlf schrieb:
Erster Stein auf Tengen (Mitte), und ab da werden nur noch die Züge vom Gegner spiegelverkehrt kopiert.
Damit gewinnt man zwar wahrscheinlich nicht ... der gegner aber eben auch nicht
Ich glaube nicht dass du mit dieser Strategie gegen AlphaGo oder ein auf go trainiertes AlphaZero Land siehst.
Aber wieso schaust du dir nicht einfach mal die verlinkte Doku zu AlphaGo an? Das würde uns weitere Grundsatzdiskussionen darüber ersparen, ob AlphaGo nun besser ist als du oder dein Go-Programm.

K7Fan schrieb:
Sollten wir hingegen je eine echte, starke, KI hinbekommen ist praktisch jeder obsolet und wir haben als Menschheit komplett fertig.
Die Frage ist weniger "ob", eher "wann".
 
Zuletzt bearbeitet:
ghecko schrieb:
Ich glaube nicht dass du mit dieser Strategie gegen AlphaGo oder ein auf go trainiertes AlphaZero Land siehst.
Wieso sollte AlphaGo (oder AlphaZero) diese Strategie durchbrechen können?
Man muss es nur durchhalten ... dann ist das Ergebnis bei gleichen handicap immer ein Unentschieden.
Es geht logisch einfach nicht anders.

Ich bin ganz sicher nicht "besser" als ein Go Programm, wenn ich selber spiele ... ich habe nur Spass daran, solche Programme zu irritieren.
Bei der copy-Strategie spielt aber nur mein Gegner.
 
Ist es im Regelwerk verankert, dass die Spielzüge ab dieser Position kopiert werden müssen? Ist man auch als menschlicher Gegenspieler in dieser Ausführung gefangen?

//gut, habs kapiert. Du kopierst, nicht AlphaGo. Aber kann ein Mensch, in diesem Sinne dein Gegenspieler aus diesem Kreislauf ausbrechen? Wenn nicht sind wir wieder bei Tic Tac Toe und der Taktik des schlechten Verlierers. Das ist ein universelles Logikproblem, das weder Mensch noch Maschine überwinden können, weil die Spielmechanik diese Möglichkeit nicht bietet. Das eignet sich aber nicht wirklich dafür, eine KI zu bewerten, meinst du nicht auch?
 
Zuletzt bearbeitet:
ghecko schrieb:
Ist es im Regelwerk verankert, dass die Spielzüge ab dieser Position kopiert werden müssen?
Das Go-Regelwerk umfasst im grunde nur 4 sehr einfache Regeln, und die sagen nicht das geringste zu irgendwelchen Strategien ... genau das zusammen mit dem Spielfeld erzeugt die hohe Komplexität von Go.

ghecko schrieb:
Das eignet sich aber nicht wirklich dafür, eine KI zu bewerten, meinst du nicht auch?
Naja ... wenn man mit Kapitänsaufgaben in der Schule überprüft, ob Schüler aus Textaufgaben die relevanten Informationen herausziehen können, dann kann man mit einer copy-Strategie oder mit Tic Tac Toe auch eine KI bewerten.
Versucht sie es trotzdem immer weiter (merkt also nicht, das es im Grunde sinnlos ist) dann ist sie nicht so besonders helle.
Ergänzung ()

ghecko schrieb:
Aber kann ein Mensch, in diesem Sinne dein Gegenspieler aus diesem Kreislauf ausbrechen?
Im Grunde nicht. Die einzige Möglichkeit eine copy-Strategie zu durchbrechen wäre ein Zug auf Tengen (die Mitte gibts auch bei Go nur einmal) ... und wenn der Kopist anfängt, ist da schon besetzt.

Nein HALT ... eine Möglichkeit gibts ... man kann passen ... denn wenn auch das kopiert wird, passiert im Spiel nichts mehr ;)
Das Problem ist dabei die Konsequenz ... irgendwann wird die Kopiererei jedem zu blöd.
 
Zuletzt bearbeitet:
ghecko schrieb:
Wir sollten unseren Intellekt als nicht so einzigartig und unantastbar betrachten, wie es viele hier tun.
Man sollte aber auch im Gegenzug KI nicht "vergöttern". Man muss ihr immer noch einen Kontext und Regeln vorgeben innerhalb derer sie dann das Optimum lernt, aber eben auch nur innerhalb dieses gesteckten Rahmens. Und wenn der Rahmen einen Fehler hat passt auch das Ergebnis nicht... und wie der Rahmen aussehen muss wird uns auch noch lange als Diskussion begleiten, siehe z.B. Autonomes Fahren und die Diskussion darüber wie die KI dort in Grenzfällen reagieren soll. Das muss man ihr über die Regeln vorgeben, das kann sie nicht selber lernen (außer man will ein Ergebnis der Art die Menschen sind überflüssig, also alle einfach überfahren ;-) und selbst da bezweifel ich das ein Computer von selbst auf die Idee kommt, wenn dann war sie nur aufgrund der Parameter vorhersehbar)


Und ich merk schon... ich sollte mir das Buch das ich mir schon seit Jahren vornehm endlich mal lesen... "Die Macht der Computer und die Ohnmacht der Vernunft" - Joseph Weizenbaum
 
Jesterfox schrieb:
Und ich merk schon... ich sollte mir das Buch das ich mir schon seit Jahren vornehm endlich mal lesen... "Die Macht der Computer und die Ohnmacht der Vernunft" - Joseph Weizenbaum
Ich habe da eine andere Buchempfehlung für dich (keine Angst, ist nur ein kurzes):

George Spencer-Brown: "Zufall und Wahrscheinlichkeit".

Der Gute lässt kaum ein gutes Haar an Zufallsgeneratoren ... und der Grund ist die menschliche Inteligenz, die die Qualität der Generatoren bewerten muss.

Mathematisch zusammengefasst:
In einer unendlichen Zufallsfolge (MIT "zurücklegen" ) ist die Wahrscheinlichkeit für unendliche Wiederholungen des gleichen Ereignisses ungleich 0.

Aber genau das erwarten Menschen von "echten" Zufallsgeneratoren ... die generieren also keinen echten Zufall.
Ein Zufallsgenerator, der rein zufällig "X" mal hintereinander die "1" ausgibt, erscheint uns defekt. Dabei ist genau das eben logisch nicht ausgeschlossen ... zumindest nach Spencer-Brown.

Sehr interessant ... allgemein kann ich den Autor empfehlen ... leider ist es ein Mathematiker ... also stellenweise etwas schwer zu verdauen.

Eine echte KI würde auch diesen Aspekt menschlicher Intelligenz erkennen, und entsprechend jede Zufallsausgabe manipulieren. Getreu dem Motto "wess' Brot ich fress, dess' Lied ich sing".
Nicht dass das "Brot auf zwei Beinen" am Ende denkt, man wäre "kaputt", und einfach "den Stecker zieht" ;)


Was machine learning kann, das hat man am übelsten Forentroll aller Zeiten gesehen ... auch dahinter stand eine starke KI ... und die wurde am menschlichen Verhalten in Foren trainiert, was sich leider verselbstständigt hat und nach SEHR kurzer Zeit wieder abgeschaltet werden musste.
Ich glaube zu dem Fall gabs hier sogar einen Artikel.
 
Zuletzt bearbeitet:
Jepp, das ist auch so ein Punkt, ein Zufallsgenerator der nie längere ketten an den selben Zahlen generiert ist nicht zufällig ;-)

Weizenbaum ist aber auch jemand den man kennen sollte. Ich weiß jetzt nicht ob er es wirklich ist, aber für viele gilt er als der Erfinder der KI, immerhin stammt von ihm "Eliza". Aber genau deshalb weiß er auch wo die Grenze liegen und er hat nie verstanden warum man glaubte das mit einer Weiterentwicklung von Eliza mal ein Mensch ersetzt werden kann.

PS: und der Punkt dass die Ausgabe der Algorithmen durch die Programmierer beeinflusst ist, willentlich oder nicht, ist auch einer der Punkte um die es ihm geht.
 
Zurück
Oben