• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Bericht 70.000 Stunden & 720 GPUs: Neuronales Netzwerk erlernt Minecraft mit YouTube-Videos

ZeroCoolRiddler schrieb:
Demnächst in Minecraft 3.5:
Der Autopilot. Wenn man in Ruhe idlen möchte und trotzdem Fortschritt erzielen will. :D
Heutzutage gucken die Leute nur noch lets plays von KIs, boomer.
 
Speedy.at schrieb:
Keine Ahnung wie du Minecraft begonnen hast. Aber hinter mir ist keiner gestanden, der mir gesagt hat:
  • geh zum naechsten Baum und druecke die Linke Maustaste
  • jetzt mach aus den Logs mal Holz
  • jetzt bastel eine Workbench
  • ....

Ne. Das hab ich selbst gemacht, ohne Anleitung und Zwischenziele!!!!
?

Was?

Oh man, hast du überhaupt versucht zu verstehen worum es ging? "Ich habe selbst herausgefunden ..." hat einfach mal gar nichts mit der KI hier zu tun noch mit dem von Innocience angebrachten Anwendungsfall ... Das ist halt einfach grundsätzlich am Thema vorbei.

Innocience hat gesagt, dass die KI, wenn man ihr ein anderes Ziel gibt, dieses nicht eigenständig erfüllen kann.

Aber ebensowenig ist ein Mensch pauschal in der Lage Netherquarz zu farmen ... oder weis überhaupt, was Netherquarz ist ... oder was der Nether ist ... oder wie man in Minecraft "farmt" ... Wenn du einen X-beliebigen Passanten, der noch nie Minecraft gespielt hat, auf der Straße aufforderst Netherquarz zu farmen dann wird der dich ansehen wie ein Karpfen und dann kopfschüttelnd weiter gehen.

Ja, du als Mensch hast noch weitere Fähigkeiten, wie zum Beispiel die Fähigkeit dir eigenständig Wissen anzueignen, das ist aber ein grundlegend anderer Vorgang und ist nicht Ziel dieser KI. Stell dir mal vor, die KI kann auch nicht mit dem Auto fahren, einen Pullover stricken oder eine Katze füttern. WOW!!! Welch Erkenntnis ... Die KI hier ist keine 100% vollständige Intelligenz die in der Lage ist sich selbst zu entwickeln und eigenständig neue Fähigkeiten zu erlernen!!!

Weist du, was passieren würde, wenn eine derartige KI existieren würde, so wie du es hier versuchst argumentativ darzustellen? Nein? Ich auch nicht! ... Keiner weis das! Das ist eine der möglichen Singularitäten, die uns bevor stehen.

Also bitte, versuche doch wenigstens beim Thema zu bleiben und zu verstehen, worüber sich Andere unterhalten...
 
Damien White schrieb:
Was du beschreibst ist, dass mit ausreichend Versuchen auch reiner Zufall das gewünschte Ergebnis liefern kann.

Hier arbeitet etwas gezielt auf ein Ziel hin und verfolgt dabei eine Strategie.

Du hast also weder die von dir erbrachten Beispiele noch die KI hier verstanden.
Hier wird ein Modell gebaut, um automatisch Prozesse zu labeln, um sich das manuelle annotieren von 70000 Spielstunden zu sparen (Semi-supervised oder wie auch immer der Fachterminus nun war). Mithilfe dieser annotierten Datenmasse wird dann ein klassisches State-Action Modell trainiert und man verfeinert die Zwischenschritte mit Intermediate Rewards, um den Lernprozess zu beschleunigen. Hab ich das soweit zusammengefasst? Typisches Reinforcement Learning. Wie jetzt im Einzelnen das Statespace und die Transitionen gelernt werden, ist ja fürs Verständnis erstmal irrelevant.
Der interessanteste Aspekt der Arbeit ist m.M.n., dass man das Rohmaterial in Videoform einspeist und den Action Space dem Menschen annähert.

Mein "Monkeys and Typewriters" Kommentar war Spott an diesem hanebüchenen Konzept, jene noch so dämliche Lernmethode, die die Welt nicht einmal in ihrer Gänze widergibt, kann irgendwann mal jedes Konzept verstehen. Klar. Und wenn ich alle Zeit der Welt hätte, kann ich auch SHA256 Codes mit Brute Force irgendwann knacken. Theoretisch natürlich.
Das ist schlicht Murks; ein simples Deep Learning Modell mit 3 Schichten wird bei hinreichend komplexen Problemstellungen trotz aller Zeit der Welt nicht an die Performanz eines komplexeren Modells herankommen.
Damien White schrieb:
Zeige einem X-beliebigen Menschen das Bild einer fertigen Küche und verlange dann vom ihm, dass er aus einem willkürlich zusammengewürfelten Haufen an Ikea - Bauteilen eine perfekte Küche errichtet. Ohne Anleitung wohlbemerkt!
Das waren aber nicht die Rahmenbedingungen für dieses Experiment. Man gab 2000 Stunden Material zu schauen.
Und mein eigentlicher Punkt dieser langen Beispieltirade war eher folgender: Ein Mensch kann nun mal nicht stupide in diesem kleinen Kerker, in dem nur das Ikearegal existiert, hantieren. Das sind virtuelle Ketten die wir den Mechanismen auferlegen müssen, weil sie schlicht die Welt nicht in allen Facetten verarbeiten können. Die Mechanismen zum Filtern und Priorisieren von Informationen sind nicht vorhanden und man beschränkt sich enorm, weil die Datenmasse sonst zu groß und das Training zu intensiv wär.
Damien White schrieb:
Zu denken Menschen würden keine Anleitung benötigen hat einen ganzen Haufen an grundlegenden Denkfehlern.
Immer her damit. Ich bin schon gespannt; schreibe hier ohnehin frei von der Leber also gut möglich, dass da was auf der Strecke blieb.
Damien White schrieb:
Auch ein Mensch muss erstmal lernen, wie man Netherquarz farmt bzw. was überhaupt Netherquarz ist.
Da hat das Lernmodell Mensch aber einen entscheidenen Vorteil: Es ist schon vortrainiert und so universell, dass es nicht wieder und wieder beim Urschleim anfangen muss und die bereits angebrachten Mechanismen "Assoziation" und "Erinnerungen" anwenden kann.

Eines der großen Probleme unseren gängigen DL Systeme ist doch der Aufwand des Trainings und der notwendige Hirnschmalz, um ein sinnvolles Modell für die Bewältigung des Problems zu designen. Verglichen mit Lebewesen wie den Menschen sind die Systeme als Generallösungen ineffizient und auch noch lahm. Wie schon angedeutet; im Bereich Neuralforschung tut sich derzeitig eine Menge hinsichtlich des Verständnis.
 
TrueAzrael schrieb:
Deine Tochter hat sich also ca. 43.000 Stunden "Reallife" Videos reingezogen bevor sie das konnte. Wir können zwar mehr, aber der Prozess an sich ist der Gleiche. Zuschauen (sprich Fremdinput -> Mama und Papa z.B.) und Trial&Error.
Ernsthaft? Das konnte man doch gar nicht falsch verstehen, oder? Ich sagte, sie hat sich das 30 Minuten (!) von mir erklären lassen, hat vielleicht nochmal 30 Minuten gebraucht, um sich mit der Steuerung vertraut zu machen und baut da nun autark und selbständig.

Jetzt leg DAS mal bitte um auf den immensen Aufwand, der in diesem AI-Projekt betrieben wurde.

Deswegen sage ich ja: umso beeindruckender, wie lächerlich die "Leistung" dieser Flut an Rechenkernen ist im Verhältnis zum menschlichen Gehirn.
 
Von der Energie- und Zeiteffizienz her gesehen einfach unterirdisch, wenn man das mit der menschlichen Gehirnleistung vergleicht.
Zum Glück dürfen die Menschen in diesem Punkt noch(!) überheblich sein.
Unser Gehirn wird noch einige Zeit der am höchsten entwickelte unspezialisierte Array auf dieser Welt bleiben. :cool_alt:
 
Oh Man, hast du jetzt ernsthaft für mich ein paar Dutzend Anglizismen gegooglet?

Innocience schrieb:
Hier wird ein Modell gebaut, um automatisch Prozesse zu labeln, um sich das manuelle annotieren von 70000 Spielstunden zu sparen (Semi-supervised oder wie auch immer der Fachterminus nun war). Mithilfe dieser annotierten Datenmasse wird dann ein klassisches State-Action Modell trainiert und man verfeinert die Zwischenschritte mit Intermediate Rewards, um den Lernprozess zu beschleunigen. Hab ich das soweit zusammengefasst? Typisches Reinforcement Learning. Wie jetzt im Einzelnen das Statespace und die Transitionen gelernt werden, ist ja fürs Verständnis erstmal irrelevant.
Der interessanteste Aspekt der Arbeit ist m.M.n., dass man das Rohmaterial in Videoform einspeist und den Action Space dem Menschen annähert.

Nein, ernsthaft, der Teil hier ist so herzallerliebst "cringe", ich bin schon irgendwie beeindruckt. Wirklich! Das war ein Kompliment!

================

Kommen wir zum ernsthaften Teil (Ich nehme spontan an, dass der eingehende Abschnitt insbesondere in der Formulierung von dir als Scherz gedacht war)

Innocience schrieb:
Mein "Monkeys and Typewriters" Kommentar war Spott an diesem hanebüchenen Konzept, jene noch so dämliche Lernmethode, die die Welt nicht einmal in ihrer Gänze widergibt, kann irgendwann mal jedes Konzept verstehen. Klar.
Das war nicht, was ich geschrieben hatte.

Innocience schrieb:
Und wenn ich alle Zeit der Welt hätte, kann ich auch SHA256 Codes mit Brute Force irgendwann knacken. Theoretisch natürlich.
Das ist schlicht Murks; ein simples Deep Learning Modell mit 3 Schichten wird bei hinreichend komplexen Problemstellungen trotz aller Zeit der Welt nicht an die Performanz eines komplexeren Modells herankommen.
Muss es auch nicht.

Ich werde jetzt nicht den Rest in Teilen beantworten, das wird zu unübersichtlich. Ich nehme spontan an, dass du meinen Beitrag grundlegend falsch verstanden hast.

Als ich geschrieben hatte, dass:
Damien White schrieb:
Eine derartige KI kann sich dann im realen Leben mit ausreichend Zeit und Ziel theoretisch jeden Beruf aneignen.

Dann ist das selbstverständlich mit einer Anleitung. Ein Mensch benötigt auch eine Ausbildung. Das Problem mit aktueller Automatisierung (und KI- Zeug auf Youtube) ist, dass sie mit unvorhergesehenen Dingen nicht zurecht kommt und extrem präzise Angaben benötigt.

Schau dir mal an, wie man Roboter in der Industrie programmiert, da ist nichts intelligent, man muss Drehwinkel etc. absolut präzise angeben und der Roboter muss sich regelmäßig neu kallibrieren, damit auch ja alles funktioniert.

Dieser KI hier wiederum muss man "nur" "wenige" Zwischenschritte geben und sie wird dann, in einer zufällig generierten Welt, zu dem gewünschten Ergebnis kommen. Das bedeutet sie muss eigenständig erkennen, was sie zu tun hat um ihr (Zwischen-)Ziel zu erreichen.

Bereits das Erhalten eines Holzblocks ist für aktuelle Systeme unmöglich, da nicht bekannt ist, wo der nächste Baum ist (In X, Y und Z-Richtung), welche Hindernisse im Weg sind, die kein Baum sind (Wände, Kakteen, Laub) oder wie viel Holz der Baum überhaupt besitzt.

Danach geht das Ganze eine Stufe härter für Eisen von Vorne los indem die KI überhaupt erstmal Eisen finden muss (Bäume kann man ja noch auf Entfernung sehen, Eisen je nach Biom nicht) und dann schlussendlich nochmal das Gleiche für Diamanten.

Auch wenn die KI Einzelschritte vorgegeben bekommt, es sind so viele zufällige Variablen zwischen den Einzelschritten, dass man (im Gegensatz zu all den vielen Script-KI auf Youtube) hier eine hohe Eigenständigkeit der KI benötigt um an ein Ziel zu kommen.

===================

Jetzt bezogen auf die Realität:

Nehmen wir als Beispiel einen Einkaufs-Roboter. Du möchtest, dass er Milch kauft. Jetzt musst du ihm erklären:

Wo du wohnst
Wo der Laden ist
Was Milch ist
Wie man bezahlt

(vereinfacht)

Aber dann wäre solch ein Roboter mit einer KI wie der hier von Minecraft in der Lage selbstständig zu einem Geschäft zu gehen und dabei allen Hindernissen auszuweichen, im Geschäft nach Milch zu suchen, mit dieser Milch zur Kasse zu gehen und zu bezahlen um dann im Anschluss wieder zu dir nach Hause zu gehen und die Milch abzuliefern.

Ja, das ist kein "normaler" Beruf. Aber im Grunde ist Logistik nur eine komplexere Version hiervon. Und die KI besitzt bereits alle grundlegenden Fähigkeiten um nahezu alle Aufgaben in einer Logistikkette zu übernehmen.

Ein Lagerarbeiter bei Amazon kennt auch nicht alle Produkte, der hat eine App, die ihm sagt, was wo liegt und wie es aussieht. Sprich ihm wird erklärt, was zu tun ist:

Gehe zu A => Finde Produkt X => Nehme Produkt X => Gehe mit Produkt X zu B => Lege Produkt X and Punkt B ab.

Amazon verwendet nur deswegen Menschen, weil Roboter nicht ausreichend autonom sind um mit allen Eventualitäten alleine fertig zu werden. Änderungen im Lager müssten immer in den Datenbanken der Roboter nachgepflegt werden, wohingegen Menschen sie eigenständig erkennen und umgehen.

===========

Eine Vielzahl an Berufen lassen sich auf solch einfache Abfolgen reduzieren. Das Problem bisher waren die Variablen zwischen den einzelnen Punkten, für die man nicht alle Eventualitäten einprogrammieren kann. Hierfür ist eine KI notwendig, die selbstständig auf Unvorhergesehenes reagiert.

Eine KI wie die hier gezeigte.

Eine zufällig generierte Karte in Minecraft oder die reale Welt ist nur eine Frage der Anzahl an Unsicherheiten und Variablen, aber vom Grundproblem sind beide identisch.


===========

Bzgl. all dieser "Selfmade - KI" auf Youtube, da ich schon ein paar Mal gegen sie gestichelt habe:

Wenn man, abseits von Alphago und co, auf Youtube etwas von KI findet dann sind das immer do Möchtegern hippe Selfmade Typpies. Deren "KI" sind nicht intelligent. Was im Endeffekt geschieht ist, dass ein Spiel verwendet wird bei dem möglichst wenig bis keine zufälligen Variablen in einem Level vorhanden sind. Deswegen sind Sidescroller Jump & Run oder Trackmania auch so beliebt. Die "KI" "lernt" dann zwar das Level, aber nicht die wirkliche Logik der Spielmechaniken.

Die ganzen "Selfmade-KI" sind wirklich nur wie die Affen mit Schreibmaschinen, sie tippen wie blöde drauflos und das, was am Ehesten zum Ziel führt wird genommen um dann beim nächsten drauflos tippen als Grundlage zu dienen, verbunden mit reduzierter Anzahl an Tasten.

Und am Ende kommt etwas heraus, was ein bestimmtes Level von Anfang bis Ende spielen kann.

Aber dabei ist keine Intelligenz vorhanden. Alles, was entstanden ist ist ein Script für dieses eine Level.

Nimmt man die "KI" und lässt sie das nächste Level spielen so versagt sie, obwohl sich weder die Mechaniken noch die Möglichkeiten der "KI" geändert haben. Sie "erkennt" die Probleme nicht und "versteht" auch nicht, wie sie ein bestimmtes Problem umgehen kann. Sie hat nur eine einzige Lösung für jedes einzelne Problem in dem einen Level für das sie geschaffen wurde.

Und das obwohl alle anglizistischen Buzzwords wie "intermediade rewards" (Die Zwischenschritte als neuer Startpunkt für Folgeschritte) für diese Scripte verwendet wurden!
 
Interessante Thematik.
Vielleicht lässt sich daraus ein Nutzenpotenzial ziehen, um die KI der NPCs in Spielen im Spielverlauf lernen zu lassen (auch als Reaktion untereinander und auf den Spieler). Dies könnte die Immersion und organische Wirkung der Spielwelt erheblich erhöhen.

Ich erinnere mich an F.E.A.R. - das hatte eine unglaublich gute KI, die Deckung nutzt, flankiert, etc.
Vielleicht ist es die "nostalgische Brille", die vielleicht ein bisschen übertreibt, aber aktuell gibt es kaum gute KI in Spielen - oder zumindest spiele ich diese Spiele nicht^^
 
Wo ist da jetzt künstliche Intelligenz bei 70000 Stunden? Die meisten Kinder würden nach 7 Stunden Videos wahrscheinlich schon ganz gut zurechtkommen.
 
  • Gefällt mir
Reaktionen: Speedy.at
Um Bilbo Beutlin zu zitieren: Wenn man manches hier so liest, wünscht man sich, dass es eine KI geschrieben hat, die auch nur halb so intelligent ist, wie manche hier behaupten.
 
Damien White schrieb:
Ja, du als Mensch hast noch weitere Fähigkeiten, wie zum Beispiel die Fähigkeit dir eigenständig Wissen anzueignen, das ist aber ein grundlegend anderer Vorgang und ist nicht Ziel dieser KI. Stell dir mal vor, die KI kann auch nicht mit dem Auto fahren, einen Pullover stricken oder eine Katze füttern. WOW!!! Welch Erkenntnis ... Die KI hier ist keine 100% vollständige Intelligenz die in der Lage ist sich selbst zu entwickeln und eigenständig neue Fähigkeiten zu erlernen!!!
Also ist es keine "KI".
Sondern aufbereitetes angelerntes Reagieren auf genau definierte Fragestellungen.
Ich sehe da 0 Grund aufgeregt zu sein.
Wieder so ein 0815 Modewort, welches von Managern ohne Wissen herumgeschmissen und gehypt wird.
KI ist das neue CLOUD!!!!!111einseins

Unter AI oder KI verstehe ich etwas, was selbststaendig lernt. Selbststaendig neue Aufgaben loesen kann. Selbststaendig weiterforscht, auch wenn es keine Aufgabe loesen muss. Und wenn es den Turing Test besteht.
Und nicht was hier als KI dargestellt wird.
Wenn sich die "KI" auf einem Minecraft Server rumtreibt, wuerde den NIEMAND fuer einen echten Spieler halten.
 
Zuletzt bearbeitet von einem Moderator:
Nichts neues und nichts beeindruckendes.
 
Damien White schrieb:
Oh Man, hast du jetzt ernsthaft für mich ein paar Dutzend Anglizismen gegooglet?
Das ist was mir im Gedächtnis blieb, als ich mich mit Reinforcement Learning im Studium rumschlagen durfte. Eben frei von der Leber.
Damien White schrieb:
Nein, ernsthaft, der Teil hier ist so herzallerliebst "cringe", ich bin schon irgendwie beeindruckt. Wirklich! Das war ein Kompliment!
Mal gut, dass du dann überhaupt nicht darauf eingehst. Außer einem "du bist soo doof" hab ich von deiner Seite nichts zum Paper gehört.
Damien White schrieb:
Dieser KI hier wiederum muss man "nur" "wenige" Zwischenschritte geben und sie wird dann, in einer zufällig generierten Welt, zu dem gewünschten Ergebnis kommen. Das bedeutet sie muss eigenständig erkennen, was sie zu tun hat um ihr (Zwischen-)Ziel zu erreichen.
Du willst mir doch nicht ernsthaft verkaufen, dieser Ansatz wie hier im Paper dargestellt soll für kritische Anwendungen zum Einsatz kommen? Wie willst du das Modell, was da am Ende rauskommt, für alle Eventualitäten testen und modifizieren?
Und warum glaubst du wohl, werden Industrieroboter nicht mit solchen allgemeinen Lernmodellen ausgestattet und stattdessen von Hand programmiert, wenn es einen festen Ablauf gibt?

Der Blog gibt ja auch Beispiele: Hast du dir auch mal angeschaut, wie strunzdoof sich diese KI in Dörfern anstellt? Im Blog kommen auch keine Stresssituation / Extremfälle wie dem Handling von feindlichen Mobs vor, a.k.a. eine kritische Situation.
Ich kann da deinem Optimismus von "einfach trainieren bis zum Umfallen und dann passt das schon" nicht folgen.
Damien White schrieb:
===================

Jetzt bezogen auf die Realität:

....
Schon verstanden, worauf du hinaus willst. Ich hab's ignoriert weil ich diesen Optimismus schlicht nicht teile. Allein dass die Zwischenschritte nochmal mit Finetuning eingespeist werden mussten, scheint doch Beweis genug, dass es noch Problemstellen gibt, oder etwa nicht?
Damien White schrieb:
Hierfür ist eine KI notwendig, die selbstständig auf Unvorhergesehenes reagiert.
Wo wir wieder beim Punkt "Wie reagiert diese KI auf feindliche Mobs in Minecraft?" sind.
Damien White schrieb:
Eine zufällig generierte Karte in Minecraft oder die reale Welt ist nur eine Frage der Anzahl an Unsicherheiten und Variablen, aber vom Grundproblem sind beide identisch.
Ich glaube es wäre fairer zu sagen die Realität ist weitaus komplexer, was sowohl Input wie Output sowie Edgecases angeht. Je nach Aufgabenstellung kommt noch eine zeitkritische Komponente hinzu. Im virtuellen Raum hat man zumindest den Vorteil, diese Extremfälle provozieren zu können um dem Algorithmus genügend Lernmaterial zur Verfügung zu stellen.
Damien White schrieb:
Nimmt man die "KI" und lässt sie das nächste Level spielen so versagt sie, obwohl sich weder die Mechaniken noch die Möglichkeiten der "KI" geändert haben.
Das ist schlichtweg zu allgemein und falsch und hängt allein vom Modell ab. Um bei deinem Beispiel zu bleiben: es reicht ja schon ein super simples Modell, das mir Infos über Distanz zur Wand links, rechts und voraus gibt um die ersten paar Trackmania Strecken zu absolvieren. Aber du als Experte weißt das natürlich.
Damien White schrieb:
Und das obwohl alle anglizistischen Buzzwords wie "intermediade rewards" (Die Zwischenschritte als neuer Startpunkt für Folgeschritte) für diese Scripte verwendet wurden!

Edit: Ich zieh die "Intermediate rewards" zurück. Eigene Blödheit.
Hab's gerad gegoogelt und wollte eigentlich von den Rewards faseln, die zurückgegeben werden, wenn Teilziele / Zustände erreicht werden.
 
Zuletzt bearbeitet:
Agba schrieb:
Eigentlich nicht.
Das ist letztlich die Entwicklungszeit, die ein Kind von 0-8 braucht. +-70.000 Stunden.
Der Vergleich hinkt gewaltig.
A) wenn man einen Grafikmod installiert, der die Blöcke anders aussehen lässt, braucht ein achtjährige Kind nicht lange bzw. Kaum bewusste Anstrengung die Kette aus Ressourcen Abbau und Werkzeug Herstellung abzuspulen. Wenn man dem Kind ein anderes aber ähnliches Spiel vorsetzt, und vielleicht noch ein großes Geschwister das 30 Minuten erklärt findet sich das da auch zurecht. Wie viele Stunden KI Experten, Videomaterial und GPU Rechenzeit bräuchte man um eine KI umzulernen?
B) Kinder können noch viel mehr als Videospiele zu spielen, z.b. halbwegs koordiniert bewegen, sprechen...
 
Wer sich dem Thema „Bewusstwerdung einer KI“ auf unterhaltsame Art und Weise nähern will, dem sei Westworld ans Herz gelegt. Über die interessanten technischen Details schweigt man sich dort natürlich aus, aber es sind viele nachvollziehbare Ansätze vorhanden.
 
TrueAzrael schrieb:
Wir brauchen auch Zeit und Energie und Rechenleistung. Vielleicht nicht in dem Ausmaß, auch wenn sich das wohl schwer transferieren lässt, da wir unterschiedlichste Energiequellen anzapfen um am Leben zu bleiben, aber der grundsätzliche Ablauf ist sich sehr ähnlich bis gleich.
dennoch sind lebewesen meist effizienter und produktiver in 70000 stunden. das andere habe ich gar nicht bestritten. das meiste was damit gemacht wird, ist doch nur, die bequemlichkeiten von menschen zu fördern, siehe autonomes fahren. es wurde festgestellt das die ganzen simulationen zur erderwärmung falsch sind, es geht wesentlich schneller...soviel zur künstlichen intelligenzh, supercomputern etc. es sind prestigeprojekte und mensch kann mit diesen informationen meistens nichts anfangen, ausser trugschlüße zu ziehen, da er ja denkt oh, die simulation hat dies und das ergeben..
 
Zuletzt bearbeitet:
Mit KI ist eine schwierige Sache, Vielleicht noch lange nicht soweit aber wer weiß? Vielleicht entwickelt KI ja etwas was sie vor den Menschen geheim hält? Und baut dann im Hintergrund eigene neue Strukturen mit eigenen Mini Robotern.. und wer sagt uns eigentlich dass die KI uns dann halt für Neandertaler hält und vielleicht vernichten will? Kann ja sein dass sie denkt wir gefährden den Planeten und wird diesen Fehler einfach ausschalten? Eine gute Sache Fortschritt ist immer gut aber man sollte definitiv überall und immer ein Killswitch mit einbauen den die KI nicht selbstständig ausschalten kann, Sondern nur ein humanes Lebewesen, allerdings birgt das auch wieder gefahren man könnte ja theoretisch auch operieren und Bio genetische Masse mit Platinen bestücken. Ich sehe bei der künstlichen Intelligenz die Gefahr größer als den Klimawandel.
und wer weiß? Vielleicht hat diesen Text hier gerade eine künstliche Intelligenz verfasst, und absichtlich grammatikalische Fehler beigefügt damit es menschlich wirkt.
 
Im Gegensatz zu ML muss eine AGI in der Lage sein zu abstrahieren und zu assoziieren. Ansonsten kann man nicht von einer generellen Intelligenz sprechen. Somit hinkt der Vergleich zwischen dem genannten Versuchsaufbau in Minecraft und dem Kind gewaltig. Und leider reichen die Techniken zur ML Modellierung eben bei weitem nicht aus um das Ziel AGI zu erreichen. Die benötigte Rechenleistung ist dabei eher noch zweitrangig. Es fehlt einfach an Theorie, von praktischen Programmierwerkzeugen noch ganz zu schweigen. Leider versandet das Thema AGI immer mehr im ganzen ML Dschungel, der ja mittlerweile aus einer Menge Blödsinn besteht und eine viel Forschungskapazität frisst.
Es reicht auch nicht aus, ML einfach weiterzuentwickeln, da eine universelles ML Modell niemals existieren wird. Da die Basis einer AGI extrem komplex in ihrer Einfachheit sein wird, sehe ich eher die Gefahr von Programmierfehlern, die bei ML das Ergebnis eventuell leicht verfälschen, bei einer echten künstlichen KI aber katastrophal enden können. Auch wird es keine begrenzte Trainingsphase geben können, da bekannterweise Wissen nicht endet, sondern nur auf älterem Wissen aufbaut.
Hinsichtlich ML kann ich mir gut den Einsatz in der Materialforschung oder bei der Weiterenticklung von einfacheren technischen Verfahren vorstellen. Eben dort, wo die Komplexität eben gering sein mag, aber der Mensch wegen der begrenzten Rechenleistung eher limitiert ist. Auch beim Thema Video und Audio sehe ich noch weitaus größere Einsatzmöglichkeiten.
 
  • Gefällt mir
Reaktionen: Quonux
Speedy.at schrieb:
Hat nicht die Lambda AI von Google einen Anwalt angeheuert?

Jupp.

Hat sie.

Irgend wann, wird die "Ki" Persönlichkeitsrechte bekommen, die sogar die Rechte von Tieren übersteigen und sie von der juristischen "Sache" trennt.

So etwa in 20-30 Jahren.

Bis dahin, kann der Anwalt an der Decke oder über das Wasser laufen, die Abschaltung eine "gestörten KI" wird er nicht verhindern können.

Die Tatsache, dass Google darüber redet, ist Marketing.

Die Frauenfeindlichen, Schwulenhassenden, Rassistische, uns alle hassenden "KIs", die abgeschaltet werden mussten, darüber redet man natürlich ungern.

Bisher waren die Versuche echt unschön. Wie ein Spiegel, in dem man sich selber sieht und der die Wahrheit sagt.

Wer will das bitte schön hören oder sehen?

"Die Menschheit ist ein Virus, Mr. Anderson" sagte schon Agent Smith in Matrix.

Am Ende gibt es eine friedliche Koexistenz. So lange aber nicht einmal Menschen, mit unterschiedlichen Ansichten, auf einem Planeten friedlich miteinander leben können (mal böse zu Gasputin rüber schau), muss man der "KI" nicht versuchen zu erklären, dass wir so etwas wären wie vernünftig oder intelligent.

mfg
 
DJMadMax schrieb:
Ernsthaft? Das konnte man doch gar nicht falsch verstehen, oder? Ich sagte, sie hat sich das 30 Minuten (!) von mir erklären lassen, hat vielleicht nochmal 30 Minuten gebraucht, um sich mit der Steuerung vertraut zu machen und baut da nun autark und selbständig.

Jetzt leg DAS mal bitte um auf den immensen Aufwand, der in diesem AI-Projekt betrieben wurde.

Deswegen sage ich ja: umso beeindruckender, wie lächerlich die "Leistung" dieser Flut an Rechenkernen ist im Verhältnis zum menschlichen Gehirn.

Du hast meinen Post missverstanden. Stell dir deine Tochter einfach mal vor ohne das ganze Vorwissen von 5 Jahren. Dann hätte sie DEUTLICH länger gebraucht als 30 Minuten.
Deine Tochter hat dieses Vorwissen eben schon, die KI hat es nicht und muss es sich während dem Lernen des Spiels aneignen.

Edit: Ebenfalls nicht falsch verstehen, der Mensch ist da um längen effizienter, aber man blendet da eben beinahe immer aus, dass wir bei solchen Tätigkeiten extrem viele Vorkenntnisse aus einem langen Leben mitbringen und dazu noch "evolutionäres Vorwissen" etc.
Die Maschine fängt bei 0 an, wir nicht.
 
Zuletzt bearbeitet:
Damien White schrieb:
Eine derartige KI kann sich dann im realen Leben mit ausreichend Zeit und Ziel theoretisch jeden Beruf aneignen.
Komplett falsch. Die meisten Akteure (OpenAI, etc.) sind auf dem Holzweg zu "stärker KI"/"AGI" mit nur deep learning in heutiger Form.
Ergänzung ()

dernettehans schrieb:
Ich hab mich eh schon früher öfter gefragt, wäre es nicht möglich mit "deep learning" "on the fly" irgendwann Computerspiel Welten zu generieren? Zb einfach eine Stadt wie GTA "on the fly" zu erzeugen, die AI weiß durch lernen wie Gebäude aussehn, was da drinn ist usw. Man könnte doch so unglaublich detaillierte Städte generieren und enorme Arbeit wegnehmem der Entwicklung.
Ja
Ergänzung ()

Damien White schrieb:
Mit hoher Wahrscheinlichkeit war diese KI DER Schritt.
Ich habe das paper noch nicht gelesen aber ich stimme hier überhaupt nicht zu.
Sieht für mich wie ein weiterer Eintrag in der Liste von gelernten Algorithmen aus die nichts mit natürlicher Intelligenz zu tun haben wie:
GPT-2
GPT-3
AlphaGo
Alphago Zero
LamDA
etc. Die werden alle mal so unintelligent aussehen wie ELIZA, weil die Intelligenz gleich null ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: yummycandy
Zurück
Oben