Nascom Journal |
Juni 1982 · Ausgabe 6 |
Da ich mir jede Veröffentlichung über Roboter anschaffe, kam mir nun auch das Buch „ROBOT INTELLIGENCE with experiments“ von David L. Heiserman unter die Finger (TAB BOOKS INC vertrieben von Hofacker Verlag). Das Buch unterscheidet sich von anderen Werken des Authors dadurch, daß es sich nicht mit dem Bau und der Programmierung von beweglichen Maschinen beschäftigt, sondern mit der Simulation von „Maschinenintelligenz“ am Bildschirm eines Rechners. Dies macht für einen größeren Leserkreis interessant. Die vielen Beispielprogramme sind für den TRS 80 geschrieben, lassen sich aber, wie die abgedruckten Beispiele zeigen, relativ leicht an den Nascom anpassen.
Heiserman sieht die Haupteigenschaft eines Roboters in der Fähigkeit, sich neuen Situationen anzupassen. So ist für ihn ein sogenannter Industrie-Roboter kein wirklicher Roboter, da er nur vorprogrammierte Schritte ausführt und nicht umlernen kann, wenn neue Situationen auftauchen. Sein Ziel ist die Konstruktion einer Maschine, die sich selbst programmiert.
Dieses Ziel will er durch die Entwicklung eines „Programmes“ erreichen, das er EAMI (Evolutionary Adaptive Machine Intelligence) nennt, also ein Programm, das sich entwickelt und anpaßt. Die Entwicklung des Programmes (die noch lange nicht abgeschlossen ist, und zu deren Heiterführung der Leser aufgefordert wird – Sie kennen so etwas ja aus dem Journal), wird sehr anschaulich beschrieben (leider alles in Englisch) und an Unmengen von Programmen verdeutlicht.
Hier ein kurzer Abriß des Aufbaus:
Heiserman teilt seine „Intelligenzen“ in Alpha-, Beta- und Gamma-Wesen ein, jeweils Level (Niveau) I oder II. Die Alphawesen existieren nur in der Gegenwart und reagieren rein zufällig. Auf dem Bildschirm wird das simuliert, indem ein „Wesen“ (in unserem Beispiel das Bell-Zeichen) sich innerhalb eines rechteckigen „Spielfeldes“ bewegt. Würde bei der nächsten Bewegung der Feldrand berührt (Contact), so muß eine Bewegungsrichtung gefunden werden, die dies vermeidet. Aus 24 möglichen Richtungen wird per
Zufall eine ausgewählt. Über dem Spielfeld werden die Kontakte, die erfolgreichen Bewegungen (vom Rand weg) und deren Verhältnis (Score) angezeigt. Wieoft man auch die Simulation durch Drücken der D-Taste neu startet (D=disturb=stören), das Alpha-Wesen wird immer eine erfolgsquote von 0.5 und knapp darunter erreichen.
Das Beta-Wesen merkt sich die erfolgreichen Bewegungen und setzt sie in gleichen Situationen wieder ein. Es „lebt“ also in Gegenwart und Vergangenheit. Es beginnt seine Bewegung auch erst rein zufällig, nach gewisser Zeit bemerkt man aber, daß es sich ein bestimmtes „Verhaltensmuster“ aneignet: seine Bewegungen verlaufen nach dem gleichen
Seite 9 von 24 |
---|