Database Reference
In-Depth Information
Tastatur, Maus und Bildschirm. Fur die intelligente Bewaltigung komplexer Auf-
gabenstellungen ist jedoch eine flexible Kombination der genannten Fahigkeiten
notwendig. So besteht ein zentrales Problem bei der Implementierung von Agen-
ten darin, eine effektive Balance und Integration von proaktivem und reaktivem
Verhalten zu schaffen. Proaktivitat in einer offenen Umgebung bedeutet nicht das
blindwutige Verfolgen eines festen Zieles durch einmal begonnene Handlungen, son-
dern vielmehr das angemessene Reagieren auf Veranderungen in der Umgebung, die
die Effekte der Handlungen verandern, eine Modifizierung des Zieles erfordern oder
die Grunde, die das Ziel motivierten, hinfallig machen.
Ein zentraler Begriff im Design eines Agenten ist dabei die Idee eines kognitiven
inneren Zustands , in dem der Agent nicht nur Erinnerungen speichert, Informa-
tionen verarbeitet und Entscheidungen trifft, sondern auch Meinungen, Wunsche,
Erwartungen, Absichten, Hoffnungen etc. hegt, die sein Verhalten und seine Zie-
le ganz wesentlich beeinflussen konnen. Man findet in diesem Zusammenhang oft
die Bezeichnungen intentional stance (ubersetzt etwa Absichtshaltung , intentionale
Haltung ) [147] oder knowledge-level [169], manchmal auch internal store [52] oder
einfach mental state .
Auf der Reprasentationsebene ist der Begriff des epistemischen Zustandes (vgl.
z.B. [91]) wohl am ehesten geeignet, um den inneren Zustand eines Agenten zu be-
schreiben. Auf der Architekturebene mundet dieser Ansatz in das sog. BDI-Modell
eines Agenten ( B = belief , D = desire , I = intention ), die wohl wichtigste und
erfolgreichste Agentenarchitektur, auf die wir in Abschnitt 12.5 naher eingehen wer-
den. Teil eines solchen internen kognitiven Zustands ist die Wissenskomponente ,in
die die Herzstucke eines wissensbasierten Systems - Wissensbasis und Inferenzkom-
ponente - eingebettet sind.
Praktisch jedem Automaten konnte man eine intentionale Haltung zuschreiben,
auch jenseits der Grenzen des Sinnvollen:
Ludwig, der Lichtschalter, ist ein willfahriger Diener des Menschen.
Nichts hofft er mehr, als dass man ihn betatige und er in Aktion treten
kann. Sein innigster Wunsch ist es, den Raum nach dem Willen seines
Benutzers zu erhellen oder zu verdunkeln . . .
Bei so einfachen Konstruktionen wie einem Lichtschalter ist die Zuschreibung ei-
ner Absicht daher nicht sinnvoll. Bei komplexen technischen Systemen mag eine
“Absichtshaltung” ebenfalls unangemessen erscheinen, doch ist fur das Design und
die Implementierung maschineller Agenten die Sichtweise der intentionalen Hal-
tung (mit den zentralen Begriffen Glauben , Wunschen und Absichten ) vor allen
Dingen ein außerst nutzliches Abstraktionswerkzeug, mit dessen Hilfe man Agen-
tenverhalten prazise vorgeben, beschreiben und erklaren kann, ohne sich (schon)
um technische Details kummern zu mussen.
Die Motivation fur Veranderungen in seinem reaktiven und proaktiven Ver-
halten sollte der Agent auch aus der Wahrnehmung einer sozialen Rolle sowohl in
kooperativen als auch in kompetitiven Interaktionen mit anderen Agenten beziehen
konnen. Dieser Punkt macht deutlich, warum Agenten oft als Teil eines Multiagen-
tensystems betrachtet werden. Wir werden im Rahmen dieses Kapitels auf diesen
Aspekt jedoch nur kurz in Abschnitt 12.6 eingehen und uns ansonsten auf die Mikro-
Search WWH ::




Custom Search