AI - Agents and Intelligence
open learning repository [OLR3]

Aufgaben

1.1

Geben Sie für jeden der folgenden Sätze fünf Gründe an:
  1. Ein Hund ist intelligenter als ein Wurm
  2. Ein Mensch ist intelligenter als ein Hund
  3. Eine Organisation ist intelligenter  als ein enzelner Mensch
Definieren Sie, was "intelligenter" bedeutet, basierend auf ihren Gründen.

1.2

Betrachten Sie noch einmal folgende Umgebung und stellen erklären Sie, welche Agententypen (reflex, ziel- oder nutzenbasiert) jeweils am Erfolgreichsten wären:
 
Art Wahrnehmung Aktionen Ziele Umgebung 
Medizinisches Diagnosesystem  Symptome, Diagnosen, Antworten des Patienten  Fragen, Tests, Behandlungen  Gesundheit, geringe Kosten  Patient, Hospital 
Satllitenbildanalyse  Punkte verschiedener Intensität, Farbe  Klassifikation  Korrekte Klassifikation  Satellitenbilder 
Roboter  Punkte verschiedener Intensität  Teile aufheben, Teile einsortieren  Teile richtig einsortieren  Förderband mit Teilen 
Raffinerie  Temperatur, Druck  Öffnen, Schließen von Ventilen, Temperatur einstellen  Reinheit, Ertrag, Sicherheit maximieren  Raffinerie 
Interaktiver Englischtutor  Eingegebene Wörter & Übungen, Vorschläge,  Korrekturen ausgeben  Testergebnisse des Studenten maximieren  Studenten 

1.3

Wählen Sie eine Umgebung aus ihrem persönlichen Umfeld aus und beschreiben Sie sie nach PAGE. Ist diese Umgebung zugänglich, deterministisch, statisch, diskret oder nicht? Welche Agentenarchitektur würde sich dort anbieten?
 

1.4a

Implementieren Sie einen Performance-messenden Umgebungssimulator für die Staubsaugerwelt: Wir können die Komplexität der Umgebung in drei Dimensionen erhöhen:

 

1.4b

Implementieren Sie einen Agenten, der jeweils in einer Tabelle nachschlägt, was zu tun ist (einen sogenannten Table-Lookup Agenten) für eine 2 x 2 Welt ohne Hindernisse, in der höchstens zwei Felder schmutzig sind. Der Agent soll in der Ecke links oben anfangen und nach rechts sehen. Der Lookup-Agent enthält eine Tabelle, die ihm sagt, was zu tun ist, anhand einer Sequenz von Wahrnehmungen.
In dieser Umgebung kann der Agent seine Aufgabe immer in neun oder weniger Aktionen erledigen (Vier Züge, drei Drehungen, zweimal Saugen), daher benötigt die Tabelle nur Einträge für Wahrnehmungssequenzen bis zur Länge neun. In jeder Runde gibt es acht mögliche Wahrnehmungsvektoren, also aht die Tabelle die Größe 8^9 = 134.217.728. Glücklicherweise können wir das reduzieren, weil wir erkennen, dass der Touchsensor und der Heimatsensor nicht benötiget werden; Wir können es so arrangieren, dass der Agent niemals in eine Wand stösst und weiß, wann er zuahuse ist. Damit gibt es nur noch zwei relevante Wahrnehmungsvektoren : (?,0,?) und (?,1,?) und die Größe der Tabelle beträgt 2^9 = 512. Starten Sie den Umgebungssimulator für den Lookup-Agenten in allen möglichen Welten (Wieviele gibt es?). Ermitteln Sie seinen Performance score in jeder Welt und seinen Durchschnittswert.
 

1.5a

Implementieren Sie eine Umgebung für ein n x m Viereck, in dem jedes Feld eine 5% Chance hat, schmutzig zu sein und n und m zufällig zwischen 8 und 15 liegen.
 

1.5b

Entwerfen und implementieren Sie einen einfach reaktiven Agenten für die Welt aus 1.5a, indem Sie die Regel nach Hause zurückzukehren außer Acht lassen. Erläutern Sie, warum es unmöglich ist, einen einfachen reaktiven Agenten zu haben, der selbstständig nach Hause zurückkehrt. Überlegen Sie, wie sich der beste mögliche Reaktive Agent verhalten würde. Was hindert einen reaktiven Agenten daran, seine Sache gut zu machen?
 

1.5c

Entwerfen und implementieren Sie eineige Agenten mit innerem Zustand für die Umgebung aus 1.5a. Messsen Sie deren Performance. Wie nahe kommen sie an einen idealen Agenten für diese Umgebung heran?