Künstliche Intelligenz siegt auch bei Ego-Shootern

In Spielen wie Schach und Go hat die Künstliche Intelligenz (KI) ihre menschliche Konkurrenz längst überflügelt. Jetzt hat ein Programm der Google-Firma DeepMind ein Computerspiel erlernt – und ist schon wieder besser als der Mensch.

Ein Team um den DeepMind-Forscher Max Jaderberg hatte das selbstlernende Programm im Multiplayer-Spiel „Quake III Arena“ auf die Probe gestellt. Im Spielmodus „Capture the flag“ („Fahnenraub“) müssen sich zwei Teams die Flagge des jeweiligen Gegners schnappen und in die eigene Basis bringen.

Strategie plus Laserschüsse

Sie können ihre Gegner durch Laserschüsse außer Gefecht setzen, die symmetrisch angelegten Räume und Gänge sollen beiden Teams dieselben Chancen geben und werden nach dem Zufallsprinzip generiert. Dabei bewegen sich die Spieler in der Ich-Perspektive durch das virtuelle Gelände und müssen mit ihren Gruppenmitgliedern zusammenarbeiten, um ihre Gegner in Schach zu halten.

Fazit der Studie im Fachblatt „Science“: Die meisten KI-Agenten entwickelten ein ähnliches Spielverhalten und vergleichbare Strategien. Diese veränderten sich im Laufe der 450.000 Trainingsspiele: Nach einigen Tausend Spielen warteten die KI-Agenten oft in der Basis des Gegners, dass die Flagge dort wieder auftaucht. Ihre Strategie änderte sich jedoch im Laufe des Trainings. Einige Zeit später folgten viele KI-Agenten eher einem Teamkameraden. „Beim Training in einer genügend reichen Multiagenten-Welt entstand ein komplexes und überraschend hochintelligentes künstliches Verhalten“, schreiben die Forscher.

Besser als menschliche Spieler

Nach rund 200.000 Spielen waren die KI-Agenten im Schnitt besser als die besten Menschen. Zuletzt siegten sie deutlich: Wenn zwei menschliche Spieler gegen zwei KI-Agenten antraten, eroberten letztere durchschnittlich 16 Flaggen mehr.

KI-Agenten reagierten auf das Auftauchen eines Gegners im Durchschnitt nach 258 Millisekunden, Menschen nach 559 Millisekunden. Doch selbst wenn die Forscher die Reaktionszeit der KI-Agenten verlangsamten, blieben die künstlichen den menschlichen Spielern überlegen.

„Der vorgestellte Rahmen für die Schulung von Agentenpopulationen mit jeweils eigenen Belohnungen enthält nur minimale Annahmen über die Spielstruktur“, schreiben Jaderberg und Kollegen. Er könne daher für das Lernen in einer Vielzahl von Agentensystemen mit mehreren Teammitgliedern verwendet werden.

science.ORF.at/dpa

Mehr zu diesem Thema: