AI und Ethik abseits dystopischer Schlagzeilen

Die ganz große Politik – hier die EU-Kommission – hat zur AI eine High-Level Expert Group on Artificial Intelligence eingesetzt. Diese hat auch schon ein Arbeitsergebnis erzielt, nämlich einen Entwurf über Grundsätze zur Ethik von AI (ETHICS GUIDELINES FOR TRUSTWORTHY AI). Regierungen in aller Welt richten gerade Expertenkommissionen, Enquete-Kommissionen und eine Vielzahl weiterer Gremien ein, die sich äußern sollen, wie ein gesellschaftlich erwünschter Umgang mit AI aussehen soll.

Portrait von Christian Hammel vor der Stadtkulisse Berlins

Man mag darüber lächeln, alleine weil man den AI-Hype langsam nicht mehr hören kann. Man sollte aber weder der Versuchung unterliegen, das vorschnell als „schon wieder ein Expertenclub“ abzutun noch vor der Lektüre die Ergebnisse daran messen, ob auch genügend Vertreter der eigenen Lobbyclubs in der Expert Group vertreten sind. Dass Regierungen sich Expertise von außen holen, ist nämlich erfreulich, sind sie doch Experten fürs Regieren und nicht für Technologie.

Erfreulich ist auch der frühe Zeitpunkt. Eine Debatte, ob man das Recht an den Markt anpassen muss, wenn der schon längst seine Regeln gemacht hat - wie bei allen Fragen rund um den Datenschutz – braucht ja niemand. Und noch erfreulicher ist, dass die High Level Expert Group einen Entwurf publiziert hat und diesen zur öffentlichen Kommentierung stellt. Kommentare sind bis 18. Januar 2019 möglich. Natürlich bei der EU-Kommission und nicht bei uns. Damit das über den Jahreswechsel nicht untergeht, weisen wir darauf hin.

Zum Inhalt: Vertrauenswürdige AI habe zwei Komponenten, zum einen ihren Einsatz für ethische Zwecke, zum anderen, dass sie überhaupt richtig funktioniert. So weit nicht erstaunlich. Das gilt nämlich für so ziemlich jede Technik und man könnte das auch in der KI-Studie der Technologiestiftung nachlesen. Die Expert Group hat sich nun die Mühe gemacht, konkreter zu werden. Der Entwurf enthält sehr konkrete Vorschläge, wie sich eine AI-Lösung genau verhalten soll, wie man dies bei der Herstellung einer AI umsetzen kann und sollte, und drittens mit welchen Fragen man überprüfen kann, ob das AI-System (bzw. sein Hersteller oder Betreiber) sich entsprechend verhält.

Diese Guidelines mögen dem Techniker oder auch dem Ethiker an dem ein oder anderen Punkt etwas banal erscheinen. Lesenswert sind sie allemal. Sie unterscheiden sich im inhaltlichen Niveau erfreulich von den Dystopien oder Utopien, die zwar wegen ihrer Schlagzeilenträchtigkeit gerne die mediale Berichterstattung dominieren, an Vorschlägen, was konkret zu tun sei, aber meist etwas arm sind.

Da Berlin eine relevante und aktive AI-Szene hat, für die mögliche Vorläufe einer Regulierung hochgradig relevant sein dürfte, fordern wir zur Lektüre und zur Kommentierung auf!