Anwendung von Künstlicher Intelligenz in der Versicherungswirtschaft
Überblick
Im vorliegenden Bericht wird zunächst der Stand der Anwendung von künstlicher Intelligenz (KI) in der Assekuranz dargestellt und auf die derzeitige Rolle der Aktuarinnen und Aktuare bei der Anwendung eingegangen. In Verbindung mit der allgemeinen Diskussion und deren Wortwahl verwenden wir hier auch bereits den Begriff Künstliche Intelligenz, obwohl in der Versicherungswirtschaft bislang keine Anwendungen, die der strengen Definition von Künstlicher Intelligenz genügen, sondern Anwendungen des Machine Learning (ML) / statistischen Lernens (SL) im Einsatz sind. Im folgenden subsummieren wir KI-, ML- und SL-Systeme unter dem Begriff KI-Systeme.
In den ETHICS GUIDELINES FOR TRUSTWORTHY AI [1] der High-Level Expert Group on Artificial Intelligence (HLEG) der EU sind ethische Grundprinzipien und konkrete Anforderungen an vertrauenswürdige KI-Systeme formuliert. Für die Versicherungsbranche insgesamt, wie für jedes einzelne Versicherungsunternehmen stellt sich die Frage, wie Vertrauenswürdigkeit der eingesetzten KI-Systeme geprüft, sichergestellt und nachgewiesen werden kann. Oder allgemeiner, ob es hierfür konkreten Regulierungsbedarf gibt.
Durch bereits vorhandene umfängliche Regulierung in der Versicherungswirtschaft durch die Solvency II Regularien, das AGG und die Datenschutzgrundverordnung [2] sind die ethischen Grundsätze durch den bestehenden Regulierungsrahmen für die Versicherungswirtschaft bereits abgedeckt. Unter Berücksichtigung dieser Regularien sowie der Standesregeln [3] und dem Ergebnisbericht „Umgang mit Daten im Bereich Data Science“ [4] wird in diesem Dokument die Fragestellung aus dem Blickwinkel der Aktuarinnen und Aktuare analysiert.
Im dritten Abschnitt wird der Stand zur Erklärbarkeit bzw. Interpretierbarkeit dargestellt: Mit dem zunehmenden Anwenden von Algorithmen des maschinellen Lernens und der künstlichen Intelligenz wird häufig gefordert, die verwendeten Algorithmen „erklärbar zu machen“. Dies soll verhindern, dass die aufgrund von Algorithmen getroffenen Entscheidungen nicht nachvollziehbar bzw. ungerecht oder falsch sein können. Es werden für gängige Verfahren Ansätze für Interpretierbarkeit erläutert und anhand prägnanter Beispiele wird gezeigt, dass eine Interpretierbarkeit recht gut möglich ist.
Die DAV sieht insgesamt keinen weiteren, speziell auf den Einsatz von KISystemen abgestellten Regulierungsbedarf. Zu einigen speziellen Aspekten der Anforderungen an eine vertrauenswürdige KI sehen wir jedoch durchaus die Notwendigkeit einer genaueren Analyse sowie ggf. einer Handlungsempfehlung, speziell für Aktuarinnen und Aktuare.
Der Ergebnisbericht stellt eine Grundlage der Diskussion dar und ist an die Mitglieder und Gremien der DAV zur Information über die erzielten Erkenntnisse gerichtet und stellt keine berufsständisch legitimierte Position der DAV dar.
Verabschiedung
Der Ergebnisbericht ist durch den Ausschuss Actuarial Data Science am 14. Februar 2020 verabschiedet worden.