Jump to navigation

Logo RUB
Logo IAW
  • Aktuelles
  • Team
  • Forschung
  • Lehre
  • Kontakt
  • Jobs
Soziotechnisches Systemdesign und Künstliche Intelligenz
MENÜ
Soziotechnisches Systemdesign und Künstliche Intelligenz
    • Aktuelles
    • Team
    • Forschung
    • Lehre
    • Kontakt
    • Jobs
Bildzeile
Forschung

Special Issue zu “Explainable and responsible artificial Intelligence” erschienen

Als Guest Editor der Fachzeitschrift Electronic Markets (VHB: B, IF: 6.01) verantwortete Prof. Christian Meske gemeinsam mit Kollegen das kürzlich erschiene Special Issue

Prof. Dr. Christian Meske ist einer der Guest Editors des Special Issues zu „Explainable and responsible artificial intelligence“, das kürzlich in der Fachzeitschrift Electronic Markets (VHB: B, IF: 6,01) erschien. Im Rahmen der Zusammenarbeit mit den anderen Guest Editors Prof. Babak Abedin, Prof. Dr. Mathias Klier and Prof. Fethi Rabhi entstand ein Editorial, das die Notwendigkeit erklärbarer KI-Systeme betont und den diesbezüglichen Beitrag der in der Sonderausgabe aufgenommenen Artikel zusammenfasst.

Das Special Issue umfasst konzeptionelle und empirische Forschungsarbeiten, die mit theoretischen und praxisrelevanten Erkenntnissen zum Thema erklärbarer künstlicher Intelligenz (xAI) zu Forschung und Praxis beitragen. Das Resultat ist eine Sonderausgabe, die das Thema xAI von unterschiedlichen Perspektiven und mit verschiedenen Zielstellungen betrachtet: Ein Artikel unterstützt die Wahl eines passenden xAI-Tools, ein anderer beschreibt Designprinzipien und Features für solche Lösungen, und weitere stellen neue xAI-Methoden vor. Darüber hinaus geben empirische Beiträge einen Einblick, wie xAI-Anwendungen im Kontext der Bestandsüberwachung oder in der Personalabteilung in der Praxis eingesetzt werden. 

Alle Artikel des Special Issues zeigen wie relevant die Erklärbarkeit von KI-Systemen für deren verantwortungsvollen Einsatz ist. Die Guest Editors schließen ihr Editorial mit der Vorhersage, dass das Thema xAI zukünftig immer wichtiger werden wird. Gleichzeitig stehen Unternehmen in der Umsetzung von xAI vor Herausforderungen, wie etwa der nutzerzentrierten Informationsaufbereitung für Stakeholder mit unterschiedlicher Expertise. Laut dem Autorenteam wird es daher wichtig sein, Erkenntnisse der Design Forschung für die xAI-Praktik zu übersetzen und dabei das Ziel der Erklärbarkeit um weitere Aspekte zu ergänzen, die KI-Systeme vertrauenswürdiger machen. Dafür bestünde Bedarf an  nicht-technischer und sozio-technischer Forschung, um das theoretische Verständnis von xAI mit Erkenntnissen hinsichtlich des wechselseitigen Einflusses und der Interaktion von erklärbarer KI und unterschiedlichen Stakeholdergruppen zu ergänzen.

Das Editorial ist auf der Seite von SpringerLink öffentlich zugänglich.

Aktuelles
Übersicht
Veröffentlicht
Von
Lehrstuhl für Soziotechnisches Systemdesign und Künstliche Intelligenz
Diesen Beitrag teilen
Logo ISSE
Datenschutzerklärung Impressum der RUB
Kontakt RUB
Lehrstuhl für Soziotechnisches Systemdesign und Künstliche Intelligenz
Ruhr-Universität Bochum
Wasserstr. 221
44799 Bochum
Seitenanfang Kontrast N