Digitale Systeme lernen nicht sie entscheiden nicht sie handeln nicht Sie sind weder intelligent noch autonom Sie können auch nicht ver trauenswürdig sein Gegenteilige Formulierungen füllen feuilletonisti sche Beiträge Ausschreibungen für Forschungsförderungen und Texte von Expertengruppen für Künstliche Intelligenz politikberatender Kommissionen Auch die Intuition des Alltags scheint anderes nahezu legen Entscheidet nicht ein Auto das fahrerlos durch die Stadt kurvt autonom und intelligent über Geschwindigkeit und Richtung Wird man vor die Alternative gestellt ein fahrerloses oder ein konventionelles Taxi mit einem zertifizierten Fahrer zu besteigen wird man nicht in beiden Fällen fragen ob das Transportmittel vertrauenswürdig ist Die se alltagspraktische Plausibilität lässt bei den einen Angst vor Kontroll verlust gegenüber Maschinen wachsen Bei anderen sorgt sie für enthu siastische Begeisterung über diesen Quantensprung technischen Fort schritts Doch genau betrachtet führt diese alltagspraktische Plausibilität in die Irre Sie verschiebt Verantwortung auf Verantwortungsträger die es nicht gibt und vergibt die Chance die realen Orte der Verantwortung zu identifizieren und Verantwortungsträger in den Dialog mit Ethik zu bringen Dem Narrativ von lernenden autonom entscheidenden handelnden und vertrauenswürdigen digitalen Systemen ist zu widersprechen Es entspricht nicht den Standards interdisziplinären Arbeitens Begriffe aus fremden Disziplinen zu entlehnen und in der eigenen Disziplin zu etablieren ohne auf Bedeutungsdifferenzen in den jeweiligen Sprach welten hinzuweisen Eine solche Sprachpolitik nährt den Ideologiever TECHNOLOGISCHE AUFKLÄRUNG TRIFFT AUF THEOLOGISCHE ETHIK Ein Beitrag zur Sprachkritik im Digitalisierungsdiskurs Ralph Charbonnier

Vorschau Aufschlüsse Nr. 78 Seite 34
Hinweis: Dies ist eine maschinenlesbare No-Flash Ansicht.
Klicken Sie hier um zur Online-Version zu gelangen.