Kaum ein Thema hat die gesellschaftliche Diskussion der vergangenen Monate so stark geprägt wie die Künstliche Intelligenz. Um sicherzustellen, dass die Entwicklung dieser neuen Technologie auch den europäischen Menschenrechtsstandards entspricht, wird das EU-Parlament im Juni 2023 eine weitgehende Regulierung für Künstliche Intelligenz beschließen, den AI-Act. Vor dem Inkrafttreten muss das Gesetz noch mit dem EU-Rat abgestimmt werden.
Zentraler Bestandteil der neuen Vorschriften ist ein risikobasierter Ansatz, in dem je nach Anwendung unterschiedlich strenge Vorgaben gemacht werden, bis zum Verbot. Auf der Universität Graz erörtern Forscher:innen aus dem Profilbereich „Smart Regulation“ die Auswirkungen dieser Abwägung. „In einem Projekt haben wir eine spezielle Anwendung untersucht: Emotional AI“, erklärt Elisabeth Hödl, Professorin am Institut Rechtswissenschaftliche Grundlagen der Universität Graz. Es gehe hier um Systeme, die Emotionen aufnehmen und auch kategorisieren können. Das betreffe beispielsweise auch subliminale Techniken, die unterschwellig wirken oder das Unterbewusste beeinflussen. „Das ist eigentlich Freiheitsbeschränkung, denn Freiheit bedeutet auch, die Wahl zu haben.“ Doch diese Mechanismen seien bisher gesellschaftlich nicht wahrgenommen worden. Der AI-Act der EU ist der erste Versuch, hier eine Einordnung zu schaffen.
Fehlendes Bewusstsein
„Wir hatten bzw. haben gesamtgesellschaftlich bisher eigentlich kein Bewusstsein dafür entwickelt, was Künstliche Intelligenz eigentlich genau ist; das ist eine große gesellschaftspolitische Herausforderung“, erklärt der Thomas Gremsl, Professor am Institut für Ethik und Gesellschaftslehre der Universität Graz. Bisher gäbe es da bei vielen Menschen höchstens Bilder aus dem Science-Fiction-Bereich wie Terminator oder in Star Trek Commander Data. „Dabei werden heute AI-Algorithmen bereits auf vielfältige Weise eingesetzt, ohne dass man es wirklich wahrnimmt. Hier findet schon jetzt eine meist nicht wahrgenommene Beeinflussung statt.“ Diese Tatsache müsse der Gesellschaft bewusst gemacht werden, und zwar nicht nur in urbanen oder gebildeten Schichten, sondern in allen Bereichen der Bevölkerung.
Gremsl sieht derzeit auch eine Überschätzung der Fähigkeiten: „Diese Programme sind von Menschen gemacht, sie tragen daher auch Fehler in sich, sind nie perfekt.“ Die Ergebnisse der Large Language Models basieren außerdem auf Wahrscheinlichkeiten. „Und wenn ein solches System als Ergebnis ausgibt, eine bestimmte Lösung sei mit 98-prozentiger Wahrscheinlichkeit richtig, werden die meisten Menschen dieser Empfehlung vermutlich folgen – dies erzeugt entsprechend Druck.“
Nicht nur Datenwissenschaftler:innen
Deshalb greife die Forderung zu kurz, dass der Mensch stets die letzte Entscheidung haben sollte, erklärt die Juristin Hödl: „Wir haben in dem Forschungsprojekt auch gefragt: Was bedeutet denn die Letztentscheidung?“ Bekommt eine Person einen Entscheidungsvorschlag einer AI, werde diese immer dazu tendieren, die Alternative anzunehmen. „Wie soll das ein normaler Mensch hinterfragen können, wenn selbst die Programmierer:innen dieser Systeme nicht verstehen, wie eine Entscheidung zustande kommt?“, fragt Hödl.
Deshalb sei es so wichtig, dieses Feld nicht nur den Datenwissenschaftler:innen zu überlassen, sind sich die Juristin und der Sozialethiker einig. „Wir müssen beginnen, AI-Systeme mit einem menschenzentrierten Ansatz zu entwickeln, der wesentliche Punkte schon im Design mitdenkt und wir müssen umfassende Maßnahmen zur Sensibilisierung für das Thema KI in der Bevölkerung setzen“, sagt Gremsl. Seine Kollegin Hödl ergänzt: „Es geht doch letztlich um die Menschenrechte.“
Diskussion mit Live-Stream
Dem kontroversen Thema Künstliche Intelligenz widmet sich auch der 85. „Am Puls“ Talk des FWF und der Uni Graz im Orpheum Graz am 6. Juni 2023. KI-Expertin und Geschäftsführerin von DAIN Studios Austria, sowie Georg Vogeler, Historiker und Professor für Digital Humanities an der Universität Graz diskutieren über Visionen und Möglichkeiten, über Gefahren und Ängste der Technologie.
>> Hier geht's zum Live-Stream