Müssen wir vor AI Angst haben?

Artificial Intelligence (AI) sägt mit gefälschten Bildern an der Demokratie, reproduziert Vorurteile und gehört ein paar Megakonzernen. Hat AI überhaupt gute Seiten? Ein Podcast.

Zwei Männer in weißen Kitteln stehen in einem Computerraum mit einem riesigen Computerinterface. Das Bild ist Teil eines Beitrags mit einem Podcasts mit Sabine Köszegi über die Risiken und Chancen von AI.
Als Computer noch groß und dienstbar waren: In einer Textilfabrik in Italien in den 1960er Jahren. © Getty Images

Vielleicht ist es tröstlich, dass bei all den Milliarden Dollar, die in die AI Projekte von Google, Microsoft, Meta & Co. fließen, Künstliche Intelligenz immer noch keine profitable Technologie ist. Und das trotz der Daten (Bilder, Gespräche, Videos usw. usf.), die wir als Konsumenten gratis zur Verfügung stellen.

Der Podcast mit Sabine Köszegi über AI

Mit dem Laden des Inhalts akzeptierst du die Datenschutzerklärung von Spreaker.

Wir können nicht anders, als den Maschinen soziale Kompetenzen zuzusprechen.

Insbesondere generative KI, jene Künstliche Intelligenz, die selbst neue Texte, Bilder, Musik etc. erschafft, wird sehr viel Macht zugesprochen, sie gilt durch ihre Fähigkeit, endlos alternative Wirklichkeiten produzieren zu können, als Gefahr für die Demokratie.

Je besser die KI, desto schwieriger wird es, zwischen wahr und unwahr, Realität oder Fake zu unterscheiden. „Das Potenzial von KI-Technologie ist groß, sie kann sehr mächtig sein, weil sie Unmengen von Daten verarbeiten, Muster erkennen, Prognosen über die Zukunft erstellen und somit in jedem Bereich, den wir uns vorstellen können, eingesetzt werden kann.“

AI – Eine Black Box

Auf welche Weise generative KI Entscheidungen trifft, liegt dabei weitgehend im Dunkeln. Selbst Forscher, die mit AI arbeiten, sprechen auch von einer Black Box. Und dennoch wird der AI vertraut. Das österreichische AMS etwa überlässt einer AI die Einstufung von Arbeitssuchenden.

Ein von einer AI generiertes Bild von einem Hund in einem Raumanzug. Das Bild ist Teil eines Beitrags über die Gefahren von Künstlicher Intelligenz (KI) bzw. Aritficial Intelligence (AI).
So visualisiert Midjourney den Computer Hal aus 2001 – A Space Odyssey von Stanley Kubrick als Hund. © Midjourney AI

Die Risiken von Künstlicher Intelligenz werden zunehmend erkannt, doch die Technologie ist bereits so weit verbreitet, dass der Moment, in dem man noch sinnvolle Regulierungen treffen könnte, vielleicht verpasst ist. „Generative KI kann man nicht mehr zurückschrauben“, sagt Sabine Köszegi.

Und: „Wenn man die Folgen einer Technologie noch nicht abschätzen kann, dann ist der Zeitpunkt kritisch, um die richtigen Regeln zu schaffen. Zu Beginn muss man Implementierung zugelassen, um überhaupt abschätzen zu können, welche Risiken bestehen. Und das ist schwer, denn wenn man einmal soweit ist, dass man Risiken und Chancen gut erkennt, kann man die Implementierung nicht mehr zurücknehmen. Das sehen wir heute: Die Daten sind schon gesammelt die Services etabliert.“

AI und der Mensch

In 2001 – A Space Odyssey spricht der Computer Hal überzeugend über seine Angst vor dem Tod. Viele Anwendungen mit KI scheinen mit Menschen mitzufühlen, vielleicht sogar eine eigene Gefühlswelt zu haben. Im Film Her verliebt sich der Protagonist in eine frühe Form von Siri.

„Diese Darstellung von Gefühlen ist ganz absichtlich als Designelement einprogrammiert weil wir Menschen dann noch mehr dazu neigen, tatsächlich eine affektive Bindung zu den Maschinen aufzubauen", erklärt Közsegi. Die Schattenseite: Da Menschen gar nicht anders können, als einer Maschine Gefühle und soziale Kompetenzen zuzusprechen, weil sie selbst soziale Wesen sind und nur so interagieren können, ist es noch leichter, in eine Abhängigkeit von diesen Maschinen zu geraten.

AI und der Krieg

Autonome Waffensysteme, die ihre Ziele selbst finden, könnten dies ohne Künstliche Intelligenz nicht. Sabine Köszegi nennt ein Beispiel aus einem Krankenhaus in Italien, wo eine KI zum Zweck der Triage eingesetzt wurde. Das steigerte die Effizienz des Krankenhauspersonals und entlastete es, weil eine moralisch schwierige Entscheidung einer scheinbar objektiven Maschine überlassen werden konnte. Letzteres ist für Közsegi das Problem mit AI: Sie wirkt so wenig wie eine Maschine und doch so kompetent, dass sich Menschen hinter die Technik zurückziehen können. Köszegi plädiert daher für ein Verbot von autonomen Waffensystemen.

Die Frage der Regulation

Wie sehr soll in punkto Künstlicher Intelligenz eingeschritten werden? Wie stark soll KI reguliert sein? Köszegi sieht viel Positives im AI Act der EU. „Europa ist der erste große Wirtschaftsraum, der eine umfassende Regulierung vornimmt und wird, etwa von Kanada, als ein wichtiger Vorreiter gesehen. Das Bemühen, Innovationen nicht abzuwürgen, ist deutlich.“

Aber gibt es auch gute Seiten? Unbedingt, meint Köszegi. Anwendungen von Künstlicher Intelligenz eigen sich, um Wissen, das in Unternehmenn in Geschäfts- und Projektberichten schlummert, ans Tageslicht zu holen und für alle zugänglich zu machen. Außerdem: „Es gibt zahlreiche Regulatory Sandboxes“ berichtet sie. Und warnt: „Ob das ausreichend ist das wissen wir heute nicht.“

Über Sabine T. Köszegi

Foto von Sabine Köszegi.
Sabine T. Köszegi. © Luiza Puiu

Sabine T. Köszegi ist Professorin für Arbeitswissenschaft und Organisation und leitet den gleichnamigen Fachbereich an der Technischen Universität Wien. Sie ist Mitglied des Fachbeirats für Ethik der Künstlichen Intelligenz der UNESCO-Kommission Österreich, forscht in internationalen Forschungsgruppen und leitet das MBA-Programm Innovation Entrepreneurship & Digitalisation. Sie ist außerdem Koordinatorin des Doktoratskollegs Trust in Robots an der TU Wien. Seit 2017 ist sie Ratsvorsitzende des Österreichischen Rats für Robotik und Künstliche Intelligenz (AI) des Bundesministeriums für Verkehr, Innovation und Technologie sowie Mitglied des AI Advisory Boards der Bundesregierung in Österreich.

Mehr vom Pragmaticus