KI - Probleme der Technologie in der Zukunft
K
I, Künstliche Intelligenz, ist in aller Munde. Sie bringt enormen Fortschritt und Erleichterung im Alltag, weckt bei einigen aber auch echte Sorgen. Doch wie wahrscheinlich sind gravierende negative Folgen und eine tatsächliche Bedrohung menschlicher Existenz durch KI?
Auch ein offener Brief von Technologieentwicklern wie Elon Musk, aber auch Yuval Noah Harari, Historiker und Autor, indem eine Pause der KI-Entwicklung gefordert wird, trägt dazu bei, dem Thema KI nicht nur positiv gegenüberzustehen.
Auch das Europäische Parlament nimmt sich der Problematik an und widmet sich der Regulierung von KI. In Planung sind Gesetze, die Systeme verbieten, welche beispielsweise manipulativ auf den Menschen wirken oder biometrische Daten sammeln und auf deren Basis Datenbanken für Gesichtserkennung erstellt werden. Außerdem soll es ein Ende für KIs geben, die in der Lage sind, Wähler:innen politisch zu beeinflussen.
Zuerst zur Faktenlage der KI: KI steht für Künstliche Intelligenz und das ist schon die erste Hürde, denn während „künstlich“ noch relativ leicht zu definieren ist, gibt es für Intelligenz keine klare Definition.
Künstliche Intelligenz ahmt menschliche Tätigkeiten wie zum Beispiel das Denken nach. Doch diese Tätigkeiten müssen die Maschinen erst einmal durch maschinelles Lernen oder durch Deep Learning lernen. KIs beruhen auf Algorithmen, also auf programmierten Schrittabfolgen zur Lösung eines Problems. Mit genügend Daten kann die Maschine dann auch selbständig Neues lernen. Dann ahmt sie den Menschen nicht mehr nach, sondern ihre Tätigkeiten beruhen auf eigenem Lernen. Weiters gibt es einen Unterschied zwischen der schwachen und der starken KI. Schwache KI ist heutzutage im Alltag bereits integriert und hat kein Bewusstsein. Starke KI gibt es jetzt (Stand: 2023) noch nicht. Sie ist dem Menschen ähnlich und besitzt über ihrer leistungsstarken Denkweise auch noch emotionale Intelligenz.
Soweit so gut, aber was sind nun die Probleme, die die KI in sich birgt? Im bereits erwähnten Brief des FLI (Futur of Life Institute) werden Bedenken geäußert, da die KI-Systeme derzeit sehr schnell entwickelt werden und die Entwickler:innen hinter den Systemen selbst nicht ganz verstünden, wie diese Systeme funktionieren. Das FLI selbst sieht zwei Möglichkeiten wie die KI die Menschheit bedrohen kann, wobei vorab sehr wohl die Unwahrscheinlichkeit betont wird, dass KI „böse“ werden kann.
Trotzdem: Zum einen kann KI natürlich programmiert werden, um einen Schaden anzurichten. Dann spricht man von autonomen Waffen. Damit geht ein Kontrollverlust des Menschen einher. Zum anderen besteht bei KI das Problem, dass sie oftmals mehrere Lösungswege unterschiedlicher Qualität und Schnelligkeit berechnet. Entscheidet sie sich für die Schnellere, führt das wiederum zur Vernachlässigung der Sicherheit. Das ist am besten an einem Beispiel erklärt: Man befiehlt einem autonomen Fahrzeug auf dem schnellstmöglichen Weg zum Flughafen zu fahren, dann wird das Auto das auch so machen, aber vielleicht ist der schnellstmögliche Weg durch Probleme behaftet, sodass man in Situationen kommt, in die man gar nicht wollte, das Auto macht nicht was man will, sondern was man ihm befohlen hat.
Was sagt die KI selbst dazu?
ChatGPT, ein Chatbot des US-Softwareunternehmens OpenAI, wirft auf die Frage „Kann künstliche Intelligenz eine Bedrohung für die Menschheit darstellen?“ folgende Antwort aus: „Die Frage, ob künstliche Intelligenz eine Bedrohung für die Menschheit darstellen kann, ist ein viel diskutiertes Thema in der Wissenschaft und Technologie. Es gibt sowohl Befürworter als auch Skeptiker dieser Idee.“ Eine nahezu menschliche Aussage …