ENS-Professor forscht zur rechtlichen Kontrolle von Künstlichen Intelligenzen wie ChatGPT

„ChatGPT“ ist zurzeit in aller Munde und trendet seit Tagen auf Twitter – wird also besonders in Politik und Medien heiß diskutiert. Elon Musk nennt das Programm in einem Tweet-Beitrag „scary good“ und behauptet, man sei nicht weit entfernt von einer gefährlich starken Künstlichen Intelligenz (KI). An der European New School of Digital Studies (ENS) forschen Wissenschaftlerinnen und Wissenschaftler im Rahmen des Projektes SKILL zur konkreten Entwicklung eines generativen KI-Modells. Doch inwieweit fordern Künstliche Intelligenzen den Gesetzgeber heraus, der sie regulieren will? Dazu leistet Prof. Dr. Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an der ENS, Pionierarbeit.

tweets-trends

Screenshot vom 23. Januar 2023 Quelle: Twitter


Herr Prof. Dr. Hacker, worum dreht sich die Debatte in Sachen Künstlicher Intelligenz und insbesondere ChatGPT in Deutschland und der EU aktuell?

In Deutschland und der EU hat die Debatte um Künstliche Intelligenz, wie im Grunde auf der ganzen Welt, zwei Pole. Einerseits möchte man die spezifischen Risiken von KI (zum Beispiel Intransparenz oder Diskriminierung) adäquat regulieren. Andererseits will man natürlich die fantastischen Möglichkeiten dieser Technologie auch nutzen. Das zeigt sich besonders an Modellen wie ChatGPT. Wir erleben hier gerade in Echtzeit die Geburt einer neuen Generation von KI-Modellen, die man in der Fachwelt large generative models nennt. Anders als ihre auch schon sehr erfolgreichen Vorgänger analysieren sie nicht nur Daten und finden darin neuartige Muster, sondern sie generieren selbst Text, Bilder, Videos, oder auch Kunst auf menschlichem Niveau. Die Konsequenzen dieses Umbruchs sind im Einzelnen noch gar nicht abzusehen. Sicher ist, dass diese Technologie die Art und Weise, wie wir schreiben, kreieren und kommunizieren, aber auch unterrichten oder Prüfungen abhalten, massiv verändern wird.

philipp-hacker

Prof. Dr. Philipp Hacker; Foto: Heide Fest


In einem Beitrag für den Verfassungsblog haben Sie und zwei weitere Forschende erstmals die rechtliche Dimension von ChatGPT und ähnlichen Modellen genauer beleuchtet. Was sind dabei Ihre Überlegungen gewesen?

Es sind drei Aspekte. Erstens sind die Regeln, die auf EU-Ebene gerade für KI-Systeme diskutiert werden, für ChatGPT nicht ausgelegt. Gerade für diese großen generativen Modelle sind sie sehr restriktiv. Letztlich würden sie wahrscheinlich dazu führen, dass nur ganz wenige, sehr große, hauptsächlich US-amerikanische oder chinesische Firmen diese Technik entwickeln und in die Anwendung bringen können.

Zweitens haben KI-Modelle ihre dunklen Seiten. Mit ihnen lassen sich in Sekundenschnelle Hasskampagnen oder Fake News produzieren, die unheimlich elegant und überzeugend geschrieben sind. Den für die maximale Vervielfältigung notwendigen Code liefern die Modelle auch gleich mit. Bislang werden die generierten Inhalte leider nur unzureichend überprüft. Das macht ChatGPT und Konsorten zum perfekten Werkzeug für die massenhafte Erstellung von hochglanzpolierten, scheinbar faktenreichen, aber zutiefst verdrehten Fake News.

Sollen nicht gerade deshalb diese KI-Modelle reguliert werden?

Unsere Sorge ist, dass das gerade eben von der EU verabschiedete Hauptinstrument zur Begegnung von Hass und Fake News im Netz, der Digital Services Act, aus bestimmten rechtlichen Gründen auf die neuen KI-Modelle nicht anwendbar ist. Hier schlagen wir eine Erweiterung vor, um diese einzubeziehen.

Und welches ist der dritte Aspekt?

Die ökologische Nachhaltigkeit. KI-Modelle und digitale Technologie insgesamt haben einen CO2-Fußabdruck, der – je nach Berechnung – den des globalen Flugreiseverkehrs schon gegenwärtig übertreffen könnte. Und die Kurve geht leider steil nach oben; gerade das Training von großen Modellen verbraucht viel Strom. Auf lange Sicht sind diese allerdings ökologisch günstiger als eine Vielzahl von kleinen Modellen. Hier muss man regulatorisch sicherstellen, dass neben der Leistungsfähigkeit des Modells auch dessen ökologische Folgen stärker in Betracht gezogen werden.

Meist sind Behörden etwas schwerfällig, wenn es um Digitalisierung geht. Wie kann da eine Regulierung gelingen?

Viele Behörden bemühen sich gerade durchaus, hier Kompetenzen zu erwerben, auch wenn natürlich noch viel zu tun ist. Gerade an der Regulierung Künstlicher Intelligenz auf EU-Ebene zeigt sich aber, dass wir einen konstruktiven Dialog zwischen Wissenschaft und Politik brauchen, damit die Abgeordneten überhaupt verstehen, wo die einzelnen Probleme und Potenziale liegen. Ich versuche, in diesem Diskurs auch mitzuwirken. Ob das Ergebnis gut wird, vermag ich kaum zu prognostizieren, die Positionen von Europäischem Rat und Parlament liegen zum Teil noch sehr weit auseinander. Da werden die Verhandlungen dieses Jahr zeigen, in welche Richtung es geht, und ob das europäische KI-Ökosystem adäquat, aber nicht übertrieben reguliert wird.

Was sind dabei aktuell die größten Herausforderungen?

Ich sehe hier drei große Herausforderungen. Zunächst ist da einmal die Definition von KI. Nicht einmal KI-Forscher sind sich da einig. Umso schwieriger ist es, eine rechtlich tragfähige Definition auszuarbeiten. Ich habe hier einige Vorschläge gemacht, die mittlerweile auch breiter aufgegriffen werden (Details in https://arxiv.org/abs/2211.13960). Insgesamt muss man die wichtigsten KI-Systeme erfassen, aber eben nicht jede Excel-Tabelle, in der ein paar automatische Summen stehen.

Zweitens geht es dann ganz konkret um die großen KI-Systeme wie ChatGPT. Für diese sind Sonderregeln angedacht. Sie sollten meiner Ansicht nach so aussehen, dass große KI-Systeme nur dann restriktiv reguliert werden, wenn sie im Einzelfall tatsächlich für kritische Anwendungen genutzt werden – zum Beispiel für die Kandidatenselektion bei Auswahlverfahren. Hier muss man wirklich aufpassen, dass man der Entwicklung von solchen Systemen in Europa keinen Riegel vorschiebt.

Drittens geht es dann um die konkreten Anforderungen an kritische KI-Systeme, zum Beispiel im Bereich Kreditwürdigkeit oder Medizin. Hier stellt sich die Frage, wie die Anforderungen im Einzelnen aussehen sollen und wie garantiert werden kann, dass sie dann auch eingehalten werden.

Wie können die verschiedenen, an der European New School vertretenen, wissenschaftlichen Disziplinen hier zusammenarbeiten und was ist das Besondere an dieser Zusammenarbeit?

Die Erforschung der Regulierung von KI-Systemen, und auch anderer Technologien wie Online-Plattformen, ist notwendig interdisziplinär. Das ergibt sich ja schon aus dem Forschungsobjekt. Es ist ein Glücksfall, dass meine Kolleginnen und Kollegen an der ENS international sehr sichtbar und hochklassig aus ihren jeweiligen fachlichen Perspektiven zu KI und Plattformen forschen. Diese Expertise kann ich zum Beispiel in der Politikberatung einbringen. Aber wir schreiben auch gemeinsame Forschungsartikel, jüngst etwa zur Transparenz von KI-Systemen, zur Qualität von Daten für KI, oder zum Einsatz von KI in Smart Cities. Die ENS hat jetzt eine kritische Masse an Mitarbeitenden erreicht, sodass wir zunehmend national und international wahrgenommen werden. Das macht einfach großen Spaß!

 (HST)

Kontakt

Abteilung für
Hochschulkommunikation
Tel +49 335 5534 4515
presse@europa-uni.de

Sitz:
Hauptgebäude
Räume 114-117, 102

Postanschrift:
Große Scharrnstraße 59
15230 Frankfurt (Oder)