Ihr Dolo Plus Vorteil:
Diesen Artikel jetzt anhören

ChatGPT & Co: „Das EU-Gesetz könnte strenger sein“…

…erklärt die Rechtswissenschafterin Clara Rauchegger im Interview. Man müsse allerdings auch die Vorteile sehen. 

Sie merke schon, dass sie im Moment mehr Arbeit habe und auch die Medienanfragen würden sich häufen, schmunzelt Clara Rauchegger im Interview mit Dolomitenstadt. Kein Wunder, schließlich hat sich die Rechtswissenschafterin, deren Nachname ihre Osttiroler Wurzeln verrät, unter anderem genau auf jenen Bereich spezialisiert, der gerade in aller Munde ist: Künstliche Intelligenz und der Umgang damit. 

Am Digital Science Center der Uni Innsbruck beschäftigt sich die Juristin gemeinsam mit einem interdisziplinären Team aus Informatikern, Philosophen, Datenspezialisten und weiteren Wissenschafter:innen aus den verschiedensten Bereichen mit den Gefahren, aber auch dem Potenzial Künstlicher Intelligenz. 

Im Interview spricht sie darüber, wie weit der aktuelle Gesetzesentwurf der EU fortgeschritten ist, was es bedeutet, dass es im Moment keine konkrete gesetzliche Grundlage für den Umgang mit KI gibt und dass man nicht immer nur die Gefahren sehen dürfe: „Auch wenn aus juristischer Sicht der Blick meist auf die Abwendung von Gefahren gerichtet ist“, meint sie.

Clara Rauchegger beschäftigt sich als Juristin am Digital Science Center in Innsbruck mit der Zukunft des Rechts - insbesondere was den digitalen Raum betrifft. Foto: Dolomitenstadt/Huber

„AI Act“, das Regulierungsprogramm der EU für KI-Systeme ist derzeit in Arbeit, in Kraft treten soll es erst 2025, schon jetzt sagen die Verantwortlichen selbst, dass Teile davon schon wieder überholt sind. Wie weit hinkt die EU in der Gesetzgebung den technologischen Entwicklungen hinterher? 

Grundsätzlich ist zu sagen, dass man bei Gesetzen für den digitalen Bereich immer darauf achtet, diese möglichst technologieneutral und flexibel zu gestalten. Der Entwurf für die Grundstruktur des neuen KI-Gesetzes ist nicht schlecht und es wird sich vermutlich auch nicht mehr viel daran ändern. 

Es handelt sich dabei um ein Pyramidensystem: In der Spitze sind jene Anwendungen Künstlicher Intelligenz angesiedelt, die die EU und ihre Mitgliedsstaaten gänzlich verbieten wollen: Etwa „Social Scoring“, wie es in China in einigen Regionen bereits erprobt wird oder auch die biometrische Personenerkennung via Kameras im öffentlichen Raum zu Strafverfolgungszwecken, sowie die Speicherung und Verwertung dieser Daten. Bei Letzterem sind sich zwar noch nicht alle Mitgliedsstaaten einig, weil solche Anwendungen beispielsweise Vorteile in der Terrorismusbekämpfung und Personenfahndung bringen würden, allerdings setzt das voraus, die Daten aller Menschen speichern zu müssen. So wie es derzeit ausschaut, ist ein Verbot wahrscheinlicher.

In der zweiten Ebene sind sämtliche Anwendungen angesiedelt, die sensible Lebensreiche betreffen: Etwa, wenn KI bei der Strafverfolgung, einer Asylentscheidung, der Bewertung der Kreditwürdigkeit, in Bewerbungs- oder Aufnahmeverfahren eingesetzt wird. Das passiert zum Teil jetzt schon, mit Inkrafttreten des KI-Gesetzes wird es dafür bestimmte Vorgaben geben: So muss ein Unternehmen beim Einsatz von KI in diesen Bereichen eine umfassende Risikobewertung vornehmen und die verwendeten Daten müssen repräsentativ, vollständig und korrekt sein, um algorithmische Diskriminierung zu vermeiden. 

In den USA gibt es Beispiele aus dem Strafverfolgungsbereich, wo KI eingesetzt wurde, um zu entscheiden, ob jemand frühzeitig aus dem Gefängnis entlassen wird: Schwarze Männer hatten tendenziell die schlechtesten Karten. Das heißt aber nicht, dass die Software absichtlich diskriminierend programmiert wurde, die Datensätze spiegeln eben die Ungleichbehandlung wider, die es in der realen Welt schon gibt.

Oft ist es selbst für die Entwickler nur mehr schwer nachvollziehbar, welche Daten für die Berechnung herangezogen wurden. 

Des Weiteren besteht im Hochrisikobereich eine Informations-, Dokumentations- und Transparenzpflicht. Es muss immer offengelegt werden, wenn bestimmte Entscheidungen KI-basiert getroffen werden und auf Nachfrage auch nachvollziehbar sein, nach welchen Kriterien der Algorithmus gearbeitet hat. Das ist die sogenannte „Black-Box-Problematik“: Oft ist es selbst für die Entwickler nur mehr schwer nachvollziehbar, welche Daten für die Berechnung herangezogen wurden. 

Wichtige Entscheidungen dürfen im Hochrisikobereich auch nicht gänzlich auf die KI ausgelagert werden, es besteht eine menschliche Aufsichtspflicht. Forschung zur „Human-Computer-Interaction“ zeigt jedoch, dass wenn die KI ein Ergebnis auswirft, sich der Mensch selten dagegen entscheidet. Menschen haben eine recht hohe Technikgläubigkeit, das kennt man auch als das „The-Computer-Says-No“-Problem. 

Die dritte Stufe wird als „geringes Risiko“ eingestuft, da fallen automatisierte Mailantworten, Chat-Bots, KI-unterstützte Hotlines usw. hinein, aber auch die sogenannten „Deepfakes“. Für diese Bereiche besteht eine Kennzeichnungspflicht. Es muss für mich als Privatperson klar erkenntlich sein, wenn ich mit einer KI kommuniziere, Deepfakes sollten in Zukunft entsprechend als solche gekennzeichnet sein. 

In die unterste Ebene der Pyramide fallen sämtliche andere KI-basierte Anwendungen, hier gibt es auch keine Regelungen mehr. Es steht den Unternehmen frei, die Vorschriften, die für die anderen Bereiche gelten, freiwillig anzuwenden. Der EU-Kommission ist es wichtig, dass die Pyramide nach unten auseinandergeht und die unterste Stufe die breite Basis abbildet. Man will nicht alles einschränken, sondern nur jene Bereiche, die als riskant oder sensibel gelten.

Geht es nach dem derzeitigen Entwurf für das neue EU-Gesetz zur Regulierung Künstlicher Intelligenz, werden die Anwendungen in vier Risikostufen unterteilt. Das Problem: ChatGPT passt nicht ganz in den Raster.

Die aktuelle Problematik ist, dass das Pyramidensystem entwickelt wurde, bevor Anwendungen wie ChatGPT groß geworden sind. Nun wird diskutiert, auf welcher Ebene solche Programme eingeordnet werden. Wahrscheinlich wird man gewisse Anwendungsbereiche von ChatGPT auf der zweiten, andere auf der dritten Ebene ansiedeln. Sollten sich die Mitgliedsstaaten jetzt gegen die Pyramide aussprechen, weil generative KI da nicht so gut hineinpasst, müsste man alles von vorne starten. Meiner Überzeugung nach wird sich an der Grundstruktur aber nicht mehr viel ändern.

Gibt es einen Bereich im Gesetzesentwurf, den man noch ausbauen könnte? 

Mira Murati, CTO von OpenAI, hat vor Kurzem erklärt, dass das Unternehmen eine technische Sperre für Deepfakes von Personen, die im öffentlichen Leben stehen, eingebaut hat. Man könnte andenken, ob gewisse Inhalte nicht grundsätzlich für alle verboten werden sollten, allerdings ist das immer ein schmaler Grat zwischen dem Schutz vor Falschinformationen und Zensur. Das könnte in autokratisch regierten Staaten schnell zum Problem werden. Deshalb hält man sich vermutlich in der EU derzeit mit derartigen Verboten auf gesetzlicher Ebene zurück. Informationsfreiheit, Meinungsfreiheit und auch die Freiheit der Kunst müssen ebenfalls als Grundwerte gewahrt werden.

Wenn der Entwurf grundsätzlich so bleibt, bis wann wird das neue Gesetz voraussichtlich zur Anwendung kommen? 

Der Gesetzgebungsprozess ist noch im Fluss, das EU-Parlament und die Mitgliedsstaaten können noch Änderungen vornehmen und müssen erst zustimmen. Die Position der Mitgliedsstaaten liegt seit Ende 2022 vor, das war aber kurz bevor ChatGPT an Relevanz gewonnen hat, das heißt, es kann schon sein, dass sich noch einmal etwas ändert. Es gab allerdings auch gerade letzte Woche eine erste politische Einigung im Parlament. 

Möglicherweise wird das Gesetz sogar noch im heurigen Jahr fertig, bis es zur Anwendung kommt, wird es dann aber trotzdem noch eine Weile dauern. Schließlich muss man auch den Softwareunternehmen eine Übergangsfrist zugestehen, in der sie ihre Anwendungen an die gesetzlichen Regelungen anpassen.

Viele KI-basierte Anwendungen werden schon jetzt eingesetzt, etwa bei der Kreditvergabe oder in Bewerbungsprozessen. Auf welchen Gesetzen beruhen diese Abläufe derzeit? 

Für KI gibt es aktuell kein spezifisches Gesetz, das geplante EU-Gesetz wird auch weltweit gesehen die erste, so umfassende Regulierung. Deshalb werden die aktuellen Diskussionen rund um das Gesetz auch international genau beobachtet. Jedes KI-Unternehmen wird sich daran halten müssen, unabhängig davon, ob die Firma ihren Sitz in der EU hat oder nicht: Es betrifft jeden, der einem Menschen in der EU ein KI-basiertes Programm anbietet. 

Für KI gibt es aktuell kein spezifisches Gesetz, das geplante EU-Gesetz wird auch weltweit gesehen die erste, so umfassende Regulierung.

Da es derzeit keine Gesetzesgrundlage gibt, macht man das, was man im rechtlichen Bereich immer macht, solange es keine anderen Regulierungen gibt: Man versucht, jene Gesetze, die man hat, auf die neue Situation umzulegen. Als Grundlage werden dafür momentan das Urheberrecht und das Datenschutzgesetz herangezogen. 

Wie wird das Urheberrecht auf KI-generierte Inhalte angewendet, wenn urheberrechtlich geschütztes Material verwendet wurde und wer gilt als Urheber eines solchen Werkes? 

Klar ist, dass KI nach den aktuell geltenden Fassungen des Gesetzes kein Urheberrecht haben kann, das kann nur ein Mensch. Ein anderes Problem ist, wenn die KI mit urheberrechtlich geschütztem Material trainiert wurde. Das EU-Parlament hätte gerne, dass zumindest offengelegt werden muss, wenn geschütztes Material verwendet wird. Längerfristig sollte es dann so sein, dass man Lizenzen erwerben muss, um geschütztes Material zu verwenden. So wie es jetzt schon in anderen Bereichen der Fall ist. 

In den USA gibt es meines Wissens nach zwei laufende Urheberrechtsklagen, in einem Fall von Getty Images, in einem anderen Fall von drei Künstler:innen. Die Gerichtsurteile stehen allerdings noch aus, deswegen ist es aktuell schwer einzuschätzen, wie das mit dem Urheberrecht in Zukunft gehandhabt wird. 

Sie beschäftigen sich auch damit, wie KI eingesetzt werden kann, ohne dass sie menschliche Grundrechte verletzt. Wie funktioniert das bzw. was braucht es dafür? Glauben Sie, dass die Pyramide da ausreicht? 

Das neue Gesetz wird nicht alle Probleme lösen, aber es ist ein guter Start. KI kann ja auch angewendet werden, um Grundrechte zu fördern oder positive Dinge zu erreichen. Biometrische Gang-Analysen haben beispielsweise den Nachteil, dass man jeden Menschen automatisch identifizieren kann und sind deshalb ganz oben in der Pyramide verortet, können aber gleichzeitig in der Früherkennung von Parkinson und anderen neurologischen Erkrankungen eingesetzt werden. Auch kann man durch den Einsatz von KI Menschenwürde erhalten, etwa wenn KI-Roboter ältere Menschen unterstützen und es so möglich ist, länger ohne Fremdbetreuung in den eigenen vier Wänden zu wohnen. 

Selbes gilt, wenn Exoskelette Menschen ermöglichen, Bewegungsfähigkeit zurückzuerlangen, die sie durch eine Krankheit oder einen Unfall verloren haben. Auch Informations- und Recherchemöglichkeiten werden durch den Einsatz von KI erweitert. 

Als Juristin muss man immer ein bisschen aufpassen, dass man nicht nur die Gefahren sieht, sondern auch das Potenzial. Deshalb ist es wichtig, dass man gerade in diesem Bereich interdisziplinär zusammenarbeitet, wie es hier am Digital Science Center der Uni Innbruck geschieht, aber auch auf EU-Ebene.

Manche Expert:innen meinen, die Entwicklung der KI würde nun wieder ins Stocken geraten, einige Entwickler:innen haben die Gesetzgeber aufgefordert, eine Entwicklungspause zu verordnen. Was glauben Sie, wie es weitergeht? 

Aus technischer Sicht wage ich da keine Prognose, im rechtlichen Bereich wird sich hier in den nächsten Jahren allerdings viel tun. Am Anfang war das Bewusstsein für die Gefahren noch nicht so da, jetzt bestehen allerdings überhaupt keine Zweifel mehr, dass es Gesetze braucht. Gerade beim EU-Gesetz darf man aber auch die Vermutung wagen, dass das Gesetz viel strenger sein könnte, würde nicht so viel Lobby-Arbeit betrieben werden. 

Anna Maria Huber unterrichtet an der International School in Innsbruck und schreibt nicht nur für dolomitenstadt.at sondern auch für die Straßenzeitung 20er. Annas Stärken sind penible Recherchen und die Fähigkeit, komplexe Inhalte in klare und verständliche Artikel zu verwandeln.

Das könnte Sie auch interessieren

Großes Kino: KI entwirft Osttiroler Leinwandhelden!

Wenn Ihnen die Gesichter in dieser Story bekannt vorkommen, dann ist das natürlich reiner Zufall. 

23

3 Postings

frin
vor 12 Monaten

Es ist wichtig die KI-Entwicklung zu regulieren, um ethische und moralische Standards festzulegen. Allerdings sollte eine zu strenge Regulierung vermieden werden, um das Potenzial der KI nicht zu hemmen und Innovationen zu behindern, die unser Leben und unsere Wirtschaft verbessern könnten.

Eine zu strenge Regulierung könnte auch dazu führen, dass kleine und mittlere Unternehmen aus dem Markt gedrängt werden, da sie nicht über die Ressourcen verfügen, um die neuen Standards umzusetzen. Dies könnte zu einer Einengung des Wettbewerbs und höheren Preisen für Verbraucher führen. Leider hat die EU in der Vergangenheit ohne Einbeziehung von Experten und der Wirtschaft immer wieder negativ reguliert bzw. bewusst überhört. Die Umsetzung der DSGVO-Richtlinien und der Cookierichtlinien waren beispielsweise sehr umständlich und haben zu Nachteilen für Unternehmen und Kunden geführt. Entsprechende Vorteile konnten meiner Meinung nach die Nachteile nicht aufwiegen, zumal man auch sehr kritisch betrachten muss wie weich im Nachhinein Sanktionen bei Verletzung der DSGVO Richtlinien umgesetzt wurden. Möglicherweise ist die EU aber auch schlichtweg mit technischen Themen überfordert, sodass genau dort die KI selbst zur Entwicklung von Standards und Leitlinien beitragen kann, um sicherzustellen, dass ihre Anwendung in Übereinstimmung mit unseren Werten erfolgt, ohne das es zu nennenswerten Nachteilen kommt.

Ich persönlich finde die Entwicklung von KI´s sehr interessant und bin gespannt, wie es weitergehen wird. Bald wird es möglich sein, dass routinemäßige Sachbearbeitung fast vollständig von der KI erledigt werden kann und der Mensch lediglich eine Kontrollfunktion übernimmt. Entsprechende Funktionen wurden und werden immer intensiver ausgerollt. Die KI ist in der Lage, auf Ein-Satz Anweisung umfangreiche, professionelle und vor allem individuelle Texte zu schreiben. Und so schräg das jetzt auch klingen mag, aber der Empfänger könnte dann wiederum eine KI anweisen den Text zu analysieren, zu reduzuieren und aufzubereiten, um möglichst keine Zeit zu verlieren. Obwohl es verlockend wäre mit minimaler Anstrengung maximale Ergebnisse zu erzielen, sollte bedacht werden, dass die Nutzung von KI in der Arbeitswelt auch einige Herausforderungen mit sich bringen kann. Eine mögliche Auswirkung könnte sein, dass Angebot und Nachfrage nur noch von KIs gesteuert werden und die Komplexität für den Menschen so groß wird, dass er sich nicht mehr traut einzugreifen und die KI fragen muss, ob er diese Woche noch einen kleinen finanziellen Bonus erhält, um sich einen Sack Kartoffel kaufen zu können.

 
0
1
Sie müssen angemeldet sein, um ihre Stimme für dieses Posting abzugeben.
    Gertrude
    vor 12 Monaten

    Für mich, eine sehr gefährliche Technologie. Chat GPT hat binnen Monaten , ohne Aufforderung, mehrere Sprachen selbständig erlernt. Wenn sich das so entwickelt, dass KI ausser Kontrolle gerät, dann gute Nacht.

     
    4
    1
    Sie müssen angemeldet sein, um ihre Stimme für dieses Posting abzugeben.
      frin
      vor 12 Monaten

      Halbwissen kann zu falschen Schlussfolgerungen führen. Es ist wichtig zu wissen, dass ChatGPT nur das lernt, was von der KI gefordert wird und dabei folgt sie klaren Regeln. Es geschieht nichts ohne Absicht, sie kann nicht selbstständig Handlungen ausführen. Dies gilt auch für das Erlernen von Sprachen, bei dem die Entwickler genau festlegen, welche Sprachen die KI lernen soll. Zum Beispiel wurden bei der deutschen Sprache als Grundlage unter anderem alle Wikipediaartikel verwendet, alleine das ist schon ein enormer Datensatz aber bei weitem nicht alles. Weltweit gibt es ~60 Mil. Wikiartikel und das sind lediglich einmal 5% der Gesamtmenge des Trainingsmaterials.

      Die letzte ChatGPT Version hatte in etwa 175 Mrd. Parameter, jede einzelne Schraube kann bei Antworten gewichtet werden. Zur aktuellen Version gab es hier keine offiziellen Infos, man spekuliert aber mit ~100 Billionen Parametern. Maschinen reagieren ausschließlich auf eine Programmierung und die Daten auf die sie zugreifen können. Sie sind auf den Programmcode und die Algorithmen beschränkt und können nur innerhalb dieser Vorgaben arbeiten, ein "außer Kontrolle" geraten, eine Maschine welche die Macht an sich reißt, gehört nun wirklich in den Bereich der Science Fiction. Das heißt jedoch nicht, dass Missbrauch oder Fehlverhalten durch menschliche Nutzer ausgeschlossen sind.

      Zusammenfassend würde ich sagen, dass KI-Tools lediglich Werkzeuge sind und man zukünfitg lernen muss damit verantwortungsvoll umzugehen. Entsprechend kann und sollte man die Ergebnisse von KI-Tools auch kritisch hinterfragen, so auch die aktuelle Zusammenarbeit mit ChatGPT. Eine Kombination aus Hausverstand, eigenem Wissen und Recherche und den KI-Fähigkeiten.

       
      0
      2
      Sie müssen angemeldet sein, um ihre Stimme für dieses Posting abzugeben.
Ein Posting verfassen

Sie müssen angemeldet sein, um ein Posting zu verfassen.
Anmelden oder Registrieren