KI: Verantwortung ihrer Entwickler und Nutzer

Letzte Woche habe ich in dieser Kolumne einige der größten Herausforderungen angesprochen, die die Regulierung der künstlichen Intelligenz in Mexiko mit sich bringen wird. Das Problem ergibt sich aus der rechtlichen Definition des Konzepts selbst und seinen Auswirkungen auf die Regelung damit verbundener Angelegenheiten, ist jedoch nicht auf diese Aspekte beschränkt. Eine weitere Herausforderung durch die Regulierung in diesem Bereich ist die Abgrenzung der Verantwortlichkeiten zwischen denen, die KI-Systeme entwickeln, und denen, die sie nutzen.
Künstliche Intelligenz ist so abrupt in unser Leben getreten, dass die Gesellschaft sie manchmal als autonome, anonyme Entität wahrnimmt, die sich selbst aufbaut und entwickelt, als handle sie aus eigenem Willen, ohne die Nabelschnur, die sie mit ihren Schöpfern verbindet, und ohne das Eingreifen des Benutzers, der ihr Anweisungen gibt und Anfragen formuliert. Das Problem bei dieser Konzeption besteht darin, dass es, wenn man sie auf den Rechtsbereich übertragen würde, keine Möglichkeit gäbe, die Verantwortlichen für etwaige durch den Einsatz von KI begangene Rechtsverletzungen zu bestimmen, da Algorithmen keine identifizierbaren Rechtssubjekte sind, die eine Haftung übernehmen können.
Aus diesem Grund muss bei der Regelung dieser Angelegenheit der Umfang der Verantwortlichkeiten sowohl der Urheber als auch der Nutzer sorgfältig analysiert werden, um die Rechtssicherheit sowie die Rechte und Freiheiten beider zu wahren. So wie das Recht die Theorie der Rechtsfiktion entwickelt hat, um die Schaffung juristischer Personen mit ihren jeweiligen Rechtsräumen zu ermöglichen, ist es nun notwendig, die Gesetzgebung anzupassen, um die Entwicklung und Verbreitung künstlicher Intelligenzsysteme zu ermöglichen und zu fördern, ohne die Rechte aller Beteiligten ungeschützt zu lassen.
Was KI-Entwickler betrifft, so liegt es auf der Hand, dass sie auch für die Identifizierung und Auswahl der Datenbanken und Informationen verantwortlich sind, die sie in ihre Systeme oder Plattformen einspeisen. Ein klares Beispiel hierfür sind die in mehreren Ländern entstandenen Streitigkeiten über die mögliche Verletzung von Rechten des geistigen Eigentums, wenn Entwickler von KI-Systemen Datenbanken oder Inhalte im Eigentum Dritter in ihre Systeme integrieren, ohne deren Genehmigung einzuholen oder für die kommerzielle Nutzung zu bezahlen. Was die Implementierung voreingenommener Algorithmen betrifft, müssten alle Einschränkungen sorgfältig geprüft werden, um die Achtung der Meinungsfreiheit zu gewährleisten.
Viele Benutzer haben ein nahezu blindes Vertrauen in die Informationen entwickelt, die sie von KI-Systemen erhalten. Manche nehmen sie als eine Art modernes Orakel wahr, das für die Lösung ihrer Probleme zuständig ist, und zwar so sehr, dass sie auf der Grundlage von Empfehlungen einer KI-Plattform Entscheidungen treffen, die tiefgreifende Auswirkungen auf ihr Leben haben.
Manche Menschen bitten KI um psychologische Unterstützung oder persönlichen Rat zur Lösung einer bestimmten Situation und akzeptieren die Ergebnisse der Beratung sogar über ihr eigenes Urteil hinaus. Laut Dr. Mara Dierssen, Präsidentin des spanischen Brain Council, verringert sich die neurologische Anstrengung, wenn übermäßige Aufgaben an die KI delegiert werden, was auch die Fähigkeit zum kritischen Denken und zur eigenständigen Problemlösung beeinträchtigt (Vademecum, Königliche Nationale Akademie für Medizin Spaniens). Es gibt auch Fälle, in denen Benutzer KI-Tools verwenden, um illegale Inhalte zu erstellen oder zu verbreiten.
In diesen Fällen müssten die KI-Entwickler keine Verantwortung für die Nutzung ihrer Plattformen durch die einzelnen Personen oder für die darauf basierenden Entscheidungen übernehmen. Vielleicht sollte man sie einfach dazu verpflichten, Warnhinweise anzubringen, anstatt die von ihnen generierten Inhalte umfassend zu reduzieren oder zu überprüfen, da dies den Nutzen der KI drastisch verringern würde.
Eleconomista