Kundenservice Veranstaltungen: 02234-9894940
Kundenservice Bücher: 089-21837921
Aboservice Zeitschriften: 089-21837110

Die neue Ausgabe der RDV ist da!

 

  

051-0178893012_490lvfjXBxJdtYg5

 

Editorial

KI-generierte Grenzen der Erkenntnis

Bereits 1921 beschrieb der österreichische Philosoph Ludwig Wittgenstein die begrenzende Wirkung der Sprache: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“ Etwas mehr als ein Jahrhundert später kam ChatGPT auf den Markt und offenbarte, dass nicht nur unsere eigene Sprachgrenze unsere Welt einschränkt. Auch die Grenzen der Sprache unserer KI-Systeme können unsere Gedankenwelt limitieren.

Die Grenzen digitaler Verständniswelt hat der Autor dieses Editorials am eigenen Leib erfahren. Bei der Arbeit an einem wissenschaftlichen Text suchte er eine treffende Definition für „algorithmische Systeme“. Die Durchsicht der Fachliteratur führte zu der Erkenntnis, dass die gängigen Definitionsansätze für die Zwecke seiner Arbeit unpassend sind. Sie legen den Fokus zu stark auf den Einsatz der Systeme zur „Entscheidungsfindung“, obwohl moderne algorithmische Systeme weitaus mehr leisten können. Auf Basis dieser Erkenntnis entwickelte der Autor also eine eigene Definition. Bei der Überarbeitung des Textes einige Tage später kam die Idee auf, ein KI-Sprachsystem nach einer Definition zu fragen, um die vorherigen Erkenntnisse zu überprüfen. Das KI-System lieferte einen zunächst überzeugenden Ansatz. Dabei fiel nicht auf, dass die KI den bewusst ausgelassenen Entscheidungsbegriff mit der ihr eigenen
eloquenten Leichtigkeit wieder eingefügt hatte.

Dem System kann kein Vorwurf gemacht werden: In der Datenbasis ist der Begriff des algorithmischen Systems fest mit dem Begriff der Entscheidung verknüpft, so verlangt es die statistische Auswertung der herkömmlichen Definitionen. Eine Verknüpfung in der angeforderten Definition war daher nur wahrscheinlich; ein Ergebnis narrativer Notwendigkeit, wie es die KI-Forscher Léon Bottou und Bernhard Schölkopf treffend ausdrücken. Trotzdem unterstreicht das Beispiel die Schwäche generativer KI: Sie kann den kreativen Fortschritt zunichte machen, der Kern einer wissenschaftlichen Publikation ist. Zugleich folgte der Autor der Technologie, wie ein naiver Autofahrer, der seinem Navigationsgerät gehorcht, bis er im nächsten See landet.

Diese besonderen Risiken generativer KI-Systeme sind nicht allen bewusst. So hat das ArbG Hamburg kürzlich einen interessanten Vergleich gezogen: ChatGPT sei lediglich eine weitere Webseite, bei welcher Beschäftigte einen Account anlegen. Diese Äußerung nimmt Dr. Markus Wünschelbaum zum Anlass, die Rechtsauffassung des ArbG zum Mitbestimmungsrecht des Betriebsrats bei Vorgaben zur Nutzung generativer KI-Systeme kritisch zu beleuchten. Im abschließenden Bericht aus Brüssel geht der Abgeordnete des Europäischen Parlaments Axel Voss der Frage nach, wie das erklärte Ziel der KI-VO, KI-bedingte Risiken zu mindern, mit der europäischen Wettbewerbsfähigkeit in Einklang gebracht werden kann.

 

Moritz-K-hler_EditorialMoritz Köhler
 
ist Wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medienrecht
an der TH Köln und Doktorand bei Prof. Dr. Rolf Schwartmann.
 
 
 
 
 
 
 
       Editorial KI-generierte Grenzen der Erkenntnis Bereits 1921 beschrieb der österreichische Philosoph Ludwig Wittgenstein... mehr erfahren »
Fenster schließen
Die neue Ausgabe der RDV ist da!

 

  

051-0178893012_490lvfjXBxJdtYg5

 

Editorial

KI-generierte Grenzen der Erkenntnis

Bereits 1921 beschrieb der österreichische Philosoph Ludwig Wittgenstein die begrenzende Wirkung der Sprache: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“ Etwas mehr als ein Jahrhundert später kam ChatGPT auf den Markt und offenbarte, dass nicht nur unsere eigene Sprachgrenze unsere Welt einschränkt. Auch die Grenzen der Sprache unserer KI-Systeme können unsere Gedankenwelt limitieren.

Die Grenzen digitaler Verständniswelt hat der Autor dieses Editorials am eigenen Leib erfahren. Bei der Arbeit an einem wissenschaftlichen Text suchte er eine treffende Definition für „algorithmische Systeme“. Die Durchsicht der Fachliteratur führte zu der Erkenntnis, dass die gängigen Definitionsansätze für die Zwecke seiner Arbeit unpassend sind. Sie legen den Fokus zu stark auf den Einsatz der Systeme zur „Entscheidungsfindung“, obwohl moderne algorithmische Systeme weitaus mehr leisten können. Auf Basis dieser Erkenntnis entwickelte der Autor also eine eigene Definition. Bei der Überarbeitung des Textes einige Tage später kam die Idee auf, ein KI-Sprachsystem nach einer Definition zu fragen, um die vorherigen Erkenntnisse zu überprüfen. Das KI-System lieferte einen zunächst überzeugenden Ansatz. Dabei fiel nicht auf, dass die KI den bewusst ausgelassenen Entscheidungsbegriff mit der ihr eigenen
eloquenten Leichtigkeit wieder eingefügt hatte.

Dem System kann kein Vorwurf gemacht werden: In der Datenbasis ist der Begriff des algorithmischen Systems fest mit dem Begriff der Entscheidung verknüpft, so verlangt es die statistische Auswertung der herkömmlichen Definitionen. Eine Verknüpfung in der angeforderten Definition war daher nur wahrscheinlich; ein Ergebnis narrativer Notwendigkeit, wie es die KI-Forscher Léon Bottou und Bernhard Schölkopf treffend ausdrücken. Trotzdem unterstreicht das Beispiel die Schwäche generativer KI: Sie kann den kreativen Fortschritt zunichte machen, der Kern einer wissenschaftlichen Publikation ist. Zugleich folgte der Autor der Technologie, wie ein naiver Autofahrer, der seinem Navigationsgerät gehorcht, bis er im nächsten See landet.

Diese besonderen Risiken generativer KI-Systeme sind nicht allen bewusst. So hat das ArbG Hamburg kürzlich einen interessanten Vergleich gezogen: ChatGPT sei lediglich eine weitere Webseite, bei welcher Beschäftigte einen Account anlegen. Diese Äußerung nimmt Dr. Markus Wünschelbaum zum Anlass, die Rechtsauffassung des ArbG zum Mitbestimmungsrecht des Betriebsrats bei Vorgaben zur Nutzung generativer KI-Systeme kritisch zu beleuchten. Im abschließenden Bericht aus Brüssel geht der Abgeordnete des Europäischen Parlaments Axel Voss der Frage nach, wie das erklärte Ziel der KI-VO, KI-bedingte Risiken zu mindern, mit der europäischen Wettbewerbsfähigkeit in Einklang gebracht werden kann.

 

Moritz-K-hler_EditorialMoritz Köhler
 
ist Wissenschaftlicher Mitarbeiter der Kölner Forschungsstelle für Medienrecht
an der TH Köln und Doktorand bei Prof. Dr. Rolf Schwartmann.
 
 
 
 
 
 
 
Für die Filterung wurden keine Ergebnisse gefunden!
RDV
Zeitschrift RDV

RA Andreas Jaspers, Prof. Dr. Rolf Schwartmann

Die Fachzeitschrift RDV (Recht der Datenverarbeitung) berichtet aktuell und praxisnah über das Datenschutz-, Informations- und Kommunikationsrecht sowie das entsprechende Computerstrafrecht. Ein Fokus liegt auf rechtspolitische...
179,00 €

Preis für Jahresabonnement Inland

Zuletzt angesehen