EU-Parlament will auch Chat-GPT regulieren
Das Europaparlament will die sog. “Künstliche Intelligenz” an die Leine legen. Auch das vielbeachtete neue Chat-GPT soll reguliert werden – nur wie?
Die Verhandlungsführer des Binnenmarkt- und Innenausschusses stimmten dafür, den “Artificial Intelligence Act” an die nächste Verfahrensstufe weiterzuleiten. Einzelheiten werden zusammen mit den Mitgliedsstaaten ausgearbeitet werden müssen.
Die Vorschläge sehen vor, dass KI-Systeme nach ihrem Risikoniveau eingestuft werden. Systeme mit hohem Risiko würden zwar nicht verboten. Bei ihrem Einsatz wäre jedoch ein hohes Maß an Transparenz vorgeschrieben.
Die neuen Regeln sollen auch für Chat-GPT und andere generative Systeme gelten. Allerdings räumen Experten aus dem Parlament ein, dass sie von der Entwicklung überrascht wurden – und dass die neuen Chat-Bots nicht in ihr Risikoschema passen.
Vielleicht sollten sie bei der “KI” mal nachfragen, was man besser machen kann? Chat-GPT weiß ja auf alles eine Antwort…
Mehr zu “KI” hier
KK
28. April 2023 @ 17:04
Man kann KI nicht regulieren oder „an die Leine legen“ – nur die Nutzer und Anwender, theoretisch jedenfalls.
Aber wir wissen doch, dass die Menschheit mehr als genug Exemplare hervorgebracht hat, die sich um Regeln nicht schert. Und das wird in solchen Massen und ablaufen, dass irgendweche Strafverfolger da gar nicht hinterherkommen werden, weil es in viel zu vielen Händen – nämlich nahezu allen – sein wird. Hinzu kommen die Probleme der Nachverfolgbarkeit im www.
Wer soll die Einghaltung solcher Regeln überwachen? Die Dienste etwa, die sich selbst jetzt schon an keinerlei Regel halten?
Thomas Damrau
28. April 2023 @ 15:49
Es sagt viel über den Zustand der EU aus, wenn ich auf https://european-union.europa.eu “Artifical Intelligence Act” in das Suchfeld eingebe und dann als Antwort “Suchmaschine kaputt” bekomme.
Auch der Server https://eur-lex.europa.eu ist im Eimer. Sicher der Russe!
Folglich musste ich mich mit einer etwas älteren Version begnügen ( https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf ).
Ich hoffe mal, dass in den 1 1/2 Jahren, die seit der Veröffentlichung des obigen Papiers vergangen sind, inhaltliche Fortschritte gemacht wurden. Eine Risiko-Pyramide hinzumalen und dann für jede Pyramidenebene ein paar Spiegelstriche für “ganz pfui”, “schon pfui”, “nicht ganz so pfui” und “geht schon” aufzulisten, ist einfach unterkomplex.
Wer über Risiko reden möchte, muss erst einmal eine Gefährdungsanalyse durchführen.
Was ist gefährdet?
– Leib und Leben (selbstfahrende Autos, Drohnen, die selbst entscheiden dürfen, ob sie schießen, …)
– Freiheit (Social Scoring, Bewertung der Kreditwürdigkeit, Progronosen über künftiges Sozialverhalten – z.B. für Freilassung auf Bewährung)
– Meinungsfreiheit (automatische Zensur, Überwachung, Gesichtserkennung)
– Privatsphäre (Datensammeln und Profile erstellen)
– Demokratische Prozesse und öffentliche Ordnung (Fake-News, profilbasiertes Targeting von Wählergruppen, automatisierte Aufstachedlung zu Gewalt)
– Urheberrechte (durch Abernten der Web-Inhalte beim Training einer KI)
Durch welche Techniken entsteht die Gefährdung?
…
Welche Schutznahmen können diese Techniken einhegen (und damit entschärfen)?
…
Wer nur in Ansätzen versucht, das Thema Risiko durch KI zu strukturieren, sieht, dass eine eindimensionale Aufteilung in vier Risikoklassen, bei der Entscheidung, wie mit einem KI-Produkt umzugehen ist, nicht weiterhilft.
ebo
28. April 2023 @ 16:28
Hier stellt einer ähnliche Fragen: https://sectank.net/magazin/2023/04/28/umgang-mit-den-risiken-von-generativer-ki-wer-sorgt-fuer-regulierung/
KK
28. April 2023 @ 14:55
Sobald man in eine KI eingreift und diese wie auch immer “regulieren” möchte, ist sie genau das ja eben nicht mehr – ein autarkes, selbstständig lernendes neuronales Netz, also das, was man gemeinhin “KI” nennt, nämlich.
ebo
28. April 2023 @ 15:09
Sobald man unspezifisch von “KI” spricht, räumt man ein, das es an “MI” fehlt – menschlicher Intelligenz 😉
Kalle
30. April 2023 @ 08:08
Gibt es nur im Märchen: „autarkes, selbstständig lernendes neuronales Netz“. In KI wurde die IT umbenannt, damit sich smarte Gerätebediener beim Daddeln besser fühlen. Computer können nur addieren und Mustervergleiche (mit Rundungsfehlern). Für alles andere sitzen Hundertausende kleine billige menschliche „Dienstleister“ in irgendwelchen Boxen der Dritten Welt.
Die Bots (=Robots) gibt es schon lange. Sie dienen der Automatisierung – der Auslagerung in Billiglohnländer. Darüber redet aber niemand.
Auch der Einsatz von Sprachmodulen im Dienstleistungssektor ist nicht neu oder „überraschend“. Siehe Karlchen von 1979 -> https://www.spiegel.de/wirtschaft/kluges-karlchen-gibt-auskunft-a-433c265a-0002-0001-0000-000040348677. Habe ich x-mal genutzt. Karlchen bot mehr wirklichen Mehrwert – nämlich Zugverbindungen – als viele Endlos-Bandschleifen heute.
Was also soll am Chat-Bot im Unterschied zum Bot neu und „überraschend“ sein? Dass die EU meint, die Kinder werden nun doch „intelligent, neuronal“ vom Storch gebracht?