Doku #FuckOffAi: Wie die EU mit Künstlicher Intelligenz ihre Grenzen schützen will


Das Thema Künstliche Intelligenz ist heute kaum mehr wegzudenken, viele Unternehmen wie Google mit Gemini, Microsoft mit Copilot und OpenAI mit dem Chatbot ChatGPT befinden sich geradezu in einem Wettrennen um die Eroberung und Etablierung am Markt. Die Tendenz dieser Entwicklung ist stark steigend und so ist es nicht verwunderlich, dass das Thema auch in vielen Lebensbereichen Einzug hält und von Organisationen für ihre Einsatzgebiete genutzt wird.
Eine dieser Organisationen ist die Europäische Kommission mit Sitz in Brüssel unter der Leitung von Kommissionspräsidentin Ursula von der Leyen. Denn auch die EU-Kommission hat in den letzten zehn Jahren massiv in Künstliche Intelligenz investiert, wie eine Recherche von AlgorithmWatch und dem ZDF-Magazin Royale zeigt – so wurden diverse KI-Projekte mit Fördergeldern finanziert.
Auch die EU ist sehr an KI interessiert
Hier wird KI im Zusammenhang mit „Smarten Grenzen“ genannt, und zwar „unter anderem zur Verringerung des Sterbens im Mittelmeer und zur Automatisierung der Kontrollen an den EU-Außengrenzen“. Die Recherche nennt hier verschiedene Projekte wie ODYSSEUS, das herausfinden soll, wie KI Grenzbeamte „entlasten“ und ihre „Produktivität steigern“ kann, METICOS, das die „soziale Akzeptanz“ von Technologien fördern und „abnormales Verhalten“ bei Menschen erkennen soll, und das System EuMigratTool, das Migrationsbewegungen vorhersagen soll.
Darüber hinaus wertet das Projekt HumMingBird sogar die Metadaten von Telefongesprächen aus, um herauszufinden, wo telefoniert wird und wo möglicherweise Migrationsbewegungen stattfinden.
Einen Schritt weiter geht TRESSPASS mit dem System „MMCAT“ (Multi Modal Communication Analysis Tool). Dieses Programm dient der Analyse von „Mikrobewegungen in Bezug auf Mimik, Gestik und Körperhaltung (Lächeln, Blinzeln, Handbewegungen, Neigung usw.)“ anhand von Videoaufnahmen. Aus den Recherchen geht hervor, dass „MMCAT“ dazu diente, die Grenzbeamten bei der Befragung zu unterstützen, um so zu beurteilen, „ob ein Reisender die Wahrheit sagt“.
AlgorithmWatch und das ZDF-Magazin Royale machen die Recherche unter dem Hashtag „FuckOffAI“ auf der gleichnamigen Website öffentlich zugänglich, die weitere Informationen, detaillierte Einblicke in weitere KI-Projekte der EU-Kommission und lesbare PDF-Dokumente enthält. Ein entsprechender Videobeitrag zur Recherche wurde am vergangenen Freitag im ZDF-Magazin Royale mit Moderator Jan Böhmermann ausgestrahlt:
Während KI in vielen Fällen Arbeitsprozesse automatisieren kann, wie z.B. das Zusammenfassen umfangreicher Texte, kreativ-gestalterische Blockaden auflösen kann und oft auch für Unterhaltung sorgt, ist die neue Technologie in einigen Anwendungsbereichen eher kritisch zu sehen. Insbesondere in den oben genannten KI-Projekten lässt sich vieles erahnen, wozu diese Technologie nicht eingesetzt werden sollte.
Ein KI-Regelwerk für Europa liegt bereits vor
Immerhin kommt Bewegung in die Sache: Erst vor wenigen Tagen hat die Europäische Union das weltweit erste Gesetz zur Regulierung von Künstlicher Intelligenz (KI) verabschiedet. Aber ich habe fast die Befürchtung, dass die Entwicklung der künstlichen Intelligenz schon so weit fortgeschritten ist, dass die Gesetzgebung bei der Regulierung weit hinterherhinkt und die Technologie immer schneller in Bereiche vordringt, in denen sie nichts zu suchen hat.
Im AI Act ist festgelegt, dass KI-Anwendungen nicht missbraucht werden dürfen. Dabei wird risikobasiert vorgegangen, d.h. je höher das Risiko eingeschätzt wird, desto strenger fallen die Anforderungen der KI-Anwendungen aus – so sind „Social Scoring“ und Gesichtserkennung im öffentlichen Raum mit KI-Technologie tabu, Ausnahmen bei Straftaten wie Menschenhandel oder Terrorismus bleiben bestehen. Eine solche Maßnahme bedarf dann einer richterlichen Anordnung, die an eine Straftat anknüpfen muss.
-->
„Doku“ ist auch eine spannende Bezeichnung für Böhmi :D
Fehler im Artikel: Copilot nutzt die Technologie von OpenAI. Bei OpenAI heißt es ChatGPT und bei MS Copilot.
Ki, von vielen nicht verstanden aber gleichzeitig völlig grhyped und jeder will es haben. Mir wird schlecht. Warum?
Um die KI zu trainieren, braucht man ausreichend Daten für die sog. Ground Truth und noch mehr Daten zur Kontrolle. Man braucht also Daten, die nachweislich aus lügenden Menschen bestehen und ebenso Daten von Menschen, die nicht lügen, um die KI entsprechend zu trainieren.
Nur woher bekommt man diese Daten in großer Menge? Wer kann sagen, ob tatsächlich eine Lüge vorliegt? Nimmt man also Schauspieler? Aber ist da nicht ohnehin selbst die Lüge gestellt?
Dann entstehen im Hintergrund statistische Modelle, die man nicht verifizieren kann weil Blackbox. Man kann nur gucken, woe genau sie nun die Lügen mit zusätzlichen Testdaten erkennen. Aber siehe Problem 1: woher zuverlässige Daten nehmen.
Jetzt viel Spaß vor Gericht, wenn man beweisen muss, dass das Modell dahinter eben nicht funktioniert.
Genauso so sieht es aus. die KIs, wie etwa chatgpt, werden schließlich von irgendwo mit Daten gefüttert.
Irgendwo müssen diese herkommen und am Ende entscheidet wieder Menschen, wie genau und in welche „Richtung“ so eine KI zu denken hat.
Interessant zum beispiel, wie so eine künsstliche Intelligenz eine Partei wählen würde, da wird einem schnell bewusst, aus welcher Richtung das Ganze kommt (wer es nicht ohnehin schon erkannt…)