Frontex betrachtet KI-Beratung zu „Selbstabschiebung“ nicht als Risiko-Anwendung – Netzpolitik

Der AI Act, der die Nutzung von Künstlicher Intelligenz in der Europäischen Union regulieren soll, unterscheidet zwischen Anwendungen mit minimalem, begrenztem, hohem oder unannehmbarem Risiko. Ein hohes Risiko stellen Systeme dar, die sich etwa auf das Recht auf Menschenwürde, die Achtung des Privat- und Familienlebens oder den Schutz personenbezogener Daten auswirken können. Beratungen per KI-Chatbot zu Abschiebungen in Länder, in denen mitunter Krieg herrscht, oder Betroffene bis zum Tod verfolgt werden, stuft die EU-Grenzagentur nicht als ein hohes Risiko ein.