KI-Nackt-Apps: Apple greift gegen Nudify-Dienste durch

Mehrere Apps, die auf Knopfdruck Menschen auf Fotos entkleiden, schafften es unerkannt in den App Store. Apple hat laut einem Bericht entschieden reagiert.

In Pocket speichern vorlesen Druckansicht 14 Kommentare lesen
Der App Store auf dem iPhone

(Bild: tre / Mac & i)

Lesezeit: 2 Min.

Vor fünf Jahren sorgte eine App für Schlagzeilen: Deep Nude ermöglichte es per Machine-Learning-Algorithmus, angezogene Menschen auf Fotos virtuell zu entkleiden. Inzwischen sind Nudify-Apps angesichts der allgemeinen Fortschritte bei Künstlicher Intelligenz aus technischer Sicht kein Thema mehr. Ihre gesellschaftlich schädlichen Auswirkungen sind es dafür umso mehr. Apple hat jetzt drei Apps aus dem App Store entfernt.

Den Anstoß dazu will das Onlineportal 404Media gegeben haben. Es reklamiert für sich, Apple und Google auf das Vorhandensein mehrerer KI-Nackt-Apps hingewiesen zu haben, die daraufhin gelöscht wurden. Warum Apple nicht von vornherein im App Review den Programmen den Zugang verwehrte, bleibt unklar. Zumindest in geschalteten Anzeigen auf Instagram ließen die Anbieter der Apps laut Bericht offenbar keinen Zweifel daran, wofür diese eingesetzt werden können. In den App-Store-Beschreibungen, die von den Entwicklern bei Apple eingereicht wurden, las sich der Verwendungszweck wohl deutlich zahmer. Womöglich wurde von den Prüfern deshalb nicht erkannt, womit sie es in Wirklichkeit zu tun haben.

Für die Anbieter solcher Apps sind diese offenbar ein lukratives Geschäftsmodell. So untersuchte das Analyse-Unternehmen Graphika im Dezember 2023 insgesamt 34 Anbieter und fand heraus, dass diese allein im September über 24 Millionen Besucher zählten. Die meisten Dienste böten diese als Freemium-Modell an, bei dem einige wenige Bilder zur Probe kostenfrei erzeugt werden können und weitere dann Geld kosten.

Wenig überraschend wird mit solchen Apps in der Regel gegen den Willen der zu entkleidenden Personen gehandelt. Besonders schlimm wirkt sich die Benutzung aus, wenn solche Bilder, die manchmal nicht mal mehr als Deep Fake sofort zu erkennen sind, verbreitet werden. In einer spanischen Kleinstadt wurden zum Beispiel KI-generierte Nacktbilder von Schülerinnen in Umlauf gebracht, die von Jugendlichen generiert wurden.

Apple selbst geht mit Blick auf Heranwachsende mit Schutzfunktionen im Betriebssystem dagegen vor, dass ankommende Nacktaufnahmen einfach so angezeigt oder eigene per iMessage einfach verschickt werden können. Die App Review Guidelines, an die sich Entwickler von Apps halten müssen, können gleich in mehreren Punkten herangezogen werden, KI-Nackt-Apps zu verbieten, da sie etwa Falschinformationen, offensichtlich sexuelles Material und diskriminierende Inhalte ausschließen.

(mki)