Aktuelle Bildanalysesoftware sind hochentwickelte Tools, unterstützt von #artificialintelligence, lernend und sich stetig verbessernd. Ihnen entgeht nichts und niemand, egal ob es um die reine Erkennung von Menschen geht (das ist EIN Mensch) oder deren Identifizierung (das ist DIESER Mensch). Zumindest bekommt man immer wieder diesen Eindruck vermittelt. Doch wie fehleranfällig oder leicht zu überlisten ist dieser Algorithmus wirklich?
Wohl jede technische Entwicklung kann zum Wohl des Menschen oder zu dessen Schaden, oder passender in diesem Fall, potentiell zu deren Kontrolle genutzt werden. Über recht und Zweck, im öffentlichen Raum dauerhaft beobachtet, erkannt, gespeichert und bewertet zu werden, ohne Einfluss auf all diese persönliche Informationen zu haben, kann sicherlich gestritten werden. Menschen Ihre persönliche Freiheit widerzugeben hat sich ein italienisches Mode-Start-up als Mission auserkoren. Die Oberteile und Hosen der Manifesto-Designlinie sollen dabei nicht nur praktisch und chic sein, sondern durch die Bedruckung mit sogenannten „Adversarial Patch“-Mustern die KI-Erkennung ins Leere laufen lassen.
Dank der auffällig farbenfroh gestalteten Strickpullover, Hosen, Kleider usw. identifizieren Automatismen Menschen als Tiere bzw. entfernen diese als irrelevante „Musterfolgen“ direkt aus dem analysierten Videomaterial. Ob damit Cap_able einen Trend lostritt und den Weg freimacht für mehr persönliche Freiheit wissen wir nicht, doch sicher halten auch die Softwareentwickler Ihre Augen offen und feilen weiter an Erkennungsroutinen.