post-title DeepNude: Nackt durch KI https://www.computerepairlkn.com/wp-content/uploads/DeepNude-Screenshot-1024x575.jpg 2019-07-02 10:35:20 yes no Posted by Categories: Computer Repair LKN, Home Page

DeepNude: Nackt durch KI

Posted by Categories: Computer Repair LKN, Home Page
DeepNude: Nackt durch KI

Bevor ich euch was zu DeepNude erzähle, ein kleiner Spoiler, um den geilen Böcken das Lesen zu ersparen: Die Software ist mittlerweile offline, ihr findet hier im Beitrag also keinen Link!


Ich kann mich als alter Sack noch sehr gut daran erinnern, dass es in Romanen und Comics früher sehr merkwürdige Werbung gab. Es gab Briefmarken-Kollektionen zu bestellen, die einzigartigen Sea-Monkeys, die im Aquarium dann doch irgendwie ganz anders aussahen als in der Werbung und ja, es gab auch so einen Quatsch wie Röntgenbrillen zu bestellen, die es ermöglichen sollten, dass man bekleidete Menschen quasi nackt vor sich sieht. Erfreulicherweise war ich damals auch als Kind/Jugendlicher pfiffig genug, um für solche Brillen kein Geld rauszuhauen (unabhängig davon, dass mir meine Eltern was erzählt hätten, wenn ich die bestellt hätte).

Ich erinnere mich zudem auch noch ans Ende der Neunziger, als Sony eine Videokamera verkaufte, die mit einem Nachtmodus ausgestattet war, der unter gewissen Bedingungen ebenfalls ermöglichen konnte, die Unterwäsche unter der anderen Kleidung sichtbar zu machen. Das war natürlich nicht Sinn und Zweck dieses Nightshot-Features, die Japaner entschärften den Modus später.

Beides erzähle ich euch, um darauf hinzuweisen, dass solche Spanner-Tools anscheinend eine große Faszination vor allem auf Männer ausüben. Das musste jetzt auch ein Programmierer aus Estland feststellen. Der hat nämlich mit einem kleinen Team die App DeepNude online gestellt, die ebenfalls durch einen Trick dazu in der Lage ist, Menschen ihrer Klamotten zu berauben.

Besser gesagt: Menschen auf Fotos! Die App setzt auf sogenannte Generative Adversarial Networks (GANs), die dafür sorgen, dass die Kleider auf den Fotos verschwinden. Dabei wird natürlich nicht wirklich die Kleidung entfernt, sondern die bekleidete Person schlicht durch eine möglichst ähnlich wirkende nackte Frau ersetzt wird, die Computer-generiert ist und auf die dann lediglich die Köpfe des Originals montiert werden.

Es sind also nicht tatsächlich die nackten Körper der betroffenen Frauen zu sehen, es entsteht allerdings der Eindruck und das reicht ja absolut aus, um Schaden anrichten zu können. Zumal die künstliche Intelligenz mithilfe von 10.000 Frauen-Fotos so trainiert werden konnte, dass mitunter tatsächlich sehr realistisch wirkende Fälschungen erstellt werden konnten.

Wie man auf Twitter nachlesen kann, waren es wohl sowohl die überraschend große Nachfrage nach der App, die der Este für 50 US-Dollar anbot und moralische Bedenken, die ihn dazu bewegten, DeepNude wieder vom Netz zu nehmen.

Es gab zunächst große technische Probleme, da der Programmierer mit dem Run schlicht nicht gerechnet hatte. Später dann kamen aber eben auch Bedenken hinzu, und zum Schluss dann die Erkenntnis: Die Welt ist noch nicht reif für DeeNude.

Er erklärte sogar, dass die App gar nicht mal besonders gut wäre und nur bei einigen Fotos ein brauchbares Resultat erzielt würde. Zudem gibt es auch ein deutlich sichtbares Wasserzeichen, welches die Bilder als Fake kennzeichnet. Dennoch haben sich die Männer auf die App gestürzt, die übrigens ausschließlich Frauenkörper als Ergebnis zeigte, selbst wenn auf der Fotovorlage ein Mann zu sehen ist. Später hätte das Team noch eine Version mit Männer-Fotos nachlegen wollen, heißt es.

Problem gelöst? Leider nein!

Ist damit jetzt die Gefahr gebannt und die Kuh vom Eis? Nein, leider nicht. Natürlich nicht, muss man sogar sagen. Denn zum Einen waren ein paar Leute schnell genug, die App zu sichern und jetzt selbst auf anderen Wegen im Netz anzubieten, zudem ist die Technologie ja nun mal da. Grundsätzlich tut die Anwendung ja nichts, was nicht sowieso jeder Nutzer hinbekommen könnte, der über ein paar Photoshop-Skills verfügt, hier geschieht es aber eben automatisiert.

Wir haben schon oft über Deepfakes geredet hier auf dem Blog und wir müssen befürchten, dass wir gerade nach der DeepNude-Geschichte eine Menge Trittbrettfahrer finden werden, die ebenfalls mithilfe von künstlicher Intelligenz einen ähnlichen “Service” etablieren werden. Es ist leider mittlerweile wirklich kinderleicht geworden, solche Fakes anzufertigen und es wird von Monat zu Monat leichter.

Hier sind Ethik-Regeln gefragt, die uns davor bewahren können, dass wir mit solchen Fakes konfrontiert werden. Bislang ging es meistens darum, dass Schauspieler(-innen) in Videos ersetzt wurden und die größte Befürchtung ist nach wie vor, dass wir eines Tages so realistische Fakes erleben, dass wir nicht mehr wissen, ob ein Politiker diesen Satz tatsächlich gesagt hat oder nicht. Aber wie DeepNude beweist, können diese Fakes auch auf Privatpersonen einen sehr persönlichen Impact haben und Mobbing weiter befeuern.

So begeistert ich von technischer Entwicklung generell bin: An diesem Punkt sollte es Regeln geben. Sowohl sollten Programmierer dazu angehalten werden, gewisse Grenzen nicht zu überschreiten, aber auch die Nutzer sind hier in der Pflicht und der Einsatz solcher Anwendungen sollte meines Erachtens auch geahndet werden. Wie seht ihr das?

Quelle: Vice via Technology Review und heise.de

Powered by WPeMatico

The post DeepNude: Nackt durch KI appeared first on DroneswithCamera.

Loading…
Website designed by Guaripete Solutions