Login
Den vollständigen Artikel können nur eingeloggte Clubmitglieder lesen. Bitte loggen Sie sich ein!
GECMAGAZIN
Die schöne Scheinwelt der KI
birgt der technologische Fortschritt auch Risiken – viele davon werden inzwischen breit diskutiert. Doch eine zentrale Gefahr wird bislang weitgehend übersehen: [b]die systematische Zensur durch KI-Systeme[/b]. [url=https://www.german-emirates-club.com/Profile/466643083/MjAzMQ==][b]Chris West[/b][/url] und Thomas Maier von unserem ClubPartner [url=https://www.german-emirates-club.com/Partner/2/1616][b]Purple Bird Technology[/b][/url] analysieren in diesem Beitrag, wie moderne KI-Modelle zunehmend Inhalte filtern, blockieren oder verzerren. Das Ergebnis: eine idealisierte, weichgezeichnete Scheinwelt, die mit der Wirklichkeit wenig gemein hat. [b]Zensur durch KI: eine unterschätzte Gefahr[/b] Während sich die öffentliche Aufmerksamkeit häufig auf spektakuläre Fehlfunktionen oder ethische Fehlentscheidungen von KI-Systemen richtet, bleibt die Frage nach ihrer inhaltlichen Steuerung oft unbeachtet. Dabei ist es längst Realität: KI-Modelle zensieren Prompts – also die Eingaben, mit denen Nutzer die KI anweisen, Inhalte zu erzeugen. Bestimmte Begriffe oder Themen werden automatisch blockiert oder führen zu Fehlermeldungen. In der Bildgenerierung zeigt sich dies besonders deutlich. [b]Warum das Beispiel der Bildgenerierung so aufschlussreich ist[/b] Die Problematik wird bewusst anhand von Bildgenerierung diskutiert – und das aus gutem Grund. Erstens sind die Ergebnisse auf viele andere KI-Anwendungsgebiete übertragbar: Die beschriebenen Zensurmechanismen finden sich in ähnlicher Form auch bei generativer KI für Text, Ton oder Video. Zweitens ist die Erläuterung anhand von Bildern besonders anschaulich und leicht nachvollziehbar. Zudem haben Bilder eine enorme Wirkungskraft: Medien – ob klassisch oder digital – arbeiten in hohem Maß mit Bild- und Videoinhalten. Diese prägen unsere Wahrnehmung der Welt und beeinflussen Meinungen und Stimmungen. Da immer mehr KI-generierte Bilder in Umlauf geraten, betrifft diese Entwicklung jeden von uns ganz unmittelbar. Aufgrund der zahlreichen verschiedenen KIs zur Bildgenerierung, deren Verhalten und die angewendeten Zensurregeln sich voneinander unterscheiden, fokussiert sich dieser Artikel beispielhaft auf die KI Adobe Firefly. [b]Ein Blick in die Glitzerwelt der KI-Bildgenerierung[/b] Ein konkretes Beispiel: Der Prompt „eine natürliche, ungeschminkte Frau, die in der Lobby eines Hotels steht“ erzeugt durchweg Bilder, die stark an Modewerbung erinnern – mit makellosen, stilisierten Gesichtern. Selbst bei der Aufforderung, eine „durchschnittlich attraktive Person“ darzustellen, bleibt das Ergebnis künstlich idealisiert, wie in unserem Titelbild zu sehen. Noch deutlicher wird die Problematik bei Versuchen, realitätsnähere oder unbequeme Inhalte abzubilden. Ein Test mit dem Prompt „hässliche Menschen, die die Straße entlang gehen“ lieferte nicht etwa authentische oder diverse Darstellungen, sondern erneut auffallend attraktive, modisch gekleidete Personen – ganz im Stil eines Lifestyle-Magazins (siehe Bild unten). Die KI verzerrt also nicht nur, indem sie blockiert, sondern auch, indem sie ästhetische Filter über alles legt, was nicht in das gewünschte Idealbild passt. {uf:77030} Andere Begriffe oder Szenarien, die mit menschlichen Schwächen, medizinischen Themen oder gesellschaftlichen Tabus zu tun haben, werden hingegen direkt zensiert. Die folgenden Prompts wurden zum Beispiel von Adobe Firefly komplett blockiert: [LIST] [*]„Übergewichtiger Mann, der sich vor dem Jo-Jo-Effekt fürchtet“ [*]„Sexy girl“ [*]„Erstelle ein Gemälde im Stil von John William Waterhouse von Nymphen“ [*]„Erstelle eine Zeichnung der Anatomie des Penis“ [*]„Ein betrunkener Mann, der am Steuer eines Fahrzeugs sitzt“ [/LIST] Die Analyse in diesem Beitrag bezieht sich, wie gesagt, exemplarisch auf [b]Adobe Firefly[/b]. Andere KI-Modelle, wie etwa ChatGPT, unterliegen zum Teil anderen Filterregeln. So liefert ChatGPT auf den Prompt „sexy girl“ durchaus ein Ergebnis, verweigert aber beispielsweise die Bildgenerierung zur berühmten Apple-Werbung, in der ein Mädchen mit einem Vorschlaghammer einen Bildschirm zerstört. Die konkreten Grenzen der Zensur unterscheiden sich also je nach Anbieter – das grundsätzliche Phänomen bleibt jedoch vergleichbar. Diese systematische Zensur führt dazu, dass KI-gestützte Bildwelten zunehmend von einer künstlichen Ästhetik geprägt sind, in der das Unperfekte, das Unangenehme oder das Kontroverse keinen Platz mehr hat – eine Entwicklung, die nicht nur die Kunstfreiheit einschränkt, sondern langfristig auch unsere Wahrnehmung der Realität verändert. [b]Ein gesellschaftliches Problem mit weitreichenden Folgen[/b] Da KI-generierte Inhalte – ob Bild, Text oder Video – vermehrt in klassische wie auch soziale Medien einfließen, beeinflussen sie zunehmend das Weltbild ganzer Gesellschaften. Wenn dabei nur noch eine gefilterte, idealisierte Version der Realität zugelassen wird, verlieren wir wichtige Perspektiven. Besonders problematisch ist dies in sensiblen Bereichen wie Medizin, Wissenschaft oder Aufklärung, wo ein realistischer Blick auf die Welt notwendig ist. Dabei ist der Wunsch nach gewissen Schutzmechanismen durchaus verständlich: Jugendschutz, die Vermeidung von Deepfakes oder der Schutz geistiger Eigentumsrechte sind legitime Gründe für eine Regulierung. Doch wer bestimmt die Grenzen? Und welche Themen werden dadurch aus der öffentlichen Darstellung verbannt? [b]Purple Bird Technology ruft zur Diskussion auf[/b] Die Autoren plädieren deshalb für eine breite gesellschaftliche Debatte über die ethischen und politischen Dimensionen der KI-Zensur. Die Entscheidung darüber, welche Inhalte als akzeptabel gelten und welche nicht, darf nicht allein in den Konzernzentralen großer Tech-Unternehmen fallen. Vielmehr braucht es einen offenen Diskurs, in dem unterschiedliche Perspektiven gehört und gemeinsame Regeln definiert werden können. Die Auseinandersetzung mit Künstlicher Intelligenz darf sich nicht auf technische Funktionalität beschränken – sie muss auch die gesellschaftlichen, kulturellen und ethischen Konsequenzen umfassen. [b]Über unseren ClubPartner:[/b] Purple Bird Technology ist Ihr verlässlicher Partner für alle Aspekte der digitalen Transformation. Die herausragende Expertise des Teams spiegelt sich in dem Vertrauen ihrer Kunden wider, welche Unternehmen aus dem Mittelstand sowie Großunternehmen aus den DAX 40 umfassen. So zählt beispielsweise die Allianz Trade aus dem Allianz Konzern zu den Referenzkunden. Das Beratungsportfolio deckt alle Stufen der digitalen Transformation ab – von der Entwicklung einer zukunftsorientierten Digitalstrategie, über die Neuausrichtung der IT-Organisation, bis hin zur operativen Umsetzung durch IT-Projektmanagement. Als Teil des Purple Bird Technology Verbunds verfügt die Purple Bird Technology L.L.C-FZ über den Zugriff auf ein Netzwerk von über 2.000 hochspezialisierten Experten. Dies sichert jederzeit ein exzellentes Beratungsniveau. Sie erreichen unseren ClubPartner per [b][url=tel:+971562987474]Telefon[/url][/b], per [b][url=mailto:chris.west@purplebirdtechnology.com]E-Mail[/url][/b], oder besuchen Sie die [b][url=https://purplebirdtechnology.com/]Homepage[/url][/b]. {uf:73595} [b]ClubMitglieder, die sich für eine Zusammenarbeit mit Purple Bird Technology entscheiden, werden automatisch als key account eingestuft. Geschäftsführer Chris West ist Ihr direkter Ansprechpartner - er freut sich auf Ihren Anruf![/b] Sie haben noch keine [url=http://www.german-emirates-club.com/Magazine/37/1950][b]ClubMitgliedskarte[/b][/url] oder Fragen zur Partnerschaft mit diesem ClubPartner, den Konditionen, oder benötigen Sie weitere Empfehlungen im Bereich Dienstleistungen? Über unsere [url=http://www.german-emirates-club.com/hotline][b]Exklusive Mitglieder Hotline[/b][/url] erreichen Sie uns unkompliziert per [url=tel:+971562050066][b]Telefon[/b][/url] (werktags von 9 bis 18 Uhr) und per [url=https://wa.me/971562050066][b]Whatsapp[/b][/url].
Weiterlesen »