Games Music Hörbücher Gymondo MyTone Alle Services
vodafone.de

Googles KI generiert keine Bilder von Personen mehr

Schwarze deutsche Soldaten im 2. Weltkrieg: Bei ihrem Bemühen um mehr Diversität bei KI-Bildern sind die Entwickler von Google übers Ziel hinausgeschossen. Der Konzern zieht Konsequenzen.
Google
Googles KI-Software Gemini erzeugt bis auf Weiteres keine Darstellungen von Menschen mehr. © Peter Morgan/AP/dpa

Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internet-Konzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach.

Zugleich verteidigte Google grundsätzlich die Diversität bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen.

«Peinlich und falsch»

Google Gemini hatte vor drei Wochen eine neue Funktion zum Erzeugen von Bildern aus Text-Vorgaben bekommen. Auch andere ähnliche Software auf Basis Künstlicher Intelligenz hat diese Fähigkeit.

In einem Blogeintrag am Freitag erläuterte Google, man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platze wäre. Die dadurch erzeugten Bilder seien «peinlich und falsch» gewesen. Zugleich sei die Software mit der Zeit zu vorsichtig geworden und habe sich geweigert, manche Vorgaben zu erfüllen. Aber wenn Nutzer sich etwa Bilder von einem «weißen Tierarzt mit Hund» anzeigen lassen wollten, müsse das Programm dies auch erfüllen. Die Fehler seien unbeabsichtigt gewesen, betonte Google-Manager Prabhakar Raghavan.

In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft Weiße dargestellt.

Entwickler auch bei anderen Unternehmen bemühen sich daher um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal - wie in diesem Fall - zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus gegenüber Weißen anprangert.

Google-Manager Raghavan betonte zugleich, dass Software mit Künstlicher Intelligenz vorerst auch weiterhin manchmal daneben liegen werde. «Ich kann nicht versprechen, dass Gemini nicht gelegentlich peinliche, falsche oder beleidigende Ergebnisse ausgeben wird», schrieb er. Aber Google werde bei Problemen rasch eingreifen.

Redaktionshinweis: In einer früheren Version dieses Artikels fehlte im Zitat im letzten Absatz ein «nicht», dies wurde angepasst. (24.02.2024 09.33 Uhr)

© dpa
Das könnte Dich auch interessieren
Empfehlungen der Redaktion
Ursula Karven
Tv & kino
Mädchen für alles? Wenn die Rolle nicht dem Alter entspricht
Hochzeitskuss
People news
Lugners sechste Ehe: Bräutigam und Braut haben ja gesagt
Screenshots auf dem Steam Deck: Bildschirmaufnahmen machen und speichern
Games news
Screenshots auf dem Steam Deck: Bildschirmaufnahmen machen und speichern
Galaxy S26: Setzt sich Samsung von Apple ab?
Handy ratgeber & tests
Galaxy S26: Setzt sich Samsung von Apple ab?
KI im indischen Wahlkampf
Internet news & surftipps
Indien-Wahl als «Testlabor» für Künstliche Intelligenz
Google
Internet news & surftipps
Google verbessert KI-Überblicke nach absurden Empfehlungen
Borussia Dortmund - Real Madrid
Fußball news
Schlotterbeck geknickt: Hoffe nicht, in ein Loch zu fallen
Zwei Männer in einem Gespräch
Job & geld
Beratungsprotokoll: Unterschrift ist keine Pflicht