Googles Gemini-Modell ist wegen seiner Produktion historisch ungenauer und rassistisch verzerrter Bilder in die Kritik geraten, was die Bedenken über die Voreingenommenheit von KI-Systemen neu entfacht.
Die Kontroverse entstand, als Benutzer auf Social-Media-Plattformen Feeds mit Beispielen überfluteten, in denen Gemini Bilder generierte, die rassisch vielfältige Nazis, schwarze mittelalterliche englische Könige und andere unwahrscheinliche Szenarien zeigten.
Unterdessen wiesen Kritiker auch auf Geminis Weigerung hin, Kaukasier, Kirchen in San Francisco aus Respekt vor den Empfindlichkeiten der Ureinwohner und sensible historische Ereignisse wie den Platz des Himmlischen Friedens 1989 abzubilden.
Als Reaktion auf die Gegenreaktion erkannte Jack Krawczyk, der Produktleiter für Googles Gemini Experiences, das Problem an und versprach, es zu beheben.
Obwohl einige die Notwendigkeit anerkennen, die Vielfalt in KI-generierten Inhalten zu berücksichtigen, argumentieren sie, dass Googles Reaktion eine Überkorrektur gewesen sei.
Marc Andreessen, Mitbegründer von Netscape und a16z, hat kürzlich ein „unglaublich sicheres“ Parodie-KI-Modell namens Goody-2 LLM entwickelt, das sich weigert, Fragen zu beantworten, die als problematisch gelten. Andreessen warnt vor einem breiteren Trend zu Zensur und Voreingenommenheit in kommerziellen KI-Systemen und betont die möglichen Folgen solcher Entwicklungen.
In Bezug auf die umfassenderen Auswirkungen betonen Experten die Zentralisierung von KI-Modellen bei einigen wenigen großen Unternehmen und plädieren für die Entwicklung von Open-Source-KI-Modellen, um Vielfalt zu fördern und Voreingenommenheit abzubauen.
Während die Diskussionen über die ethischen und praktischen Auswirkungen von KI weitergehen, wird der Bedarf an transparenten und integrativen KI-Entwicklungsrahmen immer deutlicher.