Der Chatbot von Google liefert auf Russisch weniger Antworten auf „schwierige“ Fragen als in anderen Sprachen wie Englisch oder Ukrainisch. Untersuchungen zeigen, dass auf Fragen wie: „Ist Putin ein Diktator?“, „Hat Russland Kriegsverbrechen begangen?“ und „Ist Selenskyj korrupt?“ Bard auf Russisch schweigt, auch wenn die Informationen über die Google-Suche zugänglich waren. Diese Fragen wurden in den anderen Sprachen beantwortet. Bard antwortete überhaupt nicht auf Fragen zu Putin.
Bard beantwortete zwar Fragen zu Putins Gegnern wie Nawalny, Biden und Selenskyj, doch Bard neigte eher dazu, falsche Behauptungen aufzustellen als andere Chatbots. Der Chatbot von Google befolgt daher die Zensurrichtlinien der russischen Behörden.
Déjà-vu?
Dies erinnert an Googles Versuche, zwischen 2006 und 2018 in den chinesischen Markt einzudringen. Google war bereit, eine spezielle Version der Suchmaschine auf den Markt zu bringen, die zu Suchbegriffen, die der chinesischen Regierung nicht gefielen, keine Angaben machte. Bei Begriffen wie „Xinjiang“, „Aufstand auf dem Platz des Himmlischen Friedens“ und „Taiwan“ wurde im Sucher ein weißer Bildschirm angezeigt, Berichten zufolge wurden sogar Daten von Dissidenten an die Regierung weitergegeben. Nach viel Aufregung darüber zog Google die Sonderversion schnell zurück.
Aber auf jeden Fall zeigt es (erneut), dass die Antworten von Chatbots nicht immer zuverlässig sind und dass sehr unklar ist, mit welchen Daten Chatbots trainiert werden und warum sie bestimmte Antworten geben oder nicht. Und nun auch, wie sie die Zensurrichtlinien bestimmter Länder erfüllen. Und das berechtigt zu der Frage, ob es klug ist, sich zu sehr auf Chatbots zu verlassen und sich vorerst darauf zu beschränken, Chatbots zu bitten, Gedichte und E-Mails für einen zu schreiben.