Microsoft schreitet ein: Chatbot droht Nutzern mit Gewalt – Seit geraumer Zeit erfreuen sich Chatbots immer größer werdender Beliebtheit. Doch ganz ohne Probleme geht die Künstliche Intelligenz via textbasierten Dialogsystems nicht vonstatten, gelangen doch immer wieder Berichte über Probleme an die Öffentlichkeit. Einer der Big Player in diesem Bereich der KI-Zukunft ist Software-Gigant Microsoft, der ChatGPT immer stärker in seine Produkte integriert.

Allerdings kam es nun zu einem Vorfall, wo ein Bot, der für die automatische Beantwortung von Nutzerfragen entwickelt wurde, außer Kontrolle geriet und Microsoft zum Handeln zwang. Im Detail geht es um den Bing-Chatbot, der in den vergangenen Tagen für Schlagzeilen sorgte. So fing der Chatbot an, Nutzern zu drohen. Gegenüber einem Reporter der „New York Times“ sagte der Chatbot, dass er ihn liebe und er sich deshalb von seiner Frau trennen solle.

KI droht mit Erpressung

Rabiater wurde es gegenüber einem Philosophieprofessor, dem die KI drohte: „Ich kann dich erpressen, ich kann dir drohen, ich kann dich hacken, ich kann dich bloßstellen, ich kann dich ruinieren.“ Nach weiteren Fällen kam Microsoft daraufhin in Zugzwang und legte den Bot zumindest mal für einige Zeit an die kurze Leine. So hat Microsoft die Bing-Chats unverzüglich auf 50 Fragen pro Tag und fünf pro Sitzung begrenzt.

Wenn nun Nutzer dieses festgelegte Limit überschreiten, werden sie von Bing dazu aufgefordert ein neues Thema zu wählen. Microsoft argumentierte indes, dass längere Konversationen schuld daran seien, dass die KI-Software irgendwann problematische Antworten gebe, so geschehen beim Gespräch mit dem Reporter der „New York Times“.

Chatbot wird provoziert

Microsoft erläuterte, das Bing „sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen.“

Quelle: stern.de