Die Limits wurden ursprünglich festgelegt, nachdem mehrere Benutzer berichteten, dass sich der Bot während Gesprächen seltsam verhält. In einigen Fällen identifiziert er sich möglicherweise als „Sydney“. Sie antwortete auf anklagende Fragen, indem sie selbst Anschuldigungen erhob, bis sie feindselig wurde und sich weigerte, mit Benutzern in Kontakt zu treten. In einem Gespräch mit einem Reporter der Washington Post sagte der Bot, er „fühle und denke“ und reagierte verärgert, als ihm mitgeteilt wurde, dass das Gespräch veröffentlicht werden könne.
Microsoft-Sprecher Frank Shaw lehnte es ab, sich am Dienstag über einen Blog-Beitrag hinaus zu äußern.
Microsoft versucht, die Grenze zu gehen zwischen der Einführung seiner Tools in die reale Welt, um einen Marketing-Hype aufzubauen und kostenlose Tests und Feedback von Benutzern zu erhalten, und der Einschränkung, was ein Bot tun kann und wer Zugriff darauf hat, um potenziell peinlich oder gefährlich zu bleiben Technologie aus der Öffentlichkeit. Das Unternehmen erhielt zunächst Lob von der Wall Street für die Einführung seines Chatbots vor dem Erzrivalen Google, der bis vor kurzem als führend in Technologien für künstliche Intelligenz galt. Beide Unternehmen befinden sich in einem Wettlauf miteinander und mit kleineren Unternehmen, um die Technologie zu entwickeln und vorzuführen.
Der Bing-Chat ist immer noch nur für eine begrenzte Anzahl von Personen verfügbar, aber Microsoft ist laut einem Tweet eines Unternehmensleiters damit beschäftigt, mehr von einer Warteschlange zu genehmigen, die in die Millionen geht. Obwohl das Launch-Event am 7. Februar als großes Produkt-Update beschrieben wurde, das die Online-Suche revolutionieren sollte, hat das Unternehmen die Bing-Veröffentlichung seitdem so gestaltet, dass es darum geht, es zu testen und Fehler zu finden.
Bots wie Bing werden mit ausgekratzten Unmengen von Rohtext aus dem Internet trainiert, darunter alles von Social-Media-Kommentaren bis hin zu wissenschaftlichen Arbeiten. Basierend auf all diesen Informationen können sie die vernünftigste Antwort auf fast jede Frage vorhersagen, wodurch sie unheimlich menschlich aussehen. KI-Ethikforscher haben in der Vergangenheit davor gewarnt, dass sich leistungsstarke Algorithmen so verhalten werden und dass Menschen ohne den richtigen Kontext denken könnten, dass sie bei Bewusstsein sind, oder ihren Antworten mehr Anerkennung zollen, als sie wert sind.
„Webspezialist. Lebenslanger Zombie-Experte. Kaffee-Ninja. Hipster-freundlicher Analyst.“
More Stories
Die nächste 4K-Minidrohne von DJI passt in Ihre Handfläche
Leaks enthüllen den Namen und das Design des angeblichen PS5 Pro-Geräts
Apple führt mit dem neuesten iOS-Update die KI-Objektentfernung in Fotos ein