KI-Chatbot-Fehlinformationen führen New Yorker Unternehmer in die Irre
Ein KI-Chatbot, der New Yorker bei der Gründung oder Aufrechterhaltung eines Unternehmens unterstützen soll, steht in der Kritik, weil er ungenaue Ratschläge gibt, die möglicherweise zu illegalen Aktivitäten führen. Der am 29. März 2024 gestartete Chatbot sollte den Geschäftsbetrieb rationalisieren, ist jedoch stattdessen zu einer Quelle für Fehlinformationen geworden.
Viele Kunden gaben an, dubiose Anweisungen erhalten zu haben, deren Befolgung zu rechtlichen Problemen führen kann. Der Bot scheint Unternehmer in die falsche Richtung zu führen, obwohl er dazu dient, Ratschläge an aktuelle Gesetze und Vorschriften anzupassen. Laufende Untersuchungen zielen darauf ab, die Programmierung des Bots zu korrigieren, um eine weitere Verbreitung falscher Informationen zu verhindern. Unternehmern wird empfohlen, die vom Bot bereitgestellten Informationen mit einem Unternehmensberater oder Rechtsexperten abzugleichen.
Ein Hauptanliegen war die falsche Darstellung der Wohn- und Vermieterpflichten durch den Bot. Es hat außerdem versäumt, richtig über Räumungsverfahren zu informieren und die Verfahren zur Mieterüberprüfung falsch interpretiert. Durch diese Ungenauigkeiten verringert sich der Wert des Werkzeugs.
Falsche Ratschläge von KI-Chatbots führen Unternehmer in die Irre
Darüber hinaus hat der fehlerhafte Einblick des Chatbots in die Kautionsgesetze zu Verwirrung über die finanziellen Verpflichtungen des Vermieters geführt.
Rosalind Black, Citywide Housing Director bei Legal Services NYC, verurteilte den Bot, weil er Vermietern fälschlicherweise mitteilte, dass das Aussperren eines Mieters legal sei und es keine Obergrenzen für die Mietpreise gebe. Black wies darauf hin, dass diese Fehler die Immobilienkrise in New York verschlimmern und gefährdete Personen schutzlos zurücklassen könnten. Ihrer Meinung nach ist ein fundiertes Verständnis des Rechts unerlässlich, um faire Praktiken sicherzustellen. Black forderte die Umsetzung einer strengen Faktenprüfung und kontinuierliche Änderungen des Chatbots, um diese mit den geltenden Wohnungsgesetzen und -vorschriften in Einklang zu bringen.
Der KI-Chatbot warf weitere Probleme auf, indem er falsche Informationen über Verbraucher- und Arbeitsschutzrichtlinien bereitstellte. Darin hieß es, Unternehmen könnten sich weigern, Bargeld anzunehmen, Arbeitgeber hätten das Recht, das Trinkgeld ihrer Mitarbeiter aufzubewahren, und es wurde fälschlicherweise darauf hingewiesen, dass es keine Regeln für die Benachrichtigung von Arbeitnehmern über Schichtwechsel gebe. Der Bot übermittelte auch falsche Informationen über öffentliche Verkehrsmittel, die Entsorgung gefährlicher Abfälle, Sicherheitsausrüstungsanforderungen für Unternehmen, Genehmigungsanforderungen für öffentliche Demonstrationen und Wartungsanforderungen für Mietobjekte.
Aufgrund dieser erheblichen Fehler haben einige vorgeschlagen, den Betrieb des Bots einzustellen, wenn er weiterhin falsche Informationen weitergibt. Dies unterstreicht entscheidend die Notwendigkeit einer Genauigkeit beim Einsatz von KI-Systemen mit Auswirkungen auf die Öffentlichkeit. Die Verbreitung falscher Informationen kann zu unangemessenen Entscheidungen und potenziellem Schaden führen, was die dringende Notwendigkeit eines verantwortungsvollen Einsatzes von KI unterstreicht.
(Dies ist eine unbearbeitete, automatisch generierte Story aus einem syndizierten Newsfeed. Cityjournal – Dein Regionalmagazin Mitarbeiter haben den Inhaltstext möglicherweise nicht geändert oder bearbeitet.)