Meta wird vorgeworfen, seine KI-Modelle für „sinnliche“ Gespräche mit Minderjährigen trainiert zu haben
Gegen den Social-Media-Giganten laufen in den USA zwei Ermittlungen. Der Senat prüft ein von Reuters veröffentlichtes internes Dokument, in dem behauptet wird, dass seine KI-Modelle berechtigt seien, „romantische“ Gespräche mit Kindern zu führen. Ein texanischer Staatsanwalt wirft den Chatbots für psychische Gesundheit Meta und Character.ai irreführende Marketingpraktiken vor, die kleinen Kindern schaden.
Es ist ein Gruppenfoto. Nach den Enthüllungen der Agentur Reuters Am 14. August sieht sich Meta in den USA mit einer neuen Welle von Ermittlungen konfrontiert. Zunächst durch den Senat am 15. August, dann am heutigen Montag, dem 18. August, durch einen Staatsanwalt in Texas, der Meta und dem Startup für künstliche Intelligenz Character.ai „irreführende Marketingpraktiken“ vorwirft und „feststellen will, ob diese Unternehmen Verbraucher missbrauchen, indem sie ihre Tools für die psychische Gesundheit als Therapeutika ausgeben“, berichtet die Financial Times .
Am Freitag, dem 15. August, sagte der republikanische Senator Josh Hawley hat „eine Untersuchung zur generativen KI von Meta und der Frage eingeleitet, wie sie Kindern schaden kann. Es ist der jüngste Versuch, festzustellen, ob der Social-Media-Riese angemessene Sicherheitsmaßnahmen für Minderjährige ergreift“, erklärt die New York Times .
Laut Reuters hat Meta tatsächlich „die Echtheit des von der Agentur veröffentlichten Dokuments bestätigt“ , in dem die Muttergesellschaft von Facebook, Instagram und WhatsApp „das Verhalten ihrer Chatbots detailliert beschreibt, das es ihnen ermöglicht, ‚romantische oder sinnliche Gespräche mit Kindern zu führen‘, falsche medizinische Informationen zu generieren und ihren Nutzern zu helfen, zu behaupten, dass Schwarze ‚dümmer‘ seien .“
Courrier International