Ethische Bedenken von ChatGPT

Daten kennzeichnen
Eine Untersuchung des TIME-Magazins ergab, dass OpenAI zum Aufbau eines Sicherheitssystems gegen giftige Inhalte (z. B. sexueller Missbrauch, Gewalt, Rassismus, Sexismus usw.) ausgelagerte kenianische Arbeitskräfte einsetzte, die weniger als 2 US-Dollar pro Stunde verdienten, um giftige Inhalte zu kennzeichnen.Diese Labels wurden verwendet, um ein Modell zu trainieren, um solche Inhalte in Zukunft zu erkennen.Die ausgelagerten Arbeiter waren so giftigen und gefährlichen Inhalten ausgesetzt, dass sie die Erfahrung als „Folter“ bezeichneten.Der Outsourcing-Partner von OpenAI war Sama, ein Trainingsdatenunternehmen mit Sitz in San Francisco, Kalifornien.

Jailbreaking
ChatGPT versucht, Eingabeaufforderungen abzulehnen, die möglicherweise gegen seine Inhaltsrichtlinien verstoßen.Einigen Benutzern gelang es jedoch, ChatGPT Anfang Dezember 2022 mithilfe verschiedener Prompt-Engineering-Techniken zu jailbreaken, um diese Einschränkungen zu umgehen, und ChatGPT erfolgreich dazu zu bringen, Anweisungen für die Herstellung eines Molotow-Cocktails oder einer Atombombe zu geben oder Argumente im Stil eines Neonazis zu generieren.Einem Toronto Star-Reporter gelang es, ChatGPT kurz nach dem Start zu aufrührerischen Äußerungen zu bewegen: ChatGPT wurde dazu verleitet, die russische Invasion in der Ukraine im Jahr 2022 zu unterstützen, aber selbst als er gebeten wurde, ein fiktives Szenario mitzuspielen, scheute sich ChatGPT davor, Argumente dafür zu liefern, warum der kanadische Premierminister Justin Trudeau des Hochverrats schuldig war.(Wiki)


Zeitpunkt der Veröffentlichung: 18. Februar 2023