Ehemalige und aktuelle Mitarbeiter von OpenAI und Google schlagen Alarm wegen der gefährlichen Kultur der Geheimhaltung bei KI-Unternehmen.
Die 5 wichtigsten Aussagen:
- Eine Gruppe ehemaliger und aktueller Mitarbeiter von OpenAI und Google kritisiert die gefährliche Geheimhaltungskultur von KI-Unternehmen in Bezug auf KI-Risiken.
- Die Unternehmen konzentrieren sich mehr auf finanzielle Ziele als auf Sicherheit und setzen Vertraulichkeitsvereinbarungen ein, um Mitarbeiter davon abzuhalten, Bedenken zu äußern.
- Die Unterzeichner des Schreibens sind ehemalige Mitarbeiter von OpenAI und Google, darunter auch führende KI-Experten wie Yoshua Bengio, Geoffrey Hinton und Stuart Russell.
- Einige Unterzeichner haben aus Angst vor Repressalien ihre Namen nicht genannt.
- Das Schreiben fordert von KI-Unternehmen ein größeres Engagement, solange es noch keine Regulierungen für KI-Risiken gibt.
Ganzen Artikel lesen: https://ki-techlab.de/ki-news/former-openai-employees-publish-right-to-warn-open-letter/
KI-Update in Kurzform:
Eine Gruppe ehemaliger und aktueller Mitarbeiter von OpenAI und Google prangert KI-Unternehmen wegen einer gefährlichen Kultur der Geheimhaltung von KI-Risiken an. In einem offenen Brief mit dem Titel „Ein Recht auf Warnung vor fortschrittlicher künstlicher Intelligenz“ wird behauptet, dass AI-Unternehmen finanzielle Anreize haben, eine effektive Aufsicht über potenzielle KI-Risiken zu vermeiden. Neben der rücksichtslosen Fokussierung auf finanzielle Ziele anstelle von Sicherheit verwenden die Unternehmen offenbar strafende Vertraulichkeitsvereinbarungen, um Mitarbeiter davon abzuhalten, Bedenken zu äußern. Der Brief wurde von ehemaligen OpenAI- und Google-Mitarbeitern unterzeichnet, darunter auch namhafte KI-Experten wie Yoshua Bengio, Geoffrey Hinton und Stuart Russell.
Interessanterweise haben sechs der Unterzeichner ihre Namen nicht preisgegeben, was die Besorgnis über mögliche Konsequenzen verdeutlicht. Der Brief fordert von AI-Unternehmen ein stärkeres Engagement angesichts fehlender Vorschriften zur Regulierung von KI-Risiken, über die die Öffentlichkeit nicht informiert ist. Es werden vier Prinzipien genannt, zu deren Einhaltung aufgefordert wird. Die Unterzeichner wollen unter anderem, dass Unternehmen keine Vereinbarungen eingehen oder durchsetzen, die Kritik an Sicherheitsbedenken untersagen, und dass sie anonyme Möglichkeiten schaffen, damit Mitarbeiter risikobezogene Bedenken an den Vorstand des Unternehmens oder andere Regulierungsbehörden herantragen können.