MIRI und AI-Sicherheit: Aktuelle Strategien und brisante Enthüllungen in der KI-Community!
Die 5 wichtigsten Aussagen:
- MIRI aktualisiert ihre Kommunikationsstrategie, um die Dringlichkeit der Einstellung der Entwicklung von KI voranzutreiben und für die Installation eines „Aus-Schalters“ zu plädieren.
- Rob Bensinger argumentiert, dass die US-Regierung keine künstliche Superintelligenz entwickeln sollte, da dies katastrophale Folgen haben könnte.
- Das Agent Foundations Team trennt sich von MIRI, um unabhhängig weiterzuarbeiten, nachdem Nate Soares und Eliezer Yudkowsky ihre Prioritäten geändert haben.
- Das Technical Governance Team reagiert auf Anfragen bezüglich des AI Risk Management Frameworks und des Frameworks zur Minderung von KI-Risiken.
- Paul Christiano wird Leiter der AI Safety Institute in den USA und das Superalignment-Team bei OpenAI wird aufgelöst.
Ganzen Artikel lesen: https://www.lesswrong.com/posts/GdBwsYWGytXrkniSy/miri-s-june-2024-newsletter
KI-Update in Kurzform:
MIRI, das Machine Intelligence Research Institute, aktualisiert seine Kommunikationsstrategie, um die Dringlichkeit der Einstellung der KI-Entwicklung zu betonen. Es wird diskutiert, dass die USA keine künstliche Superintelligenz entwickeln sollten, da dies katastrophale Folgen haben könnte. Das Agent Foundations Team verlässt MIRI, um unabhhängig weiterzuarbeiten. Die Technische Governance Team reagiert auf Anfragen zur KI-Risikobewältigung.
In anderen Nachrichten wird AI-Alignment-Forscher Paul Christiano zum Leiter der AI-Sicherheit am US AI Safety Institute ernannt. OpenAI hat sein Superalignment-Team aufgelöst, was Bedenken hinsichtlich ihrer Sicherheitsprioritäten aufwirft. Ehemalige OpenAI-Mitarbeiter waren NDA-Beschränkungen unterworfen, die inzwischen aufgehoben wurden. Korea und das UK haben sich verpflichtet, Sicherheitsrahmenbedingungen für KI zu veröffentlichen. Kaliforniens SB 1047 zur KI-Regulierung wird diskutiert. Der Newsletter von MIRI bietet weitere Details zu diesen Entwicklungen.