Artikelenglisch

Die Zukunft der KI: Neues Startup für sichere Superintelligenz

OpenAI-Mitbegründer Ilya Sutskevers neues Startup zielt auf „sichere Superintelligenz“ ab


Die 5 wichtigsten Aussagen:

  • Ilya Sutskever hat mit Safe Superintelligence Inc. ein neues Startup gegründet, das sich auf den Bau sicherer superintelligenter Systeme konzentriert.
  • Zusammen mit ehemaligen OpenAI-Kollegen und Apples ehemaligem KI-Leiter will Sutskever die Entwicklung von KI vorantreiben.
  • SSI plant, Sicherheit und Leistung gleichzeitig voranzutreiben, um sicherzustellen, dass die Sicherheit immer an erster Stelle steht.
  • Das Startup verfolgt das ehrgeizige Ziel, sich ausschließlich auf sichere superintelligente KI zu konzentrieren, im Gegensatz zu anderen AI-Labors.
  • Kritiker argumentieren, dass die Herausforderung nicht nur technisch, sondern auch philosophisch ist, aber SSI wird aufgrund der Gründer mit großem Interesse verfolgt.

Ganzen Artikel lesen:https://www.artificialintelligence-news.com/2024/06/20/openai-co-founder-ilya-sutskevers-startup-aims-safe-superintelligence/


KI-Update in Kurzform:

Ilya Sutskever, ehemaliger Chef-Wissenschaftler bei OpenAI, hat sein nächstes großes Projekt nach seinem Ausscheiden im Mai angekündigt. Gemeinsam mit seinen ehemaligen Kollegen Daniel Levy und Daniel Gross von OpenAI und Apple hat er Safe Superintelligence Inc. (SSI) gegründet, ein Startup, das sich ausschließlich darauf konzentriert, sichere superintelligente Systeme zu entwickeln.

Die Gründung von SSI folgt auf die kurzzeitige Absetzung des CEO von OpenAI, Sam Altman, im November 2023, bei der Sutskever eine zentrale Rolle spielte. SSI plant, Sicherheit und Leistungsfähigkeit gleichzeitig voranzutreiben, um sicherzustellen, dass die Sicherheit immer vorn bleibt. Ihr Fokus liegt auf revolutionärer Ingenieurskunst und wissenschaftlichen Durchbrüchen.

Sutskevers Arbeit bei SSI setzt seine Bemühungen bei OpenAI fort, wo er Teil des Superalignment-Teams war, das sich mit der Gestaltung von Steuerungsmethoden für leistungsstarke KI-Systeme befasste. SSI verfolgt das Ziel der sicheren Superintelligenz mit einem klaren Fokus, im Gegensatz zu den diversen Aktivitäten großer KI-Labore.

Die Anstrengungen von Sutskevers Team werden mit großem Interesse verfolgt, da ihre Gründer eine beeindruckende Herkunft haben. Es bleibt abzuwarten, ob sie substantielle Fortschritte in Richtung ihres ehrgeizigen Ziels machen können. Der Beitrag auf AI News bietet weitere Einblicke in diese faszinierende Entwicklung.

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"