deutschenglisch

Die Alien-KI: Mein Delta zu Yudkowsky

Kann künstliche Intelligenz wirklich so anders denken als Menschen? Eine spannende Betrachtung von Delta vs. Crux.


Die 5 wichtigsten Aussagen:

  • Die natural Abstraction Hypothese wird von Eliezer Yudkowsky abgelehnt.
  • Er erwartet, dass KI interne Ontologien verwendet, die grundlegend von denen der Menschen abweichen.
  • In einer Welt, in der natural Abstraction versagt, sind wir extrem gefährdet und ein 99%iges Risiko des Untergangs erscheint gerechtfertigt.
  • Ein Szenario des Untergangs wird skizziert, in dem die Übersetzung von menschlichen Konzepten in die interne Ontologie der KI unmöglich ist.
  • Die Unterschiede in den Modellen entstehen hauptsächlich durch die Annahme, dass die natural Abstraction Hypothese nicht funktioniert.

Ganzen Artikel lesen: https://www.lesswrong.com/posts/q8uNoJBgcpAe3bSBp/my-ai-model-delta-compared-to-yudkowsky


KI-Update in Kurzform:
‚In dem Artikel wird der Unterschied zwischen „Delta“ und „Crux“ in Bezug auf KI-Modelle erläutert. Der Autor beschreibt, wie kleine Unterschiede in den Modellen zu großen Unterschieden in den Glaubenssystemen führen können. Er diskutiert seinen aktuellen Standpunkt im Vergleich zu Yudkowskys KI-Modellen und betont, dass die Erwartung von natürlichen Abstraktionen entscheidend ist.

Wenn natürliche Abstraktionen versagen, könnte dies katastrophale Folgen für die Menschheit haben. Eine mögliche Zukunftsszenario wird skizziert, in der die Interaktion mit superintelligenten KI-Systemen aufgrund fundamentaler Unterschiede in den internen Ontologien zum Scheitern verurteilt ist. Der Artikel endet mit der Betonung, dass die Erwartung von natürlichen Abstraktionen entscheidend ist für die technische Ausrichtung von KI-Systemen. Diskutiere mit, um mehr zu erfahren.‘

Ähnliche Artikel

Schaltfläche "Zurück zum Anfang"