Ich mache mir Sorgen, dass der Fokus der KI-Sicherheitsgemeinschaft auf kurzen Zeitrahmen dazu führt, dass sie in einer kontraproduktiven Verknappungsmentalität agiert. Ich würde einen Portfolioansatz bevorzugen, bei dem Einzelpersonen sich in dem Maße auf mehr oder weniger dringende Szenarien konzentrieren, wie emotional belastbar sie sind.
Ich sage nicht, dass du deine *Überzeugungen* über mögliche Zukünfte ändern solltest, sondern dass du ändern solltest, auf welchen Teil der möglichen Zukünfte du abzielen möchtest, um ihn zu verbessern. Sich auf Szenarien mit kurzer Zeitspanne zu konzentrieren, ist wie ein Ersthelfer zu sein. Die meisten Menschen sind temperamentlich nicht dafür geeignet.
Konkret scheint der Fokus auf kurze Zeitrahmen zu einer Unterinvestition in grundlegende Forschung zu führen, einer "jede Regulierung ist gut"-Mentalität (z. B. Leute, die sagen, dass SB-1047 die "letzte Chance" für Regulierung in kurzen Zeitrahmen war), Tribalismus/Paranoia (siehe OpenAI-Vorstandsstreit) usw.
Persönlich konzentriere ich mich auf Forschung und Pläne, von denen ich erwarte, dass sie sich hauptsächlich über einen Zeitraum von mehr als 10 Jahren auszahlen, partly aufgrund meiner empirischen Überzeugungen, aber hauptsächlich, weil ich es hasse, unter Zeitdruck nach kreativen Lösungen zu suchen.
Weitere Beispiele: Der Situationsbewusstseinsbericht von @leopoldasch war sehr von einer Mangelmentalität geprägt (aber dass er jetzt einen Hedgefonds leitet, ist es nicht). Viele Menschen, myself eingeschlossen, sind zu lange bei OpenAI geblieben, weil sie eine Mangelmentalität hatten. Allgemeiner gesagt ist „*etwas* muss getan werden“ ein sehr zweischneidiges Schwert.
22,87K