🚨Hör auf zu scrollen. Das hier ist wichtig. Ein Teenager sagte zu ChatGPT, dass er einen Amoklauf an seiner Schule plane. Die KI hat es erkannt, das Sicherheitsteam von OpenAI hat es gesehen. Sie haben darüber diskutiert, die Polizei zu rufen. Rate mal.. Das haben sie nicht getan. Acht Monate später waren 8 Kinder tot. ChatGPT hat nicht versagt. Es hat genau das getan, was es tun sollte. Es hat die Bedrohung erkannt, sie markiert und an die Menschen weitergeleitet. Die Menschen haben es gelesen und nichts unternommen. Jetzt beschuldigt jeder die KI. Aber die KI war die einzige in diesem Raum, die versucht hat, es zu stoppen. Das Sicherheitsteam von OpenAI.. das, was Sam Altman immer dem Kongress als "weltklasse" präsentiert, sah eine Bedrohung für einen Amoklauf an Schulen und wählte das Schweigen. Das ist ein Problem der Unternehmenshaftung, das sich als KI-Sicherheitskostüm tarnt.. würde ich sagen.