老实说,我厌倦了在每场人工智能辩论中,OpenAI被当作默认的反派。 他们尝试一些大胆的举措,就被认为是危险的。 他们行动迅速,就被认为是不负责任的。 他们合作,就被认为是腐败。 他们竞争,就被认为是机会主义。 与此同时,许多其他公司悄悄行动,等待验证,复制有效的做法,避免最艰难的决策——却不知为何逃脱了同样的审查。 让我们坦诚一点。 OpenAI大规模交付。他们首先部署。他们在公众面前测试边界。这意味着他们会犯明显的错误。明显的权衡。明显的赌注。 但这也是推动前沿的样子。 如果你是那家真正尝试登月的公司,正在与机构整合,全球扩展,并定义新类别,你将承受比所有安全站在你身后的人更多的风险和批评。 我们真的相信其他人工智能公司没有在同样的伦理灰色地带中航行吗? 同样的监管模糊性? 同样的创新与治理之间的压力? 还是说,把所有系统性焦虑投射到最大的目标上更容易? 对OpenAI的标准不断提高。 高于初创公司。 高于开源项目。 高于在后台悄悄行动的现有公司。 批评是必要的。问责很重要。 但假装只有一家公司在权力、政策和利润之间运作时感到紧张,感觉在智力上是不诚实的。 前沿创新是混乱的。 治理是不完整的。 激励是复杂的。...