目录(点击切换)
今日收获:我们所有人都要做好心理准备,AI 产品给人带来全面的误导,甚至更严重的灾难一定会到来,而且大概率就会在 AI 性能超越所有人类顶尖水平之后发生。真的非常佩服卓克老师提出的观点和给出的判断。虽然感觉到有点瑟瑟发抖,但从理性的角度来判断这件事,我相信大概率应该是真的。说句老实,即使是我自己站在阿尔特曼的角度上,我也会做出如此的选择。前期如此巨量的投资,在追赶者步步紧逼的关头,任何一个决策者都会选择先让自己活下来,而不是被后浪拍死在沙滩上。
随着 技术的进步,尤其是大模型如 -4 等的发展,系统能够生成的内容范围变得越来越广泛,一定会存在一些包括可能有害或不合适的内容。如何对模型进行微调和对齐,以过滤掉这些内容,必然将导致模型在其他方面的性能有所下降。此外,监督大模型输出内容的小模型也需要大量的计算资源,这进一步增加了资源分配的复杂性。
对于未来,必然需要一种更加综合和前瞻性的方法来处理 的性能和安全问题。可能包括制定更加严格的法规和标准、开发更加高效的安全监督技术、以及在公司内部形成一种更加平衡的技术发展文化。但是何时发生?非常赞同卓克老师的观点 —— 对安全性和对齐上下功夫,大概率只能等到 产品的性能见顶后再一点点打补丁。这个时间点怎么也要几年之后。感谢卓克老师的精彩分享。
关于AI 会带的相关词
| 安全 | 概率 |
| 对齐 | AI |
| 卓克 | AI |


评论已关闭!