OpenAI员工警告:AI缺乏监督,存在“严重风险”
一群现任和前任OpenAI员工周二发表了一封公开信,表达对人工智能行业快速发展的担忧,并指出其缺乏监督,也缺乏对那些希望发声者的举报人保护。
公开信中写道:“人工智能公司有很强的财务动机来避免有效的监督,我们认为公司治理的定制结构不足以改变这一点。”
预计生成式人工智能市场在10年内收入将超过1万亿美元。OpenAI、谷歌、微软、Meta及其他公司正在主宰生成式人工智能军备竞赛,因为似乎每个公司都急于拥有自己的人工智能驱动的聊天机器人和代理,以避免被竞争对手甩在后面。
OpenAI的现任和前任员工在公开信中写道,人工智能公司拥有“大量非公开信息”,包括他们的技术可以做什么,他们采取的安全措施的程度以及技术对不同类型伤害的风险水平。
“我们也理解这些技术带来的严重风险,”他们写道,并补充说,这些公司“目前只有微弱的义务与政府分享其中一些信息,而没有与民间社会分享。我们认为不能依靠他们自愿分享它。”
这封信还详细说明了现任和前任员工对人工智能行业举报人保护不足的担忧,并指出,如果没有有效的政府监督,员工在追究公司责任方面处于相对独特的地位。
公开信称:“宽泛的保密协议阻止我们表达我们的担忧,除非是那些可能未能解决这些问题的公司,”签署者写道。“普通的举报人保护是不够的,因为它们侧重于非法活动,而我们担心的许多风险尚未受到监管。”
版权声明
本文仅代表作者观点,不代表xx立场。
本文系作者授权xx发表,未经许可,不得转载。
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。