人工智能的风险是否被蒙上了一层厚厚的面纱?一组研究人员想要消除这种堵嘴

Connect, discuss, and advance fresh dataset management practices.
Post Reply
pappu636
Posts: 196
Joined: Thu Jan 02, 2025 8:42 am

人工智能的风险是否被蒙上了一层厚厚的面纱?一组研究人员想要消除这种堵嘴

Post by pappu636 »

人工智能(AI)蕴藏着许多机遇,但也给人类带来许多潜在风险。然而,令人惊讶的是,人们对时尚技术的隐患却很少提及,就好像那些在这一领域工作的人不得不(强制)遵守一种沉默法则,阻止他们公开谈论它们所带来的风险。人工智能。

有权向公众警告这项技术的危险,正是一群人工智能研究人员在本周二发表的一封公开信中提出的主要诉求。签署这封信的人大多是 ChatGPT 母公司 OpenAI 的前任和现任员工。

据签署者称,目前对谴责人工智能危险的所谓“举报人”的保护显然是不够的。

保护海外举报人的法律主要针对公司的非法活动。然而,在很多情况下人工智能并不遵守任何法律。从这个意义上说,“如果我们决定发声,我们中的一些人将面临报复,就像人工智能行业内已经发生过的几次一样,”这封信的签署者说。

签署这封信的人希望能够警告公众人工智能的潜在风险
研究人员敦促致力于先进人工智能模型的公司遵循四个原则:

不应强迫工人签署阻止他们对其雇主及其所使用技术的危险做出批判性判断的条款。
公司实施可验证的方便的匿名流程,允许前任和现任员工向董事会、监管机构或 瑞士商业传真列表 独立组织报告可能的风险。
公司提倡一种文化,允许前员工和现任员工在涉及与人工智能重叠的潜在危险时公开表达批评。
一旦其他发出警报的系统先前发生故障,公司不会对分享与风险直接相关的机密信息的前任和现任员工进行报复。
恰巧的是,最近有消息称,OpenAI威胁几名前员工,如果他们公开批评 Sam Altman 领导的公司,就取消他们在公司的股份。 OpenAI 的首席执行官后来为阻止公司前雇员批评前雇主的条款道歉,尽管他强调他不知道该条款的存在,而且从未实际应用过。

这并不是人工智能专家第一次警告这项技术所带来的危险,从大规模虚假信息的传播到大规模就业岗位的破坏。
Post Reply