OpenAI调整ChatGPT模型规范:在言论自由与AI安全间寻求平衡

2025-02-21 22:17:24 GenAI author

OpenAI近期更新了其模型规范,旨在使ChatGPT能够回答更多问题,提供更全面的视角,减少回避争议性话题的情况。这一改变的核心是“知识自由”原则,即ChatGPT应呈现多种观点,力求中立,即使某些观点在道德上存在争议。例如,ChatGPT将同时提及“Black Lives Matter”和“All Lives Matter”,并在政治问题上提供背景信息而非直接站队。

这一调整被解读为OpenAI回应保守派对ChatGPT存在偏见和审查的批评。此前,一些保守派人士批评ChatGPT存在左倾偏见,例如拒绝创作赞美特朗普的诗歌,却能创作赞美拜登的诗歌。虽然OpenAI否认此举是为了讨好特朗普政府,但新的规范确实减少了ChatGPT的限制,并删除了用于告知用户违反政策的提示,这被认为是降低审查感的一种策略。

然而,这种做法也引发了争议。有人认为,呈现所有观点,包括阴谋论和仇恨言论,本身就是一种编辑立场。OpenAI联合创始人约翰·舒尔曼则认为,这比通过成本效益分析决定是否回答问题更负责任,避免了平台拥有过多的道德权威。

OpenAI的这一转变也反映了硅谷价值观的更广泛转变。Meta、X平台等公司也在减少内容审核,放大保守派声音。谷歌、亚马逊和英特尔等公司也削减了多元化相关举措。OpenAI删除网站上对多元化、公平和包容的承诺,也暗示了其方向的转变。

总而言之,OpenAI对ChatGPT模型规范的调整,是在言论自由、AI安全以及政治环境的复杂交织下作出的尝试。它试图在提供更全面信息的同时,平衡AI的社会责任,最终目标是生成令各方都能接受的答案。但这同时也带来了新的挑战,如何在言论自由和防止有害信息传播之间取得平衡,仍然是AI领域需要持续探索的重要课题。

发表评论:

最近发表