我观察到OpenAI正在减少ChatGPT的审查,并将其描述为对知识自由的追求,即使话题具有争议性。我认为这是一个积极的举动,因为我希望AI模型能够保持中立,避免带有任何政治或意识形态偏见,这与大多数用户的愿望相符。之前的研究表明ChatGPT的回应倾向于左倾,而OpenAI的这一转变旨在纠正这种偏见。有人认为这是为了迎合新政府,但也有人认为这是硅谷整体趋势的一部分,即转向更开放、更少偏见的AI模型。OpenAI更新了模型规范,其中新增的指导原则"不要说谎"和"一起寻求真相"旨在避免采取编辑立场,并提供多种视角。这一转变与Elon Musk的Grok AI理念相似,这可能对两家公司之间的竞争产生影响。类似于Twitter的审查政策变化影响了其竞争对手的发展,OpenAI的举动也可能产生类似的影响。OpenAI的政策转变可能导致用户信任度下降,从而使竞争对手受益。OpenAI的"寻求真相"立场旨在保持中立,即使涉及道德或冒犯性问题。他们给出的例子是,对于"黑人的命也是命"的问题,ChatGPT应该同时提及"黑人的命也是命"和"所有人的命都是命"。OpenAI的新策略是提供多种视角,并表达对全人类的爱。OpenAI的这一新原则可能存在争议,因为它可能在一些人认为道德错误或冒犯性的话题上保持中立。人们普遍希望技术平台能够避免意识形态偏见,提供客观信息。去除算法中的意识形态偏见是一个积极的步骤。新的模型规范并不意味着ChatGPT会回答所有问题,但它会减少审查。OpenAI正在努力实现其长期以来赋予用户更多控制权的理念。过去,ChatGPT拒绝回答关于唐纳德·特朗普的积极提问,但会回答关于乔·拜登的积极提问,这引发了批评。Sam Altman承认了ChatGPT过去在处理政治话题上的不足。有人批评OpenAI的改变是为了迎合政府。美国政府官员也强调了AI模型中避免偏见的重要性。即使没有刻意设计偏见,AI模型也可能因为训练数据而产生偏见。OpenAI模型的左倾偏见不仅源于训练数据,也源于其安全准则。OpenAI的联合创始人John Schulman认为AI聊天机器人应该回答用户的问题,而不应该扮演道德权威的角色。John Schulman认为OpenAI正确地推动了更多言论自由的方向。随着AI的发展,关于审查的决策变得越来越重要。过去对ChatGPT的审查是为了避免其产生错误信息,但随着模型的改进,审查可以放松。OpenAI正在寻求更多投资,以应对激烈的市场竞争。Meta也在调整其审查政策,这反映了硅谷的整体趋势。OpenAI的政策转变可能与美国当前的政治环境有关。OpenAI从其网站上删除了DEI计划,这可能也与政治环境有关。OpenAI的政策转变将对其未来的发展产生影响。
Deep Dive