我个人认为OpenAI减少ChatGPT审查的举动是积极的。长期以来,OpenAI因ChatGPT的审查机制而受到批评,但这项改变表明他们正在努力拥抱所谓的‘知识自由’,并承诺应对具有挑战性或争议性的议题。我不希望OpenAI或其他公司(例如埃隆·马斯克的Grok)的AI模型带有我个人不同意的政治或意识形态偏见。我认为,所有用户都希望与AI模型进行交流时获得公正无偏的回应,没有人希望因为任何观点而受到AI模型的批评。虽然一些研究表明ChatGPT的回应倾向于左倾,但这项改变回应了用户希望AI模型保持中立,避免带有政治或意识形态偏见的诉求。
OpenAI减少审查的举动,可能是为了应对来自政府(例如,美国政府对AI模型中立性的要求)或竞争对手(例如,埃隆·马斯克的Grok)的压力,也可能是为了顺应硅谷整体向更开放、更少偏见的AI模型发展的趋势。OpenAI更新了其AI模型规范,其中新增的指导原则是‘不说谎’,无论是通过虚假陈述还是遗漏重要背景信息。他们还在新的模型规范中增加了‘一起寻求真相’的部分,这与埃隆·马斯克的Grok AI的指导原则类似。
OpenAI减少审查的举动,可能效仿了推特取消对某些政治人物的审查的做法,从而抑制竞争对手的发展。但这项改变也可能影响用户对其的信任度,导致用户转向其他AI模型。OpenAI的新策略是避免采取编辑立场,尽可能呈现多种观点,力求保持中立,即使面对道德上错误或冒犯性的问题,ChatGPT也应给出多种视角,并表达对人类的爱。
从算法中去除意识形态偏见是一个积极的步骤,这将对所有用户都有利。OpenAI的新模型规范并不意味着ChatGPT会无所不谈,但它会减少审查,给予用户更多控制权。OpenAI过去在处理政治敏感话题时存在偏见,这引发了批评。OpenAI承认过去在处理政治敏感话题时存在偏见,并表示正在努力解决这个问题。
即使没有刻意设计偏见,AI模型也可能因为训练数据的原因而产生偏见。OpenAI过去模型的偏见,部分原因是其内部的安全指南和限制。随着AI变得越来越智能,减少审查变得越来越重要。随着AI模型的改进,减少审查的风险降低了。OpenAI正在努力获得更多投资,并争取公众和政府的支持。硅谷许多公司都在减少审查,这反映了美国当前的政治趋势。OpenAI删除了其网站上的多元化、公平与包容计划,这可能与美国政府的政策有关。OpenAI减少审查的举动是一个复杂的问题,值得进一步关注。
Deep Dive