陳韻農教授:我的研究方向是对话系统,旨在使机器能够与人类进行流畅自然的对话。这包含理解人类语言、生成恰当回应、设计多轮对话策略,以及考虑心理学因素等多个层面。目前,该领域尚无定论,仍存在许多值得探索的有趣议题。例如,礼貌和语气等因素对对话效果的影响日益显著,需要进一步研究。此外,我们还进行了一个实验,让AI扮演推销员,并根据用户的MBTI类型调整推销策略,发现某些类型更容易被推销成功。未来的研究方向是根据用户个性定制推销方式,这与语气调整的概念类似。AI会根据用户的反馈(赞或踩)调整答案生成的概率,类似于老师批改作文的过程。AI的角色扮演功能与根据用户反馈调整自身机制有所不同,前者是预先设定角色,后者是根据用户反馈调整回答策略。在角色扮演模式下,AI的回应会根据其扮演的角色而有所不同。AI的角色扮演功能可以用于娱乐(模拟卡通人物)或更实际的应用(模拟专家讨论)。针对特定领域(例如法律)的应用,需要使用针对该领域进行训练的AI模型。并非所有任务都需要考虑文化差异,例如数学问题。目前不可能开发出一个适用于全球所有国家的通用AI模型,因为不同国家的价值观差异巨大。AI可以根据不同的文化背景选择合适的回应,但需要足够的数据支持。要让AI自然地产生符合特定文化偏好的回应,需要对模型进行针对性的训练。开发台湾本土AI模型的挑战在于数据量不足和法规限制。针对特定领域(例如法律)的应用,需要使用针对该领域进行训练的AI模型。未来AI模型会越来越细分,针对特定领域或行业提供服务。AI模型的专业化发展类似于人类的职业分工,每个模型专注于特定领域,无需精通所有领域。
曾博恩:我习惯用打字与AI对话,因为语音输入的识别准确率在过去较低,需要频繁更正。我好奇为什么AI需要学习与人进行进退有度的对话。我积极地给予AI反馈(赞扬或批评),以影响其后续的回答模式。我想了解AI的角色扮演功能与根据用户反馈调整自身机制的区别。我使用ChatGPT的不同版本(例如40美元和200美元版本)时,其记忆和角色扮演能力会受到版本限制的影响。我想知道能否通过切换不同版本的AI模型来提升其性能。将复杂任务分解成多个小任务,是训练AI的有效方法。AI难以一蹴而就地完成复杂任务,需要将任务分解成更小的单元逐步训练。我想了解一些论文中提到的AI简约化和人性化思考方式的概念。对AI输出格式的限制可能会影响其性能,应允许其自由表达,再由另一个模型提取所需信息。将任务分解成多个子任务的有效性取决于任务的复杂程度。在向AI提出多个任务时,分步提出比一次性提出效果更好。AI的记忆能力有限,类似于人类,较新的信息更容易被记住。我想了解台湾本土AI模型的开发现状及应用前景。未来AI的发展方向可能是开发针对不同文化或个人的专属模型,或者让AI在与用户的长期互动中学习其个性。我对AI取代人类工作的未来充满期待。我不理解人们对AI取代工作后人类无所事事感到担忧。理想的未来是人类专注于享受生活,而将繁琐的工作交给AI处理。西洋棋的例子说明,即使AI可以计算出最佳解,人类仍然可以在不完美的情况下展现价值。未来许多行业可能会追求在不完美的情况下达到目标,而这正是人类的价值所在。写笑话需要用到不完美的思考方式,这与AI模型训练有关。一些看似错误的AI答案,可以被巧妙地用于创作,例如双关语。AI有时会给出看似错误但实则巧妙的答案,这体现了其利用材料的能力。将来的教育需不需要规定什么时候才可以开始使用 AI 的辅助。