免费领取大会全套演讲PPT    

报名领取

我要参会

Li Erran Li

Amazon HIL团队负责人

Li Erran 是亚马逊公司 AWS AI 的HIL团队负责人,他目前的研究方向是 LLM 的 RLHF 和多步推理,以及视觉和语言表征学习。此前,他是 Alexa AI 的高级科学家、Scale AI 的机器学习主管和 Pony.ai 的首席科学家。在此之前,他曾在 Uber ATG 的感知团队和 Uber 的机器学习平台团队工作,研究自动驾驶的机器学习、机器学习系统和人工智能的战略举措。他的职业生涯始于贝尔实验室,曾任哥伦比亚大学兼职教授。他在ICML'17和ICCV'19上共同讲授教程,并在NeurIPS、ICML、CVPR和ICCV上共同组织了多个关于自动驾驶机器学习、3D视觉和机器人、机器学习系统和对抗机器学习的研讨会。他拥有康奈尔大学计算机科学博士学位。他是 ACM Fellow 和 IEEE Fellow。

演讲主题

使用AI反馈和人工监督提升LLM强化学习

大语言模型(LLM)的快速发展重新定义了我们与AI系统的互动。随着 LLM 在一系列应用中占据一席之地,确保其能力、安全性和健壮性成为人们最关心的问题。本次讲座将深入探讨如何从人类和模型的反馈中学习,以增强、优化和扩展 LLM 的能力。 从人类反馈强化学习(RLHF)开始,我们将探讨人类评估者如何不仅通过对模型生成的输出进行排序来确保安全,而且通过强调基于过程的反馈来丰富对模型的理解。对 LLM 内部决策过程的深入研究可以提高模型的推理能力,使其更善于处理复杂的查询和多元任务。 从AI反馈过渡到强化学习(RLAIF),模型通过对自己或同伴的输出进行评判来自主学习。RLAIF 有望通过让 LLMs 接触大量自我生成的场景来提高其能力,从而实现更强的泛化和适应能力。当然,反馈回路和过拟合等挑战依然存在。 在这些基础上,我们引入了一种新方法: 从引入人类回路的AI反馈中强化学习(Reinforcement Learning from AI Feedback with Human-in-the-Loop)。这种方法将自动AI反馈与人工监督相结合,旨在利用两者的优势。人工智能的持续适应性与人类细致入微的专业知识相结合,共同发挥协同作用,提高 LLM 的能力、安全性和健壮性。 希望大家和我们一起,探索反馈机制不断发展的前景,和可期待的未来:LLM 不仅安全、健壮,能力出众,并且与人类价值观相契合。

© boolan.com 博览 版权所有

沪ICP备15014563号-6

沪公网安备31011502003949号