首页

解决大语言模型的安全保障问题

发布日期:2024-05-30      新闻来源:       责任编辑:沙艳      地点:计算机楼A501                日期:2024年6月3日

解决大语言模型的安全保障问题

报告题目:解决大语言模型的安全保障问题(Towards Addressing the Safety and Security Concerns of LLMs

报告人: See Kiong Ng(黄思强)

报告时间202463日下午230-330

报告地点:计算机学院A501


报告摘要

近期大型生成式人工智能模型(如大语言模型)方面的突破导致了一场持续的全球竞赛,力图在这些新型且强大技术的发展过程中利用这些技术。虽然研究人员仍在探索大语言模型的新能力,并努力理解这些能力背后的内在机制,但是我们仍然不确定其效果的可预测性和风险的可控性。由于大语言模型的发展速度超过了我们的预期,其安全保障问题越来越受到关注,特别是当大语言模型成为现实世界应用的重要组成部分时。在本次讲座中,我们将讨论大语言模型的安全保障问题,以及我们解决这些问题的一些初步尝试。

The recent breakthroughs in large generative AI models such as the large language models (LLMs) have led to an ongoing global race to exploit the new and powerful technologies as they continue to evolve. As researchers are still exploring the new capabilities of the LLMs while striving to grasp the inner mechanisms enabling these capabilities, we lack certainty regarding the predictability of their effects and the manageability of their risks. Outpaced by the rapid rate of AI development for LLMs, the safety and security of LLMs are of increasing concern, especially as LLMs become integral to real-world applications. In this talk, we will discuss the safety and security concerns of LLMs, as well as some of our initial attempts in address them.

报告人简介

   黄思强为新加坡国立大学计算机学院教授,新加坡国立大学数据科学研究所副所长及转化研究总监, AI Singapore人工智能技术总监。黄思强先后获得了卡内基梅隆大学应用数学学士学位,宾夕法尼亚大学计算机与信息科学(人工智能)硕士学位,卡内基梅隆大学计算机科学博士学位。他目前的研究重点是利用大语言模型开发有效的机器学习方法以实现通用人工智能。同时,他对开发语言和视觉之外的其他基础模型也感兴趣。