社区所有版块导航
Python
python开源   Django   Python   DjangoApp   pycharm  
DATA
docker   Elasticsearch  
aigc
aigc   chatgpt  
WEB开发
linux   MongoDB   Redis   DATABASE   NGINX   其他Web框架   web工具   zookeeper   tornado   NoSql   Bootstrap   js   peewee   Git   bottle   IE   MQ   Jquery  
机器学习
机器学习算法  
Python88.com
反馈   公告   社区推广  
产品
短视频  
印度
印度  
Py学习  »  chatgpt

OpenAI 发布新作,揭秘 chatgpt 系统提示为何能够有效防止越狱 | LLM 偏好微调不同方法的利弊研究

AIforResearch • 2 周前 • 34 次点击  

前言:看论文就像是一次美食之旅,每一篇论文都是一道不同的菜肴。有些论文会让你大快朵颐,有些论文会让你欲罢不能,而有些论文则会让你咬牙切齿。但是别忘了,只有尝试了各种不同的菜肴,才能成为一个真正的“吃货”哦!


1. 训练LLMs优先考虑特权指令

  标题:The Instruction Hierarchy: Training LLMs to Prioritize Privileged  Instructions

  机构:OpenAI

  关键词:LLMs、指令层次结构、鲁棒性、数据生成

  作者:Eric Wallace, Kai Xiao, Reimar Leike

  分析:作者在本文中讨论了当前LLMs容易受到提示注入、越狱和其他攻击的问题,这些攻击使对手可以用恶意提示覆盖模型的原始指令。作者认为这些攻击背后的主要漏洞之一是LLMs经常将系统提示与不受信任的用户和第三方的文本视为同等优先级。为了解决这个问题,作者提出了一个指令层次结构,明确定义了当不同优先级的指令发生冲突时模型应该如何行为。然后作者提出了一种数据生成方法来展示这种层次化的指令遵循行为,教导LLMs选择性地忽略低特权指令。作者将这种方法应用于GPT-3.5,显示出它极大地提高了鲁棒性--即使对于在训练过程中未见过的攻击类型--同时对标准能力造成最小的降级。

  地址:https://arxiv.org/pdf/2404.13208


2. LLM偏好微调不同方法的利弊研究

  标题:Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy  Data

  机构:斯坦福大学、卡内基梅隆大学、Google DeepMind

  关键词:偏好微调、大型语言模型、在线采样、负梯度

  作者:Fahim Tajwar, Anikait Singh, Archit Sharma

  分析:作者在论文中提出了基于偏好标签的微调大型语言模型的重要性,探讨了几种不同的偏好微调方法,包括监督学习、在线强化学习和对比学习。作者对比了不同方法之间的实现权衡和性能差异,得出结论:采用在线采样或试图降低某些响应的可能性,即采用“负梯度”的方法通常优于线下和最大似然目标。作者对于偏好数据微调的方法提供了可操作的见解,并指导了如何收集数据以获得最大改进。

  地址:https://arxiv.org/pdf/2404.14367


3. 更好的合成数据:基于检索和转化现有数据集

  标题:Better Synthetic Data by Retrieving and Transforming Existing Datasets

  机构:卡内基梅隆大学

  关键词:数据集转换、大语言模型、数据生成、任务特定要求

  作者:Saumya Gandhi, Ritu Gala, Vijay Viswanathan

  分析:本篇论文介绍了一种名为DataTune的方法,通过数据集转换,使得公开可用的数据集可以直接与目标任务的具体要求对齐。作者发现,通过DataTune对大语言模型进行微调,相较于少样本提示基线,可以提高49%;相较于使用合成或检索到的训练数据的现有方法,可以提高34%。作者发现,数据集转换显著增加了许多任务上生成数据的多样性和难度。作者还将DataTune整合到一个开源库中,以使该方法对社区可访问: https://github.com/neulab/prompt2model。

  地址:https://arxiv.org/pdf/2404.14361

  代码:https://github.com/neulab/prompt2model


4. 低位量化LLaMA3模型有多好?一项实证研究

  标题:How Good Are Low-bit Quantized LLaMA3 Models? An Empirical Study

  机构:香港大学、北京航空航天大学、苏黎世联邦理工学院

  关键词:LLaMA3、低位量化、性能降级

  作者:Wei Huang, Xudong Ma, Haotong Qin

  分析:作者研究了Meta的LLaMA系列中LLaMA3模型在低位宽度量化时的性能。作者评估了10种不同的后训练量化和LoRA微调方法在1-8位和不同数据集上对LLaMA3的低位量化性能进行了全面展示。实验结果表明,LLaMA3在这些场景下仍然存在相当大的性能降级,特别是在超低位宽下。这凸显了未来发展中需要弥合低位宽下的显著性能差距。作者期望这项实证研究能够在推动未来模型发展方面发挥重要作用,将LLM推向更低的位宽,以更高的准确性实用化。

  地址:https://arxiv.org/pdf/2404.14047

  代码:https://github.com/Macaronlin/LLaMA3-Quantization; https://github.com/Macaronlin/LLaMA3-Quantization


5. Filtered DPO

  标题:Filtered Direct Preference Optimization

  关键词:DPO、Text quality

  作者:Tetsuro Morimura, Mitsuki Sakamoto, Yuu Jinnai

  分析:本文主要研究了如何通过过滤直接偏好优化方法来解决偏好数据集中文本质量的问题。作者发现文本质量显著影响了使用DPO优化的模型性能,而对奖励模型的RLHF优化性能影响较小。作者提出了一种扩展的DPO方法,称为过滤直接偏好优化,利用训练好的奖励模型监控DPO训练过程中偏好数据集中文本的质量。通过与优化模型生成的文本比较,丢弃质量较低的样本,从而获得更准确的数据集。实验证明,过滤直接偏好优化能够增强最终模型性能。

  地址:https://arxiv.org/pdf/2404.13846

  代码:https://github.com/CyberAgentAILab/filtered-dpo


6. 32个示例微调大模型做翻译任务:对齐的关键在哪里?

  标题:Fine-Tuning Large Language Models to Translate: Will a Touch of Noisy  Data in Misaligned Languages Suffice?

  关键词:大语言模型、翻译能力

  作者:Dawei Zhu, Pinzhen Chen, Miaoran Zhang

  分析:作者在研究中发现,即使只有32个训练实例,大语言模型(LLMs)在进行微调后显示出强大的翻译能力,通过单一翻译方向的微调,LLMs能够实现多方向翻译。但是,选择翻译方向至关重要:用英语在目标端微调LLMs会导致任务误解,阻碍了非英语语言的翻译。当在平行数据的目标端引入噪音时(尤其是目标语言在LLMs的预训练中得到很好的表示),会出现类似问题。相反,在代表意义较少的语言中引入噪音效果不太明显。作者的研究结果表明,成功对齐的关键在于教导模型保持“表面”关注,从而避免学习到错误的偏见超出翻译。

  地址:https://arxiv.org/pdf/2404.14122


7. Mathify: 在数学问题解决任务上评估大模型

  标题:Mathify: Evaluating Large Language Models on Mathematical Problem  Solving Tasks

  关键词:大型语言模型、数学问题解决、MathQuest、MAmmoTH-13B

  作者:Avinash Anand, Mohit Gupta, Kritarth Prasad

  分析:该论文主要介绍了大型语言模型在解决数学问题方面的应用。作者使用了一个名为MathQuest的数学数据集,从中提取了多样化的数学挑战,覆盖了广泛的数学概念。作者进行了三种著名大型语言模型(LLMs)的微调实验:LLaMA-2、WizardMath和MAmmoTH。实验结果表明,在这三种模型中,MAmmoTH-13B表现最为优秀,能够高效解决所提出的数学问题。因此,MAmmoTH-13B确立了自己作为NCERT数学问题解决标杆的地位。

  地址:https://arxiv.org/pdf/2404.13099


8. PARAMANU-GANITA: 具有数学能力的语言模型

  标题:PARAMANU-GANITA: Language Model with Mathematical Capabilities

  机构:印度理工学院

  关键词:Paramanu-Ganita、数学语言模型、预训练、数学推理

  作者:Mitodru Niyogi, Arnab Bhattacharya

  分析:作者在这篇论文中介绍了Paramanu-Ganita,这是一个拥有2.08亿参数的全新自回归(AR)解码器语言模型,专注于数学。作者在4096的上下文尺寸下,从头开始在自己策划的混合数学语料库上进行预训练。作者通过困惑度指标和GSM8k数学基准对模型进行评估。Paramanu-Ganita尽管比70亿规模的通用语言模型小35倍,但在GSM8k测试准确度指标中超过了通用语言模型,如LLaMa-1 70B,LLaMa-2 70B,Falcon 7B,PaLM 8B,以及数学专业语言模型Minerva 8B和LLEMMA-7B。Paramanu-Ganita还超过了巨型语言模型,如PaLM 62B,Falcon 40B,LLaMa-1 33B和Vicuna 13B。作者认为他们的数学模型在性能上极大地改进了现有的大语言模型,这表明语言模型的推理能力并不仅限于具有庞大参数量的语言模型。作者认为,针对领域适应,从头开始预训练强大的领域专长语言模型的方法比为领域适应持续训练大语言模型更具成本效益。因此,作者得出结论,对于语言模型的强大数学推理能力,该论文并不需要巨型语言模型和巨大的计算能力。最后,作者指出,他们仅在整个数学语料库的一部分上训练了Paramanu-Ganita,尚未探索模型的全部潜力。

  地址:https://arxiv.org/pdf/2404.14395


9. 数据集压缩的设计空间说明

  标题:Elucidating the Design Space of Dataset Condensation

  机构:北京大学

  关键词:数据集浓缩、数据集设计、模型训练效率

  作者:Shitong Shao, Zikai Zhou, Huanran Chen

  分析:作者提出了一种新的数据集浓缩方法,名为Elucidate Dataset Condensation(EDC),以解决数据集浓缩中的挑战。该方法通过实施软类别感知匹配和调整学习率表现出色,达到ImageNet-1k上48.6%的准确率,显著优于其他方法。作者的方法对于小规模和大规模数据集都具有良好的效果。

  地址:https://arxiv.org/pdf/2404.13733


10. 信息重组改善了大模型的推理能力

  标题:Information Re-Organization Improves Reasoning in Large Language Models

  机构:浙江大学

  关键词:信息重组、推理能力、大型语言模型、逻辑关系

  作者:Xiaoxia Cheng, Zeqi Tan, Weiming Lu

  分析: 本文主要关注改善大型语言模型(LLMs)的推理能力,提出了信息重组(InfoRE)方法。该方法在推理之前进行上下文内容的重新组织处理,以获得逻辑关系,然后在推理过程中利用重新组织的信息。作者通过在各种上下文感知的多跳推理任务上使用Llama2-70B、GPT-3.5和GPT-4进行实验,证明了该方法的有效性。在零样本设置下,作者的方法平均提高了3%的任务表现,突显了改进LLMs推理性能的潜力。

  地址:https://arxiv.org/pdf/2404.13985

  代码:https://github.com/hustcxx/InfoRE


11. 自我监督对齐与互信息:学会遵循原则而无需偏好标签

   标题:Self-Supervised Alignment with Mutual Information: Learning to Follow  Principles without Preference Labels

   机构:斯坦福大学

   关键词:自我监督、互信息、行为原则

   作者:Jan-Philipp Fränken, Eric Zelikman, Rafael Rafailov

   分析:作者介绍了SAMl方法,通过自我监督对齐LM,使其遵循行为原则,无需任何偏好标签或示例。SAMl是迭代算法,微调LM,增加条件互信息,从而在单轮对话和总结方面,SAMI训练的mistral-7b在初识预训练模型基础上表现更好,胜率在66%至77%之间。作者发现,预训练的LM可以在不使用偏好标签、示例或人类监督的情况下学会遵循原则。

   地址:https://arxiv.org/pdf/2404.14313


12. Phi-3 Technical Report: 一种高性能语言模型可在手机上本地运行

   标题:Phi-3 Technical Report: A Highly Capable Language Model Locally on Your  Phone

   机构:微软

   关键词:语言模型、phi-3、参数缩放、手机部署

   作者:Marah Abdin, Sam Ade Jacobs, Ammar Ahmad Awan

   分析:作者介绍了phi-3-mini,这是一个拥有38亿参数的语言模型,训练了33万亿令牌。该模型在学术基准和内部测试中的整体性能出色,与Mixtral 8x7B和GPT-3.5等模型相媲美(例如,phi-3-mini在MMLU上达到69%,而在MT-bench上则达到8.38),尽管足够小可以部署在手机上。创新完全在于用于训练的数据集,这是phi-2使用的数据集的规模加大版本,由大量经过滤的网络数据和合成数据组成。此外,模型还进一步针对鲁棒性、安全性和聊天格式进行了调整。作者还提供了使用分别为48万亿令牌训练的7B和14B模型的一些初始参数缩放结果,称为phi-3-small和phi-3-medium,两者的能力明显优于phi-3-mini(例如,在MMLU上分别为75%和78%,在MT-bench上分别为8.7和8.9)。

   地址:https://arxiv.org/pdf/2404.14219


13. 关于大模型高效推理的调查

   标题:A Survey on Efficient Inference for Large Language Models

   机构:清华大学、北京大学、上海交通大学

   关键词:大语言模型、高效推理、模型优化、未来研究方向

   作者:Zixuan Zhou, Xuefei Ning, Ke Hong

   分析:本文综述了大语言模型(LLMs)由于在各种任务中表现出色而引起了广泛关注。然而,LLMs推理过程中大量的计算和内存需求给在资源受限场景下的部署带来了挑战。作者在该领域的努力主要集中在开发旨在提高LLMs推理效率的技术。文中首先分析了导致LLMs推理低效的主要原因,即庞大的模型大小、二次复杂度注意力操作和自回归解码方法。然后,作者引入了一个全面的分类法,将当前文献组织成数据级、模型级和系统级优化。此外,文中包括对关键子领域内代表性方法的比较实验,从而提供量化见解。最后,作者提供了一些知识总结并讨论了未来的研究方向。

   地址:https://arxiv.org/pdf/2404.14294


14. 人类反馈的最佳设计方法

   标题:Optimal Design for Human Feedback

   机构:威斯康星大学、AWS AI Labs

   关键词:人类反馈、偏好模型、最优设计、数据收集

   作者:Subhojyoti Mukherjee, Anusha Lalitha, Kousha Kalantari

   分析:作者在本文中研究了从人类反馈中学习偏好模型的问题。他们提出广义最优设计的关键思想,用于计算排名列表的高效数据记录策略。作者研究了绝对和相对反馈在列表中的应用,并设计了高效的算法。作者证明了随着数据量的增加,偏好模型估计器的效果会提高,估计器下的排名误差也会降低。最后,作者通过多个合成和真实数据集的实验展示了算法的统计效率。

   地址:https://arxiv.org/pdf/2404.13895


15. LLM-Personalize: 通过强化自我训练实现与人类偏好对齐的LLM规划器

   标题:LLM-Personalize: Aligning LLM Planners with Human Preferences via  Reinforced Self-Training for Housekeeping Robots

   机构:爱丁堡大学

   关键词:LLM-Personalize、个性化、规划器、家庭机器人

   作者:Dongge Han, Trevor McInroe, Adam Jelley

   分析:作者介绍了LLM-Personalize,这是一个新颖的框架,旨在通过优化流程为家庭机器人个性化LLM规划器。该框架包括一个LLM规划器,在多房间、部分可观察的家庭场景中执行迭代规划,并利用本地观察构建的场景图。生成的计划由一系列高级动作序列组成,随后由控制器执行。方法的核心是优化流程,结合了模仿学习和迭代自我训练以个性化LLM规划器。作者在Housekeep上对LLM-Personalize进行了评估,这是一个具有挑战性的模拟实际家庭重排的3D基准,并展示LLM-Personalize相较于现有LLM规划器成功率提高了超过30%,显示出与人类偏好显著改进的对齐。

   地址:https://arxiv.org/pdf/2404.14285

   代码:https://donggehan.github.io/projectllmpersonalize/


16. SpaceByte: 走向删除大模型中的分词化

   标题:SpaceByte: Towards Deleting Tokenization from Large Language Modeling

   机构:莱斯大学

   关键词:SpaceByte、字节级、Transformer、性能提升

   作者:Kevin Slagle

   分析:本论文提出了SpaceByte,一种新的基于字节级解码器架构,旨在解决分词化所带来的性能偏差、增加的对抗性脆弱性、降低的字符级建模性能和增加的建模复杂性等问题。SpaceByte包括一个字节级Transformer模型,但在层中间插入了更大的Transform块。作者发现通过仅在特定字节(如空格字符)之后应用这些更大的块,性能显著提高。实验证明,在固定的训练和推理计算预算范围内,SpaceByte的性能优于其他字节级架构,并大致与分词化Transformer架构的性能相匹配。

   地址:https://arxiv.org/pdf/2404.14408


17. 基于RAG的生成式信息抽取

   标题:Retrieval-Augmented Generation-based Relation Extraction

   关键词:信息抽取、关系抽取、大语言模型、预训练

   作者:Sefika Efeoglu, Adrian Paschke

   分析:信息抽取(IE)是一种将非结构化文本数据转换为结构化格式的转换过程,其利用实体和关系抽取(RE)方法。这项工作提出了Retrieved-Augmented Generation-based Relation Extraction (RAG4RE)方法,旨在增强关系抽取任务的性能。作者评估了他们的RAG4RE方法利用不同的LLMs,并通过使用TACRED、TACREV、Re-TACRED和SemEval RE等基准数据集,全面评估了方法的有效性。研究结果表明,RAG4RE方法在TACRED数据集及其变体中表现优于仅基于LLMs的传统RE方法,同时在TACRED和TACREV数据集上表现出色,突出了其在自然语言处理中推进RE任务的有效性。

   地址:https://arxiv.org/pdf/2404.13397


18. Text in the Dark: 极低光下文字图像增强

   标题:Text in the Dark: Extremely Low-Light Text Image Enhancement

   关键词:图像增强、文字提取、低光图像、监督学习

   作者:Che-Tsung Lin, Chun Chet Ng, Zhi Qin Tan

   分析:作者通过提出一种新型的编码器-解码器框架,并引入了边缘感知注意力模块,以便在增强过程中专注于场景文字区域。提出的方法使用新颖的文字检测和边缘重建损失来强调低级别场景文字特征,导致成功的文字提取。此外,作者还提出了一个监督式深度曲线估计(Supervised-DCE)模型,用于根据ICDAR15等公开场景文字数据集合成极低光图像。作者还标记了“See In the Dark”(SID)和普通“LOw-Light”(LOL)数据集中的文字,以便通过场景文字任务客观评估极低光图像增强。大量实验证明,作者的模型在广泛使用的LOL、SID和合成IC15数据集上在图像质量和场景文字指标方面均优于现有方法。

   地址:https://arxiv.org/pdf/2404.14135

   代码:https://github.com/chunchet-ng/Text-in-the-Dark


19. 理解FFN在推动LLMs多语言行为中的作用

   标题:Understanding the role of FFNs in driving multilingual behaviour in LLMs

   机构:查尔斯大学

   关键词:多语言能力、前馈网络、模型架构、层深度

   作者:Sunit Bhattacharya, Ondřej Bojar

   分析:本文深入分析了一类大型语言模型的多语言能力,研究了其体系结构、激活模式和跨语言的处理机制。作者引入了新颖的指标来探究模型在不同层面上的多语言行为,并揭示了架构选择对多语言处理的影响。研究发现模型的前馈网络子层中存在不同的多语言处理模式。此外,在某些模型配置中,作者发现了“过度分层化”的现象,即增加层深度而未对其他参数进行相应调整可能会降低模型性能。通过不同语言内部和跨语言的比较,作者展示了在多语言训练的LLMs的模型体系结构、层深度和多语言处理能力之间的互动关系。

   地址:https://arxiv.org/pdf/2404.13855


20. LASER: 无调整LLM驱动的高效文本引导图像到动画生成

   标题:LASER: Tuning-Free LLM-Driven Attention Control for Efficient  Text-conditioned Image-to-Animation

   关键词:大语言模型、文本到图像、动画生成、LLM

   作者:Haoyu Zheng, Wenqiao Zhang, Yaoke Wang

   分析: 作者在论文中介绍了一种新的框架LASER,该框架使用大语言模型(LLM)将粗略描述细化为详细提示,指导预训练的文本到图像模型进行图像生成。作者通过操纵模型的空间特征和自注意机制来保持动画的一致性,并允许直接从文本提示无缝变形,消除了额外的微调或注释的需要。作者对空间特征和自注意力的细致控制确保了图像的结构一致性。作者还提出了一个文本引导的图像到动画基准来验证LASER的有效性和功效。大量实验证明,LASER在动画生成方面产生了令人印象深刻、一致且高效的结果,使其成为先进数字内容创作的强大工具。

   地址:https://arxiv.org/pdf/2404.13558


21. 从客户评论生成引人注目和真实的文案

   标题:Generating Attractive and Authentic Copywriting from Customer Reviews

   关键词:文案生成、客户评论、引人注目

   作者:Yu-Xiang Lin, Wei-Yun Ma

   分析:作者提出产品文案的目标是通过文本描述来突显产品特点,从而捕捉潜在买家的兴趣。而电子商务平台提供各种服务,动态调整这些自动生成描述的风格变得至关重要。传统的文案生成方法通常仅依赖于指定的产品属性,这可能导致内容枯燥重复。为了解决这个问题,作者提出基于客户评论生成文案,因为它们提供了与产品直接相关的实际体验,比仅有产品属性更丰富的信息来源。作者开发了一个序列到序列框架,结合强化学习,生成引人注目、真实且信息丰富的文案。作者的框架在吸引力和忠实度方面优于所有现有的基线和零-shot大语言模型,包括LLaMA-2-chat-7B和GPT-3.5。此外,这项工作还利用LLM进行基于方面的摘要收集和论证诱惑评估。实验证明了使用LLMs进行市场领域语料库构建的有效性。

   地址:https://arxiv.org/pdf/2404.13906

   代码:https://github.com/YuXiangLin1234/Copywriting-Generation


22. 大模型的自我演进调查

   标题:A Survey on Self-Evolution of Large Language Models

   机构:北京大学、阿里巴巴集团、南洋理工大学

   关键词:大语言模型、自我演进、经验获取、超级智能

   作者:Zhengwei Tao, Ting-En Lin, Xiancai Chen

   分析:作者在本文中探讨了大语言模型 (LLMs) 的自我演进方法。当前的LLMs从人类或外部模型监督中学习成本昂贵,并在任务复杂性和多样性增加时可能面临性能上限问题。为了解决这一问题,作者提出了自我演进方法,使LLM能够自主获取、完善和学习模型自身生成的经验。本训练范式受人类经验性学习过程启发,为将LLMs扩展至超级智能提供了潜力。作者首先提出了自我演进的概念框架,并将演进过程概述为由四个阶段组成的迭代循环:经验获取、经验完善、更新和评估。其次,作者对LLMs和基于LLMs的智能体的演进目标进行了分类;然后总结了文献,为每个模块提供了分类法和见解。最后,作者指出了存在的挑战并提出了改进自我演进框架的未来方向,为研究人员提供了深入了解以加快自演进LLMs的发展。

   地址:https://arxiv.org/pdf/2404.14387


23. 先进AI模型的整体安全和责任评估

   标题:Holistic Safety and Responsibility Evaluations of Advanced AI Models

   机构:谷歌研究院、Google DeepMind

   关键词:AI模型、安全评估、科学规范

   作者:Laura Weidinger, Joslyn Barnhart, Jenny Brennan

   分析:作者总结了在Google DeepMind的先进AI模型开发中应用的广泛安全评估方法。主要内容包括:首先,理论基础和框架对于组织风险领域、形式、度量和目标是非常宝贵的。其次,安全评估的理论与实践互相受益,从而澄清目标、方法和挑战,并促进不同利益相关者和学科之间的见解交流。第三,类似的关键方法、经验教训和机构适用于责任和安全领域的一系列关注点。这篇论文致力于推动评估科学的快速发展,并期望在AI的开发和治理中整合新的评估方法,建立科学基础的规范和标准,促进健全的评估生态系统。

   地址:https://arxiv.org/pdf/2404.14068


24. LoRA 专家混合模型

   标题:Mixture of LoRA Experts

   机构:微软亚洲研究院

   关键词:LoRA、MoLE、多模态

   作者:Xun Wu, Shaohan Huang, Furu Wei

   分析:本文介绍了Mixture of LoRA Experts (MoLE)方法,旨在解决多个LoRA融合的挑战。作者利用层次控制和无拘束的分支选择,实现了对不同下游任务的优越LoRA融合性能。在自然语言处理(NLP)和视觉与语言(V&L)领域的广泛实验评估证实了MoLE的有效性。

   地址:https://arxiv.org/pdf/2404.13628


25. 保护您的LLMs: 信息瓶颈防护

   标题:Protecting Your LLMs with Information Bottleneck

   机构:南京大学、清华大学、微软亚洲研究院

   关键词:信息瓶颈防护、越狱攻击、模型安全、提示优化

   作者:Zichuan Liu, Zefan Wang, Linjie Xu

   分析:作者提出了一种针对大型语言模型(LLMs)的防御机制,名为信息瓶颈防护(IBProtector)。该防御机制基于信息瓶颈原理,通过修改目标以避免平凡解,并通过轻量且可训练的提取器选择性压缩和扰动提示。作者考虑了梯度不可见的情况,证明IBProtector在减轻越狱尝试方面优于当前的防御方法,而不会过度影响响应质量或推理速度。作者认为IBProtector对各种攻击方法和目标LLMs的有效性和适应性突出了其作为一种新颖、可转移的防御措施的潜力,而不需要修改底层模型。

   地址:https://arxiv.org/pdf/2404.13968


26. SVGEditBench: 用于量化评估LLM的SVG编辑能力的基准数据集

   标题:SVGEditBench: A Benchmark Dataset for Quantitative Assessment of LLM's  SVG Editing Capabilities

   机构:东京大学

   关键词:SVGEditBench、LLM、SVG编辑、数据集构建

   作者:Kunato Nishina, Yusuke Matsui

   分析:本文主要介绍了作者提出的SVGEditBench,用于评估LLM编辑SVG代码的能力。该数据集是为了定量评估LLM编辑SVG的能力而创建的。作者展示了对所提出基准数据集进行评估时GPT-4和GPT-3.5的结果。在实验中,GPT-4在定量和质量上均表现出优越性。作者主要解决了LLM编辑SVG的问题,并采用了基准数据集的方法来评估效果。

   地址:https://arxiv.org/pdf/2404.13710

   代码:https://github.com/mti-lab/SVGEditBench


27. Calc-CMU在SemEval-2024任务7中的表现:Pre-Calc -- 学习使用计算器提高了大模型的数字素养

   标题:Calc-CMU at SemEval-2024 Task 7: Pre-Calc -- Learning to Use the  Calculator Improves Numeracy in Language Models

   机构:卡内基梅隆大学

   关键词:语言模型、数字理解、计算器使用、预微调

   作者:Vishruth Veerendranath, Vishwa Shah, Kshitish Ghate

   分析:作者在论文中提出了一个简单的预微调目标 Pre-Calc,用于学习使用计算器,针对仅含编码器和编码器-解码器结构的大语言模型进行了探索。作者在MAWPS、SVAMP和AsDiv-A数据集上分别对BERT和RoBERTa进行了判别式计算器使用的预训练,对于生成式计算器使用则使用了Flan-T5,这种方法提高了在需要数字理解的下游任务表现。作者的代码和数据可以在https://github.com/calc-cmu/pre-calc找到。

   地址:https://arxiv.org/pdf/2404.14355

   代码:https://github.com/calc-cmu/pre-calc


28. Movie101v2: 改进的电影叙述基准

   标题:Movie101v2: Improved Movie Narration Benchmark

   机构:中国人民大学

   关键词:电影叙述、视障观众、数据集、模型评估

   作者:Zihao Yue, Yepeng Zhang, Ziheng Wang

   分析:作者提出自动电影叙述的研究,旨在创建视频对齐的情节描述,以帮助视障观众。该研究不同于标准的视频字幕生成,需要描述关键的视觉细节,同时推断跨多个电影镜头开发的情节,因此具有独特且持续的挑战。作者首先重新审视现有数据集的局限性,并开发了一个大规模的双语电影叙述数据集Movie101v2。其次,考虑到实现适用电影叙述的重要困难,作者将长期目标分为三个渐进阶段,并暂时专注于特色在个别剪辑内的理解的初始阶段。作者还推出了一个新的叙述评估来与阶段任务目标保持一致。第三,作者使用他们的新数据集,在几种领先的大型视觉语言模型中基准测试,包括GPT-4V,并对当前模型在电影叙述生成中面临的挑战进行了深入研究。研究结果显示,实现适用的电影叙述生成是一个迷人的目标,需要彻底研究。

   地址:https://arxiv.org/pdf/2404.13370


29. HiVG: 分层多模态细粒度调制用于视觉对齐

   标题:HiVG: Hierarchical Multimodal Fine-grained Modulation for Visual  Grounding

   机构:鹏城实验室、中国科学院大学、中国科学院自动化研究所

   关键词:视觉对齐、多模态、预训练、细粒度调制

   作者:Linhui Xiao, Xiaoshan Yang, Fang Peng

   分析:本文主要研究了如何通过多模态预训练来解决视觉对齐任务中的显著性差距问题。为了解决这些问题,作者提出了一个简洁高效的分层多模态细粒度调制框架,即HiVG。具体来说,HiVG包括多层自适应交叉模态桥梁和分层多模态低秩适应(Hi LoRA)范式。交叉模态桥梁可以处理视觉特征与对地面要求的特征之间的不一致性,并建立多级视觉和文本特征之间的联系。Hi LoRA通过以分层方式从浅到深逐层调整交叉模态特征来防止感知误差的累积。实验结果表明,该方法具有显著的对地能力和可观的能效优势。

   地址:https://arxiv.org/pdf/2404.13400

   代码:https://github.com/linhuixiao/HiVG


30. ChatRetriever: 大模型在普遍和稳健对话密集检索中的适配

   标题:ChatRetriever: Adapting Large Language Models for Generalized and Robust  Conversational Dense Retrieval

   机构:早稻田大学、中国人民大学、蒙特利尔大学

   关键词:对话检索、密集检索、大型语言模型、泛化能力

   作者:Kelong Mao, Chenlong Deng, Haonan Chen

   分析: 本文介绍了ChatRetriever,该模型继承了大型语言模型的强大泛化能力,用于稳健地表示复杂对话会话以进行密集检索。作者提出了一种简单而有效的双学习方法,通过对比学习来调整LLM以用于检索,同时通过高质量的对话指令微调数据来增强对复杂会话的理解。广泛的实验表明,ChatRetriever明显优于现有的对话密集检索模型,在处理各种对话环境方面表现出色。作者的工作强调了将LLMs调整为检索复杂输入,如对话搜索会话,并提出了推进这一研究方向的有效方法。

   地址:https://arxiv.org/pdf/2404.13556


31. SEED-X: 统一多粒度理解与生成的多模态模型

   标题:SEED-X: Multimodal Models with Unified Multi-granularity Comprehension  and Generation

   机构:腾讯AI实验室、Tencent PCG实验室

   关键词:多模态、图像生成、视觉语义

   地址:https://arxiv.org/pdf/2404.14396

   代码:https://github.com/AILab-CVC/SEED-X


32. MultiBooth: 从文本生成图像中生成所有概念

   标题:MultiBooth: Towards Generating All Your Concepts in an Image from Text

   机构:清华大学

   关键词:多概念生成、图像生成、概念精度、多模态

   地址:https://arxiv.org/pdf/2404.14239

   代码:https://multibooth.github.io/


33. 对抗性表示工程实现通用概念模型编辑

   标题:Towards General Conceptual Model Editing via Adversarial Representation  Engineering

   机构:北京大学、新加坡管理大学

   关键词:表示工程、对抗性表示工程、模型编辑

   地址:https://arxiv.org/pdf/2404.13752

   代码:https://github.com/Zhang-Yihao/Adversarial-Representation-Engineering


34. 基于大型多模态模型的图形设计

   标题:Graphic Design with Large Multimodal Model

   机构:字节跳动

   关键词:图形设计、大型多模态模型、图形布局生成、序列生成问题

   地址:https://arxiv.org/pdf/2404.14368

   代码:https://github.com/graphic-design-ai/graphist


35. Beyond Scaling:通过领域特定的细粒度索赔依赖图预测专利批准

   标题:Beyond Scaling: Predicting Patent Approval with Domain-specific  Fine-grained Claim Dependency Graph

   机构:加州大学、卡内基梅隆大学、宾夕法尼亚大学

   关键词:图方法、依赖关系、批准预测

   地址:https://arxiv.org/pdf/2404.14372


36. MARIO Eval: 使用你的数学LLM评估你的数学LLM-一个数学数据集评估工具包

   标题:MARIO Eval: Evaluate Your Math LLM with your Math LLM--A mathematical  dataset evaluation toolkit

   机构:浙江大学、阿里巴巴集团

   关键词:评估工具包、LLM、数据集

   地址:https://arxiv.org/pdf/2404.13925

   代码:https://github.com/MARIO-Math-Reasoning/math_evaluation


37. 调查大模型与人类对17个可持续发展目标的态度一致性

   标题:Surveying Attitudinal Alignment Between Large Language Models Vs. Humans  Towards 17 Sustainable Development Goals

   机构:复旦大学、东北大学、斯坦福大学

   关键词:大语言模型、可持续发展目标、态度差异、社会影响

   地址:https://arxiv.org/pdf/2404.13885


38. 全球英语命名实体识别(NER)数据集---一个研究

   标题:Do "English" Named Entity Recognizers Work Well on Global Englishes?

   机构:斯坦福大学

   关键词:命名实体识别、数据集

   地址:https://arxiv.org/pdf/2404.13465


39. Beyond Accuracy:探究GPT-4对USMLE问题回答中的错误类型

   标题:Beyond Accuracy: Investigating Error Types in GPT-4 Responses to USMLE  Questions

   机构:密歇根大学

   关键词:GPT-4、USMLE、错误类型、医学问答

   地址:https://arxiv.org/pdf/2404.13307

   代码:https://github.com/roysoumya/usmle-gpt4-error-taxonomy


40. 美国高等教育课程教授的国家纵向技能数据集

   标题:A national longitudinal dataset of skills taught in U.S. higher  education curricula

   机构:匹兹堡大学、斯坦福大学、哥伦比亚大学

   关键词:高等教育、技能发展、工作技能、大规模数据集

   地址:https://arxiv.org/pdf/2404.13163


41. STaRK: 在文本和关系知识库上进行LLM检索的基准测试

   标题:STaRK: Benchmarking LLM Retrieval on Textual and Relational Knowledge  Bases

   机构:斯坦福大学、Amazon

   关键词:半结构检索、关系知识库、LLM系统、数据综合

   地址:https://arxiv.org/pdf/2404.13207


42. CKD: 从样本角度进行对比知识蒸馏

   标题:CKD: Contrastive Knowledge Distillation from A Sample-wise Perspective

   机构:天津大学

   关键词:对比知识蒸馏、样本对齐、教师学生logits、图像分类

   地址:https://arxiv.org/pdf/2404.14109

   代码:https://github.com/wencheng-zhu/CKD


43. AnyPattern: 面向上下文图像复制检测

   标题:AnyPattern: Towards In-context Image Copy Detection

   机构:百度、北京大学、浙江大学

   关键词:图像复制检测、上下文学习、大规模数据集、模式泛化

   地址:https://arxiv.org/pdf/2404.13788


44. CoFInAl: 通过粗到细的指令对齐增强动作质量评估

   标题:CoFInAl: Enhancing Action Quality Assessment with Coarse-to-Fine  Instruction Alignment

   机构:北京航空航天大学

   关键词:动作质量评估、预训练、指令微调、相关性增益

   地址:https://arxiv.org/pdf/2404.13999

   代码:https://github.com/ZhouKanglei/CoFInAl_AQA


45. Face2Face: 标签驱动的面部修饰恢复

   标题:Face2Face: Label-driven Facial Retouching Restoration

   机构:北京大学

   关键词:面部修饰、人工智能、社交媒体

   地址:https://arxiv.org/pdf/2404.14177


46. GaussianTalker: Speaker-specific Talking Head Synthesis via 3D Gaussian Splatting

   标题:GaussianTalker: Speaker-specific Talking Head Synthesis via 3D Gaussian  Splatting

   机构:浙江大学、阿里巴巴集团

   关键词:音频驱动、头部合成、3D高斯、说话者特定

   地址:https://arxiv.org/pdf/2404.14037


47. RHanDS: 通过解耦结构和风格指导改善生成图像中畸形手部

   标题:RHanDS: Refining Malformed Hands for Generated Images with Decoupled  Structure and Style Guidance

   机构:厦门大学、阿里巴巴集团

   关键词:扩散模型、结构指导、风格指导、畸形手

   地址:https://arxiv.org/pdf/2404.13984


48. FakeBench: 揭示大型多模态模型对假图片的软肋

   标题:FakeBench: Uncover the Achilles' Heels of Fake Images with Large  Multimodal Models

   机构:匹兹堡大学、香港城市大学、南洋理工大学

   关键词:假图片检测、大型多模态模型、透明化揭示、数据集构建

   地址:https://arxiv.org/pdf/2404.13306


49. 在大视觉语言模型中检测和减轻虚构现象的研究

   标题:Detecting and Mitigating Hallucination in Large Vision Language Models  via Fine-Grained AI Feedback

   机构:浙江大学、复旦大学、阿里巴巴集团

   关键词:视觉语言模型、虚构现象、细粒度反馈、模型优化

   地址:https://arxiv.org/pdf/2404.14233


50. 零样本漫画中的角色识别与说话者预测

   标题:Zero-Shot Character Identification and Speaker Prediction in Comics via  Iterative Multimodal Fusion

   机构:东京大学

   关键词:漫画处理、零样本学习、多模态融合、角色识别

   地址:https://arxiv.org/pdf/2404.13993


51. VALOR-EVAL: 大型视觉-语言模型的全面覆盖和忠实度评估

   标题:VALOR-EVAL: Holistic Coverage and Faithfulness Evaluation of Large  Vision-Language Models

   机构:UC洛杉矶分校

   关键词:视觉-语言模型、全面评估、幻觉问题、信实度

   地址:https://arxiv.org/pdf/2404.13874


52. 超越像素级监督的医学图像分割:从传统模型到基础模型

   标题:Beyond Pixel-Wise Supervision for Medical Image Segmentation: From  Traditional Models to Foundation Models

   机构:复旦大学

   关键词:医学图像分割、基础模型、弱注释、预训练

   地址:https://arxiv.org/pdf/2404.13239


53. 视频句子定位与全局文本知识

   标题:Video sentence grounding with temporally global textual knowledge

   机构:南洋理工大学、香港理工大学

   关键词:视频句子定位、全局文本知识、多模态特征对齐、伪查询特征

   地址:https://arxiv.org/pdf/2404.13611


54. 基于大模型的智能体记忆机制调查

   标题:A Survey on the Memory Mechanism of Large Language Model based Agents

   机构:中国人民大学

   关键词:大语言模型、智能体、记忆机制

   地址:https://arxiv.org/pdf/2404.13501

   代码:https://github.com/nuster1128/LLM_Agent_Memory_Survey


55. TrimCaching: AI模型下载的参数共享边缘缓存

   标题:TrimCaching: Parameter-sharing Edge Caching for AI Model Downloading

   机构:香港大学、鹏城实验室、华中科技大学

   关键词:参数共享、边缘缓存、存储效率、缓存命中率

   地址:https://arxiv.org/pdf/2404.14204


56. 5GC^2ache: 通过缓存优化提高5G UPF性能

   标题:5GC^2ache: Improving 5G UPF Performance via Cache Optimization

   机构:阿里巴巴集团

   关键词:缓存优化、性能提升、LLC资源分配

   地址:https://arxiv.org/pdf/2404.13991


57. FLDM-VTON: 服装虚拟试穿的可信潜在扩散模型

   标题:FLDM-VTON: Faithful Latent Diffusion Model for Virtual Try-on

   机构:复旦大学

   关键词:虚拟试穿、服装细节、潜在扩散模型、忠实服装先验

   地址:https://arxiv.org/pdf/2404.14162


58. 一个好的双关语就是自己的再奖励

   标题:"A good pun is its own reword": Can Large Language Models Understand  Puns?

   机构:复旦大学

   关键词:双关语、大语言模型、理解能力、评估方法

   地址:https://arxiv.org/pdf/2404.13599


59. 基于高低频分解的图像修复与增强方法

   标题:Bracketing Image Restoration and Enhancement with High-Low Frequency  Decomposition

   机构:西北工业大学

   关键词:图像修复、高低频分解、特征提取、模型效果

   地址:https://arxiv.org/pdf/2404.13537


60. ISQA: 科学总结中的信息性事实反馈

   标题:ISQA: Informative Factuality Feedback for Scientific Summarization

   机构:新加坡国立大学、Sea AI实验室

   关键词:ISQA、科学总结、事实性、反馈机制

   地址:https://arxiv.org/pdf/2404.13246

   代码:https://github.com/lizekai-richard/isqa,


61. EnzChemRED, 一个丰富的酶化学关系提取数据集

   标题:EnzChemRED, a rich enzyme chemistry relation extraction dataset

   机构:国家生物技术信息中心

   关键词:EnzChemRED、化学反应、自然语言处理

   地址:https://arxiv.org/pdf/2404.14209

   代码:https://ftp.expasy.org/databases/rhea/nlp/


62. 面向用户的大模型评估基准

   标题:A User-Centric Benchmark for Evaluating Large Language Models

   机构:蒙特利尔大学

   关键词:大型语言模型、用户需求、评估基准、数据集构建

   地址:https://arxiv.org/pdf/2404.13940

   代码:https://github.com/Alice1998/URS


63. Navigating the Path of Writing:大模型引导的文本生成

   标题:Navigating the Path of Writing: Outline-guided Text Generation with  Large Language Models

   机构:韩国高丽大学

   关键词:大纲引导、文本生成、写作路径、大型语言模型

   地址:https://arxiv.org/pdf/2404.13919


64. 机器遗忘与空间校准

   标题:Machine Unlearning via Null Space Calibration

   机构:悉尼科技大学

   关键词:机器遗忘、空间校准、模型性能、特定空间

   地址:https://arxiv.org/pdf/2404.13588

   代码:https://github.com/HQC-ML/Machine-Unlearning-via-Null-Space-Calibration


65. Authentic Emotion Mapping: Benchmarking Facial Expressions in Real News

   标题:Authentic Emotion Mapping: Benchmarking Facial Expressions in Real News

   机构:澳大利亚国立大学

   关键词:面部地标、情绪识别、图神经网络、新闻视频

   地址:https://arxiv.org/pdf/2404.13493

   代码:https://github.com/wangzhifengharrison/benchmark_real_news


66. 探索虚拟现实中的双手传送技术

   标题:Exploring Bi-Manual Teleportation in Virtual Reality

   机构:印度理工学院、英属哥伦比亚大学

   关键词:虚拟现实、双手传送、Fitts' Law、用户研究

   地址:https://arxiv.org/pdf/2404.13431


67. 自动化长答案评分与RiceChem数据集

   标题:Automated Long Answer Grading with RiceChem Dataset

   机构:莱斯大学

   关键词:自动化评分、长答案评分、评分标准、数据集构建

   地址:https://arxiv.org/pdf/2404.14316

   代码:https://github.com/luffycodes/Automated-Long-Answer-Grading


68. 大模型中增强问题解决能力的人工神经元

   标题:An Artificial Neuron for Enhanced Problem Solving in Large Language  Models

   机构:乔治亚理工学院

   关键词:人工神经元、大语言模型、推理策略、外部存储系统

   地址:https://arxiv.org/pdf/2404.14222


69. 你的神经代码补全模型是否使用了我的代码?一种会员推理方法

   标题:Does Your Neural Code Completion Model Use My Code? A Membership  Inference Approach

   机构:华中科技大学、新南威尔士大学

   关键词:神经代码补全、会员推理方法、大型语言模型

   地址:https://arxiv.org/pdf/2404.14296


70. 文本到图像生成中的对象-属性绑定: 评估与控制

   标题:Object-Attribute Binding in Text-to-Image Generation: Evaluation and  Control

   机构:苏黎世联邦理工学院

   关键词:对象-属性绑定、扩散模型、视觉注意力、多模态

   地址:https://arxiv.org/pdf/2404.13766


71. UnibucLLM: 利用LLM进行自动预测多项选择题难度和反应时间

   标题:UnibucLLM: Harnessing LLMs for Automated Prediction of Item Difficulty  and Response Time for Multiple-Choice Questions

   关键词:LLM、难度预测、反应时间、医学考试

   地址:https://arxiv.org/pdf/2404.13343

   代码:https://github.com/ana-rogoz/BEA-2024


72. 重新思考法律合规自动化:大模型的机遇

   标题:Rethinking Legal Compliance Automation: Opportunities with Large  Language Models

   机构:渥太华大学

   关键词:法律合规、自动化、大语言模型、合规分析

   地址:https://arxiv.org/pdf/2404.14356


73. On-the-Fly点标注用于快速医学视频标记

   标题:On-the-Fly Point Annotation for Fast Medical Video Labeling

   机构:麦吉尔大学

   关键词:医学视频、标注方法、深度学习、伪标签

   地址:https://arxiv.org/pdf/2404.14344


74. AI安全的机制解释性研究 -- 一项综述

   标题:Mechanistic Interpretability for AI Safety -- A Review

   机构:阿姆斯特丹大学

   关键词:AI安全、机制解释性、价值对齐、神经网络

   地址:https://arxiv.org/pdf/2404.14082


75. 一个用于真实车牌去模糊的数据集和模型

   标题:A Dataset and Model for Realistic License Plate Deblurring

   关键词:车牌去模糊、LPDGAN、数据集

   地址:https://arxiv.org/pdf/2404.13677

   代码:https://github.com/haoyGONG/LPDGAN


76. Musical Word Embedding for Music Tagging and Retrieval

   标题:Musical Word Embedding for Music Tagging and Retrieval

   机构:韩国科学技术高等研究院

   关键词:音乐词嵌入、音频-词联合表示、音乐标记、音乐检索

   地址:https://arxiv.org/pdf/2404.13569


77. MathNet: 一种面向印刷数学表达式识别的数据中心方法

   标题:MathNet: A Data-Centric Approach for Printed Mathematical Expression  Recognition

   关键词:数学表达式识别、LaTeX、数据中心方法、印刷数学表达式

   地址:https://arxiv.org/pdf/2404.13667


78. PCQA: 基于提示条件的AIGC质量评估的强基线

   标题:PCQA: A Strong Baseline for AIGC Quality Assessment Based on Prompt  Condition

   关键词:AIGC、质量评估、提示条件、多模态

   地址:https://arxiv.org/pdf/2404.13299


79. ST-SSMs: 空间-时间选择性空间状态模型 在交通预测中的应用

   标题:ST-SSMs: Spatial-Temporal Selective State of Space Model for Traffic  Forecasting

   关键词:交通预测、ST-SSMs、空间-时间模型、交通流预测

   地址:https://arxiv.org/pdf/2404.13257


80. LLMs Know What They Need:利用缺失信息引导框架增强检索增强生成

   标题:LLMs Know What They Need: Leveraging a Missing Information Guided  Framework to Empower Retrieval-Augmented Generation

   关键词:检索增强生成、LLMs、缺失信息、模型结构改进

   地址:https://arxiv.org/pdf/2404.14043


81. 迭代提示多模态LLMs以重现自然和人工智能生成的图像

   标题:Iteratively Prompting Multimodal LLMs to Reproduce Natural and  AI-Generated Images

   关键词:多模态、提示生成、CLIP模型、图像生成

   地址:https://arxiv.org/pdf/2404.13784


82. 音频反欺诈检测:一项调查

   标题:Audio Anti-Spoofing Detection: A Survey

   关键词:音频反欺诈、Deepfake、音频Deepfake、对抗攻击

   地址: https://arxiv.org/pdf/2404.13914


83. 评估检索增强生成中的检索质量

   标题:Evaluating Retrieval Quality in Retrieval-Augmented Generation

   关键词:检索增强生成、eRAG、大型语言模型、下游任务性能

   地址:https://arxiv.org/pdf/2404.13781


84. 突破异构联邦学习中的内存墙:渐进训练

   标题:Breaking the Memory Wall for Heterogeneous Federated Learning with  Progressive Training

   关键词:联邦学习、渐进训练、内存占用、模型准确性

   地址:https://arxiv.org/pdf/2404.13349


85. 音乐一致性模型

   标题:Music Consistency Models

   关键词:音乐一致性模型、音乐生成、高效率

   地址:https://arxiv.org/pdf/2404.13358


好啦,小编今天的分享就到这里啦,欢迎留言讨论哦。

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/169356
 
34 次点击