划重点:
ChatGPT 的“幻觉”问题在欧盟遭遇一起隐私投诉
甲骨文加强生成式 AI 能力,云计算竞争白热化
英伟达黄仁勋称 AI 不会完全取代人类工作:人类有很好的判断力,有些情况机器无法理解
如果用户不删除照片,照片共享社区 EyeEm 将授权用户使用照片来训练 AI
Meta AI 测试:并不能完全证明其存在的合理性,但免费就是免费
AI 正让管理者紧张:它管理比我强,我可能会降薪
消息称谷歌 Python 基础团队全数被裁
资讯详情:
ChatGPT 的“幻觉”问题在欧盟遭遇一起隐私投诉
据TechCrunch报道,OpenAI 在欧盟面临另一起隐私投诉。该投诉由隐私权非营利组织noyb代表个人投诉人提交,针对其人工智能聊天机器人 ChatGPT 无法纠正其生成的有关个人的错误信息的问题。
GenAI 工具产生明显错误信息的倾向已得到充分记录。但它也使该技术与欧盟的《通用数据保护条例》(GDPR) 发生冲突——该条例规定了如何处理区域用户的个人数据。
未能遵守 GDPR 的处罚最高可达全球年营业额的 4%。对于像 OpenAI 这样资源丰富的巨头来说,更重要的是:数据保护监管机构可以下令改变信息处理方式,因此 GDPR 的执行可能会重塑生成式人工智能工具在欧盟的运作方式。
据摩根大通官方消息,其人工智能研究部最近推出了一款名为FlowMind的先进工具,旨在通过利用GPT技术自动生成工作流程,从而自动化金融行业内的多种任务。
这些任务包括信贷审批、风险评估和合规监测等,FlowMind的引入极大地提高了工作效率,并减少了人为错误的可能性。
FlowMind的设计考虑到了金融行业对数据安全和隐私保护的严格要求。通过使用抽象层和API,FlowMind在执行任务时不会暴露任何敏感信息,从而保护了用户数据的安全。此外,FlowMind的个性化配置和用户参与机制,使得用户能够根据自己的具体需求定制自动化流程,提高了自动化解决方案的灵活性和有效性。
英伟达黄仁勋称 AI 不会完全取代人类工作:人类有很好的判断力,有些情况机器无法理解 据Readhub报道,当地时间周日晚间,英伟达 CEO 黄仁勋接受美国哥伦比亚广播公司(CBS)《60 分钟》节目采访,谈到自己对人工智能的最新看法。其称,随着人工智能对企业的帮助(日益增加),企业自然会扩大规模,人类工作不会因此消失。
黄仁勋表示,公司收益是同生产力一起增加的,自己从未见过哪个公司在盈利增加的同时,没有雇佣更多员工。“即使有些工作被淘汰了,我相信,你仍然希望人类参与其中,因为我们有很好的判断力,有些情况机器是无法理解的。”
在介绍英伟达最新 GPU 芯片“Blackwell”时,黄仁勋声称“AI 的能力是无限的”。“我们希望它能给我们带来惊喜。这就是关键所在。在某些领域,比如药物发现,或者设计出更轻、更坚固的材料。我们需要人工智能,来帮助我们探索宇宙中我们自己永远无法做到的地方。”
黄仁勋曾在一周前的另一次访谈中预测,在不久的将来,“人形机器人”这一全新类别设备将成为大众化制品,其制造成本将会“远低于”人们的预期。“廉价汽车的售价为 1-2 万美元我们为什么不能购买一个相同价位段的人形机器人呢?”其认为,在一些特定的人工制造的环境中,机器人可能会更加灵活,且更为“多才多艺”。
如果用户不删除照片,照片共享社区 EyeEm 将授权用户使用 照片来训练 AI 据TechCrunch报道,EyeEm是一家总部位于柏林的照片共享社区,去年破产后被西班牙公司Freepik收购,现在正在授权其用户的照片来训练人工智能模型。本月早些时候,该公司通过电子邮件通知用户,它正在其条款和条件中添加一项新条款,该条款将授予其上传用户内容以“训练、开发和改进软件、算法和机器学习模型”的权利”。用户有 30 天的时间可以选择退出,从 EyeEm 平台上删除所有内容。否则,他们就同意这个用例用于他们的工作。
截至 2023 年被收购时,EyeEm 的照片库包含 1.6 亿张图像和近 15 万用户。该公司表示,随着时间的推移,它将把自己的社区与 Freepik 的社区合并。根据Appfigures的数据,尽管销量有所下降,但每个月仍有近 30,000 人下载。
据 TechCrunch 的 Ingrid Lunden 此前报道,曾被认为是 Instagram(或者至少是“欧洲的 Instagram ”)的潜在挑战者的 EyeEm 在出售给 Freepik 之前已缩减至三名员工。Freepik 首席执行官华金·昆卡·阿贝拉 (Joaquin Cuenca Abela) 暗示了该公司针对 EyeEm 的可能计划,表示将探索如何为平台上的创作者引入更多人工智能。
事实证明,这意味着出售他们的作品来训练人工智能模型。
Meta AI 测试:并不能完全证明其存在的合理性,但免费就是免费 据 TechCrunch报道,Meta 的新大型语言模型Llama 3为富有想象力的“Meta AI”提供支持,这是一种新型聊天机器人,这家社交媒体和广告公司已将其安装在尽可能多的应用程序和界面中。这个模型与其他通用对话人工智能相比如何?它往往会重复大量的网络搜索结果,而且它在任何方面都不擅长,但是嘿 - 价格合适。
目前,您可以通过 Meta.ai、Instagram、Facebook、WhatsApp 以及其他一些地方(如果这些还不够的话)免费访问 Meta AI。它之前就已经可用,但 Llama 3 和新的 Imagine 图像生成器(不要与Google 的 Imagen混淆)的发布导致 Meta 将其推广为对人工智能感兴趣的人的第一站。毕竟,您可能会偶然使用它,因为他们用它替换了您的搜索框!
马克·扎克伯格甚至表示,他希望 Meta AI 成为“世界上使用最多、最好的人工智能助手”。有目标很重要。
据 cnBeat报道,最新调查显示,管理人员普遍担忧在工作场所广泛应用如 OpenAI ChatGPT 等强大的生成式人工智能工具,可能会对他们的薪资水平造成不利影响。
为了深入了解管理人员对人工智能技术的态度,人工智能初创公司 Beautiful.ai 最近对 3000 名美国管理职位员工进行了调查。结果显示,48% 的管理人员认为人工智能工具将对他们的薪酬构成威胁,并预测这一趋势将在 2024 年进一步加剧全美的工资下降趋势。
调查还指出:“毫无疑问,人工智能工具的引入已经让员工开始质疑它们对公司的价值。”
越来越多的研究揭示了一个共同的观点:员工普遍认为人工智能技术将对其收入产生影响。去年 5 月,市场研究软件平台 Pollfish 发布的一项调查结果显示,近 79% 的美国员工对人工智能技术的采用表示担忧,包括这会导致他们的薪资水平下降。
据 谷歌 Python 工程师、CPython 核心开发者兼 Python 指导委员会成员 Thomas Wouters 表示,谷歌已将其 Python 团队裁撤。
Thomas Wouters 负责了 Python 3.12 和 3.13 的整体发版流程,对于此前备受关注的 no-GIL 特性,他承担了对外沟通的大量工作。
媒体综合各方贴文报道获悉,谷歌目前已经解雇了整个 Python 基础团队,而被裁员工据称还将在慕尼黑办公室对接替他们工作的员工进行培训。
利哈伊大学:
《TRUSTLLM: TRUSTWORTHINESS IN LARGE LANGUAGE MODELS》
提出了8个不同维度的可信度原则,并在6个维度上建立了基准,包括真实性、安全性、公平性、鲁棒性、隐私和机器伦理。评估了16个主流LLMs的可信度,并发现可信度和实用性呈正相关关系。同时发现专有LLMs在可信度方面通常优于大部分开源LLMs。实验使用了30个数据集,并提出了一些开放性挑战和未来方向。同时发现有些LLMs过于校准以展示可信度,导致误将良性提示视为有害。
论文地址:
https://arxiv.org/abs/2401.05561v2
谷歌:
《Distilling Vision-Language Models on Millions of Videos 》
论文使用合成的指导数据fine-tuning一个强的图像-语言基线模型来解决视频-语言模型中数据不足的问题,并生成高质量的视频标题。本论文的亮点在于使用合成的指导数据fine-tuning视频-语言模型,提高了模型的性能,并且在多个视频-语言基准测试中表现出色,同时也提供了更好的文本监督。论文还介绍了实验设计和数据集,并提供了开源代码。值得进一步研究的是使用自动生成的标题进行对比训练的视频-语言双编码器模型的表现优于当前最强的基线模型。
https://arxiv.org/abs/2401.06129v1
Meta:
《Self-Rewarding Language Models》
论文使用LLM-as-a-Judge提示自我奖励的语言模型,可以在训练过程中提供高质量的奖励信号,从而提高指令遵循能力和自我奖励能力。通过三次迭代的DPO训练Fine-tuning Llama 2 70B,可以得到一个在AlpacaEval 2.0排行榜上表现优异的模型。论文的亮点包括使用自我奖励的语言模型进行训练、提供高质量的奖励信号、在AlpacaEval 2.0排行榜上表现优异。实验使用了Fine-tuning Llama 2 70B模型和三次迭代的DPO训练。论文开放了代码,值得进一步研究。
https://arxiv.org/abs/2401.10020v1
哈佛大学:
《Tokenization Is More Than Compression》
论文通过引入一种新的tokenizer PathPiece,将文本分割为给定词汇表的最少数量的token,并进行广泛的实验,发现使用更少的token并不会提高下游性能,同时强调了预分词和使用BPE初始化词汇表构建的重要性。论文训练了64个语言模型,使用了不同的tokenization方法,并公开了这些模型。实验结果表明,使用更少的token并不一定会提高性能,同时预分词和使用BPE初始化词汇表构建对性能有积极影响。
https://arxiv.org/abs/2402.18376v1
澳大利亚吉朗应用人工智能研究院:
《Seven Failure Points When Engineering a Retrieval Augmented Generation System 》
本文通过三个案例研究,探讨了RAG系统的失效点和解决方法,提出了7个失效点,并给出了解决方法。实验设计详细,使用了三个不同领域的数据集。文章总结了RAG系统的优点和局限性,并提出了未来研究方向。其中两个关键点是:只有在操作过程中才能验证RAG系统的有效性,RAG系统的健壮性是逐步形成而非一开始就设计好的。
https://arxiv.org/abs/2401.05856v1