2023南通圣诞节有什么好玩的地方?
2023-12-21
更新时间:2023-12-21 18:05:31作者:橙橘网
我是从一个陌生人身上第一次感受到了 2023 年出现的大变化。3 月份,当我们一起等电梯时,她告诉我,她刚刚用 ChatGPT 帮她写了一份营销工作报告。
她讨厌写报告,因为她觉得自己不太擅长。但这次她的经理表扬了她。这是作弊吗?她认为不是,因为她尽了自己所能。
这个陌生人对生成式人工智能的体验只是数百万人中的一例。许许多多和她一样的人现在正在尝试弄清楚,这项激进的新技术的用途,并想知道它能为他们做什么。
从很多方面来说,现在围绕生成式人工智能的热议让人想起了互联网的早期时光:有一种兴奋和期待的感觉,还有一种我们要边走边看的感觉。
换句话说,我们现在所处的状态就像 2000 年左右的互联网繁荣时期。在此之后,许多公司将破产。我们可能需要数年时间才能看到这个时代的 (现在的 )、(现在的 X)或 出现。
技术咨询公司 的生成式人工智能主管艾利逊·史密斯()表示:“人们不愿意想象 10 年后的未来,因为没有人想看起来很愚蠢。但我认为这将远远超出我们的预期。”
(来源:SELMAN DESIGN)
互联网改变了一切,改变了我们如何工作和消磨时间,改变了我们如何与朋友和家人共度时光,改变了我们如何学习、消费、坠入爱河。但它也给我们带来了网络霸凌、报复性色情和恶搞。
它助长了种族灭绝事件和心理健康危机,并创造了监控资本主义,及其令人上瘾的算法和掠夺性广告,使之成为我们这个时代主导的市场力量。只有当人们开始大量使用它,或者与其有关的社交媒体等杀手级应用程序出现时,这些缺点才会变得明显。
生成是人工智能可能也是如此。我们已经有了基础设施,来自 、、 和其他一些公司的基础生成式模型,除了构建它的人之外,其他人可能会以开发者做梦也想不到的方式使用和滥用模型。
说:“如果没有个人用户真正参与其中,我们就无法完全了解其潜力和风险。”
生成式人工智能是在互联网的数据上训练的,因此继承了许多悬而未决的问题,包括与偏见、错误信息、侵犯版权、侵犯人权和全面经济动荡有关的问题。我们必须了解这些问题。
当我们看着生成式人工智能革命逐渐展开时,以下是六个尚未解决的问题。这一次,我们有机会做得更好。
我们会缓解偏见问题吗?
偏见已经成为人工智能相关危害的代名词,这是有充分理由的。现实世界的数据,尤其是从互联网上抓取的文本和图像,充斥着各种各样的数据,从性别刻板印象到种族歧视。根据这些数据训练的模型会自带这些偏见,然后在任何可能用到它们的地方强化它们。
聊天机器人和图像生成器倾向于将工程师描绘成白人和男性,将护士描绘成白人和女性。黑人则有被面部识别程序误认为嫌疑人的风险,导致错误逮捕。招聘算法偏爱男性而非女性,这加深了许多行业和领域本就根深蒂固的偏见,而算法本来是为了解决偏见的。
如果没有新的数据集或训练模型的新方法(这两种方法都可能需要数年的工作),偏见问题的根本原因将一直存在。但这并没有阻止它成为研究的热点。
一直致力于使用诸如从人类反馈中强化学习(RLHF,reinforcement learning from human feedback)等技术来减少其大型语言模型的偏见。这将引导模型的输出更符合人类测试员所喜欢的文本类型。
其他减少偏见的技术包括使用合成数据集。 是一家为视频制作制作生成模型的初创公司,在训练图像制作模型 Stable Diffusion 的一个版本时,它使用了人工智能生成的种族、性别、职业和年龄不同的人的图像等合成数据。
该公司报告称,基于该数据集训练的模型生成了更多皮肤较黑的人的图像和更多女性的图像。如果要求它提供一张商人的照片,现在的成品图片会包括戴头巾的妇女。医生的形象也将有更多不同肤色和性别的人。
批评者则认为,这些解决方案只是掩盖了基础模型存在的问题,而没有真正解决问题。但史密斯在 的同事、该公司的负责任人工智能主管杰夫·谢弗()认为,这种算法偏见暴露的社会偏见,从长远来看可能是有用的。
例如,他指出,即使从数据集中删除了有关种族的明确信息,种族偏见仍然会扭曲数据驱动的决策,因为种族可以从人们的地址中推断出来,这揭示了种族隔离和住房歧视问题的存在。他说:“我们在一个地方收集了一堆数据,这种(数据中隐藏的)相关性将变得非常明显。”
认为,这一代人工智能也可能发生类似的情况:“社会上的这些偏见将突然出现。”他说,这将导致更有针对性的政策制定。
但许多人对这种乐观态度持谨慎态度。问题虽然暴露出来,但并不能保证它会得到解决。政策制定者仍在努力解决多年前暴露出来的,在住房、招聘、贷款、治安等方面存在的社会偏见。与此同时,人们正在承受后果。
我们的预测:偏见将继续成为大多数生成式人工智能模型的固有特征,但变通办法和提高认识可以帮助决策者解决最显眼的麻烦。
人工智能将如何改变我们应用版权的方式?
的作品中获利感到愤怒,他们对 OpenAI、和其他公司提起了集体诉讼,声称它们侵犯了版权。图片版权商盖蒂()正在起诉图像生成工具 Stable Diffusion 背后的公司 。
这些诉讼很重要。莎拉·西尔弗曼()和乔治·R·R·马丁()等知名作家的参与引起了媒体的关注。这些案件将改写关于什么是公平利用他人作品的规则,至少在美国是这样。
但这些诉讼不会很快结束。代表 280 多家人工智能公司的 Gunderson Dettmer 律师事务所专门从事知识产权许可的合伙人凯蒂·加德纳()表示,法院还需要数年时间才能做出最终裁决。她说,到那时,“这项技术将在经济中根深蒂固,无法再被废除。”
与此同时,科技行业正以惊人的速度在这些被指控的侵权行为的基础上发展。说:“我不认为公司会静观其变。可能会有一些法律风险,但跟不上竞争对手意味着更大的风险。”
一些公司已采取措施限制侵权的可能性。OpenAI 和 声称,自己已经为创作者引入了从未来数据集中删除作品的方法。OpenAI 现在会阻止 DALL-E 的用户以在世艺术家的风格获取图像。但是,加德纳说,“这些都是为了在法律诉讼中支持他们的论点。”
、微软和 OpenAI 现在会保护其模型的用户免受潜在的法律诉讼风险。在等待法院审理案件的时间里,微软对其代码生成助理 GitHub Copilot 的赔偿政策原则上会保护那些使用它的人。
微软 CEO 萨蒂亚·纳德拉()在接受《麻省理工技术评论》采访时表示:“我们将承担这一负担,这样我们产品的用户就不必担心了。”
与此同时,各种新的许可协议正在涌现。美国图片库供应商 与 OpenAI 签署了一份为期六年的图像使用协议。 声称,自家的图像制作模型“萤火虫”仅使用授权图像、Adobe Stock 数据集中的图像或不再受版权保护的图像进行训练。
然而,Adobe Stock 的一些贡献者表示,他们并未提前知晓此事,而且对此并不满意。
现在,艺术家们正在用自己的技术进行反击。一种名为 Nightshade 的工具允许用户以人类无法察觉但会破坏机器学习模型的方式更改图像,使其在训练过程中对图像进行错误分类。因此,针对媒体的网络共享和重新调整用途的规范将发生重大改变。
我们的预测:高调的诉讼将继续引起人们的关注,但这不太可能阻止公司继续开发生成式模型。新的市场将围绕道德数据集涌现,公司和创作者之间的猫老鼠游戏也将持续发展。
它将如何改变我们的工作?
我们早就听说人工智能正在挑战我们的工作。这次的区别是,白领、数据分析师、医生、律师和记者等职业,看起来也面临风险。
聊天机器人可以在高中考试、专业医疗执照考试和律师考试中名列前茅。他们可以总结会议,甚至撰写基本的新闻文章。人类还剩下什么可以做?答案并不简单。
许多研究人员否认大型语言模型的表现体现了真正的智能。但即使是这样,大多数职业也比这些模型能做的任务多得多。
2022 年夏天,美国宾夕法尼亚大学沃顿商学院研究创新的伊桑·莫里克()帮助波士顿咨询公司进行了一项实验,研究 ChatGPT 对顾问的影响。
该团队向数百名顾问提供了与一家虚构的鞋业公司有关的 18 项任务,如“针对被忽视的市场或运动提出至少 10 个新鞋的想法”和“基于用户群的细分鞋业市场”。其中一些人使用 ChatGPT 来帮助他们,另一些人则没有使用。
结果令人震惊:在一篇关于这项研究的博客文章中写道:“使用 ChatGPT-4 的顾问比没有使用的顾问表现得好很多,而且是在我们衡量绩效的每个方面都更好。”
风险投资公司 的创始人、人工智能状况报告团队负责人拿单·贝纳奇()表示,许多企业已经在使用大型语言模型来查找和获取信息,该报告是一份全面的研究和行业趋势年度总结。
他觉得这很受欢迎。“希望分析师能成为一个人工智能模型。”他说,“这些东西大多让人头疼。”
他的观点是,把繁重的工作交给机器,可以让人们专注于工作中更有成就感的部分。这项技术似乎也能提高劳动力群体的技能水平:早期的研究,比如对顾问的研究和其他对程序员的研究表明,经验不足的人从使用人工智能中获得的提升更大。
生成式人工智能不会仅仅改变白领的工作。图像和视频制作模型可以在没有人类插画师、摄像师或演员的情况下制作出源源不断的图片和电影。 2023 年美国作家和演员的罢工清楚地表明,这将是未来几年的爆发点。
即便如此,许多研究人员认为这项技术可以为员工赋能,而不是取代他们。毕竟,自工业革命以来,技术更新总伴随着岗位更替。随着旧工作岗位的消失,新的工作岗位也随之产生。史密斯说:“我非常强烈地感觉到这是一个积极因素,会带来净增。”
但变化总是痛苦的,受影响个人的损失总会被净增掩盖。技术剧变也倾向于集中财富和权力,加剧不平等。
莫利克写道:“在我看来,问题不再是人工智能是否会重塑工作,而是我们希望这意味着什么。”
我们的预测:对大规模失业的担忧会被夸大。但生成式人工智能工具将继续在工作场所普及。人们的职务可能会发生变化,可能需要学习新技能。
它会生产出哪些错误信息?
2023 年最受欢迎的三张(人工智能生成)照片是,教皇穿着巴黎世家蓬松的衣服,唐纳德·特朗普被警察按倒在地,以及五角大楼发生爆炸。它们都是假的,但这并不妨碍它们被数百万人看到和分享。
(来源:资料图)
使用生成式模型来创建伪造的文本或图像比以往任何时候都更容易。许多人警告说,错误信息将在网上泛滥。OpenAI 合作进行了一项研究,指出了许多潜在的滥用其技术进行假新闻宣传的情况。
在 2023 年的一份报告中,OpenAI 警告说,大型语言模型可能被用于大规模制作更具说服力的宣传,因此更难被发现。美国和欧盟的专家已经表示,未来的选举将面临风险。
毫不奇怪,拜登政府在 10 月份将人工智能生成内容的标记和检测作为其人工智能行政命令的重点。
但该行政令不能从法律商强制生成式工具制造商将文本或图像标记为人工智能的产物,而且我们最好的人工智能检测工具还不够好,不值得信任。
本月终于完成的欧盟《人工智能法案(EU AI Act)》将更进一步。全面立法的一部分要求公司在人工智能生成的文本、图像或视频中添加水印,并在人们与聊天机器人互动时向他们明确表示对方是机器人。《人工智能法案》也很有效果:这些规则将具有约束力,违规者将被处以高额罚款。
美国还表示,将审计任何可能对国家安全构成威胁的人工智能,包括干预选举。“这是向前迈出的一大步。”说。
但即使是这些模型的开发者也不知道它们的全部能力:“在模型发布前,政府或其他独立机构可以迫使公司对其进行全面测试,但这个想法似乎不现实。”
一个大问题是:在一项技术被使用之前,我们不可能知道它会被滥用的所有方式。谢弗说:“在 2023 年,有很多关于减缓人工智能发展的讨论。但我们持相反的观点。”
除非这些工具被尽可能多的人以不同的方式使用,否则我们不会让它们变得更好,他说:“我们不会理解这些奇怪的风险会以何种微妙的方式表现出来,也不会理解什么事件会触发它们。”
我们的预测:随着技术使用量的增加,新形式的滥用将继续出现。会有一些最明显的例子,比如涉及到选举操纵。
我们会正视它的成本吗?
生成式人工智能的开发成本,包括人类和环境成本,也需要考虑。“隐形工人问题”是一个公开的秘密:我们避免了生成式模型所能产生的最糟糕的结果,这在一定程度上要归功于一群默默无闻的(通常是低收入的)外包工人。他们标记训练数据,并在测试过程中剔除有毒的,有时是创伤性的输出内容。这就是数据时代的血汗工厂。
2023 年,OpenAI 在肯尼亚雇佣外包员工的行为受到了《时代》和《华尔街日报》等主流媒体的密切关注。OpenAI 希望通过构建一个过滤器来改进其生成式模型,该过滤器将向用户隐藏仇恨、淫秽和其他冒犯内容。
但要做到这一点,它需要人们找到并标记大量此类有毒内容作为样本,以便其自动过滤器能够学会发现它们。OpenAI 雇佣了外包公司 ,据称该公司在肯尼亚雇佣了低薪工人。
随着生成式人工智能现在成为主流,人力成本将成为人们关注的焦点,这将给建立这些模型的公司带来压力,因为它们需要帮助改进全世界各地廉价劳动力的工作条件。
另一个巨大的成本,即训练大型生成式模型所需的能量,将在情况好转之前攀升。8 月,宣布 2024 年第二季度收益超过 135 亿美元,是上年同期的两倍。其中大部分收入(103 亿美元)来自数据中心,换句话说许多公司使用了英伟达的硬件来训练人工智能模型。
英伟达 CEO 表示:“需求非常巨大。我们正处于生成式人工智能的起步阶段。”他承认这里存在能源问题,并预测这一繁荣甚至可能推动计算硬件类型的改变。他说:“世界上绝大多数的计算基础设施都必须是节能的。”
我们的预测:公众对人工智能相关劳动力和环境成本的认识提高将给科技公司带来压力。但不要指望这两方面很快会有显著改善。
末日论会继续主导政策制定吗?
末日论,即担心智能机器的出现可能会带来灾难性,甚至世界末日般的后果,长期以来一直隐藏在人工智能光鲜亮丽表面的背后。但狂热的炒作,加上人工智能先驱杰弗里·辛顿()在 5 月份高调宣布,他现在害怕自己帮助创造的技术,又让末日论进入了公众视野。
在 2023 年,很少有问题能引起如此大的分歧。辛顿和图灵奖得主杨立昆()等人工智能名人在社交媒体上公开争论不休。杨立昆创立了 Meta 的人工智能实验室,并认为末日论是荒谬的。
辛顿、OpenAI CEO 山姆·奥特曼()和其他人建议,(未来)人工智能系统应该有类似于核武器的保障措施。这样的对话引起了人们的注意。
但今年 7 月,在美国科学家联合会核信息项目经理马特·科尔达()在 Vox 上与人合著的一篇文章中,他谴责了这些“混乱的类比”及其引发的“没营养的媒体恐慌”。
我们很难理解哪些是真实的,哪些不是,因为我们不知道人们发出警报的动机,贝纳奇说:“很多人靠着这些东西变得非常富有,这似乎很奇怪,而很多人正是那些要求更大控制权的人。这就像是,‘嘿,我发明了一种非常强大的东西!它有很多风险,但我有解药。’”
有些人担心所有这些散布恐惧的行为的影响。在 上,深度学习先驱(Andrew Ng)写道:“我对人工智能未来最担心的是,如果过度夸大的风险(如人类灭绝),进而让科技游说者制定了压制开源和压制创新的、令人窒息的法规。”这场辩论还让资源和研究人员远离更直接的风险,如偏见、就业动荡和错误信息。
谷歌的人工智能研究员弗朗索瓦·肖莱(François Chollet)表示:“有些人推动生存风险的议题,因为他们认为这将有利于自己的公司。谈论生存风险既突出了你的道德意识和责任感,又分散了对更现实和紧迫问题的注意力。”
贝纳奇指出,一些人左手给大家敲响警钟,却用另一只手为他们的公司筹集 1 亿美元。“你可以说末日论是一种筹款策略。”他说。
我们的预测:散布恐惧的声音会消失,但对决策者议程的影响可能会持续一段时间。我们会看到越来越多关于重新关注更直接危害的呼吁。
仍然缺失:人工智能的杀手级应用
ChatGPT 差点就没能问世,听起来是不是很奇怪?在 2022 年 11 月发布之前,OpenAI 的联合创始人兼首席科学家伊利亚·苏茨凯弗()对其准确性并不满意。该公司的其他人担心这并不是什么真正的进步。在当时,ChatGPT 更多的是技术的重新混合,而非革命性的进步。
它是由 GPT-3.5 驱动的,GPT-3.5 是 几个月前开发的一个大型语言模型。但聊天机器人整合了许多互动性强的调整,特别是更具对话性和切中要害的回应。
“它既方便又实用。”苏茨凯弗说,“这是人工智能领域之外的人第一次看到人工智能的进步。”
由 ChatGPT 掀起的炒作还没有完结的迹象。“人工智能是圈子里唯一的游戏。”苏茨凯弗说,“这是科技界最重要的事情,科技也是经济中最重要的东西。我认为我们将继续对人工智能的作用感到惊讶。”
但现在我们已经看到了人工智能的能力,接下来最关键的问题或许是它能用来做什么。OpenAI 构建这项技术时没有考虑到实际用途。研究人员在发布 ChatGPT 时似乎只说了一件事:用它做你想做的事。从那以后,每个人都在争先恐后地想知道那是什么。
“我觉得 ChatGPT 很有用。”苏茨凯弗说,“我经常用它来处理各种随意的事情。”他说,他用它来查找某些单词,或者帮助他更清楚地表达自己。
有时他会用它来查找事实(尽管它并不总能返回事实)。 的其他人将其用于度假计划,比如列出“世界上排名前三的潜水点是什么?”,学些编程技巧或者寻找 IT 技术支持。
有用,但不会改变游戏规则。这些例子中的大多数都可以使用现有的工具来完成,比如搜索。
与此同时,据说谷歌内部员工对该公司自己的聊天机器人 Bard(现在由谷歌的 GPT-4 竞品 Gemini 模型驱动)的有用性表示怀疑。
据彭博社报道,谷歌 Bard 的用户体验负责人凯茜·佩尔()8 月在 Discord 上写道:“我仍在思考的最大挑战是:大模型究竟有什么用?怎样才能真正做出些什么?(答案)还不清楚!”
如果没有杀手级的应用程序,吸引人们的效果就会减弱。投资公司红杉资本的统计数据显示,尽管像 ChatGPT、Character.AI 和 Lensa 这样的人工智能应用程序在网上疯传,但它们流失用户的速度比 、 和 等同样流行的平台更快。
“消费技术的规则仍然适用。”贝纳奇说,“经过几个月的炒作,会有很多尝试,但很多东西都只能在水里淹死。”
当然,互联网的早期时代也充满了错误的尝试。在它改变世界之前,互联网的繁荣也曾以萧条告终。今天的生成式人工智能也可能失败,并被下一件热门事件所掩盖。
无论发生什么,现在人工智能已经完全成为主流,小众问题已经成为每个人的问题。正如谢弗所说,“我们将被迫以前所未有的方式解决这些问题。”
作者简介:威尔·道格拉斯·海文(Will Douglas Heaven)是《麻省理工科技评论》人工智能栏目的高级编辑,他在这里报道新的研究、新兴趋势及其背后的人。此前,他是英国广播公司(BBC)科技与地缘政治网站 Future Now 的创始编辑,也是 New Scientist 杂志的首席技术编辑。他拥有英国伦敦帝国理工学院计算机科学博士学位,深谙与机器人合作的体验。
支持:Ren
运营/排版:何晨龙
04 /
05 /