产品搜索
产品搜索
新闻资讯
媒体专区
汇得学院
投资者关系
党建活动
业务领域
社会责任

安博电竞OpenAI 以 10 亿美元出售「魂灵」网友热评不再「Open」返回列表

2021-09-19 19:50:33    来源:安博电竞官网登录 作者:安博电竞网站

  OpenAI 如何故 10 亿美元的价格出售其魂灵:GPT-3 和 Codex 背面的公司并不像它声称的那样敞开。

  Alberto Romero 的一篇文章追溯了 OpenAI 从非盈余实体成为“盈余上限”实体的前史和开展,为了金钱出卖了自己原有的“为人类谋福”的主旨。

  OpenAI 树立于 2015 年,是一家非盈余性研讨安排,它的愿景是构建出安全、对人类有利的通用人工智能(AGI),由伊隆 · 马斯克、Sam Altman 等人宣告出资 10 亿美元树立。

  2019 年,OpenAI 改动成了一家名为 OpenAI LP 的盈余性公司,由名为 OpenAI Inc 的母公司操控。这时的 OpenAI 成为了一家「赢利上限」安排,将出资报答约束在原始金额的 100 倍。也便是说,假如你出资 1000 万美元,最多你会得到 10 亿美元。看起来报答率不错。

  在这种结构改动几个月后,微软宣告注资 10 亿美元。OpenAI 与微软的协作联络是根据一个重要的条件,即微软有权将 OpenAI 的部分技能商业化。正如咱们在 GPT-3 和 Codex 上看到的那样。本年 5 月末,微软的官方网站便报导了他们用 GPT-3 的技能赋能内部商业产品,为用户服务。

  当 OpenAI 因金钱联络与大型商业公司到达协作协议,还能信任他会信守许诺吗?从开始的愿景动身开开展人工智能吗?

  OpenAI 是一个人工智能研讨实验室,但它的大志和本身所具有的资源比较天差地别。有必要获取满意的资源支撑,其间,金钱始终是排在了第一位。

  在 GPT-3 论文横空出世之后,外界的一个盛行围观方法便是帮他们算本钱,据估计 OpenAI 练习 GPT-3 耗费了 1200 万美元——只是是用于练习。

  GPT-3 是一个大规划言语模型,光参数量就已到达 1750 亿。假如没有买卖,他们很难取得这么雄厚的研讨经费。所以当 OpenAI 需求出资的时分,发现微软其时正等着给自己供给云核算服务。所以他们和具有云服务的微软形成了协作,至于价值,便是一种未揭露的,将其体系商业化的不流畅答应。

  早在,2020年2月时,MIT Technology Review 记者 Karen Hao 的一篇查询文章探求了微软与 OpenAI 的协作。披露了 OpenAI 与揭露声称的内容与内部的运营方法存在不一致之处,为什么一家以保证所有人具有更美好未来为愿景的公司忽然决议为「stay relevant」吸收许多私有资金?从非盈余到盈余的改动引发了大众乃至公司内部的激烈批判。

  艾伦人工智能研讨所担任人 Oren Etzioni 表达了置疑的情绪:我不同意非盈余安排无法具有竞争力的观念…… 假如规划更大、资金更富余就能做得更好,那么今日 IBM 仍将是国际第一。

  曾为 Vice News 撰稿的 Caroline Haskins 则不信任 OpenAI 仍会忠于它的任务:「人类从未由于依托风投安排而变得更好。」

  从技能视点来看,OpenAI 其时的研讨方向重点是需求更大算力与更大数据驱动的神经网络,这就需求许多金钱的支撑。只要比肩科技巨子的投入才干在这条路途上走下去。但正如 Etzioni 所说的,金钱并不是在 AI 范畴里完成最先进效果的仅有途径,有时需求创造性地考虑新的主意,而不是靠堆更多的算力,或是更多的数据。

  2019 年头,已经成为盈余性公司的 OpenAI 发布了一个强壮的言语生成模型——GPT-2,可以生成挨近人类的自然言语文本。虽然 GPT-2 在其时是一个巨大的腾跃,但研讨人员认为其像一只“风险的怪兽”,所以不能开源出来。工程师们忧虑 GPT-2 会被用来生成假新闻、废物信息和误导信息。

  但在不久之后,OpenAI 又认为不存在显着被乱用的依据,因此将其开源出来。

  罗格斯大学教授 Britt Paris 曾标明:「这看起来就像是 OpenAI 在运用人工智能或许给人类社会带来的惊惧。」大多数人把 GPT-2 的报导视为一种宣扬战略,他们认为该体系其实并不像 OpenAI 声称的那样强壮。从营销的视点来看这的确可以招引注意力,但 OpenAI 否认了这些指控。

  假如 GPT-2 没有 OpenAI 声称的那么强壮,那为什么要让它看起来比实践更风险呢?假如它真的功能强壮,为什么只是由于「没有发现被乱用的有力依据」而彻底开源?无论如何,OpenAI 好像都没有遵从自己的品德规范。

  2020 年 6 月,GPT-3 随后以 API 的方式向外界供给。OpenAI 好像认为这个比 GPT-2 大 100 倍,更强壮的新体系满意安全,可以与国际共享。他们设置条款逐一检查每个拜访恳求,但他们依然无法操控体系终究用于什么意图。

  他们乃至在文章中供认, 假如 GPT-3 落入坏人之手或许会发生一些问题。例如“误导性信息、废物邮件、网络垂钓、乱用法令、政府内容,学术诈骗、社会工程,再到性别、种族和宗教成见。”

  他们知道到了这些问题,但依然决议让用户付费测验。而且经过 API 发布,为什么要经过 API 发布它而不是开源模型?OpenAI 回答说,这是为他们正在进行的AI 研讨、安全和政策尽力供给资金。

  一句话总结便是:“担任”维护人类免受 AI 损伤的公司决议让人们运用一个可以制作虚伪信息和风险成见的体系,这样他们就可以担负贵重的维护费用。看起来这并不是什么「对所有人有利的价值」。

  所以,其时交际网络上呈现 GPT-3 有害的评论便是水到渠成的了。Facebook 人工智能担任人 Jerome Pesenti 写了一条推文,在推文中举了一个比方,谈到 GPT-3 或许会生成加重种族与性别歧视的文本。

  在一项运用 GPT-3 独特性的测验中,UC Berkeley 的核算机系学生 Liam Porr 让体系写了一篇能前进写作功率的文章,并将其共享了出来。这篇文章骗过了许多人,乃至登上了 Hacker News 的第一。试想,假如像他这样没有歹意的学生都可以设法用 AI 写的文章骗过所有人,一群怀有歹意的人会用它做什么?比方传达假新闻?

  除了传达假新闻,另一个危害是传达人类无法区别的假新闻。这一点也被 OpenAI 在一篇文章中认可、乃至强调了:

  人类在检测 GPT-3 175B 生成的较长文章时的均匀准确率仅略高于 52%。这标明,GPT-3 可以持续生成人类难以区别的、长度约为 500 字的新闻文章。

  可是,却引来了激烈批判,由于 Copilot 是用 GitHub 公共存储库的开源代码盲目练习的。

  认为用户在 Hacker News 上指出了运用 Copilot 或许存在的法令问题,比方:

  GitHub 首席执行官 Nat Friedman 回答说效果归于操作者,可是其他问题并未回应。

  还有用户称,「有直接依据标明 Copilot 直接仿制了 GPL 的许多代码。证明这是在商业环境中运用的十分风险的东西。」

  不过,最让人想不通的是,Copilot 是在数千名开发人员生成的开源代码上练习的,然后GitHub 或 OpenAI 又将这一体系出售给相同的开发人员运用。

  对此,程序员兼游戏设计师 Evelyn Woods说,「这感觉就像是当面讪笑开源。」

  他们是不是与微软严密相连,以至于忘记了自己「为人类前进」而斗争的初衷?仍是说他们真的认为自己具有最好的东西和人才来饯别这条路途,即便将魂灵出卖给一个大型科技公司也在所不惜?咱们是否真的乐意让 OpenAI 依照它的愿景来构建未来?仍是说咱们期望咱们的愿景愈加多样化,并将其与经济利益别离?

  OpenAI在迈向愈加杂乱的人工智能路途上占有了主导地位,当然,也有许多其他有潜力的安排在做相关的作业,这些安排并没有与金钱发生直接的联络,因此也受到了外界广泛的重视。

  就现在来看,大型科技公司的方针好像是并不是树立一个满意科学好奇心的通用人工智能,也不是树立一个最安全、最担任、最品德的人工智能。他们的首要任务是挣钱!他们会不惜一切做到这一点,即便这意味要走上一条含糊的路途,而咱们大多数人都会避开这一路途。

  或许 OpenAI 公司扔在坚持他们开始的任务,但他们不能为了到达意图不择手法。由于这些手法或许会危害更高的意图。

  咱们想要 AGI 吗?从科学的视点来看,答案不或许是否定的。人们关于科学的好奇心是没有极限的,可是,咱们应该时间评价潜在的风险。核聚变是特殊的,但核弹不是。

  咱们想不惜一切价值完成 AGI 吗?从品德的视点来看,答案不或许是必定的。这些快速开展的技能将对咱们所有人发生影响,所以咱们应该注意到这个问题。

  咱们正在快速地更新这些深入改动人们日子的技能。可是,假如只关怀自己的利益和方针,无论是 OpenAI 仍是其他人,最终都应该对结果承当很大的职责。

  *博客内容为网友个人发布,仅代表博主个人观念,如有侵权请联络作业人员删去。


安博电竞