应对侵权问题 GitHub推出了 "Copilot for Business "计划
微软的GitHub现在把Copilot带到了企业场景。本周,这家基于云的Git存储库公司推出了一个名为"Copilot for Business"的新计划,每个用户每月花费19美元。GitHub希望通过提供Copilot for Business计划将其影响力扩展到其他用户。新的优惠预计将继续促进该人工智能工具的40万用户体量继续成长,该工具通过提供基于当前项目工作的建议来帮助开发者编写代码。
该工具由OpenAI开发的名为Codex的人工智能模型提供支持,"在数以千万计的公共资源库中进行训练"。它是对Visual Studio、Neovim和JetBrains集成开发环境的补充,使开发人员的代码编写更容易、更快速。
该商业计划包括单许可证Copilot层级所提供的功能,并增加了许可证管理和整个组织的策略管理功能。GitHub进一步补充说,该产品具有行业领先的隐私性,"不会保留代码片段,不会存储或分享你的代码,无论数据是来自公共仓库、私人仓库、非GitHub仓库还是本地文件。"
GitHub的产品管理高级总监Shuyin Zhao说,在听到"企业希望有一个简单的方法为他们的团队购买GitHub Copilot"后,他们推动了新的优惠的推出。然而,说企业会热烈欢迎这项优惠几乎是不可能的,因为Copilot仍然处于有关侵权的未解决的问题中。
几个月前,有程序员注意到Copilot产生了有问题的代码。10月,德克萨斯A&M大学计算机科学教授蒂姆-戴维斯(Tim Davis)在发现GitHub在公共代码被屏蔽时产生了"大块来源自于我编写的代码,没有归属,没有LGPL许可"后,向GitHub发起了投诉。
Copilot自带的过滤器旨在提供一个解决方案,以防止与GitHub上的公共代码相匹配(或接近)的代码的建议。根据GitHub的一份文件,它"根据GitHub上的公共代码检查代码建议及其周围约150个字符的代码"。然而,该功能似乎没有效果,特别是在戴维斯披露了他发现的案例之后。
GitHub警告说,大约1%的时间,建议的代码当中可能包含一些长于150个字符的代码片段,与训练集相匹配。此外,GitHub说该工具可能产生具有"不良模式"的代码,这可能意味着用户包括法律侵权在内的风险,在其文件中GitHub这样解释说。
GitHub Copilot提供的建议来自OpenAI从数十亿行的开放源代码中建立的模型。因此,GitHub Copilot的训练集可能包含不安全的编码模式、错误或对过时的API或习惯用语的引用。当GitHub Copilot基于这些训练数据产生建议时,这些建议也可能包含不良的模式。
你有责任确保你的代码的安全和质量。我们建议你在使用由GitHub Copilot生成的代码时,采取与使用任何非自己编写的代码时相同的预防措施。这些预防措施包括严格的测试、IP扫描和跟踪安全漏洞。
该警告将责任甩给了用户,如果在他们项目的最终生产中包含了被忽视的受版权保护的建议,他们将面临诉讼的可能性。
11月,程序员和律师Matthew Butterick与集体诉讼公司Joseph Saveri Law Firm合作,对微软、GitHub和OpenAI提出了集体诉讼。
"作为一个长期的开源程序员,从我第一次尝试Copilot时就可以看出,它引起了严重的法律问题,自2021年Copilot首次公开预览以来,许多人都注意到了这一点,"Butterick说。"因为我也是一名律师,我觉得必须为开源社区站出来。自从Joe创办Joseph Saveri律师事务所以来,我就认识他。他已经把它建成了全国最好的集体诉讼公司之一。我很高兴能与乔和他的公司合作,代表那些权利被Copilot侵犯的开源程序员。"
尽管存在这些问题,GitHub决心向更多用户,特别是企业提供其Copilot。然而,时间将证明企业是否愿意承担风险。