消息传出后,不少网友在社交媒体上表示哀悼和惋惜。正与OpenAI打官司的全球首富马斯克转发了相关报道,并配文:“唔(Hmm)。”
马斯克转发巴拉吉的相关报道。
OpenAI公司的发言人对此表示:“今天得知这一令人难以置信的噩耗,我们感到非常悲痛,在这一艰难时刻,我们向巴拉吉的亲人表示同情。”
不过,一位巴拉吉的朋友对此事表示怀疑,“他很聪明,绝不像是会自杀的人”。
巴拉吉之死之所以引发圈内关注,不仅是因为《纽约时报》的采访,更是因为他在社交媒体上发布的控诉文。
在这篇万字长文中,巴拉吉基于自己对业务的了解和研究,针对OpenAI备受争议的“先复制,后请求原谅”的版权做法,进行了揭露和批判。
巴拉吉指出,训练大型语言模型需要依靠海量的文本数据来进行学习与生成。OpenAI未经许可就抓取大量书籍、文章和网站的内容来训练ChatGPT,其中很多数据都来自于网络上受版权保护的内容。
巴拉吉称,OpenAI在使用这些未授权的材料训练模型时,没有充分遵循“合理使用原则”,涉嫌侵犯美国的版权法。
他在文章中引用了美国1976年《版权法》的相关规定,作出解释。
“合理使用”的判断标准通常有以下几条:非营利性教育使用通常更容易被认定为合理使用;事实性作品在合理使用中往往更具法律保护;使用较少的部分可能更容易被认定为合理使用;如果某一使用会取代原作品的市场,通常不被视为合理使用。
基于以上标准,巴拉吉进行了论证,并得出结论——随着AI模型的能力越来越强大,其输出的内容极有可能会与原始版权作品形成竞争关系。
例如,当用户需要一篇文章时,ChatGPT生成的内容可能会替代原创内容被使用,这将会挤压创作者的生存空间。
因为上述披露,巴拉吉被称为针对OpenAI的“吹哨人”。
事实上,巴拉吉本人并不想针对OpenAI,而是希望警醒整个生成式AI行业。他在文章中也强调,“希望这不要被解读为对OpenAI本身的批评”。
很显然,OpenAI不这么认为。此文发出后,OpenAI立即向巴拉吉发出了起诉函。
就在收到起诉函的第二天,巴拉吉便发生悲剧。这距离他发出指控,还不到3个月。
因为版权等问题,OpenAI近两年早已诉讼缠身。
2023年6月,作家保罗·特伦布莱和莫娜·阿瓦德对OpenAI提起集体诉讼,称ChatGPT未经授权使用其作品内容训练模型,违反联邦版权法;7月,喜剧演员莎拉·西尔弗曼等也起诉OpenAI,称未授权该公司使用其作品训练AI模型。
《纽约时报》曾于2023年底起诉OpenAI和微软公司,指控这两家企业未经授权使用该媒体数以百万计的文章训练人工智能聊天机器人。
OpenAI当时做出过回应,在公司网站发布博客《OpenAI与新闻业》称:我们支持新闻业,与新闻机构合作,并认为《纽约时报》的诉讼毫无根据。
OpenAI表示,已经与数十家新闻机构以及新闻、媒体联盟等领先的行业组织会面,探讨机会,讨论他们的担忧,并提供解决方案,还声称“利用公开的互联网资料训练人工智能模型,属于合理使用”。
针对AI侵权问题,人工智能和数据合规律师胡颖涵对环球人物记者表示,创作者将作品发布在网站时,可以同步刊登版权说明,申明未经授权不得商用,还可以利用技术手段进行网络内容检测,及时发现潜在侵权行为。
除了外部诉讼,OpenAI也面临离职潮。不少员工离职后,公开表达了对OpenAI内部安全文化的担忧。
今年5月,OpenAI的一名AI策略研究员表示,由于感受到OpenAI存在巨大安全风险,她决定辞职。之后,OpenAI首席科学家伊尔亚正式宣布,他将离开公司去追求“下一个计划”。
OpenAI此前就被曝出,公司员工离职需签封口协议,“不签字就会影响股权”。
据员工披露,OpenAI在安全问题决策上不够透明,且缺乏对决策人的问责,同时公司内部对不同意见的包容度很低,可能导致风险的识别和管理被忽视。
根据美国《吹哨人保护法案》规定,联邦雇员在揭露组织内欺诈、非法或不当行为时遭到报复,如被保护对象因举报而受到降职、解雇等歧视性对待时,可向特别顾问办公室申诉,该办公室会展开调查并提供相应保护。
即便如此,有举报人向美国证券交易委员会投诉,OpenAI非法禁止员工向监管机构披露其技术可能对人类构成的严重风险,否则将受到离职、放弃补偿金等处罚。
这对那些想要表达担忧的员工形成了很强的威慑。
今年,OpenAI和谷歌旗下“深层思维”公司的13名现职员及前员工发表联名公开信,指出一般的法律保护对人工智能行业“吹哨人”而言“不够”,因为不少引人担忧的风险在法律监管方面仍属空白。
·OpenAI和谷歌旗下“深层思维”公司的13名现职员及前员工发表联名公开信。
其实,AI行业的潜在风险早已引起多国专家的关注。早前,英国网络科学专家温迪·霍尔与其他31位专家就在联合国机构发表报告,其中提到,人工智能技术应受到监管,如制定标准章程、建立监管机制等。
只有创作者、从业人员和政府机构一起努力,促进技术健康发展,才能真正避免下一场悲剧的发生。
马斯克转发巴拉吉的相关报道。
OpenAI公司的发言人对此表示:“今天得知这一令人难以置信的噩耗,我们感到非常悲痛,在这一艰难时刻,我们向巴拉吉的亲人表示同情。”
不过,一位巴拉吉的朋友对此事表示怀疑,“他很聪明,绝不像是会自杀的人”。
巴拉吉之死之所以引发圈内关注,不仅是因为《纽约时报》的采访,更是因为他在社交媒体上发布的控诉文。
在这篇万字长文中,巴拉吉基于自己对业务的了解和研究,针对OpenAI备受争议的“先复制,后请求原谅”的版权做法,进行了揭露和批判。
巴拉吉指出,训练大型语言模型需要依靠海量的文本数据来进行学习与生成。OpenAI未经许可就抓取大量书籍、文章和网站的内容来训练ChatGPT,其中很多数据都来自于网络上受版权保护的内容。
巴拉吉称,OpenAI在使用这些未授权的材料训练模型时,没有充分遵循“合理使用原则”,涉嫌侵犯美国的版权法。
他在文章中引用了美国1976年《版权法》的相关规定,作出解释。
“合理使用”的判断标准通常有以下几条:非营利性教育使用通常更容易被认定为合理使用;事实性作品在合理使用中往往更具法律保护;使用较少的部分可能更容易被认定为合理使用;如果某一使用会取代原作品的市场,通常不被视为合理使用。
基于以上标准,巴拉吉进行了论证,并得出结论——随着AI模型的能力越来越强大,其输出的内容极有可能会与原始版权作品形成竞争关系。
例如,当用户需要一篇文章时,ChatGPT生成的内容可能会替代原创内容被使用,这将会挤压创作者的生存空间。
因为上述披露,巴拉吉被称为针对OpenAI的“吹哨人”。
事实上,巴拉吉本人并不想针对OpenAI,而是希望警醒整个生成式AI行业。他在文章中也强调,“希望这不要被解读为对OpenAI本身的批评”。
很显然,OpenAI不这么认为。此文发出后,OpenAI立即向巴拉吉发出了起诉函。
就在收到起诉函的第二天,巴拉吉便发生悲剧。这距离他发出指控,还不到3个月。
因为版权等问题,OpenAI近两年早已诉讼缠身。
2023年6月,作家保罗·特伦布莱和莫娜·阿瓦德对OpenAI提起集体诉讼,称ChatGPT未经授权使用其作品内容训练模型,违反联邦版权法;7月,喜剧演员莎拉·西尔弗曼等也起诉OpenAI,称未授权该公司使用其作品训练AI模型。
《纽约时报》曾于2023年底起诉OpenAI和微软公司,指控这两家企业未经授权使用该媒体数以百万计的文章训练人工智能聊天机器人。
OpenAI当时做出过回应,在公司网站发布博客《OpenAI与新闻业》称:我们支持新闻业,与新闻机构合作,并认为《纽约时报》的诉讼毫无根据。
OpenAI表示,已经与数十家新闻机构以及新闻、媒体联盟等领先的行业组织会面,探讨机会,讨论他们的担忧,并提供解决方案,还声称“利用公开的互联网资料训练人工智能模型,属于合理使用”。
针对AI侵权问题,人工智能和数据合规律师胡颖涵对环球人物记者表示,创作者将作品发布在网站时,可以同步刊登版权说明,申明未经授权不得商用,还可以利用技术手段进行网络内容检测,及时发现潜在侵权行为。
除了外部诉讼,OpenAI也面临离职潮。不少员工离职后,公开表达了对OpenAI内部安全文化的担忧。
今年5月,OpenAI的一名AI策略研究员表示,由于感受到OpenAI存在巨大安全风险,她决定辞职。之后,OpenAI首席科学家伊尔亚正式宣布,他将离开公司去追求“下一个计划”。
OpenAI此前就被曝出,公司员工离职需签封口协议,“不签字就会影响股权”。
据员工披露,OpenAI在安全问题决策上不够透明,且缺乏对决策人的问责,同时公司内部对不同意见的包容度很低,可能导致风险的识别和管理被忽视。
根据美国《吹哨人保护法案》规定,联邦雇员在揭露组织内欺诈、非法或不当行为时遭到报复,如被保护对象因举报而受到降职、解雇等歧视性对待时,可向特别顾问办公室申诉,该办公室会展开调查并提供相应保护。
即便如此,有举报人向美国证券交易委员会投诉,OpenAI非法禁止员工向监管机构披露其技术可能对人类构成的严重风险,否则将受到离职、放弃补偿金等处罚。
这对那些想要表达担忧的员工形成了很强的威慑。
今年,OpenAI和谷歌旗下“深层思维”公司的13名现职员及前员工发表联名公开信,指出一般的法律保护对人工智能行业“吹哨人”而言“不够”,因为不少引人担忧的风险在法律监管方面仍属空白。
·OpenAI和谷歌旗下“深层思维”公司的13名现职员及前员工发表联名公开信。
其实,AI行业的潜在风险早已引起多国专家的关注。早前,英国网络科学专家温迪·霍尔与其他31位专家就在联合国机构发表报告,其中提到,人工智能技术应受到监管,如制定标准章程、建立监管机制等。
只有创作者、从业人员和政府机构一起努力,促进技术健康发展,才能真正避免下一场悲剧的发生。