(资料图片)
6月16日消息,据外媒报道,在OpenAI训练的人工智能聊天机器人ChatGPT大火之后,多家公司在开发类似的产品,也有不少公司将ChatGPT等人工智能工具引入到了他们的服务或工作中。
ChatGPT等人工智能工具在为相关的服务或产品带来全新功能、为工作带来便利的同时,泄密也成了他们不得不重视的问题,三星电子半导体业务部门的员工在使用ChatGPT时就导致部分源代码泄漏,三星随后也禁止员工在工作场所使用ChatGPT等生成式人工智能聊天工具。
而从外媒最新的报道来看,作为ChatGPT竞品的谷歌Bard,也有类似的泄密风险。
外媒援引消息人士的透露报道称,谷歌母公司Alphabet已告知员工,不要将机密信息输入人工智能聊天机器人,并警告员工包括自家Bard在内的人工智能工具的风险。
除了不要将机密信息输入人工智能聊天机器人,Alphabet还建议工程师不要直接使用人工智能聊天机器人生成的代码。
此外,从外媒的报道来看,谷歌方面似乎很早就有信息泄密方面的担忧,在今年2月份,也就是Bard人工智能聊天机器人还在内部测试时,谷歌就已告知参与测试的员工,在正式发布之前不要输入内部信息。
作为在ChatGPT大火之后尽全力推出的竞品,Bard对谷歌多项业务的未来发展至关重要,他们目前正在全球超过180个国家以40种语言推广。
随着ChatGPT、谷歌Bard等人工智能工具的不断强大,使用这些工具的人群也在不断壮大,也有大量的公司员工在工作时使用,这也就增加了公司信息泄露的风险。相关机构在1月份对12000人的调查就显示,大约43%的专业人士在使用ChatGPT或其他人工智能工具时,通常不会告知他们的老板。