谷歌也担心泄密风险 警告员工谨慎使用AI办公
谷歌也担心泄密风险 警告员工谨慎使用AI办公
行业领导者谷歌在全球推广人工智能(AI)聊天机器人的同时,该公司也在警告员工注意聊天机器人的使用,包括ChatGPT与谷歌自家产品Bard。
知情人士透露,谷歌已建议员工不要将其机密材料输入给人工智能聊天机器人,同时该公司还提醒IT工程师避免直接使用聊天机器人生成的代码。
人们在使用这些聊天机器人的时候,会与其进行对话。一方面,人类评审员可能会阅读这些聊天记录;另一方面,研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。
而谷歌对此回应称,其聊天机器人Bard可以生成一些不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌还表示,其目标是对人工智能技术保持足够的透明度。
这些担忧表明,谷歌希望避免人工智能对公司的商业化运作造成损害,这种谨慎的态度也体现出企业对人工智能的使用限制,正越发成为某种具有共性的企业安全标准。
在此之前,包括三星、亚马逊、德意志银行等大型企业都对员工使用人工智能设置了一定的“护栏”,以确保不会对公司运营造成风险。
根据社交网站Fishbowl对12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都没有告诉他们的老板。
谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”
一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。
谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。
微软消费者业务首席营销官Yusuf Mehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。
Cloudflare首席执行官Matthew Prince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。
-
十大行业互联网金融-想借钱?先交“评估”费
2024-05-09
-
Xi人最近像买彩票一样抢疫苗号3000 家长只能拿到24个左右的号
2024-05-09
-
走吧维权汽车品牌投诉名单公布-东风日产上汽大众榜上有名
2024-05-09
-
绿瘦“魔粉”轻松瘦?客户说花了8万减肥 住进了医院
2024-05-09
-
消费者权益保护教育培训白皮书-预付式消费陷阱大
2024-05-09
-
视频-华晨宝马因漏油召回31万辆车 品控成焦点
2024-05-09