手机版    二维码   标签云  厨具企业大全

彭博社:bard 聊天机器人实用性遭谷歌内部人士质疑

2024-05-21 16:19 来源: 作者/编辑: 浏览次数:2426 手机访问 使用手机“扫一扫”以下二维码,即可分享本文到“朋友圈”中。

据彭博社昨晚报道,谷歌和discord共同邀请自家ai聊天机器人bard的忠实用户,设立一个聊天室。其中,bard的产品经理、设计师和工程师在聊天室内讨论了ai的有效性和实用性,但也有一些人开始提出质疑。

discord上bard社区的两名参与者向彭博社分享了7月-10月期间聊天室内的讨论细节。bard的高级产品经理dominik rabiej在讨论中表示,自己“不信任”大语言模型生成的回复答案,并建议人们仅在“创意”“头脑风暴”等方面使用bard。rabiej还表示,将bard用于编程“也是一个不错的选择”——因为人们不可避免地要验证代码是否有效。

此外,rabiej还在本月强调了bard中新增的“仔细检查回复”按钮的重要性。据称,该功能会用橙色来突出显示“可能不正确的”内容。他还重申,bard并无法真正理解自己获取的文本,只是根据用户的提示用更多文本进行回复。“请记住,bard和任何大模型一样都是生成式的——它不是在帮你查资料或做总结,而是在生成文本。”

这名产品经理曾在7月份的一次聊天中直言道,除非(用户自己)能独立验证,否则不要相信大语言模型的输出结果。“我们也想让它达到你们的预期,但它还没有。”

另一位产品经理warkentin也在讨论中写道,“人性化的改进至关重要,只有这样bard才能成为一款适合所有人的产品。否则,用户就没有能力来评判产品的功能,我认为这将是一个巨大的错误。”“我们不需要在象牙塔中的产品,而是所有人都能受用的产品!”

it之家此前报道,谷歌今年7月扩大部署bard ai工具时,加入了“分享对话链接”的功能。用户可以将他和bard的对话以网页链接形式导出,分享给他人,让别人继续和bard展开对话。

而x平台一名分析顾问gagan ghotra发现了这一漏洞,谷歌错误将部分用户分享的链接,作为索引加入搜索结果中,从而导致了相关敏感信息外泄。

gagan ghotra据此警告用户与不要在和bard对话时分享任何“私密性内容”,否则相关信息可能外泄。

来源:it之家

以上是网络信息转载,信息真实性自行斟酌。

 
本文标题:彭博社:bard 聊天机器人实用性遭谷歌内部人士质疑
本文网址:
版权/免责声明:
一、本文图片及内容来自网络,不代表本站的观点和立场,如涉及各类版权问题请联系及时删除。
二、凡注明稿件来源的内容均为转载稿或由企业用户注册发布,本网转载出于传递更多信息的目的;如转载稿涉及版权问题,请作者联系我们,同时对于用户评论等信息,本网并不意味着赞同其观点或证实其内容的真实性。
三、转载本站原创文章请注明来源:中华厨具网

文本助手 资讯搜索 分享好友 打印本文 关闭窗口
  • 手机浏览本文

    手机应用中扫描本文二维码,即可浏览本文或分享到您的社交网络中。

  • 微信公众号

    扫描二维码,关注中华厨具网微信公众号,实时了解行业最新动态。

今日热点文章更多
品牌聚焦更多
推荐品牌更多
热门频道
关闭广告
合作伙伴:
中华厨具网 鲁ICP备2021046805号         鲁公网安备 37162502000363号 (c)2018-2026SYSTEM All Rights Reserved 投资有风险 加盟需谨慎
关闭广告
关闭广告